Metaが先端的なAIの開発と公開に関する包括的な方針文書となる「Frontier AI Framework」を発表しました。この中で、MetaはAIによるリスクを3段階に分類し、最も重大なリスクがあると判断された場合は開発を停止し、限られた専門家のみがアクセスできる厳格な管理体制を敷くことを明記しています。 続きを読む ≫