SHOUJIKE

Meta が最先端の AI フレームワークをリリース。リスクが高すぎると判断された AI システムの開発を中止します。

2月4日、MetaのCEOマーク・ザッカーバーグ氏が、将来的には人間が実行できるあらゆるタスクを実行できるAI(汎用人工知能)を一般公開すると約束したと報じられました。しかし、Metaの最新のポリシー文書によると、同社は特定の状況下で社内開発の高性能AIシステムの公開を制限する可能性があるとのことです。

「フロンティアAIフレームワーク」と題されたこの文書は、Meta社が導入リスクが高すぎると判断する2種類のAIシステム、「高リスク」システムと「クリティカルリスク」システムを明確に定義しています。Meta社の定義によれば、どちらのシステムもサイバー攻撃、化学攻撃、生物攻撃を容易にする能力を有しています。違いは、「クリティカルリスク」システムは「想定される導入環境では軽減できない壊滅的な結果」をもたらす可能性があるのに対し、「高リスク」システムは攻撃の実行を容易にする可能性があるものの、「クリティカルリスク」システムよりも信頼性や安定性が低いという点にあります。

Metaがその文書の中で、「ベストプラクティスによって保護された企業環境へのエンドツーエンドの自動侵入」や「影響力の大きい生物兵器の拡散」といった具体的な攻撃シナリオを挙げていることは注目に値します。Metaは、文書に挙げられている潜在的な壊滅的な事象が網羅的なものではないことを認めていますが、これらはMetaが「最も差し迫っている」と見なし、強力なAIシステムの導入によって直接引き起こされる可能性が最も高い事象です。

Metaは、システミックリスクの評価において単一の実証的テストのみに依拠していない点に注目すべきです。社内外の研究者の意見を統合し、「高位の意思決定者」によるレビューを受けています。Metaは、これは現在の評価科学が「システミックリスクの性質を明確に示す定量的な指標を提供できるほど強力ではない」ためだと述べています。

Meta社がシステムを「高リスク」と判断した場合、システムへの社内アクセスを制限し、リスク軽減策が実施されてリスクが「中レベル」に低減されるまでシステムをリリースしません。システムが「極めてリスクが高い」と判断した場合、Meta社は不正アクセスを防止するためのセキュリティ対策(具体的な内容は明示しません)を講じ、システムのリスクを低減できるまで開発を中断します。

Metaは、同社の「最先端AIフレームワーク」はAI分野の変化に合わせて進化していくと述べている。Metaは以前、今月フランスで開催されるAIアクションサミットにおいて、このフレームワークを予定より前倒しでリリースすることを約束していた。このフレームワークは、同社のシステム開発における「オープン」なアプローチに対する批判への回答のようだ。Metaは一貫してAI技術を公開する戦略を採用しており(ただし、従来の意味でのオープンソースではない)、OpenAIのようにシステムをAPIの背後に配置することを選択する企業とは対照的だ。

メタ氏は文書の中で、「高度な人工知能の開発と導入のメリットとデメリットを考慮すると、適切なリスクレベルを維持しながら、そのメリットを維持した形で社会に技術を提供することは可能だと考えている」と述べた。(オーシャン)