十八の国々、アメリカ合衆国、イギリス、ドイツ、イタリア、オーストラリア、シンガポールを含む国々が、人工知能(AI)の設計におけるセキュリティを強化するための合意を結びました。これは、安全なAIシステムの開発に関する国際的なルールを初めて確立し、悪意のある行為者からこれらの技術を守るためのものです。
人工知能のサイバーセキュリティを強化するための国際合意
アメリカ合衆国のサイバーセキュリティおよびインフラセキュリティ庁(CISA)のディレクター、ジェン・イースターリーによれば、各国はAIの開発にはセキュリティ中心のアプローチが必要であることを認識することが重要です。 AIの分野において、機能性、市場投入のスピード、コスト削減よりもセキュリティを重視するという合意が初めて達成されました。
サイバーセキュリティの新たな時代を切り開く基盤文書
イギリスの国家サイバーセキュリティセンター(NCSC)は、これらの最初の文書を今後の他の規制の先駆けであると考えています。目標は、開発プロセスの各段階で開発者がサイバーセキュリティに関する情報に基づく意思決定を行えるようにすることです。 セキュリティがすべての人工知能システムの必要条件となり、各コンポーネントの開発作業の中心に置かれることを目指しています。 このオペレーションの開始に際し、マイクロソフト、アラン・チューリング研究所、イギリス、アメリカ合衆国、カナダ、ドイツのサイバーセキュリティ機関など、業界の重要なパートナー100社が一堂に会します。
人工知能のセキュアな開発を保証するための集団的なコミットメント
11月26日の日曜日、アメリカ、イギリス、フランスなどの国々が、人工知能のサイバーセキュリティを強化するためにこの合意に署名しました。これは、悪意のある行為者から人工知能を保護し、企業が設計段階から安全なAIシステムを作成することを奨励するための初めての詳細な国際合意です。そのために、CISAとNCSCは、開発プロセスの各段階で開発者がサイバーセキュリティに関する情報に基づく意思決定を行えるよう支援するために、安全なAIシステムの開発に関する新しいガイドラインを発表しました。
AI領域でのセキュリティを確保するための推奨事項
18か国の機関によって署名されたこれらのガイドラインは、人工知能のサイバーセキュリティレベルを引き上げ、設計、開発、展開が安全に行われることを保証することを目的としています。ジェン・イースターリーは、これらのガイドラインの発表が 「世界中の政府による私たちの集団的なコミットメントの重要なステップである – AIの能力の安全な開発と展開をその設計から保証するために」であると強調しています。これは法的拘束力のある合意ではありませんが、主にシステムAIにおける不正使用の監視、データの改ざんからの保護、ソフトウェア供給業者の監視などの一般的な推奨事項を含んでいます。
AIのリスクを予見するための前例のない国際宣言
この合意はまた、ハッカーによる人工知能技術の悪用を防ぐための方法についての質問にも答えようとしています。適切なセキュリティテストを実施した後にのみモデルを公開することなどの推奨事項が含まれています。合計で、アメリカ、イギリス、EU加盟国、中国を含む28か国が、人工知能が人類にもたらす潜在的なリスクを予見するためのブレッチリー宣言に署名しました。 ブレッチリー宣言は、AIに関する初の国際宣言であり、すべての国がこの技術が人類に対して潜在的に壊滅的なリスクをもたらすことに合意しています。
人工知能が私たちの社会においてますます重要な役割を果たす中、この国際合意と発表された措置は、この重要な技術の安全で責任ある開発を保証するための重要な一歩となります。リスクを効果的に防ぐためには、異なる国々や関係者間の協力を持続させる必要があります。