人工知能(AI)は、顔認識から自動運転車に至るまで、日常生活のさまざまな側面に統合されています。Google、Meta、Alibaba、OpenAIなどのテクノロジーの巨人たちがこの分野で主要な役割を果たしています。しかし、政府はこれらの技術を規制するルールを形作る上で重要な役割を果たしています。
グローバル規制の台頭
2016年以降、ヨーロッパ、アジア太平洋、北アメリカはAIに特化した規制を策定してきました。世界中で1,600件以上のAIに関する公共政策や戦略が存在します。EU、中国、アメリカ、イギリスは、AIの開発とガバナンスにおいてリーダーとしての地位を確立しています。
規制の加速
2021年4月、欧州連合は、リスクレベルに応じてAIの供給者およびユーザーに義務を課すことを目的としたAI法を発表しました。同時に、中国はアルゴリズムによる推奨や画像・音声の合成など、特定の領域を対象とした独自の規制を導入しました。この反復的なアプローチにより、中国は新たに現れるリスクに適応することができます。
アメリカの対応
これらの進展に対して、アメリカも措置を講じました。2023年10月、ホワイトハウスは、公正性や市民権に関する問題を扱った、安全で信頼性のあるAIに関する大統領令を発布しました。
地政学的競争
このAIのグローバル規制は、特にアメリカと中国の間の地政学的競争を反映しています。一方、欧州連合はデジタル主権を確立しようとしています。
企業への影響
これらの規制は、既存の大手テクノロジー企業を優遇することが多く、法令遵守には多大なコストがかかり、小規模企業にとっての障壁となります。
共通のビジョン
相違点にもかかわらず、一部の統一感が現れています。「ブレッチリー声明」は、アメリカ、イギリス、中国、オーストラリア、およびEUの複数のメンバーを含む28カ国によって署名され、AIの安全性に関する共同協力の意向を示しています。
AIの経済的潜在能力
世界のAI支出は2026年までに3000億ドルを超え、生成型AI市場は2032年までに1.3兆ドルに達する可能性があります。
相違と緊張
各国は防衛やサイバーセキュリティにもAIを活用しており、国際的な緊張の源となっています。中国の社会信用システムのような問題に関する意見の相違が、イギリスでのAI安全性に関する国際サミットで浮上しました。
限界と課題
現在のAI規制には、リスク、安全性、透明性、公正性に関する明確な定義が不足しているなどの限界があります。
グローバルガバナンスへ向けて
「良い実践」が現れつつあり、国連やアメリカの国家標準技術研究所(NIST)などの組織によって導かれ、倫理的合意や地政学的利益に影響を受けたAIの世界的なガバナンスへの動きが示唆されています。