Face aux dangers potentiels de l’intelligence artificielle (IA), le gouvernement américain souhaite désormais intervenir et instaurer une régulation sur cette technologie. Une récente discussion entre Kevin Roose, chroniqueur tech au “New York Times” et Casey Newton de “Platformer”, a permis de mettre en lumière certains aspects du nouvel ordre exécutif promulgué par le président Joe Biden concernant l’IA. この命令は主に、GPT-4やClaude 3などの高度なAIモデルを開発する企業に対して開示要件を課すことを目的としています。
AIモデルを開発する企業の義務
大統領が署名したこの命令によれば、一定の閾値を超えるAIモデルを開発する企業は、今後これらのモデルのトレーニングについて連邦政府に通知しなければなりません。また、これらの能力や性能を評価するために行われたセキュリティテストの結果も開示する必要があります。 その目的は、人工知能の開発と利用をよりよく制御するための法的枠組みを確立することです、不正使用を避け、潜在的なリスクを防ぐために。
人工知能に関する行政命令の限界
現在の行政命令は、GPT-4やClaude 2などの既存のAIモデルには適用されないことに注意が必要です。これらは、アメリカ政府が新しい要件を課さずに、業界の企業によって引き続き自由に使用されることになります。ただし、モデルがバイデン政権によって設定された閾値を超えた場合、これらの義務が発効します。
人工知能の危険に関する懸念
政府がAI規制に介入しようとする意向は、この技術に関する潜在的な危険に対する懸念から生じています。 人工知能、特に高度なモデルは、個人データの保護や自律的システムの利用に関連する事故の責任など、多くの倫理的問題を提起しています。
この新たな行政命令に対する批判
しかし、この行政命令の発表は、業界のすべての関係者によって熱狂的に迎えられたわけではありません。一部は、これらの措置がイノベーションを抑制し、アメリカ企業の国際競争力を損なう可能性を懸念しています。規制の支持者は、安全性とすべての市民の基本的権利の尊重を保証するために法的枠組みを確立する必要があると考えています。
アメリカにおける人工知能の未来
批判にもかかわらず、アメリカ政府は規制の方向に進む意向を示しています。この新たな方針は、アメリカおよび世界中で人工知能がどのように開発され、使用されるかに大きな影響を与える可能性があります。 しかし、これらの規制の進展を注意深く追跡し、それらの効果を測定し、今後のAIモデルに応じて調整する必要があります。
したがって、人工知能を規制するためのアメリカ政府の介入は、この技術の進化において重要なステップを示しています。この行政命令が今後のAIモデルの開発や、他国政府のこの重要な主題に対する姿勢にどのような影響を与えるかを注視することは興味深いでしょう。