Face aux dangers potentiels de l’intelligence artificielle (IA), le gouvernement américain souhaite désormais intervenir et instaurer une régulation sur cette technologie. Une récente discussion entre Kevin Roose, chroniqueur tech au « New York Times » et Casey Newton de « Platformer », a permis de mettre en lumière certains aspects du nouvel ordre exécutif promulgué par le président Joe Biden concernant l’IA. Cet ordre vise principalement à imposer des exigences de divulgation aux entreprises qui développent des modèles d’IA avancés, tels que GPT-4 ou Claude 3.
Des obligations pour les entreprises développant des modèles d’IA
Selon l’ordre exécutif signé par le président, les entreprises qui développeront des modèles IA dépassant un certain seuil devront dorénavant informer le gouvernement fédéral de la formation de ces modèles. Elles devront également divulguer les tests de sécurité effectués pour évaluer leurs capacités et leur performance. L’objectif est d’établir un cadre légal permettant de mieux contrôler le développement et l’utilisation de l’intelligence artificielle, pour éviter les abus et prévenir d’éventuels risques.
Les limites de l’ordre exécutif sur l’intelligence artificielle
Il est important de noter que l’ordre exécutif actuel ne s’applique pas aux modèles d’IA déjà existants, tels que GPT-4 ou Claude 2. Ceux-ci continueront donc d’être utilisés librement par les entreprises du secteur sans avoir à se conformer aux nouvelles exigences imposées par le gouvernement américain. Toutefois, lorsqu’un modèle dépassera le seuil établi par l’administration Biden, ces obligations entreront en vigueur.
Les craintes concernant les dangers de l’intelligence artificielle
La volonté du gouvernement d’intervenir dans la régulation de l’IA provient des inquiétudes croissantes concernant les dangers potentiels de cette technologie. L’intelligence artificielle, et notamment les modèles avancés, soulèvent de nombreuses questions éthiques, comme celle de la protection des données personnelles, ou encore celle de la responsabilité en cas d’accidents liés à l’utilisation de systèmes autonomes.
Des critiques face à ce nouvel ordre exécutif
Cependant, l’annonce de cet ordre exécutif n’a pas été accueillie avec enthousiasme par tous les acteurs du secteur. Certains craignent que ces mesures ne freinent l’innovation et nuisent à la compétitivité des entreprises américaines sur le marché mondial de l’IA. Les partisans de la régulation, eux, considèrent qu’il est nécessaire de mettre en place un cadre légal pour garantir la sécurité et le respect des droits fondamentaux de tous les citoyens.
L’avenir de l’intelligence artificielle aux États-Unis
Malgré les critiques, le gouvernement américain semble déterminé à avancer dans la voie de la régulation. Cette nouvelle orientation pourrait avoir un impact majeur sur la façon dont l’intelligence artificielle est développée et utilisée aux États-Unis et dans le monde entier. Cependant, il faudra suivre de près l’évolution de ces régulations pour mesurer leur efficacité et ajuster en conséquence les futurs modèles d’IA.
Ainsi, l’intervention du gouvernement américain pour réguler l’intelligence artificielle marque une étape importante dans l’évolution de cette technologie. Il sera intéressant de suivre les répercussions de cet ordre exécutif sur le développement des futurs modèles d’IA, ainsi que sur la posture des autres gouvernements face à ce sujet crucial.