L’État de New York se dote d’une législation novatrice visant à encadrer l’usage de l’intelligence artificielle. Cette initiative marque un tournant décisif dans la gestion des technologies émergentes par les administrations publiques. Les agences gouvernementales devront non seulement *évaluer* leurs outils d’IA, mais également *publier des rapports* transparents sur leur utilisation.
Cette loi interdit l’utilisation d’IA pour des décisions automatiques concernant les prestations sociales, renforçant la nécessité d’une *supervision humaine rigoureuse*. En protégeant les travailleurs de l’État, cette législation vise à établir un cadre solide pour une utilisation responsable de l’IA.
Surveillance renforcée de l’utilisation de l’IA
Le gouvernement de l’État de New York impose de nouvelles régulations sur l’utilisation des logiciels d’intelligence artificielle. Une législation récente, signée par la gouverneure Kathy Hochul, établit des mécanismes de contrôle stricts pour les agences gouvernementales. Cette décision fait suite à des préoccupations croissantes autour de l’utilisation éthique et responsable de l’IA dans le secteur public.
Évaluations obligatoires des logiciels d’IA
Les agences d’État doivent désormais procéder à des évaluations systématiques de tout logiciel utilisant des algorithmes ou des techniques d’intelligence artificielle. Chaque évaluation sera soumise aux dirigeants législatifs et mise à disposition du public en ligne. Ce processus vise à garantir une transparence accrue dans les opérations gouvernementales, en remédiant aux éventuelles abus liés à l’usage de l’IA.
Restrictions sur l’application de l’IA
La législation interdit également l’utilisation de l’IA dans certaines décisions automatisées, notamment celles liées aux allocations de prestations sociales. Ainsi, une décision sur l’octroi de l’allocations chômage ou de l’assistance à l’enfance ne pourra pas être entièrement automatisée. Un suivi humain constant sera exigé, afin d’assurer une supervision adéquate des décisions qui pourraient affecter des vies humaines.
Protection des employés de l’État
Les dispositions législatives incluent des mesures pour protéger les travailleurs de l’État contre les limitations imposées par l’IA. Aucun employé ne pourra voir ses heures de travail ou ses responsabilités réduites en raison de l’implémentation d’outils d’IA. Cette règle entend prévenir les dérives professionnelles qui pourraient causer des répercussions négatives sur l’emploi public.
Vision politique et implications futures
Le sénateur Kristen Gonzalez, responsable de la conception de cette loi, souligne qu’il s’agit d’une étape fondamentale dans la mise en place de garanties pour encadrer les nouvelles technologies. Le cadre réglementaire vise à prévenir les abus qui pourraient découler d’une utilisation non régulée de l’intelligence artificielle par le gouvernement de New York. Cette initiative s’inscrit dans un panorama mondial de régulation croissante des technologies algorithmique et IA.
La loi est un pas vers un contrôle plus rigoureux de l’IA, garantissant que son utilisation soit conforme aux normes éthiques et aux attentes sociétales. Les ramifications de cette législation pourraient influencer d’autres États à suivre l’exemple de New York, forgeant ainsi un changement potentiel dans la régulation nationale de l’intelligence artificielle.
Pour de plus amples informations sur le concept de régulation des modèles d’intelligence artificielle aux États-Unis, vous pouvez consulter cet article. Lire l’article ici.
Foire aux questions courantes sur la législation sur l’IA à New York
Quelle est la nouvelle législation concernant l’utilisation de l’IA par le gouvernement de l’État de New York ?
La nouvelle législation exige que les agences gouvernementales de l’État de New York mènent des évaluations de tout logiciel utilisant de l’IA et publient des rapports détaillant leur utilisation.
Quelles sont les exigences spécifiques imposées par cette loi concernant l’utilisation de l’IA ?
Les agences doivent procéder à des évaluations des logiciels utilisant des algorithmes, et soumettre ces évaluations au gouverneur et aux dirigeants législatifs, tout en les rendant accessibles en ligne.
Cela signifie-t-il que l’utilisation de l’IA sera complètement interdite dans certaines situations ?
Oui, la loi interdit l’utilisation de l’IA pour certaines décisions automatisées, comme celles liées aux prestations de chômage ou de garde d’enfants, sauf si un humain surveille constamment le processus.
Les employés de l’État seront-ils affectés par l’intégration de l’IA ?
Non, la législation protège les employés d’une réduction de leurs horaires ou de leurs responsabilités en raison de l’utilisation de l’IA.
Qui a initié cette législation et quel est son objectif principal ?
La législation a été proposée par la sénatrice d’État Kristen Gonzalez, avec pour objectif de mettre en place des garde-fous sur l’utilisation de cette technologie émergente dans le gouvernement d’État.
Comment la transparence sur l’utilisation de l’IA sera-t-elle assurée ?
La législation exige que les évaluations des logiciels soient publiées, ce qui garantit une transparence sur la manière dont l’IA est appliquée dans les agences gouvernementales.
Y a-t-il des conséquences pour les agences qui ne respectent pas cette législation ?
Les détails sur les sanctions spécifiques n’ont pas été précisés, mais le non-respect des exigences pourrait entraîner des répercussions sur la confiance publique et des audits gouvernementaux.
Quels types de technologies de l’IA seront concernés par cette législation ?
Cette législation s’applique à tout logiciel et système utilisant des algorithmes, des modèles computationnels ou d’autres techniques liées à l’IA.
Quelles sont les implications à long terme de cette législation pour d’autres États ?
Elle pourrait servir de modèle pour d’autres États souhaitant réglementer l’utilisation de l’IA, en incitant à une approche plus uniforme à travers le pays sur les questions de transparence et d’éthique concernant l’IA.