La non-inscription des systèmes d’IA par le gouvernement britannique soulève des interrogations acerbes sur la transparence et la responsabilité. L’absence de régulation dans un secteur où des technologies influencent déjà des millions de vies divise les experts. Les autorités doivent agir rapidement pour instaurer un cadre clair et éviter que cette situation ne dégénère en un véritable crash technologique. Les conséquences d’une telle omission touchent des domaines cruciaux tels que la sécurité publique, les droits individuels et la gestion des ressources. L’urgence d’une inscription devient primordiale pour garantir une adoption éclairée de l’intelligence artificielle dans les services publics.
Absence d’inscription des systèmes d’IA
Aucun département de Whitehall n’a enregistré l’usage des systèmes d’intelligence artificielle (IA) depuis que le gouvernement a annoncé que cela deviendrait obligatoire. Cette absence d’inscription suscite des inquiétudes, certains avertissant que le secteur public navigue à l’aveuglette face à l’implémentation de technologies algorithmiques impactant des millions de vies.
Utilisation actuelle de l’IA
L’IA est déjà employée par le gouvernement pour éclairer des décisions relatives aux paiements de prestations, à l’application de l’immigration et bien d’autres enjeux critiques. Des contrats ont été attribués à divers organismes publics pour des services liés à l’IA, tel qu’un contrat de reconnaissance faciale d’une valeur potentielle pouvant atteindre 20 millions de livres sterling, relançant ainsi les craintes de surveillance biométrique de masse.
Inscription limitée des systèmes algorithmiques
À ce jour, seulement neuf systèmes algorithmiques ont été soumis à un registre public, tandis que de nombreux programmes d’IA utilisés dans le système de protection sociale, au sein du Home Office ou par les forces de police, restent non déclarés. Cette pénurie d’informations est d’autant plus préoccupante que le gouvernement a déclaré en février que l’utilisation de ce registre deviendrait une exigence pour tous les départements gouvernementaux.
Risques associés à une adoption non régulée
Des experts mettent en garde contre les dangers d’une adoption non critique de l’IA. Des exemples récents montrent que des systèmes informatiques ont échoué à produire les résultats escomptés, comme cela a été observé avec le logiciel Horizon de la Poste. Le spectre d’une mauvaise exécution plane également sur d’autres outils d’IA actuellement en phase d’essais.
Appel à la transparence
Peter Kyle, le secrétaire d’État à la science et à la technologie, a reconnu que le secteur public n’a pas accordé suffisamment d’importance à la transparence entourant l’utilisation des algorithmes par le gouvernement. Il a affirmé que si le gouvernement utilise ces technologies, le public a le droit de savoir comment elles sont appliquées, soulignant l’importance d’une visibilité accrue.
Préoccupations soulevées par des groupes de défense des droits
Big Brother Watch, un groupe de défense des droits à la vie privée, a signalé que l’attribution du contrat de reconnaissance faciale aux policiers, malgré les avertissements de parlementaires concernant le manque de régulations, souligne le manque de transparence du gouvernement en matière d’IA. Les technologies algorithmiques utilisées de manière secrète peuvent compromettre les droits des données des citoyens.
Conséquences d’un manque de transparence
L’Institute Ada Lovelace a récemment averti que si les systèmes d’IA peuvent faciliter la gestion administrative, ils peuvent également éroder la confiance du public et réduire les bénéfices si les prévisions qu’ils engendrent sont discriminatoires ou inefficaces.
État du registre national
Depuis la fin de l’année 2022, seulement trois algorithmes ont été enregistrés au niveau national. Ce registre comprend un système utilisé par le Cabinet Office pour identifier des archives numériques, une caméra alimentée par l’IA pour analyser les passages piétons à Cambridge, et un système pour analyser les avis des patients sur les services de l’NHS.
Nouveaux contrats d’IA récemment attribués
Selon Tussell, 164 contrats mentionnant l’IA ont été conclus avec des organismes publics depuis février. Des entreprises technologiques, telles que Microsoft et Meta, encouragent vigoureusement l’adoption de leurs systèmes d’IA à travers le gouvernement. Google Cloud a financé un rapport suggérant qu’une plus grande utilisation de l’IA générative pourrait générer jusqu’à 38 milliards de livres d’économies dans le secteur public d’ici 2030.
Exemples d’utilisation de l’IA par le gouvernement
Département du Travail et des Pensions
Le Département du Travail et des Pensions (DWP) recourt à l’IA générative pour analyser quotidiennement plus de 20 000 documents afin de résumer la correspondance pertinente. Cette approche permet de partager des informations cruciales avec les agents en charge des décisions.
Département de l’Intérieur
Le Home Office utilise un système d’application de l’immigration alimenté par l’IA. Ce système, perçu par certains comme un “robot assistant”, influe sur des décisions de retour d’individus vers leur pays d’origine. Bien que le gouvernement le présente comme basé sur des règles, il soulève des inquiétudes concernant la responsabilité humaine dans chaque décision.
Utilisation par la police
Des forces policières emploient des logiciels de reconnaissance faciale pour identifier des suspects. Cela a provoqué des préoccupations quant à la transformation des rues britanniques en véritables camps de surveillance technologique.
Collaboration avec le NHS
NHS England a engagé un contrat de 330 millions de livres avec Palantir pour créer une nouvelle plate-forme de données. Ce partenariat a suscité des inquiétudes concernant la vie privée des patients, même si Palantir assure que le contrôle des données reste entre les mains de ses clients.
Développement de chatbots
Un chatbot alimenté par l’IA est en cours d’essai pour aider les utilisateurs à naviguer sur le site gov.uk. Ce projet, développé par le service numérique du gouvernement, utilise la technologie ChatGPT d’OpenAI.
Foire aux questions sur l’inscription de l’IA par le gouvernement britannique
Pourquoi le gouvernement britannique n’a-t-il pas inscrit l’utilisation de l’IA sur le registre obligatoire ?
Le gouvernement a annoncé que l’inscription serait obligatoire, mais jusqu’à présent, aucun département n’a enregistré l’utilisation de systèmes d’IA, ce qui suscite des inquiétudes quant à la transparence et au contrôle des algorithmes utilisés dans le secteur public.
Quelles sont les conséquences de l’absence d’inscription des systèmes d’IA ?
L’absence d’inscription expose le public à des gouvernances opaques, où des décisions influençant des millions de citoyens sont prises sans contrôle ni compréhension, rendant la société vulnérable à des biais et à des erreurs potentielles dans l’utilisation des technologies.
Quels systèmes d’IA sont actuellement utilisés par le gouvernement britannique sans inscription ?
Malgré des millions de contrats attribués pour des services d’IA, seulement neuf systèmes d’IA ont été enregistrés, laissant des programmes dans des domaines tels que le bien-être et l’immigration non documentés.
Quelles parties du gouvernement britanniques utilisent des technologies d’IA sans transparence ?
Divers départements, y compris le Cabinet Office, le Home Office et le Département du Travail et des Pensions, utilisent des systèmes d’IA pour des tâches critiques comme l’exécution de décisions d’immigration et des contrôles de fraudes, sans rendre ces usages publics.
Comment la transparence dans l’utilisation de l’IA affecte-t-elle la confiance du public ?
La transparence est essentielle pour que le public se sente en sécurité concernant l’utilisation de ses données. Sans information claire, la confiance diminue, ce qui peut mener à des réticences à accepter l’adoption de l’IA dans les services publics.
Quelles mesures le gouvernement prévoit-il de prendre pour assurer l’inscription de l’IA ?
Le gouvernement a affirmé que la transparence et l’inscription des systèmes d’IA deviendraient obligatoires, mais des détails spécifiques sur la mise en œuvre de ces mesures restent flous et n’ont pas encore été concrétisés.
Quelle est l’opinion des experts sur l’état actuel de l’IA dans le secteur public ?
Les experts soulignent que l’absence d’inscription adéquate constitue un risque majeur, pouvant mener à des décisions inéquitables et à l’érosion de la confiance publique, ainsi que des appels à une plus grande transparence dans l’utilisation de ces technologies.
Y a-t-il des exemples concrets de problèmes dus à un manque de réglementations sur l’IA ?
Oui, des incidents comme les erreurs du logiciel Horizon de Post Office témoignent des dangers d’un déploiement non régulé, entraînant de graves conséquences pour les individus impliqués.
Quelles actions peuvent être entreprises par le public concernant l’utilisation de l’IA par le gouvernement ?
Le public peut demander des comptes aux représentants élus et promouvoir une législation qui exige l’inscription et la transparence des systèmes d’IA utilisés dans le secteur public.