Dix-huit pays, dont les États-Unis, la Grande-Bretagne, l’Allemagne, l’Italie, l’Australie et Singapour, viennent de conclure un accord visant à renforcer la sécurité dans la conception de l’intelligence artificielle (IA). Il s’agit d’une première mondiale en matière de règles internationales axées sur le développement de systèmes IA sécurisés dès leur élaboration et la protection de ces technologies contre les acteurs malveillants.
Un accord international pour renforcer la cybersécurité de l’intelligence artificielle
Selon Jen Easterly, directrice de l’Agence américaine de cybersécurité et de sécurité des infrastructures (CISA), il est important que les pays reconnaissent que le développement de l’IA nécessite une approche centrée sur la sécurité. C’est la première fois qu’un consensus est atteint pour accorder plus d’importance à la sécurité qu’à la fonctionnalité, la rapidité de mise sur le marché ou la réduction des coûts dans le domaine de l’IA.
Les textes fondateurs d’une nouvelle ère de cybersécurité
Le Centre national de cybersécurité britannique (NCSC) considère ces premiers textes comme étant les prémices d’autres réglementations à venir. L’ambition est d’aider les développeurs à prendre des décisions éclairées en matière de cybersécurité à chaque étape du processus de développement. L’objectif est de faire en sorte que la sécurité devienne une condition sine qua non pour tout système d’intelligence artificielle et qu’elle soit placée au centre des travaux de développement de chaque composant durant tout le processus. À l’occasion du lancement de cette opération, une centaine de partenaires clés de l’industrie, des gouvernements et des agences internationales se réuniront, dont Microsoft, l’Institut Alan Turing et les agences de cybersécurité britannique, américaine, canadienne et allemande.
Un engagement collectif pour garantir un développement sécurisé de l’IA
Le dimanche 26 novembre, des pays tels que les États-Unis, le Royaume-Uni, la France et une douzaine d’autres ont signé cet accord pour renforcer la cybersécurité de l’intelligence artificielle. Il s’agit du premier accord international détaillé visant à protéger l’intelligence artificielle contre les acteurs malveillants et à encourager les entreprises à créer des systèmes IA sécurisés dès leur conception. Pour ce faire, la CISA et le NCSC ont publié de nouvelles directives concernant le développement de systèmes IA sécurisés qui aideront les développeurs à prendre des décisions éclairées en matière de cybersécurité à chaque étape du processus de développement.
Des recommandations pour assurer la sécurité dans le domaine de l’IA
Ces lignes directrices, signées par les agences de 18 pays, visent à élever les niveaux de cybersécurité de l’intelligence artificielle et à contribuer ainsi à garantir que celle-ci est conçue, développée et déployée en toute sécurité. Jen Easterly souligne que la publication de ces directives marque « une étape clé dans notre engagement collectif – des gouvernements du monde entier – pour assurer un développement et un déploiement sécurisés des capacités d’IA dès leur conception ». Bien qu’il ne s’agisse pas d’un accord contraignant, il contient principalement des recommandations générales telles que la surveillance des systèmes IA contre les abus, la protection des données contre la falsification et le contrôle des fournisseurs de logiciels.
Une déclaration internationale inédite pour anticiper les risques de l’IA
L’accord cherche également à répondre aux questions sur la manière de prévenir le détournement de la technologie d’intelligence artificielle par des pirates informatiques. Il inclut des recommandations telles que la publication de modèles uniquement après avoir effectué des tests de sécurité appropriés. Au total, ce sont 28 pays, dont les États-Unis, le Royaume-Uni, les États membres de l’Union européenne et la Chine, qui ont signé la Déclaration de Bletchley visant à anticiper les risques potentiels posés par l’intelligence artificielle. La Déclaration de Bletchley représente la première déclaration internationale sur l’IA, tous les pays ayant convenu que cette technologie représente un risque potentiellement catastrophique pour l’humanité.
À l’heure où l’intelligence artificielle prend une place de plus en plus importante dans notre société, cet accord international et les mesures annoncées constituent un pas important vers la garantie d’un développement sécurisé et responsable de cette technologie cruciale. La coopération entre les différents pays et acteurs devra perdurer pour prévenir efficacement les risques inhérents à l’utilisation croissante de l’IA dans divers domaines.