Cybersécurité de l’IA : 18 pays s’unissent, priorité à la sécurité

Dans une démarche sans précédent, dix-huit pays, incluant les grandes puissances mondiales, ont conclu un accord international pour prioriser la cybersécurité dans le développement de l'intelligence artificielle. Cette initiative vise à établir des normes mondiales pour la conception sécurisée de l'IA, en réponse aux risques croissants liés à son utilisation et à son développement.
Publié le 28 novembre 2023 à 14h15
modifié le 28 novembre 2023 à 14h15
Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.

Dix-huit pays, dont les États-Unis, la Grande-Bretagne, l’Allemagne, l’Italie, l’Australie et Singapour, viennent de conclure un accord visant à renforcer la sécurité dans la conception de l’intelligence artificielle (IA). Il s’agit d’une première mondiale en matière de règles internationales axées sur le développement de systèmes IA sécurisés dès leur élaboration et la protection de ces technologies contre les acteurs malveillants.

Un accord international pour renforcer la cybersécurité de l’intelligence artificielle

Selon Jen Easterly, directrice de l’Agence américaine de cybersécurité et de sécurité des infrastructures (CISA), il est important que les pays reconnaissent que le développement de l’IA nécessite une approche centrée sur la sécurité. C’est la première fois qu’un consensus est atteint pour accorder plus d’importance à la sécurité qu’à la fonctionnalité, la rapidité de mise sur le marché ou la réduction des coûts dans le domaine de l’IA.

Les textes fondateurs d’une nouvelle ère de cybersécurité

Le Centre national de cybersécurité britannique (NCSC) considère ces premiers textes comme étant les prémices d’autres réglementations à venir. L’ambition est d’aider les développeurs à prendre des décisions éclairées en matière de cybersécurité à chaque étape du processus de développement. L’objectif est de faire en sorte que la sécurité devienne une condition sine qua non pour tout système d’intelligence artificielle et qu’elle soit placée au centre des travaux de développement de chaque composant durant tout le processus. À l’occasion du lancement de cette opération, une centaine de partenaires clés de l’industrie, des gouvernements et des agences internationales se réuniront, dont Microsoft, l’Institut Alan Turing et les agences de cybersécurité britannique, américaine, canadienne et allemande.

Un engagement collectif pour garantir un développement sécurisé de l’IA

Le dimanche 26 novembre, des pays tels que les États-Unis, le Royaume-Uni, la France et une douzaine d’autres ont signé cet accord pour renforcer la cybersécurité de l’intelligence artificielle. Il s’agit du premier accord international détaillé visant à protéger l’intelligence artificielle contre les acteurs malveillants et à encourager les entreprises à créer des systèmes IA sécurisés dès leur conception. Pour ce faire, la CISA et le NCSC ont publié de nouvelles directives concernant le développement de systèmes IA sécurisés qui aideront les développeurs à prendre des décisions éclairées en matière de cybersécurité à chaque étape du processus de développement.

Des recommandations pour assurer la sécurité dans le domaine de l’IA

Ces lignes directrices, signées par les agences de 18 pays, visent à élever les niveaux de cybersécurité de l’intelligence artificielle et à contribuer ainsi à garantir que celle-ci est conçue, développée et déployée en toute sécurité. Jen Easterly souligne que la publication de ces directives marque « une étape clé dans notre engagement collectif – des gouvernements du monde entier – pour assurer un développement et un déploiement sécurisés des capacités d’IA dès leur conception ». Bien qu’il ne s’agisse pas d’un accord contraignant, il contient principalement des recommandations générales telles que la surveillance des systèmes IA contre les abus, la protection des données contre la falsification et le contrôle des fournisseurs de logiciels.

Une déclaration internationale inédite pour anticiper les risques de l’IA

L’accord cherche également à répondre aux questions sur la manière de prévenir le détournement de la technologie d’intelligence artificielle par des pirates informatiques. Il inclut des recommandations telles que la publication de modèles uniquement après avoir effectué des tests de sécurité appropriés. Au total, ce sont 28 pays, dont les États-Unis, le Royaume-Uni, les États membres de l’Union européenne et la Chine, qui ont signé la Déclaration de Bletchley visant à anticiper les risques potentiels posés par l’intelligence artificielle. La Déclaration de Bletchley représente la première déclaration internationale sur l’IA, tous les pays ayant convenu que cette technologie représente un risque potentiellement catastrophique pour l’humanité.

À l’heure où l’intelligence artificielle prend une place de plus en plus importante dans notre société, cet accord international et les mesures annoncées constituent un pas important vers la garantie d’un développement sécurisé et responsable de cette technologie cruciale. La coopération entre les différents pays et acteurs devra perdurer pour prévenir efficacement les risques inhérents à l’utilisation croissante de l’IA dans divers domaines.

Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.
actu.iaNewsCybersécurité de l'IA : 18 pays s'unissent, priorité à la sécurité

Cette startup alimentée par l’intelligence artificielle ambitionne de lancer 100 000 entreprises par an – c’est du sérieux !

découvrez comment cette startup innovante, propulsée par l'intelligence artificielle, se fixe pour objectif de lancer 100 000 entreprises par an. une ambition audacieuse qui pourrait transformer le paysage entrepreneurial !

ChatGPT atteint des sommets d’utilisation en France d’après les données de Médiamétrie

découvrez comment chatgpt connaît une popularité croissante en france selon les dernières données de médiamétrie. analyse des tendances d'utilisation et impact sur la communication numérique.

Microsoft et OpenAI : la bataille qui secoue l’univers de l’intelligence artificielle

découvrez comment microsoft et openai se livrent à une bataille déterminante qui transforme l'univers de l'intelligence artificielle. plongez dans les enjeux, les innovations et les implications de cette confrontation exceptionnelle.

Découvrez comment Claude facilite la création d’outils d’intelligence artificielle sur mesure

découvrez comment claude simplifie la création d'outils d'intelligence artificielle sur mesure, en offrant des solutions adaptées à vos besoins spécifiques. transformez vos idées en réalité grâce à une technologie innovante et intuitive.

Lorsque la physique rattrape la vision artificielle

découvrez comment les avancées en physique révolutionnent la vision artificielle, en intégrant des concepts scientifiques pour améliorer la perception et l'interprétation des images par les machines. un aperçu fascinant des innovations à la croisée de la technologie et des sciences physiques.
découvrez comment le danemark prend les devants contre les deepfakes en protégeant les droits d'auteur des individus sur leurs propres caractéristiques. une initiative qui redéfinit la propriété intellectuelle à l'ère numérique.