Cybersécurité de l’IA : 18 pays s’unissent, priorité à la sécurité

Dans une démarche sans précédent, dix-huit pays, incluant les grandes puissances mondiales, ont conclu un accord international pour prioriser la cybersécurité dans le développement de l'intelligence artificielle. Cette initiative vise à établir des normes mondiales pour la conception sécurisée de l'IA, en réponse aux risques croissants liés à son utilisation et à son développement.
Publié le 28 novembre 2023 à 14h15
modifié le 28 novembre 2023 à 14h15
Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.

Dix-huit pays, dont les États-Unis, la Grande-Bretagne, l’Allemagne, l’Italie, l’Australie et Singapour, viennent de conclure un accord visant à renforcer la sécurité dans la conception de l’intelligence artificielle (IA). Il s’agit d’une première mondiale en matière de règles internationales axées sur le développement de systèmes IA sécurisés dès leur élaboration et la protection de ces technologies contre les acteurs malveillants.

Un accord international pour renforcer la cybersécurité de l’intelligence artificielle

Selon Jen Easterly, directrice de l’Agence américaine de cybersécurité et de sécurité des infrastructures (CISA), il est important que les pays reconnaissent que le développement de l’IA nécessite une approche centrée sur la sécurité. C’est la première fois qu’un consensus est atteint pour accorder plus d’importance à la sécurité qu’à la fonctionnalité, la rapidité de mise sur le marché ou la réduction des coûts dans le domaine de l’IA.

Les textes fondateurs d’une nouvelle ère de cybersécurité

Le Centre national de cybersécurité britannique (NCSC) considère ces premiers textes comme étant les prémices d’autres réglementations à venir. L’ambition est d’aider les développeurs à prendre des décisions éclairées en matière de cybersécurité à chaque étape du processus de développement. L’objectif est de faire en sorte que la sécurité devienne une condition sine qua non pour tout système d’intelligence artificielle et qu’elle soit placée au centre des travaux de développement de chaque composant durant tout le processus. À l’occasion du lancement de cette opération, une centaine de partenaires clés de l’industrie, des gouvernements et des agences internationales se réuniront, dont Microsoft, l’Institut Alan Turing et les agences de cybersécurité britannique, américaine, canadienne et allemande.

Un engagement collectif pour garantir un développement sécurisé de l’IA

Le dimanche 26 novembre, des pays tels que les États-Unis, le Royaume-Uni, la France et une douzaine d’autres ont signé cet accord pour renforcer la cybersécurité de l’intelligence artificielle. Il s’agit du premier accord international détaillé visant à protéger l’intelligence artificielle contre les acteurs malveillants et à encourager les entreprises à créer des systèmes IA sécurisés dès leur conception. Pour ce faire, la CISA et le NCSC ont publié de nouvelles directives concernant le développement de systèmes IA sécurisés qui aideront les développeurs à prendre des décisions éclairées en matière de cybersécurité à chaque étape du processus de développement.

Des recommandations pour assurer la sécurité dans le domaine de l’IA

Ces lignes directrices, signées par les agences de 18 pays, visent à élever les niveaux de cybersécurité de l’intelligence artificielle et à contribuer ainsi à garantir que celle-ci est conçue, développée et déployée en toute sécurité. Jen Easterly souligne que la publication de ces directives marque « une étape clé dans notre engagement collectif – des gouvernements du monde entier – pour assurer un développement et un déploiement sécurisés des capacités d’IA dès leur conception ». Bien qu’il ne s’agisse pas d’un accord contraignant, il contient principalement des recommandations générales telles que la surveillance des systèmes IA contre les abus, la protection des données contre la falsification et le contrôle des fournisseurs de logiciels.

Une déclaration internationale inédite pour anticiper les risques de l’IA

L’accord cherche également à répondre aux questions sur la manière de prévenir le détournement de la technologie d’intelligence artificielle par des pirates informatiques. Il inclut des recommandations telles que la publication de modèles uniquement après avoir effectué des tests de sécurité appropriés. Au total, ce sont 28 pays, dont les États-Unis, le Royaume-Uni, les États membres de l’Union européenne et la Chine, qui ont signé la Déclaration de Bletchley visant à anticiper les risques potentiels posés par l’intelligence artificielle. La Déclaration de Bletchley représente la première déclaration internationale sur l’IA, tous les pays ayant convenu que cette technologie représente un risque potentiellement catastrophique pour l’humanité.

À l’heure où l’intelligence artificielle prend une place de plus en plus importante dans notre société, cet accord international et les mesures annoncées constituent un pas important vers la garantie d’un développement sécurisé et responsable de cette technologie cruciale. La coopération entre les différents pays et acteurs devra perdurer pour prévenir efficacement les risques inhérents à l’utilisation croissante de l’IA dans divers domaines.

Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.
actu.iaNewsCybersécurité de l'IA : 18 pays s'unissent, priorité à la sécurité

Meta AI se prépare à affronter de nouveaux défis

découvrez comment meta ai se prépare à relever de nouveaux défis dans le domaine de l'intelligence artificielle. explorez les stratégies innovantes et les technologies émergentes qui façonnent l'avenir de l'ia et les ambitions de meta pour rester à la pointe de cette révolution technologique.
découvrez comment un modèle alternatif révolutionnaire détecte les fausses informations en analysant simultanément des données textuelles et visuelles, garantissant une évaluation plus précise et fiable des contenus en ligne.
découvrez comment github améliore son offre d'intelligence artificielle avec copilot, qui intègre plusieurs nouveaux modèles, et l'introduction de spark pour optimiser le développement web. restez à la pointe de l'innovation avec ces outils performants!

Le Nouveau Hub Électoral de Perplexity Suscite des Réactions chez les Experts en IA

découvrez comment le nouveau hub électoral de perplexity révolutionne le paysage des élections et suscite des débats passionnés parmi les experts en intelligence artificielle. analyse des innovations et des implications sur les processus électoraux.
découvrez comment openai et google, deux géants de la recherche en intelligence artificielle, redéfinissent le paysage des recherches en ligne. plongez dans leur confrontation et explorez les innovations qui façonnent l'avenir du web.
découvrez comment les petites et moyennes entreprises (pme) se réinventent face à l'impact révolutionnaire de l'intelligence artificielle et des marketplaces b2b. explorez les opportunités et défis que présentent ces nouvelles technologies pour transformer votre modèle d'affaires et stimuler votre croissance.