Cybersécurité de l’IA : 18 pays s’unissent, priorité à la sécurité

Dans une démarche sans précédent, dix-huit pays, incluant les grandes puissances mondiales, ont conclu un accord international pour prioriser la cybersécurité dans le développement de l'intelligence artificielle. Cette initiative vise à établir des normes mondiales pour la conception sécurisée de l'IA, en réponse aux risques croissants liés à son utilisation et à son développement.
Publié le 28 novembre 2023 à 14h15
modifié le 28 novembre 2023 à 14h15
Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.

Dix-huit pays, dont les États-Unis, la Grande-Bretagne, l’Allemagne, l’Italie, l’Australie et Singapour, viennent de conclure un accord visant à renforcer la sécurité dans la conception de l’intelligence artificielle (IA). Il s’agit d’une première mondiale en matière de règles internationales axées sur le développement de systèmes IA sécurisés dès leur élaboration et la protection de ces technologies contre les acteurs malveillants.

Un accord international pour renforcer la cybersécurité de l’intelligence artificielle

Selon Jen Easterly, directrice de l’Agence américaine de cybersécurité et de sécurité des infrastructures (CISA), il est important que les pays reconnaissent que le développement de l’IA nécessite une approche centrée sur la sécurité. C’est la première fois qu’un consensus est atteint pour accorder plus d’importance à la sécurité qu’à la fonctionnalité, la rapidité de mise sur le marché ou la réduction des coûts dans le domaine de l’IA.

Les textes fondateurs d’une nouvelle ère de cybersécurité

Le Centre national de cybersécurité britannique (NCSC) considère ces premiers textes comme étant les prémices d’autres réglementations à venir. L’ambition est d’aider les développeurs à prendre des décisions éclairées en matière de cybersécurité à chaque étape du processus de développement. L’objectif est de faire en sorte que la sécurité devienne une condition sine qua non pour tout système d’intelligence artificielle et qu’elle soit placée au centre des travaux de développement de chaque composant durant tout le processus. À l’occasion du lancement de cette opération, une centaine de partenaires clés de l’industrie, des gouvernements et des agences internationales se réuniront, dont Microsoft, l’Institut Alan Turing et les agences de cybersécurité britannique, américaine, canadienne et allemande.

Un engagement collectif pour garantir un développement sécurisé de l’IA

Le dimanche 26 novembre, des pays tels que les États-Unis, le Royaume-Uni, la France et une douzaine d’autres ont signé cet accord pour renforcer la cybersécurité de l’intelligence artificielle. Il s’agit du premier accord international détaillé visant à protéger l’intelligence artificielle contre les acteurs malveillants et à encourager les entreprises à créer des systèmes IA sécurisés dès leur conception. Pour ce faire, la CISA et le NCSC ont publié de nouvelles directives concernant le développement de systèmes IA sécurisés qui aideront les développeurs à prendre des décisions éclairées en matière de cybersécurité à chaque étape du processus de développement.

Des recommandations pour assurer la sécurité dans le domaine de l’IA

Ces lignes directrices, signées par les agences de 18 pays, visent à élever les niveaux de cybersécurité de l’intelligence artificielle et à contribuer ainsi à garantir que celle-ci est conçue, développée et déployée en toute sécurité. Jen Easterly souligne que la publication de ces directives marque « une étape clé dans notre engagement collectif – des gouvernements du monde entier – pour assurer un développement et un déploiement sécurisés des capacités d’IA dès leur conception ». Bien qu’il ne s’agisse pas d’un accord contraignant, il contient principalement des recommandations générales telles que la surveillance des systèmes IA contre les abus, la protection des données contre la falsification et le contrôle des fournisseurs de logiciels.

Une déclaration internationale inédite pour anticiper les risques de l’IA

L’accord cherche également à répondre aux questions sur la manière de prévenir le détournement de la technologie d’intelligence artificielle par des pirates informatiques. Il inclut des recommandations telles que la publication de modèles uniquement après avoir effectué des tests de sécurité appropriés. Au total, ce sont 28 pays, dont les États-Unis, le Royaume-Uni, les États membres de l’Union européenne et la Chine, qui ont signé la Déclaration de Bletchley visant à anticiper les risques potentiels posés par l’intelligence artificielle. La Déclaration de Bletchley représente la première déclaration internationale sur l’IA, tous les pays ayant convenu que cette technologie représente un risque potentiellement catastrophique pour l’humanité.

À l’heure où l’intelligence artificielle prend une place de plus en plus importante dans notre société, cet accord international et les mesures annoncées constituent un pas important vers la garantie d’un développement sécurisé et responsable de cette technologie cruciale. La coopération entre les différents pays et acteurs devra perdurer pour prévenir efficacement les risques inhérents à l’utilisation croissante de l’IA dans divers domaines.

Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.
actu.iaNewsCybersécurité de l'IA : 18 pays s'unissent, priorité à la sécurité

Palantir contre Adobe : Wall Street recommande d’investir dans une action IA et de se défaire de l’autre

découvrez pourquoi wall street recommande d'investir dans palantir, une entreprise d'intelligence artificielle en pleine croissance, tout en conseillant de se défaire des actions adobe. analyse des tendances du marché et des perspectives d'investissement à ne pas manquer.
découvrez comment une publication virale a transformé un 'trésor caché' de londres en un lieu dévasté par l'afflux d'influenceurs, suscitant l'indignation des londoniens. plongée dans cette polémique qui fait écho à la lutte entre authenticité et commercialisation.

LightOn : une entrée en bourse stratégique dans sa transition de modèle économique

découvrez comment lighton réalise une entrée en bourse stratégique pour accompagner sa transition vers un nouveau modèle économique, en mettant l'accent sur l'innovation et la croissance durable.
découvrez dream lab de canva, un nouvel outil innovant de génération d'images par intelligence artificielle. ce guide d'utilisation vous accompagne pas à pas pour exploiter tout le potentiel de cette technologie révolutionnaire dans vos créations graphiques.

Daryl Cromer de Lenovo : Aspirations pour Devenir le Leader Mondial des PC Équipés d’IA

découvrez les ambitions de daryl cromer, figure emblématique de lenovo, alors qu'il partage sa vision pour faire de l'entreprise le leader mondial des pc intégrant l'intelligence artificielle. explorez les innovations et les stratégies qui façonneront l'avenir de la technologie.

De Rupert Murdoch à Thom Yorke : l’opposition croissante contre l’intelligence artificielle

découvrez comment des figures emblématiques comme rupert murdoch et thom yorke s'opposent à l'intelligence artificielle. explorez les préoccupations croissantes et les débats autour de l'impact de cette technologie sur notre société et notre créativité.