Harry et Meghan dévoilent une position audacieuse sur l’essor de l’intelligence artificielle. Leur appel à l’interdiction des systèmes superintelligents soulève des préoccupations éthiques profondes. Des experts, dont des lauréats du prix Nobel, s’associent à cette initiative, révélant des enjeux menaçants pour l’humanité. La déclaration émanant de ce collectif met en exergue l’urgente nécessité de renforcer la régulation des technologies avancées. Le risque d’une superintelligence échappant à tout contrôle pourrait bouleverser nos sociétés.
Appel à l’interdiction de l’intelligence artificielle superintelligente
Harry et Meghan, le Duc et la Duchesse de Sussex, se sont joints à des pionniers de l’intelligence artificielle (IA) ainsi qu’à des lauréats du Prix Nobel pour exiger une interdiction sur le développement de systèmes d’IA superintelligents. Le couple royal fait partie des signataires d’une déclaration qui demande un arrêt complet de cette recherche jusqu’à ce qu’un consensus scientifique large garantisse une développement sécuritaire et contrôlable de l’IA.
Les dangers de l’intelligence artificielle superintelligente
Le terme « intelligence artificielle superintelligente » (ASI) désigne des systèmes d’IA qui, en théorie, surpassent l’intelligence humaine dans tous les domaines cognitifs. Les signataires avertissent que la mise en circulation de tels systèmes pourrait avoir des répercussions catastrophiques, notamment la perte d’emplois humains et des violations des droits civils. Des personnalités comme Geoffrey Hinton et Yoshua Bengio, deux figures emblématiques de l’IA, soulignent que le développement d’ASI doit être suspendu jusqu’à la formation d’un accord solide sur sa sécurité.
Une réponse aux préoccupations publiques
Cette déclaration, destinée aux gouvernements, aux entreprises technologiques et aux législateurs, est le fruit d’une initiative du Future of Life Institute (FLI), une organisation américaine dédiée à la sécurité de l’IA. Avec la montée en puissance de technologies comme ChatGPT, la question de l’IA est devenue un sujet politique majeur. Une enquête récente a révélé qu’environ 75 % des Américains plébiscitent une réglementation stricte sur l’IA avancée. En effet, six Américains sur dix estiment que l’IA superintelligente ne devrait pas être créée avant d’avoir été prouvée sûre.
Les perspectives des experts en intelligence artificielle
Mark Zuckerberg, le PDG de Meta, en juillet dernier, a affirmé que le développement de l’ASI serait « désormais à portée de main ». Néanmoins, des experts mettent en garde, indiquant que les discours autour de l’ASI sont souvent motivés par des intérêts concurrentiels et des investissements massifs dans le domaine de l’IA. La FLI avertit que le développement de l’ASI dans la prochaine décennie pourrait mener à une série de menaces graves, allant de l’automatisation massive de l’emploi à des risques pour la sécurité nationale.
Violations réglementaires potentielles dans le secteur de l’IA
Les grandes entreprises d’IA aux États-Unis, comme OpenAI et Google, s’engagent à développer ce qu’elles appellent « l’intelligence générale artificielle » (AGI), un état théorique où l’IA imite l’intelligence humaine dans de multiples tâches cognitives. Certains experts pointent que cette avancée, bien qu’elle soit un cran en dessous de l’ASI, pourrait aussi entraîner des risques existentiels, car elle pourrait s’auto-améliorer et tendre vers des niveaux de superintelligence. Les pressions des entreprises pour atteindre cet objectif peuvent potentiellement nuire à la société.
Réactions des acteurs du secteur et de la société civile
La position de Harry et Meghan, ainsi que celle d’autres experts, révèle un paysage d’inquiétude croissante face aux capacités de l’IA. Le secteur technologique doit répondre aux préoccupations soulevées par la société civile. La nécessité d’une réglementation s’impose, surtout après des événements récents liés aux abus de l’IA, comme l’enquête sur Nvidia ou le débat sur le chatbot de Snapchat.
Les implications de la superintelligence soulèvent des questions éthiques fondamentales. Ce débat devient crucial alors que le monde fait face aux défis liés à l’IA. Les préoccupations d’une majorité de la population américaine s’alignent sur celles des experts ; une vigilance s’impose concernant le développement rapide et non régulé des technologies d’IA.
Foire aux questions sur l’interdiction des systèmes superintelligents
Pourquoi Harry et Meghan appellent-ils à interdire le développement de l’IA superintelligente ?
Harry et Meghan, en tant que signataires d’une déclaration, soulignent les risques potentiels que présente l’IA superintelligente pour l’humanité, notamment en matière de sécurité, d’emplois et de libertés civiles, appelant à un consensus scientifique sur son développement sécurisé.
Qu’est-ce que l’IA superintelligente (ASI) ?
L’IA superintelligente désigne des systèmes d’intelligence artificielle qui surpasseraient l’intelligence humaine dans toutes les tâches cognitives, une réalisation technologique qui n’a pas encore été atteinte.
Qui d’autre a signé la déclaration aux côtés d’Harry et Meghan ?
Parmi les signataires figurent des pionniers de l’IA tels que Geoffrey Hinton et Yoshua Bengio, ainsi que des personnalités publiques comme Steve Wozniak, Richard Branson et la légende de la sécurité nationale, Susan Rice.
Quel est l’objectif principal de la déclaration signée par Harry et Meghan ?
Le principal objectif de cette déclaration est de demander une prohibition du développement de l’IA superintelligente jusqu’à ce qu’il existe un large consensus scientifique sur sa sécurité et que le public soit en faveur de son développement.
Quelles sont les préoccupations soulevées par l’IA superintelligente, selon les signataires ?
Les préoccupations incluent le risque de perte d’emplois, des atteintes aux libertés civiles, des menaces à la sécurité nationale, et même le risque d’extinction humaine en raison de l’incapacité à contrôler de tels systèmes d’IA.
Y a-t-il des données concernant l’opinion publique sur l’IA superintelligente aux États-Unis ?
Une enquête américaine a révélé qu’environ trois quarts des citoyens souhaitent une réglementation stricte sur l’IA avancée, avec 60% d’entre eux s’opposant au développement d’une IA superhumaine tant que sa sécurité n’est pas prouvée.
Pourquoi certains experts critiquent-ils le développement de l’IA superintelligente ?
Certains experts estiment que la discussion autour de l’IA superintelligente est davantage liée à la compétition entre entreprises technologiques qu’à toute avancée technique imminente, suggérant que les inquiétudes sont amplifiées par des intérêts commerciaux.
Quelle est la position actuelle des grandes entreprises d’IA comme OpenAI et Google sur ce sujet ?
Ces entreprises ont explicitement pour objectif de développer une intelligence artificielle générale, qui, bien qu’étant un niveau inférieur à l’IA superintelligente, pourrait aussi exposer la société à des risques existentiels.