Les chatbots à intelligence artificielle, tels que ChatGPT et Copilot, *provoquent des distorsions* dans l’information. L’analyse menée par la BBC met en lumière des *problèmes significatifs* de désinformation dans leurs réponses aux actualités. Ces outils automatisés, tout en promettant de faciliter l’accès à l’information, sont souvent créateurs de contenus biaisés et trompeurs. *Des inexactitudes factuelles* remettent en question la confiance du public envers ces technologies émergentes. Le rapport souligne l’ampleur des erreurs, atteignant parfois des informations critiques sur des événements récents et des personnalités politiques.
Les résultats alarmants de l’étude de la BBC
Une étude menée par la BBC révèle que les assistants d’intelligence artificielle (IA) produisent des réponses erronées et trompeuses en matière d’actualités. Plus de la moitié des réponses générées par des outils tels que ChatGPT, Copilot, Gemini et Perplexity présentent des « problèmes significatifs ». Les journalistes de la BBC, spécialisés sur ces sujets, ont évalué ces réponses en se basant sur des articles de leur propre rédaction.
Nature des erreurs constatées
Les erreurs relevées incluent des affirmations factuellement incorrectes. Par exemple, ces outils ont désigné Rishi Sunak et Nicola Sturgeon comme des dirigeants encore en fonction, ce qui est inexact. Des conseils erronés sur le vapotage, ainsi que des confusions entre opinions et faits récents, font partie des distorsions observées.
Exemples concrets d’inexactitudes
Les chercheurs ont interroge les IA sur 100 questions en utilisant des articles de la BBC comme référence. Environ 20% des réponses contenaient des erreurs factuelles relatives aux chiffres, aux dates ou aux déclarations. Près de 13% des citations attribuées à la BBC étaient soit altérées, soit inexistantes dans les articles mentionnés.
Une réponse de Gemini à la question sur la culpabilité de la nourrice néonatale Lucy Letby omettait de préciser le contexte de ses condamnations pour meurtre. Microsoft’s Copilot a mal informé sur le cas de la victime Gisèle Pelicot en déformant son récit. ChatGPT a encore une fois mentionné le nom d’Ismail Haniyeh en tant que membre actif de Hamas, plusieurs mois après son décès en Iran.
Réactions de la BBC face à ces découvertes
Déborah Turness, la directrice générale de l’information à la BBC, a qualifié ces résultats de préoccupants. Elle avertit que ces outils d’IA « jouent avec le feu », menaçant la foi fragile du public dans les faits. Dans un billet de blog, elle questionne la capacité des IA à traiter des informations d’actualité sans déformer les faits.
Les risques pour la société
Les findings de cette étude soulignent des risques non seulement pour la fiabilité de l’information, mais aussi pour l’intégrité de la démocratie. Une désinformation générée par IA soulève de sérieuses inquiétudes. Les algorithmes, souvent imparfaits, peuvent déformer des informations sensibles avec des conséquences potentiellement néfastes.
Appel à la collaboration
Turness a également suggéré une collaboration avec les entreprises d’IA pour améliorer la précision des réponses fournies à partir de contenus journalistiques. Travailler ensemble pourrait permettre de mieux contrôler l’usage de l’information et de réduire les erreurs.
Le contexte mondial de la désinformation par IA
Ce phénomène ne se limite pas à la BBC. Des préoccupations similaires émergent sur de nombreuses plateformes d’information. Des exemples récents illustrent l’utilisation d’assistants d’IA pour diffuser des résumés erronés. Par exemple, Apple a suspendu ses alertes d’actualités de marque BBC après avoir rencontré des problèmes de contenu inexact.
La prolifération de la désinformation à travers ces technologies ébranle les fondements de la confiance publique dans l’information. Les dangers liés à une IA non régulée nécessitent une attention particulière afin de protéger le tissu social.
Tendances préoccupantes à surveiller
Les tendances mondiales témoignent d’une excessive dépendance vis-à-vis de l’IA dans la génération d’actualités. Le public doit être vigilant et développer des compétences critiques face à l’information. Identifier les deepfakes et s’informer auprès de sources fiables devient primordial.
À travers cette étude, la BBC met en lumière un impératif : les utilisateurs doivent revendiquer une régulation stricte des contenus générés par l’IA. La nécessité d’un cadre clair et transparent se fait de plus en plus pressante pour garantir l’intégrité de l’information à l’ère numérique.
La question du contrôle des contenus par les éditeurs émerge. Les journalistes et les maisons de presse doivent conserver leur rôle central dans l’information pour éviter l’affaiblissement des standards journalistiques face à la montée des technologies génératives.
Foire aux questions courantes sur les chatbots IA et la désinformation
Quels sont les principaux risques liés à l’utilisation des chatbots IA pour relayer des informations ?
Les chatbots IA peuvent introduire des distorsions et des inexactitudes factuelles, ce qui compromet la fiabilité des informations fournies, notamment en ce qui concerne les actualités et les affaires en cours.
Comment la BBC a-t-elle évalué la fiabilité des réponses fournies par les chatbots IA ?
La BBC a mené une étude où quatre outils d’IA générative ont été testés en répondant à 100 questions basées sur des articles de la BBC. Les réponses ont été évaluées par des journalistes spécialisés, révélant que plus de la moitié contenaient des « problèmes significatifs« .
Quelles erreurs spécifiques ont été identifiées dans les réponses des chatbots ?
Les erreurs incluent des déclarations erronées sur des personnalités politiques, comme affirmer que Rishi Sunak et Nicola Sturgeon étaient toujours en fonction, ainsi que des informations incorrectes sur les conseils de santé publique concernant le vapotage.
Pourquoi la BBB considère-t-elle que les outils d’IA générative menacent la foi du public dans les faits ?
Ces outils peuvent générer des contenus trompeurs, ce qui entraîne une confusion généralisée et une méfiance croissante envers les sources d’actualité fiables, rendant la gestion de l’information encore plus difficile.
Comment les entreprises de médias peuvent-elles collaborer avec les développeurs d’IA pour améliorer l’exactitude de l’information ?
Les entreprises doivent établir des partenariats avec les entreprises d’IA pour assurer que l’utilisation de leur contenu est gérée de manière à favoriser l’exactitude et la responsabilité dans le traitement des informations.
Les utilisateurs peuvent-ils faire confiance aux informations fournies par les chatbots IA ?
Les utilisateurs doivent faire preuve de prudence et vérifier les informations obtenues par ces outils, surtout en cas de doutes sur leur exactitude, puisque les réponses peuvent contenir des inexactitudes majeures.
Quelles mesures peuvent être prises pour limiter la désinformation générée par les chatbots IA ?
Il est essentiel d’implémenter des régulations, d’améliorer l’éducation médiatique et de promouvoir l’alphabétisation numérique pour sensibiliser les utilisateurs aux risques de désinformation.