Désinformation et erreurs : Les IA perdent-elles en fiabilité ?

Publié le 8 septembre 2025 à 12h09
modifié le 8 septembre 2025 à 12h09
Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.

La fiabilité des intelligences artificielles apparaît plus que jamais remise en question. Depuis un an, les résultats d’études indiquent une montée préoccupante des fausses informations diffusées. L’incapacité de ces machines à discerner les sources crédibles souligne des enjeux stratégiques critiques pour la société. Incapables de filtrer efficacement, ces outils technologiques risquent de propager des récits mensongers. La désinformation générée par des chatbots soulève d’importantes interrogations sur leur impact réel sur l’opinion publique. Interrogeons-nous sur l’érosion de cette fiabilité et ses conséquences étendues.

Désinformation croissante des IA génératives

Un rapport réalisé par NewsGuard révèle que le taux de fausses informations diffusées par les outils d’intelligence artificielle a presque doublé en un an. Les chatbots tels que ChatGPT, Gemini, ou Mistral affichent des performances préoccupantes en matière de distinction entre informations véridiques et fake news. Ce constat alarmant met en lumière leurs difficultés à identifier des sources crédibles dans l’écosystème informationnel actuel.

Une étude révélatrice

NewsGuard a audité les dix principaux outils d’IA en août 2025, constatant que ceux-ci échouent près de deux fois plus souvent qu’auparavant dans leur capacité à distinguer les faits des faux récits. Malgré les mises à jour significatives de leurs modèles, leur fiabilité décline, notamment dans le traitement des thématiques d’actualité sensibles, telles que les conflits ou les élections. Cette défaillance est aggravée par l’intégration de la recherche sur le web, un accès à l’information qui se transforme en un piège.

Comparaison des performances des modèles d’IA

Le baromètre mensuel établi par NewsGuard reflète des écarts notables en matière de fiabilité entre les différents algorithmes d’IA. Claude et Gemini, par exemple, affichent des taux de diffusion de fausses informations respectifs de 10 % et 16,67 %. En revanche, Perplexity, ayant autrefois excellé, commet des erreurs dans 46,67 % des cas. Les utilisateurs constatent cette diminution de fiabilité, ce qui suscite de vives inquiétudes sur la capacité de cet outil à fournir des informations précises.

Les impacts de l’accès à Internet

Avant d’intégrer l’accès à Internet, les chatbots évitaient souvent de répondre aux questions d’actualité, affichant un taux de non-réponse de 31 %. Désormais, ce taux est de 0 %, alors que leur capacité à réfuter les récits erronés a augmenté, passant de 51 % à 65 %. Cette accessibilité entraîne cependant une sélection défaillante des sources, menant à des réponses provenant de médias douteux ou de campagnes de désinformation.

Exploitation par des acteurs malveillants

Des acteurs malintentionnés profitent de cette lacune en inondant le web de contenus mensongers. NewsGuard signale que les modèles d’IA sont souvent piégés par des sites élaborés à l’étranger, se faisant passer pour des médias locaux. Ainsi, les chatbots répètent des récits faussement élaborés, créant un vide informationnel exploité par des informations biaisées ou mensongères.

La nécessité d’une réflexion approfondie

Jensen Huang, PDG de Nvidia, a souligné l’importance de parvenir à un stade où les réponses fournies par les IA inspirent confiance. Cependant, près d’un an après sa déclaration, les résultats indiquent un quiproquo en matière de progrès, alors que la désinformation semble s’intensifier. L’évolution de ces modèles d’IA nécessite une attention critique afin de garantir la véracité des informations diffusées.

Questions fréquemment posées sur la désinformation et les erreurs des IA

Quelles sont les principales causes de la désinformation relayée par les IA ?
Les IA ont du mal à distinguer les sources fiables des sources douteuses, ce qui entraîne la propagation de fausses informations. Leur capacité à identifier des faits vérifiables se dégrade, ce qui les rend vulnérables aux campagnes de désinformation sur internet.

Comment les mises à jour des modèles d’IA affectent-elles leur fiabilité ?
Bien que des mises à jour régulières soient effectuées pour améliorer les performances des modèles, paradoxalement, ces mises à jour n’ont pas permis d’augmenter leur aptitude à détecter de fausses informations, ce qui soulève des inquiétudes quant à l’évolution de leur fiabilité.

Est-il courant pour les chatbots de transmettre des informations inexactes ?
Oui, une étude récente a montré que les IA génératives transmettent des informations erronées dans environ 35 % des cas, un chiffre qui a presque doublé en un an, indiquant une dégradation importante de leur fiabilité.

Quelles IA sont les plus susceptibles de relayé des fausses informations ?
Des outils comme ChatGPT et Mistral AI figurent parmi ceux ayant le plus haut taux de répétition de fausses informations. En revanche, des modèles tels que Claude et Gemini se montrent plus performants dans la détection des inexactitudes.

Comment les utilisateurs peuvent-ils repérer des informations fiables fournies par une IA ?
Les utilisateurs devraient toujours vérifier les sources des informations fournies par les IA en les comparant avec des médias établis et des rubriques d’actualité fiables pour éviter de tomber dans le piège des fausses informations.

Les IA peuvent-elles encore débunker des récits mensongers ?
Oui, malgré la hausse des erreurs, certaines IA ont réussi à améliorer leur capacité à réfuter des fausses informations, avec un taux de réfutation passant de 51 % à 65 % grâce à l’intégration de recherches en ligne.

Quelles sont les implications de la désinformation générée par les IA pour la société ?
La propagation de fausses informations par les IA peut engendrer de la confusion parmi le public et affecter des décisions importantes, en particulier lors d’événements d’actualité tels que des élections ou des crises internationales.

Comment les entreprises peuvent-elles se protéger contre la désinformation générée par les IA ?
Les entreprises devraient former leurs employés à évaluer la fiabilité des sources d’information et développer des protocoles sur l’utilisation d’IA génératives pour éviter que des informations incorrectes ne soient par inadvertance relayées.

Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.
actu.iaNewsDésinformation et erreurs : Les IA perdent-elles en fiabilité ?

Comment Harry Qi a créé Motion : des agents intelligents pour booster la productivité des PME en Ukraine

découvrez comment harry qi a fondé motion, une solution innovante basée sur des agents intelligents, pour améliorer la productivité des pme en ukraine. apprenez-en plus sur son parcours et l'impact de cette technologie sur les entreprises locales.

OpenAI se lance dans la production d’un film d’animation réalisé par l’intelligence artificielle

découvrez comment openai révolutionne le cinéma en produisant son premier film d'animation conçu intégralement par intelligence artificielle. plongez dans une nouvelle ère créative mêlant technologie et narration innovante.

Citi abaisse son objectif de prix pour Nvidia face à la montée de la concurrence dans le domaine de...

citi revoit à la baisse son objectif de cours pour nvidia, évoquant l’intensification de la concurrence dans le secteur de l’intelligence artificielle. découvrez les dernières analyses et implications pour nvidia.

Lancement imminent de la série iPhone 17 et des AirPods Pro 3 : découvrez les nouveautés à venir !

découvrez toutes les nouveautés de la série iphone 17 et des airpods pro 3 ! fuites, design, fonctionnalités et date de lancement : ne manquez rien sur les futurs produits phares d’apple.

Découvrez les 5 serveurs MCP incontournables pour optimiser Claude Code et Gemini CLI

explorez les 5 meilleurs serveurs mcp pour améliorer les performances de claude code et gemini cli. profitez d’une expérience optimale avec nos recommandations incontournables pour développeurs.
découvrez comment l'europe franchit une étape majeure dans le domaine de l'intelligence artificielle grâce au lancement de jupiter, un supercalculateur révolutionnaire conçu pour transformer la recherche, la science et l'industrie.