Désinformation et erreurs : Les IA perdent-elles en fiabilité ?

Publié le 8 septembre 2025 à 12h09
modifié le 8 septembre 2025 à 12h09
Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.

La fiabilité des intelligences artificielles apparaît plus que jamais remise en question. Depuis un an, les résultats d’études indiquent une montée préoccupante des fausses informations diffusées. L’incapacité de ces machines à discerner les sources crédibles souligne des enjeux stratégiques critiques pour la société. Incapables de filtrer efficacement, ces outils technologiques risquent de propager des récits mensongers. La désinformation générée par des chatbots soulève d’importantes interrogations sur leur impact réel sur l’opinion publique. Interrogeons-nous sur l’érosion de cette fiabilité et ses conséquences étendues.

Désinformation croissante des IA génératives

Un rapport réalisé par NewsGuard révèle que le taux de fausses informations diffusées par les outils d’intelligence artificielle a presque doublé en un an. Les chatbots tels que ChatGPT, Gemini, ou Mistral affichent des performances préoccupantes en matière de distinction entre informations véridiques et fake news. Ce constat alarmant met en lumière leurs difficultés à identifier des sources crédibles dans l’écosystème informationnel actuel.

Une étude révélatrice

NewsGuard a audité les dix principaux outils d’IA en août 2025, constatant que ceux-ci échouent près de deux fois plus souvent qu’auparavant dans leur capacité à distinguer les faits des faux récits. Malgré les mises à jour significatives de leurs modèles, leur fiabilité décline, notamment dans le traitement des thématiques d’actualité sensibles, telles que les conflits ou les élections. Cette défaillance est aggravée par l’intégration de la recherche sur le web, un accès à l’information qui se transforme en un piège.

Comparaison des performances des modèles d’IA

Le baromètre mensuel établi par NewsGuard reflète des écarts notables en matière de fiabilité entre les différents algorithmes d’IA. Claude et Gemini, par exemple, affichent des taux de diffusion de fausses informations respectifs de 10 % et 16,67 %. En revanche, Perplexity, ayant autrefois excellé, commet des erreurs dans 46,67 % des cas. Les utilisateurs constatent cette diminution de fiabilité, ce qui suscite de vives inquiétudes sur la capacité de cet outil à fournir des informations précises.

Les impacts de l’accès à Internet

Avant d’intégrer l’accès à Internet, les chatbots évitaient souvent de répondre aux questions d’actualité, affichant un taux de non-réponse de 31 %. Désormais, ce taux est de 0 %, alors que leur capacité à réfuter les récits erronés a augmenté, passant de 51 % à 65 %. Cette accessibilité entraîne cependant une sélection défaillante des sources, menant à des réponses provenant de médias douteux ou de campagnes de désinformation.

Exploitation par des acteurs malveillants

Des acteurs malintentionnés profitent de cette lacune en inondant le web de contenus mensongers. NewsGuard signale que les modèles d’IA sont souvent piégés par des sites élaborés à l’étranger, se faisant passer pour des médias locaux. Ainsi, les chatbots répètent des récits faussement élaborés, créant un vide informationnel exploité par des informations biaisées ou mensongères.

La nécessité d’une réflexion approfondie

Jensen Huang, PDG de Nvidia, a souligné l’importance de parvenir à un stade où les réponses fournies par les IA inspirent confiance. Cependant, près d’un an après sa déclaration, les résultats indiquent un quiproquo en matière de progrès, alors que la désinformation semble s’intensifier. L’évolution de ces modèles d’IA nécessite une attention critique afin de garantir la véracité des informations diffusées.

Questions fréquemment posées sur la désinformation et les erreurs des IA

Quelles sont les principales causes de la désinformation relayée par les IA ?
Les IA ont du mal à distinguer les sources fiables des sources douteuses, ce qui entraîne la propagation de fausses informations. Leur capacité à identifier des faits vérifiables se dégrade, ce qui les rend vulnérables aux campagnes de désinformation sur internet.

Comment les mises à jour des modèles d’IA affectent-elles leur fiabilité ?
Bien que des mises à jour régulières soient effectuées pour améliorer les performances des modèles, paradoxalement, ces mises à jour n’ont pas permis d’augmenter leur aptitude à détecter de fausses informations, ce qui soulève des inquiétudes quant à l’évolution de leur fiabilité.

Est-il courant pour les chatbots de transmettre des informations inexactes ?
Oui, une étude récente a montré que les IA génératives transmettent des informations erronées dans environ 35 % des cas, un chiffre qui a presque doublé en un an, indiquant une dégradation importante de leur fiabilité.

Quelles IA sont les plus susceptibles de relayé des fausses informations ?
Des outils comme ChatGPT et Mistral AI figurent parmi ceux ayant le plus haut taux de répétition de fausses informations. En revanche, des modèles tels que Claude et Gemini se montrent plus performants dans la détection des inexactitudes.

Comment les utilisateurs peuvent-ils repérer des informations fiables fournies par une IA ?
Les utilisateurs devraient toujours vérifier les sources des informations fournies par les IA en les comparant avec des médias établis et des rubriques d’actualité fiables pour éviter de tomber dans le piège des fausses informations.

Les IA peuvent-elles encore débunker des récits mensongers ?
Oui, malgré la hausse des erreurs, certaines IA ont réussi à améliorer leur capacité à réfuter des fausses informations, avec un taux de réfutation passant de 51 % à 65 % grâce à l’intégration de recherches en ligne.

Quelles sont les implications de la désinformation générée par les IA pour la société ?
La propagation de fausses informations par les IA peut engendrer de la confusion parmi le public et affecter des décisions importantes, en particulier lors d’événements d’actualité tels que des élections ou des crises internationales.

Comment les entreprises peuvent-elles se protéger contre la désinformation générée par les IA ?
Les entreprises devraient former leurs employés à évaluer la fiabilité des sources d’information et développer des protocoles sur l’utilisation d’IA génératives pour éviter que des informations incorrectes ne soient par inadvertance relayées.

Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.
actu.iaNewsDésinformation et erreurs : Les IA perdent-elles en fiabilité ?

Des passants choqués par un panneau publicitaire d’IA un brin trop sincère

des passants ont été surpris en découvrant un panneau publicitaire généré par l’ia, dont le message étonnamment honnête a suscité de nombreuses réactions. découvrez les détails de cette campagne originale qui n’a laissé personne indifférent.

Apple commence l’expédition d’un produit phare fabriqué au Texas

apple débute l’expédition de son produit phare fabriqué au texas, renforçant sa présence industrielle américaine. découvrez comment cette initiative soutient l’innovation locale et la production nationale.
plongez dans les coulisses du fameux vol au louvre grâce au témoignage captivant du photographe derrière le cliché viral. entre analyse à la sherlock holmes et usage de l'intelligence artificielle, découvrez les secrets de cette image qui a fait le tour du web.

Une entreprise innovante en quête d’employés aux valeurs claires et transparentes

rejoignez une entreprise innovante qui recherche des employés partageant des valeurs claires et transparentes. participez à une équipe engagée où intégrité, authenticité et esprit d'innovation sont au cœur de chaque projet !

Microsoft Edge : le navigateur transformé par le Mode Copilot, une IA au service de votre navigation !

découvrez comment le mode copilot de microsoft edge révolutionne votre expérience de navigation grâce à l’intelligence artificielle : conseils personnalisés, assistance instantanée et navigation optimisée au quotidien !

L’Union Européenne : Une régulation prudente face aux géants de la Big Tech américaine

découvrez comment l'union européenne impose une régulation stricte et réfléchie aux grandes entreprises technologiques américaines, afin de protéger les consommateurs et d’assurer une concurrence équitable sur le marché numérique.