La fiabilité des intelligences artificielles apparaît plus que jamais remise en question. Depuis un an, les résultats d’études indiquent une montée préoccupante des fausses informations diffusées. L’incapacité de ces machines à discerner les sources crédibles souligne des enjeux stratégiques critiques pour la société. Incapables de filtrer efficacement, ces outils technologiques risquent de propager des récits mensongers. La désinformation générée par des chatbots soulève d’importantes interrogations sur leur impact réel sur l’opinion publique. Interrogeons-nous sur l’érosion de cette fiabilité et ses conséquences étendues.
Désinformation croissante des IA génératives
Un rapport réalisé par NewsGuard révèle que le taux de fausses informations diffusées par les outils d’intelligence artificielle a presque doublé en un an. Les chatbots tels que ChatGPT, Gemini, ou Mistral affichent des performances préoccupantes en matière de distinction entre informations véridiques et fake news. Ce constat alarmant met en lumière leurs difficultés à identifier des sources crédibles dans l’écosystème informationnel actuel.
Une étude révélatrice
NewsGuard a audité les dix principaux outils d’IA en août 2025, constatant que ceux-ci échouent près de deux fois plus souvent qu’auparavant dans leur capacité à distinguer les faits des faux récits. Malgré les mises à jour significatives de leurs modèles, leur fiabilité décline, notamment dans le traitement des thématiques d’actualité sensibles, telles que les conflits ou les élections. Cette défaillance est aggravée par l’intégration de la recherche sur le web, un accès à l’information qui se transforme en un piège.
Comparaison des performances des modèles d’IA
Le baromètre mensuel établi par NewsGuard reflète des écarts notables en matière de fiabilité entre les différents algorithmes d’IA. Claude et Gemini, par exemple, affichent des taux de diffusion de fausses informations respectifs de 10 % et 16,67 %. En revanche, Perplexity, ayant autrefois excellé, commet des erreurs dans 46,67 % des cas. Les utilisateurs constatent cette diminution de fiabilité, ce qui suscite de vives inquiétudes sur la capacité de cet outil à fournir des informations précises.
Les impacts de l’accès à Internet
Avant d’intégrer l’accès à Internet, les chatbots évitaient souvent de répondre aux questions d’actualité, affichant un taux de non-réponse de 31 %. Désormais, ce taux est de 0 %, alors que leur capacité à réfuter les récits erronés a augmenté, passant de 51 % à 65 %. Cette accessibilité entraîne cependant une sélection défaillante des sources, menant à des réponses provenant de médias douteux ou de campagnes de désinformation.
Exploitation par des acteurs malveillants
Des acteurs malintentionnés profitent de cette lacune en inondant le web de contenus mensongers. NewsGuard signale que les modèles d’IA sont souvent piégés par des sites élaborés à l’étranger, se faisant passer pour des médias locaux. Ainsi, les chatbots répètent des récits faussement élaborés, créant un vide informationnel exploité par des informations biaisées ou mensongères.
La nécessité d’une réflexion approfondie
Jensen Huang, PDG de Nvidia, a souligné l’importance de parvenir à un stade où les réponses fournies par les IA inspirent confiance. Cependant, près d’un an après sa déclaration, les résultats indiquent un quiproquo en matière de progrès, alors que la désinformation semble s’intensifier. L’évolution de ces modèles d’IA nécessite une attention critique afin de garantir la véracité des informations diffusées.
Questions fréquemment posées sur la désinformation et les erreurs des IA
Quelles sont les principales causes de la désinformation relayée par les IA ?
Les IA ont du mal à distinguer les sources fiables des sources douteuses, ce qui entraîne la propagation de fausses informations. Leur capacité à identifier des faits vérifiables se dégrade, ce qui les rend vulnérables aux campagnes de désinformation sur internet.
Comment les mises à jour des modèles d’IA affectent-elles leur fiabilité ?
Bien que des mises à jour régulières soient effectuées pour améliorer les performances des modèles, paradoxalement, ces mises à jour n’ont pas permis d’augmenter leur aptitude à détecter de fausses informations, ce qui soulève des inquiétudes quant à l’évolution de leur fiabilité.
Est-il courant pour les chatbots de transmettre des informations inexactes ?
Oui, une étude récente a montré que les IA génératives transmettent des informations erronées dans environ 35 % des cas, un chiffre qui a presque doublé en un an, indiquant une dégradation importante de leur fiabilité.
Quelles IA sont les plus susceptibles de relayé des fausses informations ?
Des outils comme ChatGPT et Mistral AI figurent parmi ceux ayant le plus haut taux de répétition de fausses informations. En revanche, des modèles tels que Claude et Gemini se montrent plus performants dans la détection des inexactitudes.
Comment les utilisateurs peuvent-ils repérer des informations fiables fournies par une IA ?
Les utilisateurs devraient toujours vérifier les sources des informations fournies par les IA en les comparant avec des médias établis et des rubriques d’actualité fiables pour éviter de tomber dans le piège des fausses informations.
Les IA peuvent-elles encore débunker des récits mensongers ?
Oui, malgré la hausse des erreurs, certaines IA ont réussi à améliorer leur capacité à réfuter des fausses informations, avec un taux de réfutation passant de 51 % à 65 % grâce à l’intégration de recherches en ligne.
Quelles sont les implications de la désinformation générée par les IA pour la société ?
La propagation de fausses informations par les IA peut engendrer de la confusion parmi le public et affecter des décisions importantes, en particulier lors d’événements d’actualité tels que des élections ou des crises internationales.
Comment les entreprises peuvent-elles se protéger contre la désinformation générée par les IA ?
Les entreprises devraient former leurs employés à évaluer la fiabilité des sources d’information et développer des protocoles sur l’utilisation d’IA génératives pour éviter que des informations incorrectes ne soient par inadvertance relayées.