Une analyse révèle la précarité de l’information fournie par les IA comme ChatGPT, Gemini et Perplexity

Publié le 23 octobre 2025 à 09h12
modifié le 23 octobre 2025 à 09h12
Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.

Les appareils d’intelligence artificielle, tels que ChatGPT, Gemini et Perplexity, s’imposent progressivement comme des sources d’information privilégiées. L’attrait de ces technologies réside dans leur capacité à fournir des réponses rapides. Une récente étude, menée par un consortium de radios et télévisions publiques, souligne une précarité alarmante de l’information qu’ils transmettent. Les résultats révèlent des erreurs majeures fréquentes, compromettant ainsi la véracité des contenus proposés. L’expérience montre que, face à un monde saturé d’informations, la fiabilité des assistants IA demeure fortement contestable, posant un défi considérable à l’époque numérique actuelle.

Précarité de l’information fournie par les assistantes IA

Une étude récente, publiée le 22 octobre, met en lumière les lacunes des assistants intelligents tels que ChatGPT, Gemini de Google, Copilot de Microsoft, et Perplexity quant à leur capacité à fournir des informations fiables. Réalisée par les radios et télévisions publiques européennes, cette évaluation révèle des erreurs alarmantes dans près de 45 % des réponses fournies par ces IA. Des informations obsolètes, des erreurs majeures et des détails inventés émaillent souvent leurs réponses.

Résultats d’une étude collaborative

Le test a impliqué vingt-deux médias publics de dix-huit pays européens, qui ont soumis les mêmes questions d’actualité aux assistants IA. Sur environ 3 000 réponses analysées, un nombre significatif présentait des « problèmes importants ». L’étude, coordonnée par l’Union européenne de radio-télévision (UER) et inspirée par d’anciens travaux de la BBC, souligne une tendance inquiétante : une réponse sur cinq contenait des erreurs majeures.

Analyse des performances des différents assistants

Selon l’étude, Gemini de Google se distingue par ses résultats particulièrement médiocres. En effet, 76 % de ses réponses comportaient des problèmes significatifs, dépassant de loin les performances de ses concurrents. Les enquêteurs attribuent cette faiblesse à une capacité défaillante à citer correctement ses sources. Telles insuffisances remettent en question l’intégrité de l’information diffusée via ces technologies.

Exemples d’erreurs notables

Lorsqu’interrogé sur le pape, ChatGPT, Copilot et Gemini ont tous répondu que François était toujours en fonction, alors qu’il est déjà décédé. Ce manque de précision pose de sérieuses questions quant à la fiabilité des données historiques fournies par ces systèmes. De même, un incident lors de l’investiture de Donald Trump a révélé des erreurs burlesques, Gemini ayant interprété une chronique satirique au premier degré. Cette réponse absurde, affirmant qu’Elon Musk avait eu « une érection du bras droit », témoigne d’un sérieux déficit de discernement.

Utilisation croissante des IA pour s’informer

Les assistants IA connaissent pourtant un essor fulgurant, notamment parmi les jeunes générations. Une étude récente de l’institut Reuters indique qu’environ 15 % des utilisateurs de moins de 25 ans consultent ces outils chaque semaine pour se tenir informés des actualités. Malgré les résultats décevants, cette tendance souligne une dépendance croissante vis-à-vis des nouvelles technologies pour la consommation d’informations.

Perspectives d’amélioration

Des experts en la matière, comme Jean Philip De Tender et Pete Archer, alertent sur le besoin pressant d’une reforme. Les assistants IA nécessitent une évolution significative afin de garantir des informations de qualité et éviter la propagation d’inexactitudes. Les organismes tels que l’UER et la BBC envisagent de créer un guide pratique pour aider tant les développeurs que les utilisateurs à naviguer dans le paysage complexe de l’information générée par IA.

Pour approfondir ce sujet, veuillez consulter l’article suivant sur l’essor de l’IA, qui aborde les implications de ces technologies sur notre accès à l’information.

Foire aux questions courantes

Quelles sont les principales erreurs commises par les IA comme ChatGPT et Gemini concernant l’actualité ?
Les principales erreurs incluent des informations obsolètes, des réponses incorrectes, et des détails inventés. Une étude a révélé que 45 % des réponses des IA comportaient au moins un problème important.

Pourquoi les assistants IA comme Gemini ont-ils obtenu les pires résultats dans l’étude sur l’actualité ?
Gemini a affiché des « problèmes importants » dans 76 % de ses réponses, principalement en raison de ses performances médiocres en matière de citation de sources et de véracité des informations.

Comment les utilisateurs peuvent-ils s’assurer de la fiabilité des informations fournies par les assistants IA ?
Il est conseillé de toujours vérifier les informations obtenues par les IA auprès de sources fiables et reconnues, plutôt que de s’y fier uniquement. Croiser les informations est essentiel pour évaluer leur véracité.

Les jeunes utilisent-ils souvent les assistants IA pour s’informer ? Si oui, quelle est la statistique ?
Oui, selon un rapport, 15 % des jeunes de moins de 25 ans utilisent ces assistants chaque semaine pour se faire résumer l’actualité, ce qui souligne leur popularité croissante malgré leur fiabilité douteuse.

Quels types de contenus les assistants IA entraînent-ils à confondre ?
Les assistants IA peuvent confondre des informations factuelles avec des chroniques humoristiques, comme en témoigne l’exemple où Gemini a mal interprété une chronique satirique, la prenant au premier degré.

Quels conseils peut-on donner pour utiliser les assistants IA de manière sécurisée lors de recherches d’informations ?
Utiliser les assistants IA comme un outil de recherche préliminaire, mais toujours faire des vérifications avec des sources humaines et fiables avant de considérer les informations comme avérées.

Les résultats de l’étude sur les assistants IA affectent-ils leur utilisation dans les médias ?
Certainement, l’étude met en lumière la précarité des informations fournies par ces outils, ce qui pousse les médias à être prudents quant à leur utilisation pour s’informer ou relayer des nouvelles.

Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.
actu.iaNewsUne analyse révèle la précarité de l'information fournie par les IA comme...

Une femme indienne titulaire d’un visa H-1B licenciée par Meta trouve de nouvelles opportunités d’emploi en ligne

découvrez l'histoire inspirante d'une femme indienne titulaire d'un visa h-1b, licenciée par meta, qui rebondit en trouvant de nouvelles opportunités d'emploi en ligne. un parcours de résilience et de réussite professionnelle à l'international.

L’importance croissante des mathématiques à l’ère de l’IA générative

découvrez comment les mathématiques jouent un rôle central dans le développement de l’ia générative et pourquoi leur maîtrise devient indispensable à l’ère des nouvelles technologies.

Explorez ChatGPT Atlas : votre manuel essentiel pour maîtriser le navigateur web d’OpenAI

découvrez chatgpt atlas, le guide incontournable pour exploiter tout le potentiel du navigateur web d'openai. astuces, fonctionnalités et conseils pratiques pour une navigation intelligente et efficace.
découvrez comment l'intelligence artificielle influence la jeunesse et interroge la place de l'empathie dans les relations humaines à l'ère numérique. analyse des enjeux et des conséquences possibles pour le futur.
découvrez les résultats surprenants d'une étude affirmant que 82% des livres sur les remèdes naturels vendus sur amazon pourraient être écrits par une intelligence artificielle. enquête sur l'authenticité de ces ouvrages.

Des ingénieurs exploitent l’intelligence artificielle pour anticiper les accidents de voiture

découvrez comment des ingénieurs utilisent l'intelligence artificielle pour prévoir et prévenir les accidents de voiture, améliorant ainsi la sécurité routière grâce à des technologies innovantes.