Les appareils d’intelligence artificielle, tels que ChatGPT, Gemini et Perplexity, s’imposent progressivement comme des sources d’information privilégiées. L’attrait de ces technologies réside dans leur capacité à fournir des réponses rapides. Une récente étude, menée par un consortium de radios et télévisions publiques, souligne une précarité alarmante de l’information qu’ils transmettent. Les résultats révèlent des erreurs majeures fréquentes, compromettant ainsi la véracité des contenus proposés. L’expérience montre que, face à un monde saturé d’informations, la fiabilité des assistants IA demeure fortement contestable, posant un défi considérable à l’époque numérique actuelle.
Précarité de l’information fournie par les assistantes IA
Une étude récente, publiée le 22 octobre, met en lumière les lacunes des assistants intelligents tels que ChatGPT, Gemini de Google, Copilot de Microsoft, et Perplexity quant à leur capacité à fournir des informations fiables. Réalisée par les radios et télévisions publiques européennes, cette évaluation révèle des erreurs alarmantes dans près de 45 % des réponses fournies par ces IA. Des informations obsolètes, des erreurs majeures et des détails inventés émaillent souvent leurs réponses.
Résultats d’une étude collaborative
Le test a impliqué vingt-deux médias publics de dix-huit pays européens, qui ont soumis les mêmes questions d’actualité aux assistants IA. Sur environ 3 000 réponses analysées, un nombre significatif présentait des « problèmes importants ». L’étude, coordonnée par l’Union européenne de radio-télévision (UER) et inspirée par d’anciens travaux de la BBC, souligne une tendance inquiétante : une réponse sur cinq contenait des erreurs majeures.
Analyse des performances des différents assistants
Selon l’étude, Gemini de Google se distingue par ses résultats particulièrement médiocres. En effet, 76 % de ses réponses comportaient des problèmes significatifs, dépassant de loin les performances de ses concurrents. Les enquêteurs attribuent cette faiblesse à une capacité défaillante à citer correctement ses sources. Telles insuffisances remettent en question l’intégrité de l’information diffusée via ces technologies.
Exemples d’erreurs notables
Lorsqu’interrogé sur le pape, ChatGPT, Copilot et Gemini ont tous répondu que François était toujours en fonction, alors qu’il est déjà décédé. Ce manque de précision pose de sérieuses questions quant à la fiabilité des données historiques fournies par ces systèmes. De même, un incident lors de l’investiture de Donald Trump a révélé des erreurs burlesques, Gemini ayant interprété une chronique satirique au premier degré. Cette réponse absurde, affirmant qu’Elon Musk avait eu « une érection du bras droit », témoigne d’un sérieux déficit de discernement.
Utilisation croissante des IA pour s’informer
Les assistants IA connaissent pourtant un essor fulgurant, notamment parmi les jeunes générations. Une étude récente de l’institut Reuters indique qu’environ 15 % des utilisateurs de moins de 25 ans consultent ces outils chaque semaine pour se tenir informés des actualités. Malgré les résultats décevants, cette tendance souligne une dépendance croissante vis-à-vis des nouvelles technologies pour la consommation d’informations.
Perspectives d’amélioration
Des experts en la matière, comme Jean Philip De Tender et Pete Archer, alertent sur le besoin pressant d’une reforme. Les assistants IA nécessitent une évolution significative afin de garantir des informations de qualité et éviter la propagation d’inexactitudes. Les organismes tels que l’UER et la BBC envisagent de créer un guide pratique pour aider tant les développeurs que les utilisateurs à naviguer dans le paysage complexe de l’information générée par IA.
Pour approfondir ce sujet, veuillez consulter l’article suivant sur l’essor de l’IA, qui aborde les implications de ces technologies sur notre accès à l’information.
Foire aux questions courantes
Quelles sont les principales erreurs commises par les IA comme ChatGPT et Gemini concernant l’actualité ?
Les principales erreurs incluent des informations obsolètes, des réponses incorrectes, et des détails inventés. Une étude a révélé que 45 % des réponses des IA comportaient au moins un problème important.
Pourquoi les assistants IA comme Gemini ont-ils obtenu les pires résultats dans l’étude sur l’actualité ?
Gemini a affiché des « problèmes importants » dans 76 % de ses réponses, principalement en raison de ses performances médiocres en matière de citation de sources et de véracité des informations.
Comment les utilisateurs peuvent-ils s’assurer de la fiabilité des informations fournies par les assistants IA ?
Il est conseillé de toujours vérifier les informations obtenues par les IA auprès de sources fiables et reconnues, plutôt que de s’y fier uniquement. Croiser les informations est essentiel pour évaluer leur véracité.
Les jeunes utilisent-ils souvent les assistants IA pour s’informer ? Si oui, quelle est la statistique ?
Oui, selon un rapport, 15 % des jeunes de moins de 25 ans utilisent ces assistants chaque semaine pour se faire résumer l’actualité, ce qui souligne leur popularité croissante malgré leur fiabilité douteuse.
Quels types de contenus les assistants IA entraînent-ils à confondre ?
Les assistants IA peuvent confondre des informations factuelles avec des chroniques humoristiques, comme en témoigne l’exemple où Gemini a mal interprété une chronique satirique, la prenant au premier degré.
Quels conseils peut-on donner pour utiliser les assistants IA de manière sécurisée lors de recherches d’informations ?
Utiliser les assistants IA comme un outil de recherche préliminaire, mais toujours faire des vérifications avec des sources humaines et fiables avant de considérer les informations comme avérées.
Les résultats de l’étude sur les assistants IA affectent-ils leur utilisation dans les médias ?
Certainement, l’étude met en lumière la précarité des informations fournies par ces outils, ce qui pousse les médias à être prudents quant à leur utilisation pour s’informer ou relayer des nouvelles.