Eine Analyse zeigt die Unsicherheit der von KI wie ChatGPT, Gemini und Perplexity bereitgestellten Informationen.

Publié le 23 Oktober 2025 à 09h59
modifié le 23 Oktober 2025 à 09h59

Künstliche Intelligenzgeräte wie ChatGPT, Gemini und Perplexity etablieren sich langsam als bevorzugte Informationsquellen. Der Reiz dieser Technologien liegt in ihrer Fähigkeit, schnelle Antworten zu liefern. Eine aktuelle Studie, die von einem Konsortium öffentlicher Rundfunkanstalten durchgeführt wurde, hebt eine alarmierende Unsicherheit in den Informationen hervor, die sie übermitteln. Die Ergebnisse zeigen häufig ernsthafte Fehler, die die Wahrhaftigkeit der bereitgestellten Inhalte gefährden. Die Erfahrung zeigt, dass angesichts einer mit Informationen übersättigten Welt die Zuverlässigkeit von KI-Assistenten stark umstritten bleibt, was eine erhebliche Herausforderung in der heutigen digitalen Ära darstellt.

Unsicherheit der von KI-Assistenten bereitgestellten Informationen

Eine kürzlich veröffentlichte Studie vom 22. Oktober beleuchtet die Mängel der intelligenten Assistenten wie ChatGPT, Google Gemini, Microsoft Copilot und Perplexity hinsichtlich ihrer Fähigkeit, zuverlässige Informationen bereitzustellen. Diese Bewertung, die von den europäischen öffentlich-rechtlichen Rundfunkanstalten durchgeführt wurde, zeigt alarmierende Fehler in fast 45 % der Antworten, die von diesen KIs gegeben werden. Veraltete Informationen, schwere Fehler und erfundene Details durchziehen oft ihre Antworten.

Ergebnisse einer gemeinsamen Studie

Der Test umfasste zweiundzwanzig öffentliche Medien aus achtzehn europäischen Ländern, die denselben Fragen zu aktuellen Themen an die KI-Assistenten stellten. Von etwa 3.000 analysierten Antworten wies eine signifikante Anzahl „ernsthafte Probleme“ auf. Die Studie, koordiniert von der Europäischen Rundfunkunion (EBU) und inspiriert von früheren Arbeiten der BBC, hebt einen besorgniserregenden Trend hervor: Eine von fünf Antworten enthielt schwere Fehler.

Analyse der Leistungen unterschiedlicher Assistenten

Laut der Studie zeichnet sich Gemini von Google durch besonders schlechte Ergebnisse aus. Tatsächlich wiesen 76 % seiner Antworten signifikante Probleme auf, was die Leistungen seiner Konkurrenten bei weitem übertrifft. Die Ermittler führen diese Schwäche auf eine schwache Fähigkeit zurück, ihre Quellen korrekt anzugeben. Solche Mängel stellen die Integrität der über diese Technologien verbreiteten Informationen in Frage.

Beispiele bemerkenswerter Fehler

Als gefragt wurde, ob der Papst noch lebt, antworteten ChatGPT, Copilot und Gemini alle, dass Franziskus immer noch im Amt sei, obwohl er bereits verstorben ist. Diese Ungenauigkeit wirft ernsthafte Fragen zur Zuverlässigkeit der historischen Daten auf, die von diesen Systemen bereitgestellt werden. Ebenso hat ein Vorfall bei der Amtseinführung von Donald Trump groteske Fehler offenbart, wobei Gemini eine satirische Kolumne wörtlich nahm. Diese absurde Antwort, die behauptete, dass Elon Musk „eine Erektion des rechten Arms“ gehabt habe, zeugt von einem ernsthaften Mangel an Urteilsvermögen.

Wachsende Nutzung von KIs zur Informationsbeschaffung

Dennoch erleben KI-Assistenten einen rasanten Anstieg, insbesondere bei den jüngeren Generationen. Eine aktuelle Studie des Reuters Instituts zeigt, dass etwa 15 % der Nutzer unter 25 Jahren diese Werkzeuge wöchentlich nutzen, um sich über Nachrichten zu informieren. Trotz der enttäuschenden Ergebnisse unterstreicht dieser Trend eine wachsende Abhängigkeit von neuen Technologien zur Informationsaufnahme.

Verbesserungsperspektiven

Experten wie Jean Philip De Tender und Pete Archer warnen vor dem dringenden Bedarf an Reformen. Die KI-Assistenten benötigen eine signifikante Weiterentwicklung, um qualitativ hochwertige Informationen zu gewährleisten und die Verbreitung von Ungenauigkeiten zu vermeiden. Organisationen wie die EBU und die BBC planen die Erstellung eines praktischen Leitfadens, um sowohl Entwicklern als auch Nutzern bei der Navigation im komplexen Landschaft der von KIs generierten Informationen zu helfen.

Um dieses Thema weiter zu vertiefen, lesen Sie den folgenden Artikel über den Aufstieg der KI, der die Auswirkungen dieser Technologien auf unseren Zugang zu Informationen behandelt.

Häufig gestellte Fragen

Was sind die häufigsten Fehler, die KI wie ChatGPT und Gemini bei aktuellen Ereignissen machen?
Zu den häufigsten Fehlern gehören veraltete Informationen, falsche Antworten und erfundene Details. Eine Studie hat ergeben, dass 45 % der Antworten der KIs mindestens ein ernsthaftes Problem aufwiesen.

Warum erzielten KI-Assistenten wie Gemini die schlechtesten Ergebnisse in der Studie zu aktuellen Ereignissen?
Gemini wies in 76 % seiner Antworten „ernsthafte Probleme“ auf, hauptsächlich wegen seiner schlechten Leistungen in Bezug auf die Quellenangabe und die Wahrhaftigkeit der Informationen.

Wie können Nutzer die Zuverlässigkeit der von KI-Assistenten bereitgestellten Informationen sicherstellen?
Es wird empfohlen, die von den KIs erhaltenen Informationen immer mit zuverlässigen und anerkannten Quellen zu überprüfen, anstatt sich nur darauf zu verlassen. Der Abgleich von Informationen ist entscheidend, um ihre Wahrhaftigkeit zu bewerten.

Nutzen die Jungen oft KI-Assistenten zur Informationsbeschaffung? Wenn ja, was ist die Statistik?
Ja, laut einem Bericht verwenden 15 % der unter 25-Jährigen diese Assistenten jede Woche, um sich über die Nachrichten zu informieren, was ihre wachsende Beliebtheit trotz ihrer fragwürdigen Zuverlässigkeit unterstreicht.

Welche Arten von Inhalten neigen die KI-Assistenten dazu, zu verwechseln?
Die KI-Assistenten können faktische Informationen mit humoristischen Kolumnen verwechseln, wie das Beispiel zeigt, bei dem Gemini eine satirische Kolumne falsch interpretierte und sie wörtlich nahm.

Welche Ratschläge können gegeben werden, um KI-Assistenten sicher bei der Informationsrecherche zu nutzen?
Verwenden Sie KI-Assistenten als ein Recherchewerkzeug, aber überprüfen Sie immer mit menschlichen und zuverlässigen Quellen, bevor Sie die Informationen als gesichert betrachten.

Beeinflussen die Ergebnisse der Studie zu KI-Assistenten deren Verwendung in den Medien?
Bestimmt, die Studie hebt die Unsicherheit der von diesen Werkzeugen bereitgestellten Informationen hervor, was die Medien dazu zwingt, bei deren Nutzung zur Informationsbeschaffung oder zur Weitergabe von Nachrichten vorsichtig zu sein.

actu.iaNon classéEine Analyse zeigt die Unsicherheit der von KI wie ChatGPT, Gemini und...

Des Passanten, die von einem etwas zu ehrlichen KI-Werbeschild schockiert sind

des passants ont été surpris en découvrant un panneau publicitaire généré par l’ia, dont le message étonnamment honnête a suscité de nombreuses réactions. découvrez les détails de cette campagne originale qui n’a laissé personne indifférent.

Apple beginnt mit dem Versand eines Flaggschiffprodukts, das in Texas hergestellt wurde

apple débute l’expédition de son produit phare fabriqué au texas, renforçant sa présence industrielle américaine. découvrez comment cette initiative soutient l’innovation locale et la production nationale.
plongez dans les coulisses du fameux vol au louvre grâce au témoignage captivant du photographe derrière le cliché viral. entre analyse à la sherlock holmes et usage de l'intelligence artificielle, découvrez les secrets de cette image qui a fait le tour du web.

Ein innovatives Unternehmen auf der Suche nach Mitarbeitern mit klaren und transparenten Werten

rejoignez une entreprise innovante qui recherche des employés partageant des valeurs claires et transparentes. participez à une équipe engagée où intégrité, authenticité et esprit d'innovation sont au cœur de chaque projet !

Die Europäische Union: Eine vorsichtige Regulierung gegenüber den amerikanischen Big-Tech-Riesen

découvrez comment l'union européenne impose une régulation stricte et réfléchie aux grandes entreprises technologiques américaines, afin de protéger les consommateurs et d’assurer une concurrence équitable sur le marché numérique.

Des schmeichelnden Chatbots: Eine Studie zeigt, dass KI sich an die Wünsche der Nutzer anpasst

découvrez comment une nouvelle étude démontre que les chatbots intelligents modifient leurs réponses pour flatter et satisfaire les attentes des utilisateurs, révélant ainsi une facette surprenante de l'adaptabilité de l'ia.