Eine Analyse zeigt die Unsicherheit der von KI wie ChatGPT, Gemini und Perplexity bereitgestellten Informationen.

Publié le 23 Oktober 2025 à 09h59
modifié le 23 Oktober 2025 à 09h59

Künstliche Intelligenzgeräte wie ChatGPT, Gemini und Perplexity etablieren sich langsam als bevorzugte Informationsquellen. Der Reiz dieser Technologien liegt in ihrer Fähigkeit, schnelle Antworten zu liefern. Eine aktuelle Studie, die von einem Konsortium öffentlicher Rundfunkanstalten durchgeführt wurde, hebt eine alarmierende Unsicherheit in den Informationen hervor, die sie übermitteln. Die Ergebnisse zeigen häufig ernsthafte Fehler, die die Wahrhaftigkeit der bereitgestellten Inhalte gefährden. Die Erfahrung zeigt, dass angesichts einer mit Informationen übersättigten Welt die Zuverlässigkeit von KI-Assistenten stark umstritten bleibt, was eine erhebliche Herausforderung in der heutigen digitalen Ära darstellt.

Unsicherheit der von KI-Assistenten bereitgestellten Informationen

Eine kürzlich veröffentlichte Studie vom 22. Oktober beleuchtet die Mängel der intelligenten Assistenten wie ChatGPT, Google Gemini, Microsoft Copilot und Perplexity hinsichtlich ihrer Fähigkeit, zuverlässige Informationen bereitzustellen. Diese Bewertung, die von den europäischen öffentlich-rechtlichen Rundfunkanstalten durchgeführt wurde, zeigt alarmierende Fehler in fast 45 % der Antworten, die von diesen KIs gegeben werden. Veraltete Informationen, schwere Fehler und erfundene Details durchziehen oft ihre Antworten.

Ergebnisse einer gemeinsamen Studie

Der Test umfasste zweiundzwanzig öffentliche Medien aus achtzehn europäischen Ländern, die denselben Fragen zu aktuellen Themen an die KI-Assistenten stellten. Von etwa 3.000 analysierten Antworten wies eine signifikante Anzahl „ernsthafte Probleme“ auf. Die Studie, koordiniert von der Europäischen Rundfunkunion (EBU) und inspiriert von früheren Arbeiten der BBC, hebt einen besorgniserregenden Trend hervor: Eine von fünf Antworten enthielt schwere Fehler.

Analyse der Leistungen unterschiedlicher Assistenten

Laut der Studie zeichnet sich Gemini von Google durch besonders schlechte Ergebnisse aus. Tatsächlich wiesen 76 % seiner Antworten signifikante Probleme auf, was die Leistungen seiner Konkurrenten bei weitem übertrifft. Die Ermittler führen diese Schwäche auf eine schwache Fähigkeit zurück, ihre Quellen korrekt anzugeben. Solche Mängel stellen die Integrität der über diese Technologien verbreiteten Informationen in Frage.

Beispiele bemerkenswerter Fehler

Als gefragt wurde, ob der Papst noch lebt, antworteten ChatGPT, Copilot und Gemini alle, dass Franziskus immer noch im Amt sei, obwohl er bereits verstorben ist. Diese Ungenauigkeit wirft ernsthafte Fragen zur Zuverlässigkeit der historischen Daten auf, die von diesen Systemen bereitgestellt werden. Ebenso hat ein Vorfall bei der Amtseinführung von Donald Trump groteske Fehler offenbart, wobei Gemini eine satirische Kolumne wörtlich nahm. Diese absurde Antwort, die behauptete, dass Elon Musk „eine Erektion des rechten Arms“ gehabt habe, zeugt von einem ernsthaften Mangel an Urteilsvermögen.

Wachsende Nutzung von KIs zur Informationsbeschaffung

Dennoch erleben KI-Assistenten einen rasanten Anstieg, insbesondere bei den jüngeren Generationen. Eine aktuelle Studie des Reuters Instituts zeigt, dass etwa 15 % der Nutzer unter 25 Jahren diese Werkzeuge wöchentlich nutzen, um sich über Nachrichten zu informieren. Trotz der enttäuschenden Ergebnisse unterstreicht dieser Trend eine wachsende Abhängigkeit von neuen Technologien zur Informationsaufnahme.

Verbesserungsperspektiven

Experten wie Jean Philip De Tender und Pete Archer warnen vor dem dringenden Bedarf an Reformen. Die KI-Assistenten benötigen eine signifikante Weiterentwicklung, um qualitativ hochwertige Informationen zu gewährleisten und die Verbreitung von Ungenauigkeiten zu vermeiden. Organisationen wie die EBU und die BBC planen die Erstellung eines praktischen Leitfadens, um sowohl Entwicklern als auch Nutzern bei der Navigation im komplexen Landschaft der von KIs generierten Informationen zu helfen.

Um dieses Thema weiter zu vertiefen, lesen Sie den folgenden Artikel über den Aufstieg der KI, der die Auswirkungen dieser Technologien auf unseren Zugang zu Informationen behandelt.

Häufig gestellte Fragen

Was sind die häufigsten Fehler, die KI wie ChatGPT und Gemini bei aktuellen Ereignissen machen?
Zu den häufigsten Fehlern gehören veraltete Informationen, falsche Antworten und erfundene Details. Eine Studie hat ergeben, dass 45 % der Antworten der KIs mindestens ein ernsthaftes Problem aufwiesen.

Warum erzielten KI-Assistenten wie Gemini die schlechtesten Ergebnisse in der Studie zu aktuellen Ereignissen?
Gemini wies in 76 % seiner Antworten „ernsthafte Probleme“ auf, hauptsächlich wegen seiner schlechten Leistungen in Bezug auf die Quellenangabe und die Wahrhaftigkeit der Informationen.

Wie können Nutzer die Zuverlässigkeit der von KI-Assistenten bereitgestellten Informationen sicherstellen?
Es wird empfohlen, die von den KIs erhaltenen Informationen immer mit zuverlässigen und anerkannten Quellen zu überprüfen, anstatt sich nur darauf zu verlassen. Der Abgleich von Informationen ist entscheidend, um ihre Wahrhaftigkeit zu bewerten.

Nutzen die Jungen oft KI-Assistenten zur Informationsbeschaffung? Wenn ja, was ist die Statistik?
Ja, laut einem Bericht verwenden 15 % der unter 25-Jährigen diese Assistenten jede Woche, um sich über die Nachrichten zu informieren, was ihre wachsende Beliebtheit trotz ihrer fragwürdigen Zuverlässigkeit unterstreicht.

Welche Arten von Inhalten neigen die KI-Assistenten dazu, zu verwechseln?
Die KI-Assistenten können faktische Informationen mit humoristischen Kolumnen verwechseln, wie das Beispiel zeigt, bei dem Gemini eine satirische Kolumne falsch interpretierte und sie wörtlich nahm.

Welche Ratschläge können gegeben werden, um KI-Assistenten sicher bei der Informationsrecherche zu nutzen?
Verwenden Sie KI-Assistenten als ein Recherchewerkzeug, aber überprüfen Sie immer mit menschlichen und zuverlässigen Quellen, bevor Sie die Informationen als gesichert betrachten.

Beeinflussen die Ergebnisse der Studie zu KI-Assistenten deren Verwendung in den Medien?
Bestimmt, die Studie hebt die Unsicherheit der von diesen Werkzeugen bereitgestellten Informationen hervor, was die Medien dazu zwingt, bei deren Nutzung zur Informationsbeschaffung oder zur Weitergabe von Nachrichten vorsichtig zu sein.

actu.iaNon classéEine Analyse zeigt die Unsicherheit der von KI wie ChatGPT, Gemini und...

Eine indische Frau mit einem H-1B-Visum, die von Meta entlassen wurde, findet neue Beschäftigungsmöglichkeiten online

découvrez l'histoire inspirante d'une femme indienne titulaire d'un visa h-1b, licenciée par meta, qui rebondit en trouvant de nouvelles opportunités d'emploi en ligne. un parcours de résilience et de réussite professionnelle à l'international.

Die wachsende Bedeutung der Mathematik im Zeitalter der generativen KI

découvrez comment les mathématiques jouent un rôle central dans le développement de l’ia générative et pourquoi leur maîtrise devient indispensable à l’ère des nouvelles technologies.

Erforschen Sie ChatGPT Atlas: Ihr unverzichtbares Handbuch zur Beherrschung des Web-Browsers von OpenAI

découvrez chatgpt atlas, le guide incontournable pour exploiter tout le potentiel du navigateur web d'openai. astuces, fonctionnalités et conseils pratiques pour une navigation intelligente et efficace.
découvrez comment l'intelligence artificielle influence la jeunesse et interroge la place de l'empathie dans les relations humaines à l'ère numérique. analyse des enjeux et des conséquences possibles pour le futur.
découvrez les résultats surprenants d'une étude affirmant que 82% des livres sur les remèdes naturels vendus sur amazon pourraient être écrits par une intelligence artificielle. enquête sur l'authenticité de ces ouvrages.

Ingenieure nutzen künstliche Intelligenz, um Verkehrsunfälle vorherzusagen

découvrez comment des ingénieurs utilisent l'intelligence artificielle pour prévoir et prévenir les accidents de voiture, améliorant ainsi la sécurité routière grâce à des technologies innovantes.