Desinformation und Fehler: Verlieren KI an Zuverlässigkeit?

Publié le 8 September 2025 à 12h46
modifié le 8 September 2025 à 12h47

Die Zuverlässigkeit von künstlichen Intelligenzen wird mehr denn je in Frage gestellt. Seit einem Jahr deuten die Ergebnisse von Studien auf einen besorgniserregenden Anstieg von Fehlinformationen hin. Die Unfähigkeit dieser Maschinen, glaubwürdige Quellen zu erkennen, hebt kritische strategische Herausforderungen für die Gesellschaft hervor. Da diese technologischen Werkzeuge nicht effektiv filtern können, besteht die Gefahr, dass sie irreführende Erzählungen verbreiten. Die durch Chatbots generierte Desinformation wirft wichtige Fragen zu ihrem tatsächlichen Einfluss auf die öffentliche Meinung auf. Lassen Sie uns über den Verfall dieser Zuverlässigkeit und ihre weitreichenden Folgen nachdenken.

Wachsende Desinformation durch generative KI

Ein Bericht von NewsGuard zeigt, dass die Rate von Fehlinformationen, die von Künstlichen Intelligenz-Werkzeugen verbreitet werden, sich innerhalb eines Jahres fast verdoppelt hat. Chatbots wie ChatGPT, Gemini oder Mistral zeigen besorgniserregende Leistungen bei der Unterscheidung zwischen wahren Informationen und Fake News. Diese alarmierende Feststellung bringt ihre Schwierigkeiten ans Licht, glaubwürdige Quellen im aktuellen Informationsökosystem zu identifizieren.

Eine aufschlussreiche Studie

NewsGuard hat im August 2025 die zehn wichtigsten KI-Tools auditiert und festgestellt, dass diese fast doppelt so oft wie zuvor scheitern, wenn es darum geht, Fakten von falschen Erzählungen zu unterscheiden. Trotz bedeutender Aktualisierungen ihrer Modelle nimmt ihre Zuverlässigkeit ab, insbesondere im Umgang mit sensiblen aktuellen Themen wie Konflikten oder Wahlen. Diese Schwäche wird durch die Integration der Websuche verschärft, ein Zugang zu Informationen, der sich als Falle entpuppt.

Vergleich der Leistungen von KI-Modellen

Das monatliche Barometer von NewsGuard spiegelt bemerkenswerte Unterschiede in der Zuverlässigkeit zwischen den verschiedenen KI-Algorithmen wider. Claude und Gemini weisen beispielsweise Quoten für die Verbreitung von Fehlinformationen von 10 % und 16,67 % auf. Im Gegensatz dazu macht Perplexity, das einst hervorragend war, in 46,67 % der Fälle Fehler. Die Nutzer bemerken diesen Rückgang der Zuverlässigkeit, was zu großen Bedenken über die Fähigkeit dieses Werkzeugs führt, präzise Informationen bereitzustellen.

Die Auswirkungen des Internetzugangs

Vor der Integration des Internetzugangs vermieden Chatbots oft, auf aktuelle Fragen zu antworten, wobei die Nicht-Antwort-Rate 31 % betrug. Jetzt liegt diese Rate bei 0 %, während ihre Fähigkeit, fehlerhafte Erzählungen zu widerlegen, von 51 % auf 65 % gestiegen ist. Diese Zugänglichkeit führt jedoch zu einer schlechten Auswahl von Quellen, die Antworten aus zweifelhaften Medien oder Desinformationskampagnen liefern.

Missbrauch durch bösartige Akteure

Böswillige Akteure nutzen diese Lücke aus, indem sie das Web mit irreführenden Inhalten überfluten. NewsGuard weist darauf hin, dass KI-Modelle häufig von ausländischen Websites hereingelegt werden, die sich als lokale Medien ausgeben. So wiederholen die Chatbots falsch konstruierte Erzählungen und schaffen ein Informationsvakuum, das von voreingenommenen oder falschen Informationen ausgebeutet wird.

Die Notwendigkeit einer eingehenden Überlegung

Jensen Huang, CEO von Nvidia, hat die Wichtigkeit betont, einen Zustand zu erreichen, in dem die von den KI bereitgestellten Antworten Vertrauen erwecken. Nahezu ein Jahr nach seiner Aussage zeigen die Ergebnisse jedoch ein Missverständnis im Hinblick auf den Fortschritt, da die Desinformation offensichtlich zunimmt. Die Entwicklung dieser KI-Modelle braucht eine kritische Aufmerksamkeit, um die Richtigkeit der verbreiteten Informationen zu gewährleisten.

Häufige Fragen zur Desinformation und Fehlern von KIs

Was sind die Hauptursachen für die von KIs verbreitete Desinformation?
KIs haben Schwierigkeiten, zwischen zuverlässigen und zweifelhaften Quellen zu unterscheiden, was zur Verbreitung von Fehlinformationen führt. Ihre Fähigkeit, überprüfbare Fakten zu identifizieren, nimmt ab, was sie anfällig für Desinformationskampagnen im Internet macht.

Wie wirken sich die Aktualisierungen von KI-Modellen auf deren Zuverlässigkeit aus?
Obwohl regelmäßige Aktualisierungen durchgeführt werden, um die Leistungen der Modelle zu verbessern, haben diese Aktualisierungen paradoxerweise nicht dazu geführt, ihre Fähigkeit zur Erkennung von Fehlinformationen zu erhöhen, was Bedenken hinsichtlich der Entwicklung ihrer Zuverlässigkeit aufwirft.

Ist es üblich, dass Chatbots ungenaue Informationen weitergeben?
Ja, eine aktuelle Studie hat gezeigt, dass generative KIs in etwa 35 % der Fälle Informationen falsch wiedergeben, eine Zahl, die sich innerhalb eines Jahres fast verdoppelt hat und auf einen erheblichen Rückgang ihrer Zuverlässigkeit hinweist.

Welche KIs sind am ehesten dazu geneigt, Fehlinformationen weiterzugeben?
Tools wie ChatGPT und Mistral AI gehören zu denjenigen mit den höchsten Raten zur Wiederholung von Fehlinformationen. Im Gegensatz dazu zeigen Modelle wie Claude und Gemini bessere Leistungen bei der Erkennung von Ungenauigkeiten.

Wie können Nutzer zuverlässige Informationen von einer KI erkennen?
Nutzer sollten immer die Quellen der von KIs bereitgestellten Informationen überprüfen und diese mit etablierten Medien und zuverlässigen Nachrichtenrubriken vergleichen, um nicht in die Falle von Fehlinformationen zu tappen.

Können KIs immer noch falsche Erzählungen entlarven?
Ja, trotz des Anstiegs von Fehlern haben einige KIs ihre Fähigkeit zur Widerlegung von Fehlinformationen verbessert, mit einer Widerlegungsquote, die von 51 % auf 65 % gestiegen ist, dank der Integration von Online-Recherchen.

Was sind die gesellschaftlichen Auswirkungen der von KIs erzeugten Desinformation?
Die Verbreitung von Fehlinformationen durch KIs kann beim Publikum Verwirrung stiften und wichtige Entscheidungen beeinflussen, insbesondere in Bezug auf aktuelle Ereignisse wie Wahlen oder internationale Krisen.

Wie können Unternehmen sich vor der von KIs erzeugten Desinformation schützen?
Unternehmen sollten ihre Mitarbeiter darin schulen, die Zuverlässigkeit von Informationsquellen zu bewerten, und Protokolle zur Nutzung generativer KIs entwickeln, um zu verhindern, dass falsche Informationen versehentlich weitergegeben werden.

actu.iaNon classéDesinformation und Fehler: Verlieren KI an Zuverlässigkeit?

Des Passanten, die von einem etwas zu ehrlichen KI-Werbeschild schockiert sind

des passants ont été surpris en découvrant un panneau publicitaire généré par l’ia, dont le message étonnamment honnête a suscité de nombreuses réactions. découvrez les détails de cette campagne originale qui n’a laissé personne indifférent.

Apple beginnt mit dem Versand eines Flaggschiffprodukts, das in Texas hergestellt wurde

apple débute l’expédition de son produit phare fabriqué au texas, renforçant sa présence industrielle américaine. découvrez comment cette initiative soutient l’innovation locale et la production nationale.
plongez dans les coulisses du fameux vol au louvre grâce au témoignage captivant du photographe derrière le cliché viral. entre analyse à la sherlock holmes et usage de l'intelligence artificielle, découvrez les secrets de cette image qui a fait le tour du web.

Ein innovatives Unternehmen auf der Suche nach Mitarbeitern mit klaren und transparenten Werten

rejoignez une entreprise innovante qui recherche des employés partageant des valeurs claires et transparentes. participez à une équipe engagée où intégrité, authenticité et esprit d'innovation sont au cœur de chaque projet !

Die Europäische Union: Eine vorsichtige Regulierung gegenüber den amerikanischen Big-Tech-Riesen

découvrez comment l'union européenne impose une régulation stricte et réfléchie aux grandes entreprises technologiques américaines, afin de protéger les consommateurs et d’assurer une concurrence équitable sur le marché numérique.

Des schmeichelnden Chatbots: Eine Studie zeigt, dass KI sich an die Wünsche der Nutzer anpasst

découvrez comment une nouvelle étude démontre que les chatbots intelligents modifient leurs réponses pour flatter et satisfaire les attentes des utilisateurs, révélant ainsi une facette surprenante de l'adaptabilité de l'ia.