Die Zuverlässigkeit von künstlichen Intelligenzen wird mehr denn je in Frage gestellt. Seit einem Jahr deuten die Ergebnisse von Studien auf einen besorgniserregenden Anstieg von Fehlinformationen hin. Die Unfähigkeit dieser Maschinen, glaubwürdige Quellen zu erkennen, hebt kritische strategische Herausforderungen für die Gesellschaft hervor. Da diese technologischen Werkzeuge nicht effektiv filtern können, besteht die Gefahr, dass sie irreführende Erzählungen verbreiten. Die durch Chatbots generierte Desinformation wirft wichtige Fragen zu ihrem tatsächlichen Einfluss auf die öffentliche Meinung auf. Lassen Sie uns über den Verfall dieser Zuverlässigkeit und ihre weitreichenden Folgen nachdenken.
Wachsende Desinformation durch generative KI
Ein Bericht von NewsGuard zeigt, dass die Rate von Fehlinformationen, die von Künstlichen Intelligenz-Werkzeugen verbreitet werden, sich innerhalb eines Jahres fast verdoppelt hat. Chatbots wie ChatGPT, Gemini oder Mistral zeigen besorgniserregende Leistungen bei der Unterscheidung zwischen wahren Informationen und Fake News. Diese alarmierende Feststellung bringt ihre Schwierigkeiten ans Licht, glaubwürdige Quellen im aktuellen Informationsökosystem zu identifizieren.
Eine aufschlussreiche Studie
NewsGuard hat im August 2025 die zehn wichtigsten KI-Tools auditiert und festgestellt, dass diese fast doppelt so oft wie zuvor scheitern, wenn es darum geht, Fakten von falschen Erzählungen zu unterscheiden. Trotz bedeutender Aktualisierungen ihrer Modelle nimmt ihre Zuverlässigkeit ab, insbesondere im Umgang mit sensiblen aktuellen Themen wie Konflikten oder Wahlen. Diese Schwäche wird durch die Integration der Websuche verschärft, ein Zugang zu Informationen, der sich als Falle entpuppt.
Vergleich der Leistungen von KI-Modellen
Das monatliche Barometer von NewsGuard spiegelt bemerkenswerte Unterschiede in der Zuverlässigkeit zwischen den verschiedenen KI-Algorithmen wider. Claude und Gemini weisen beispielsweise Quoten für die Verbreitung von Fehlinformationen von 10 % und 16,67 % auf. Im Gegensatz dazu macht Perplexity, das einst hervorragend war, in 46,67 % der Fälle Fehler. Die Nutzer bemerken diesen Rückgang der Zuverlässigkeit, was zu großen Bedenken über die Fähigkeit dieses Werkzeugs führt, präzise Informationen bereitzustellen.
Die Auswirkungen des Internetzugangs
Vor der Integration des Internetzugangs vermieden Chatbots oft, auf aktuelle Fragen zu antworten, wobei die Nicht-Antwort-Rate 31 % betrug. Jetzt liegt diese Rate bei 0 %, während ihre Fähigkeit, fehlerhafte Erzählungen zu widerlegen, von 51 % auf 65 % gestiegen ist. Diese Zugänglichkeit führt jedoch zu einer schlechten Auswahl von Quellen, die Antworten aus zweifelhaften Medien oder Desinformationskampagnen liefern.
Missbrauch durch bösartige Akteure
Böswillige Akteure nutzen diese Lücke aus, indem sie das Web mit irreführenden Inhalten überfluten. NewsGuard weist darauf hin, dass KI-Modelle häufig von ausländischen Websites hereingelegt werden, die sich als lokale Medien ausgeben. So wiederholen die Chatbots falsch konstruierte Erzählungen und schaffen ein Informationsvakuum, das von voreingenommenen oder falschen Informationen ausgebeutet wird.
Die Notwendigkeit einer eingehenden Überlegung
Jensen Huang, CEO von Nvidia, hat die Wichtigkeit betont, einen Zustand zu erreichen, in dem die von den KI bereitgestellten Antworten Vertrauen erwecken. Nahezu ein Jahr nach seiner Aussage zeigen die Ergebnisse jedoch ein Missverständnis im Hinblick auf den Fortschritt, da die Desinformation offensichtlich zunimmt. Die Entwicklung dieser KI-Modelle braucht eine kritische Aufmerksamkeit, um die Richtigkeit der verbreiteten Informationen zu gewährleisten.
Häufige Fragen zur Desinformation und Fehlern von KIs
Was sind die Hauptursachen für die von KIs verbreitete Desinformation?
KIs haben Schwierigkeiten, zwischen zuverlässigen und zweifelhaften Quellen zu unterscheiden, was zur Verbreitung von Fehlinformationen führt. Ihre Fähigkeit, überprüfbare Fakten zu identifizieren, nimmt ab, was sie anfällig für Desinformationskampagnen im Internet macht.
Wie wirken sich die Aktualisierungen von KI-Modellen auf deren Zuverlässigkeit aus?
Obwohl regelmäßige Aktualisierungen durchgeführt werden, um die Leistungen der Modelle zu verbessern, haben diese Aktualisierungen paradoxerweise nicht dazu geführt, ihre Fähigkeit zur Erkennung von Fehlinformationen zu erhöhen, was Bedenken hinsichtlich der Entwicklung ihrer Zuverlässigkeit aufwirft.
Ist es üblich, dass Chatbots ungenaue Informationen weitergeben?
Ja, eine aktuelle Studie hat gezeigt, dass generative KIs in etwa 35 % der Fälle Informationen falsch wiedergeben, eine Zahl, die sich innerhalb eines Jahres fast verdoppelt hat und auf einen erheblichen Rückgang ihrer Zuverlässigkeit hinweist.
Welche KIs sind am ehesten dazu geneigt, Fehlinformationen weiterzugeben?
Tools wie ChatGPT und Mistral AI gehören zu denjenigen mit den höchsten Raten zur Wiederholung von Fehlinformationen. Im Gegensatz dazu zeigen Modelle wie Claude und Gemini bessere Leistungen bei der Erkennung von Ungenauigkeiten.
Wie können Nutzer zuverlässige Informationen von einer KI erkennen?
Nutzer sollten immer die Quellen der von KIs bereitgestellten Informationen überprüfen und diese mit etablierten Medien und zuverlässigen Nachrichtenrubriken vergleichen, um nicht in die Falle von Fehlinformationen zu tappen.
Können KIs immer noch falsche Erzählungen entlarven?
Ja, trotz des Anstiegs von Fehlern haben einige KIs ihre Fähigkeit zur Widerlegung von Fehlinformationen verbessert, mit einer Widerlegungsquote, die von 51 % auf 65 % gestiegen ist, dank der Integration von Online-Recherchen.
Was sind die gesellschaftlichen Auswirkungen der von KIs erzeugten Desinformation?
Die Verbreitung von Fehlinformationen durch KIs kann beim Publikum Verwirrung stiften und wichtige Entscheidungen beeinflussen, insbesondere in Bezug auf aktuelle Ereignisse wie Wahlen oder internationale Krisen.
Wie können Unternehmen sich vor der von KIs erzeugten Desinformation schützen?
Unternehmen sollten ihre Mitarbeiter darin schulen, die Zuverlässigkeit von Informationsquellen zu bewerten, und Protokolle zur Nutzung generativer KIs entwickeln, um zu verhindern, dass falsche Informationen versehentlich weitergegeben werden.