Künstliche Intelligenz-Chatbots, wie ChatGPT und Copilot, *verursachen Verzerrungen* in der Information. Die Analyse der BBC beleuchtet *erhebliche Probleme* mit Desinformation in ihren Antworten auf Nachrichten. Diese automatisierten Werkzeuge, die versprechen, den Zugang zu Informationen zu erleichtern, schaffen oft voreingenommene und irreführende Inhalte. *Faktische Ungenauigkeiten* stellen das Vertrauen der Öffentlichkeit in diese aufkommenden Technologien in Frage. Der Bericht hebt das Ausmaß der Fehler hervor, das manchmal kritische Informationen über aktuelle Ereignisse und politische Persönlichkeiten betrifft.
Die alarmierenden Ergebnisse der BBC-Studie
Eine Studie der BBC zeigt, dass KI-Assistenten (IA) inkorrekte und irreführende Antworten zu Nachrichten liefern. Mehr als die Hälfte der von Tools wie ChatGPT, Copilot, Gemini und Perplexity generierten Antworten weisen „erhebliche Probleme“ auf. Die Journalisten der BBC, die sich auf diese Themen spezialisiert haben, bewerteten diese Antworten anhand von Artikeln ihrer eigenen Redaktion.
Art der festgestellten Fehler
Zu den festgestellten Fehlern gehören faktisch inkorrekte Aussagen. Beispielsweise bezeichneten diese Werkzeuge Rishi Sunak und Nicola Sturgeon fälschlicherweise als noch im Amt befindliche Führer. Falsche Ratschläge zum Dampfen sowie Verwirrung zwischen Meinungen und aktuellen Fakten gehören zu den festgestellten Verzerrungen.
Konkrete Beispiele für Ungenauigkeiten
Die Forscher befragten die IA zu 100 Fragen unter Verwendung von BBC-Artikeln als Referenz. Etwa 20% der Antworten enthielten faktische Fehler in Bezug auf Zahlen, Daten oder Aussagen. Nahezu 13% der Zitate, die der BBC zugeschrieben wurden, waren entweder verändert oder in den genannten Artikeln nicht vorhanden.
Eine Antwort von Gemini auf die Frage zur Schuld der neugeborenen Pflegekraft Lucy Letby ließ den Kontext ihrer Mordurteile unklar. Microsoft’s Copilot informierte fälschlicherweise über den Fall des Opfers Gisèle Pelicot, indem es ihre Geschichte verzerrte. ChatGPT erwähnte erneut Ismail Haniyeh als aktives Mitglied von Hamas, mehrere Monate nach seinem Tod im Iran.
Reaktionen der BBC auf diese Entdeckungen
Deborah Turness, die Direktorin für Nachrichten bei der BBC, bezeichnete diese Ergebnisse als besorgniserregend. Sie warnt, dass diese IA-Werkzeuge „mit dem Feuer spielen“, was das fragile Vertrauen der Öffentlichkeit in die Fakten bedroht. In einem Blogbeitrag fragt sie nach der Fähigkeit der IA, aktuelle Informationen zu verarbeiten, ohne die Fakten zu verzerren.
Die Risiken für die Gesellschaft
Die Ergebnisse dieser Studie unterstreichen Risiken, die nicht nur die Verlässlichkeit von Informationen, sondern auch die Integrität der Demokratie betreffen. Eine von IA erzeugte Desinformation wirft ernsthafte Bedenken auf. Die oft unvollkommenen Algorithmen können sensible Informationen verzerren und potenziell schädliche Konsequenzen haben.
Appell zur Zusammenarbeit
Turness schlug auch vor, mit den IA-Unternehmen zusammenzuarbeiten, um die Genauigkeit der Antworten, die auf journalistischen Inhalten basieren, zu verbessern. Gemeinsam zu arbeiten könnte helfen, die Nutzung von Informationen besser zu steuern und Fehler zu reduzieren.
Der globale Kontext der von IA generierten Desinformation
Dieses Phänomen beschränkt sich nicht auf die BBC. Ähnliche Bedenken tauchen auf vielen Nachrichtenplattformen auf. Jüngste Beispiele veranschaulichen die Nutzung von IA-Assistenten zur Verbreitung fehlerhafter Zusammenfassungen. Beispielsweise hat Apple seine BBC-Nachrichtenalarme ausgesetzt, nachdem es Probleme mit ungenauen Inhalten festgestellt hatte.
Die Verbreitung von Desinformation durch diese Technologien erschüttert die Grundlagen des öffentlichen Vertrauens in Informationen. Die Gefahren einer unregulierten IA erfordern besondere Aufmerksamkeit, um das soziale Gefüge zu schützen.
Besorgniserregende Trends, die beobachtet werden sollten
Die globalen Trends zeigen eine übermäßige Abhängigkeit von IA bei der Erstellung von Nachrichten. Die Öffentlichkeit muss wachsam sein und kritische Fähigkeiten im Umgang mit Informationen entwickeln. Deepfakes zu identifizieren und sich bei zuverlässigen Quellen zu informieren, ist von größter Wichtigkeit.
Durch diese Studie hebt die BBC ein Gebot hervor: die Nutzer müssen eine strikte Regulierung der von IA generierten Inhalte fordern. Der Bedarf an einem klaren und transparenten Rahmen wird immer dringlicher, um die Integrität der Informationen im digitalen Zeitalter zu gewährleisten.
Die Frage der Inhaltskontrolle durch die Verlage tritt auf. Journalisten und Pressehäuser müssen ihre zentrale Rolle in der Informationsvermittlung bewahren, um eine Schwächung der journalistischen Standards angesichts des Aufstiegs generativer Technologien zu vermeiden.
Häufig gestellte Fragen zu IA-Chatbots und Desinformation
Was sind die Haupt Risiken im Zusammenhang mit der Verwendung von IA-Chatbots zur Weitergabe von Informationen?
IA-Chatbots können Verzerrungen und faktische Ungenauigkeiten einführen, was die Verlässlichkeit der gelieferten Informationen, insbesondere im Hinblick auf Nachrichten und aktuelle Ereignisse, gefährdet.
Wie hat die BBC die Zuverlässigkeit der von IA-Chatbots gelieferten Antworten bewertet?
Die BBC führte eine Studie durch, in der vier generative IA-Tools mit 100 Fragen getestet wurden, die auf Artikeln der BBC basierten. Die Antworten wurden von spezialisierten Journalisten bewertet, wobei herauskam, dass mehr als die Hälfte „erhebliche Probleme“ aufwiesen.
Welche spezifischen Fehler wurden in den Antworten der Chatbots identifiziert?
Zu den Fehlern gehören falsche Aussagen über politische Persönlichkeiten, die besagen, dass Rishi Sunak und Nicola Sturgeon immer noch im Amt sind, sowie inkorrekte Informationen zu öffentlichen Gesundheitsratschlägen bezüglich des Dampfens.
Warum betrachtet die BBC die generativen IA-Werkzeuge als Bedrohung für die Glaubwürdigkeit der Öffentlichkeit in die Fakten?
Diese Werkzeuge können irreführende Inhalte erzeugen, was zu einer allgemeinen Verwirrung und einem wachsenden Misstrauen gegenüber zuverlässigen Nachrichtenquellen führt, was den Umgang mit Informationen noch schwieriger macht.
Wie können Medienunternehmen mit IA-Entwicklern zusammenarbeiten, um die Genauigkeit der Informationen zu verbessern?
Die Unternehmen sollten Partnerschaften mit IA-Firmen eingehen, um sicherzustellen, dass die Nutzung ihrer Inhalte so verwaltet wird, dass sie Genauigkeit und Verantwortung im Umgang mit Informationen fördert.
Können Nutzer den von IA-Chatbots bereitgestellten Informationen vertrauen?
Nutzer sollten Vorsicht walten lassen und die Informationen, die sie von diesen Tools erhalten, überprüfen, insbesondere wenn Zweifel an ihrer Genauigkeit bestehen, da die Antworten erhebliche Ungenauigkeiten enthalten können.
Welche Maßnahmen können ergriffen werden, um die von IA-Chatbots erzeugte Desinformation zu begrenzen?
Es ist wichtig, Regulierungen umzusetzen, die Medienbildung zu verbessern und die digitale Alphabetisierung zu fördern, um die Nutzer auf die Risiken von Desinformation aufmerksam zu machen.