Les Chatbots IA täuschen und desinformieren über die Nachrichten, enthüllt die BBC

Publié le 18 Februar 2025 à 03h46
modifié le 18 Februar 2025 à 03h46

Künstliche Intelligenz-Chatbots, wie ChatGPT und Copilot, *verursachen Verzerrungen* in der Information. Die Analyse der BBC beleuchtet *erhebliche Probleme* mit Desinformation in ihren Antworten auf Nachrichten. Diese automatisierten Werkzeuge, die versprechen, den Zugang zu Informationen zu erleichtern, schaffen oft voreingenommene und irreführende Inhalte. *Faktische Ungenauigkeiten* stellen das Vertrauen der Öffentlichkeit in diese aufkommenden Technologien in Frage. Der Bericht hebt das Ausmaß der Fehler hervor, das manchmal kritische Informationen über aktuelle Ereignisse und politische Persönlichkeiten betrifft.

Die alarmierenden Ergebnisse der BBC-Studie

Eine Studie der BBC zeigt, dass KI-Assistenten (IA) inkorrekte und irreführende Antworten zu Nachrichten liefern. Mehr als die Hälfte der von Tools wie ChatGPT, Copilot, Gemini und Perplexity generierten Antworten weisen „erhebliche Probleme“ auf. Die Journalisten der BBC, die sich auf diese Themen spezialisiert haben, bewerteten diese Antworten anhand von Artikeln ihrer eigenen Redaktion.

Art der festgestellten Fehler

Zu den festgestellten Fehlern gehören faktisch inkorrekte Aussagen. Beispielsweise bezeichneten diese Werkzeuge Rishi Sunak und Nicola Sturgeon fälschlicherweise als noch im Amt befindliche Führer. Falsche Ratschläge zum Dampfen sowie Verwirrung zwischen Meinungen und aktuellen Fakten gehören zu den festgestellten Verzerrungen.

Konkrete Beispiele für Ungenauigkeiten

Die Forscher befragten die IA zu 100 Fragen unter Verwendung von BBC-Artikeln als Referenz. Etwa 20% der Antworten enthielten faktische Fehler in Bezug auf Zahlen, Daten oder Aussagen. Nahezu 13% der Zitate, die der BBC zugeschrieben wurden, waren entweder verändert oder in den genannten Artikeln nicht vorhanden.

Eine Antwort von Gemini auf die Frage zur Schuld der neugeborenen Pflegekraft Lucy Letby ließ den Kontext ihrer Mordurteile unklar. Microsoft’s Copilot informierte fälschlicherweise über den Fall des Opfers Gisèle Pelicot, indem es ihre Geschichte verzerrte. ChatGPT erwähnte erneut Ismail Haniyeh als aktives Mitglied von Hamas, mehrere Monate nach seinem Tod im Iran.

Reaktionen der BBC auf diese Entdeckungen

Deborah Turness, die Direktorin für Nachrichten bei der BBC, bezeichnete diese Ergebnisse als besorgniserregend. Sie warnt, dass diese IA-Werkzeuge „mit dem Feuer spielen“, was das fragile Vertrauen der Öffentlichkeit in die Fakten bedroht. In einem Blogbeitrag fragt sie nach der Fähigkeit der IA, aktuelle Informationen zu verarbeiten, ohne die Fakten zu verzerren.

Die Risiken für die Gesellschaft

Die Ergebnisse dieser Studie unterstreichen Risiken, die nicht nur die Verlässlichkeit von Informationen, sondern auch die Integrität der Demokratie betreffen. Eine von IA erzeugte Desinformation wirft ernsthafte Bedenken auf. Die oft unvollkommenen Algorithmen können sensible Informationen verzerren und potenziell schädliche Konsequenzen haben.

Appell zur Zusammenarbeit

Turness schlug auch vor, mit den IA-Unternehmen zusammenzuarbeiten, um die Genauigkeit der Antworten, die auf journalistischen Inhalten basieren, zu verbessern. Gemeinsam zu arbeiten könnte helfen, die Nutzung von Informationen besser zu steuern und Fehler zu reduzieren.

Der globale Kontext der von IA generierten Desinformation

Dieses Phänomen beschränkt sich nicht auf die BBC. Ähnliche Bedenken tauchen auf vielen Nachrichtenplattformen auf. Jüngste Beispiele veranschaulichen die Nutzung von IA-Assistenten zur Verbreitung fehlerhafter Zusammenfassungen. Beispielsweise hat Apple seine BBC-Nachrichtenalarme ausgesetzt, nachdem es Probleme mit ungenauen Inhalten festgestellt hatte.

Die Verbreitung von Desinformation durch diese Technologien erschüttert die Grundlagen des öffentlichen Vertrauens in Informationen. Die Gefahren einer unregulierten IA erfordern besondere Aufmerksamkeit, um das soziale Gefüge zu schützen.

Besorgniserregende Trends, die beobachtet werden sollten

Die globalen Trends zeigen eine übermäßige Abhängigkeit von IA bei der Erstellung von Nachrichten. Die Öffentlichkeit muss wachsam sein und kritische Fähigkeiten im Umgang mit Informationen entwickeln. Deepfakes zu identifizieren und sich bei zuverlässigen Quellen zu informieren, ist von größter Wichtigkeit.

Durch diese Studie hebt die BBC ein Gebot hervor: die Nutzer müssen eine strikte Regulierung der von IA generierten Inhalte fordern. Der Bedarf an einem klaren und transparenten Rahmen wird immer dringlicher, um die Integrität der Informationen im digitalen Zeitalter zu gewährleisten.

Die Frage der Inhaltskontrolle durch die Verlage tritt auf. Journalisten und Pressehäuser müssen ihre zentrale Rolle in der Informationsvermittlung bewahren, um eine Schwächung der journalistischen Standards angesichts des Aufstiegs generativer Technologien zu vermeiden.

Häufig gestellte Fragen zu IA-Chatbots und Desinformation

Was sind die Haupt Risiken im Zusammenhang mit der Verwendung von IA-Chatbots zur Weitergabe von Informationen?
IA-Chatbots können Verzerrungen und faktische Ungenauigkeiten einführen, was die Verlässlichkeit der gelieferten Informationen, insbesondere im Hinblick auf Nachrichten und aktuelle Ereignisse, gefährdet.
Wie hat die BBC die Zuverlässigkeit der von IA-Chatbots gelieferten Antworten bewertet?
Die BBC führte eine Studie durch, in der vier generative IA-Tools mit 100 Fragen getestet wurden, die auf Artikeln der BBC basierten. Die Antworten wurden von spezialisierten Journalisten bewertet, wobei herauskam, dass mehr als die Hälfte „erhebliche Probleme“ aufwiesen.
Welche spezifischen Fehler wurden in den Antworten der Chatbots identifiziert?
Zu den Fehlern gehören falsche Aussagen über politische Persönlichkeiten, die besagen, dass Rishi Sunak und Nicola Sturgeon immer noch im Amt sind, sowie inkorrekte Informationen zu öffentlichen Gesundheitsratschlägen bezüglich des Dampfens.
Warum betrachtet die BBC die generativen IA-Werkzeuge als Bedrohung für die Glaubwürdigkeit der Öffentlichkeit in die Fakten?
Diese Werkzeuge können irreführende Inhalte erzeugen, was zu einer allgemeinen Verwirrung und einem wachsenden Misstrauen gegenüber zuverlässigen Nachrichtenquellen führt, was den Umgang mit Informationen noch schwieriger macht.
Wie können Medienunternehmen mit IA-Entwicklern zusammenarbeiten, um die Genauigkeit der Informationen zu verbessern?
Die Unternehmen sollten Partnerschaften mit IA-Firmen eingehen, um sicherzustellen, dass die Nutzung ihrer Inhalte so verwaltet wird, dass sie Genauigkeit und Verantwortung im Umgang mit Informationen fördert.
Können Nutzer den von IA-Chatbots bereitgestellten Informationen vertrauen?
Nutzer sollten Vorsicht walten lassen und die Informationen, die sie von diesen Tools erhalten, überprüfen, insbesondere wenn Zweifel an ihrer Genauigkeit bestehen, da die Antworten erhebliche Ungenauigkeiten enthalten können.
Welche Maßnahmen können ergriffen werden, um die von IA-Chatbots erzeugte Desinformation zu begrenzen?
Es ist wichtig, Regulierungen umzusetzen, die Medienbildung zu verbessern und die digitale Alphabetisierung zu fördern, um die Nutzer auf die Risiken von Desinformation aufmerksam zu machen.

actu.iaNon classéLes Chatbots IA täuschen und desinformieren über die Nachrichten, enthüllt die BBC

EchoScribe : Eine Revolution in der Musikschöpfung

découvrez echoscribe, la solution innovante qui transforme la création musicale grâce à l’intelligence artificielle. composez facilement vos morceaux et libérez votre créativité avec des outils puissants et intuitifs.

Die Künstliche Intelligenz ist unter uns: Sind wir bereit, sie willkommen zu heißen?

découvrez comment l'intelligence artificielle s'intègre dans notre quotidien et interroge notre préparation à ce grand bouleversement technologique. analyse, enjeux et perspectives pour mieux comprendre les défis de demain.

Die 8 wichtigsten SEO-Fakten, die man diesen Sommer beachten sollte

découvrez les 8 faits marquants du seo à retenir cet été : actualités, tendances et changements majeurs à ne pas manquer pour optimiser votre référencement.
découvrez comment l’intelligence artificielle conversationnelle transforme le quotidien des adolescents, influence leurs relations sociales, leurs habitudes d’apprentissage et bouleverse leurs modes de communication.

Lassen Sie sich nicht von Künstlichen Intelligenzen täuschen: Sie können nicht ‚leiden‘

découvrez pourquoi les intelligences artificielles, malgré leurs prouesses, restent incapables de ressentir la souffrance. ne tombez pas dans le piège des apparences : la conscience et l'émotion sont encore hors de leur portée.

Forscher entdecken Beweise, die darauf hindeuten, dass ChatGPT unsere Art zu kommunizieren prägt

des scientifiques révèlent que chatgpt influence notre communication quotidienne. découvrez comment cette ia transforme nos interactions et modifie notre façon d’échanger des idées.