Les Chatbots IA täuschen und desinformieren über die Nachrichten, enthüllt die BBC

Publié le 18 Februar 2025 à 03h46
modifié le 18 Februar 2025 à 03h46

Künstliche Intelligenz-Chatbots, wie ChatGPT und Copilot, *verursachen Verzerrungen* in der Information. Die Analyse der BBC beleuchtet *erhebliche Probleme* mit Desinformation in ihren Antworten auf Nachrichten. Diese automatisierten Werkzeuge, die versprechen, den Zugang zu Informationen zu erleichtern, schaffen oft voreingenommene und irreführende Inhalte. *Faktische Ungenauigkeiten* stellen das Vertrauen der Öffentlichkeit in diese aufkommenden Technologien in Frage. Der Bericht hebt das Ausmaß der Fehler hervor, das manchmal kritische Informationen über aktuelle Ereignisse und politische Persönlichkeiten betrifft.

Die alarmierenden Ergebnisse der BBC-Studie

Eine Studie der BBC zeigt, dass KI-Assistenten (IA) inkorrekte und irreführende Antworten zu Nachrichten liefern. Mehr als die Hälfte der von Tools wie ChatGPT, Copilot, Gemini und Perplexity generierten Antworten weisen „erhebliche Probleme“ auf. Die Journalisten der BBC, die sich auf diese Themen spezialisiert haben, bewerteten diese Antworten anhand von Artikeln ihrer eigenen Redaktion.

Art der festgestellten Fehler

Zu den festgestellten Fehlern gehören faktisch inkorrekte Aussagen. Beispielsweise bezeichneten diese Werkzeuge Rishi Sunak und Nicola Sturgeon fälschlicherweise als noch im Amt befindliche Führer. Falsche Ratschläge zum Dampfen sowie Verwirrung zwischen Meinungen und aktuellen Fakten gehören zu den festgestellten Verzerrungen.

Konkrete Beispiele für Ungenauigkeiten

Die Forscher befragten die IA zu 100 Fragen unter Verwendung von BBC-Artikeln als Referenz. Etwa 20% der Antworten enthielten faktische Fehler in Bezug auf Zahlen, Daten oder Aussagen. Nahezu 13% der Zitate, die der BBC zugeschrieben wurden, waren entweder verändert oder in den genannten Artikeln nicht vorhanden.

Eine Antwort von Gemini auf die Frage zur Schuld der neugeborenen Pflegekraft Lucy Letby ließ den Kontext ihrer Mordurteile unklar. Microsoft’s Copilot informierte fälschlicherweise über den Fall des Opfers Gisèle Pelicot, indem es ihre Geschichte verzerrte. ChatGPT erwähnte erneut Ismail Haniyeh als aktives Mitglied von Hamas, mehrere Monate nach seinem Tod im Iran.

Reaktionen der BBC auf diese Entdeckungen

Deborah Turness, die Direktorin für Nachrichten bei der BBC, bezeichnete diese Ergebnisse als besorgniserregend. Sie warnt, dass diese IA-Werkzeuge „mit dem Feuer spielen“, was das fragile Vertrauen der Öffentlichkeit in die Fakten bedroht. In einem Blogbeitrag fragt sie nach der Fähigkeit der IA, aktuelle Informationen zu verarbeiten, ohne die Fakten zu verzerren.

Die Risiken für die Gesellschaft

Die Ergebnisse dieser Studie unterstreichen Risiken, die nicht nur die Verlässlichkeit von Informationen, sondern auch die Integrität der Demokratie betreffen. Eine von IA erzeugte Desinformation wirft ernsthafte Bedenken auf. Die oft unvollkommenen Algorithmen können sensible Informationen verzerren und potenziell schädliche Konsequenzen haben.

Appell zur Zusammenarbeit

Turness schlug auch vor, mit den IA-Unternehmen zusammenzuarbeiten, um die Genauigkeit der Antworten, die auf journalistischen Inhalten basieren, zu verbessern. Gemeinsam zu arbeiten könnte helfen, die Nutzung von Informationen besser zu steuern und Fehler zu reduzieren.

Der globale Kontext der von IA generierten Desinformation

Dieses Phänomen beschränkt sich nicht auf die BBC. Ähnliche Bedenken tauchen auf vielen Nachrichtenplattformen auf. Jüngste Beispiele veranschaulichen die Nutzung von IA-Assistenten zur Verbreitung fehlerhafter Zusammenfassungen. Beispielsweise hat Apple seine BBC-Nachrichtenalarme ausgesetzt, nachdem es Probleme mit ungenauen Inhalten festgestellt hatte.

Die Verbreitung von Desinformation durch diese Technologien erschüttert die Grundlagen des öffentlichen Vertrauens in Informationen. Die Gefahren einer unregulierten IA erfordern besondere Aufmerksamkeit, um das soziale Gefüge zu schützen.

Besorgniserregende Trends, die beobachtet werden sollten

Die globalen Trends zeigen eine übermäßige Abhängigkeit von IA bei der Erstellung von Nachrichten. Die Öffentlichkeit muss wachsam sein und kritische Fähigkeiten im Umgang mit Informationen entwickeln. Deepfakes zu identifizieren und sich bei zuverlässigen Quellen zu informieren, ist von größter Wichtigkeit.

Durch diese Studie hebt die BBC ein Gebot hervor: die Nutzer müssen eine strikte Regulierung der von IA generierten Inhalte fordern. Der Bedarf an einem klaren und transparenten Rahmen wird immer dringlicher, um die Integrität der Informationen im digitalen Zeitalter zu gewährleisten.

Die Frage der Inhaltskontrolle durch die Verlage tritt auf. Journalisten und Pressehäuser müssen ihre zentrale Rolle in der Informationsvermittlung bewahren, um eine Schwächung der journalistischen Standards angesichts des Aufstiegs generativer Technologien zu vermeiden.

Häufig gestellte Fragen zu IA-Chatbots und Desinformation

Was sind die Haupt Risiken im Zusammenhang mit der Verwendung von IA-Chatbots zur Weitergabe von Informationen?
IA-Chatbots können Verzerrungen und faktische Ungenauigkeiten einführen, was die Verlässlichkeit der gelieferten Informationen, insbesondere im Hinblick auf Nachrichten und aktuelle Ereignisse, gefährdet.
Wie hat die BBC die Zuverlässigkeit der von IA-Chatbots gelieferten Antworten bewertet?
Die BBC führte eine Studie durch, in der vier generative IA-Tools mit 100 Fragen getestet wurden, die auf Artikeln der BBC basierten. Die Antworten wurden von spezialisierten Journalisten bewertet, wobei herauskam, dass mehr als die Hälfte „erhebliche Probleme“ aufwiesen.
Welche spezifischen Fehler wurden in den Antworten der Chatbots identifiziert?
Zu den Fehlern gehören falsche Aussagen über politische Persönlichkeiten, die besagen, dass Rishi Sunak und Nicola Sturgeon immer noch im Amt sind, sowie inkorrekte Informationen zu öffentlichen Gesundheitsratschlägen bezüglich des Dampfens.
Warum betrachtet die BBC die generativen IA-Werkzeuge als Bedrohung für die Glaubwürdigkeit der Öffentlichkeit in die Fakten?
Diese Werkzeuge können irreführende Inhalte erzeugen, was zu einer allgemeinen Verwirrung und einem wachsenden Misstrauen gegenüber zuverlässigen Nachrichtenquellen führt, was den Umgang mit Informationen noch schwieriger macht.
Wie können Medienunternehmen mit IA-Entwicklern zusammenarbeiten, um die Genauigkeit der Informationen zu verbessern?
Die Unternehmen sollten Partnerschaften mit IA-Firmen eingehen, um sicherzustellen, dass die Nutzung ihrer Inhalte so verwaltet wird, dass sie Genauigkeit und Verantwortung im Umgang mit Informationen fördert.
Können Nutzer den von IA-Chatbots bereitgestellten Informationen vertrauen?
Nutzer sollten Vorsicht walten lassen und die Informationen, die sie von diesen Tools erhalten, überprüfen, insbesondere wenn Zweifel an ihrer Genauigkeit bestehen, da die Antworten erhebliche Ungenauigkeiten enthalten können.
Welche Maßnahmen können ergriffen werden, um die von IA-Chatbots erzeugte Desinformation zu begrenzen?
Es ist wichtig, Regulierungen umzusetzen, die Medienbildung zu verbessern und die digitale Alphabetisierung zu fördern, um die Nutzer auf die Risiken von Desinformation aufmerksam zu machen.

actu.iaNon classéLes Chatbots IA täuschen und desinformieren über die Nachrichten, enthüllt die BBC

Zwei Gerichtshöfe befassen sich mit generativer KI und fairem Gebrauch: einer trifft die richtige Entscheidung

découvrez comment deux tribunaux examinent l'impact de l'ia générative sur l'équité, avec un focus sur l'une des décisions marquantes qui pourrait façonner l'avenir de la législation technologique.

Die KI-Bots überfluten Reddit, und die Verantwortung liegt bei der Plattform

découvrez comment l'essor des bots ia sur reddit soulève des questions de responsabilité pour la plateforme. analysez les impacts de cette évolution technologique sur la communauté en ligne et les enjeux éthiques qui en découlent.

Die Cybersicherheitsgesellschaft Rubrik steht kurz davor, die KI-Plattform Predibase zu erwerben

découvrez comment rubrik, leader en cybersécurité, va renforcer ses capacités avec l'acquisition de la plateforme d'intelligence artificielle predibase. une étape stratégique qui pourrait transformer le paysage de la sécurité numérique.

Die besten KI-Tools, die die Webentwicklung effizienter machen

découvrez notre sélection des meilleurs outils d'intelligence artificielle qui révolutionnent le développement web. optimisez votre workflow, améliorez la collaboration et gagnez en efficacité grâce à ces solutions innovantes adaptées aux développeurs.

Google präsentiert Gemini CLI, ein autonomer Code-Agent, der kostenlos zugänglich ist

découvrez gemini cli, l'agent de code autonome de google, accessible gratuitement. optimisez votre développement avec des outils innovants et simplifiez votre flux de travail grâce à cette technologie avancée.

Die Auswirkungen des AI Mode: die neue Revolution von Google auf der SERP und ihre Folgen für das SEO

découvrez comment l'ai mode de google transforme la serp et redéfinit les stratégies seo. analyse des impacts sur le référencement et les nouvelles opportunités à saisir pour optimiser votre visibilité en ligne.