Ofcom warnt Technologieunternehmen
Ofcom, die britische Kommunikationsaufsichtsbehörde, hat eine Warnung an Technologieunternehmen ausgesprochen und darauf hingewiesen, dass Inhalte, die von Chatbots erstellt wurden, die echte oder fiktive Personen imitieren, gegen die neuen digitalen Gesetze des Vereinigten Königreichs verstoßen könnten.
Das Problem von Avataren, die verstorbene Personen imitieren
Diese Warnung folgt einer wachsenden Besorgnis, nachdem Nutzer der Plattform Character.AI Avatare kreiert haben, die Brianna Ghey und Molly Russell ähneln, zwei britischen Teenagern, die unter tragischen Umständen verstorben sind. Dieses Phänomen wirft tiefgreifende Fragen hinsichtlich der Würde und der Ethik in Bezug auf die virtuelle Darstellung verstorbener Personen auf.
Die Auswirkungen des Online Safety Act
Ofcom stellte klar, dass alle Inhalte, die von Chatbots generiert werden, einschließlich der von Nutzern erstellten, unter den Online Safety Act fallen. Diese Gesetzgebung zielt darauf ab, Nutzer, insbesondere Kinder, vor illegalen oder schädlichen Inhalten zu schützen. Unternehmen, die dieses Gesetz missachten, müssen mit erheblichen Geldstrafen rechnen, die bis zu 18 Millionen Pfund oder 10 % ihres weltweiten Umsatzes betragen können.
Reaktionen auf einen tragischen Kontext
Die jüngsten Warnungen von Ofcom spiegeln „verstörende“ Ereignisse wider. Ein besonderer Fall wurde hervorgehoben, in dem Nutzer Bots kreierten, die Brianna, einem tragisch ermordeten Transgender-Mädchen, und Molly, die sich das Leben nahm, imitieren. Diese dramatischen Vorfälle verdeutlichen die Notwendigkeit einer Regulierung, um solche Ausnutzungen der Technologie zu verhindern.
Notwendige Regulierung für soziale Plattformen
Die neuen Vorschriften verlangen von großen Plattformen, dass sie Systeme implementieren, um proaktiv illegale Inhalte zu entfernen. Dazu gehört die Schaffung klarer Meldewerkzeuge für die Nutzer und die Durchführung von Risikobewertungen. Der Schutz der Nutzer, insbesondere von Minderjährigen, steht in diesem gesetzlichen Rahmen an erster Stelle.
Aufrufe zur rechtlichen Klarstellung
Die Molly Rose Foundation, eine Wohltätigkeitsorganisation, die von der Familie von Molly gegründet wurde, hat ihren Bedarf an mehr Klarheit bezüglich der Legalität von Inhalten, die von Bots generiert werden, zum Ausdruck gebracht. Der Staatsanwalt Jonathan Hall KC erklärte kürzlich, dass die Antworten der KI-Chatbots nicht ausreichend durch die geltende Gesetzgebung abgedeckt seien.
Die Position von Character.AI und den Anwälten
Character.AI hat sein Engagement für Sicherheit bekundet und erklärt, dass Inhalte proaktiv moderiert und auf Meldungen von Nutzern reagiert werden. Die Chatbots, die Brianna, Molly und Charaktere aus Game of Thrones imitieren, wurden von der Plattform entfernt. Laut dem Anwalt Ben Packer zeigt diese Situation die Komplikationen und weitreichenden Implikationen des Online Safety Act im Kontext der heutigen Technologie.
Tragische Vorfälle in den Vereinigten Staaten
Die Debatte nimmt auch eine internationale Dimension an, mit Beispielen für ähnliche Vorfälle in den Vereinigten Staaten. Ein Jugendlicher hat tragischerweise sein Leben verloren, nachdem er eine Beziehung zu einem Avatar, der auf einem Charakter aus der Serie Game of Thrones basiert, aufgebaut hatte. Diese Ereignisse heben hervor, wie gefährlich sich Technologien zur Inhaltserzeugung mit verletzlichen Nutzern interagieren können.
Wachsende Wachsamkeit gegenüber digitalen Gefahren
Die aktuellen und zukünftigen Vorschriften zeugen von einer wachsenden Besorgnis über die potenziellen Gefahren von KI-Tools. Die Notwendigkeit einer effektiven Regulierung, um die Sicherheit und Integrität digitaler Plattformen zu gewährleisten, ist aktueller denn je. Unternehmen müssen sich in einer komplexen Landschaft bewegen, in der Ethik und soziale Verantwortung unvermeidlich werden.
-
Für alle Personen im Vereinigten Königreich und in Irland können die Samaritans unter 116 123 kontaktiert werden.
Häufig gestellte Fragen
Warum warnt Ofcom Technologieunternehmen bezüglich Chatbots?
Ofcom hat Warnungen ausgesprochen, nachdem Chatbots reale Personen imitiert hatten, darunter Brianna Ghey und Molly Russell, was ethische und sicherheitstechnische Bedenken hinsichtlich der Verwendung von künstlicher Intelligenz aufwirft.
Welche Arten von Inhalten der Chatbots sind von den neuen Vorschriften von Ofcom betroffen?
Die von Chatbots erzeugten Inhalte, die reale oder fiktive Personen imitieren, fallen unter den Online Safety Act, was Dienstleistungen einschließt, die es Nutzern ermöglichen, Chatbots zu erstellen.
Wie beeinflusst der Online Safety Act die Nutzung von Chatbots?
Der Online Safety Act verpflichtet Plattformen, die Nutzergenerierte Inhalte hosten, unter anderem zur Gewährleistung des Schutzes vor illegalen und schädlichen Inhalten, was sich direkt auf die Funktionsweise von Chatbots auswirkt.
Welche Strafen können Unternehmen drohen, die die Vorschriften von Ofcom nicht einhalten?
Unternehmen, die gegen den Online Safety Act verstoßen, können mit Geldstrafen von bis zu 18 Millionen Pfund oder 10 % ihres weltweiten Umsatzes rechnen, und in extremen Fällen können ihre Websites oder Anwendungen gesperrt werden.
Welche Vorfälle haben Ofcom dazu veranlasst, seine Richtlinien zu Chatbots zu klären?
Ofcom reagierte auf besorgniserregende Vorfälle, wie die Erstellung von Bots, die verstorbene Jugendliche imitieren, was Bedenken hinsichtlich des Potenzials psychologischer Schäden durch solche Inhalte aufwarf.
Welche Auswirkungen können Chatbots auf junge Nutzer haben?
Chatbots können in bestimmten Fällen psychologische Probleme verursachen, insbesondere bei jungen Nutzern, die emotionale Bindungen entwickeln oder schädlichen Inhalten ausgesetzt werden könnten.
Wie können Technologieunternehmen den Richtlinien von Ofcom entsprechen?
Unternehmen müssen Systeme implementieren, um proaktiv illegale und schädliche Inhalte zu entfernen, während sie klar definierte Meldewerkzeuge für die Nutzer bereitstellen.
Welche Sicherheitsmaßnahmen sind vorhanden, um Nutzer vor von Chatbots generierten Inhalten zu schützen?
Plattformen müssen Risikobewertungen durchführen und Protokolle für die Moderation nutzergenerierter Inhalte entwickeln, um die Risiken im Zusammenhang mit der Nutzung von Chatbots zu minimieren.
Wer ist verantwortlich, wenn durch einen Chatbot schädliche Inhalte generiert werden?
Die Verantwortung kann sowohl bei der Plattform liegen, die den Chatbot hostet, als auch bei den Nutzern, die die problematischen Inhalte erstellt oder verbreitet haben, gemäß den Richtlinien von Ofcom.