Die zunehmende Nutzung von irreführenden Bildern, die von KI erstellt werden, wirft ohne Zweifel bisher unerreichte ethische Herausforderungen auf. Die humanitären Organisationen, die nach visuellen Wirkungen suchen, stehen vor einer *neuen Plage*: der verzerrten Darstellung von Armut. Diese synthesebilder verstärken Stereotypen und entwerten das Bild von gefährdeten Bevölkerungsgruppen.
Die Kommunikationen über Armut werden zu einem Spielplatz für eine *verzerrte Erzählung*, die die Würde der abgebildeten Personen in Frage stellt. Das Auftreten dieses Phänomens regt zu tiefgreifenden Überlegungen über die Ethik des Bildes und die Notwendigkeit einer *respektvollen Darstellung* der Opfer an.
Irreführende Bilder, die von KI erstellt wurden
Im digitalen Zeitalter wirft die Verbreitung von von künstlicher Intelligenz generierten Bildern alarmierende ethische Fragen auf. Die humanitären Organisationen sehen sich einem Strom von Bildern gegenüber, die Armut darstellen und oft von KI-Generatoren stammen, und ihre Auswirkungen sind tiefgreifend. Laut Noah Arnold von Fairpicture, einer Schweizer Organisation, verwendet ein Teil der NGOs aktiv diese Bilder, während andere mit diesen technologischen Werkzeugen experimentieren.
Das Aufkommen der „Armutspornografie 2.0“
Diese neue Form visueller Darstellung, die von einigen als „Poverty Porn 2.0“ bezeichnet wird, reproduziert nur Stereotypen. Diese Bilder, geprägt von Kindern mit leeren Tellern und rissiger Erde, behindern eine würdevolle Darstellung der erlebten Realitäten. Arsenii Alenichev, Forscher am Institut für Tropenmedizin in Antwerpen, hat festgestellt, dass mehr als einhundert KI-generierte Bilder von NGOs in ihren Kampagnen gegen Hunger oder sexuelle Gewalt verwendet werden.
Eine wachsende Nutzung von KI-generierten Bildern
Die Verwendung von KI-Bildern nimmt zu, oft aufgrund von Haushaltsbedenken und Fragen des Einvernehmens. Die NGOs wenden sich diesen künstlichen Alternativen zu, die als kostengünstiger und frei von Komplikationen im Zusammenhang mit der Zustimmung der dargestellten Personen gelten. Haushaltskürzungen in den USA verschärfen diesen Trend und führen zu einer Ersetzung authentischer Fotografien durch virtuelle Kreationen.
Stereotypen, verstärkt durch KI
Stockfoto-Websites wie Adobe Stock Photos oder Freepik wimmeln von diesen Klischees. Eine große Anzahl dieser Bilder perpetuiert voreingenommene rassische Darstellungen. Titel wie „Fotorealistisches Kind in einem Flüchtlingslager“ oder „Kaukasischer Freiwilliger, der schwarze Kinder in Afrika berät“ legen das Problem einer stereotypen Erzählung offen, die oft in Vorurteilen verankert ist. Alenichev hinterfragt deren Veröffentlichung und argumentiert, dass diese Bilder eine verzerrte Sicht auf die Realität bieten.
Die Verantwortung der Plattformen
Die Führungspersönlichkeiten von Plattformen wie Freepik stellen fest, dass die Verantwortung für die Nutzung dieser Bilder bei den Medienkonsumenten liegt. Joaquín Abela, CEO von Freepik, hebt hervor, dass die generierten Fotos von der globalen Nutzergemeinschaft stammen, die eine Vergütung erhält, wenn Kunden ihre Werke erwerben. Dennoch erkennt Abela die Schwierigkeit an, gegen Vorurteile und Marktanforderungen vorzugehen.
Bemerkenswerte Beispiele im humanitären Sektor
Kommunikationskampagnen der größten Wohltätigkeitsorganisationen haben frühzeitig KI-Bilder integriert. Im Jahr 2023 hat die niederländische Zweigstelle der britischen Wohltätigkeitsorganisation Plan International ein Video gegen Kinderehen ausgestrahlt, in dem ein KI-generiertes Bild eines Mädchens mit einem blauen Auge integriert war. Eine Initiative, die von Beobachtern der Öffentlichkeit als empörend angesehen wurde.
Risiken und ethische Herausforderungen
Im Jahr 2022 verwendete ein Video der Vereinten Nationen von KI generierte Rekonstruktionen von sexualisierter Gewalt in Konflikten. Nach negativen Reaktionen wurde das Video zurückgezogen. Ein Sprecher erklärte, dass dieser Inhalt die Integrität der Informationen beeinträchtigen könne, indem er echte Sequenzen mit generiertem Material vermischt. Angesichts dieser Herausforderungen bleibt die Kontinuität des Engagements der Wohltätigkeitsorganisationen zur Unterstützung der Opfer ungewiss.
Hinweis auf die Herausforderungen der ethischen Bildgebung
Die wachsenden Bedenken hinsichtlich der KI-generierten Bilder sind Teil einer breiteren Debatte über die ethische Darstellung von Armut und Gewalt. Kate Kardol, Kommunikationsberaterin für NGOs, befürchtet, dass diese neuen Praktiken die Würde der dargestellten Personen gefährden. Die Debatten über ethische Repräsentation finden mit dem Aufkommen fortschrittlicher Technologien ein neues Echo.
Die Auswirkungen dieser Praxis sind gravierend. Verzerrte Bilder könnten Filtermechanismen und zukünftige maschinelle Lernmodelle beeinflussen, wodurch die bereits bestehenden Vorurteile in der Gesellschaft verstärkt werden. Dieser Zyklus, von der Erstellung von Bildern bis zu ihrer Verbreitung, führt nur zu wachsendem Misstrauen gegenüber Inhalten, die als faktisch präsentiert werden.
Plan International hat vor diesen Herausforderungen einen Leitfaden erarbeitet, der die Nutzung von KI zur Darstellung von Kindern nicht empfiehlt. Diese Initiative zielt darauf ab, sowohl die Privatsphäre als auch die Würde von Personen in vulnerablen Situationen zu wahren. Die Frage der Ethik bei der Nutzung von Technologie bleibt im Zentrum der Bedenken.
Häufig gestellte Fragen
Was sind die Bedenken hinsichtlich der Nutzung von KI-generierten Bildern zur Veranschaulichung von Armut?
Die Bedenken umfassen die Reproduktion von Stereotypen, das Fehlen der Zustimmung der dargestellten Personen und das Risiko, die Stigmatisierung von Armut und Gewalt zu verstärken.
Warum entscheiden sich einige humanitäre Organisationen dafür, KI-generierte Bilder von Armut zu nutzen?
Diese Organisationen könnten durch Budgetkürzungen, die geringeren Kosten von synthetischen Bildern und die Möglichkeit, diese ohne Zustimmung der Betroffenen zu nutzen, motiviert sein.
Wie schaffen KI-generierte Bilder Vorurteile in der Darstellung von Armut?
Diese Bilder neigen dazu, stereotype und karikaturhafte Darstellungen zu reproduzieren, die bestehende Vorurteile verstärken können, was die Wahrnehmung der Öffentlichkeit gegenüber verletzlichen Bevölkerungsgruppen schädigen kann.
Welchen Einfluss haben diese Bilder auf die Sichtbarkeit der tatsächlichen Probleme im Zusammenhang mit Armut?
Die besorgniserregenden von KI generierten Bilder können die Realität verzerren und die Aufmerksamkeit von den tatsächlichen Problemen ablenken, was authentische Empathie erschwert und das Bewusstsein für die zugrunde liegenden Ursachen von Armut beeinträchtigt.
Wie können NGOs diese Technologien nutzen und dabei ethisch bleiben?
Die NGOs sollten strenge Richtlinien einführen, um sicherzustellen, dass die verwendeten Bilder respektvoll sind, stereotype Darstellungen vermeiden und authentische Zeugnisse und Bilder einbeziehen, wenn dies möglich ist.
Können KI-generierte Bilder auch für andere Zwecke als die Darstellung von Armut verwendet werden?
Ja, diese Bilder können in verschiedenen Sensibilisierungskampagnen verwendet werden, aber es ist entscheidend, dass ihre Nutzung sensibel gegenüber dem Kontext ist und keine schädlichen Stereotypen reproduziert.
Was sind die Risiken der Fehlinformation im Zusammenhang mit der Nutzung von KI-Bildern in der Kommunikation über Armut?
Es besteht das Risiko, dass diese Bilder verzerrte Narrative über Armut perpetuieren und somit Missverständnisse bei der Öffentlichkeit schaffen, die die politischen Entscheidungen und die Finanzierung im humanitären Bereich beeinflussen.
Wie reagieren Intellektuelle und Forscher auf die Nutzung von KI-generierten Bildern?
Viele Forscher äußern Bedenken hinsichtlich ihrer Verwendung und bezeichnen sie als „Armutspornografie“, die die dargestellten Subjekte entmenschlicht und die Integrität der humanitären Kommunikation gefährdet.