Täuschende Bilder, die von KI erstellt wurden, um Armut zu veranschaulichen: eine neue Plage für Hilfsorganisationen

Publié le 20 Oktober 2025 à 09h38
modifié le 20 Oktober 2025 à 09h38

Die zunehmende Nutzung von irreführenden Bildern, die von KI erstellt werden, wirft ohne Zweifel bisher unerreichte ethische Herausforderungen auf. Die humanitären Organisationen, die nach visuellen Wirkungen suchen, stehen vor einer *neuen Plage*: der verzerrten Darstellung von Armut. Diese synthesebilder verstärken Stereotypen und entwerten das Bild von gefährdeten Bevölkerungsgruppen.

Die Kommunikationen über Armut werden zu einem Spielplatz für eine *verzerrte Erzählung*, die die Würde der abgebildeten Personen in Frage stellt. Das Auftreten dieses Phänomens regt zu tiefgreifenden Überlegungen über die Ethik des Bildes und die Notwendigkeit einer *respektvollen Darstellung* der Opfer an.

Irreführende Bilder, die von KI erstellt wurden

Im digitalen Zeitalter wirft die Verbreitung von von künstlicher Intelligenz generierten Bildern alarmierende ethische Fragen auf. Die humanitären Organisationen sehen sich einem Strom von Bildern gegenüber, die Armut darstellen und oft von KI-Generatoren stammen, und ihre Auswirkungen sind tiefgreifend. Laut Noah Arnold von Fairpicture, einer Schweizer Organisation, verwendet ein Teil der NGOs aktiv diese Bilder, während andere mit diesen technologischen Werkzeugen experimentieren.

Das Aufkommen der „Armutspornografie 2.0“

Diese neue Form visueller Darstellung, die von einigen als „Poverty Porn 2.0“ bezeichnet wird, reproduziert nur Stereotypen. Diese Bilder, geprägt von Kindern mit leeren Tellern und rissiger Erde, behindern eine würdevolle Darstellung der erlebten Realitäten. Arsenii Alenichev, Forscher am Institut für Tropenmedizin in Antwerpen, hat festgestellt, dass mehr als einhundert KI-generierte Bilder von NGOs in ihren Kampagnen gegen Hunger oder sexuelle Gewalt verwendet werden.

Eine wachsende Nutzung von KI-generierten Bildern

Die Verwendung von KI-Bildern nimmt zu, oft aufgrund von Haushaltsbedenken und Fragen des Einvernehmens. Die NGOs wenden sich diesen künstlichen Alternativen zu, die als kostengünstiger und frei von Komplikationen im Zusammenhang mit der Zustimmung der dargestellten Personen gelten. Haushaltskürzungen in den USA verschärfen diesen Trend und führen zu einer Ersetzung authentischer Fotografien durch virtuelle Kreationen.

Stereotypen, verstärkt durch KI

Stockfoto-Websites wie Adobe Stock Photos oder Freepik wimmeln von diesen Klischees. Eine große Anzahl dieser Bilder perpetuiert voreingenommene rassische Darstellungen. Titel wie „Fotorealistisches Kind in einem Flüchtlingslager“ oder „Kaukasischer Freiwilliger, der schwarze Kinder in Afrika berät“ legen das Problem einer stereotypen Erzählung offen, die oft in Vorurteilen verankert ist. Alenichev hinterfragt deren Veröffentlichung und argumentiert, dass diese Bilder eine verzerrte Sicht auf die Realität bieten.

Die Verantwortung der Plattformen

Die Führungspersönlichkeiten von Plattformen wie Freepik stellen fest, dass die Verantwortung für die Nutzung dieser Bilder bei den Medienkonsumenten liegt. Joaquín Abela, CEO von Freepik, hebt hervor, dass die generierten Fotos von der globalen Nutzergemeinschaft stammen, die eine Vergütung erhält, wenn Kunden ihre Werke erwerben. Dennoch erkennt Abela die Schwierigkeit an, gegen Vorurteile und Marktanforderungen vorzugehen.

Bemerkenswerte Beispiele im humanitären Sektor

Kommunikationskampagnen der größten Wohltätigkeitsorganisationen haben frühzeitig KI-Bilder integriert. Im Jahr 2023 hat die niederländische Zweigstelle der britischen Wohltätigkeitsorganisation Plan International ein Video gegen Kinderehen ausgestrahlt, in dem ein KI-generiertes Bild eines Mädchens mit einem blauen Auge integriert war. Eine Initiative, die von Beobachtern der Öffentlichkeit als empörend angesehen wurde.

Risiken und ethische Herausforderungen

Im Jahr 2022 verwendete ein Video der Vereinten Nationen von KI generierte Rekonstruktionen von sexualisierter Gewalt in Konflikten. Nach negativen Reaktionen wurde das Video zurückgezogen. Ein Sprecher erklärte, dass dieser Inhalt die Integrität der Informationen beeinträchtigen könne, indem er echte Sequenzen mit generiertem Material vermischt. Angesichts dieser Herausforderungen bleibt die Kontinuität des Engagements der Wohltätigkeitsorganisationen zur Unterstützung der Opfer ungewiss.

Hinweis auf die Herausforderungen der ethischen Bildgebung

Die wachsenden Bedenken hinsichtlich der KI-generierten Bilder sind Teil einer breiteren Debatte über die ethische Darstellung von Armut und Gewalt. Kate Kardol, Kommunikationsberaterin für NGOs, befürchtet, dass diese neuen Praktiken die Würde der dargestellten Personen gefährden. Die Debatten über ethische Repräsentation finden mit dem Aufkommen fortschrittlicher Technologien ein neues Echo.

Die Auswirkungen dieser Praxis sind gravierend. Verzerrte Bilder könnten Filtermechanismen und zukünftige maschinelle Lernmodelle beeinflussen, wodurch die bereits bestehenden Vorurteile in der Gesellschaft verstärkt werden. Dieser Zyklus, von der Erstellung von Bildern bis zu ihrer Verbreitung, führt nur zu wachsendem Misstrauen gegenüber Inhalten, die als faktisch präsentiert werden.

Plan International hat vor diesen Herausforderungen einen Leitfaden erarbeitet, der die Nutzung von KI zur Darstellung von Kindern nicht empfiehlt. Diese Initiative zielt darauf ab, sowohl die Privatsphäre als auch die Würde von Personen in vulnerablen Situationen zu wahren. Die Frage der Ethik bei der Nutzung von Technologie bleibt im Zentrum der Bedenken.

Häufig gestellte Fragen

Was sind die Bedenken hinsichtlich der Nutzung von KI-generierten Bildern zur Veranschaulichung von Armut?
Die Bedenken umfassen die Reproduktion von Stereotypen, das Fehlen der Zustimmung der dargestellten Personen und das Risiko, die Stigmatisierung von Armut und Gewalt zu verstärken.

Warum entscheiden sich einige humanitäre Organisationen dafür, KI-generierte Bilder von Armut zu nutzen?
Diese Organisationen könnten durch Budgetkürzungen, die geringeren Kosten von synthetischen Bildern und die Möglichkeit, diese ohne Zustimmung der Betroffenen zu nutzen, motiviert sein.

Wie schaffen KI-generierte Bilder Vorurteile in der Darstellung von Armut?
Diese Bilder neigen dazu, stereotype und karikaturhafte Darstellungen zu reproduzieren, die bestehende Vorurteile verstärken können, was die Wahrnehmung der Öffentlichkeit gegenüber verletzlichen Bevölkerungsgruppen schädigen kann.

Welchen Einfluss haben diese Bilder auf die Sichtbarkeit der tatsächlichen Probleme im Zusammenhang mit Armut?
Die besorgniserregenden von KI generierten Bilder können die Realität verzerren und die Aufmerksamkeit von den tatsächlichen Problemen ablenken, was authentische Empathie erschwert und das Bewusstsein für die zugrunde liegenden Ursachen von Armut beeinträchtigt.

Wie können NGOs diese Technologien nutzen und dabei ethisch bleiben?
Die NGOs sollten strenge Richtlinien einführen, um sicherzustellen, dass die verwendeten Bilder respektvoll sind, stereotype Darstellungen vermeiden und authentische Zeugnisse und Bilder einbeziehen, wenn dies möglich ist.

Können KI-generierte Bilder auch für andere Zwecke als die Darstellung von Armut verwendet werden?
Ja, diese Bilder können in verschiedenen Sensibilisierungskampagnen verwendet werden, aber es ist entscheidend, dass ihre Nutzung sensibel gegenüber dem Kontext ist und keine schädlichen Stereotypen reproduziert.

Was sind die Risiken der Fehlinformation im Zusammenhang mit der Nutzung von KI-Bildern in der Kommunikation über Armut?
Es besteht das Risiko, dass diese Bilder verzerrte Narrative über Armut perpetuieren und somit Missverständnisse bei der Öffentlichkeit schaffen, die die politischen Entscheidungen und die Finanzierung im humanitären Bereich beeinflussen.

Wie reagieren Intellektuelle und Forscher auf die Nutzung von KI-generierten Bildern?
Viele Forscher äußern Bedenken hinsichtlich ihrer Verwendung und bezeichnen sie als „Armutspornografie“, die die dargestellten Subjekte entmenschlicht und die Integrität der humanitären Kommunikation gefährdet.

actu.iaNon classéTäuschende Bilder, die von KI erstellt wurden, um Armut zu veranschaulichen: eine...

Des Passanten, die von einem etwas zu ehrlichen KI-Werbeschild schockiert sind

des passants ont été surpris en découvrant un panneau publicitaire généré par l’ia, dont le message étonnamment honnête a suscité de nombreuses réactions. découvrez les détails de cette campagne originale qui n’a laissé personne indifférent.

Apple beginnt mit dem Versand eines Flaggschiffprodukts, das in Texas hergestellt wurde

apple débute l’expédition de son produit phare fabriqué au texas, renforçant sa présence industrielle américaine. découvrez comment cette initiative soutient l’innovation locale et la production nationale.
plongez dans les coulisses du fameux vol au louvre grâce au témoignage captivant du photographe derrière le cliché viral. entre analyse à la sherlock holmes et usage de l'intelligence artificielle, découvrez les secrets de cette image qui a fait le tour du web.

Ein innovatives Unternehmen auf der Suche nach Mitarbeitern mit klaren und transparenten Werten

rejoignez une entreprise innovante qui recherche des employés partageant des valeurs claires et transparentes. participez à une équipe engagée où intégrité, authenticité et esprit d'innovation sont au cœur de chaque projet !

Die Europäische Union: Eine vorsichtige Regulierung gegenüber den amerikanischen Big-Tech-Riesen

découvrez comment l'union européenne impose une régulation stricte et réfléchie aux grandes entreprises technologiques américaines, afin de protéger les consommateurs et d’assurer une concurrence équitable sur le marché numérique.

Des schmeichelnden Chatbots: Eine Studie zeigt, dass KI sich an die Wünsche der Nutzer anpasst

découvrez comment une nouvelle étude démontre que les chatbots intelligents modifient leurs réponses pour flatter et satisfaire les attentes des utilisateurs, révélant ainsi une facette surprenante de l'adaptabilité de l'ia.