AIによって作成された偽の画像の増加は、前例のない倫理的課題を提起しています。視覚的な影響を求める人道支援機関は、新たな脅威に直面しています:貧困の偏った表現です。これらの合成ビジュアルは、固定観念を助長し、脆弱な人々のイメージを損なっています。
貧困に関するコミュニケーションは、*歪められた物語*の遊び場となり、紹介される人々の尊厳を脅かしています。この現象の出現は、イメージの倫理と被害者の*敬意ある表現*の必要性について深い反省を促しています。
AIによって作られた偽の画像
デジタル時代において、人工知能によって生成された画像の蔓延は、警告すべき倫理的疑問を引き起こしています。人道支援機関は、しばしばAIジェネレーターから得られた貧困を表す画像の洪水に直面しており、その影響は深刻です。スイスの団体Fairpictureのノア・アーノルドによれば、一部のNGOはこれらのビジュアルを積極的に利用している一方、他の団体はこれらの技術ツールで実験しています。
「貧困ポルノ2.0」の出現
この新しい視覚表現の形態は、一部によって「貧困ポルノ2.0」と呼ばれ、固定観念だけを再生産しています。これらの画像は、空の皿を持つ子供やひび割れた土地を特徴としており、経験された現実を尊厳ある形で表現することを妨げています。アントワープ熱帯医学研究所の研究者アーセニー・アレニチェフは、100枚以上のAI生成画像が飢餓や性的暴力に対するキャンペーンでNGOによって使用されていることを観察しました。
AI生成ビジュアルの増加する使用
AIの画像の使用は、しばしば予算の懸念や同意の問題から増加しています。NGOは、これらの合成選択肢を選ぶ方向にシフトしており、費用が低く、描かれている個人の同意が不要であると見なされています。アメリカの予算削減はこの傾向を悪化させ、真実の写真がバーチャル制作に置き換えられています。
AIによって強化された固定観念
Adobe Stock PhotosやFreepikのようなストックフォトサイトは、これらのクリップであふれています。多くの画像が偏った人種的表現を助長しています。「難民キャンプにいるフォトリアリスティックな子供」や「アフリカの黒人の子供たちに相談する白人ボランティア」といったタイトルは、しばしば固定観念に根ざした物語の問題を暴露しています。アレニチェフは、それらの公開に疑問を呈し、これらのビジュアルが現実の歪んだ視点を提供すると主張しています。
プラットフォームの責任
Freepikのようなプラットフォームのリーダーは、これらの画像の使用に関する責任がメディアの消費者にあると述べています。FreepikのCEO、ホアキン・アベラは、生成された写真が世界中のユーザーコミュニティからのものであり、顧客が作品を購入する際に報酬を得ていると強調しています。しかし、アベラはバイアスや市場の要求に対抗する難しさも認めています。
人道支援セクターにおける注目すべき例
最大の慈善団体のコミュニケーションキャンペーンでは、早期にAIのビジュアルが含まれています。2023年、英国の慈善団体プラン・インターナショナルのオランダ支部は、子供の結婚に反対する動画を配信し、目の周りにあざのある女の子の生成された画像を取り入れました。この取り組みは、公衆の観察者によって衝撃的と見なされました。
倫理的リスクと課題
2022年、国連は紛争における性的暴力を示すAI生成された再現を使用した動画を公開しました。否定的な反応を受けて、その動画は削除されました。広報担当者は、この種のコンテンツが情報の完全性を損なう可能性があると述べ、実際のシーケンスと生成された素材が入り混じると警告しました。これらの課題に直面して、被害者を支援する慈善団体の取り組みの持続性は不確かです。
倫理的イメージの問題に関するリマインダー
AIが生成した画像に関する懸念は、貧困と暴力の倫理的表現に関するより広い議論の中に位置しています。NGOのコミュニケーションコンサルタントであるケイト・カルドルは、これらの新しい慣行が描かれている人々の尊厳を損なう可能性があることを懸念しています。倫理的表現に関する議論は、高度な技術の出現によって新たな共鳴を見出しています。
この慣行の影響は深刻です。偏った画像は、将来の機械学習モデルをフィルタリングし影響を与える可能性があり、社会に既に存在する偏見を悪化させるでしょう。この画像の作成から拡散に至るサイクルは、事実として提示されるコンテンツに対する不信をもたらします。
プラン・インターナショナルは、これらの課題に直面して、子供を表現するためにAIを使用することを推奨しない指針を策定しました。このイニシアチブは、脆弱な状況にある人々のプライバシーと尊厳の両方を保護することを目指しています。テクノロジー使用の倫理に関する問題は、依然として中心的な懸念事項です。
よくある質問
貧困を示すためにAI生成の画像を使用することに関する懸念は何ですか?
懸念には、固定観念の再生産、描かれている人々の同意の欠如、貧困と暴力に関連したスティグマの増大リスクが含まれます。
なぜ一部の人道支援機関はAI生成の貧困画像を使用することを選ぶのですか?
これらの機関は、予算削減や合成画像のコストの低さ、被写体の同意なしに使用できるという利便性によって動機づけられる場合があります。
AIによって生成された画像は、どのように貧困の表現にバイアスを生み出すのですか?
これらの画像は、既存の偏見を強化する固定観念的で漫画的なビジュアルを再び持ち出す傾向があり、公共の貧弱な人々への認識を損なう可能性があります。
これらの画像は、貧困に関連する真の問題の可視性にどのような影響を与えますか?
AIによって生成された懸念すべき画像は現実を歪め、真の問題から注意をそらす可能性があり、真の共感を持つことを困難にし、貧困の根本的な原因についての認識を損なう可能性があります。
NGOは、倫理を尊重しながらこれらの技術をどのように使用できますか?
NGOは、使用される画像が尊重され、固定観念的な表現を避け、可能な限り本物の証言やビジュアルを含むことを保証するために厳格なガイドラインを採用すべきです。
AIによって生成された画像は、貧困以外の目的で使用できますか?
はい、これらの画像はさまざまな認識キャンペーンで使用できますが、その使用は文脈に配慮し、有害な固定観念を再生産しないようにすることが重要です。
貧困に関するコミュニケーションでAI画像の使用に関連する誤情報のリスクは何ですか?
これらの画像が貧困に関する誤った物語を助長し、公共に誤解を生じさせ、援助政策や財政的意思決定に影響を与えるリスクがあります。
知識人や研究者は、AIによって生成された画像の使用にどのように反応していますか?
多くの研究者は、その使用に懸念を表明しており、描かれている人物を非人間化し、人道的コミュニケーションの完全性を損なうものとして「貧困のポルノ」と呼ぶことが多いです。