השימוש הגובר בתמונות מטעות שנוצרות על ידי בינה מלאכותית מעורר אתגרים אתיים חסרי תקדים. הסוכנויות ההומניטריות, המחפשות השפעה ויזואלית, מוצאות עצמן מתמודדות עם *מגפה חדשה*: ייצוג מוטה של עוני. תמונות סינתטיות אלו מחזקות סטריאוטיפים, ומשחיתות את התדמית של אוכלוסיות פגיעות.
התקשורת על העוני הופכת לשדה משחק עבור *נרטיב מעוות*, המאתגר את הכבוד של האנשים המוצגים. עלייתו של תופעה זו מעוררת מחשבות עמוקות על אתיקה של דימוי והצורך ב*ייצוג מכבד* של קורבנות.
תמונות מטעות שנוצרות על ידי בינה מלאכותית
בעידן הדיגיטלי, התפשטות התמונות שנוצרות על ידי בינה מלאכותית מעוררת שאלות אתיות מדאיגות. הסוכנויות ההומניטריות מתמודדות עם שטף של תמונות המייצגות עוני, לעיתים קרובות מהפקות AI, וההשלכות הן עמוקות. לפי נואה ארנולד מפיירפיקטור, ארגון שוויצרי, חלק מה-ONGs משתמשות בצורה פעילה בתמונות אלו, בעוד שאחרות מתנסות עם הכלים הטכנולוגיים הללו.
עלייתה של «פורנוגרפיה של עוני 2.0»
צורת ייצוג חזותית חדשה זו, המוכנה בכמה מקומות כ«עוני פורן 2.0», משעתקת רק סטריאוטיפים. התמונות הללו, המאפיינות ילדים עם צלחות ריקות ואדמה סדוקה, מעכבות ייצוג ראוי של המציאות המנוגדת. ארסניי אלניצ'ב, חוקר במכון הרפואה הטרופית באנטוורפן, ציין כי יותר ממאה תמונות שנוצרו על ידי AI משמשות על ידי NGOs בקמפיינים שלהם נגד רעב או אלימות מינית.
שימוש גובר בתמונות שנוצרות על ידי AI
השימוש בתמונות AI הולך ועולה, לעיתים קרובות בשל דאגות תקציביות ושאלות של הסכמה. ה-ONGs פונות לאלטרנטיבות הסינתטיות הללו, הנחשבות זולות יותר וחסרות סיבוכים הקשורים להסכמת האנשים המיוצגים. הקיצוצים התקציביים בארצות הברית מחמירים את הנטייה הזו, ומובילים להחלפת צילום אותנטי ביצירות וירטואליות.
סטריאוטיפים שהוחמרו על ידי AI
אתרי תמונות כמו Adobe Stock Photos או Freepik עמוסים בתמונות כאלו. מספר רב מהתמונות הללו ממשיכים ייצוגים גזעיים מוטים. כותרות כמו «ילד פוטוריאליסטי במחנה פליטים» או «מתנדב קווקזי שמייעץ לילדים שחורים באפריקה» חושפות את בעיית הנרטיב הסטריאוטיפי, לרוב שזור בגזענות. אלניצ'ב מעמיד בספק את פרסום תמונות אלו, וטוען שהתמונות הללו מספקות תמונה מעוותת של המציאות.
אחריות הפלטפורמות
מנהיגים בפלטפורמות כמו Freepik קובעים שהאחריות לשימוש בתמונות אלו נופלת על צרכני המדיה. חואקין אבלה, מנכ"ל Freepik, מתייחס לכך שהתמונות שנוצרות מגיעות מהקהילה הגלובלית של המשתמשים, שמקבלים תשלום כאשר לקוחות רוכשים את עבודותיהם. עם זאת, אבלה מכיר בקושי לעצור את ההטיות והדרישות מהשוק.
דוגמאות בולטות בתחום ההומניטרי
קמפיינים ממוסדים של ארגוני צדקה הגדולים בעולם כללו לראשונה תמונות של AI. בשנת 2023, הסניף ההולנדי של הצדקה הבריטית Plan International הפיץ סרטון נגד נישואי ילדים, ששילב תמונות שנוצרו של ילדה עם עין שחורה. יוזמה שנהנתה לגינוי על ידי צופים מהציבור.
סיכונים ואתגרים אתיים
בשנת 2022, סרטון של האומות המאוחדות השתמש בשחזורי אלימות מינית שנוצרו על ידי AI בסכסוך. לאחר תגובות שליליות, הסרטון הוסר. דובר הצהיר שסוג זה של תוכן יכול לשבש את שלמות המידע, משלב סצינות אמיתיות עם חומר שנוצר. התמודדויות מול אתגרים אלו, קיימת אי בהירות לגבי הרצף של הארגונים ההומניטריים לתמוך בקורבנות.
הזכרון על אתגרים של דימוי אתי
הדאגות העולות לגבי התמונות שנוצרות על ידי בינה מלאכותית משקפות דיון רחב יותר על ייצוג אתי של עוני ואלימות. קייט קארדול, יועצת תקשורת ל-ONGs, חוששת כי פרקטיקות החדשות הללו compromissions את כבודם של האנשים המיוצגים. הדיונים סביב ייצוג אתי מקבלים הדים חדשים עם עלייתם של טכנולוגיות מתקדמות.
ההשלכות של פרקטיקה זו הן עצומות. התמונות המוטות עשויות להפיק ולחזק את דפוסי הלמידה האוטומטיים העתידיים, ובכך להחמיר את ההטיות שכבר קיימות בחברה. מחזור זה, מהפקת התמונות ועד הפצתן, רק מייצר חוסר אמון הולך וגובר לגבי תוכן המוצג כמידע אמיתי.
Plan International, מול אתגרים אלו, הקימה מסגרת הנחיה שממליצה להימנע משימוש בינה מלאכותית לייצוג ילדים. יוזמה זו נועדה לשמור על פרטיות וכבוד של אנשים במצבים פגיעים. השאלה של אתיקה בשימוש בטכנולוגיה נשארת במרכז ההתמודדות.
שאלות נפוצות
מהן הדאגות הקשורות לשימוש בתמונות המיוצרות על ידי AI לייצוג העוני?
הדאגות כוללות את שעתוק הסטריאוטיפים, העדר הסכמה מהאנשים המיוצגים, וסיכון להחמיר את הסטיגמה הקשורה לעוני ואלימות.
מדוע חלק מהארגונים ההומניטריים בוחרים להשתמש בתמונות עוני שהופקו על ידי AI?
ארגונים אלו יכולים להיות מונעים על ידי קיצוצים תקציביים, עלויות נמוכות יותר של תמונות סינתטיות ונוחות השימוש בהן ללא צורך בהסכמת הדמויות המיוצגות.
איך התמונות שנוצרות על ידי AI יוצרות הטיות בייצוגי העוני?
תמונות אלו נוטות לשחזר דימויים סטריאוטיפיים וקריקטוריים שמחיים סטריאוטיפים קיימים, מה שעלול להזיק לתפיסת הציבור כלפי אוכלוסיות פגיעות.
איך התמונות הללו משפיעות על הראות של האתגרים האמיתיים הקשורים לעוני?
תמונות מטרידות שנוצרות על ידי AI עלולות לעוות את המציאות ולסטות את תשומת הלב מהבעיות האמיתיות, מקשות על אמפתיה אותנטית ופוגעות במודעות לגורמים שורשיים של העוני.
איך ONG יכולות להשתמש בטכנולוגיות אלו תוך שמירה על אתיקה?
ה-ONGs צריכות לאמץ קווים מנחים ברורים כדי לוודא שהתמונות בשימוש מכבדות, נמנעות מייצוגים סטריאוטיפיים ומכילות עדויות ודימויים אותנטיים כאשר זה אפשרי.
האם התמונות שנוצרות על ידי AI יכולות לשמש למטרות אחרות מאשר העוני?
כן, התמונות הללו יכולות לשמש בקמפיינים מגוונים למודעות, אך חשוב שהשימוש בהן יהיה רגיש להקשר ואינו משעתק סטריאוטיפים מזיקים.
מהם הסיכונים של מידע שקרי הקשורים לשימוש בתמונות AI בתקשורת על העוני?
קיים סיכון שהתמונות הללו יחזקו נרטיבים מעוותים על העוני, ומכך ייצור אי הבנות בקרב הציבור וישפיעו על מדיניות והחלטות מימון סביב סיוע הומניטרי.
איך אינטלקטואלים וחוקרים מגיבים לשימוש בתמונות המיוצרות על ידי AI?
הרבה חוקרים מביעים דאגה לגבי השימוש בהם, מכנים זאת "פורנוגרפיה של עוני" שמשפלת את הנושא המוצג ומזיקה לשלמות התקשורת ההומניטריות.