Des images trompeuses créées par l’IA pour illustrer la pauvreté : un nouveau fléau pour les agences humanitaires

Publié le 20 octobre 2025 à 09h07
modifié le 20 octobre 2025 à 09h07
Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.

L’utilisation croissante d’images trompeuses créées par l’IA soulève des enjeux éthiques sans précédent. Les agences humanitaires, à la recherche d’un impact visuel, se retrouvent confrontées à un *nouveau fléau* : la représentation biaisée de la pauvreté. Ces visuels synthétiques amplifient les stéréotypes, dégradant ainsi l’image des populations vulnérables.

Les communications sur la pauvreté deviennent des terrains de jeux pour un *récit déformé*, défiant la dignité des personnes présentées. L’émergence de ce phénomène incite à une réflexion profonde sur l’éthique de l’image et la nécessité d’une *représentation respectueuse* des victimes.

Des images trompeuses créées par l’IA

À l’ère numérique, la prolifération des images générées par l’intelligence artificielle soulève des questionnements éthiques alarmants. Les agences humanitaires sont confrontées à un flot d’images représentant la pauvreté, souvent issues de générateurs d’IA, et leurs implications sont profondes. Selon Noah Arnold de Fairpicture, une organisation suisse, une partie des ONG utilise activement ces visuels, tandis que d’autres expérimentent avec ces outils technologiques.

L’émergence du « pornographie de la pauvreté 2.0 »

Cette nouvelle forme de représentation visuelle, qualifiée par certains de « pauvreté porn 2.0 », ne reproduit que des stéréotypes. Ces images, caractérisées par des enfants avec des assiettes vides et une terre craquelée, freinent une représentation digne des réalités vécues. Arsenii Alenichev, chercheur à l’Institut de Médecine Tropicale d’Anvers, a observé que plus d’une centaine d’images générées par IA sont utilisées par des ONG dans leurs campagnes contre la faim ou la violence sexuelle.

Une utilisation croissante des visuels générés par IA

L’usage des images d’IA augmente, souvent à cause de préoccupations budgétaires et de questions de consentement. Les ONG se tournent vers ces alternatives synthétiques, considérées comme moins coûteuses et exemptes de complications liées à l’autorisation des individus représentés. Les coupes budgétaires aux États-Unis aggravent cette tendance, conduisant à une substitution des photographies authentiques par des créations virtuelles.

Des stéréotypes renforcés par l’IA

Les sites de photos de stock, tels qu’Adobe Stock Photos ou Freepik, regorgent de ces clichés. Un grand nombre de ces images perpétuent des représentations raciales biaisées. Des titres tels que « Enfant photoréaliste dans un camp de réfugiés » ou « Volontaire caucasien consultant des enfants noirs en Afrique » révèlent la problématique d’une narration stéréotypée, souvent ancrée dans des préjugés. Alenichev remet en question leur publication, arguant que ces visuels offrent une vision déformée de la réalité.

La responsabilité des plateformes

Les dirigeants de plateformes comme Freepik établissent que la responsabilité de l’utilisation de ces images incombe aux consommateurs de médias. Joaquín Abela, PDG de Freepik, souligne que les photos générées proviennent de la communauté d’utilisateurs mondiale, recevant une rémunération lorsque les clients acquièrent leurs œuvres. Pourtant, Abela reconnaît la difficulté de contrer les biais et les demandes du marché.

Exemples notables dans le secteur humanitaire

Des campagnes de communication des plus grands organismes de bienfaisance inclurent précocement des visuels d’IA. En 2023, la branche néerlandaise de la charité britannique Plan International a diffusé une vidéo contre le mariage des enfants, intégrant des images générées d’une fille avec un œil au beurre noir. Une initiative jugée atterrante par les observateurs du public.

Risques et défis éthiques

En 2022, une vidéo des Nations Unies a utilisé des reconstitutions générées par IA des violences sexuelles en conflit. Après des réactions négatives, la vidéo a été retirée. Un porte-parole a déclaré que ce type de contenu pouvait altérer l’intégrité de l’information, mêlant des séquences réelles et du matériel généré. Face à ces enjeux, la pérennité de l’engagement des organisations caritatives à soutenir les victimes demeure incertaine.

Rappel sur les enjeux de l’imagerie éthique

Les préoccupations croissantes concernant les images générées par l’IA s’inscrivent dans un débat plus large autour de la représentation éthique de la pauvreté et de la violence. Kate Kardol, consultante en communication pour les ONG, redoute que ces nouvelles pratiques compromettent la dignité des personnes représentées. Les débats autour de la représentation éthique trouvent un nouvel écho avec l’avènement des technologies avancées.

Les répercussions de cette pratique sont lourdes. Les images biaisées pourraient filtrer et influencer les modèles d’apprentissage automatique futurs, aggravant ainsi les préjugés déjà présents dans la société. Ce cycle, de la création d’images à leur diffusion, n’engendre qu’une méfiance croissante envers les contenus présentés comme factuels.

Plan International, face à ces défis, a mis en place un cadre de guidance déconseillant l’usage de l’IA pour représenter des enfants. Cette initiative vise à préserver à la fois la vie privée et la dignité des individus en situation vulnérable. La question de l’éthique dans l’utilisation de la technologie demeure au cœur des préoccupations.

Foire aux questions courantes

Quelles sont les préoccupations liées à l’utilisation d’images générées par l’IA pour illustrer la pauvreté ?
Les préoccupations incluent la reproduction de stéréotypes, l’absence de consentement des personnes représentées, et le risque d’accroître la stigmatisation liée à la pauvreté et à la violence.

Pourquoi certaines agences humanitaires choisissent-elles d’utiliser des images de pauvreté générées par l’IA ?
Ces agences peuvent être motivées par des réductions de budget, le coût moins élevé des images synthétiques et la facilité de leur utilisation sans nécessiter le consentement des sujets.

Comment les images générées par l’IA créent-elles des biais dans les représentations de la pauvreté ?
Ces images tendent à reprendre des visuels stéréotypés et caricaturaux qui renforcent les préjugés existants, ce qui peut nuire à la perception du public envers les populations vulnérables.

Quel impact ces images ont-elles sur la visibilité des véritables enjeux liés à la pauvreté ?
Les images préoccupantes générées par l’IA peuvent déformer la réalité et détourner l’attention des vrais problèmes, rendent difficile l’empathie authentique et nuisent à la sensibilisation aux causes profondes de la pauvreté.

Comment les ONG peuvent-elles utiliser ces technologies tout en respectant l’éthique ?
Les ONG devraient adopter des lignes directrices strictes pour s’assurer que les images utilisées sont respectueuses, évitent les représentations stéréotypées et incluent des témoignages et visuels authentiques lorsque cela est possible.

Les images générées par l’IA peuvent-elles être utilisées à d’autres fins que celles de la pauvreté ?
Oui, ces images peuvent être utilisées dans diverses campagnes de sensibilisation, mais il est crucial que leur utilisation soit sensible au contexte et ne reproduise pas de stéréotypes nuisibles.

Quels sont les risques de désinformation associés à l’utilisation d’images d’IA dans les communications sur la pauvreté ?
Il existe un risque que ces images perpétuent des narrations faussées sur la pauvreté, créant ainsi des malentendus chez le public et affectant les politiques et les décisions de financement autour de l’aide humanitaire.

Comment les intellectuels et les chercheurs réagissent-ils à l’utilisation des images générées par l’IA ?
De nombreux chercheurs expriment leur inquiétude quant à leur utilisation, la qualifiant de « pornographie de la pauvreté » qui déshumanise les sujets représentés et compromet l’intégrité des communications humanitaires.

Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.
actu.iaNewsDes images trompeuses créées par l'IA pour illustrer la pauvreté : un...

Les Organisations Humanitaires sous le Feu des Critiques pour leurs Images de Pauvreté Générées par l’IA

découvrez comment l'utilisation d'images de pauvreté générées par l'ia par les organisations humanitaires suscite de vives critiques sur l'éthique, la représentation et la confiance du public.
découvrez comment cheatgpt influence les intelligences artificielles à travers trois tests d'experts intrigants. analyse, révélations et réflexions inédites sur l’impact des outils ia dans notre société.

Les 20 modèles d’intelligence artificielle les plus puissants : classement complet d’octobre 2025

découvrez le classement complet des 20 modèles d'intelligence artificielle les plus puissants en octobre 2025. analyse comparative, nouveautés et performances détaillées pour rester à la pointe de l'ia.
découvrez pourquoi il est essentiel de préserver la richesse de la langue française dans le développement des intelligences artificielles, un enjeu crucial pour l’identité culturelle et l’innovation technologique au québec.
découvrez l'avertissement de l'auteur de lincoln lawyer sur les dangers que l'intelligence artificielle fait peser sur les métiers créatifs et les défis majeurs auxquels artistes et écrivains doivent faire face.

L’IA : un défi de taille pour les modérateurs de Reddit

découvrez comment l'intelligence artificielle bouleverse la modération sur reddit et les nouveaux défis auxquels sont confrontés les modérateurs pour maintenir la qualité des échanges sur la plateforme.