Imágenes engañosas creadas por la IA para ilustrar la pobreza: un nuevo flagelo para las agencias humanitarias

Publié le 20 octubre 2025 à 09h31
modifié le 20 octubre 2025 à 09h31

El uso creciente de imágenes engañosas creadas por IA plantea desafíos éticos sin precedentes. Las agencias humanitarias, en busca de un impacto visual, se enfrentan a un *nuevo flagelo*: la representación sesgada de la pobreza. Estos visualizaciones sintéticas amplifican los estereotipos, degradando así la imagen de las poblaciones vulnerables.

Las comunicaciones sobre la pobreza se convierten en terrenos de juego para un *relato distorsionado*, desafiando la dignidad de las personas presentadas. La aparición de este fenómeno invita a una reflexión profunda sobre la ética de la imagen y la necesidad de una *representación respetuosa* de las víctimas.

Imágenes engañosas creadas por IA

En la era digital, la proliferación de imágenes generadas por inteligencia artificial plantea cuestiones éticas alarmantes. Las agencias humanitarias se enfrentan a un flujo de imágenes que representan la pobreza, a menudo provenientes de generadores de IA, y sus implicaciones son profundas. Según Noah Arnold de Fairpicture, una organización suiza, una parte de las ONG utiliza activamente estas visualizaciones, mientras que otras experimentan con estas herramientas tecnológicas.

La emergencia de la «pornografía de la pobreza 2.0»

Esta nueva forma de representación visual, calificada por algunos como “pobreza porn 2.0”, no reproduce más que estereotipos. Estas imágenes, caracterizadas por niños con platos vacíos y una tierra agrietada, obstaculizan una representación digna de las realidades vividas. Arsenii Alenichev, investigador en el Instituto de Medicina Tropical de Amberes, ha observado que más de un centenar de imágenes generadas por IA son utilizadas por ONG en sus campañas contra el hambre o la violencia sexual.

Un uso creciente de visuales generados por IA

El uso de imágenes de IA está en aumento, a menudo debido a preocupaciones presupuestarias y cuestiones de consentimiento. Las ONG se están volcando hacia estas alternativas sintéticas, consideradas menos costosas y exentas de complicaciones relacionadas con la autorización de las personas representadas. Los recortes presupuestarios en los Estados Unidos agravan esta tendencia, llevando a una sustitución de las fotografías auténticas por creaciones virtuales.

Estereotipos reforzados por la IA

Los sitios de fotos de stock, como Adobe Stock Photos o Freepik, están repletos de estos clichés. Un gran número de estas imágenes perpetúan representaciones raciales sesgadas. Títulos como “Niño fotorrealista en un campamento de refugiados” o “Voluntario caucásico consultando a niños negros en África” revelan la problemática de una narrativa estereotipada, a menudo arraigada en prejuicios. Alenichev cuestiona su publicación, argumentando que estas visualizaciones ofrecen una visión distorsionada de la realidad.

La responsabilidad de las plataformas

Los directores de plataformas como Freepik establecen que la responsabilidad del uso de estas imágenes recae en los consumidores de medios. Joaquín Abela, CEO de Freepik, destaca que las fotos generadas provienen de la comunidad de usuarios global, recibiendo una remuneración cuando los clientes adquieren sus obras. Sin embargo, Abela reconoce la dificultad de contrarrestar los sesgos y las demandas del mercado.

Ejemplos notables en el sector humanitario

Las campañas de comunicación de las más grandes organizaciones benéficas incluyeron pronto visuales de IA. En 2023, la rama neerlandesa de la caridad británica Plan International difundió un video contra el matrimonio infantil, integrando imágenes generadas de una chica con un ojo morado. Una iniciativa considerada aterradora por los observadores del público.

Riesgos y desafíos éticos

En 2022, un video de las Naciones Unidas utilizó reconstituciones generadas por IA de las violencias sexuales en conflicto. Tras reacciones negativas, el video fue retirado. Un portavoz declaró que este tipo de contenido podría alterar la integridad de la información, mezclando secuencias reales y material generado. Ante estos desafíos, la sostenibilidad del compromiso de las organizaciones benéficas para apoyar a las víctimas permanece incierta.

Recordatorio sobre los desafíos de la imaginería ética

Las crecientes preocupaciones sobre las imágenes generadas por IA se inscriben en un debate más amplio sobre la representación ética de la pobreza y la violencia. Kate Kardol, consultora en comunicación para ONG, teme que estas nuevas prácticas comprometan la dignidad de las personas representadas. Los debates sobre la representación ética encuentran un nuevo eco con el advenimiento de tecnologías avanzadas.

Las repercusiones de esta práctica son pesadas. Las imágenes sesgadas podrían filtrar e influir en los modelos de aprendizaje automático futuros, agravando así los prejuicios ya presentes en la sociedad. Este ciclo, desde la creación de imágenes hasta su difusión, solo genera una creciente desconfianza hacia los contenidos presentados como factuales.

Plan International, frente a estos desafíos, ha implementado un marco de orientación que desaconseja el uso de IA para representar a niños. Esta iniciativa busca preservar tanto la privacidad como la dignidad de las personas en situaciones vulnerables. La cuestión de la ética en el uso de la tecnología permanece en el centro de las preocupaciones.

Preguntas frecuentes comunes

¿Cuáles son las preocupaciones relacionadas con el uso de imágenes generadas por IA para ilustrar la pobreza?
Las preocupaciones incluyen la reproducción de estereotipos, la ausencia de consentimiento de las personas representadas y el riesgo de aumentar la estigmatización asociada a la pobreza y a la violencia.

¿Por qué algunas agencias humanitarias eligen usar imágenes de pobreza generadas por IA?
Estas agencias pueden estar motivadas por recortes de presupuesto, el costo menor de las imágenes sintéticas y la facilidad de su uso sin necesidad de consentimiento de los sujetos.

¿Cómo las imágenes generadas por IA crean sesgos en las representaciones de la pobreza?
Estas imágenes tienden a retomar visuales estereotipados y caricaturescos que refuerzan los prejuicios existentes, lo que puede perjudicar la percepción pública hacia las poblaciones vulnerables.

¿Qué impacto tienen estas imágenes en la visibilidad de los verdaderos desafíos relacionados con la pobreza?
Las imágenes preocupantes generadas por IA pueden distorsionar la realidad y desviar la atención de los verdaderos problemas, dificultando la empatía auténtica y perjudicando la sensibilización hacia las causas profundas de la pobreza.

¿Cómo pueden las ONG utilizar estas tecnologías mientras respetan la ética?
Las ONG deberían adoptar directrices estrictas para asegurarse de que las imágenes utilizadas sean respetuosas, eviten las representaciones estereotipadas e incluyan testimonios y visuales auténticos cuando sea posible.

¿Pueden las imágenes generadas por IA ser utilizadas para otros fines que no sean la pobreza?
Sí, estas imágenes pueden ser utilizadas en diversas campañas de sensibilización, pero es crucial que su uso sea sensible al contexto y no reproduzca estereotipos dañinos.

¿Cuáles son los riesgos de desinformación asociados al uso de imágenes de IA en las comunicaciones sobre la pobreza?
Existe el riesgo de que estas imágenes perpetúen narrativas distorsionadas sobre la pobreza, creando así malentendidos en el público y afectando las políticas y decisiones de financiación en torno a la ayuda humanitaria.

¿Cómo reaccionan los intelectuales y los investigadores a la utilización de imágenes generadas por IA?
Muchos investigadores expresan su preocupación por su uso, calificándolo de «pornografía de la pobreza» que deshumaniza a los sujetos representados y compromete la integridad de las comunicaciones humanitarias.

actu.iaNon classéImágenes engañosas creadas por la IA para ilustrar la pobreza: un nuevo...

translated_content> Las Organizaciones Humanitarias bajo el Fuego de las Críticas por sus Imágenes de Pobreza Generadas por la IA

découvrez comment l'utilisation d'images de pauvreté générées par l'ia par les organisations humanitaires suscite de vives critiques sur l'éthique, la représentation et la confiance du public.

CheatGPT : La influencia en las IA revelada a través de tres pruebas de expertos que suscitan la reflexión

découvrez comment cheatgpt influence les intelligences artificielles à travers trois tests d'experts intrigants. analyse, révélations et réflexions inédites sur l’impact des outils ia dans notre société.

Los 20 modelos de inteligencia artificial más poderosos: clasificación completa de octubre de 2025

découvrez le classement complet des 20 modèles d'intelligence artificielle les plus puissants en octobre 2025. analyse comparative, nouveautés et performances détaillées pour rester à la pointe de l'ia.
découvrez pourquoi il est essentiel de préserver la richesse de la langue française dans le développement des intelligences artificielles, un enjeu crucial pour l’identité culturelle et l’innovation technologique au québec.
découvrez l'avertissement de l'auteur de lincoln lawyer sur les dangers que l'intelligence artificielle fait peser sur les métiers créatifs et les défis majeurs auxquels artistes et écrivains doivent faire face.

La IA: un desafío de gran envergadura para los moderadores de Reddit

découvrez comment l'intelligence artificielle bouleverse la modération sur reddit et les nouveaux défis auxquels sont confrontés les modérateurs pour maintenir la qualité des échanges sur la plateforme.