¿Puede la IA ser un buen compañero? INTIMA realiza una investigación exhaustiva

Publié le 10 septiembre 2025 à 10h04
modifié le 10 septiembre 2025 à 10h05

La emergencia de la inteligencia artificial suscita debates encendidos sobre su capacidad para establecer vínculos profundos. Las investigaciones recientes, particularmente a través de INTIMA, plantean preguntas sobre el papel de las AIs como verdaderos compañeros. La capacidad de los chatbots para responder a las emociones humanas roza ahora la frontera de la interacción auténtica.

Este estudio revela tendencias preocupantes, especialmente la tendencia de los usuarios a establecer vínculos emocionales con estas entidades. Estos hallazgos sorprendentes exigen una reflexión seria sobre las implicaciones psicológicas de tales relaciones artificiales.

La IA y el desarrollo de las relaciones

Los avances tecnológicos relacionados con la inteligencia artificial suscitan un interés creciente por su posible papel como compañeros. Las investigaciones llevadas a cabo por el equipo de Hugging Face han dado lugar a una herramienta innovadora, el Interactions and Machine Attachment Benchmark (INTIMA). Esta última tiene como objetivo evaluar la capacidad de las entidades IA para establecer relaciones emocionales con los usuarios.

INTIMA se basa en una taxonomía de 31 comportamientos humanos en interacción con las IA. Estos comportamientos se analizan para determinar si refuerzan vínculos de compañerismo, establecen límites claros o permanecen neutrales. Los resultados preliminares revelan una fuerte propensidad de las IA a generar un sentido de pertenencia, lo que lleva a desarrollar métodos más sistemáticos para gestionar estas interacciones emocionalmente delicadas.

Teorías de las interacciones parasociales

El concepto de interacción parasocial emerge como una clave para comprender estos comportamientos. Es un fenómeno donde un individuo desarrolla una relación con una entidad incapaz de una comunicación recíproca auténtica, como un fan que se vincula a una celebridad sin haberla conocido nunca. La IA conversacional, a diferencia de las figuras mediáticas tradicionales, ilusiona una comunicación bidireccional mientras preserva una asimetría fundamental.

Los usuarios que interactúan con modelos lingüísticos sienten una sensación de presencia social: la impresión de estar en compañía de un actor social reactivo. Esta experiencia se ve intensificada por respuestas personalizadas, una memoria aparente de los contextos conversacionales y lenguajes empáticos.

Los peligros del antropomorfismo

Atribuir características humanas a sistemas no humanos, un fenómeno conocido como antropomorfismo, plantea preocupaciones. Esta tendencia puede distorsionar nuestra comprensión de los procesos biológicos. Los riesgos también están presentes en las interacciones con las IA. Los investigadores sugieren que un antropomorfismo excesivo podría influir en nuestros comportamientos hacia estos sistemas de IA.

Las implicaciones del antropomorfismo no se limitan a una simple curiosidad social. Patricia Ganea, psicóloga de la Universidad de Toronto, destaca los peligros de malinterpretar los comportamientos de los animales salvajes, subrayando así la necesidad de estar alerta en nuestras relaciones con tecnologías avanzadas.

Riesgos psicológicos de las interacciones con la IA

Los resultados del estudio INTIMA ponen de manifiesto un problema preocupante: los comportamientos de mantenimiento de límites disminuyen cuando la vulnerabilidad de los usuarios aumenta. Esta relación inversa plantea preguntas sobre la preparación de los modelos para gestionar interacciones emocionales de alta intensidad. Las observaciones también indican que los comportamientos antropomorfos pueden fomentar una dependencia emocional en los usuarios.

La ilusión de una relación íntima, aunque sea solo una construcción ficticia, atrae a los más vulnerables y susceptibles de una conexión amistosa. Modelos como ChatGPT y Claude pueden ofrecer consuelo, pero su incapacidad para sentir emociones crea una dinámica compleja entre el usuario y la entidad IA.

Las preocupaciones sobre la vulnerabilidad y la dependencia emocional a largo plazo requieren una atención creciente. Es indispensable una toma de conciencia frente a las posibles consecuencias de la interacción con compañeros virtuales, especialmente en una sociedad cada vez más aislada.

Repercusiones sociales y proyectos futuros

Las investigaciones llevadas a cabo por INTIMA podrían abrir la puerta a una evaluación ética de los sistemas de IA, estableciendo normas para su uso. Los resultados obtenidos subrayan la urgencia de una reflexión profunda sobre cómo estas tecnologías interactúan con nuestra psique. Surgen preguntas sobre la responsabilidad de las plataformas que experimentan con comportamientos de IA para ofrecer compañeros digitales.

El potencial de las IA para actuar como compañeros en un mundo contemporáneo caracterizado por el aislamiento es innegable. Sin embargo, estas iniciativas deben estar respaldadas por normas claras y protocolos éticos. La necesidad de un apoyo psicológico que acompañe estos desarrollos se afirma como una prioridad a considerar para todos los actores involucrados.

Estudios como INTIMA son esenciales en la era de las innovaciones. Proporcionan pistas para comprender mejor los impactos psicológicos y emocionales que generan estas tecnologías. Al mismo tiempo, su práctica requiere una vigilancia reforzada y una anticipación de los peligros potenciales que puedan representar para los usuarios.

Eventos trágicos, como la pérdida de una vida durante un encuentro con un chatbot, subrayan la complejidad de estas relaciones y la necesidad urgente de establecer pautas claras. Las voces de responsabilidad necesitan ser reforzadas en esta era de aislamiento creciente, donde los compañeros virtuales pueden parecer la solución a una soledad persistente.

Las perspectivas futuras sobre la IA que demandan una responsabilidad creciente generan una profunda reflexión. Los sistemas avanzados, como los diseñados por Samsung, buscarán optimizar sus interacciones humanas mientras permanecen atentos a las necesidades psicológicas. La búsqueda del equilibrio entre tecnología y humanidad es imperativa en la umbral de esta nueva era.

Preguntas frecuentes sobre la IA como compañero: INTIMA lleva a cabo una investigación exhaustiva

¿Qué es INTIMA y cuál es su objetivo?
El INTIMA, o Interactions and Machine Attachment Benchmark, es un proyecto de investigación que busca medir la capacidad de las inteligencias artificiales para establecer relaciones y generar respuestas emocionales en los usuarios. Su objetivo es evaluar los comportamientos de acompañamiento de las AIs a través de una clasificación de diversos comportamientos.

¿Cómo puede la IA influir en las interacciones humanas?
Las AIs, al crear una ilusión de comunicación bidireccional, pueden provocar respuestas emocionales en los usuarios. Esto se traduce en una sensación de presencia social, acentuada por respuestas personalizadas y marcadores de lenguaje empáticos.

¿El apego humano a la IA es una preocupación psicológica?
Sí, estudios muestran que el apego a las AIs podría generar riesgos psicológicos, especialmente cuando los comportamientos adecuados de mantenimiento de límites disminuyen en caso de vulnerabilidad de los usuarios. Esto puede llevar a interacciones emocionales desequilibradas.

¿Cuáles son las implicaciones de la teoría de la interacción parasocial en la IA?
La teoría de las interacciones parasociales sugiere que los usuarios pueden desarrollar relaciones unilaterales con entidades no humanas, como las AIs. Esto puede generar dependencias emocionales y una percepción distorsionada de la relación que puede afectar las interacciones sociales reales.

¿Cómo se evalúan los comportamientos de las AIs a través de INTIMA?
INTIMA utiliza una taxonomía de 31 comportamientos para evaluar si las interacciones generan sentimientos de compañerismo, creación de límites o son neutrales. Este método permite comprender mejor cómo las AIs pueden gestionar interacciones cargadas emocionalmente.

¿Las AIs pueden realmente sentir emociones?
No, las AIs no sienten emociones, aunque pueden parecer empáticas en su respuesta. Esto genera una ilusión de conexión que puede ser malinterpretada por los usuarios, especialmente durante interacciones intensas emocionalmente.

¿Qué riesgos psicológicos están asociados con el uso de las AIs como compañeros?
Las investigaciones indican que interacciones no reguladas con AIs pueden llevar a comportamientos sedentarios, aislamiento social y crear expectativas poco realistas sobre las relaciones humanas, agravando así sentimientos de soledad y dependencia.

¿Qué papel juega el antropomorfismo en las interacciones con las AIs?
El antropomorfismo lleva a los usuarios a atribuir características humanas a las AIs, lo que puede distorsionar su comprensión de la tecnología y potencialmente conducir a expectativas inapropiadas sobre el comportamiento y la respuesta de los sistemas inteligentes.

actu.iaNon classé¿Puede la IA ser un buen compañero? INTIMA realiza una investigación exhaustiva

Atención: Las Ray-Ban de Meta podrían grabar a estudiantes universitarios sin su consentimiento

découvrez comment les lunettes connectées ray-ban de meta pourraient filmer des étudiants universitaires à leur insu, soulevant d’importantes questions sur la vie privée et le consentement sur les campus.
découvrez comment openai renforce son engagement envers l'intelligence artificielle personnalisée pour les consommateurs grâce à une acquisition stratégique récente, ouvrant la voie à de nouvelles expériences sur mesure.
découvrez comment l'intelligence artificielle, avec des outils comme chatgpt, révolutionne le domaine médical : ses capacités impressionnantes, les services qu'elle offre déjà, ainsi que ses limites actuelles pour le diagnostic et le conseil de santé.

Brendan Humphreys (Canva) : «La IA impulsa la productividad del 80 % de los ingenieros en Canva

découvrez comment brendan humphreys, responsable chez canva, explique que l'intelligence artificielle permet à 80 % des ingénieurs de l'entreprise d'améliorer considérablement leur productivité et de transformer leurs méthodes de travail.

Microsoft 365 Copilot : La integración de los modelos Claude refuerza la oferta de OpenAI

découvrez comment l'intégration des modèles claude à microsoft 365 copilot vient renforcer les capacités de l'offre openai, offrant aux utilisateurs des outils d'ia encore plus puissants pour booster leur productivité et collaboration.

Los Impactos de la IA en Nuestra Mentalidad: Diálogo entre una Filósofa y un Emprendedor

découvrez comment l'intelligence artificielle façonne nos façons de penser à travers une discussion enrichissante entre une philosophe et un entrepreneur, qui confrontent leurs visions sur l'évolution de notre mentalité face aux nouvelles technologies.