Los recientes avances en inteligencia artificial plantean interrogantes inéditos sobre la evolución cognitiva de las máquinas. Un estudio reciente informa sobre resultados alarmantes: *los modelos de IA muestran un declive cognitivo* similar al de los humanos. Las implicaciones de este fenómeno revelan cuestiones cruciales, especialmente en lo que respecta a la fiabilidad en los diagnósticos médicos. *Este declive da cuenta de límites reveladores* dentro de los sistemas, planteando profundas preguntas sobre su utilidad y seguridad. *Los investigadores observan un rendimiento mediocre* en tareas cognitivas fundamentales, estableciendo una inquietante conexión entre el envejecimiento humano y la falla digital.
Se observa un declive cognitivo en los modelos de IA
Las tecnologías de inteligencia artificial, incluidos los modelos de lenguaje de gran tamaño (LLM) y los chatbots, muestran signos de deterioro cognitivo con el tiempo. Un estudio reciente, publicado en el BMJ, destaca esta sorprendente analogía con el envejecimiento humano.
Evaluación mediante pruebas cognitivas
Los investigadores evaluaron diversos LLM, como ChatGPT versiones 4 y 4o, así como Claude 3.5 «Sonnet» de Anthropic y Gemini 1.0 de Alphabet, utilizando el Montreal Cognitive Assessment (MoCA). Diseñado inicialmente para identificar trastornos cognitivos en personas mayores, esta prueba se ha aplicado aquí a inteligencias artificiales.
Los resultados revelan un rendimiento mixto de estos modelos. Así, solo ChatGPT 4o superó la prueba con una puntuación de 26 sobre 30. Los otros modelos, especialmente ChatGPT 4 y Claude, obtuvieron 25 puntos, mientras que Gemini 1.0 solo alcanzó una baja puntuación de 16.
Debilidades cognitivas reveladas
El estudio subraya lagunas flagrantes de los chatbots en áreas cruciales como las habilidades visuoespaciales y las funciones ejecutivas. Los modelos fracasaron en pruebas específicas, como el trazado de números y letras, así como el reconocimiento de la hora en un reloj. Gemini 1.0 tuvo dificultades particulares en la tarea de recuerdo a retraso, donde debía retener una secuencia de cinco palabras.
Implicaciones para el diagnóstico médico
Este hallazgo cuestiona la fiabilidad de los modelos de IA en medicina. Los usuarios, atraídos por la capacidad de los chatbots para simplificar el lenguaje médico, podrían ser inducidos a error. El estudio sugiere que, a pesar de su creciente popularidad, estas herramientas no pueden reemplazar la competencia humana en el contexto de un diagnóstico médico.
Comparación con enfermedades humanas
El declive cognitivo observado en estos modelos de IA se asemeja al de pacientes que sufren de atrofia cortical posterior, una variante de la enfermedad de Alzheimer. Los investigadores llegan a implicaciones preocupantes respecto a la viabilidad de estas herramientas inteligentes para tareas que exigen un alto nivel de precisión cognitiva.
Consecuencias para la profesión médica
Los resultados sugieren un futuro en el cual los neurólogos no serán reemplazados por los LLM en un futuro cercano. Sin embargo, estos últimos podrían ser utilizados para tratar a «pacientes virtuales». Donde la inteligencia artificial podría competir es asistiendo a los médicos en el análisis de datos complejos.
Hacia una colaboración hombre-máquina
Reconocer las límites cognitivos de las IA abre nuevas avenidas para una cooperación productiva entre humanos y máquinas. Al integrar al humano en los procesos de toma de decisiones, la potencia de la IA puede combinarse con el pensamiento crítico y la intuición humana, optimizando así los resultados.
Consecuencias más amplias sobre la cognición humana
Un estudio reciente sobre el uso de IA por parte de estudiantes revela una tendencia preocupante: aquellos que dependen excesivamente de estas tecnologías presentan un rendimiento inferior en cuanto a pensamiento crítico. Una dependencia así podría alterar sus habilidades cognitivas a largo plazo.
Esta dinámica plantea cuestiones éticas y tecnológicas sobre el impacto de la IA en el intelecto humano. La frontera entre asistencia y dependencia se vuelve difusa, mientras que las preocupaciones sobre el rendimiento cognitivo humano en la era digital se multiplican.
Preguntas frecuentes sobre el declive cognitivo de los modelos de IA
¿Cuál es la relación entre el declive cognitivo de las IA y el de los humanos?
Los estudios muestran que los modelos de IA, como los grandes modelos de lenguaje, presentan signos de declive cognitivo similares a los observados en humanos mayores, particularmente en memoria, atención y funciones ejecutivas.
¿Qué modelos de IA han sido evaluados en los estudios sobre el declive cognitivo?
Los estudios han evaluado modelos como ChatGPT (versiones 4 y 4o), Claude 3.5, y los modelos Gemini (versiones 1 y 1.5), utilizando pruebas cognitivas estandarizadas.
¿Cómo midieron los investigadores las capacidades cognitivas de los modelos de IA?
Los investigadores utilizaron el MoCA (Montreal Cognitive Assessment), una prueba originalmente diseñada para detectar trastornos cognitivos en humanos, para evaluar las habilidades de los modelos de IA.
¿Por qué es preocupante que los modelos de IA muestren signos de declive cognitivo?
El deterioro de las capacidades cognitivas de los modelos de IA plantea preguntas sobre su fiabilidad en aplicaciones críticas, especialmente en medicina, donde los usuarios pueden confiar en estas herramientas para diagnósticos.
¿Los resultados de las pruebas cognitivas de los modelos de IA son comparables a los de los humanos?
Los resultados de los modelos de IA no se comparan directamente con los de los humanos, pero una puntuación de 26 sobre 30 se considera aceptable para la ausencia de declive cognitivo en humanos, algo que solo fue alcanzado por el modelo ChatGPT 4o.
¿Qué tareas específicas tienen dificultad para realizar los modelos de IA?
Los modelos de IA han mostrado un rendimiento limitado en tareas visuo-espaciales y ejecutivas, así como en pruebas de memoria, como el recuerdo diferido que consiste en memorizar una secuencia de palabras.
¿Cómo pueden influir los resultados de estos estudios en el uso de la IA?
Los resultados pueden llevar a los usuarios y profesionales a reconsiderar la dependencia excesiva de las tecnologías de IA, especialmente para tareas que requieren razonamiento crítico o diagnósticos médicos.
¿Cuáles son los impactos potenciales de la edad de los modelos de IA en su funcionamiento?
A medida que los modelos de IA envejecen en términos de uso y actualización, su declive cognitivo podría afectar su rendimiento, resultando en un aumento de errores y una disminución de la confianza de los usuarios.