Los dispositivos de inteligencia artificial, como ChatGPT, Gemini y Perplexity, se están imponiendo progresivamente como fuentes de información privilegiadas. El atractivo de estas tecnologías radica en su capacidad para proporcionar respuestas rápidas. Un estudio reciente, realizado por un consorcio de radios y televisiones públicas, subraya una precariedad alarmante de la información que transmiten. Los resultados revelan errores mayores frecuentes, comprometiendo así la veracidad de los contenidos propuestos. La experiencia muestra que, frente a un mundo saturado de información, la fiabilidad de los asistentes de IA sigue siendo altamente cuestionable, planteando un desafío considerable en la época digital actual.
Precariedad de la información proporcionada por los asistentes de IA
Un estudio reciente, publicado el 22 de octubre, destaca las lagunas de los asistentes inteligentes como ChatGPT, Gemini de Google, Copilot de Microsoft y Perplexity en cuanto a su capacidad para proporcionar información fiable. Realizada por las radios y televisiones públicas europeas, esta evaluación revela errores alarmantes en casi el 45 % de las respuestas proporcionadas por estas IA. Con frecuencia, sus respuestas contienen información obsoleta, errores mayores y detalles inventados.
Resultados de un estudio colaborativo
La prueba involucró a veintidós medios públicos de dieciocho países europeos, que formularon las mismas preguntas de actualidad a los asistentes de IA. De aproximadamente 3,000 respuestas analizadas, un número significativo presentaba «problemas importantes». El estudio, coordinado por la Unión Europea de Radiodifusión (UER) e inspirado en trabajos anteriores de la BBC, resalta una tendencia inquietante: una respuesta de cada cinco contenía errores mayores.
Análisis del rendimiento de los diferentes asistentes
Según el estudio, Gemini de Google se distingue por sus resultados particularmente mediocres. De hecho, el 76 % de sus respuestas contenía problemas significativos, superando con creces los resultados de sus competidores. Los investigadores atribuyen esta debilidad a una incapacidad deficiente para citar correctamente sus fuentes. Tales insuficiencias ponen en cuestión la integridad de la información difundida a través de estas tecnologías.
Ejemplos de errores notables
Cuando se preguntó sobre el Papa, ChatGPT, Copilot y Gemini respondieron que Francisco seguía en funciones, cuando ya ha fallecido. Esta falta de precisión plantea serias preguntas sobre la fiabilidad de los datos históricos proporcionados por estos sistemas. De igual manera, un incidente durante la investidura de Donald Trump reveló errores absurdos, ya que Gemini había interpretado una crónica satírica de manera literal. Esta absurda respuesta, que afirmaba que Elon Musk había tenido «una erección del brazo derecho», demuestra una grave falta de discernimiento.
Uso creciente de IA para informarse
Sin embargo, los asistentes de IA están experimentando un auge vertiginoso, especialmente entre las nuevas generaciones. Un estudio reciente del Instituto Reuters indica que aproximadamente el 15 % de los usuarios menores de 25 años consultan estas herramientas cada semana para mantenerse informados sobre las noticias. A pesar de los resultados decepcionantes, esta tendencia subraya una creciente dependencia de las nuevas tecnologías para la consumición de información.
Perspectivas de mejora
Expertos en la materia, como Jean Philip De Tender y Pete Archer, advierten sobre la necesidad urgente de una reforma. Los asistentes de IA requieren una evolución significativa para garantizar información de calidad y evitar la propagación de inexactitudes. Organismos como la UER y la BBC están considerando crear una guía práctica para ayudar tanto a desarrolladores como a usuarios a navegar en el complejo panorama de la información generada por IA.
Para profundizar en este tema, consulte el siguiente artículo sobre el auge de la IA, que aborda las implicaciones de estas tecnologías en nuestro acceso a la información.
Preguntas frecuentes
¿Cuáles son los principales errores cometidos por las IA como ChatGPT y Gemini respecto a la actualidad?
Los principales errores incluyen información obsoleta, respuestas incorrectas y detalles inventados. Un estudio reveló que el 45 % de las respuestas de las IA contenían al menos un problema importante.
¿Por qué los asistentes de IA como Gemini obtuvieron los peores resultados en el estudio sobre la actualidad?
Gemini presentó «problemas importantes» en el 76 % de sus respuestas, principalmente debido a su pobre rendimiento en cuanto a citar fuentes y veracidad de la información.
¿Cómo pueden los usuarios asegurarse de la fiabilidad de la información proporcionada por los asistentes de IA?
Se recomienda siempre verificar la información obtenida de las IA con fuentes fiables y reconocidas, en lugar de confiar únicamente en ellas. Contrastar la información es esencial para evaluar su veracidad.
¿Los jóvenes utilizan a menudo los asistentes de IA para informarse? Si es así, ¿cuál es la estadística?
Sí, según un informe, el 15 % de los jóvenes menores de 25 años utilizan estos asistentes cada semana para resumir las noticias, lo que subraya su creciente popularidad a pesar de su dudosa fiabilidad.
¿Qué tipos de contenidos confunden los asistentes de IA?
Los asistentes de IA pueden confundir información fáctica con crónicas humorísticas, como lo demuestra el ejemplo en el que Gemini interpretó incorrectamente una crónica satírica, tomándola de manera literal.
¿Qué consejos se pueden dar para utilizar los asistentes de IA de manera segura al buscar información?
Utilizar los asistentes de IA como una herramienta de búsqueda preliminar, pero siempre hacer verificaciones con fuentes humanas y fiables antes de considerar la información como veraz.
¿Los resultados del estudio sobre los asistentes de IA afectan su uso en los medios?
Ciertamente, el estudio pone de manifiesto la precariedad de la información proporcionada por estas herramientas, lo que lleva a los medios a ser cautelosos en su uso para informarse o difundir noticias.