Los chatbots con inteligencia artificial, como ChatGPT y Copilot, *provocan distorsiones* en la información. El análisis realizado por la BBC pone de relieve *problemas significativos* de desinformación en sus respuestas a las noticias. Estas herramientas automatizadas, aunque prometen facilitar el acceso a la información, son a menudo creadores de contenidos sesgados y engañosos. *Inexactitudes fácticas* cuestionan la confianza del público en estas tecnologías emergentes. El informe destaca la magnitud de los errores, alcanzando a veces información crítica sobre eventos recientes y personalidades políticas.
Los resultados alarmantes del estudio de la BBC
Un estudio realizado por la BBC revela que los asistentes de inteligencia artificial (IA) producen respuestas erróneas y engañosas en materia de noticias. Más de la mitad de las respuestas generadas por herramientas como ChatGPT, Copilot, Gemini y Perplexity presentan “problemas significativos”. Los periodistas de la BBC, especializados en estos temas, han evaluado estas respuestas basándose en artículos de su propia redacción.
Naturaleza de los errores constatados
Los errores señalados incluyen afirmaciones fácticamente incorrectas. Por ejemplo, estas herramientas han designado a Rishi Sunak y Nicola Sturgeon como líderes aún en funciones, lo cual es inexacto. Consejos erróneos sobre el vapeo, así como confusiones entre opiniones y hechos recientes, forman parte de las distorsiones observadas.
Ejemplos concretos de inexactitudes
Los investigadores han interrogado a las IA sobre 100 preguntas utilizando artículos de la BBC como referencia. Alrededor del 20% de las respuestas contenían errores fácticos relacionados con cifras, fechas o declaraciones. Casi el 13% de las citas atribuidas a la BBC estaban alteradas o eran inexistentes en los artículos mencionados.
Una respuesta de Gemini a la pregunta sobre la culpabilidad de la enfermera neonatal Lucy Letby omitía precisar el contexto de sus condenas por asesinato. El Copilot de Microsoft informó incorrectamente sobre el caso de la víctima Gisèle Pelicot al distorsionar su relato. ChatGPT mencionó nuevamente el nombre de Ismail Haniyeh como miembro activo de Hamas, varios meses después de su fallecimiento en Irán.
Reacciones de la BBC ante estos descubrimientos
Déborah Turness, la directora general de información de la BBC, calificó estos resultados de preocupantes. Ella advierte que estas herramientas de IA “juegan con fuego”, amenazando la frágil fe del público en los hechos. En un post de blog, cuestiona la capacidad de las IA para tratar información de actualidad sin distorsionar los hechos.
Los riesgos para la sociedad
Los hallazgos de este estudio subrayan riesgos no solo para la fiabilidad de la información, sino también para la integridad de la democracia. La desinformación generada por IA plantea serias preocupaciones. Los algoritmos, a menudo imperfectos, pueden distorsionar información sensible con consecuencias potencialmente perjudiciales.
Llamado a la colaboración
Turness también sugirió una colaboración con las empresas de IA para mejorar la precisión de las respuestas proporcionadas a partir de contenidos periodísticos. Trabajar juntos podría permitir un mejor control del uso de la información y reducir los errores.
El contexto mundial de la desinformación por IA
Este fenómeno no se limita a la BBC. Preocupaciones similares emergen en muchas plataformas de información. Ejemplos recientes ilustran el uso de asistentes de IA para difundir resúmenes erróneos. Por ejemplo, Apple suspendió sus alertas de noticias de marca BBC después de haber encontrado problemas con contenido inexacto.
La proliferación de la desinformación a través de estas tecnologías socava los cimientos de la confianza pública en la información. Los peligros asociados a una IA no regulada requieren atención especial para proteger el tejido social.
Tendencias preocupantes a vigilar
Las tendencias globales reflejan una excesiva dependencia de la IA en la generación de noticias. El público debe ser vigilante y desarrollar habilidades críticas frente a la información. Identificar los deepfakes y informarse a través de fuentes fiables se convierte en primordial.
A través de este estudio, la BBC destaca un imperativo: los usuarios deben exigir una regulación estricta de los contenidos generados por la IA. La necesidad de un marco claro y transparente es cada vez más urgente para garantizar la integridad de la información en la era digital.
La cuestión del control de contenidos por parte de los editores surge. Los periodistas y las casas de prensa deben mantener su papel central en la información para evitar el debilitamiento de los estándares periodísticos frente al auge de las tecnologías generativas.
Preguntas frecuentes sobre chatbots IA y desinformación
¿Cuáles son los principales riesgos relacionados con el uso de chatbots IA para transmitir información?
Los chatbots IA pueden introducir distorsiones e inexactitudes fácticas, lo que compromete la fiabilidad de la información proporcionada, especialmente en lo que respecta a noticias y asuntos actuales.
¿Cómo ha evaluado la BBC la fiabilidad de las respuestas proporcionadas por los chatbots IA?
La BBC llevó a cabo un estudio donde cuatro herramientas de IA generativa fueron probadas respondiendo a 100 preguntas basadas en artículos de la BBC. Las respuestas fueron evaluadas por periodistas especializados, revelando que más de la mitad contenían “problemas significativos”.
¿Qué errores específicos se han identificado en las respuestas de los chatbots?
Los errores incluyen declaraciones incorrectas sobre personalidades políticas, como afirmar que Rishi Sunak y Nicola Sturgeon aún estaban en funciones, así como información incorrecta sobre consejos de salud pública relacionados con el vapeo.
¿Por qué la BBC considera que las herramientas de IA generativa amenazan la fe del público en los hechos?
Estas herramientas pueden generar contenidos engañosos, lo que lleva a una confusión generalizada y a una creciente desconfianza hacia las fuentes de noticias fiables, haciendo la gestión de la información aún más difícil.
¿Cómo pueden las empresas de medios colaborar con los desarrolladores de IA para mejorar la exactitud de la información?
Las empresas deben establecer asociaciones con empresas de IA para asegurar que el uso de su contenido se gestione de manera que favorezca la exactitud y la responsabilidad en el tratamiento de la información.
¿Pueden confiar los usuarios en la información proporcionada por los chatbots IA?
Los usuarios deben actuar con precaución y verificar la información obtenida a través de estas herramientas, especialmente en caso de dudas sobre su exactitud, ya que las respuestas pueden contener inexactitudes importantes.
¿Qué medidas se pueden tomar para limitar la desinformación generada por los chatbots IA?
Es esencial implementar regulaciones, mejorar la educación mediática y promover la alfabetización digital para sensibilizar a los usuarios sobre los riesgos de desinformación.