Les chatbots de IA engañan y desinforman sobre las noticias, revela la BBC

Publié le 11 febrero 2025 à 08h23
modifié le 11 febrero 2025 à 08h23

Los chatbots con inteligencia artificial, como ChatGPT y Copilot, *provocan distorsiones* en la información. El análisis realizado por la BBC pone de relieve *problemas significativos* de desinformación en sus respuestas a las noticias. Estas herramientas automatizadas, aunque prometen facilitar el acceso a la información, son a menudo creadores de contenidos sesgados y engañosos. *Inexactitudes fácticas* cuestionan la confianza del público en estas tecnologías emergentes. El informe destaca la magnitud de los errores, alcanzando a veces información crítica sobre eventos recientes y personalidades políticas.

Los resultados alarmantes del estudio de la BBC

Un estudio realizado por la BBC revela que los asistentes de inteligencia artificial (IA) producen respuestas erróneas y engañosas en materia de noticias. Más de la mitad de las respuestas generadas por herramientas como ChatGPT, Copilot, Gemini y Perplexity presentan “problemas significativos”. Los periodistas de la BBC, especializados en estos temas, han evaluado estas respuestas basándose en artículos de su propia redacción.

Naturaleza de los errores constatados

Los errores señalados incluyen afirmaciones fácticamente incorrectas. Por ejemplo, estas herramientas han designado a Rishi Sunak y Nicola Sturgeon como líderes aún en funciones, lo cual es inexacto. Consejos erróneos sobre el vapeo, así como confusiones entre opiniones y hechos recientes, forman parte de las distorsiones observadas.

Ejemplos concretos de inexactitudes

Los investigadores han interrogado a las IA sobre 100 preguntas utilizando artículos de la BBC como referencia. Alrededor del 20% de las respuestas contenían errores fácticos relacionados con cifras, fechas o declaraciones. Casi el 13% de las citas atribuidas a la BBC estaban alteradas o eran inexistentes en los artículos mencionados.

Una respuesta de Gemini a la pregunta sobre la culpabilidad de la enfermera neonatal Lucy Letby omitía precisar el contexto de sus condenas por asesinato. El Copilot de Microsoft informó incorrectamente sobre el caso de la víctima Gisèle Pelicot al distorsionar su relato. ChatGPT mencionó nuevamente el nombre de Ismail Haniyeh como miembro activo de Hamas, varios meses después de su fallecimiento en Irán.

Reacciones de la BBC ante estos descubrimientos

Déborah Turness, la directora general de información de la BBC, calificó estos resultados de preocupantes. Ella advierte que estas herramientas de IA “juegan con fuego”, amenazando la frágil fe del público en los hechos. En un post de blog, cuestiona la capacidad de las IA para tratar información de actualidad sin distorsionar los hechos.

Los riesgos para la sociedad

Los hallazgos de este estudio subrayan riesgos no solo para la fiabilidad de la información, sino también para la integridad de la democracia. La desinformación generada por IA plantea serias preocupaciones. Los algoritmos, a menudo imperfectos, pueden distorsionar información sensible con consecuencias potencialmente perjudiciales.

Llamado a la colaboración

Turness también sugirió una colaboración con las empresas de IA para mejorar la precisión de las respuestas proporcionadas a partir de contenidos periodísticos. Trabajar juntos podría permitir un mejor control del uso de la información y reducir los errores.

El contexto mundial de la desinformación por IA

Este fenómeno no se limita a la BBC. Preocupaciones similares emergen en muchas plataformas de información. Ejemplos recientes ilustran el uso de asistentes de IA para difundir resúmenes erróneos. Por ejemplo, Apple suspendió sus alertas de noticias de marca BBC después de haber encontrado problemas con contenido inexacto.

La proliferación de la desinformación a través de estas tecnologías socava los cimientos de la confianza pública en la información. Los peligros asociados a una IA no regulada requieren atención especial para proteger el tejido social.

Tendencias preocupantes a vigilar

Las tendencias globales reflejan una excesiva dependencia de la IA en la generación de noticias. El público debe ser vigilante y desarrollar habilidades críticas frente a la información. Identificar los deepfakes y informarse a través de fuentes fiables se convierte en primordial.

A través de este estudio, la BBC destaca un imperativo: los usuarios deben exigir una regulación estricta de los contenidos generados por la IA. La necesidad de un marco claro y transparente es cada vez más urgente para garantizar la integridad de la información en la era digital.

La cuestión del control de contenidos por parte de los editores surge. Los periodistas y las casas de prensa deben mantener su papel central en la información para evitar el debilitamiento de los estándares periodísticos frente al auge de las tecnologías generativas.

Preguntas frecuentes sobre chatbots IA y desinformación

¿Cuáles son los principales riesgos relacionados con el uso de chatbots IA para transmitir información?
Los chatbots IA pueden introducir distorsiones e inexactitudes fácticas, lo que compromete la fiabilidad de la información proporcionada, especialmente en lo que respecta a noticias y asuntos actuales.
¿Cómo ha evaluado la BBC la fiabilidad de las respuestas proporcionadas por los chatbots IA?
La BBC llevó a cabo un estudio donde cuatro herramientas de IA generativa fueron probadas respondiendo a 100 preguntas basadas en artículos de la BBC. Las respuestas fueron evaluadas por periodistas especializados, revelando que más de la mitad contenían “problemas significativos”.
¿Qué errores específicos se han identificado en las respuestas de los chatbots?
Los errores incluyen declaraciones incorrectas sobre personalidades políticas, como afirmar que Rishi Sunak y Nicola Sturgeon aún estaban en funciones, así como información incorrecta sobre consejos de salud pública relacionados con el vapeo.
¿Por qué la BBC considera que las herramientas de IA generativa amenazan la fe del público en los hechos?
Estas herramientas pueden generar contenidos engañosos, lo que lleva a una confusión generalizada y a una creciente desconfianza hacia las fuentes de noticias fiables, haciendo la gestión de la información aún más difícil.
¿Cómo pueden las empresas de medios colaborar con los desarrolladores de IA para mejorar la exactitud de la información?
Las empresas deben establecer asociaciones con empresas de IA para asegurar que el uso de su contenido se gestione de manera que favorezca la exactitud y la responsabilidad en el tratamiento de la información.
¿Pueden confiar los usuarios en la información proporcionada por los chatbots IA?
Los usuarios deben actuar con precaución y verificar la información obtenida a través de estas herramientas, especialmente en caso de dudas sobre su exactitud, ya que las respuestas pueden contener inexactitudes importantes.
¿Qué medidas se pueden tomar para limitar la desinformación generada por los chatbots IA?
Es esencial implementar regulaciones, mejorar la educación mediática y promover la alfabetización digital para sensibilizar a los usuarios sobre los riesgos de desinformación.

actu.iaNon classéLes chatbots de IA engañan y desinforman sobre las noticias, revela la...

Los bots de IA están invadiendo Reddit, y la responsabilidad recae en la plataforma

découvrez comment l'essor des bots ia sur reddit soulève des questions de responsabilité pour la plateforme. analysez les impacts de cette évolution technologique sur la communauté en ligne et les enjeux éthiques qui en découlent.
découvrez comment rubrik, leader en cybersécurité, va renforcer ses capacités avec l'acquisition de la plateforme d'intelligence artificielle predibase. une étape stratégique qui pourrait transformer le paysage de la sécurité numérique.

Las mejores herramientas de IA que hacen el desarrollo web más eficiente

découvrez notre sélection des meilleurs outils d'intelligence artificielle qui révolutionnent le développement web. optimisez votre workflow, améliorez la collaboration et gagnez en efficacité grâce à ces solutions innovantes adaptées aux développeurs.

Google presenta Gemini CLI, un agente de código autónomo accesible de forma gratuita

découvrez gemini cli, l'agent de code autonome de google, accessible gratuitement. optimisez votre développement avec des outils innovants et simplifiez votre flux de travail grâce à cette technologie avancée.

El impacto de AI Mode: la nueva revolución de Google en la SERP y sus consecuencias para el SEO

découvrez comment l'ai mode de google transforme la serp et redéfinit les stratégies seo. analyse des impacts sur le référencement et les nouvelles opportunités à saisir pour optimiser votre visibilité en ligne.

Victoria parcial para la empresa de IA Anthropic en una nueva decisión judicial sobre derechos de autor

découvrez la récente décision de justice en faveur d'anthropic, une avancée significative pour la société d'intelligence artificielle concernant le droit d'auteur. cette victoire partielle soulève des questions intéressantes sur l'avenir de la créativité et de l'innovation dans le domaine de l'ia.