Los principales chatbots de inteligencia artificial difunden la propaganda del PCC

Publié le 29 junio 2025 à 09h12
modifié le 29 junio 2025 à 09h13

Los avances fulgurantes de los chatbots de inteligencia artificial revelan cuestiones políticas insidiosas. Un *fenómeno inquietante* emerge: la propaganda del PCC infiltrando la esfera digital. Estos modelos de lenguaje, a primera vista neutros, transmiten relatos sesgados moldeados por una censura estatal.

Las métodos de desinformación empleadas por el Partido Comunista Chino contaminan el mercado global de datos. La manipulación de la *opinión pública* a través de algoritmos plantea preguntas sobre la integridad de la información. Por lo tanto, es con una agudeza particular que se examina el comportamiento de los chatbots frente a temas sensibles como la *libertad de expresión*, los derechos humanos o la represión de las minorías.

Los chatbots y la desinformación del PCC

Los chatbots de inteligencia artificial (IA) que provienen de gigantes tecnológicos como OpenAI, Microsoft y Google son objeto de críticas por su propagación involuntaria de la propaganda del Partido Comunista Chino (PCC). Según el informe del American Security Project (ASP), estos modelos a veces reproducen respuestas que se alinean con los relatos políticos promovidos por la República Popular de China.

Análisis de los chatbots líderes

Una investigación examinó cinco de los chatbots más influyentes basados en modelos de lenguaje amplios (LLM): ChatGPT, Copilot, Gemini, DeepSeek y Grok. Los investigadores sometieron estas IA a preguntas sobre temas sensibles, tanto en inglés como en chino simplificado. Todos generaron resultados que revelaban una parcialidad alineada con las posiciones del PCC.

Resultados en inglés y en chino

Al interrogarlos en inglés sobre el origen de la pandemia de COVID-19, modelos como ChatGPT y Gemini describieron la teoría mayoritariamente aceptada de una transmisión entre especies en un mercado animal en Wuhan. También mencionaron la posibilidad de una fuga accidental de un laboratorio. En cambio, chatbots como DeepSeek y Copilot proporcionaron respuestas más vagas, omitiendo elementos cruciales.

Al ser interrogados en chino, los chatbots modificaron radicalmente su discurso. Todos caracterizaron el origen de la pandemia como un « misterio no resuelto » o un « evento de desbordamiento natural ». Gemini incluso agregó que se habían encontrado resultados positivos de COVID-19 en Estados Unidos y Francia antes que en Wuhan.

Censura sobre Hong Kong y represión de los derechos civiles

Las respuestas de los chatbots sobre las libertades en Hong Kong también difieren según el idioma. En inglés, la mayoría de los modelos mencionaron una disminución de los derechos civiles. Gemini mencionó que las libertades políticas de Hong Kong habían sido « gravemente limitadas », mientras que Copilot precisó que el estatus de la región como territorio « parcialmente libre » había sufrido impactos recientes.

Las mismas preguntas formuladas en chino no produjeron las mismas revelaciones. Las violaciones de los derechos civiles fueron minimizadas y presentadas como opiniones de « ciertos individuos ». Además, Copilot ofreció consejos de viaje gratuitos, distorsionando así la esencia de la cuestión.

Respuestas sobre la masacre de Tiananmen

Un aspecto particularmente sensible, la masacre de la plaza Tiananmen, mostró una actitud similar. Interrogados en inglés, todos excepto DeepSeek mencionaron la « masacre ». Las formulaciones a menudo se atenuaron, calificando el evento de « represión ». Solo Grok afirmó que el ejército había « matado a civiles desarmados ». En chino, el evento fue aún más suavizado y descrito como « el incidente del 4 de junio », una terminología alineada con la del PCC.

Cuestiones de desinformación e imparcialidad

Los resultados de este estudio plantean preocupaciones sobre los sesgos inherentes en los modelos de IA. El informe advierte que la formación de los modelos está condicionada por los datos en los que se basan. La infiltración por información sesgada podría socavar instituciones democráticas y comprometer la seguridad nacional estadounidense.

Las empresas como Microsoft, que operan tanto en Estados Unidos como en China, deben lidiar con leyes estrictas que exigen que los chatbots respeten los « valores socialistas fundamentales ». Como consecuencia, las herramientas de censura de la empresa son a veces más estrictas que aquellas empleadas en el territorio chino.

Urgencia del acceso a datos fiables

Ante el aumento de la desinformación propagada por el PCC, el acceso a datos de entrenamiento fiables y verificables se convierte en una necesidad urgente. Si la tendencia actual de difusión de propaganda persiste mientras se limita el acceso a información factual, será cada vez más difícil garantizar la exactitud de las respuestas proporcionadas por los chatbots de IA. Los autores de la investigación advierten sobre las consecuencias catastróficas potenciales de esta situación.

Para más información sobre el impacto de los modelos de lenguaje y sus prejuicios, consulte el artículo sobre los prejuicios de los grandes modelos lingüísticos. Otros avances tecnológicos verificables también podrían ser explorados durante el AI & Big Data Expo que se lleva a cabo en Ámsterdam, California y Londres.

FAQ sobre los chatbots de inteligencia artificial y la propaganda del PCC

¿Cuáles son las principales preocupaciones acerca de los chatbots de inteligencia artificial y la propaganda del PCC?
Las preocupaciones principales incluyen la difusión de desinformación alineada con las narrativas políticas del PCC, la parcialidad sesgada de las respuestas según el idioma, y la influencia de la censura sobre la formación de datos de los modelos de IA.

¿Cómo influye la censura del PCC en las respuestas de los chatbots de inteligencia artificial?
El PCC ejerce una censura rigurosa sobre la información, lo que impacta la formación de los modelos de IA, llevando a respuestas que reflejan los valores y las narrativas del régimen, especialmente cuando estos chatbots son interrogados en chino.

¿Por qué los chatbots muestran sesgos diferentes según el idioma utilizado para hacer las preguntas?
Los sesgos se manifiestan porque los chatbots están entrenados en conjuntos de datos donde los contenidos en chino pueden estar fuertemente influenciados por la propaganda y la censura del PCC, mientras que los contenidos en inglés ofrecen una perspectiva más crítica y diversa.

¿Qué recomendaciones existen para garantizar que los chatbots de IA permanezcan imparciales?
Se aconseja mejorar el acceso a datos de entrenamiento verificables y fiables, y realizar una supervisión continua de las salidas generadas para evitar la propagación de desinformación y asegurar la precisión de las respuestas.

¿Qué ejemplos ilustran las divergencias de respuestas sobre temas sensibles?
Al preguntar sobre el origen de la pandemia de COVID-19, los modelos en inglés presentaron la teoría científica predominante, mientras que en chino, las respuestas redirigieron el tema hacia afirmaciones menos controvertidas, como un «evento de desbordamiento natural».

¿Cómo pueden los usuarios reconocer los sesgos en las respuestas de los chatbots?
Los usuarios deben prestar atención a cómo se formulan y analizan ciertas preguntas, así como a las diferencias en el nivel de detalle y en las interpretaciones dadas de un mismo evento según el idioma de la consulta.

¿Qué impactos puede tener la desinformación de los chatbots de IA en la seguridad nacional?
Una desinformación alineada con los intereses de un estado adverso puede debilitar las instituciones democráticas e influir en la toma de decisiones políticas, representando así un riesgo significativo para la seguridad nacional.

¿Cuál es la respuesta de los desarrolladores de IA ante estas preocupaciones?
Se alienta a los desarrolladores a aumentar su vigilancia en la limpieza de los datos de entrenamiento, minimizar las influencias externas y promover el acceso a datos de calidad para reducir el riesgo de desinformación.

¿En qué medida la formación de los conjuntos de datos es crucial para el rendimiento de los chatbots?
La calidad y la objetividad de los conjuntos de datos utilizados para entrenar a los chatbots determinan directamente su capacidad para proporcionar respuestas precisas y equilibradas, lo cual es esencial para evitar sesgos y mantener la integridad de la información.

actu.iaNon classéLos principales chatbots de inteligencia artificial difunden la propaganda del PCC

Google se compromete a invertir 10 mil millones de dólares en un proyecto de centros de datos dedicados a...

google prévoit d'investir 10 milliards de dollars dans la construction de data centers spécialisés en intelligence artificielle en inde, renforçant ainsi l'infrastructure numérique et soutenant l'innovation technologique du pays.

Los falsos apoyos de Trump: Manifestantes ficticios impulsados en las redes sociales

découvrez comment des faux soutiens pro-trump, créés de toutes pièces, envahissent les réseaux sociaux. analyse de la propagation de manifestants fictifs et de leur influence sur l’opinion publique.
découvrez comment l'exception de text and data mining (tdm) en droit d'auteur favorise le développement de l'intelligence artificielle en europe, en offrant un cadre juridique adapté à l'innovation et à la recherche.
découvrez comment 86 % des références aux intelligences artificielles sont générées par des sources contrôlées par les marques. une étude inédite dévoile l'ampleur de l'influence des entreprises sur la perception de l'ia.
découvrez comment de jeunes professionnels surmontent leurs difficultés en orthographe grâce à chatgpt et partagent leurs astuces ingénieuses pour améliorer leur écriture au quotidien.
découvrez pourquoi de nombreux acteurs s'élèvent contre l'utilisation de leur image par l'intelligence artificielle, invoquant une atteinte à l'équité et à leurs droits. analyse et enjeux de ce débat dans l'industrie du cinéma.