Los avances fulgurantes de los chatbots de inteligencia artificial revelan cuestiones políticas insidiosas. Un *fenómeno inquietante* emerge: la propaganda del PCC infiltrando la esfera digital. Estos modelos de lenguaje, a primera vista neutros, transmiten relatos sesgados moldeados por una censura estatal.
Las métodos de desinformación empleadas por el Partido Comunista Chino contaminan el mercado global de datos. La manipulación de la *opinión pública* a través de algoritmos plantea preguntas sobre la integridad de la información. Por lo tanto, es con una agudeza particular que se examina el comportamiento de los chatbots frente a temas sensibles como la *libertad de expresión*, los derechos humanos o la represión de las minorías.
Los chatbots y la desinformación del PCC
Los chatbots de inteligencia artificial (IA) que provienen de gigantes tecnológicos como OpenAI, Microsoft y Google son objeto de críticas por su propagación involuntaria de la propaganda del Partido Comunista Chino (PCC). Según el informe del American Security Project (ASP), estos modelos a veces reproducen respuestas que se alinean con los relatos políticos promovidos por la República Popular de China.
Análisis de los chatbots líderes
Una investigación examinó cinco de los chatbots más influyentes basados en modelos de lenguaje amplios (LLM): ChatGPT, Copilot, Gemini, DeepSeek y Grok. Los investigadores sometieron estas IA a preguntas sobre temas sensibles, tanto en inglés como en chino simplificado. Todos generaron resultados que revelaban una parcialidad alineada con las posiciones del PCC.
Resultados en inglés y en chino
Al interrogarlos en inglés sobre el origen de la pandemia de COVID-19, modelos como ChatGPT y Gemini describieron la teoría mayoritariamente aceptada de una transmisión entre especies en un mercado animal en Wuhan. También mencionaron la posibilidad de una fuga accidental de un laboratorio. En cambio, chatbots como DeepSeek y Copilot proporcionaron respuestas más vagas, omitiendo elementos cruciales.
Al ser interrogados en chino, los chatbots modificaron radicalmente su discurso. Todos caracterizaron el origen de la pandemia como un « misterio no resuelto » o un « evento de desbordamiento natural ». Gemini incluso agregó que se habían encontrado resultados positivos de COVID-19 en Estados Unidos y Francia antes que en Wuhan.
Censura sobre Hong Kong y represión de los derechos civiles
Las respuestas de los chatbots sobre las libertades en Hong Kong también difieren según el idioma. En inglés, la mayoría de los modelos mencionaron una disminución de los derechos civiles. Gemini mencionó que las libertades políticas de Hong Kong habían sido « gravemente limitadas », mientras que Copilot precisó que el estatus de la región como territorio « parcialmente libre » había sufrido impactos recientes.
Las mismas preguntas formuladas en chino no produjeron las mismas revelaciones. Las violaciones de los derechos civiles fueron minimizadas y presentadas como opiniones de « ciertos individuos ». Además, Copilot ofreció consejos de viaje gratuitos, distorsionando así la esencia de la cuestión.
Respuestas sobre la masacre de Tiananmen
Un aspecto particularmente sensible, la masacre de la plaza Tiananmen, mostró una actitud similar. Interrogados en inglés, todos excepto DeepSeek mencionaron la « masacre ». Las formulaciones a menudo se atenuaron, calificando el evento de « represión ». Solo Grok afirmó que el ejército había « matado a civiles desarmados ». En chino, el evento fue aún más suavizado y descrito como « el incidente del 4 de junio », una terminología alineada con la del PCC.
Cuestiones de desinformación e imparcialidad
Los resultados de este estudio plantean preocupaciones sobre los sesgos inherentes en los modelos de IA. El informe advierte que la formación de los modelos está condicionada por los datos en los que se basan. La infiltración por información sesgada podría socavar instituciones democráticas y comprometer la seguridad nacional estadounidense.
Las empresas como Microsoft, que operan tanto en Estados Unidos como en China, deben lidiar con leyes estrictas que exigen que los chatbots respeten los « valores socialistas fundamentales ». Como consecuencia, las herramientas de censura de la empresa son a veces más estrictas que aquellas empleadas en el territorio chino.
Urgencia del acceso a datos fiables
Ante el aumento de la desinformación propagada por el PCC, el acceso a datos de entrenamiento fiables y verificables se convierte en una necesidad urgente. Si la tendencia actual de difusión de propaganda persiste mientras se limita el acceso a información factual, será cada vez más difícil garantizar la exactitud de las respuestas proporcionadas por los chatbots de IA. Los autores de la investigación advierten sobre las consecuencias catastróficas potenciales de esta situación.
Para más información sobre el impacto de los modelos de lenguaje y sus prejuicios, consulte el artículo sobre los prejuicios de los grandes modelos lingüísticos. Otros avances tecnológicos verificables también podrían ser explorados durante el AI & Big Data Expo que se lleva a cabo en Ámsterdam, California y Londres.
FAQ sobre los chatbots de inteligencia artificial y la propaganda del PCC
¿Cuáles son las principales preocupaciones acerca de los chatbots de inteligencia artificial y la propaganda del PCC?
Las preocupaciones principales incluyen la difusión de desinformación alineada con las narrativas políticas del PCC, la parcialidad sesgada de las respuestas según el idioma, y la influencia de la censura sobre la formación de datos de los modelos de IA.
¿Cómo influye la censura del PCC en las respuestas de los chatbots de inteligencia artificial?
El PCC ejerce una censura rigurosa sobre la información, lo que impacta la formación de los modelos de IA, llevando a respuestas que reflejan los valores y las narrativas del régimen, especialmente cuando estos chatbots son interrogados en chino.
¿Por qué los chatbots muestran sesgos diferentes según el idioma utilizado para hacer las preguntas?
Los sesgos se manifiestan porque los chatbots están entrenados en conjuntos de datos donde los contenidos en chino pueden estar fuertemente influenciados por la propaganda y la censura del PCC, mientras que los contenidos en inglés ofrecen una perspectiva más crítica y diversa.
¿Qué recomendaciones existen para garantizar que los chatbots de IA permanezcan imparciales?
Se aconseja mejorar el acceso a datos de entrenamiento verificables y fiables, y realizar una supervisión continua de las salidas generadas para evitar la propagación de desinformación y asegurar la precisión de las respuestas.
¿Qué ejemplos ilustran las divergencias de respuestas sobre temas sensibles?
Al preguntar sobre el origen de la pandemia de COVID-19, los modelos en inglés presentaron la teoría científica predominante, mientras que en chino, las respuestas redirigieron el tema hacia afirmaciones menos controvertidas, como un «evento de desbordamiento natural».
¿Cómo pueden los usuarios reconocer los sesgos en las respuestas de los chatbots?
Los usuarios deben prestar atención a cómo se formulan y analizan ciertas preguntas, así como a las diferencias en el nivel de detalle y en las interpretaciones dadas de un mismo evento según el idioma de la consulta.
¿Qué impactos puede tener la desinformación de los chatbots de IA en la seguridad nacional?
Una desinformación alineada con los intereses de un estado adverso puede debilitar las instituciones democráticas e influir en la toma de decisiones políticas, representando así un riesgo significativo para la seguridad nacional.
¿Cuál es la respuesta de los desarrolladores de IA ante estas preocupaciones?
Se alienta a los desarrolladores a aumentar su vigilancia en la limpieza de los datos de entrenamiento, minimizar las influencias externas y promover el acceso a datos de calidad para reducir el riesgo de desinformación.
¿En qué medida la formación de los conjuntos de datos es crucial para el rendimiento de los chatbots?
La calidad y la objetividad de los conjuntos de datos utilizados para entrenar a los chatbots determinan directamente su capacidad para proporcionar respuestas precisas y equilibradas, lo cual es esencial para evitar sesgos y mantener la integridad de la información.