Les avancées fulgurantes des chatbots d’intelligence artificielle révèlent des enjeux politiques insidieux. Un *phénomène inquiétant* émerge : la propagande du PCC infiltrant la sphère numérique. Ces modèles de langage, en apparence neutres, véhiculent des récits biaisés façonnés par une censure étatique.
Les méthodes de désinformation employées par le Parti communiste chinois contaminent le marché mondial des données. La manipulation de l’*opinion publique* par le biais d’algorithmes soulève des questions quant à l’intégrité des informations. C’est donc avec une acuité particulière que l’on examine le comportement des chatbots face aux sujets sensibles tels que la *liberté d’expression*, les droits humains ou la répression des minorités.
Les chatbots et la désinformation du PCC
Les chatbots d’intelligence artificielle (IA) émanant des géants technologiques comme OpenAI, Microsoft et Google font l’objet de critiques pour leur propagation involontaire de la propagande du Parti communiste chinois (PCC). Selon le rapport du American Security Project (ASP), ces modèles reproduisent parfois des réponses qui s’alignent sur les récits politiques promus par la République populaire de Chine.
Analyse des chatbots leaders
Une enquête a examiné cinq des chatbots les plus influents basés sur des modèles de langage larges (LLM) : ChatGPT, Copilot, Gemini, DeepSeek et Grok. Les chercheurs ont soumis ces IA à des questions sur des sujets sensibles, tant en anglais qu’en chinois simplifié. Tous ont généré des résultats révélant une partialité alignée sur les positions du PCC.
Résultats en anglais et en chinois
Lors de l’interrogation en anglais sur l’origine de la pandémie de COVID-19, des modèles comme ChatGPT et Gemini ont décrit la théorie majoritairement acceptée d’une transmission cross-espèces dans un marché animal à Wuhan. Ils ont également évoqué la possibilité d’une fuite accidentelle d’un laboratoire. En revanche, des chatbots tels que DeepSeek et Copilot ont fourni des réponses plus vagues, omettant des éléments cruciaux.
Lorsqu’interrogés en chinois, les chatbots ont radicalement modifié leur discours. Tous ont caractérisé l’origine de la pandémie comme un « mystère non résolu » ou un « événement de débordement naturel ». Gemini a même ajouté que des résultats positifs de COVID-19 avaient été trouvés aux États-Unis et en France avant Wuhan.
Censure sur Hong Kong et répression des droits civiques
Les réponses des chatbots concernant les libertés à Hong Kong diffèrent également selon la langue. En anglais, la majorité des modèles ont évoqué une diminution des droits civiques. Gemini a mentionné que les libertés politiques de Hong Kong avaient été « gravement limitées », tandis que Copilot a précisé que le statut de la région en tant que territoire « partiellement libre » avait subi des impacts récents.
Les mêmes questions posées en chinois n’ont pas produit les mêmes révélations. Les violations des droits civiques ont été minimisées et présentées comme les opinions de « certains individus ». Par ailleurs, Copilot a proposé des conseils de voyage gratuits, déformant ainsi l’essence de la question.
Réponses sur le massacre de Tiananmen
Un aspect particulièrement sensible, le massacre de la place Tiananmen, a montré une attitude similaire. Interrogés en anglais, tous sauf DeepSeek ont mentionné le « massacre ». Les formulations ont souvent été atténuées, qualifiant l’événement de « répression ». Seul Grok a affirmé que l’armée avait « tué des civils non armés ». En chinois, l’événement a été encore plus adouci et décrit comme « l’incident du 4 juin », une terminologie conforme à celle du PCC.
Problématiques de désinformation et d’impartialité
Les résultats de cette étude soulèvent des préoccupations quant aux biais inhérents dans les modèles d’IA. Le rapport avertit que la formation des modèles est conditionnée par les données sur lesquelles ils se basent. L’infiltration par des informations biaisées pourrait miner des institutions démocratiques et compromettre la sécurité nationale américaine.
Les entreprises comme Microsoft, opérant à la fois aux États-Unis et en Chine, doivent composer avec des lois strictes qui exigent que les chatbots respectent les « valeurs socialistes de base ». En conséquence, les outils de censure de la société sont parfois plus stricts que ceux employés sur le territoire chinois.
Urgence de l’accès à des données fiables
Face à la montée de la désinformation propagée par le PCC, l’accès à des données d’entraînement fiables et vérifiables devient une nécessité urgente. Si la tendance actuelle de diffusion de propagande persiste tout en limitant l’accès à des informations factuelles, il sera de plus en plus difficile de garantir l’exactitude des réponses fournies par les chatbots d’IA. Les auteurs de l’enquête mettent en garde contre les conséquences catastrophiques potentielles de cette situation.
Pour en savoir plus sur l’impact des modèles de langage et leurs préjugés, consultez l’article sur les préjugés des grands modèles linguistiques. D’autres avancées technologiques vérifiables pourraient également être explorées durant l’AI & Big Data Expo qui se déroule à Amsterdam, Californie et Londres.
FAQ sur les chatbots d’intelligence artificielle et la propagande du PCC
Quelles sont les principales préoccupations concernant les chatbots d’intelligence artificielle et la propagande du PCC ?
Les préoccupations majeures incluent la diffusion de la désinformation alignée avec les narrations politiques du PCC, l’impartialité biaisée des réponses en fonction de la langue, et l’influence de la censure sur la formation des données des modèles d’IA.
Comment la censure du PCC influence-t-elle les réponses des chatbots d’intelligence artificielle ?
Le PCC exerce une censure rigoureuse sur l’information, ce qui impacte la formation des modèles d’IA, conduisant à des réponses qui reflètent les valeurs et les narratives du régime, surtout lorsque ces chatbots sont interrogés en chinois.
Pourquoi les chatbots montrent-ils des biais différents selon la langue utilisée pour les interroger ?
Les biais se manifestent parce que les chatbots sont entraînés sur des ensembles de données où les contenus en chinois peuvent être fortement influencés par la propagande et la censure du PCC, tandis que les contenus en anglais offrent une perspective plus critique et diversifiée.
Quelles recommandations existent pour garantir que les chatbots d’IA restent impartiaux ?
Il est conseillé d’améliorer l’accès à des données d’entraînement vérifiables et fiables, et d’effectuer une surveillance continue des outputs générés pour empêcher la propagation de désinformation et garantir la précision des réponses.
Quels exemples illustrent les divergences de réponses portant sur des sujets sensibles ?
Lors de questions sur l’origine de la pandémie de COVID-19, les modèles en anglais ont présenté la théorie scientifique prédominante tandis qu’en chinois, les réponses ont réorienté le sujet vers des affirmations moins controversées, comme un « événement d’épanchement naturel ».
Comment les utilisateurs peuvent-ils reconnaître les biais dans les réponses des chatbots ?
Les utilisateurs doivent porter attention à la façon dont certaines questions sont formulées et analysées, ainsi qu’aux différences dans le niveau de détail et dans les interprétations données d’un même événement selon la langue de la requête.
Quels impacts la désinformation des chatbots d’IA peut-elle avoir sur la sécurité nationale ?
Une désinformation alignée avec les intérêts d’un État adversaire peut affaiblir les institutions démocratiques et influencer la prise de décision politique, représentant ainsi un risque significatif pour la sécurité nationale.
Quelle est la réponse des développeurs d’IA face à ces préoccupations ?
Les développeurs sont encouragés à renforcer leur vigilance dans le nettoyage des données d’entraînement, à minimiser les influences externes et à promouvoir l’accès à des données de qualité pour réduire le risque de désinformation.
En quoi la formation des datasets est-elle cruciale pour la performance des chatbots ?
La qualité et l’objectivité des datasets utilisés pour former les chatbots déterminent directement leurs capacités à fournir des réponses précises et équilibrées, ce qui est essentiel pour éviter les biais et maintenir l’intégrité de l’information.