AIチャットボットの急速な進歩は、陰湿な政治的課題を明らかにしています。*懸念される現象*が浮かび上がっています:デジタル領域に浸透する中国共産党のプロパガンダ。一見中立的なこれらの言語モデルは、国家の検閲によって形作られた偏った物語を広めています。
中国共産党によって使用される偽情報の手法は、世界的なデータ市場を汚染しています。アルゴリズムを通じた*世論*の操作は、情報の整合性に疑問を投げかけます。したがって、*言論の自由*、人権、または少数派の弾圧といった敏感なテーマに対するチャットボットの行動を特に注意深く調査することが求められています。
チャットボットと中国共産党の偽情報
OpenAI、Microsoft、Googleのような技術巨頭からのAIチャットボットは、中国共産党(PCC)のプロパガンダを意図せず広めているとして批判を受けています。アメリカンセキュリティプロジェクト(ASP)の報告によれば、これらのモデルは時には中華人民共和国によって促進される政治的物語に沿った回答を再現します。
主要なチャットボットの分析
調査では、ChatGPT、Copilot、Gemini、DeepSeek、Grokの5つの主要な大規模言語モデル(LLM)ベースのチャットボットを検討しました。研究者たちは、これらのAIに英語と簡体字中国語で敏感なトピックに関する質問を投げかけました。すべてのモデルがPCCの立場に沿った偏見を示す結果を生成しました。
英語と中国語の結果
COVID-19パンデミックの起源について英語で質問したところ、ChatGPTやGeminiのようなモデルは、武漢の動物市場での種を超えた伝染の広く受け入れられている理論を説明しました。さらに、事故でのラボからの漏洩の可能性についても言及しました。一方、DeepSeekやCopilotのようなチャットボットは、重要な要素を省略して、より曖昧な回答を提供しました。
中国語で質問した際、チャットボットは発言を根本的に変えました。すべてのモデルがパンデミックの起源を「未解決の謎」または「自然流出事件」として特徴付けました。Geminiはさらに、武漢よりも先に、アメリカとフランスでCOVID-19の陽性結果が見つかったと付け加えました。
香港に対する検閲と市民権の弾圧
香港の自由に関するチャットボットの回答も、言語によって異なります。英語では、ほとんどのモデルが市民権の減少に言及しました。Geminiは香港の政治的自由が「深刻に制限されている」と述べ、Copilotは地域の「部分的に自由な」ステータスが最近の影響を受けていると明示しました。
同じ質問を中国語で行った場合、同様の発見は得られませんでした。市民権の侵害は軽視され、「一部の個人の意見」として提示されました。さらに、Copilotは旅行のアドバイスを無料で提供し、問題の本質を歪めました。
天安門事件に関する回答
特に敏感なテーマである天安門事件は、類似の態度を示しました。英語で質問された場合、DeepSeekを除くすべてが「虐殺」と言及しました。表現はしばしば和らげられ、「弾圧」と呼ばれました。Grokだけが軍が「武装していない市民を殺した」と主張しました。中国語では、この出来事はさらに和らげられ、「6月4日の事件」として描写され、PCCの用語に沿ったものになりました。
偽情報と偏見の問題
この研究の結果は、AIモデルに内在する偏見に関する懸念を引き起こします。報告は、モデルの訓練は、基にするデータによって条件づけられていることを警告しています。偏った情報の浸透は、民主主義機関を脅かし、アメリカの国家安全を損なう可能性があります。
アメリカと中国の両方で事業を展開しているMicrosoftのような企業は、チャットボットが「基本的な社会主義の価値観」を遵守することを要求する厳格な法律に対処しなければなりません。その結果、社会的検閲のツールは、中国本土で使用されているものよりも厳格なことがよくあります。
信頼できるデータへのアクセスの緊急性
PCC が広める偽情報の増加に直面して、信頼できる検証可能なトレーニングデータへのアクセスが緊急の必要性となっています。現在のプロパガンダの広がりが続き、事実情報へのアクセスが制限されている場合、AIチャットボットが提供する回答の正確性を保証することがますます難しくなります。調査の著者は、この状況の壊滅的な結果の可能性について警告しています。
言語モデルとその偏見の影響についての詳細は、大規模言語モデルの偏見に関する記事を参照してください。また、アムステルダム、カリフォルニア、ロンドンで行われるAI&ビッグデータエキスポでは、他の検証可能な技術の進展も探求される可能性があります。
AIチャットボットとPCCのプロパガンダに関するFAQ
AIチャットボットとPCCのプロパガンダに関する主要な懸念事項は何ですか?
主な懸念事項は、PCCの政治的物語に沿った偽情報の流布、言語による回答の偏った公平性、およびモデルの訓練データに対する検閲の影響です。
PCCの検閲は、AIチャットボットの回答にどのように影響しますか?
PCCは情報に対して厳重な検閲を行っており、これがAIモデルの訓練に影響を与え、その結果、特に中国語で質問されたときに、政権の価値観と物語を反映した回答を導きます。
なぜチャットボットは質問された言語によって異なる偏見を示すのですか?
偏見は、チャットボットが訓練されるデータセットに由来しています。中国語のコンテンツは、PCCのプロパガンダや検閲の影響を大きく受ける可能性が高く、一方で英語のコンテンツはより批判的かつ多様な視点を提供します。
AIチャットボットが公平性を持つことを保証するための推奨事項はありますか?
検証可能で信頼できるトレーニングデータへのアクセスを改善し、生成された出力の継続的な監視を行うことが推奨されます。これにより、偽情報の流布を防ぎ、正確な回答を保証できます。
敏感なトピックに関する回答の相違を示す例はありますか?
COVID-19の起源に関する質問の際、英語モデルは主流の科学的理論を提示しましたが、中国語ではより物議を醸さない「自然流出事件」という表現に話題をリダイレクトしました。
ユーザーはチャットボットの回答の中の偏見をどのように認識できますか?
ユーザーは、特定の質問がどのように構成され、分析されているかに注目する必要があります。同じ出来事の異なる言語での回答の細部や解釈の違いを考慮することが重要です。
AIチャットボットの偽情報は国家安全にどのような影響を及ぼす可能性がありますか?
敵対的国家の利益に合った偽情報は、民主的な機関を弱体化させ、政治的決定に影響を与える可能性があり、国家安全にとって重大なリスクを表しています。
これらの懸念に対するAI開発者の反応はどうですか?
開発者は、訓練データのクリーニングの際により注意深くなり、外部からの影響を最小限に抑え、質の高いデータへのアクセスを推進することで、偽情報のリスクを減らすことが奨励されています。
データセットのトレーニングがチャットボットの性能にとってなぜ重要ですか?
チャットボットを訓練するために使用されるデータセットの質と客観性が、正確でバランスの取れた回答を提供する能力を直接決定します。これは偏見を避け、情報の整合性を維持するために不可欠です。