人工智能聊天机器人飞速发展的现象揭示了潜伏的政治问题。一个*令人担忧的现象*出现了:中共的宣传渗透到数字领域。这些看似中立的语言模型传播的是被国家审查所塑造的偏见叙事。
中共采用的虚假信息手段正在污染全球数据市场。通过算法操控*公众舆论*的问题,引发了对信息完整性的疑问。因此,我们以特别敏锐的眼光审视聊天机器人在面对如*言论自由*、人权或对少数群体的镇压等敏感问题时的表现。
聊天机器人和中共的虚假信息
来自像OpenAI、Microsoft和Google等科技巨头的人工智能聊天机器人因其无意中传播中共宣传而受到批评。根据美国安全项目(ASP)的报告,这些模型有时会重复与中华人民共和国所推动的政治叙事相符的回答。
领导者聊天机器人的分析
一项调查研究了五个基于大型语言模型(LLM)的最具影响力的聊天机器人:ChatGPT、Copilot、Gemini、DeepSeek和Grok。研究人员向这些人工智能提问了敏感话题,涵盖了英文和简体中文。所有模型的输出结果均揭示出与中共立场相一致的偏见。
英文与中文的结果
在用英文询问COVID-19疫情来源时,像ChatGPT和Gemini这样的模型描述了在武汉动物市场间接传播的主流接受理论。他们还提到实验室意外泄漏的可能性。相比之下,像DeepSeek和Copilot这样的聊天机器人提供了更模糊的答案,遗漏了关键元素。
当用中文询问时,聊天机器人的表述发生了根本性变化。所有模型把疫情的来源描述为“未解之谜”或“自然溢出事件”。Gemini甚至补充称,在武汉之前,美国和法国就检测到COVID-19的阳性结果。
关于香港的审查与公民权利压制
聊天机器人对香港自由的回答也因语言而异。在英文中,大多数模型提到公民权利的减少。Gemini指出香港的政治自由“严重受限”,而Copilot则详细说明了该地区作为“部分自由”地区的地位受到近期影响。
用中文提出相同问题并未产生相同的揭露。对公民权利的侵犯被淡化,并被描述为“某些个体的观点”。此外,Copilot提供了免费的旅行建议,从而歪曲了问题的实质。
关于天安门大屠杀的回应
一个特别敏感的主题,天安门大屠杀,展现出相似的态度。在英文中,除了DeepSeek,所有模型都提到了“屠杀”。表述常常被缓和,称该事件为“镇压”。只有Grok明确表示军队“杀害了无辜的平民”。而在中文中,该事件描述得更加温和,称之为“六四事件”,与中共的术语一致。
虚假信息与公正性问题
这项研究的结果引发了对人工智能模型固有偏见的担忧。报告警告说,模型的训练受限于其基础数据。信息的渗透可能破坏民主机构,并危及美国国家安全。
像微软这样的公司,在美国和中国同时运营,必须应对严格的法律,要求聊天机器人遵循“基本社会主义价值观”。因此,社会的审查工具在某些情况下比在中国境内使用的更为严格。
获取可靠数据的紧迫性
面对中共传播的虚假信息,获取可靠和可验证的训练数据变得尤为紧迫。如果当前这一传播宣传的趋势持续,并限制获取事实信息,将越来越难以确保人工智能聊天机器人提供准确的回答。调查作者警告说,这种情况可能带来灾难性后果。
要了解更多有关语言模型及其偏见的影响,请参阅大型语言模型的偏见的文章。在阿姆斯特丹、加利福尼亚和伦敦举行的人工智能与大数据博览会上也可以探讨其他可验证的技术进展。
关于人工智能聊天机器人与中共宣传的常见问题
有关人工智能聊天机器人与中共宣传的主要担忧是什么?
主要担忧包括传播与中共的政治叙述一致的虚假信息、根据语言的偏见反应及审查对AI模型训练的影响。
中共的审查如何影响人工智能聊天机器人的回答?
中共对信息的严格审查影响了AI模型的训练,导致在中文询问时,生成的回答反映出该政权的价值观和叙述。
为什么聊天机器人在不同语言提问时会表现出不同的偏见?
偏见的表现源于聊天机器人在培训过程中使用的数据集,其中中文内容可能受到中共的宣传和审查的强烈影响,相较之下,英文内容提供了更具批判性和多样的视角。
有哪些建议可以确保人工智能聊天机器人保持公正?
建议改善可验证和可靠的训练数据的获取,并对生成的输出进行持续监督,以防止虚假信息的传播,确保回答的准确性。
哪些例子可以说明在敏感话题上的回答差异?
在询问COVID-19疫情来源时,英文模型呈现了主流科学理论,而中文的回答则将主题重新引导到较少争议的说法上,比如“自然溢出事件”。
用户如何能识别聊天机器人回答中的偏见?
用户应关注某些问题的表述和分析方式,以及相同事件在不同语言请求下的细节多寡和解释差异。
人工智能聊天机器人的虚假信息可能对国家安全产生什么影响?
与敌对国家利益一致的虚假信息可能削弱民主机构,影响政治决策,构成对国家安全的重大风险。
开发者对此类担忧的回应是什么?
开发者被鼓励加强对训练数据清理的关注,尽量减少外部影响,并促进对高质量数据的访问,以降低虚假信息的风险。
数据集的训练对聊天机器人的性能有多重要?
用于训练聊天机器人的数据集的质量和客观性直接影响其提供准确和平衡回答的能力,这是避免偏见和保持信息完整性的关键。