人工智能聊天机器人,如 ChatGPT 和 Copilot,*造成信息扭曲*。BBC 的分析揭示了它们对新闻的回答中存在 *显著问题* 的虚假信息。这些自动化工具虽然承诺简化获取信息的过程,但往往会产生有偏见和误导性的内容。*事实不准确性* 使公众对这些新兴技术的信任受到质疑。报告强调了错误的严重程度,有时甚至涉及关于近期事件和政治人物的重要信息。
BBC 研究的警示性结果
一项由 BBC 进行的研究表明,人工智能(AI)助手在新闻方面产生了错误和误导性的回答。超过一半由 ChatGPT、Copilot、Gemini 和 Perplexity 等工具生成的回答都存在“显著问题”。专题报道这些问题的 BBC 记者以其自身的文章为依据来评估这些回答。
发现的错误性质
发现的错误包括事实不正确的陈述。例如,这些工具将 Rishi Sunak 和 Nicola Sturgeon 指定为仍在任的领导人,这是不准确的。关于电子烟的错误建议,以及对近年来的观点和事实的混淆,也属于观察到的扭曲。
具体的不准确示例
研究人员使用 BBC 的文章作为参考询问 AI 100 个问题。大约 20% 的回答包含与数字、日期或声明相关的事实错误。近 13% 被归因于 BBC 的引用要么被篡改,要么在提到的文章中不存在。
Gemini 对于有关新生儿护士 Lucy Letby 有罪的问题的回答未能阐明其谋杀判决的背景。微软的 Copilot 对受害者 Gisèle Pelicot 案件的信息错误,歪曲了她的叙述。ChatGPT 再次提到了 Ismail Haniyeh 作为哈马斯的活跃成员,几个月后他在伊朗去世。
BBC 对这些发现的反应
BBC 信息总监 Déborah Turness 对这些结果表示担忧。她警告说,这些 AI 工具“玩火”,威胁到公众对事实的 脆弱信任。在一篇博客文章中,她质疑 AI 在处理时事信息时是否能不扭曲事实。
对社会的风险
这项研究的发现强调了对信息可靠性以及 民主 完整性的风险。AI 生成的虚假信息引发了严重的担忧。通常不完善的算法可能会扭曲敏感信息,导致潜在的负面后果。
呼吁合作
Turness 还建议与 AI 公司合作,以提高根据新闻内容提供的回答的准确性。共同合作可能使更好地控制信息的使用,并减少错误成为可能。
全球 AI 虚假信息的背景
这一现象并不限于 BBC。在许多信息平台上,类似的担忧浮现出来。最近的一些例子显示 AI 助手被用来传播错误摘要。例如,苹果 在遇到内容不准确的问题后暂停了其 BBC 品牌新闻提醒。
这些技术带来的虚假信息的泛滥,使公众对信息的信任基础动摇。对 未经监管的 AI 所引发的危险 需要特别关注,以保护社会结构。
值得关注的令人担忧的趋势
全球趋势显示对 AI 在新闻生成中的过度依赖。公众必须保持警惕,并提升自身的批判性思维能力。识别 深度伪造内容 和通过可靠来源获取信息变得至关重要。
通过这项研究,BBC 提出一个紧迫的要求:用户必须要求对 AI 生成内容进行严格监管。对于在数字时代保证信息完整性所需的明确且透明的框架,需求越来越迫切。
有关 内容控制 的问题浮现。记者和媒体公司必须保留其在信息中的中心角色,以避免在生成技术的兴起下,新闻标准的削弱。
关于 AI 聊天机器人和虚假信息的常见问题解答
使用 AI 聊天机器人传递信息的主要风险是什么?
AI 聊天机器人可能引入 扭曲 和 事实不准确,从而影响提供的信息的 可靠性,尤其是在新闻和正在进行的事务方面。
BBC 如何评估 AI 聊天机器人的回答的可靠性?
BBC 进行了一项研究,测试了四种生成 AI 工具,以回答 100 个基于 BBC 文章的问题。这些回答由专业记者进行了评估,结果显示超过一半的回答存在“显著问题”。
在聊天机器人的回答中发现了哪些具体错误?
错误包括对政治人物的错误陈述,如声称 Rishi Sunak 和 Nicola Sturgeon 仍在任,以及对公共健康建议中关于电子烟的 不正确信息。
为什么 BBC 认为生成 AI 工具威胁到公众对事实的 信任?
这些工具可能生成误导性内容,导致普遍的 混淆 和对可靠新闻源的信任度下降,从而使信息管理变得更加困难。
媒体公司如何与 AI 开发者合作以提高信息的准确性?
媒体公司应与 AI 公司建立 伙伴关系,确保其内容的使用以促进对信息处理的 准确性 和 责任感。
用户可以信任 AI 聊天机器人提供的信息吗?
用户应保持 谨慎,并在对信息的准确性存疑时进行验证,因为这些工具的回答可能包含重大的 不准确性。
可以采取哪些措施来限制 AI 聊天机器人产生的虚假信息?
实施 监管、改善媒体 教育 和促进 数字素养 是提高用户对虚假信息风险的认知的重要步骤。