人工智能设备,如 ChatGPT、Gemini 和 Perplexity,逐渐成为优选的信息来源。这些技术的吸引力在于它们提供快速回答的能力。一项最近的研究,由公共广播和电视联盟进行,强调了它们传递的 信息脆弱性。结果揭示了 频繁的重大错误,从而损害了所提供内容的真实性。经验表明,在信息泛滥的世界中,人工智能助手的可靠性依然有待商榷,对当今数字时代构成了重大挑战。
人工智能助手提供信息的脆弱性
一项最近的研究,于10月22日发布,揭示了像ChatGPT、谷歌的Gemini、微软的Copilot和Perplexity等 智能助手 在提供可靠信息方面的不足。这项评估由欧洲公共广播和电视机构进行,揭示了这些人工智能提供的接近45%的回答中存在重大错误。过时的信息、重大错误和编造的细节常常出现在它们的回答中。
合作研究的结果
测试涉及来自18个欧洲国家的22家公共媒体,它们向人工智能助手提交了相同的新闻问题。在分析大约3000个回答时,有相当数量存在“重大问题”。这项研究由欧洲广播联盟(UER)协调,并受到BBC早期工作的启发,强调了一个令人担忧的趋势:五分之一的回答包含 重大错误。
不同助手的表现分析
根据研究, 谷歌的Gemini 以其特别糟糕的表现而脱颖而出。事实上,76% 的回答中存在显著问题,远远超过其竞争对手。调查人员将这种弱点归因于其 引用来源能力不足。这种不足质疑了通过这些技术传播的信息的完整性。
显著错误示例
在问及教皇时,ChatGPT、Copilot和Gemini都回答说弗朗西斯仍在位,而实际上他已经去世。这一缺乏准确性的问题,严重质疑了这些系统提供历史数据的可靠性。同样,在唐纳德·特朗普的就职典礼中发生的一起事件也揭示了可笑的错误,Gemini将一篇讽刺文章直译为真实事件。这一荒谬的回答声称埃隆·马斯克“右臂勃起”,显示出严重的判断能力缺失。
日益增长的使用人工智能获取信息
尽管如此,人工智能助手在 年轻一代 中却迅速崛起。路透社研究所的一项最近研究显示,约有15%的25岁以下的用户每周使用这些工具来获取新闻信息。尽管结果令人失望,但这一趋势强调了对 新技术 在信息消费中的日益依赖。
改进的前景
领域专家,如让·菲利普·德·滕德和皮特·阿切尔,警示迫切需要改革。人工智能助手需要进行重大的演变,以确保信息的质量并避免错误的传播。像UER和BBC这样的机构考虑制作一个 实用指南,以帮助开发人员和用户在复杂的人工智能生成信息中导航。
要深入了解该主题,请咨询以下关于 人工智能崛起 的文章,该文章讨论了这些技术对我们获取信息的影响。
常见问题解答
ChatGPT和Gemini等人工智能在新闻中常犯的主要错误是什么?
主要错误包括过时的信息、错误的回答和编造的细节。一项研究揭示,45%的人工智能回复至少存在一个重大问题。
为什么像Gemini这样的人工智能助手在新闻研究中获得最差的结果?
Gemini在76%的回答中显示出“重大问题”,主要是因为其在引用来源和信息真实性方面的表现不佳。
用户如何确保人工智能助手提供的信息的可靠性?
建议始终通过可靠和公认的来源核实人工智能获得的信息,而不是仅仅依靠它们。交叉验证信息是评估其真实性的关键。
年轻人是否经常使用人工智能助手来获取信息?如果是,统计数字是多少?
是的,根据一份报告,15%的25岁以下的年轻人每周使用这些助手来获取新闻摘要,这突显了尽管其可靠性存疑,仍然在不断增长的人气。
人工智能助手会混淆哪些类型的内容?
人工智能助手可能将事实信息与幽默专栏混淆,正如Gemini误解讽刺专栏并把它理解为事实的例子所示。
在信息研究中,如何安全使用人工智能助手?
将人工智能助手视为初步研究工具,但在将信息视为确凿之前始终要与可靠的人类来源进行核实。
关于人工智能助手的研究结果是否会影响它们在媒体中的使用?
当然,该研究突显了这些工具提供的信息脆弱性,使媒体对其在获取信息或传播新闻时的使用变得谨慎。