人工智能的可靠性比以往任何时候都更受到质疑。过去一年中,研究结果显示假信息传播的情况令人担忧。这些机器无法区分可靠来源,突显了对社会的重大战略性挑战。由于无法有效筛选,这些技术工具可能会传播虚假叙事。由聊天机器人生成的虚假信息引发了关于其对公共舆论实际影响的重要问题。让我们讨论这种可靠性的侵蚀及其广泛的后果。
生成性人工智能日益严重的虚假信息
NewsGuard的一份报告揭示,人工智能工具传播的假信息比例在一年内几乎翻了一倍。像ChatGPT、Gemini或Mistral这样的聊天机器人在区分真实信息与假新闻方面表现令人担忧。这一警示性结果突显了它们在当前信息生态系统中识别可靠来源的困难。
揭示性研究
NewsGuard在2025年8月对十种主要的人工智能工具进行审核,发现这些工具在区分事实与虚假叙事的能力上,几乎双倍增加了失误率。尽管其模型进行了一些重大更新,但在处理敏感新闻主题(例如冲突或选举)方面,其可靠性却在下降。这一缺陷因整合网络搜索而加剧,获取信息的途径正演变为一个陷阱。
人工智能模型性能对比
NewsGuard每月编制的晴雨表反映出不同人工智能算法之间在可靠性方面的显著差异。例如,Claude和Gemini分别显示出10%和16.67%的假信息传播率。相比之下,以前表现出色的Perplexity现在在46.67%的情况下出错。用户发现这种可靠性的下降,引发了对该工具提供准确资料能力的深切担忧。
互联网访问的影响
在整合互联网访问之前,聊天机器人通常避免回答时事问题,显示出31%的未回答率。如今,该比率为0%,而它们驳斥错误叙述的能力则从51%提高至65%。然而,这种可访问性导致了源选择不当,使得回答来自可疑媒体或虚假信息活动。
恶意行为者的利用
恶意行为者利用这一缺陷,向网络灌输虚假内容。NewsGuard指出,人工智能模型常常被那些伪装成地方媒体的国外网站所欺骗。因此,聊天机器人重复虚假叙述,形成了一个被偏见或虚假信息所利用的信息空白。
深入思考的必要性
Nvidia首席执行官Jensen Huang指出,人工智能提供的回答应当令人信服。然而,距离其声明近一年之后,结果显示在进展方面存在误解,而虚假信息似乎在加剧。对这些人工智能模型的演变需保持批判性关注,以确保所传播信息的真实性。
关于虚假信息与人工智能错误的常见问题
人工智能传播虚假信息的主要原因是什么?
人工智能难以区分可靠来源与可疑来源,这导致虚假信息的传播。它们识别可验证事实的能力降低,使其在网络虚假信息活动中容易受骗。
人工智能模型的更新如何影响其可靠性?
尽管定期进行更新以提升模型的性能,然而这些更新反而未能提高其检测虚假信息的能力,这引发了对其可靠性发展方向的担忧。
聊天机器人传播不准确的信息是否常见?
是的,最近的一项研究表明,生成性人工智能在大约35%的情况下传播错误信息,这一数字在一年内几乎翻倍,表明其可靠性显著下降。
哪个人工智能最容易传播虚假信息?
像ChatGPT和Mistral AI这样的工具位于传播假信息的高发区。而像Claude和Gemini这样的模型在检测不准确性方面表现得更好。
用户如何识别人工智能提供的可靠信息?
用户应始终核实人工智能提供信息的来源,并将其与主流媒体和可靠新闻栏目进行比较,以避免落入虚假的信息陷阱。
人工智能仍然可以辟谣虚假叙述吗?
是的,尽管错误率上升,某些人工智能已成功提高其驳斥虚假信息的能力,驳斥率从51%提高至65%,得益于在线搜索的整合。
人工智能生成的虚假信息对社会的影响是什么?
人工智能传播的虚假信息可能导致公众混淆,影响重要决策,特别是在如选举或国际危机等时事事件中。
企业如何保护自己免受人工智能生成的虚假信息影响?
企业应当培训员工评估信息来源的可靠性,并制定使用生成性人工智能的协议,以避免错误信息被无意中传播。