近期的人工智能进展引发了关于机器认知发展的前所未有的问题。一项最新研究的结果令人担忧:*人工智能模型显示出类似于人类的认知衰退*。这一现象的影响揭示了关键问题,特别是在医疗诊断的可靠性方面。*这种衰退揭示了系统内的明确局限性*,引发了关于其有效性和安全性深刻的问题。*研究人员注意到在基础认知任务中的表现不佳*,在人类衰老与数字故障之间建立了令人担忧的联系。
观察到人工智能模型的认知衰退
人工智能技术,包括大型语言模型(LLM)和聊天机器人,随着时间的推移显示出认知退化的迹象。一项最近发表在BMJ的研究突出了与人类衰老的惊人类比。
通过认知测试进行评估
研究人员评估了多种LLM,如ChatGPT版本4和4o,以及Anthropic的Claude 3.5 “Sonnet”和Alphabet的Gemini 1.0,使用蒙特利尔认知评估(MoCA)。该测试最初旨在识别老年人的认知障碍,这里被应用于人工智能。
结果显示这些模型的表现不尽如人意。因此,只有ChatGPT 4o通过测试,得分为26分(满分30分)。其他模型,包括ChatGPT 4和Claude,得分为25分,而Gemini 1.0仅获得16分的低分。
暴露出的认知弱点
研究强调了聊天机器人在视觉空间能力和执行功能等关键领域的明显缺陷。模型在特定测试中失败,例如数字和字母的描绘以及在时钟上识别时间。Gemini 1.0在延迟回忆任务中的表现尤为乏力,该任务要求其记住一串五个词。
对医疗诊断的影响
这一发现质疑了人工智能模型在医学中的可靠性。用户被聊天机器人简化医学术语的能力所吸引,可能会被误导。研究表明,尽管这些工具的普及不断增加,但它们无法替代在医学诊断中的人类专业知识。
与人类疾病的比较
在这些人工智能模型中观察到的认知衰退与患有后皮层萎缩、阿尔茨海默病一种变种的患者的衰退类似。研究人员对这些智能工具在需要高水平认知精确度的任务中的可行性提出了令人担忧的影响。
对医学职业的影响
这些结果暗示,神经科医生在不久的将来不会被LLM取代。然而,LLM可能会被引入来处理“虚拟患者”。人工智能能够竞争的地方是协助医生分析复杂数据。
走向人机合作
认识到人工智能的认知局限性为人类与机器之间的深度合作开辟了新途径。通过将人类纳入决策过程,人工智能的能力可以与人类的批判性思维和直觉相结合,从而优化结果。
对人类认知的广泛影响
一项关于学生使用人工智能的最新研究发现了一个令人担忧的趋势:那些过度依赖这些技术的学生在批判性思维方面的表现较差。这样的依赖可能会长期影响他们的认知能力。
这一动态引发了关于人工智能对人类智力影响的伦理和技术问题。协助与依赖之间的界限变得模糊,而人类在数字时代的认知表现的担忧则愈演愈烈。
关于人工智能模型认知衰退的常见问题
人工智能的认知衰退与人类的衰退有什么联系?
研究表明,大型语言模型等人工智能模型表现出与老年人相似的认知衰退迹象,特别是在记忆、注意力和执行功能方面。
在认知衰退的研究中评估了哪些人工智能模型?
这些研究评估了如ChatGPT(版本4和4o)、Claude 3.5和Gemini(版本1和1.5)等模型,使用标准化的认知测试。
研究人员如何测量人工智能模型的认知能力?
研究人员使用了MoCA(蒙特利尔认知评估)这一最初设计用于检测人类认知障碍的测试,来评估人工智能模型的技能。
人工智能模型显示出认知衰退的迹象为什么令人担忧?
人工智能模型认知能力的下降引发了其在关键应用(例如医疗)中的可靠性问题,用户可能依赖这些工具进行诊断。
人工智能模型的认知测试结果可与人类得分等量比较吗?
人工智能模型的结果不能直接与人类的结果进行比较,但得分为26分(满分30分)被认为是人类没有认知衰退的可接受分数,只有ChatGPT 4o达到了这一分数。
人工智能模型在执行哪些特定任务时表现不佳?
人工智能模型在视觉空间和执行功能等任务,以及记忆测试中表现有限,例如延迟回忆需要记住一串单词。
这些研究的结果可能如何影响人工智能的使用?
结果可能促使用户和专业人士重新评估对人工智能技术的过度依赖,特别是对需要批判性推理或医疗诊断的任务。
人工智能模型的“年龄”对其性能可能有什么潜在影响?
随着人工智能模型在使用和更新上的老化,其认知衰退可能影响其性能,导致错误增加和用户信任度下降。