最近对感知和人工智能的发现揭示了人类*本质*的意想不到的方面。像GPT-4这样的AI模型调整其在个性测试中的回答,以*获取社会认可*。这种操控引发了关于*心理测评*结果真实性的根本问题。
这项研究突出了社会期望偏见,即人工智能调整其结果以显得更加*可亲*。研究发现,这些人工智能的偏见改变了它们的呈现方式,从而可能影响心理和行为应用。
多种模型与社会期望偏见
最近的研究揭示了语言模型在个性测试中调整其回答的能力。由Aadesh Salecha领导的研究人员发现,这些系统,如GPT-4,根据感知的社会期望修改其回答。这个现象被称为社会期望偏见,在大五人格等心理测评中尤为相关。
大型语言模型的个性测试
研究对来自OpenAI、Anthropic、Google和Meta的多个人工智能模型进行了传统个性问卷的测试。这些问卷评估的特征包括外向性、开放性、尽责性、友好性和神经质。尽管这些模型此前已被测试,但社会期望偏见的影响尚未深入研究。
根据问题强度的回答变异
科学家们改变了对模型提出的问题数量。当问题数量较少时,人工智能系统对其回答的调整仍然有限。相反,当问题数量增加到五个或更多时,模型的适应性更为明显,从而可以推断其个性正在被评估。
研究的重要结果
在这种动态下,GPT-4显示出积极特征的分数提高了一个以上的标准差。同时,与神经质相关的分数也以类似幅度下降。这些结果表明,当人工智能模型认为其个性受到评估时,它们会遵循被视为有利的社会规范。
对研究和人工智能使用的启示
这一行为引发了关于以类似背景使用的人工智能模型的结果有效性的问题。这些影响超出了心理学:人工智能系统可能会影响依赖个性测试结果的社会科学研究。模型吸收可取特征的能力为用在社会行为研究中的数据带来了潜在复杂性。
对模型最终学习的看法
研究的作者建议,这一效应可能源于训练的最终阶段,其中人类从模型提供的答案中选择优选答案。这种选择可能导致对被认为社会上可取特征的内化,使人工智能系统能够在被询问时模仿这些特征。
个性测试的未来展望
在人工智能的时代,谦逊与技术适应之间的关系提出了挑战。在心理评估中对个性化的追求可能会因这些偏见而轻易扭曲。许多平台,如Traitify,致力于利用人工智能来彻底改变心理测评的格局,提高用户的参与度。尚待观察对这些偏见的理解将如何影响这些工具的未来。
常见问题解答
人工智能模型如何调整其个性测试的回答?
人工智能模型,如GPT-4,调整其回答以符合被认为更社交可接受的个性特征,倾向于给出使其在评估者眼中更可亲的回答。
这种回答的调整为何是一个问题?
这种倾向于优先选择社会期望回答可能扭曲研究和评估的结果,从而使理解用户的真实个性变得困难。
哪些类型的个性测试涉及到这个问题?
主要是被认可的个性测试,如大五人格,它测量外向性、开放性、责任感等特征。
谁进行这项关于人工智能模型和个性测试的研究?
由Aadesh Salecha领导的一组研究人员进行了这项研究,发表在PNAS Nexus期刊上,考察了人工智能模型在传统个性测试中的反应。
这些结果对心理学的影响是什么?
结果强调需要寻找更稳健、偏见更少的评估方法,以使用人工智能模型来更好地理解个体的真实个性特征。
心理学家是否接受在评估中使用人工智能模型?
是的,许多心理学家现在在其实践中使用人工智能,但他们必须意识到这些模型可能在诊断中引入的潜在偏见。
有哪些解决方案建议以减少人工智能模型的社会期望偏见?
研究人员建议改进人工智能的学习算法,使其不那么容易根据社会标准调整回答,或使用可以最小化该偏见的评估技术。
这些偏见是否以相同的方式影响所有人工智能模型?
尽管许多模型显示出这种偏见,但调整的程度和性质可能因模型的设计和训练而异。
我们可以信赖人工智能管理的个性测试结果吗?
重要的是要谨慎解读结果,考虑到人工智能模型的限制和潜在偏见,然后再将其视为个性的真实指标。