最近的语言模型发展表明,历史研究实践正在经历一场根本性的变革。我们提出一个基本问题:谁控制这些影响我们对过去理解的工具?私人巨头占据主导地位,他们的利益常常与像透明度和可获取性这样的基本学术价值相悖。迫切需要建立公共语言模型,促使我们重新思考知识产权,以促进一个真正包容和合作的学术文化。
不断演变的语言模型格局
强大的语言模型(LLMs)正在从根本上改变历史研究。这一变化得益于它们处理、注释和生成文本的能力,这种能力重新定义了传统的学术过程。
技术的所有权与控制
谁拥有这些工具的问题在讨论中变得至关重要。最强大的LLMs通常由私人企业开发。它们的主要目标仍然是盈利,这引发了关于这些企业如何影响我们对过去的理解的疑问。
历史研究的价值观
历史研究的基本价值观包括透明度、可获取性和文化多样性。这些原则并不总是与开发LLMs的企业的目标一致。因此,知识产权对这些工具的控制变得问题重重,威胁到学术讨论的完整性。
商业LLMs的相关问题
在这一问题中,有两个主要问题:不透明性和不稳定性。不透明性源于对训练数据的访问不足以及这些系统中可能存在的偏见。至于不稳定性,LLMs的访问条件和能力可以在没有预警的情况下发生变化,直接影响研究人员的使用。
研究领域的不平等现象
公平性问题也引发了担忧。许多研究人员,尤其是在资源较少的环境中工作的人,被排除在这些技术所提供的进步之外。这进一步加剧了学术界内部的差距。
迈向公共语言模型
开发公共和开放获取的人文学科LLMs的必要性显而易见。这些模型应基于历史根源的多语言语料库,提取自公共图书馆、博物馆和档案馆。这样的项目需要严谨的学术标准和公共资金的支持。
人文学科的责任
人文学科必须抓住机会,创造一种兼具文化意识和学术严谨性的人工智能。这种责任不仅包括伦理地使用LLMs,还包括其共同所有权。
基础设施的挑战
构建所需的基础设施是一个挑战。可以将其与国家档案管理或课程程序的管理进行类比,这些不应交给私人实体。这样的做法主张一个共同的、对所有人都可接触的行动领域。
对公共知识的影响
LLMs的开发和控制方式可能决定了公共知识的未来。关于这些技术如何塑造我们对世界理解的开放对话的需求尤其迫切。在这个数字时代,保持学术完整性和人类价值观仍然至关重要。
修改旨在保护创意产业的倡议的项目展示了创新与文化保护之间的紧张关系。推动关注获取和合作的解决方案,确保历史叙事中的声音多样性,变得至关重要。
围绕如Meta等公司的伦理问题,其中批评其使用来自可疑来源的数据,质疑了研究人员对他们学科及其价值观的团结。随着人工智能在我们生活中越来越多地融入,建立稳固的伦理框架的紧迫性不断加大。
迈向一个语言模型既可获取又公平的未来的每一步,都是朝着更包容的历史对话的进展,使每个人都能分享和完善对我们过去的集体理解。
常见问题解答
为什么公共所有权的语言模型很重要?
公共所有权的语言模型确保所有研究人员的可获取性,促进透明度,并允许在社会科学领域中进行伦理和负责任的使用。
与语言模型的私有化相关的风险有哪些?
私有化可能导致不透明性的问题、访问不稳定性以及研究人员(特别是来自资源不足背景的研究人员)获得工具的不平等。
如何确保语言模型的透明性?
为了确保透明性,必须确保训练数据可供访问,并识别和纠正潜在的偏见,使研究人员能够批判性地分析结果。
公共语言模型应使用哪种类型的数据进行训练?
模型应在历史性、多语言且由图书馆、博物馆和档案提供的语料库上进行训练,以丰富文化和学术的多样性。
公共资金对语言模型的优势是什么?
公共资金可确保模型的独立性,促进研究人员之间的合作,确保学术价值观(如可重复性和可获取性)得到尊重。
研究人员如何参与公共语言模型的创建?
研究人员可以参与开发倡议,贡献标准和协议的制定,鼓励公共资金支持,同时分享关于使用LLM的知识。
私有化的AI工具可能对未来的历史研究产生什么影响?
私有化可能导致获取解释工具时出现不平等,影响研究,并限制历史领域中多样且包容的知识生产。
学术界应在公共LLMs的发展中发挥什么作用?
学术界应积极监督负责任的发展,确保研究的价值观得到尊重,并推动在模型使用中的道德。