Le 26 octobre 2023,OpenAI 宣布成立一个新的单位,负责监控其人工智能模型。该团队名为 Preparedness,任务是预见使用人工智能可能引发的灾难性风险。通过监控生成性人工智能应用的安全性和稳健性,OpenAI 希望能够限制其工具的潜在风险。
关于 GPT-5 开发的传闻:走向通用人工智能?
尽管目前对 GPT-4 模型的关注度很高,但一则推特泄露消息暗示 OpenAI 正在 秘密开发 GPT-5。该新模型预计将在今年 12 月完成,目标是达到 通用人工智能 (AGI),能够在所有认知任务中与人脑竞争。这一传闻重新引发了关于人工智能未来发展的伦理和相关问题的讨论。
Anthropic 与 Google:不愿被拉开距离的竞争者
与此同时, 美国的超级初创公司 Anthropic 正在努力追赶 OpenAI 及其生成技术 ChatGPT。这家年轻公司最近成功通过 Google 的支持将融资翻倍,Google 承诺向该项目投资 20 亿美元。此次操作分为两个阶段进行:第一阶段为 5 亿美元的即时投资,随后在未来几个月内以可转换为股票的债券形式投资 15 亿美元。这一举措旨在加强 Anthropic 的竞争能力,并对抗 OpenAI 的领先地位。
检测欺诈:识别 ChatGPT 生成文本的工具
面对与其模型相关的伦理和技术挑战,OpenAI 也希望开发解决方案,以检测与 ChatGPT 使用相关的潜在欺诈,尤其是在教育领域。确实,当无法识别某一内容是否由人工智能生成时,验证由文本生成器产生的作业变得非常复杂。
为了解决这个问题,OpenAI 提出了一个新工具,用于识别 ChatGPT 编写的文本。通过这种方式,可以限制和预防欺诈及其它恶意使用的风险。然而,这些倡议强调了在人工智能技术发展之前思考伦理和社会后果的重要性。
OpenAI 的挑战:技术创新与社会责任之间的平衡
除了 OpenAI 开发的模型所提供的技术优势之外,还应认真考虑与这一进展相关的 伦理问题。人工智能研究引发了关于数据保护、算法偏见、决策自主权、以及对人工智能应用的监督和控制等重大问题。
从这个角度来看,像成立 Preparedness 团队或开发反欺诈装置等倡议,有助于更有效地监管技术发展及其应用。然而,公共、私营和民间社会之间的合作必须得到加强,以便在国际层面建立一个统一的监管框架,以应对未来人工智能的挑战。