面对人工智能(IA)潜在的危险,美国政府希望现在采取行动并制定这项技术的监管。最近,“纽约时报”的科技专栏作家凯文·鲁斯(Kevin Roose)与“Platformer”的凯西·牛顿(Casey Newton)之间的讨论,突显了乔·拜登总统关于人工智能的新执行命令的一些方面。 该命令主要旨在对开发先进人工智能模型的企业施加披露要求,例如GPT-4或Claude 3。
对开发人工智能模型的企业的义务
根据总统签署的执行命令,开发超过某一阈值的人工智能模型的企业今后必须通知联邦政府有关这些模型的形成。它们还必须披露用于评估其能力和性能的安全测试。 目的是建立一个法律框架,以更好地控制人工智能的发展和使用,以避免滥用并防止潜在的风险。
有关人工智能的执行命令的局限性
重要的是要注意,目前的执行命令不适用于已经存在的人工智能模型,例如GPT-4或Claude 2。因此,行业中的企业将继续自由使用这些模型,而无需遵守美国政府新施加的要求。然而,当一个模型超过拜登政府设定的阈值时,这些义务将生效。
对人工智能潜在危险的担忧
政府希望干预人工智能的监管,出于对该技术潜在危险的日益担忧。 人工智能,尤其是先进模型,引发了许多伦理问题,例如个人数据保护的问题,或在使用自主系统时发生事故时的责任问题。
对这一新执行命令的批评
然而,这一执行命令的宣布并未受到行业所有参与者的热烈欢迎。一些人担心这些措施会抑制创新,并损害美国企业在全球人工智能市场上的竞争力。监管的支持者则认为,有必要建立一个法律框架,以确保所有公民的安全和基本权利得到尊重。
美国人工智能的未来
尽管面临批评,美国政府似乎决心在监管的道路上继续前进。这一新方向可能对美国乃至全球人工智能的发展和使用产生重大影响。 然而,必须密切关注这些监管的进展,以衡量其效果并相应调整未来的人工智能模型。
因此,美国政府对人工智能的干预标志着这一技术演变中的一个重要步骤。观察这一执行命令对未来人工智能模型发展的影响,以及其他政府对此关键问题立场的变化,将是很有趣的。