OpenAI与Anthropic承诺在发布新模型前交由美国政府进行安全评估:聚焦人工智能的安全协议与模型测试

感谢IT之家网友Diixx提供的线索!近日,人工智能领域的两家领军企业——OpenAIAnthropic,已与美国政府达成协议,在发布重要的人工智能模型之前,允许美国政府提前访问这些模型,以增强其安全性。图源:Pexels。

美国人工智能安全研究所(US AI Safety Institute)于周四宣布,这两家公司已与该研究所签订了谅解备忘录,承诺在模型正式发布前后向研究所提供访问权限。美国政府表示,此举有助于双方共同评估和缓解潜在的安全风险。该研究所还表示,将与英国的相关机构合作,提供安全改进方面的反馈意见。

OpenAI首席战略官Jason Kwon对此合作表示支持:“我们非常支持美国人工智能安全研究所的使命,并期待与其合作,共同制定人工智能模型的安全最佳实践和标准。我们相信,该研究所在确保美国在负责任开发人工智能方面扮演着关键角色。希望通过这次合作,能为全球提供一个可参考的框架。”

Anthropic公司也认为,建立有效的AI模型测试能力至关重要。该公司联合创始人兼政策负责人Jack Clark表示:“确保人工智能的安全可靠是发挥其积极影响的关键。通过这种测试和合作,可以更好地发现和减少人工智能带来的风险,推动负责任的发展。我们为能够参与这项重要工作感到自豪,并希望为人工智能的安全性和可信度设立新的标准。”

目前,联邦和州立法机构正在考虑如何对这项技术设置限制而不抑制创新。共享人工智能模型访问权是一项重要措施。IT之家注意到,周三,加利福尼亚州立法者通过了《前沿人工智能模型安全创新法案》(SB 1047),要求该州的人工智能公司在训练先进基础模型前采取特定的安全措施。虽然包括OpenAI和Anthropic在内的多家人工智能公司对此法案表示反对,认为这可能损害较小的开源开发者,但该法案已经过修改,仍需等待加州州长加文·纽瑟姆的签署。

此外,白宫也在积极推动主要公司就人工智能安全措施作出自愿承诺。几家领先的AI公司已非约束性地承诺,将在网络安全、歧视研究以及对人工智能生成内容进行水印标记等方面进行投资。美国人工智能安全研究所所长伊丽莎白·凯利表示,这些新的协议只是一个开端,但标志着我们在负责任地管理人工智能未来方面取得的重要里程碑。

本文来源: IT之家【阅读原文】
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...