在7月21日的消息中,全球结构化信息标准推动者——非盈利机构OASIS Open,宣布成立了一项名为CoSAI(Coalition for Secure AI)的安全联盟,旨在提升人工智能领域的安全性。该联盟由科技巨头如微软、英伟达、英特尔、谷歌、OpenAI、IBM、亚马逊和思科等共同发起。CoSAI的主要目标是与学术界联手,针对AI软件供应链安全、网络安全以及AI治理安全这三个关键领域展开工作。
据IT之家了解,CoSAI将与Frontier Model Forum、Partnership on AI、Open Source Security Foundation和ML Commons等专注于AI安全的组织合作,共同推进“负责任的AI”发展。其计划创建一个合作平台,分享关于AI安全设计的方法、标准化框架和工具。此外,CoSAI还将通过认证的“安全”AI系统,构建和部署运营环境,以减少模型篡改、模型盗用、恶意训练数据和提示词逃逸等问题,为商业市场提供安全的解决方案。
OASIS组织强调,确保安全需要“集体努力”,在数字化生态系统中,每个人都应遵循通用的安全标准,AI领域也不例外。请注意,本文中可能包含的外部链接,如超链接、二维码或口令等,旨在传递更多信息,节省用户筛选时间,但提供的内容仅供参考。IT之家的所有文章都会附带这一声明。
本文来源: IT之家【阅读原文】© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...