中国发布《生成式AI安全基本要求》,涵盖训练数据、生成内容等

全国网络安全标准化技术委员会最近在其官方网站上发布了《网络安全技术 生成式人工智能服务安全基本要求》征求意见稿,旨在强化生成式人工智能开发和应用的安全性。该标准分为三个部分:标准文本、意见汇总处理表和编制说明。标准文本详细规定了训练数据安全模型安全等方面的要求。公众可以在2024年7月22日前向国家网安标委秘书处提出反馈意见。

2023年7月,我国七部门发布了《生成式人工智能服务管理暂行办法》,为生成式AI的健康发展提供了法规支持。本次发布的标准进一步细化了《办法》中的安全规定,涵盖了网络安全、数据安全、个人信息保护等关键领域,针对服务过程中的安全风险提出具体要求。

在数据来源安全方面,服务提供者需进行数据采集前的安全评估,避免采集含有违法信息的数据。同时,训练数据需多样化,境外来源数据应与境内数据合理搭配,并确保数据来源可追溯。在数据内容安全上,服务提供者需过滤训练数据中的违法信息,尊重知识产权,尤其是版权,并获取个人信息使用许可。

模型安全方面,服务提供者应将生成内容安全性纳入模型训练评价指标,定期进行安全审计,提高生成内容的准确性、可靠性,拒绝回答可能诱导违法信息的问题,并对模型输入进行持续监测,防范恶意攻击。此外,模型更新和软硬件环境的安全管理也得到强调。

我国在生成式人工智能领域的安全管理法规连续出台,体现出对创新技术的重视和对应用安全的保障。

本文来源: ​ AIGC开放社区公众号【阅读原文】
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...