感谢IT之家网友咩咩洋和Diixx提供的线索!
10月26日,IT之家报道,谷歌公司在10月24日发布了一篇博文,宣布推出SAIF风险评估工具。该工具旨在帮助人工智能开发者和组织评估其安全状况,识别潜在风险,并采取更有效的安全措施。
SAIF简介
谷歌去年推出了安全人工智能框架(SAIF),旨在帮助用户安全、负责任地部署AI模型。SAIF不仅分享了最佳实践,还为行业提供了一个安全设计的框架。为了进一步推广这一框架,谷歌与行业合作伙伴共同成立了安全人工智能联盟(CoSAI),以推动关键的AI安全措施。
SAIF风险评估工具
目前,谷歌已经在新网站SAIF.Google上提供了SAIF风险评估工具。该工具以问卷形式运行,用户回答相关问题后,系统会生成定制化的检查清单,指导他们确保AI系统的安全性。工具涵盖多个主题,包括:
– AI系统的训练、调优和评估
– 对模型和数据集的访问控制
– 防止攻击和对抗性输入
– 生成性AI的安全设计与编码框架
用户在回答问题后,工具会立即生成一份报告,突出AI系统面临的具体风险,如数据中毒、提示注入和模型源篡改等。每个风险都附有详细解释及建议的缓解措施。此外,用户还可以通过互动的SAIF风险地图了解在AI开发过程中如何引入与缓解不同的安全风险。
广告声明
文内含有的对外跳转链接(包括但不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考。IT之家所有文章均包含本声明。
本文来源: IT之家【阅读原文】© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...