在科技界引发关注的连续人事变动中,OpenAI的安全主管Jan Leike近日宣布离职,紧随其后的是OpenAI的联合创始人兼首席科学家Ilya Sutskever的辞职。这两位关键人物的离开预示着OpenAI可能面临更多人员流失,并标志着去年由Ilya发起的反对CEO Sam Altman的行动最终未能成功。尽管Sam Altman对Jan的贡献表达了感谢,但他即将发布的文章将进一步阐明公司在产品安全方面的计划。
Jan在离职声明中指出,他当初加入OpenAI是因为该机构在大模型安全研究方面的领先地位,但现在他认为OpenAI对安全对齐的重视程度有所下降。他警告说,发展超越人类智能的AI具有极大的风险,必须注重安全,防止类似科幻电影中的灾难发生。Jan强调OpenAI应将更多资源投入到安全、鲁棒性、超级对齐等领域,确保成为一个以安全为核心目标的AGI公司。
对于Ilya和Jan的离职,外界担忧OpenAI的产品安全未来将如何保障。有传言称离职需签署协议,禁止对OpenAI的批评,这可能影响到Jan的权益。尽管OpenAI最近推出了创新的GPT-4模型,但内部变动可能为未来的产品发布带来不确定性。回顾2023年的“罢免Sam Altman”事件,Sam在微软的支持下重掌大权,现在Ilya等人辞职,Sam是否会继续推行激进路线,仍需观察。
Jan Leike在加入OpenAI前在谷歌DeepMind任职,专注于强化学习的原型设计。他在OpenAI期间参与了InstructGPT、ChatGPT和GPT-4的安全对齐工作,并因其在大模型安全领域的贡献而备受认可,曾入选《时代》杂志AI领域最具影响力人物之一。
本文来源: AIGC开放社区公众号【阅读原文】© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...