OpenAI核心成员再度离职,通用人工智能的安全与未来引发Miles Brundage和Lilian Weng深度探讨

核心政策研究成员离职引发关注

近日,OpenAI的核心政策研究成员Rosie Campbell宣布离职,引发了行业内外的广泛关注。她在社交媒体平台上分享了自己的感受:“这是我加入OpenAI约3.5年后的一周,最初我负责API安全工作,随后转至政策研究部门,与Miles Brundage紧密合作,共同探讨人工智能治理、前沿政策问题及通用人工智能(AGI)的准备情况。”

离职背后的原因

Campbell表示,她一直致力于确保安全和有益的通用人工智能(AGI)的发展,但在Miles Brundage离职和AGI准备团队解散后,她认为在外部更能有效实现这一目标。她提到,尽管OpenAI支持了许多被忽视的政策研究,但最近的一些变化让她感到不安,特别是公司文化的变化。她希望OpenAI能够不忘初心,牢记使命,不仅关注技术本身,还要关注其对人类的积极影响。

Miles Brundage的贡献与离职

Miles Brundage于2018年加入OpenAI,担任研究科学家、政策研究负责人及高级AGI顾问等重要职务。他在OpenAI的工作重点是确保产品的安全和可靠性,领导了外部红队计划,测试AI系统的安全性和鲁棒性,并推动了“系统卡”报告的创建。他还参与了AI进展评估、AI安全监管、AI经济影响及有益AI应用的加速推进等方面的研究。Brundage离职时表示,他认为在非营利部门作为研究人员和倡导者将能产生更大的影响,拥有更多的自由发表能力。

Lilian Weng的贡献与离职

Lilian Weng于11月15日离开OpenAI,曾在公司担任安全研究副总裁及安全系统团队负责人。她在OpenAI工作的7年间,负责建立和领导安全系统团队,专注于解决人工智能安全的关键问题,如防止现有AI模型被不当利用。她的离职被行业观察者视为对OpenAI未来安全战略的一个潜在考验。Weng提到,在GPT-4发布后,她被指派重新评估OpenAI的安全系统,但最终选择离职,以便有更多时间撰写技术博客,并在公司外部更有效地推进AI安全与伦理的研究工作。

马斯克的新要求与OpenAI的未来

就在昨天(美东时间周五),特斯拉CEO埃隆·马斯克及其人工智能公司xAI的法律团队向美国联邦法院提交申请,请求法院发布初步禁令,以阻止OpenAI从非营利组织转变为完全以盈利为目的的企业。此外,他们还要求法院禁止OpenAI限制其投资者向包括xAI在内的竞争对手提供资金支持。这一举动引发了业界对OpenAI内部战略方向和安全文化建设的广泛讨论。

人工智能安全的重要性

随着OpenAI离职的人员越来越多,人工智能安全的警示也越来越明显。作为在科技发展中扮演重要角色的企业,特别是在人工智能这样的前沿领域,每一步的发展都需要格外谨慎。技术失控、伦理和道德问题、责任问题、经济和社会影响、政策和法规问题以及人类福祉和可持续发展,都是需要认真考虑的问题。只有确保人工智能的发展既安全又有益,才能真正实现技术进步对人类的积极贡献。

本文来源: iFeng科技【阅读原文】
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...