鞭牛士报道,8月13日的最新消息显示,OpenAI 首席战略官Jason Kwon在接受《朝鲜日报》采访时透露,对于高级通用人工智能(AGI)可能出现的结果,目前无人能够准确预知。他强调了对人工智能进行监管的重要性,并表示OpenAI正致力于确保相关安全措施到位。
自2022年11月ChatGPT发布以来,人工智能领域的革命已悄然拉开序幕。紧接着,2023年5月,OpenAI再次推出了引人瞩目的生成式人工智能模型GPT-4,其功能强大到能够实时与人类互动,甚至能够感知情绪,仿佛科幻电影中的场景变成了现实。这使得公众对人工智能可能主导未来的担忧日益加剧。
作为OpenAI的首席战略官,Jason Kwon肩负着监督公司未来战略规划、处理与人工智能相关的伦理与法律问题的重要职责。他在采访中表示,AGI的关键技术可能比大多数人预期的更快实现。尽管许多人预测AGI将在三至五年内出现,但他认为这一时间点可能会提前到来。不过,他也指出,即使关键技术取得突破,也不意味着会立即推出全能的人工智能产品。此外,为了防止可能引发的社会动荡,OpenAI正在谨慎地控制AGI的发展步伐。
针对外界猜测GPT-5可能接近AGI的说法,Jason Kwon并未给出明确回应,只是表示会在合适的时候公布更多信息。他还强调了OpenAI关注的四大风险领域,包括极度说服力、网络安全威胁、支持核生化武器以及人工智能模型的自主性。
此外,Jason Kwon还澄清了有关OpenAI解散AI控制超级对齐团队的误解,称团队仍在持续进行相关工作。他表示,OpenAI将人工智能业务的利润再投资于安全研究,以确保长期可持续发展。
最后,Jason Kwon鼓励韩国的人工智能人才不仅要注重技术能力的提升,还要学会更好地利用人际关系网,展现出更加积极主动的态度。
本文来源: iFeng科技【阅读原文】