标签:OpenAI

OpenAI与Google巨头对线后,开发者如何快速加入战局?

1. 在OpenAI与Google的竞争背景下,业界专家讨论了在资源有限的情况下,如何有效地训练高性能动态模型。 2. GPT-4o的发布引发了关于商业化和免费策略的讨论,尤洋指出模型工程化和产品化的重要性,认为OpenAI的模型优化和用户体验良好。 3. 骆轶航和栾小凡认为OpenAI在多模态处理和端到端处理上取得突破,预示着行业和应用开发者将迎来新的机遇。 4. 薛彦泽和王兆洋提到,OpenAI的产品发布策略可能会影响市场反应,强调了AI产品化和多模态融合模型在用户体验和行业变革中的作用。 5. Google I/O大会上,Google展示了其在多模...

OpenAI封口协议原件曝光 又是一大波猛料

OpenAI,一家知名的AI研究机构,近期被曝出离职员工遭遇“霸王条款”,引发了行业内的广泛关注。一封前员工的离职邮件揭示了OpenAI的一项规定,即员工必须在60天内签署协议才能保留股权,否则将失去批评OpenAI的权利。这一条款的不公平性在于,一些员工为此放弃了大部分家庭资产。尽管OpenAI高层否认知情,但泄露的文件上有他们的签名,且在2月份发现问题后,仍有类似协议发出,甚至最后期限被压缩至7天。OpenAI在面对员工的反对和法律咨询需求时,采取了强硬的施压策略,甚至在员工寻求外部法律援助后,条款改为禁止股权变现...

OpenAI霸王条款原件曝光:强制员工闭嘴,Altman等高管签名

OpenAI,知名人工智能研究实验室,近日陷入争议,被曝出要求离职员工签署苛刻的保密协议,否则将剥夺其价值百万美元的股权。Vox网站发布了4份相关文件,揭示了OpenAI的高压策略,包括限时签署协议和威胁收回股权。尽管OpenAI CEO萨姆·阿尔特曼和首席战略官杰森·权否认知晓这一条款,但文件显示两人均有签名。这一事件对OpenAI的形象造成了打击,引发了对其是否能保持公众信任的质疑。 离职风波升级,OpenAI使用股权作为筹码,要求员工在短时间内签署严格保密和非贬低协议,甚至采取强硬措施应对员工的法律援助请求。劳动法...

未来有什么最值得期待?OpenAI CEO阿尔特曼:AI模型将变得更聪明

在2024年微软Build开发者大会上,美国西雅图迎来了OpenAI的首席执行官萨姆・阿尔特曼,他作为特邀嘉宾出席。阿尔特曼在讨论中强调,全球数百万开发者是引领变革的关键力量,尤其是在GPT-4及其后续版本的推出过程中。尽管这些模型API的问世时间不长,但它们已被迅速且实质性地应用于各种创新场景中。阿尔特曼指出,技术的快速采纳和开发者们的创造力令人惊叹,API的开放为新应用的诞生提供了无限可能。 对于未来展望,阿尔特曼表示,模型的智慧将持续提升,从GPT 3到GPT-3.5再到GPT-4.0,每个迭代都更加智能。随着模型的强化...

OpenAI“宫斗”迎来完结篇,AI安全派一败涂地

OpenAI最近发布了一款名为GPT-4o的全能大模型,展示了其在引领潮流方面的实力。然而,发布会后不久,首席科学家Ilya Sutskever和超级对齐团队负责人Jan Leike相继离职,引发了对公司内部管理的质疑。Jan Leike在社交媒体上透露,他与OpenAI高层在公司优先事项上有重大分歧,特别是关于AI安全的问题被忽视,而公司更注重推出吸引眼球的产品。这场人事动荡被认为是去年公司内部冲突的延续,CEO Sam Altman和总裁Greg Brockman重新掌权。据说,Ilya Sutskever的离职与他对AGI安全的关注与公司加速商业化之间的矛盾有关。OpenAI...

为确保训练数据公开透明,英国政府将加快制定人工智能相关规则

在数字化时代,保护内容创作者权益的议题日益重要。英国政府文化大臣露西·弗雷泽提出加速制定新的人工智能透明度法规,旨在确保AI公司在使用数据训练模型时能更加透明和公开。这一举措将要求AI企业详细披露其训练模型所采用的数据来源,并允许用户选择是否允许自己的数据被用于训练。同时,创作者也将因他们的作品被用于训练模型而获得相应的报酬。 欧盟也在根据其人工智能法案采取类似措施,规定开发者需提供详尽的训练内容概述,并遵循版权法。OpenAI作为响应,已与包括Reddit、Stack Overflow和《金融时报》在内的数据提...

OpenAI大模型上新,自然人机交互迈出重要步伐

OpenAI在其春季发布会上推出了创新的GPT-4o模型,引领人工智能大模型的新潮流。这款全新的“全能”模型能够处理文本、视觉和音频信息,大大提升了交互速度和用户体验。GPT-4o的反应时间与人类相当,只需232至320毫秒,显著提高了效率,并降低了50%的推理成本,为商业应用开辟了更多可能性,特别是在智能手机和个人电脑等设备上的端侧应用。 然而,大模型的技术迭代似乎正在放缓,OpenAI未发布期待中的GPT-5,引发了对技术瓶颈的猜测。同时,GPT-4o仍存在幻觉问题,有时会产生无法识别的自造字。尽管如此,OpenAI宣布GPT-4o将...

OpenAI解散Ilya重要团队,前高管怒斥,宫斗第二季

OpenAI,著名人工智能研究实验室,近期面临一系列挑战,包括其首席科学家Ilya Sutskever和超级对齐团队共同领导者Jan Leike的离职。这一事件引发了对其重视技术进步而非安全性的质疑。Sutskever和Leike的离开,使得原本致力于确保AI与人类目标一致性的超级对齐团队解散。离职原因部分归咎于OpenAI首席执行官Sam Altman的领导风格。据称,Altman对快速推进AI发展,尤其是通用人工智能(AGI)的追求,可能导致了安全性的忽视。 离职员工Daniel Kokotajlo公开批评OpenAI在接近AGI时未能展现责任感。他指出,更强大的AI系统可能...

突发!OpenAI再失一名高管,安全主管辞职

在科技界引发关注的连续人事变动中,OpenAI的安全主管Jan Leike近日宣布离职,紧随其后的是OpenAI的联合创始人兼首席科学家Ilya Sutskever的辞职。这两位关键人物的离开预示着OpenAI可能面临更多人员流失,并标志着去年由Ilya发起的反对CEO Sam Altman的行动最终未能成功。尽管Sam Altman对Jan的贡献表达了感谢,但他即将发布的文章将进一步阐明公司在产品安全方面的计划。 Jan在离职声明中指出,他当初加入OpenAI是因为该机构在大模型安全研究方面的领先地位,但现在他认为OpenAI对安全对齐的重视程度有所下降。他警告说,...

曝OpenAI超级对齐团队解散!

OpenAI的超级对齐团队,专注于AI安全和控制超智能系统的研究,近期遭遇重大挫折。团队负责人Ilya Sutskever和Jan Leike相继离职,引发关注。Jan Leike在社交平台上表示,离职原因在于与OpenAI高层在安全优先级和资源分配上的分歧。他认为公司在追求产品的同时忽视了安全文化的建设。OpenAI CEO Sam Altman回应,将继续致力于安全研究。 过去几个月,OpenAI失去多名关注AI安全的员工,其中包括至少7名关键成员。超级对齐团队已被解散,剩余成员或将被整合到其他项目中。前团队成员的离职显示出对OpenAI安全方向的担忧,特别...
1141516171824