标签:OpenAI

OpenAI最新力作:探索超级对齐理论,模型间验证者-证明者博弈提升安全性与可读性

OpenAI近期发布了一篇关于“超级对齐”研究的最终论文,提出了一种让大、小模型互相博弈以提升生成内容可读性的方法。该研究旨在在保持准确率的同时,使模型输出更易于人类理解。通过模拟多伦多大学的“证明者-验证者”博弈框架,OpenAI让大模型作为“证明者”,小模型作为“验证者”,二者在相互竞争中共同进步。这种方法使得大模型的输出变得更加易懂,且准确率没有显著下降,同时小模型的判断能力也得到提高。 论文作者之一Yining Chen认为,这种方式可能使未来的模型超越人类智慧。尽管超级对齐团队已解散,但这项研究仍引起热...

OpenAI元老Andrej Karpathy投身创业:引领人工智能教育新纪元,创立Eureka Labs

在最新的科技动态中,知名人工智能专家Andrej Karpathy于本周二披露了他的新创业项目——Eureka Labs。这家创新型公司专注于人工智能教育领域,旨在推动AI知识的普及与深化。 Andrej Karpathy,作为OpenAI的前核心成员,以其深厚的AI研究背景和丰富的行业经验,一直备受业界瞩目。他的新公司Eureka Labs将利用他在OpenAI期间积累的智慧,为全球的学习者提供前沿的人工智能教育资源。这家教育机构不仅会关注技术的理论教学,还将强调实践应用,以培养更多具备实战能力的AI专业人才。 Eureka Labs的成立,预示着人工智能教育领...

OpenAI与ChatGPT的深度研究:付费用户驱动API收入暴涨,年收入翻倍的秘密曝光

最近,OpenAI的财务前景引起了广泛关注。 据FutureSearch发布的研究报告显示,这家人工智能巨头有望在今年实现高达34亿美元的年收入,远超此前预计的16亿美元。OpenAI的CEO奥尔特曼透露,这一增长主要源于产品和服务的销售,其中包括ChatGPT的订阅费和API访问权限。根据FutureSearch的分析,ChatGPT Plus的770万用户贡献了近一半的收入,每人每月支付20美元。此外,ChatGPT Enterprise的120万企业用户以50美元/月的价格提供21%的收入,而ChatGPT Team的98万用户则带来8%的收入,每位用户每月25美元。API收入占据了15%。总计...

OpenAI被举报:非法限制员工披露AI安全风险

OpenAI近期陷入了法律纠纷,据《华盛顿邮报》报道,该公司因涉嫌非法限制员工公开讨论AI安全风险,已被举报至美国证券交易委员会(SEC)。举报信中指出,OpenAI的就业、离职和保密协议过于严苛,阻止员工与SEC沟通证券违规行为。此前,前员工曾揭露OpenAI的霸王条款,如若想保留批评公司的权利,就得放弃股权。SEC已收到相关证据,表明OpenAI可能违反了规定。 今年早些时候,OpenAI的安全和超级对齐团队出现离职潮,有员工透露,离职后批评公司会导致股权被收回。一位前员工甚至放弃了大部分家庭资产以避免保密义务。Vox的...

OpenAI的「草莓项目」揭秘:强化推理能力,后训练技术引领AGI路线图新里程

OpenAI近期被曝光了一个名为“草莓”的新项目,该项目具有前瞻性的规划能力,能够自主浏览网页并进行深度研究。草莓模型经过大规模通用数据的后期训练,提升了推理能力,据信已达到OpenAI AGI路线图中的Level 2级别。尽管内部文件显示OpenAI正在全力研发,但Strawberry的具体运作方式仍处于高度保密状态,发布时间未知。有消息称,Strawberry与去年的Q*项目有关,后者在OpenAI内部已取得突破。该模型旨在增强AI的推理能力,使其不仅限于提供查询答案,还能进行自主的决策和研究。OpenAI期望Strawberry的创新能够显著提升AI模型...

OpenAI揭示AGI五大阶段:通用人工智能已迈入第二级关卡,ChatGPT展现智能代理新高度

OpenAI,这家致力于人工智能研究的公司,在最近的内部会议上揭示了AGI(通用人工智能)的五个发展阶段,表明我们目前正处于第一阶段,并且即将迈入第二阶段。据透露,OpenAI正在研发名为“草莓”的项目,这可能是其在AI Agent智能自动化领域的下一个重大突破。自2015年成立以来,AGI一直是OpenAI的战略目标之一,随着ChatGPT、多模态大模型以及AI Agent的出现,实现这一目标似乎渐行渐近。 AGI的五个等级如下: 1. 对话助手:这类AI能够进行基础对话,常用于客户服务,如查询订单状态或产品信息,但难以处理复杂问题。 2. 推...

OpenAI涉嫌违反保密协议:举报人揭露人工智能安全风险的证券违法行为

在人工智能领域备受关注的OpenAI公司最近陷入了一场风波。据《华盛顿邮报》披露,一名OpenAI的举报人已向美国证券交易委员会(SEC)提交投诉,指出该公司可能存在违法情况,即阻止员工向监管机构公开AI技术可能带来的严重安全风险。这起事件源于一封长达七页的信件,举报人在信中详细阐述了OpenAI的就业、离职及保密协议过于严格,可能导致员工因揭露公司问题而遭受惩罚。 信中强烈呼吁SEC立即调查OpenAI过去的保密协议,并审查其当前的政策,以确保公司遵守所有SEC规定。举报人还指出,OpenAI甚至要求员工放弃作为举报人的...

OpenAI 探索通用人工智能:揭秘五级标准,Sam Altman 表示AGI尚在二级门槛

在信息技术领域,OpenAI 近日发布了一套创新性的通用人工智能(AGI)五级评估体系,旨在衡量人工智能的发展水平。据内部消息,OpenAI 自评目前正处于第一级,正逐步迈向第二级。这一五级标准不仅揭示了AGI的深度目标,即创建一种能适应复杂环境、自我学习和创新,并符合人类伦理道德的人工智能。 一级标准定义为“对话专家”,具备流畅对话的人工智能;二级标准是“逻辑大师”,能够解决与人类相当难题的AI;三级晋升为“行动代表”,能代表用户执行任务的AI;四级则为“创新伙伴”,这种AI可协助创新;最高级别的五级是“高效协调者...

微软与OpenAI关系转变:人工智能领域的安全事件与反垄断调查影响分析

微软近期宣布,将不再担任OpenAI董事会的观察员,这一举措标志着微软对OpenAI的信任,同时也降低了其他企业如苹果获取此类席位的机会。微软在致OpenAI的信件中肯定了OpenAI在人工智能领域的显著进步,并表达了对OpenAI未来发展的坚定信心。随着微软的退出,OpenAI董事会将不再设有观察员角色,使得苹果的Phil Schiller加入的可能性大幅减少。 OpenAI对此表示感谢,并透露将采用新的策略来吸引关键战略伙伴,包括微软、苹果、Thrive Capital和Khosla Ventures等投资者,定期分享进展并强化安全合作。尽管OpenAI在过去一年经...

萨姆·阿尔特曼的人工智能之旅:从OpenAI和ChatGPT的创新到Y Combinator的权力核心

萨姆·阿尔特曼,这位硅谷传奇人物,以其大胆和自信的个性著称,曾在个人博客上分享成功秘诀,包括过度自信和善于自我推销。 他的这些特质在其职业生涯中得到了体现,特别是在OpenAI的决策和行动上。2019年,阿尔特曼离开Y Combinator,投身OpenAI,后者也转变为营利组织。2022年底,阿尔特曼未经董事会同意推出ChatGPT,引发争议,但也引领了AI革命。他以AI为下一个互联网的预言者身份,全球巡讲,与各国领导人会面。然而,2023年,因内部混乱和隐瞒信息,阿尔特曼被OpenAI董事会开除。尽管如此,他在硅谷的人脉网络帮助他...
1101112131425