GPT-5最新爆料:3-5万亿参数,7000块B100训练
近日,三星高管Jung Bae Lee(李禎培)在一次高级管理层峰会上透露了关于GPT-5的一些关键信息。他在演讲中提到,GPT-5拥有3-5万亿参数,并且是通过7000块NVIDIA B100 GPU进行训练的。这一消息迅速在网络上传播开来,引发了广泛关注。
OpenAI日本办事处负责人Tadao Nagasaki的演讲
不仅仅是三星高管,OpenAI日本办事处负责人Tadao Nagasaki也在最新的演讲中展示了一张幻灯片,其中提到将在今年推出“GPT Next”,其性能将是GPT-4的100倍。这一消息进一步增加了人们对GPT-5的期待。
微软CTO Kevin Scott的信息
此外,微软CTO Kevin Scott在今年早些时候也分享了一张类似的幻灯片,显示了GPT-5的相关信息。这些信息综合起来,使得网友们纷纷猜测GPT-5即将问世。
OpenAI官方回应
面对这些传闻,OpenAI并未直接澄清,而是表示有许多重要的事情要告诉大家。为此,他们还开设了一个新的官方新闻账号——OpenAI Newsroom,以发布更多相关信息。
网友热议
网友们对这些信息展开了热烈讨论。有人认为GPT-5将带来显著的技术进步,但也有人担心这只是又一次的炒作。一位网友分析道,如果GPT-5确实实现了2到3倍的性能提升,这意味着采用了新的架构,可以在不增加计算资源的情况下实现指数级的能力增长,表明大型语言模型(LLM)已经趋于成熟。
OpenAI相关域名更新
另外,一些细心的网友还发现OpenAI相关的域名进行了更新。其中,cdn.staging.openai.com的更新可能意味着正在测试接近生产环境的配置。同时,还有一个关于“video”的新域名被发现,这是否与GPT-5有关,目前尚不清楚。
总的来说,近期关于OpenAI推出新模型的消息越来越多,GPT-5的到来似乎已成定局。然而,是否能如期兑现,还需拭目以待。
本文来源: 量子位【阅读原文】