深度解析:DeepSeek 引发的 AI 硬件需求变革与市场反应
春节期间,国内外 AI 圈被 DeepSeek 的新模型发布刷屏。英伟达市值蒸发近 6000 亿美元,引发了全球关注(参见《英伟达市值蒸发近 6000 亿美元,而 DeepSeek 刚刚又开源新模型》)。DeepSeek 最近发布的 DeepSeek-V3 和 DeepSeek-R1 模型以较低的成本实现了与 OpenAI 同类模型相当的性能,这引发了市场对高端 AI 硬件需求的担忧。
许多业内人士认为,DeepSeek 在硬件受限的情况下通过技术创新减少了对算力的需求,从而提升了性能。这种创新得到了包括 Sam Altman 在内的多位 AI 领军人物的认可。OpenAI 首席研究官 Mark Chen 也在社交媒体上发表了看法,肯定了 DeepSeek 的成就,但也强调了 OpenAI 在算力投入上的合理性。
Mark Chen 表示,虽然 DeepSeek 独立发现了 OpenAI 在开发 o1 模型时的一些核心理念,但这并不意味着减少成本就能提升能力。他指出,拥有预训练和推理两个范式意味着可以在多个维度上优化性能,而不是仅仅依赖低成本。此外,降低成本并不等于能提供更好的服务,尤其是在高延迟情况下。OpenAI 将继续专注于其研究路线图,并计划在本季度和今年推出更好的模型。
对于外界对 DeepSeek 成本的过度反应,Mark Chen 认为这是不合理的。实际上,DeepSeek-V3 的技术报告中提到的成本仅包括正式训练,不包括前期研究、消融实验等额外成本。图灵奖得主 Yann LeCun 也表达了类似观点,他认为市场的反应主要集中在训练成本上,但实际上大部分费用用于维持大规模用户的服务稳定性和持续改进。
不少网友赞同 LeCun 的看法,认为降低推理成本比降低训练成本更具实际意义,因为这将加速 AI 技术的普及并创造更大的市场。面对可能激增的推理需求,各大科技公司如 OpenAI 和 Meta 正在积极准备,例如 OpenAI 的「星际之门」项目以及 Meta 的巨额 AI 投资。
2025 年,AI 市场的竞争将更加激烈,DeepSeek 能否在新的一年里取得更大突破,还需拭目以待。
本文来源: 机器之心【阅读原文】