近日,全球知名图形处理单元(GPU)制造商英伟达推出了全新的H200 GPU,这是一款专为人工智能(AI)领域设计的尖端半导体产品,其性能超越了当前主力的H100。据英伟达官方测试,H200在处理Meta公司的大型语言模型Llama 2时,AI生成答案的速度相较于H100提升了45%。据市场研究机构Omdia的数据,2022年英伟达在AI半导体市场的占有率高达80%,然而面对AMD等竞争对手的挑战,市场竞争日益激烈。
在最近的开发者大会上,英伟达宣布将在年内推出新一代AI半导体B200,并且结合CPU推出新产品,用于最新的大型语言模型(LLM)。英伟达的旗舰级AI加速卡GB200,搭载两个B200 Blackwell GPU和一个基于Arm的Grace CPU,其在推理大语言模型的性能上比H100提升了30倍,同时成本和能耗降低了四分之一。GB200采用了创新的Blackwell AI图形处理器架构,英伟达创始人黄仁勋表示,这是对Hopper架构的进一步增强。
H200 GPU于去年11月发布,基于“Hopper”架构,作为H100的升级版,它也是首款采用HBM3e内存的芯片,提供更快的速度和更大的容量。英伟达指出,H200的性能相比H100提升了60%至90%,拥有141GB的内存,带宽增加了2.4倍,速度达到每秒4.8TB。
本文来源: IT之家【阅读原文】© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...