在科技界的一则重大新闻中,英伟达公司——全球领先的图形处理器制造商,于7月23日宣布推出了革命性的”NVIDIA AI Foundry”代工服务及”NVIDIA NIM”推理微服务,此举旨在进一步推动AI技术的发展与应用。感谢IT之家网友Snailwang提供的线索,让我们能够第一时间分享这一重要信息。
“NVIDIA AI Foundry”作为英伟达的最新力作,为客户提供了前所未有的机会,让他们能够利用Meta公司的Llama 3.1 AI模型,结合英伟达的专业软件、计算能力和行业知识,量身定制出针对特定领域的“超级模型”。通过融合专有数据与由Llama 3.1 405B和英伟达Nemotron Reward模型产生的合成数据,客户将能训练出更智能、更精准的AI模型。
NVIDIA AI Foundry的核心优势在于其强大的计算能力,这得益于NVIDIA DGX™ Cloud AI平台的支持。该平台与全球顶级的公共云服务提供商合作设计,确保企业用户获得充足的计算资源,且能根据AI需求灵活调整,实现无缝扩展。此外,NVIDIA AI Foundry还提供了丰富的AI模型库,包括Nemotron、Edify等英伟达自研模型,以及一系列流行的基础模型。借助NVIDIA NeMo™软件,用户可以轻松定制模型,而这一切都在NVIDIA DGX™ Cloud上由AI专家团队构建和维护。
为了实现AI模型的高效部署,NVIDIA NIM应运而生。作为一款推理微服务,NVIDIA NIM使得企业能够在包括云计算、数据中心、工作站乃至个人电脑在内的各种平台上,利用NVIDIA GPU的强大算力运行AI模型。通过标准API的集成,开发者仅需少量代码即可快速部署AI应用,同时,NVIDIA NIM容器与Kubernetes(K8s)生态系统的无缝对接,确保了容器化AI应用的高效管理和协调。
英伟达的这一系列创新举措,无疑将推动AI技术的普及和深化,为企业提供更加个性化、高效的AI解决方案,标志着AI技术在各行业的应用即将进入一个新的时代。
本文来源: IT之家【阅读原文】