DeepSeek与Amazon Bedrock助力AI模型落地,大模型时代SageMaker引领应用潮流

2025年初,DeepSeek 以低于行业标准的550万美元训练成本和卓越的性能表现,掀起了AI大模型领域的波澜。紧随其后,Claude3.7Sonnet 在2月以数千万美元的投入和创新的扩展思考模式刷新了SOTA记录,再次提升了大模型的能力边界。随着一轮又一轮的更新与发布,AI大模型的性能不断被推向新的高度。然而,相较于两年前ChatGPT问世时的轰动,如今的新模型似乎少了些“惊艳”感。这或许是因为,在过去的两年中,我们见证了太多号称“最强大”的模型发布,从参数比拼到上下文能力,再到多模态处理和成本控制,整个行业仿佛陷入了一个无限循环的竞争状态。

对于部署大模型的企业来说,这种快速迭代的技术环境带来了巨大的不确定性。刚完成硬件配置、模型选择及微调,并集成到企业系统中,就发现市场上出现了更具性价比且更适合自身业务场景的大模型。在这种背景下,企业真正需要的是多样化的模型选择和灵活的部署方式。

DeepSeek 的发布引发了全球范围内的连锁反应。过去,人们普遍认为大模型需要高投入才能获得高回报。而 DeepSeek 则走出了一条不同的道路——仅用GPT-4十分之一的训练成本,却达到了与之相当的性能表现。更重要的是,DeepSeek选择了开源策略。这意味着技术透明度和共享性,也意味着全球AI行业可以沿着DeepSeek优化的路径降低训练和推理成本。在DeepSeek推动下,低成本AI模型的热潮席卷全球。

与此同时,行业的关注点也在发生转变。过去,企业在选择AI模型时主要关注性能指标如准确率和推理速度等。现在,随着低成本AI模型的迅速普及,企业更关心如何快速将新模型应用到实际业务中并创造商业价值。围绕DeepSeek-R1的部署和集成成为国内企业开年的重要课题。

云厂商对此反应迅速且步调一致。亚马逊云科技、微软Azure等纷纷宣布接入DeepSeek-R1模型。华为、腾讯、阿里等国内云厂商也开始陆续接入。值得注意的是,尽管这些云厂商大多拥有自己的自研大模型,但它们仍然选择接入第三方模型。亚马逊CEO Andy Jassy解释道:“我们相信几乎所有大型生成式人工智能应用都会使用多种类型的模型,不同客户会根据工作负载类型选择不同模型,因此我们需要尽可能多地提供前沿模型供客户选择。”

亚马逊云科技在这一过程中表现得尤为果断。3月11日,它上线了完全托管版DeepSeek-R1,用户无需管理任何基础设施或担心复杂设置和运维,只需按token付费即可应用于企业级部署。Andy Jassy在LinkedIn发文表示:“我们让DeepSeek-R1的使用变得更加简单。该模型现已在Amazon Bedrock上以完全托管模式提供,亚马逊云科技是首个将其作为完全托管服务推出的云服务提供商。”

在大模型时代,各大云厂商各有其独特的打法。亚马逊云科技的核心理念是让新兴和流行的模型能够立即为企业所用,这与其一贯坚持的“Choice Matters”理念高度契合。例如,Anthropic发布其最新智能模型Claude3.7Sonnet当天,AmazonBedrock便宣布接入该模型,并将其添加到Q Developer的模型列表中,开发者可以根据任务需求选择最适合的模型以支持更高级别的编码流程。

今年2月,AmazonBedrock新增了包括Meta的Segment Anything Model(SAM)2.1视觉分割模型、阿联酋技术创新研究所(TII)的Falcon3在内的多款热门大模型。在此之前,AmazonBedrock已率先上架了Meta Llama、Stability AI等热门模型。

除了模型选择,AmazonBedrock还提供了多种工具以帮助企业优化成本、延迟和准确率,利用私有数据定制模型,确保安全审查,以及通过多Agents协作解决复杂任务。例如,在成本、延迟和准确率优化方面,Amazon Bedrock支持提示词缓存和智能提示词路由,显著降低了开发人员评估模型的时间成本。此外,AmazonBedrock还能将提示词路由至最适合的模型,从而在不影响质量的前提下降低成本。

在安全审查方面,Amazon Bedrock Guardrails能够根据不同应用的要求制定保障措施,阻止高达85%的有害。针对老生常谈的大模型幻觉问题,Guardrails引入了自动化推理检查功能,通过数学逻辑验证生成的准确性,提升模型透明度。

在多Agents协作方面,Amazon Bedrock允许开发者构建、部署和编排多个Agents,协同处理复杂的多步骤任务,为生成式AI的应用开辟了新的可能性。

许多厂商视2025年为AI应用落地的元年,这一判断的基础在于:由低成本AI模型引发的技术潮流可以在像Amazon Bedrock这样的大模型平台配合下转化为真正的“AI狂欢”。模型性能和服务稳定性是决定其能否成功落地的关键因素,如API访问响应时间、TPS及长上下文窗口的支持能力等,这些都会直接影响用户体验和业务效率。

过去一年中,亚马逊在AI领域的投资力度最大,尤其是在AI基础设施方面的支出持续超过其他竞争对手。预计2025年,亚马逊将在AI领域投入1000亿美元。AI基础设施的投入直接决定了模型的性能和服务稳定性。在AmazonBedrock上,DeepSeek-R1的首Token响应时间通过全托管服务优化得以稳定控制在2秒以内,结合无服务器架构和预置优化配置方案,显著提升了推理效率。

随着越来越多的企业开始探索多模型并行策略,DeepSeek开启的低成本AI模型热潮只是AI应用落地的前提条件。未来,企业真正需要的是多样化模型选择和灵活的部署方式。

当然,作为“大模型货架”,像AmazonBedrock这样的产品,仅仅实现功能完备和及时更新模型品类还远远不够。随着企业对AI应用的深入,更多竞争差异将体现在数据层面。例如,低质量的数据无法有效支持像DeepSeek这样的大模型,同时分散的数据源也限制了企业的效率。为了简化数据集成和ETL流程,亚马逊云科技推出了Glue,支持自动化的数据集成,并通过Glue DataBrew和Glue Elastic Views等功能进一步简化了数据管道的构建和管理。

下一代SageMaker几乎涵盖所有数据分析和AI开发所需组件,包括数据探索、准备与集成、大数据处理、快速SQL分析、机器学习模型开发与训练,以及生成式AI应用程序开发。通过集成comet、deepchecks、fiddler和LAKERA等AI应用程序,下一代SageMaker支持从实验跟踪、模型评估到性能监控和安全防护的全流程管理。这些进步不仅提高了资源利用效率,也为AI模型的快速落地提供了保障。

本文来源: InfoQ公众号【阅读原文】
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...