在最近的更新中,苹果公司向HuggingFace平台推出了20款创新的Core ML模型和4个全新的数据集,其中引人注目的是字节跳动大模型团队研发的Depth Anything V2模型成功入选。这款先进的单目深度估计模型为苹果的开发者们提供了更为便捷的途径,以构建智能化且安全的AI应用程序。
Core ML,作为苹果的机器学习框架,允许开发者将模型无缝集成到iOS、macOS等平台,实现离线的高性能AI任务处理,增强了用户隐私保护,同时减少了响应时间。借助这些新发布的模型,开发者可以更轻松地打造高效能的应用。
Depth Anything V2相较于前代产品,表现出更细腻的细节处理能力与更高的鲁棒性。它在速度上优于基于diffusion的最新技术标准模型,并提供从25M到1.3B参数规模不等的多个版本。苹果收录的Core ML版本选择了最小的25M模型,在iPhone 12 Pro Max上实现了31.1毫秒的快速推理。这款模型在自动驾驶、3D建模、增强现实、安全监控及空间计算等多个领域都有广泛的应用潜力。值得注意的是,Depth Anything的两个版本的主要贡献者是一位来自字节跳动大模型团队的实习生。
苹果这次发布的Core ML模型覆盖了自然语言处理、图像识别等多个关键领域,开发者可以通过coremltools工具将不同框架如TensorFlow训练的模型转化为Core ML兼容格式。Core ML通过优化CPU、GPU和神经引擎,确保在设备上高效运行,同时降低内存占用和能耗。
本文来源: 量子位【阅读原文】© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...