标签:小型语言模型

小型语言模型SLM突破计算瓶颈,FlashAttention与分布式数据并行助力苹果研究新方向

手机更适合小模型 尽管大型语言模型(LLM)在性能上表现出色,但它们在计算资源有限的设备上运行困难。相比之下,适合移动和边缘设备的小型语言模型(SLM)正逐渐成为研究和应用的热点。这些模型不仅能满足日常需求,而且在速度、效率和性价比方面表现出色。 小模型的兴起 许多研究者和应用开发者认为,SLM 是 AI 的未来。Meta 和 Mistral 等公司已经发布了多个 SLM,如 Llama 3.2 的 1B 和 3B 版本,以及社区开发的 BabyLlama 系列和 TinyLLaMA。这些模型通过剪枝、蒸馏和量化等技术,实现了与大模型相当甚至更好的性能...

AMD发布AMD-135M:开源小型语言模型通过推测解码实现性能提升3.88倍

AMD发布首款小型语言模型AMD-135M 10月1日,快科技报道,AMD正式发布了其首款小型语言模型(SLM),命名为“AMD-135M”。相较于当前日益庞大的大型语言模型(LLM),这款小型语言模型体积更小、灵活性更高,并且具有更强的专业性和隐私保护能力,非常适合企业内部部署。 AMD-135M的两个版本 AMD-135M属于Llama系列模型,共有两个版本:基础型“AMD-Llama-135M”和扩展型“AMD-Llama-135M-code”。基础型“AMD-Llama-135M”拥有6700亿个token,在八块Instinct MIM250 64GB加速器上进行了为期六天的训练。而扩展型“AMD-Llama-135M-c...