Liquid AI 发布 LFM2.5:一款面向边缘设备的小型 AI 模型家族

Liquid AI 发布 LFM2.5:一款面向边缘设备的小型 AI 模型家族

2026年01月07日 17:43
本文共计1074个字,预计阅读时长4分钟。
来源/aibase 责编/爱力方

Liquid AI 最近推出了 LFM2.5,这是一个新一代的小型基础模型家族,基于 LFM2架构,专注于边缘设备和本地部署。该模型家族包括 LFM2.5-1.2B-Base 和 LFM2.5-1.2B-Instruct,同时扩展了日语、视觉语言和音频语言的变种。这些模型以开源权重形式发布在 Hugging Face 上,并通过 LEAP 平台进行展示。

LFM2.5保留了针对 CPU 和 NPU 设计的混合 LFM2架构,旨在实现快速且内存高效的推理。该模型的预训练阶段将参数扩展至1.2亿,训练数据从10万亿个 tokens 扩展至28万亿个 tokens。随后,指令变体模型还进行了监督微调、偏好对齐和大规模多阶段强化学习,专注于指令跟随、工具使用、数学和知识推理。

image.png

在文本模型性能方面,LFM2.5-1.2B-Instruct 是主要的通用文本模型。Liquid AI 团队在 GPQA、MMLU Pro、IFEval、IFBench 等多个基准上报告了表现,模型在 GPQA 上达到了38.89,在 MMLU Pro 上达到了44.35。这些分数明显高于其他同类开源模型,如 Llama-3.2-1B Instruct 和 Gemma-3-1B IT。

此外,LFM2.5-1.2B-JP 是专门为日语优化的文本模型,针对日语的 JMMLU、M-IFEval 和 GSM8K 等任务进行了优化。这个检查点在日语任务上超越了一般指令模型,并在这些本地基准测试中与其他小型多语言模型相竞争。

在多模态边缘工作负载方面,LFM2.5-VL-1.6B 是该系列更新的视觉语言模型,结合了图像理解的视觉模块。该模型经过调优,支持文档理解、用户界面读取和多图像推理等实际应用,能够在边缘环境中高效运行。

LFM2.5-Audio-1.5B 是一个原生音频语言模型,支持文本和音频输入输出,采用了一种新的音频反 tokenizer,其速度比之前的方案快八倍,适用于实时语音到语音的对话代理和自动语音识别等任务。

https://www.liquid.ai/blog/introducing-lfm2-5-the-next-generation-of-on-device-ai

划重点:  

LFM2.5是一款基于 LFM2架构的小型基础模型家族,支持多种变种,包括文本、视觉语言和音频语言。  

该模型在多个基准测试中表现优异,尤其是在 GPQA 和 MMLU Pro 上超越了同类模型。  

LFM2.5系列涵盖多模态和区域优化,提供强大的边缘计算能力,适用于多种实际应用场景。

来源:Liquid AI 发布 LFM2.5:一款面向边缘设备的小型 AI 模型家族 | AIbase

声明:本文来自aibase,版权归作者所有。文章内容仅代表作者独立观点,不代表A³·爱力方立场,转载目的在于传递更多信息。如有侵权,请联系 copyright#agent.ren。

相关图文

热门资讯