在人工智能(AI)的这场、日益被“云端巨兽”们(如OpenAI的GPT系列和谷歌的Gemini)所主导的“算力战争”中,一场更为静默、却可能更具颠覆性的“轻骑兵”革命,正由一家脱胎于麻省理工学院(MIT)的初创公司——Liquid AI——悍然发动。
该公司,近日,在学术预印本网站arXiv上,发布了一份长达51页的、极其详尽的技术报告。
这,并非又一篇常规的学术论文。
它,更像是一份,关于“如何,从零开始,去训练和部署,一个能够在端侧设备上,高效运行的小型基础模型”的、完整的、开源的“武功秘-籍”。
Liquid AI,这家成立于2023年的年轻公司,其核心的技术押注,是一种全新的、被称为“liquid”(液态)的神经网络架构。
其目标,只有一个:在保持高性能的同时,将模型的训练和推理效率,推向极致。
其在今年7月,发布的第二代产品——Liquid Foundation Models 2(LFM2)系列,已经以一种无可辩驳的方式,证明了这条“小而美”路径的巨大潜力。
这一系列,包含了350M(3.5亿)、700M(7亿)和1.2B(12亿)这三种不同参数规模的“轻量级”模型。
在多个权威的基准测试中,其在模型质量和CPU推理吞吐量这两个关键维度上的综合表现,均显著地,优于包括阿里的Qwen 3、Meta的Llama 3.2,以及谷歌的Gemma 3在内的、所有同量级的竞争对手。
这意味着,对于广大的企业用户而言,它们,第一次,拥有了一种,可以在手机、笔记本电脑、乃至汽车的座舱芯片等、计算资源极其有限的端侧设备上,去实现实时的、且绝对保护隐私的AI应用的可能性。
它们,不再需要在“强大的能力”与“可接受的延迟”之间,做出痛苦的牺牲和权衡。
而此次,Liquid AI,所选择的,将这份包含了其LFM2模型背后,所有核心“秘方”的技术报告,公之于众的举动,其战略意图,则更为深远。
这份报告,几乎毫无保留地,公开了:
-
其模型背后的架构搜索过程。
-
其所使用的训练数据的混合比例。
-
其在知识蒸馏中所设定的目标函数。
-
其独特的课程学习(Curriculum Learning)策略。
-
以及,其完整的后训练(Post-training)流程。
这,无异于,将自己最核心的、赖以生存的“独门绝技”,向全世界,进行了开源。
其目的,正是为了,向整个行业,布道和推广一种全新的、有别于“云端巨兽”的AI发展范式。
它,为所有其他的、同样致力于“小模型”研发的组织,提供了一份清晰的、可被参考和复现的“蓝图”,使其,能够根据自身独特的硬件条件和部署约束,去从零开始,训练出最适合自己的、小而高效的AI模型。
爱力方的分析认为,Liquid AI的这次“开源蓝图”,其意义,已远超一次单纯的技术分享。
它,更像是一次深刻的“生态位卡位战”。
-
从技术的角度看,它,深刻地,揭示了“小模型”,并非只是“大模型”的简单压缩或阉割。它,拥有自己独特的、围绕着真实世界的企业级需求(如延迟预算、内存上限、热阈值等)而进行优化的、全新的设计哲学和工程范-式。
-
从商业的角度看,它,则是一次极其精明的“思想领导力”的构建。通过将自己,塑造为“小模型”领域的、无可争议的“技术布道者”和“标准定义者”,Liquid AI,正在试图,将整个行业的发展方向,拉向一个,对其自身最为有利的、全新的战场。
在这场AI的“终局之战”中,未来的世界,或许,并不会,仅仅由少数几个、运行在云端的、无所不能的“奥特曼”所主宰。
一个更为可能的、也更为健康的未来,将是一个由成千上万个、运行在我们身边每一个设备之上的、小而敏捷的、各司其职的“小蜜蜂”,所共同构成的、一个分布式的、去中心化的智能网络。
而Liquid AI,这家年轻的、充满了理想主义色彩的初创公司,正试图,成为那个,为这个“蜂群”世界,提供其最核心的“基因蓝图”的、最初的、也是最重要的“蜂后”。