微博发布VibeThinker-1.5B:轻量化AI模型探索大语言模型替代路径

微博发布VibeThinker-1.5B:轻量化AI模型探索大语言模型替代路径

2025年11月13日 10:59
本文共计431个字,预计阅读时长2分钟。
来源/互联网 责编/爱力方

微博人工智能部门在开源社区发布了VibeThinker-1.5B。这个15亿参数的大型语言模型基于阿里巴巴Qwen2.5-Math-1.5B进行微调。

image.png

VibeThinker-1.5B在数学和代码任务上的测试结果超过了6710亿参数的DeepSeek R1。该模型与Mistral AI的Magistral Medium、Anthropic的Claude Opus4和OpenAI的gpt-oss-20B Medium形成竞争关系。

后期训练阶段的计算成本记录为7800美元。行业同类模型的训练成本通常在数十万至数百万美元区间。

image.png

"谱-信号原则"训练框架将监督微调与强化学习解耦为两个独立阶段。

第一阶段采集多样化样本。第二阶段通过强化学习收敛到最优推理路径。

多领域基准测试显示VibeThinker-1.5B超越了多个开源和商业模型。开源协议采用MIT许可证。

huggingface:https://huggingface.co/WeiboAI/VibeThinker-1.5B

声明:本文来自互联网,版权归作者所有。文章内容仅代表作者独立观点,不代表A³·爱力方立场,转载目的在于传递更多信息。如有侵权,请联系 copyright#agent.ren。

相关图文

热门资讯