中国电信发布开源千亿MoE大模型TeleChat3 全栈自研对标国际顶尖

中国电信发布开源千亿MoE大模型TeleChat3 全栈自研对标国际顶尖

2026年01月05日 17:07
本文共计1074个字,预计阅读时长4分钟。
来源/aibase 责编/爱力方

国产大模型再迎重磅突破。中国电信人工智能研究院(TeleAI)近日正式开源星辰语义大模型TeleChat3系列,包含国内首个基于全国产算力训练的千亿参数细粒度MoE模型——TeleChat3-105B-A4.7B-Thinking,以及稠密架构的TeleChat3-36B-Thinking。该系列模型完全依托上海临港国产万卡算力池训练,基础训练数据达15万亿tokens,标志着我国在超大规模AI模型自主可控方面迈出关键一步。

image.png

全栈国产化:从芯片到框架全链路适配

TeleChat3系列深度适配华为昇腾生态:

- 支持昇腾Atlas800T A2训练服务器;

- 基于昇思MindSpore框架开发;

- 训练与推理全流程运行于国产AI算力基础设施。

此举不仅验证了国产软硬件栈支撑千亿级大模型的能力,也为行业提供了一条安全、可靠、可替代的技术路径,对保障AI基础设施供应链安全具有战略意义。

image.png

创新“Thinking模式”:让AI推理过程可追溯

TeleChat3全系引入Thinking(思考模式)机制——通过在对话模板中加入特定引导符号,模型可自动生成中间推理步骤,显著提升在复杂任务中的逻辑性与准确性。在知识问答、数学推理、内容创作、代码生成、智能体(Agent) 六大核心维度,其性能已比肩国际主流头部模型。

例如,在数学题求解中,模型不再仅输出答案,而是展示“理解题意→拆解步骤→公式应用→验证结果”的完整思维链,大幅提升可信度与可调试性。

开源开放,赋能产业生态

目前,TeleChat3系列模型权重、推理代码及使用示例已同步上线GitHub与魔搭(ModelScope)平台,支持学术研究与商业应用。中国电信表示,将持续推动模型在政务、通信、能源、金融等关键领域的落地,助力“人工智能+”行动深入行业核心。

AIbase观察:国产大模型进入“全栈自研+能力对标”新阶段

TeleChat3的发布,不仅是一次技术成果展示,更是中国AI产业自主可控战略的实质性落地。当千亿MoE模型能在纯国产算力上高效训练,当“思考模式”逼近国际先进水平,国产大模型正从“可用”走向“好用”乃至“敢用”。

在全球AI竞争日趋“地缘化”的背景下,中国电信以TeleAI为支点,正构建一条安全、开放、高性能的国产AI技术栈。而这条路径的成败,或将决定中国在未来智能时代的话语权。

项目地址:https://github.com/Tele-AI/TeleChat3

来源:中国电信开源国产千亿MoE大模型TeleChat3!全栈自研,15T tokens训练,支持“思考模式”对标国际顶尖 | AIbase

声明:本文来自aibase,版权归作者所有。文章内容仅代表作者独立观点,不代表A³·爱力方立场,转载目的在于传递更多信息。如有侵权,请联系 copyright#agent.ren。

相关图文

热门资讯