YuanLab.ai 团队正式开源发布 源 Yuan3.0 Flash 多模态基础大模型。包括模型权重(16bit与4bit模型)、技术报告,完整的训练方法与评测结果,支持社区在此基础上进行二次训练与行业定制。
根据介绍,Yuan3.0 Flash 是一款 40B 参数规模的多模态基础大模型,采用稀疏混合专家(MoE)架构,单次推理仅激活约 3.7B 参数。Yuan3.0 Flash创新性地提出和采用了强化学习训练方法(RAPO),通过反思抑制奖励机制(RIRM),从训练层面引导模型减少无效反思,在提升推理准确性的同时,大幅压缩了推理过程的 token 消耗,显著降低算力成本,在 “更少算力、更高智能” 的大模型优化路径上更进一步。
Yuan3.0 Flash 由视觉编码器、语言主干网络以及多模态对齐模块组成。语言主干网络采用局部过滤增强的Attention结构(LFA)和混合专家(MoE)结构,在提升注意力精度的同时,显著降低训练与推理的算力开销。
多模态方面,采用视觉编码器,将视觉信号转化为token,与语言token一起输入到语言主干网络,通过多模态对齐模块实现高效、稳定的跨模态特征对齐。同时,引入自适应图像分割机制,在支持高分辨率图像理解的同时,有效降低显存需求及算力开销。

公告称,在企业场景的 RAG(ChatRAG)、多模态检索(Docmatix)、多模态表格理解(MMTab)、摘要生成(SummEval)等任务中,Yuan3.0 Flash 的表现已优于 GPT-5.1,体现出其在企业应用场景中的明显能力优势。
在多模态推理与语言推理评测中,Yuan3.0 Flash(40B)精度接近Qwen3-VL235B-A22B(235B)与DeepSeek-R1-0528(671B),但 token 消耗仅约为其 1/4 ~ 1/2,显著降低了企业大模型应用成本。


源Yuan 3.0基础大模型将包含Flash、Pro和Ultra等版本,模型参数量为40B、200B和1T等。