news 2026/4/12 2:11:12

MoE(Mixture of Experts)架构十年演进(2015–2025)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
MoE(Mixture of Experts)架构十年演进(2015–2025)

MoE(Mixture of Experts)架构十年演进(2015–2025)

一句话总论:
2015年MoE还是“理论复苏+小规模手工专家路由”的学术时代,2025年已进化成“万亿级多模态VLA动态MoE+意图级自适应专家+量子加速自进化+全域具身实时决策”的终极智能架构,中国从跟随Switch Transformer跃升全球领跑者(华为盘古、阿里M6、DeepSeek、百度文心、小鹏/银河VLA等主导),MoE渗透率从<5%飙升至>80%大模型训练,专家数从8–16个升至千级+动态,激活参数比例从<1%降至更高效自适应,推动AI从“稠密全参数计算”到“稀疏意图级专家协同”的文明跃迁。

十年演进时间线总结
年份核心范式跃迁代表模型/技术专家数/参数规模激活比例/效率提升中国贡献/里程碑
2015MoE理论复苏+手工路由Sparse MoE初探8–16专家 / 亿级~10–20% / 基准学术复苏,中国几乎无产业
2017条件路由+顶层MoE初探Outrageously Large NN16–64专家 / 十亿级~5–10% / 2–5倍中国初代条件MoE研究,产业化零
2019GShard+大规模MoE初步GShard / 600B128专家 / 千亿级~2–5% / 5–20倍华为/阿里初探大规模MoE
2021Switch Transformer+MoE革命Switch / 1.6T2048专家 / 万亿级~1% / 20–100倍华为盘古 + 阿里M6,中国MoE量产元年
2023多模态+意图MoE元年Mixtral / PaLM-E MoE万级专家 / 万亿级<0.5% / 100–500倍DeepSeek/阿里通义千问 + 百度文心MoE首发
2025VLA自进化+量子鲁棒终极形态Grok-4 MoE / DeepSeek-MoE-R1十万级专家 / 十万亿级自适应<0.1% / >1000倍(量子加速)华为盘古MoE + DeepSeek万亿 + 小鹏/银河VLA MoE
1.2015–2018:MoE理论复苏+手工路由时代
  • 核心特征:MoE以条件路由+顶层专家手工设计为主,专家数8–64,激活比例10–20%,小规模实验。
  • 关键进展
    • 2015年:MoE理论复苏(Shazeer等)。
    • 2016–2017年:Outrageously Large NN顶层MoE。
    • 2018年:初步条件计算MoE。
  • 挑战与转折:路由不稳、负载不均;大规模+自动路由兴起。
  • 代表案例:学术小模型MoE,中国初代研究。
2.2019–2022:大规模MoE+Switch革命时代
  • 核心特征:GShard/Switch Transformer大规模MoE+Top-K路由+负载均衡,专家数128–2048,激活比例~1–5%,支持千亿–万亿参数。
  • 关键进展
    • 2019年:GShard 600B大规模MoE。
    • 2020–2021年:Switch Transformer 1.6T革命。
    • 2022年:华为盘古 + 阿里M6 MoE量产。
  • 挑战与转折:专家负载/训练不稳;多模态+意图级MoE兴起。
  • 代表案例:华为盘古千亿MoE,阿里M6多任务。
3.2023–2025:多模态VLA自进化时代
  • 核心特征:万亿级多模态大模型+VLA端到端意图级MoE+量子辅助鲁棒,自进化(动态专家/路由自适应)。
  • 关键进展
    • 2023年:Mixtral 8x7B + PaLM-E MoE多模态。
    • 2024年:DeepSeek/Grok-4专用MoE,量子混合精度。
    • 2025年:华为盘古MoE + DeepSeek万亿 + 小鹏/银河VLA MoE,全域社交意图自进化MoE,普惠7万级智驾/机器人。
  • 挑战与转折:黑箱/长尾;量子+大模型自进化标配。
  • 代表案例:比亚迪天神之眼(7万级VLA意图级MoE理解),银河通用2025人形(VLA动态意图MoE决策)。
一句话总结

从2015年手工8专家的“理论复苏”到2025年VLA量子自进化的“十万级意图级专家大脑”,十年间MoE架构由固定路由转向多模态意图闭环,中国主导Switch→M6→DeepSeek→VLA MoE创新+万亿训练实践+普惠下沉,推动AI从“稠密全参数计算”到“稀疏意图级专家协同”的文明跃迁,预计2030年MoE渗透率>95%+全域永不失真自愈。

数据来源于arXiv综述、IROS 2025及中国厂商技术白皮书。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/11 7:38:27

Index十年演进(2015–2025)

Index十年演进&#xff08;2015–2025&#xff09; 一句话总论&#xff1a; 2015年Index还是“手工规则小样本标注单一任务分类”的浅层时代&#xff0c;2025年已进化成“万亿级多模态VLA统一Index实时意图级检索量子鲁棒自进化全域社交/具身知识索引”的普惠智能时代&#xff…

作者头像 李华
网站建设 2026/4/10 7:26:33

华为OD机试 - 整型数组按照个位数排序(Java 双机位C卷 100分)

华为OD机试 双机位C卷题库疯狂收录中,刷题点这里 专栏导读 本专栏收录于《华为OD机试(JAVA)真题》。 刷的越多,抽中的概率越大,私信哪吒,备注华为OD,加入华为OD刷题交流群,每一题都有详细的答题思路、详细的代码注释、3个测试用例、为什么这道题采用XX算法、XX算法的…

作者头像 李华
网站建设 2026/4/11 10:07:37

土木工程生就业难?靠远程工作,我找到了高薪稳定工作

作为2025届土木工程毕业生&#xff0c;我曾和无数同专业同学一样陷入就业焦虑&#xff1a;校招时&#xff0c;房企裁员缩招、施工单位岗位缩减&#xff0c;好不容易拿到的几个offer不是需要常年驻场偏远工地&#xff0c;就是薪资微薄且晋升渺茫&#xff1b;身边不少同学要么被迫…

作者头像 李华
网站建设 2026/4/5 18:24:44

HY-MT1.5镜像启动慢?SSD加速部署优化实战技巧

HY-MT1.5镜像启动慢&#xff1f;SSD加速部署优化实战技巧 1. 背景与问题提出 随着多语言内容在全球范围内的快速传播&#xff0c;高质量、低延迟的翻译模型成为智能硬件、跨境服务和实时通信系统的核心组件。腾讯近期开源的混元翻译大模型 HY-MT1.5 系列&#xff0c;包含两个主…

作者头像 李华
网站建设 2026/4/5 4:49:08

HY-MT1.5-1.8B能耗比实测:边缘AI设备最佳适配模型

HY-MT1.5-1.8B能耗比实测&#xff1a;边缘AI设备最佳适配模型 1. 引言&#xff1a;为何关注边缘端翻译模型的能效平衡&#xff1f; 随着多语言交流需求在智能终端、移动应用和物联网设备中的快速增长&#xff0c;实时翻译能力正逐步从“云端依赖”向“本地化部署”迁移。然而&…

作者头像 李华
网站建设 2026/4/6 2:17:20

HY-MT1.5支持方言翻译?壮语/藏语等民族语言实测报告

HY-MT1.5支持方言翻译&#xff1f;壮语/藏语等民族语言实测报告 近年来&#xff0c;随着多语言交流需求的不断增长&#xff0c;高质量、低延迟的机器翻译模型成为AI应用落地的关键基础设施。特别是在中国这样一个多民族国家&#xff0c;如何实现普通话与少数民族语言之间的精准…

作者头像 李华