news 2026/4/3 6:40:53

百度百舸持续开源生产级代码,联合 SGLang 社区打造先进 AI Infra

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
百度百舸持续开源生产级代码,联合 SGLang 社区打造先进 AI Infra

当前,Token 的消耗量呈现出年均百倍增长的态势。国家数据局统计显示,截至今年6月底,我国日均Token消耗量从2024年初的1000亿,已经突破至30万亿,1年半时间增长了300多倍。

随着以DeepSeek、Ernie 为代表的 MoE 类推理模型爆火,大规模分布式推理系统的建设成了支持 AI 落地的挑战。推理成本、推理效率、推理稳定性,正在取代参数规模,成为决定AI商业化上限的关键变量。

围绕这一新的行业挑战,在12月14日由百度百舸与SGLang社区联合主办的技术分享活动上,百度百舸将自己在生产系统上的最新实践成果,SGLang将业界最新成果和动态,做了一次系统性分享。

百度百舸持续开源生产级代码,联合 SGLang 社区打造先进 AI Infra

在活动开场致辞中,百度智能云AI计算首席科学家王雁鹏明确表示:百度百舸正在将生产级代码持续开源到开源社区。百度在大规模生产环境中积累的大模型训推系统的各种能力,包括经过大规模系统打磨过的高度稳定的、高度优化的各种核心组件,都将逐一向行业分享。

同时,王雁鹏强调,开源并非一时的决定,而是百度坚信的技术方向和演进路径。未来,百度会持续联合各个社区,以开源的力量推动行业共同成长。

百度智能云AI计算首席科学家王雁鹏

作为大模型时代崛起的重要开源项目之一的SGLang,百度智能云10月份携手SGLang社区,将一套针对DeepSeek-V3.2推理性能优化的 MTP(Multi-Token Prediction,多token预测)技术代码正式开源。SGLang 社区表示这是一项巨大的贡献,社区实测显示,采用这套技术,DeepSeek-V3.2模型解码吞吐量能提升超过2倍。

在王雁鹏看来,推理引擎正变得越来越重要。智能经济时代,推理引擎消耗的算力,将成为最核心的生产资料。如果推理成本做不到足够低,身处大模型产业链上的玩家,就将失去竞争力,难以获取Scaling的效益。

在本次 Meetup 中,百度百舸团队围绕如何建设大规模分布式推理基础设施、DeepSeek V3.2 推理引擎等方面展开了系统性分享。

百度主任架构师田健重点介绍了百度百舸在大规模分布式推理集群基础设施上的实践。

随着大模型到达千亿、万亿规模的时代,其推理的部署也遇到了“不可能三角”的挑战,需要在模型规模指数级增长、部署效率与稳定性和资源成本与弹性之间,寻求新的平衡。

百度百舸新一代大规模分布式推理基础设施,以三大核心支柱破解大模型部署困局:通过自动化编排将分布式实例“原子化”,大幅简化跨节点管理复杂度;创新“静默实例”技术实现秒级资源激活,灵活应对潮汐流量;依托高性能流量调度与“班车调度”算法,极致压榨集群性能。

百度高级架构师刘伟分享了百度百舸基于万卡级生产系统实战经验,面向DeepSeek V3.2在推理引擎层面做的深度优化工作:通过轻量级CP让长文本推理的TTFT近乎线性降低,更创新研发ESS系统破解长文本推理的显存墙困境。

面对DeepSeek V3等MoE模型部署中FFN计算密度不足、GPU利用率低的痛点,百度高级工程师刘国维带来了百度百舸在DeepSeek V3系列模型上的AE分离框架实战,展示了在复杂并行与分离架构下,百度百舸如何在性能、稳定性与运维复杂度之间取得工程平衡。

SGLang 社区:推理框架的边界正在被不断拓展

来自SGLang 社区的 5 位开发者分享 了4 个业内最新进展,展现了 SGLang 社区在行业最前沿的动态。

SGLang 核心开发者张懿带来了SGLang在Linear Model优化与Diffusion支持上的最新进展。

随着长序列推理场景等的普及,传统KV Cache管理方式面临挑战。SGLang 在内存管理、投机推理适配等方面进行了大量工程优化,使推理框架能够更好地适配新一代模型结构。

在此基础上,面向DeepSeek等主流模型所指向的统一模型技术迭代路线,SGLang也在尝试从语言模型走向统一生成引擎。11月上线的SGLang Diffusion,便对外释放了一个强烈信号,即SGLang的目标并不是一个LLM引擎,而是统一推理执行层。

来自SGLang Diffusionteam的范舒翼、陈茜,系统介绍了面向图像与视频生成的高性能推理引擎 SGLang Diffusion。在图像与视频生成场景中,SGLang Diffusion通过Pipeline组合、并行策略与Kernel复用,将Diffusion推理性能整体拉升到Diffusers的2–6倍区间,为未来DeepSeek等“理解+生成”统一模型的问世,预留了系统优化空间。

在推理加速方向,SGLang开发者李升桂带来了SpecForge项目,解决了投机推理在真实系统中落地难、稳定性差的问题,让这一理论上成熟的方法,真正具备工程可用性。

同时,来自SGLang RL Team成员李冀,也展示了SGLang在强化学习场景下的最新进展,进一步拓展了推理框架的适用边界。

随着大模型发展重心从训练范式加速转向推理范式,Token消耗需求呈现出远超以往的增长曲线。百度将持续联合开源社区,打造行业领先的AI Infra,不断逼近推理系统的上限,持续满足行业对Token消耗年增百倍的诉求。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/30 18:22:57

数据越采越多,为什么用电管理反而更难了?

做过智慧用电项目的人,大概都遇到过这种情况:设备接得不少,数据也一直在采,可一旦真出问题,现场还是要靠人去判断。平台上参数一大堆,电流、电压、功率都有正常采集,但到底是哪里先不对了&#…

作者头像 李华
网站建设 2026/3/29 6:52:25

人工智能如何很快将人机交互提升到新的水平

原文:towardsdatascience.com/how-ai-could-soon-take-human-computer-interaction-to-new-levels-ecba1052a496 https://github.com/OpenDocCN/towardsdatascience-blog-zh-2024/raw/master/docs/img/871506e5983c927a22524b518e5c6994.png 由 Dall-E 3 通过 Chat…

作者头像 李华
网站建设 2026/3/27 14:59:00

Kotaemon TensorRT优化路径探索:NVIDIA显卡特调

Kotaemon TensorRT优化路径探索:NVIDIA显卡特调 在企业级智能问答系统日益普及的今天,一个看似简单的问题——“这个政策适用于我吗?”——背后可能涉及数千个文档的检索、上下文理解与精准生成。而用户期待的,永远是秒级甚至亚秒…

作者头像 李华
网站建设 2026/3/17 17:53:59

Kotaemon如何监控系统健康?内置Metrics暴露详解

Kotaemon如何监控系统健康?内置Metrics暴露详解 在构建企业级智能对话系统时,一个常被忽视却至关重要的问题浮现:当用户反馈“回答变慢了”或“突然中断”,我们该如何快速定位是模型调用延迟、知识库检索失败,还是某个…

作者头像 李华
网站建设 2026/3/26 12:27:18

Kotaemon是否适合你?适用场景与局限性全面评估

Kotaemon是否适合你?适用场景与局限性全面评估 在企业智能化转型的浪潮中,越来越多团队尝试将大语言模型(LLM)引入实际业务流程。然而,当兴奋褪去,现实问题接踵而至:模型“一本正经地胡说八道”…

作者头像 李华
网站建设 2026/3/28 18:32:35

如何用Kotaemon处理超长上下文对话历史?

如何用Kotaemon处理超长上下文对话历史? 在企业级智能客服系统中,用户常常不会一次性说完需求。一次贷款咨询可能跨越数天,中间穿插着身份验证、材料补传、进度追问等多个环节;一个技术支持会话甚至可能持续数周,涉及…

作者头像 李华