news 2026/4/2 5:32:24

GPUStack Windows(WSL2)部署指南

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
GPUStack Windows(WSL2)部署指南

GPUStack v2 以高性能推理与生产级稳定性为核心演进方向,对整体架构进行了全面重构,实现了组件间的灵活解耦,并对多推理引擎和异构算力进行了深度优化,充分释放推理引擎在吞吐、延迟与并发方面的性能潜力。

基于这一架构设计,GPUStack v2 聚焦 Linux 原生环境,以充分利用其在生态和 AI 基础设施领域的成熟优势。

对于 Windows 用户,推荐通过 WSL2(Windows Subsystem for Linux) 运行 GPUStack v2,在 Windows 上构建与 Linux 生产环境高度一致的 AI 运行环境,完整体验 v2 带来的性能优化与架构优势。

整篇稍长,可先看以下总结的六点,有问题再细看全文:

  1. 驱动安装:在 Windows 主机安装 NVIDIA 驱动,不要在 WSL 内部安装。
  2. CUDA 环境:无需 CUDA Toolkit(Windows/WSL 均不需要)。
  3. 容器环境:请在 WSL 内部安装原生 Docker Engine,不要使用 Docker Desktop。
  4. (可选)局域网访问:若需局域网访问 Server,可在 "WSL Settings" 中将网络模式配置为Mirrored
  5. 环境检测:运行环境检测时,请使用 默认用户,不要使用root用户(nvidia-smi在 WSL 中的非标准路径中,此路径不在root用户下的环境变量中)。
  6. IP 配置:Worker IP 填写 WSL 的具体 IP,使用127.0.0.1可能存在问题。

下面将详细介绍如何在 WSL 环境中配置 NVIDIA GPU 并部署 GPUStack。

1. 实验环境

本文基于以下实验环境编写,但适用于大多数支持 WSL 的 Windows 10/11 系统。

  • 操作系统:Windows 11
  • 硬件:GeForce RTX 4090D
  • 虚拟化:需在 BIOS/UEFI 中开启虚拟化支持

2. 关键架构说明

相关参考文档:

  • Microsoft WSL 官方文档(GPU 支持):https://learn.microsoft.com/en-us/windows/wsl/tutorials/gpu-compute
  • NVIDIA CUDA on WSL 用户指南:https://docs.nvidia.com/cuda/wsl-user-guide/index.html

在 WSL 中部署 GPUStack 有两点需要注意:

2.1 驱动安装

在 Windows 系统中安装 NVIDIA 显卡驱动,不要在 WSL 中安装。WSL 内部会自动通过 Passthrough 机制调用宿主机的驱动,在 WSL Linux 发行版中重复安装 NVIDIA 驱动或 CUDA Toolkit 可能会破坏现有环境。

2.2 容器运行时

请使用原生 Docker Engine,不要使用 Docker Desktop 集成。Docker Desktop 的网络模型与标准 Docker Engine 不同,会导致 GPUStack 组件间通信失败。

如果已经安装 Docker Desktop,请在 Docker Desktop 设置中关闭对目标子系统的集成。参考配置如图所示:

3. 环境准备步骤

步骤 1:安装 NVIDIA 驱动(Windows 端)

前往 NVIDIA 官方驱动下载页面,根据显卡型号下载并安装Windows 版本的最新驱动程序。

  • 下载地址:https://www.nvidia.com/en-us/drivers/

步骤 2:安装或更新 WSL(Windows 端)

以管理员身份打开 PowerShell 或命令提示符,执行以下命令安装或更新 WSL:

/* by yours.tools - online tools website : yours.tools/zh/formatpy.html */ # 安装 WSL(默认安装 Ubuntu) wsl --install # 或者更新 WSL 至最新内核 wsl --update
  • 注意:首次安装 WSL 后,系统可能要求重启计算机。
  • 详细步骤参考:https://learn.microsoft.com/en-us/windows/wsl/install

步骤 3:安装 Docker Engine(WSL 端)

进入 WSL Linux 终端,按照 Docker 官方文档安装 Docker Engine。

  • 官方文档:https://docs.docker.com/engine/install/ubuntu/

步骤 4:安装 NVIDIA Container Toolkit(WSL 端)

  • 官方文档:https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html

安装完成后,需要执行如下配置命令:

/* by yours.tools - online tools website : yours.tools/zh/formatpy.html */ sudo nvidia-ctk runtime configure --runtime=docker sudo systemctl restart docker

4.(可选)局域网访问配置

默认情况下,WSL 使用 NAT 模式,这意味着局域网内的其他设备无法直接访问 WSL 中运行的服务(如 GPUStack Server)。

若需在局域网访问,请使用 "WSL Settings" 工具配置 WSL 网络模式为 "Mirrored",如下图所示

关于 WSL 网络模式的详细信息,请查看微软官方文档:https://learn.microsoft.com/en-us/windows/wsl/networking

5. 部署 GPUStack Server

环境准备就绪后,WSL 即可被视为一个标准的 Linux 环境。

请参考 GPUStack 官方文档进行安装:https://docs.gpustack.ai/latest/installation/installation/

6. 添加 Worker 时的注意事项

在 GPUStack UI 界面中按照引导添加 Worker 时,请务必注意以下两点:

6.1 使用默认用户执行脚本

在执行添加 Worker 的验证脚本时,请使用 WSL 的默认用户执行,不要使用root用户

  • 原因:在 WSL 中,nvidia-smi命令的路径可能未包含在root用户的环境变量中,而默认用户可以直接调用。若使用root执行,即使环境配置正确,GPU 检测也会失败。

6.2 正确填写 Worker IP

在配置 Worker IP 地址时,请填写 WSL 的实际 IP 地址(例如 172.x.x.x),可使用ip addr命令查看。

使用127.0.0.1可能导致添加 Worker 失败。

7. 常见问题与注意事项

  • 重启生效:安装 Windows 显卡驱动和 WSL 后通常需要重启 Windows 系统;安装 NVIDIA Container Toolkit 后需重启 WSL 中的 Docker 服务。
  • WSL 局限性:尽管 NVIDIA 对 WSL 的支持已非常完善,但仍有极少数特定场景可能存在兼容性差异。如遇未知错误,建议搜索 "WSL + [具体错误信息]" 获取解决方案。
  • 组件角色:本指南主要解决 GPU 算力供给(Worker)的问题。对于 GPUStack Server(管理端),由于其主要通过网络通信,对 GPU 依赖较小,部署位置相对灵活,但在 WSL 中统一部署管理更为方便。

GPUStack 更多信息

开源地址:https://github.com/gpustack/gpustack

官网文档:https://docs.gpustack.ai/

GPUStack v2 FAQ:https://p0p8qa0c0s.feishu.cn/wiki/U3rfw356JitxN3kQeyOcrabInAg

欢迎加入社区群交流

如果二维码失效,大家可前往 GPUStack 项目获取最新入群二维码 https://github.com/gpustack/gpustack/blob/main/docs/assets/wechat-group-qrcode.jpg

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/17 6:25:42

使用Docker镜像源加速PyTorch-CUDA环境搭建(清华镜像同步)

使用 Docker 镜像源加速 PyTorch-CUDA 环境搭建(清华镜像同步) 在深度学习项目启动的前48小时里,你是否经历过这样的场景:明明已经装好了 PyTorch,torch.cuda.is_available() 却始终返回 False?或者刚配置完…

作者头像 李华
网站建设 2026/3/31 16:55:00

怎么打造一个真正AI驱动的工业解决方案?实战解析

在智能制造加速演进的今天,“工业解决方案”已超越传统自动化设备的简单叠加,演变为一场以数据为血脉、AI为大脑、真实场景为肌理的系统性工业重构。它不再只是提升效率的工具,而是致力于让工厂从依赖人工经验的被动响应,蜕变为具…

作者头像 李华
网站建设 2026/3/27 17:29:02

PyTorch-CUDA镜像能否用于水资源管理决策

PyTorch-CUDA镜像能否用于水资源管理决策 在极端气候频发、城市用水需求持续攀升的今天,传统“靠经验调度、凭人工巡查”的水资源管理模式正面临前所未有的挑战。一场突如其来的暴雨可能引发城市内涝,一条隐蔽的管网破裂可能导致数万吨清水白白流失——这…

作者头像 李华
网站建设 2026/3/30 21:04:30

计算机毕业设计springboot基于BS的旅店信息管理系统 SpringBoot 驱动的 Web 端旅店综合业务平台 基于浏览器/服务器架构的客栈智慧运营系统

计算机毕业设计springboot基于BS的旅店信息管理系统y7tqfjhw (配套有源码 程序 mysql数据库 论文) 本套源码可以在文本联xi,先看具体系统功能演示视频领取,可分享源码参考。 在旅游与商务出行需求持续升温的今天,传统手工登记、电…

作者头像 李华
网站建设 2026/3/14 14:14:30

计算机毕业设计springboot在线音乐网站 基于SpringBoot的云端数字音乐点播平台 SpringBoot+Vue构建的在线流媒体音乐社区

计算机毕业设计springboot在线音乐网站m195hn9m (配套有源码 程序 mysql数据库 论文) 本套源码可以在文本联xi,先看具体系统功能演示视频领取,可分享源码参考。数字音乐彻底颠覆了唱片店的旧时光——现在,只要戴上耳机&#xff0c…

作者头像 李华
网站建设 2026/4/1 19:00:16

PyTorch-CUDA-v2.7镜像对机器翻译系统的支撑

PyTorch-CUDA-v2.7镜像对机器翻译系统的支撑 在当今多语言互联的时代,高质量的机器翻译已不再是科研实验室里的概念验证,而是嵌入搜索引擎、跨境电商、跨国协作工具中的关键能力。然而,构建一个响应迅速、译文流畅的翻译系统,远不…

作者头像 李华