- 打开 WSL 终端,执行官方一键安装脚本:
curl -fsSL https://ollama.com/install.sh | sh - 验证安装是否成功:
ollama --version # 输出版本号(如ollama version 0.1.48)则安装成功
三、基础使用:运行 / 管理模型
1. 运行第一个模型(以 DeepSeek 为例)
Ollama 内置了主流模型的配置,直接执行模型名即可自动下载并运行:
ollama run deepseek # 自动下载DeepSeek模型并启动交互界面- 首次运行会下载模型文件(DeepSeek-7B 约 4GB),耐心等待;
- 下载完成后进入交互模式,输入问题即可对话(如:
介绍一下WSL); - 退出交互:输入
/bye或按Ctrl + D。
2. 常用 Ollama 命令(模型管理)
| 命令 | 功能 |
|---|---|
ollama list | 查看已下载的模型 |
ollama pull deepseek | 单独下载模型(不运行) |
ollama rm deepseek | 删除指定模型 |
ollama stop deepseek | 停止运行中的模型 |
ollama serve | 后台启动 Ollama 服务(供 API 调用) |
四、进阶:开启 GPU 加速(WSL 2 专属)
默认 Ollama 使用 CPU 运行模型,开启 GPU 加速可大幅提升推理速度,步骤如下:
- 安装 WSL 版 NVIDIA 驱动:
- 先在 Windows 侧安装 NVIDIA 显卡驱动(需支持 WSL 2):https://www.nvidia.com/Download/index.aspx
- WSL 内安装 CUDA 依赖(无需完整安装 CUDA,仅需运行时):
sudo apt install nvidia-cuda-toolkit -y
- 验证 GPU 识别:
nvidia-smi # 输出显卡信息则GPU适配成功 - 重启 Ollama 服务,自动调用 GPU:
sudo systemctl restart ollama ollama run deepseek # 再次运行模型,会自动使用GPU
五、通过 API 调用 Ollama(开发集成)
Ollama 内置 REST API,可在 WSL 内或 Windows 侧调用:
- 后台启动 Ollama 服务:
ollama serve & # & 表示后台运行 - 调用 API 示例(curl 测试):
curl http://localhost:11434/api/generate -d '{ "model": "deepseek", "prompt": "解释Ollama的核心优势" }' - Python 调用示例:
import requests url = "http://localhost:11434/api/generate" data = { "model": "deepseek", "prompt": "用Python写一个调用Ollama API的示例", "stream": False # 关闭流式输出,直接返回完整结果 } response = requests.post(url, json=data) print(response.json()["response"])
Docker 安装 web-ui 界面
version: '3.8' services: open-webui: image: ghcr.io/open-webui/open-webui:main container_name: open-webui restart: always ports: - "3000:8080" # 主机端口:容器端口,可自定义(如 8088:8080) extra_hosts: - "host.docker.internal:host-gateway" # 关键:让容器访问主机的 Ollama volumes: - ./data:/app/backend/data # 持久化数据(对话、配置、插件) - ./models:/app/models # 可选:挂载自定义模型目录 environment: - OLLAMA_BASE_URL=http://host.docker.internal:11434 # 指定 Ollama 地址 - LANGUAGE=zh-CN # 强制中文界面 - TZ=Asia/Shanghai # 时区配置(避免日志时间错乱)