如何用 LobeChat 免费使用 DeepSeek 大模型
你有没有发现,最近朋友圈里讨论 AI 的人越来越多?不只是技术圈在聊,连做设计、写文案、搞教育的朋友也开始用上了自己的“AI 助手”。而在这股浪潮中,DeepSeek正悄然成为国产大模型中的明星选手。
它不仅能流畅处理中文对话,在代码生成和逻辑推理上的表现甚至可以媲美 GPT-4。更让人惊喜的是——现在我们完全可以用零成本把它接入一个像 ChatGPT 一样好用的界面,比如LobeChat,打造属于自己的智能助手。
重点是:不需要买服务器、不用配显卡,新用户还能享受百万 Token 免费额度。整个过程就像搭积木一样简单。
为什么这个组合值得尝试?
先说说 LobeChat。如果你厌倦了官方平台的各种限制,又想要一个美观、功能齐全的聊天界面,那它几乎是目前最好的开源选择之一。
基于 Next.js 构建,它的交互体验非常接近 ChatGPT,但自由度高得多。支持多模型切换、插件扩展、文件上传解析、语音输入输出,甚至还能自定义角色设定,比如“Python 编程导师”或“小红书文案专家”。
更重要的是,它原生兼容 OpenAI 协议,这意味着只要某个服务能提供类 OpenAI 接口,就能轻松接入——阿里云百炼平台正是这样一个“宝藏入口”。
至于 DeepSeek,这家由中国团队开发的大模型系列已经推出了多个版本:
- DeepSeek-V2/V3:通用能力强,响应快;
- DeepSeek-R1:专为复杂推理优化,支持思维链(Chain-of-Thought)输出;
- DeepSeek-Coder:面向开发者,代码补全与解释能力极强。
最关键的一点:通过阿里云百炼平台,我们可以免费调用这些高端模型,包括deepseek-r1!
虽然官方 API 有时会遇到限流或拥堵,但借助第三方平台的稳定接口,反而更容易获得高质量服务。
最推荐的方式:阿里云百炼 + LobeChat(免部署)
这是我个人最推荐的方案,尤其适合不想折腾环境、只想快速上手的用户。
整个流程分为两步:获取 API 密钥 → 配置 LobeChat。全程无需本地运行任何服务,几分钟就能搞定。
第一步:注册阿里云百炼,拿密钥和 Endpoint
打开 阿里云百炼控制台,登录或注册账号。新用户默认赠送100万 Token 免费额度,日常使用足够撑几个月。
进入后台后,点击右上角头像 →「API-Key」→「创建我的 API-Key」,复制生成的密钥并保存好(只显示一次)。
然后去【模型广场】搜索deepseek,你会看到以下可用模型:
| 模型名称 | 用途说明 |
|---|---|
deepseek-chat | 日常对话,响应速度快 |
deepseek-r1 | 强化推理,适合解题、分析 |
deepseek-coder | 编程专用,支持多种语言 |
记下你想用的模型 ID,后续要填进去。
同时,准备好 API 请求地址(即 Base URL):
https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation这个地址是关键,因为它是兼容 OpenAI 格式的代理端点,能让 LobeChat 成功对接。
第二步:一键部署 LobeChat(推荐计算巢)
别急着装 Docker 或自己搭服务器。阿里云提供了“计算巢”服务,相当于把 LobeChat 打包成镜像模板,点几下就能上线。
访问 计算巢市场,搜索 “LobeChat”,选择官方提供的镜像服务,点击「免费开通」。
填写实例名称、公网 IP 和安全组规则(默认即可),等待 2~3 分钟,系统自动完成部署。
完成后你会得到一个公网访问地址,形如:
http://<你的IP>:3210浏览器打开就能看到清爽的聊天界面,和 ChatGPT 几乎一模一样。
💡 小提示:首次访问可能需要等服务启动完成,如果页面空白,请稍等半分钟刷新一下。
第三步:配置 DeepSeek 模型连接
现在进入核心环节:让 LobeChat 认识 DeepSeek。
虽然百炼不是 OpenAI,但它实现了 OpenAI 兼容接口,所以我们可以在 LobeChat 中添加一个“自定义 OpenAI Provider”。
添加自定义模型源
- 打开 LobeChat 界面,点击左下角 ⚙️ 进入「设置」;
- 选择「模型设置」→「添加 Provider」;
- 类型选
OpenAI,名称可填“DeepSeek via 百炼”; - 填入 Base URL:
https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation - API Key 填你刚才复制的那个密钥;
- 点击保存。
这时候你可能会发现模型列表里没有deepseek-*,这是因为 LobeChat 不会自动识别非标准模型名,必须手动注册。
手动添加 DeepSeek 模型
回到模型设置页,在「模型列表」下方找到「手动添加模型」选项:
- 模型 ID 输入:
deepseek-r1或deepseek-chat - 名称自定义,例如:“DeepSeek-R1 推理专家”
- 功能类型选
chat - 提交确认
保存后返回主界面,在顶部模型选择器中就能看到你刚添加的模型了。
试试问一个问题:
“请一步步推理:为什么地球上会有昼夜交替现象?”
你会发现答案是以流式逐字输出的,而且结构清晰,像是看着模型一边思考一边写下结论——这正是 R1 版本支持思维链推理的魅力所在。
进阶玩法:本地私有化部署(适合有设备的用户)
如果你对数据隐私要求更高,或者想彻底摆脱网络依赖,也可以考虑本地运行 DeepSeek。
这种方式需要一定的硬件基础,但一旦跑起来,完全离线可用。
方案一:Ollama + DeepSeek 本地运行
前提条件:
- 内存 ≥16GB
- 显卡建议 RTX 3060 及以上(显存 ≥8GB)
- 安装 Ollama
操作步骤如下:
# 下载并安装 Ollama curl -fsSL https://ollama.com/install.sh | sh # 拉取 DeepSeek 模型(7B 量化版) ollama pull deepseek-llm:7b-q4_K_M # 启动服务 ollama serve启动成功后,默认监听http://localhost:11434。
接着在 LobeChat 中配置:
- Provider 选
Ollama - 地址填
http://localhost:11434 - 自动加载所有已下载模型,包括
deepseek-*
优点很明显:全程离线,数据不外泄;缺点是首次加载慢,且对设备有一定要求。
不过社区已经有轻量化的量化版本,比如q4_K_M精度损失小,8GB 显存也能勉强运行。
方案二:用计算巢部署 DeepSeek 实例(远程私有化)
阿里云还提供了一个专门的 DeepSeek WebUI 模板,内置图形界面和 Ollama 支持,适合不想本地跑但又希望独立掌控的用户。
访问链接:DeepSeek 专用实例
开通后你会获得一台预装好的云主机,自带网页聊天界面,并开放了 Ollama 的 API 端口。
如果你想继续使用 LobeChat 作为前端,只需:
- 在安全组中放行端口
11434 - 在 LobeChat 中将 Ollama 地址改为该实例的公网 IP
- 即可通过 LobeChat 调用远程模型
这样既享受了云端算力,又能统一管理界面,灵活性更强。
使用技巧与常见问题
🔄 如何提升响应质量?
- 使用
deepseek-r1模型时,明确引导其“逐步推理”,例如开头加上:“请用思维链方式回答……” - 在 LobeChat 中开启「流式输出」和「Markdown 渲染」,视觉体验更佳。
- 利用角色预设功能,固定 prompt 模板,比如设定为“资深 Python 工程师”,避免每次重复说明。
🔐 API 密钥安全吗?
阿里云的 API-Key 支持权限管理和访问控制。你可以定期更换密钥,或通过 RAM 子账户分配最小权限,降低泄露风险。
另外,不要将密钥提交到公开仓库或分享给他人。
💬 是否支持语音和文件问答?
当然。LobeChat 内建 STT/TTS 模块,开启后可以直接说话提问,回答也会朗读出来。
文件方面,支持上传 PDF、Word、TXT 等格式,模型会自动提取内容并回答相关问题。非常适合阅读论文、合同审查等场景。
比如你可以传一份产品说明书 PDF,然后问:“这份文档提到的主要技术参数有哪些?”
总结:普通人也能拥有的 AI 生产力工具
过去我们总觉得大模型是科技公司的专利,但现在不一样了。
借助像LobeChat这样的开源项目,加上阿里云百炼这类普惠型平台,每个人都能以近乎零成本的方式,搭建出功能完整的 AI 助手。
你不需要懂底层原理,也不必拥有顶级显卡,只需要一次简单的配置,就可以:
✅ 免费使用 DeepSeek 最强推理模型
✅ 实现语音交互、文件理解、插件扩展
✅ 构建专属的知识库助手或编程伴侣
这种低门槛的技术民主化趋势,才是真正推动 AI 落地的关键。
未来不一定属于那些拥有最大模型的人,而是属于那些最会使用模型的人。
所以,别再观望了。去计算巢部署一个 LobeChat,接上 DeepSeek,让你的第一个 AI 助手开始工作吧。
🔗 快速入口汇总:
- LobeChat GitHub
- 阿里云百炼平台
- 计算巢市场
- DeepSeek 官网
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考