news 2026/4/10 15:36:11

如何使用 Ollama 打造你的本地 AI 助手

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
如何使用 Ollama 打造你的本地 AI 助手

这两年,大模型几乎成了每个技术人、内容创作者的标配工具
写代码、查资料、做总结、当助手,几乎无所不能。

但你有没有认真想过一件事——
这些能力,其实完全可以跑在你自己的电脑上。


为什么我要把大模型“搬回本地”?

大多数人使用大模型的方式都很相似:
打开一个网页,或者调用一个云端 API,把自己的问题、代码,甚至业务数据发送到远端服务器,然后等待返回结果。

这种方式确实方便,但代价也同样明显:

  • 对网络环境的强依赖
  • 数据与隐私不可控
  • 调用次数与 Token 成本
  • 对第三方平台的长期依赖

如果有一天网络不稳定、接口限流、账号被封,甚至服务直接下线,你会突然意识到一件事:

你“最聪明的助手”,其实并不在你自己手里。

直到我开始尝试——在本地运行大模型


Ollama:把大模型跑在你电脑上的最简单方式

借助Ollama,现在在一台普通的 Mac 或 PC 上,就可以非常轻松地拉取并运行主流开源大模型。

更重要的是:

Ollama 提供了标准化的本地接口
让这些模型可以被各种AI 助手、编辑器、自动化工具直接接入使用。

从使用体验上来说,和云端模型几乎没有区别,但数据完全掌握在自己手里

这一篇文章,我会从零开始,带你完成一次完整的本地大模型实践:

  • 👉 如何安装并运行 Ollama
  • 👉 如何下载并管理本地模型
  • 👉 如何把模型接入你熟悉的 AI 助手
  • 👉 以及,本地 AI 真正适合哪些场景

当 AI 真正跑在你自己电脑上的那一刻,你会发现,很多事情都不一样了。


一、安装 Ollama

官网地址:
👉 https://ollama.com/

官方对 Ollama 的定位很简单也很直接:

Ollama 是使用开放模型实现工作自动化的最简单方法,同时还能确保你的数据安全。

方式一:直接下载安装(推荐)

进入官网,根据你的系统(macOS / Windows / Linux)下载安装即可,安装完成后会自动启动本地服务。


方式二:使用 Docker 部署

如果你更习惯容器化部署,可以直接使用官方镜像:

/* by yours.tools - online tools website : yours.tools/zh/excel2json.html */ docker run \ -d \ --restart=always \ --name ollama \ --gpus=all \ -p 11434:11434 \ -v /home/data/ollama:/root/.ollama \ ollama/ollama
  • 11434:Ollama 默认服务端口
  • /root/.ollama:模型与配置存储目录
  • --gpus=all:如果你的机器支持 GPU,可直接启用

部署完成后,本地 Ollama 服务就已经就绪了。


二、下载并运行模型

模型仓库地址:
👉 https://ollama.com/library/qwen3

这里我选择的是目前开源模型中综合表现非常不错Qwen3,你可以根据自己电脑的配置选择不同参数规模的模型。

常用命令速览

/* by yours.tools - online tools website : yours.tools/zh/excel2json.html */ # 1. 查看已安装模型 ollama list # 2. 拉取模型 ollama pull [模型名称] # 3. 运行模型 ollama run [模型名称] # 4. 删除模型 ollama rm [模型名称] # 5. 查看帮助 ollama help

模型下载完成后,你已经可以在终端中直接与本地大模型进行交互了。


三、接入 AI 助手(不写代码也能用)

如果你不想额外安装客户端应用,一个非常简单的方式是:
👉使用浏览器扩展:Page Assist

配置 Ollama 本地链接

打开 Page Assist 的设置页面,找到模型配置,将 Ollama 的本地地址填入即可(默认是http://localhost:11434)。

配置完成后,选择一个你已经下载好的模型,就可以直接开始对话了。

从使用体验上来看,与常见的云端 AI 助手几乎一致,但所有请求都只在本地完成


写在最后

实际上,不止是 Page Assist。
现在已经有越来越多的 AI 工具、编辑器、自动化系统,都支持通过 Ollama 的本地接口接入模型。

一旦你搭建好了这层“本地大模型能力”,后续几乎可以:

  • 把 AI 接入到编辑器
  • 接入到自动化脚本
  • 接入到个人知识库
  • 甚至接入到你自己的应用中

模型在本地,能力可复用,数据不出门。

如果你之前一直在云端使用大模型,那么这次尝试一次本地部署,可能会成为你使用 AI 的一个重要转折点。


版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/31 4:32:22

小学生都知分母不可为0,然而竟有数学教授说dy/dx中的分母dx可=0

黄小宁刘玉琏等教授说积分式中的dx可为0显然是非常低级的常识性错误。若定积分∫ₐᵇf(x)dx中的无穷小变量dx0则此积分∫ₐᵇ0即其是对0积分,显然无穷多个0的和的极限0。书中的f(x)dxdA(dA/dx)d…

作者头像 李华
网站建设 2026/4/3 22:27:37

leetcode 914. X of a Kind in a Deck of Cards 卡牌分组-耗时100

Problem: 914. X of a Kind in a Deck of Cards 卡牌分组 耗时100%,统计每个数字的频次,若只有一种数字且频次1则false若频次>1则true,然后求出每两种数字频次的最大公约数gcd的最小值mi,对所有频次都要能够被mi整除才行 Code …

作者头像 李华
网站建设 2026/3/31 20:47:45

C++ 核心知识点全解

C 核心知识点全解 一、基础语法与类型系统1. 基本数据类型与大小2. 类型限定符3. 初始化方式4. 左值与右值5. 自增自减6. 流程控制7. 函数重点7.1 默认参数7.2 函数重载7.3 内联函数 inline二、指针、引用、内存结构1. 指针2. 引用 &3. C 内存五大区4. new/delete 与 mallo…

作者头像 李华
网站建设 2026/3/27 22:56:28

保姆级教程:2026年OpenClaw(原Clawdbot)零门槛部署+企业微信接入步骤

2026年OpenClaw(前身为Clawdbot)凭借轻量化部署架构、强大的AI任务自动化执行能力和灵活的生态拓展性,成为企业数字化办公升级的核心工具。阿里云提供的弹性计算资源、成熟的容器化部署环境与企业级安全防护体系,为OpenClaw的稳定…

作者头像 李华
网站建设 2026/4/3 6:40:37

写作小白救星 9个AI论文工具深度测评,专科生毕业论文写作必备

在当前高校教育不断深化的背景下,专科生毕业论文写作正面临前所未有的挑战。从选题构思到资料收集,再到内容撰写与格式调整,每一个环节都可能成为学生们的“拦路虎”。为了帮助更多学生高效完成论文任务,笔者基于2026年的实测数据…

作者头像 李华