跳转到主要内容
返回文章列表
教程

DeepSeek R1 本地部署教程:Ollama + Chatbox 零基础配置指南

约 7 分钟阅读
DeepSeek Ollama 本地部署 AI

为什么要本地部署

快速回答: 通过 Ollama + Chatbox 可在 5 分钟内本地部署 DeepSeek R1,推荐 7B 版本(需 8GB+ 显存),支持完全离线运行,告别服务器繁忙。

DeepSeek 官方服务器经常出现「繁忙」状态,本地部署可以:

  • 彻底解决排队等待问题
  • 支持完全断网运行
  • 保护敏感数据隐私
  • 响应速度不受网络波动影响

部署方案概览

项目说明
核心工具Ollama
前端 UIChatbox AI
推荐版本DeepSeek R1 7B
模型大小约 4.7 GB
部署耗时约 5 分钟

硬件配置要求

根据模型参数选择合适版本:

DeepSeek R1 版本与电脑配置对应表

模型版本显存要求适用场景
1.5B4GB+入门体验
7B8GB+日常使用(推荐)
14B16GB+进阶需求
32B+24GB+专业级

建议:普通用户选择 7B 版本,兼顾性能与硬件要求。

第一步:安装 Ollama

下载安装

  1. 访问 Ollama 官网下载对应系统版本
  2. 支持 Windows、macOS、Linux
  3. 安装过程一路默认即可

下载模型

打开终端(CMD / Terminal),执行命令:

ollama run deepseek-r1:7b

等待模型下载完成:

CMD 终端下载 DeepSeek R1 7B 模型过程

下载完成后即可在终端内直接对话,但界面较为简陋。

第二步:配置 Chatbox UI

为获得更好的交互体验,推荐使用 Chatbox AI 作为前端。

安装 Chatbox

下载 Chatbox AI 客户端或使用网页版。

配置环境变量(Windows)

需要设置环境变量让 Chatbox 连接本地 Ollama:

Windows 系统环境变量设置界面

操作步骤:

  1. 打开「控制面板」→「系统」→「高级系统设置」
  2. 点击「环境变量」
  3. 新建系统变量:
    • 变量名:OLLAMA_HOST
    • 变量值:0.0.0.0
  4. 重启 Ollama 服务

连接 Chatbox

  1. 打开 Chatbox
  2. 设置中选择「Ollama」作为 API 提供商
  3. 选择已下载的模型
  4. 开始对话

离线运行验证

本地部署的核心价值是离线可用:

断网环境下 DeepSeek R1 的响应演示

完全禁用网络后,AI 依然能正常响应并展示思考链(Chain of Thought)。

进阶:创建专属助理

Chatbox 支持预设 AI 身份,实现个性化定制:

Chatbox AI 专属助理设置界面

可创建不同角色:

  • 写作助手
  • 代码审查员
  • 翻译专家
  • 学习导师

常见问题

运行速度慢

  • 检查是否选择了过大的模型版本
  • 确认显卡驱动是否最新
  • 关闭其他占用显存的程序

Chatbox 连接失败

  • 确认环境变量设置正确
  • 重启 Ollama 服务
  • 检查防火墙设置

模型下载中断

重新执行 ollama run 命令会自动续传。

适用人群

推荐本地部署:

  • 受够了服务器繁忙的用户
  • 需要处理敏感数据的用户
  • 希望离线使用 AI 的用户
  • 喜欢折腾的开发者和极客

不推荐:

  • 硬件配置过低的用户
  • 需要运行超大参数模型的用户(建议使用云端)

总结

通过 Ollama + Chatbox 的组合,普通用户也能轻松在本地运行 DeepSeek R1。整个过程无需编程知识,5 分钟即可完成配置,是平衡性能与易用性的最佳方案。

相关阅读


奈云Pro团队 头像

奈云Pro团队

认证专家

网络技术专家

专注于网络加速技术研究与测评,为用户提供专业、客观的机场服务评测与使用指南。

网络加速技术机场服务测评客户端使用教程网络安全

本文为技术教程,请根据自身硬件条件选择合适的模型版本。