当前位置:首页 > ChatGPT > 正文内容

DeepSeek 本地部署教程 - 免费使用国产最强 AI

廖万里13小时前ChatGPT2

DeepSeek 本地部署教程 - 免费使用国产最强 AI

DeepSeek 是国产开源大模型的佼佼者,性能媲美 GPT-4,而且完全免费!本教程教你如何在本地部署 DeepSeek,保护隐私的同时享受顶级 AI 能力。

---

🔥 DeepSeek 简介

DeepSeek(深度求索)是一款由国产团队开发的大语言模型,具有以下优势:

特性 | 说明 ------|------开源免费 | MIT 协议,商用无限制 性能强悍 | 多项测试超越 GPT-3.5,接近 GPT-4 中文友好 | 原生中文训练,理解能力更强 本地部署 | 数据不出本地,隐私安全 多尺寸可选 | 1.5B / 7B / 67B 等多种规格
---

📦 方式一:使用 Ollama 快速部署(推荐)

Ollama 是最简单的本地大模型运行工具,一条命令即可运行 DeepSeek。

安装 Ollama

macOS / Linux:

curl -fsSL https://ollama.com/install.sh | sh

Windows: 下载安装包:https://ollama.com/download

运行 DeepSeek

下载并运行 DeepSeek 7B 版本

ollama run deepseek-r1:7b

或者选择更小的版本

ollama run deepseek-r1:1.5b

或者选择更大的版本(需要更多显存)

ollama run deepseek-r1:14b ollama run deepseek-r1:32b ollama run deepseek-r1:70b

测试对话

>>> 你好,请介绍一下你自己
你好!我是 DeepSeek,一个由深度求索公司开发的 AI 助手...

---

🖥️ 方式二:使用 LM Studio 图形界面部署

如果你不习惯命令行,LM Studio 提供了漂亮的图形界面。

下载安装

访问官网下载:https://lmstudio.ai/

使用步骤

1. 打开 LM Studio 2. 搜索 deepseek 3. 选择合适的模型版本下载 4. 点击 "Chat" 开始对话

推荐配置:

  • 8GB 内存:选择 7B 模型
  • 16GB 内存:选择 14B 模型
  • 32GB 内存:选择 32B 模型
  • 64GB+ 内存:选择 70B 模型
---

💻 方式三:使用 Python 直接加载模型

适合有开发经验的用户,可以自定义更多参数。

安装依赖

pip install torch transformers accelerate

加载模型代码

from transformers import AutoTokenizer, AutoModelForCausalLM
import torch

加载模型

model_path = "deepseek-ai/deepseek-llm-7b-chat" tokenizer = AutoTokenizer.from_pretrained(model_path) model = AutoModelForCausalLM.from_pretrained( model_path, torch_dtype=torch.float16, device_map="auto" )

对话

messages = [ {"role": "user", "content": "你好,请介绍一下 DeepSeek"} ] inputs = tokenizer.apply_chat_template( messages, return_tensors="pt" ).to(model.device)

outputs = model.generate( inputs, max_new_tokens=512, temperature=0.7, top_p=0.9 )

response = tokenizer.decode(outputs[0], skip_special_tokens=True) print(response)

---

🌐 搭建 Web 界面(Open WebUI)

让本地 DeepSeek 拥有像 ChatGPT 一样的 Web 界面。

使用 Docker 部署

拉取 Open WebUI 镜像

docker pull ghcr.io/open-webui/open-webui:main

运行容器

docker run -d -p 3000:8080 \ --add-host=host.docker.internal:host-gateway \ -v open-webui:/app/backend/data \ --name open-webui \ ghcr.io/open-webui/open-webui:main

访问界面

打开浏览器访问:http://localhost:3000

首次使用需要注册账号(数据存储在本地),然后选择 DeepSeek 模型即可开始对话。

---

⚡ 性能优化建议

显存优化

如果显存不够,可以使用量化版本:

使用 4-bit 量化版本

ollama run deepseek-r1:7b-q4_0

使用 8-bit 量化版本

ollama run deepseek-r1:7b-q8_0

CPU 推理

没有显卡也可以用 CPU 运行,但速度较慢:

强制使用 CPU

OLLAMA_ORIGINS=* ollama run deepseek-r1:1.5b

---

🔗 API 接口调用

Ollama 提供 REST API,可以在你的程序中调用:

获取模型列表

curl http://localhost:11434/api/tags

对话接口

curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1:7b",
  "prompt": "你好,请介绍一下你自己"
}'

Python 调用示例

import requests

response = requests.post( "http://localhost:11434/api/generate", json={ "model": "deepseek-r1:7b", "prompt": "写一首关于春天的诗", "stream": False } )

print(response.json()["response"])

---

📊 模型对比

模型 显存需求 智能程度 -------------------------- deepseek-r1:1.5b 2GB ⭐⭐ deepseek-r1:7b 6GB ⭐⭐⭐ deepseek-r1:14b 12GB ⭐⭐⭐⭐ deepseek-r1:32b 24GB ⭐⭐⭐⭐⭐ deepseek-r1:70b 48GB ⭐⭐⭐⭐⭐
参数量 速度
--------------
1.5B ⭐⭐⭐⭐⭐
7B ⭐⭐⭐⭐
14B ⭐⭐⭐
32B ⭐⭐
70B
---

❓ 常见问题

1. 模型下载太慢怎么办?

使用国内镜像:

export OLLAMA_MIRROR=https://ollama.ai-yyds.com
ollama pull deepseek-r1:7b

2. 显存不够怎么办?

使用量化版本或选择更小的模型。

3. 如何查看已下载的模型?

ollama list

4. 如何删除模型?

ollama rm deepseek-r1:7b

---

🎯 总结

DeepSeek 是目前最值得尝试的国产开源大模型,通过本教程你可以:

✅ 在本地免费使用顶级 AI ✅ 保护隐私,数据不出本地 ✅ 自定义部署,灵活配置 ✅ 搭建私有 ChatGPT 界面

---

部署过程中有问题欢迎留言交流!
>
下一篇预告:DeepSeek 进阶玩法 - 微调你的专属模型

---

作者:廖万里 发布时间:2026年3月16日

本文链接:https://www.kkkliao.cn/?id=616 转载需授权!

分享到:

版权声明:本文由廖万里的博客发布,如需转载请注明出处。


返回列表

上一篇:ChatGPT中文网 |OpenAI模型介绍

没有最新的文章了...

“DeepSeek 本地部署教程 - 免费使用国产最强 AI” 的相关文章

发表评论

访客

看不清,换一张

◎欢迎参与讨论,请在这里发表您的看法和观点。