DeepSeek 本地部署教程 - 免费使用国产最强 AI
DeepSeek 本地部署教程 - 免费使用国产最强 AI
DeepSeek 是国产开源大模型的佼佼者,性能媲美 GPT-4,而且完全免费!本教程教你如何在本地部署 DeepSeek,保护隐私的同时享受顶级 AI 能力。
---
🔥 DeepSeek 简介
DeepSeek(深度求索)是一款由国产团队开发的大语言模型,具有以下优势:
📦 方式一:使用 Ollama 快速部署(推荐)
Ollama 是最简单的本地大模型运行工具,一条命令即可运行 DeepSeek。
安装 Ollama
macOS / Linux:
curl -fsSL https://ollama.com/install.sh | sh
Windows: 下载安装包:https://ollama.com/download
运行 DeepSeek
下载并运行 DeepSeek 7B 版本
ollama run deepseek-r1:7b或者选择更小的版本
ollama run deepseek-r1:1.5b或者选择更大的版本(需要更多显存)
ollama run deepseek-r1:14b ollama run deepseek-r1:32b ollama run deepseek-r1:70b
测试对话
>>> 你好,请介绍一下你自己 你好!我是 DeepSeek,一个由深度求索公司开发的 AI 助手...
---
🖥️ 方式二:使用 LM Studio 图形界面部署
如果你不习惯命令行,LM Studio 提供了漂亮的图形界面。
下载安装
访问官网下载:https://lmstudio.ai/
使用步骤
1. 打开 LM Studio
2. 搜索 deepseek
3. 选择合适的模型版本下载
4. 点击 "Chat" 开始对话
推荐配置:
- 8GB 内存:选择 7B 模型
- 16GB 内存:选择 14B 模型
- 32GB 内存:选择 32B 模型
- 64GB+ 内存:选择 70B 模型
💻 方式三:使用 Python 直接加载模型
适合有开发经验的用户,可以自定义更多参数。
安装依赖
pip install torch transformers accelerate
加载模型代码
from transformers import AutoTokenizer, AutoModelForCausalLM import torch加载模型
model_path = "deepseek-ai/deepseek-llm-7b-chat" tokenizer = AutoTokenizer.from_pretrained(model_path) model = AutoModelForCausalLM.from_pretrained( model_path, torch_dtype=torch.float16, device_map="auto" )对话
messages = [ {"role": "user", "content": "你好,请介绍一下 DeepSeek"} ] inputs = tokenizer.apply_chat_template( messages, return_tensors="pt" ).to(model.device)outputs = model.generate( inputs, max_new_tokens=512, temperature=0.7, top_p=0.9 )
response = tokenizer.decode(outputs[0], skip_special_tokens=True) print(response)
---
🌐 搭建 Web 界面(Open WebUI)
让本地 DeepSeek 拥有像 ChatGPT 一样的 Web 界面。
使用 Docker 部署
拉取 Open WebUI 镜像
docker pull ghcr.io/open-webui/open-webui:main运行容器
docker run -d -p 3000:8080 \ --add-host=host.docker.internal:host-gateway \ -v open-webui:/app/backend/data \ --name open-webui \ ghcr.io/open-webui/open-webui:main
访问界面
打开浏览器访问:http://localhost:3000
首次使用需要注册账号(数据存储在本地),然后选择 DeepSeek 模型即可开始对话。
---
⚡ 性能优化建议
显存优化
如果显存不够,可以使用量化版本:
使用 4-bit 量化版本
ollama run deepseek-r1:7b-q4_0使用 8-bit 量化版本
ollama run deepseek-r1:7b-q8_0
CPU 推理
没有显卡也可以用 CPU 运行,但速度较慢:
强制使用 CPU
OLLAMA_ORIGINS=* ollama run deepseek-r1:1.5b
---
🔗 API 接口调用
Ollama 提供 REST API,可以在你的程序中调用:
获取模型列表
curl http://localhost:11434/api/tags
对话接口
curl http://localhost:11434/api/generate -d '{
"model": "deepseek-r1:7b",
"prompt": "你好,请介绍一下你自己"
}'
Python 调用示例
import requestsresponse = requests.post( "http://localhost:11434/api/generate", json={ "model": "deepseek-r1:7b", "prompt": "写一首关于春天的诗", "stream": False } )
print(response.json()["response"])
---
📊 模型对比
| 参数量 | 显存需求速度 | 智能程度
| -------- | ---------------- | ----------
| 1.5B | 2GB⭐⭐⭐⭐⭐ | ⭐⭐
| 7B | 6GB⭐⭐⭐⭐ | ⭐⭐⭐
| 14B | 12GB⭐⭐⭐ | ⭐⭐⭐⭐
| 32B | 24GB⭐⭐ | ⭐⭐⭐⭐⭐
| 70B | 48GB⭐ | ⭐⭐⭐⭐⭐
❓ 常见问题
1. 模型下载太慢怎么办?
使用国内镜像:
export OLLAMA_MIRROR=https://ollama.ai-yyds.com ollama pull deepseek-r1:7b
2. 显存不够怎么办?
使用量化版本或选择更小的模型。
3. 如何查看已下载的模型?
ollama list
4. 如何删除模型?
ollama rm deepseek-r1:7b
---
🎯 总结
DeepSeek 是目前最值得尝试的国产开源大模型,通过本教程你可以:
✅ 在本地免费使用顶级 AI ✅ 保护隐私,数据不出本地 ✅ 自定义部署,灵活配置 ✅ 搭建私有 ChatGPT 界面
---
部署过程中有问题欢迎留言交流!>
下一篇预告:DeepSeek 进阶玩法 - 微调你的专属模型
---
作者:廖万里 发布时间:2026年3月16日
本文链接:https://www.kkkliao.cn/?id=616 转载需授权!
版权声明:本文由廖万里的博客发布,如需转载请注明出处。



手机流量卡
免费领卡
号卡合伙人
产品服务
关于本站
