当前位置:首页 > 学习笔记 > 正文内容

DeepSeek 完全使用指南:国产大模型的正确打开方式

廖万里12小时前学习笔记1

DeepSeek 完全使用指南:国产大模型的正确打开方式

为什么选择 DeepSeek?

2024 年底,DeepSeek 以其惊人的性价比和卓越的性能引爆了整个 AI 圈。作为国产大模型的代表,DeepSeek R1 在推理能力上甚至可以与 GPT-4 掰手腕,而成本却只有对方的几十分之一。

如果你还在犹豫要不要用 DeepSeek,或者不知道怎么用才能发挥最大价值,这篇指南就是为你准备的。

DeepSeek 的三种使用方式

方式一:官网直接使用

最简单的方式就是访问 DeepSeek 官网,注册账号后直接在网页端使用。这种方式适合:

  • 轻度用户,偶尔需要 AI 辅助
  • 不想折腾配置的新手
  • 需要快速验证想法的场景

官网地址:https://chat.deepseek.com

优点是零配置、即开即用,缺点是高峰期可能会排队。

方式二:API 调用

对于开发者来说,API 才是正确的打开方式。DeepSeek API 的价格非常有竞争力:

DeepSeek-V3: 输入 ¥1/百万token,输出 ¥2/百万token
DeepSeek-R1: 输入 ¥4/百万token,输出 ¥16/百万token

对比一下 GPT-4o 的价格(输入 $2.5/百万token,输出 $10/百万token),你就会发现这个价格有多香。

API 调用示例:

from openai import OpenAI

client = OpenAI( api_key="your-api-key", base_url="https://api.deepseek.com" )

response = client.chat.completions.create( model="deepseek-chat", messages=[ {"role": "system", "content": "你是一个专业的编程助手"}, {"role": "user", "content": "用 Python 写一个快速排序"} ] )

print(response.choices[0].message.content)

方式三:本地部署

如果你有显卡资源,可以本地部署 DeepSeek 模型。使用 Ollama 或 vLLM 都可以轻松实现:


ollama run deepseek-r1:7b

python -m vllm.entrypoints.openai.api_server \ --model deepseek-ai/DeepSeek-R1-Distill-Qwen-7B \ --port 8000

本地部署的好处是数据不出本地,适合处理敏感信息。

DeepSeek R1 的推理能力

DeepSeek R1 是专门为推理任务优化的模型,它会展示"思考过程",让你看到 AI 是如何一步步推导出答案的。

这种"思维链"模式特别适合:

  • 数学证明和计算
  • 代码调试和优化
  • 复杂逻辑分析
  • 学术研究辅助

举个例子,当你让 R1 解一道数学题时,它会先分析题目,然后一步步推导,最后给出答案和验证过程。这种透明度是普通模型不具备的。

提示词技巧

技巧一:明确角色和任务

不要问得太泛,给模型一个明确的身份:

❌ 帮我写个脚本
✅ 你是一个 Python 自动化专家,帮我写一个批量重命名图片的脚本,
   支持按日期排序,输出格式为 20240101_001.jpg

技巧二:使用结构化输出

让 AI 按你想要的格式输出:

请分析以下代码的复杂度,按以下格式输出:
1. 时间复杂度:O(?)
2. 空间复杂度:O(?)
3. 优化建议:...
4. 改进代码:...

技巧三:利用 R1 的推理能力

对于复杂问题,明确要求展示思考过程:

请分析这个 bug 的根本原因,展示你的推理过程:
1. 首先列出可能的原因
2. 逐一排除
3. 给出最终结论和修复方案

实战案例:用 DeepSeek 写爬虫

假设你要爬取一个电商网站的商品信息,可以这样做:

import requests
from bs4 import BeautifulSoup

def scrape_products(url): """DeepSeek 生成的爬虫示例""" headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36' } response = requests.get(url, headers=headers) soup = BeautifulSoup(response.text, 'html.parser') products = [] for item in soup.select('.product-item'): products.append({ 'name': item.select_one('.name').text.strip(), 'price': item.select_one('.price').text.strip(), 'rating': item.select_one('.rating').text.strip() if item.select_one('.rating') else 'N/A' }) return products

data = scrape_products('https://example.com/products') print(f"获取到 {len(data)} 个商品")

这只是一个基础示例,DeepSeek 可以帮你处理更复杂的场景,比如反爬虫、代理池、异步请求等。

成本对比:DeepSeek vs 其他模型

为了让你更直观地了解 DeepSeek 的性价比,这里做一个简单的对比:

模型输入价格输出价格推理能力
DeepSeek-V3¥1/M¥2/M★★★☆☆
DeepSeek-R1¥4/M¥16/M★★★★★
GPT-4o¥18/M¥72/M★★★★☆
Claude 3.5 Sonnet¥21/M¥105/M★★★★★
按月使用 100 万 token 计算,DeepSeek-V3 的成本不到 GPT-4o 的十分之一。

注意事项

使用 DeepSeek 时有几个注意点:

1. 高峰期可能响应慢:DeepSeek 太火了,晚上高峰期可能需要排队 2. API 限流:新账号有速率限制,需要逐步提升额度 3. 输出长度:R1 的推理过程可能很长,要预留足够的 token 4. 中文优化:DeepSeek 对中文的理解非常出色,中文场景优先选择

总结

DeepSeek 的出现,让高质量 AI 变得人人可用。无论你是开发者、学生还是普通用户,都能从中找到适合自己的使用方式。

推荐配置:日常对话用 DeepSeek-V3,需要深度推理时切换到 R1,重要数据本地部署。

AI 工具只是辅助,关键还是你如何用它来提升效率。希望这篇指南能帮你更好地驾驭 DeepSeek,让 AI 真正成为你的生产力倍增器。


你在使用 DeepSeek 时有什么心得?欢迎在评论区分享你的经验!

本文链接:https://www.kkkliao.cn/?id=658 转载需授权!

分享到:

版权声明:本文由廖万里的博客发布,如需转载请注明出处。


发表评论

访客

看不清,换一张

◎欢迎参与讨论,请在这里发表您的看法和观点。