Hermes Agent 接入 DeepSeek 完全指南:从 API Key 到多模型切换(2026详细教程)

Hermes Agent 接入 DeepSeek 完全指南:从 API Key 到多模型切换(2026 详细教程)
---
前言
2026 年,AI 编程助手已经成为开发者日常工作中不可或缺的工具。在众多选择中,Hermes Agent 凭借其开源、可定制、支持多模型后端的特点,迅速获得了大量开发者的青睐。而 DeepSeek 作为国产大模型的佼佼者,以其极高的性价比和出色的代码能力,成为 Hermes Agent 最受欢迎的后端模型之一。
然而,很多开发者在尝试将 Hermes Agent 接入 DeepSeek 时,会遇到各种问题:API Key 从哪里获取?配置文件怎么写?如何开启思考模式?国内网络环境下如何加速?多模型之间如何灵活切换?
本文将用超过 4000 字的篇幅,从零开始,手把手带你完成 Hermes Agent + DeepSeek 的完整配置流程。无论你是刚接触 Hermes Agent 的新手,还是希望优化现有配置的老用户,这篇教程都能为你提供详尽的指导。
---
目录
---
一、什么是 Hermes Agent?
Hermes Agent 是由 Nous Research 开发的一款开源智能 AI 助手。与传统的聊天机器人不同,Hermes Agent 被设计为一个可执行操作的智能体(Agent)——它不仅能回答问题,还能:
- 执行 Shell 命令
- 读写文件系统
- 管理后台进程
- 调用外部工具和 API
- 进行多步骤的自动化任务
1.1 核心特性一览
| 特性 | 说明 | |------|------| | 开源 | 代码完全开源,可自托管部署 | | 多模型支持 | 兼容 OpenAI API 格式的任何模型 | | 工具系统 | 内置文件操作、终端执行、进程管理等工具 | | 思考模式 | 支持 CoT(Chain of Thought)推理 | | 跨平台 | macOS、Linux、Windows 均可运行 | | 可扩展 | 支持自定义技能(Skills)系统 |
1.2 版本说明
截至 2026 年 5 月,Hermes Agent 的最新稳定版本已经对 DeepSeek 模型提供了原生支持,包括对 DeepSeek 思考链(reasoning_content)的完整解析。本文的所有配置均基于该版本。
---
二、为什么选择 DeepSeek 作为后端?
在众多可用的模型后端中,DeepSeek 凭借以下几个突出优势,成为 Hermes Agent 用户的优选:
2.1 极致的性价比
DeepSeek 的 API 定价在行业中极具竞争力。以 DeepSeek-V3 为例,其输入价格仅为每百万 Token 约 2 元人民币,输出价格约为每百万 Token 8 元人民币。对于日常使用 Hermes Agent 进行开发的用户来说,一个月的费用通常不会超过一杯咖啡的价格。
2.2 出色的代码能力
在 HumanEval、MBPP 等权威代码评测基准上,DeepSeek 系列模型的表现一直名列前茅。DeepSeek-V3 和最新的 DeepSeek-R1 在代码生成、调试、重构等方面的能力,足以满足日常开发需求。
2.3 原生思考模式
DeepSeek-R1 和 DeepSeek-V3.1 等模型支持深度思考模式,在回答复杂问题时会先进行内部推理,然后给出经过深思熟虑的答案。Hermes Agent 完整支持这一特性,可以通过配置开启。
2.4 国内网络友好
对于国内用户来说,DeepSeek 的 API 服务部署在国内,无需科学上网即可直接访问,延迟低、稳定性高。这一点对于需要频繁调用 API 的 Agent 应用尤为重要。
2.5 模型选择丰富
DeepSeek 提供了多个版本的模型,适用于不同场景:
| 模型名称 | 特点 | 适用场景 |
|----------|------|----------|
| deepseek-chat(V3) | 通用对话模型,速度快 | 日常开发、代码生成 |
| deepseek-reasoner(R1) | 深度推理模型,支持思考链 | 复杂逻辑、算法设计 |
| deepseek-v3.1 | V3 的升级版,支持思考模式 | 需要深度思考的通用任务 |
---
三、第一步:获取 DeepSeek API Key
在配置 Hermes Agent 之前,你首先需要获取 DeepSeek 的 API Key。以下是详细步骤:
3.1 注册 DeepSeek 开发者账号
3.2 创建 API Key
hermes-agent,方便后续管理sk- 开头的密钥字符串示例格式: sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
3.3 充值(如需)
3.4 验证 API Key 是否可用
在配置 Hermes Agent 之前,建议先用 curl 命令快速验证 API Key 是否有效:
curl https://api.deepseek.com/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-你的API-Key" \
-d '{
"model": "deepseek-chat",
"messages": [
{"role": "user", "content": "Hello, DeepSeek!"}
]
}'
如果返回了正常的 JSON 响应(包含 choices 字段),说明你的 API Key 配置正确。
---
四、第二步:安装与初始化 Hermes Agent
4.1 环境要求
- 操作系统:macOS 12+、Ubuntu 20.04+、Windows 10/11(WSL2 推荐)
- Python:3.10 或更高版本
- Node.js(部分功能需要):18.0+
- Git:2.30+
4.2 安装 Hermes Agent
目前推荐的安装方式是通过官方安装脚本:
使用 curl 下载并执行安装脚本
curl -fsSL https://hermes-agent.nousresearch.com/install.sh | bash
安装脚本会自动完成以下操作:
~/.hermes/hermes-agent/ 目录下创建默认配置文件安装完成后,验证安装是否成功:
hermes-agent --version
如果正确输出版本号(例如 hermes-agent 2.x.x),说明安装成功。
4.3 手动安装(备选方案)
如果你更倾向于手动控制安装过程,也可以通过 pip 安装:
创建并激活虚拟环境
python3 -m venv ~/.hermes/venv source ~/.hermes/venv/bin/activate安装 Hermes Agent
pip install hermes-agent初始化配置目录
hermes-agent init
4.4 配置文件结构概览
初始化完成后,Hermes Agent 的配置文件位于:
~/.hermes/hermes-agent/ ├── config.yaml # 主配置文件 ├── models.yaml # 模型定义文件(多模型切换的关键) ├── skills/ # 自定义技能目录 └── logs/ # 运行日志
---
五、第三步:配置 DeepSeek 为默认模型
这是本文的核心章节。我们将详细讲解如何将 DeepSeek 配置为 Hermes Agent 的默认后端模型。
5.1 编辑 models.yaml
打开 ~/.hermes/hermes-agent/models.yaml 文件,添加 DeepSeek 模型配置:
~/.hermes/hermes-agent/models.yaml
models: # DeepSeek V3 - 通用对话模型(推荐作为默认模型) deepseek-v3: provider: deepseek model_name: deepseek-chat api_base: https://api.deepseek.com/v1 api_key: ${DEEPSEEK_API_KEY} max_tokens: 8192 temperature: 0.7 top_p: 0.9 supports_thinking: false description: "DeepSeek V3 - 快速通用模型,适合日常开发"
# DeepSeek R1 - 深度推理模型 deepseek-r1: provider: deepseek model_name: deepseek-reasoner api_base: https://api.deepseek.com/v1 api_key: ${DEEPSEEK_API_KEY} max_tokens: 8192 temperature: 0.5 top_p: 0.95 supports_thinking: true thinking_mode: native description: "DeepSeek R1 - 深度推理模型,适合复杂任务"
# DeepSeek V3.1 - 支持思考模式的通用模型 deepseek-v3.1: provider: deepseek model_name: deepseek-v3.1 api_base: https://api.deepseek.com/v1 api_key: ${DEEPSEEK_API_KEY} max_tokens: 8192 temperature: 0.6 thinking_mode: auto description: "DeepSeek V3.1 - 升级版,支持自动思考模式"
5.2 编辑 config.yaml
打开 ~/.hermes/hermes-agent/config.yaml,设置默认模型:
~/.hermes/hermes-agent/config.yaml
默认使用的模型(指向 models.yaml 中定义的模型名称)
default_model: deepseek-v3全局设置
global: # 工作目录 workspace: ~/ # 最大并发工具调用数 max_concurrent_tools: 3 # 命令执行超时时间(秒) command_timeout: 300 # 是否启用自动确认(危险命令需要手动确认) auto_confirm: false日志配置
logging: level: info # debug | info | warning | error file: ~/.hermes/hermes-agent/logs/hermes.log max_size_mb: 50 backup_count: 3
5.3 设置环境变量
为了安全起见,建议通过环境变量设置 API Key,而不是直接写在配置文件中:
在 ~/.bashrc 或 ~/.zshrc 中添加
export DEEPSEEK_API_KEY="sk-你的API-Key"使配置生效
source ~/.bashrc # 或 source ~/.zshrc
你也可以创建一个 .env 文件在 Hermes Agent 的配置目录中:
~/.hermes/hermes-agent/.env
DEEPSEEK_API_KEY=sk-你的API-Key
5.4 验证配置
完成以上配置后,启动 Hermes Agent 并测试 DeepSeek 是否正常工作:
启动 Hermes Agent
hermes-agent start或者直接进入交互模式
hermes-agent chat
在交互界面中输入一个简单的测试问题:
> 请用 Python 写一个快速排序算法
如果 Hermes Agent 能够正常调用 DeepSeek API 并返回正确的代码,说明配置成功。
5.5 配置参数详解
以下是对 models.yaml 中各个配置参数的详细说明:
| 参数 | 类型 | 必填 | 说明 |
|------|------|------|------|
| provider | string | 是 | 模型提供商标识,DeepSeek 使用 deepseek |
| model_name | string | 是 | API 调用时使用的模型名称 |
| api_base | string | 是 | API 端点地址 |
| api_key | string | 是 | API 密钥,支持 ${ENV_VAR} 语法引用环境变量 |
| max_tokens | integer | 否 | 单次响应的最大 Token 数,默认 4096 |
| temperature | float | 否 | 采样温度,0-2 之间,越高越随机 |
| top_p | float | 否 | 核采样参数,0-1 之间 |
| supports_thinking | boolean | 否 | 是否支持思考模式 |
| thinking_mode | string | 否 | 思考模式类型:native、auto、off |
| description | string | 否 | 模型描述,用于在模型列表中显示 |
---
六、第四步:多模型切换配置
Hermes Agent 的一个强大特性是支持运行时动态切换模型。这意味着你可以在一次会话中根据任务需求灵活选择不同的模型。
6.1 在 models.yaml 中定义多个模型
参考第五章的配置,你可以在 models.yaml 中定义任意数量的模型。以下是一个更完整的配置示例:
~/.hermes/hermes-agent/models.yaml
models: # DeepSeek 系列 deepseek-v3: provider: deepseek model_name: deepseek-chat api_base: https://api.deepseek.com/v1 api_key: ${DEEPSEEK_API_KEY} max_tokens: 8192 temperature: 0.7 description: "DeepSeek V3 - 日常开发首选"
deepseek-r1: provider: deepseek model_name: deepseek-reasoner api_base: https://api.deepseek.com/v1 api_key: ${DEEPSEEK_API_KEY} max_tokens: 8192 temperature: 0.5 supports_thinking: true thinking_mode: native description: "DeepSeek R1 - 深度推理"
deepseek-v3.1: provider: deepseek model_name: deepseek-v3.1 api_base: https://api.deepseek.com/v1 api_key: ${DEEPSEEK_API_KEY} max_tokens: 8192 temperature: 0.6 thinking_mode: auto description: "DeepSeek V3.1 - 支持自动思考"
# OpenAI 系列(如需对比使用) gpt-4o: provider: openai model_name: gpt-4o api_base: https://api.openai.com/v1 api_key: ${OPENAI_API_KEY} max_tokens: 4096 temperature: 0.7 description: "OpenAI GPT-4o"
# Anthropic 系列 claude-sonnet: provider: anthropic model_name: claude-sonnet-4-20250514 api_base: https://api.anthropic.com/v1 api_key: ${ANTHROPIC_API_KEY} max_tokens: 4096 temperature: 0.7 description: "Anthropic Claude Sonnet 4"
6.2 三种模型切换方式
方式一:命令行启动时指定模型
使用 DeepSeek R1 启动
hermes-agent chat --model deepseek-r1使用 DeepSeek V3.1 启动
hermes-agent chat --model deepseek-v3.1
方式二:对话中动态切换
在 Hermes Agent 的交互会话中,可以通过斜杠命令切换模型:
/model switch deepseek-r1
切换成功后,Hermes Agent 会确认当前使用的模型:
✅ 已切换到模型:deepseek-r1(DeepSeek R1 - 深度推理)
你也可以随时查看当前使用的模型:
/model current
输出示例:
当前模型:deepseek-r1 提供商:deepseek 模型名称:deepseek-reasoner 思考模式:native(已启用)
方式三:通过 API 参数指定
如果你通过 API 方式调用 Hermes Agent,可以在请求中指定模型:
{
"model": "deepseek-r1",
"messages": [
{"role": "user", "content": "帮我分析这段代码的时间复杂度"}
]
}
6.3 模型切换的最佳实践
根据不同的任务类型,推荐使用不同的模型:
| 任务类型 | 推荐模型 | 原因 |
|----------|----------|------|
| 日常代码生成 | deepseek-v3 | 速度快、成本低 |
| 代码审查/重构 | deepseek-v3.1 | 思考模式提升质量 |
| 算法设计 | deepseek-r1 | 深度推理能力强 |
| Bug 调试 | deepseek-r1 | 需要深入分析 |
| 文档编写 | deepseek-v3 | 简单高效 |
| 架构设计 | deepseek-r1 | 需要全局思考 |
---
七、第五步:开启 DeepSeek 思考模式
DeepSeek R1 和 V3.1 模型支持思考模式(Thinking Mode),即模型在生成最终答案之前,会先进行内部推理。这个推理过程被称为"思考链(Chain of Thought)"。
7.1 思考模式的工作原理
当思考模式开启时,DeepSeek API 的响应中会包含两个部分:
reasoning_content:模型的内部推理过程(思考链)content:模型的最终回答Hermes Agent 会完整解析这两部分内容,并在适当时展示思考过程,帮助用户理解模型的推理逻辑。
7.2 配置思考模式
在 models.yaml 中,通过以下参数控制思考模式:
deepseek-r1:
provider: deepseek
model_name: deepseek-reasoner
api_base: https://api.deepseek.com/v1
api_key: ${DEEPSEEK_API_KEY}
supports_thinking: true # 声明该模型支持思考模式
thinking_mode: native # 使用原生思考模式
thinking_mode 支持三种值:
| 值 | 说明 |
|----|------|
| native | 使用模型原生的思考能力(推荐用于 R1) |
| auto | 由 Hermes Agent 自动决定何时启用思考(用于 V3.1) |
| off | 关闭思考模式 |
7.3 在对话中控制思考模式
你可以通过以下命令在会话中随时开启或关闭思考模式:
/thinking on # 开启思考模式 /thinking off # 关闭思考模式 /thinking status # 查看当前思考模式状态
7.4 思考模式的输出示例
当思考模式开启时,你会在 Hermes Agent 的输出中看到类似这样的标记:
🤔 思考中... --- 我需要分析用户提供的 Python 代码的时间复杂度。 首先,代码中有一个外层循环遍历列表,时间复杂度为 O(n)。 内层有一个嵌套循环,也是 O(n),所以总复杂度为 O(n²)。 但是,内层循环使用了 break 提前退出,因此最坏情况仍是 O(n²), 最好情况为 O(n)。我需要解释清楚这个分析过程。 --- 📝 回答: 这段代码的时间复杂度分析如下:
- 最坏情况:O(n²),当内层循环始终执行完整时
- 最好情况:O(n),当内层循环每次都提前退出时
- 平均情况:O(n²),假设输入数据随机分布
7.5 思考模式的注意事项
deepseek-reasoner 和 deepseek-v3.1 支持思考模式,deepseek-chat(V3)不支持---
八、第六步:国内网络加速方案
虽然 DeepSeek 的 API 服务部署在国内,访问速度通常很快,但在某些网络环境下仍然可能遇到延迟或连接不稳定的问题。以下提供几种优化方案。
8.1 使用 DeepSeek 官方加速域名
DeepSeek 为国内用户提供了优化过的 API 域名。你可以根据所在区域选择最优域名:
华北地区优化
api_base: https://api.deepseek.com/v1华东地区优化(如有)
api_base: https://api-cn-east.deepseek.com/v1通用国内加速
api_base: https://api-cn.deepseek.com/v1
> 注意:具体可用域名请以 DeepSeek 官方文档为准。以上域名仅为示例。
8.2 配置 HTTP 代理
如果你的网络环境需要通过代理访问 DeepSeek API,可以在 models.yaml 中配置代理:
deepseek-v3:
provider: deepseek
model_name: deepseek-chat
api_base: https://api.deepseek.com/v1
api_key: ${DEEPSEEK_API_KEY}
max_tokens: 8192
temperature: 0.7
# HTTP 代理配置
proxy: http://127.0.0.1:7890 # HTTP 代理地址
# 或者使用 SOCKS5 代理
# proxy: socks5://127.0.0.1:1080
也可以通过环境变量全局设置代理:
export HTTP_PROXY=http://127.0.0.1:7890 export HTTPS_PROXY=http://127.0.0.1:7890
8.3 超时与重试配置
针对网络不稳定的情况,建议配置合理的超时和重试策略:
config.yaml
api: # 请求超时(秒) timeout: 120 # 最大重试次数 max_retries: 3 # 重试间隔(秒) retry_delay: 2 # 重试时的退避策略:fixed | exponential retry_backoff: exponential
这些配置可以显著提升在网络波动时的使用体验。
8.4 使用 API 中转服务(高级)
对于企业用户或对稳定性要求极高的场景,可以考虑搭建 API 中转服务:
以下是一个简单的 Cloudflare Worker 代理示例:
// cloudflare-worker.js
export default {
async fetch(request) {
const url = new URL(request.url);
// 将请求转发到 DeepSeek API
const targetUrl = "https://api.deepseek.com" + url.pathname + url.search;
const modifiedRequest = new Request(targetUrl, {
method: request.method,
headers: request.headers,
body: request.body,
});
return await fetch(modifiedRequest);
}
};
然后在 models.yaml 中配置你的 Worker 地址:
api_base: https://your-worker.your-domain.workers.dev/v1
8.5 本地缓存策略
对于重复的查询,Hermes Agent 支持本地缓存,减少 API 调用次数:
config.yaml
cache: enabled: true type: file # file | redis | memory directory: ~/.hermes/hermes-agent/cache ttl_seconds: 3600 # 缓存有效期(1小时) max_size_mb: 100 # 缓存最大大小
---
九、常见问题 FAQ
Q1:API Key 配置后提示认证失败怎么办?
A:请逐一排查以下问题:
sk- 开头,没有多余的空格或换行符echo $DEEPSEEK_API_KEY 确认环境变量已正确设置Q2:如何查看 API 调用消耗?
A:有两种方式:
/usage 命令查看当前会话的 Token 使用情况(如果支持)Q3:DeepSeek R1 的思考过程太长,如何控制?
A:你可以在 models.yaml 中调整 max_tokens 参数来限制思考过程的最大长度。另外,对于不需要深度思考的简单问题,建议切换到 deepseek-v3 模型。
Q4:能否同时使用多个模型提供商的 API?
A:完全可以。只需在 models.yaml 中配置多个模型(DeepSeek、OpenAI、Anthropic 等),然后通过 /model switch 命令或启动参数灵活切换。详见第六章。
Q5:Hermes Agent 支持流式输出吗?
A:支持。Hermes Agent 默认使用流式传输(Server-Sent Events),可以实时看到模型生成的内容。你可以在 config.yaml 中配置:
streaming: enabled: true chunk_delay_ms: 50 # 每个 chunk 之间的最小延迟
Q6:遇到 rate_limit 错误怎么办?
A:DeepSeek API 有速率限制。遇到此错误时:
config.yaml 中增加 retry_delay 和 max_retriesQ7:如何备份和迁移 Hermes Agent 的配置?
A:整个配置目录位于 ~/.hermes/hermes-agent/。备份方法:
备份
tar -czf hermes-agent-backup.tar.gz ~/.hermes/hermes-agent/迁移到新机器后恢复
tar -xzf hermes-agent-backup.tar.gz -C ~/
注意:.env 文件中包含 API Key,迁移时注意安全。
Q8:DeepSeek 模型输出被截断怎么办?
A:增大 models.yaml 中的 max_tokens 参数值。DeepSeek 目前支持的最大输出 Token 数为 8192。如果仍然不够,可以尝试在对话中使用"继续"指令让模型补充完整。
Q9:Hermes Agent 支持离线使用吗?
A:Hermes Agent 本身需要联网调用模型 API。如果你想离线使用,可以考虑:
api_base 指向本地模型服务models.yaml 使用本地端点Q10:如何报告 Bug 或提出功能建议?
A:
- Hermes Agent 项目:访问 GitHub 仓库提交 Issue
- DeepSeek API 问题:通过 DeepSeek 开放平台的工单系统反馈
- 配置问题:查阅官方文档 https://hermes-agent.nousresearch.com/docs
十、总结与展望
10.1 核心要点回顾
通过本文的详细教程,你应该已经掌握了以下关键技能:
models.yaml 和 config.yaml,设置环境变量10.2 推荐配置组合
根据我们的实践经验,以下配置组合效果最佳:
日常开发(推荐):
- 默认模型:
deepseek-v3.1(开启自动思考模式) - 备用模型:
deepseek-r1(处理复杂算法问题) - 缓存:开启,TTL 设为 1 小时
- 默认模型:
deepseek-v3 - 代码审查:
deepseek-r1 - 部署 API 中转服务提升稳定性
- 配置 Redis 缓存供团队共享
10.3 未来展望
2026 年,AI Agent 领域正经历着飞速发展。以下是一些值得关注的趋势:
- DeepSeek 将继续迭代模型,推理能力和代码生成质量不断提升
- Hermes Agent 的功能也在持续丰富,包括更强大的工具系统和多 Agent 协作
- 多模态能力:预计未来的模型将支持图像理解和生成,Agent 的应用场景将进一步扩展
- 本地部署:随着模型量化技术的进步,在本地运行高性能模型将变得更加可行
---
附录:完整配置文件参考
models.yaml(完整示例)
~/.hermes/hermes-agent/models.yaml
完整的多模型配置示例
最后更新:2026年5月
models: # ========== DeepSeek 系列 ========== deepseek-v3: provider: deepseek model_name: deepseek-chat api_base: https://api.deepseek.com/v1 api_key: ${DEEPSEEK_API_KEY} max_tokens: 8192 temperature: 0.7 top_p: 0.9 frequency_penalty: 0.0 presence_penalty: 0.0 supports_thinking: false description: "DeepSeek V3 - 快速通用模型,适合日常开发"
deepseek-r1: provider: deepseek model_name: deepseek-reasoner api_base: https://api.deepseek.com/v1 api_key: ${DEEPSEEK_API_KEY} max_tokens: 8192 temperature: 0.5 top_p: 0.95 supports_thinking: true thinking_mode: native thinking_budget: 4096 description: "DeepSeek R1 - 深度推理模型,适合复杂任务"
deepseek-v3.1: provider: deepseek model_name: deepseek-v3.1 api_base: https://api.deepseek.com/v1 api_key: ${DEEPSEEK_API_KEY} max_tokens: 8192 temperature: 0.6 supports_thinking: true thinking_mode: auto description: "DeepSeek V3.1 - 升级版,支持自动思考模式"
# ========== 其他模型(可选) ========== gpt-4o: provider: openai model_name: gpt-4o api_base: https://api.openai.com/v1 api_key: ${OPENAI_API_KEY} max_tokens: 4096 temperature: 0.7 description: "OpenAI GPT-4o"
claude-sonnet: provider: anthropic model_name: claude-sonnet-4-20250514 api_base: https://api.anthropic.com/v1 api_key: ${ANTHROPIC_API_KEY} max_tokens: 4096 temperature: 0.7 description: "Anthropic Claude Sonnet 4"
config.yaml(完整示例)
~/.hermes/hermes-agent/config.yaml
Hermes Agent 主配置文件
最后更新:2026年5月
默认模型
default_model: deepseek-v3.1全局设置
global: workspace: ~/ max_concurrent_tools: 3 command_timeout: 300 auto_confirm: false language: zh-CNAPI 设置
api: timeout: 120 max_retries: 3 retry_delay: 2 retry_backoff: exponential流式输出
streaming: enabled: true chunk_delay_ms: 30缓存
cache: enabled: true type: file directory: ~/.hermes/hermes-agent/cache ttl_seconds: 3600 max_size_mb: 100日志
logging: level: info file: ~/.hermes/hermes-agent/logs/hermes.log max_size_mb: 50 backup_count: 3思考模式默认设置
thinking: default_mode: auto show_process: true max_budget_tokens: 4096
---
作者附言:本文基于 Hermes Agent 2.x 和 DeepSeek API(2026年5月版本)编写。如果你在配置过程中遇到任何问题,欢迎在评论区留言交流。如果本文对你有帮助,也欢迎分享给更多开发者朋友。
---
> 免责声明:本文所有配置示例仅供参考。API 域名、模型名称、定价等信息以 DeepSeek 官方和 Nous Research 官方的最新文档为准。
本文链接:https://www.kkkliao.cn/?id=3893 转载需授权!
版权声明:本文由廖万里的博客发布,如需转载请注明出处。



手机流量卡
免费领卡·号卡店铺
关于本站
