/ 目录 / 演练场 / deepseek-mcp-server
● 社区 DMontgomery40 ⚡ 即开即用

deepseek-mcp-server

作者 DMontgomery40 · DMontgomery40/deepseek-mcp-server

从 Claude 内部委托特定任务给 DeepSeek 模型——通过 R1 实现更便宜的推理,或通过 DeepSeek 的代码执行模式进行代码执行。

deepseek-mcp-server 将 DeepSeek 的 chat/completions/models/balance 端点暴露为 MCP 工具。支持一种新颖的代码执行模式,其中 DeepSeek 编写一个短程序,直接在运行时调用工具,减少往返延迟和上下文压力。

为什么要用

核心特性

实时演示

实际使用效果

deepseek.replay ▶ 就绪
0/0

安装

选择你的客户端

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "deepseek": {
      "command": "npx",
      "args": [
        "-y",
        "deepseek-mcp-server"
      ],
      "_inferred": true
    }
  }
}

打开 Claude Desktop → Settings → Developer → Edit Config。保存后重启应用。

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "deepseek": {
      "command": "npx",
      "args": [
        "-y",
        "deepseek-mcp-server"
      ],
      "_inferred": true
    }
  }
}

Cursor 使用与 Claude Desktop 相同的 mcpServers 格式。项目级配置优先于全局。

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "deepseek": {
      "command": "npx",
      "args": [
        "-y",
        "deepseek-mcp-server"
      ],
      "_inferred": true
    }
  }
}

点击 Cline 侧栏中的 MCP Servers 图标,然后选 "Edit Configuration"。

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "deepseek": {
      "command": "npx",
      "args": [
        "-y",
        "deepseek-mcp-server"
      ],
      "_inferred": true
    }
  }
}

格式与 Claude Desktop 相同。重启 Windsurf 生效。

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "deepseek",
      "command": "npx",
      "args": [
        "-y",
        "deepseek-mcp-server"
      ]
    }
  ]
}

Continue 使用服务器对象数组,而非映射。

~/.config/zed/settings.json
{
  "context_servers": {
    "deepseek": {
      "command": {
        "path": "npx",
        "args": [
          "-y",
          "deepseek-mcp-server"
        ]
      }
    }
  }
}

加入 context_servers。Zed 保存后热重载。

claude mcp add deepseek -- npx -y deepseek-mcp-server

一行命令搞定。用 claude mcp list 验证,claude mcp remove 卸载。

使用场景

实战用法: deepseek-mcp-server

从 Claude 内部将低成本但冗长的推理委托给 DeepSeek

👤 构建 agent 流程的成本敏感型开发者 ⏱ ~10 min intermediate

何时使用: 你有一个步骤需要思维链但不需要 Claude 级别的质量——节省 90% 的 token。

前置条件
  • DeepSeek API key — platform.deepseek.com——便宜
步骤
  1. 转发特定子任务
    使用 deepseek chat(模型 deepseek-reasoner)将这 100 个支持工单分为 5 个类别。仅返回分类结果。✓ 已复制
    → 分类廉价地完成

结果: 分类/提取的质量相同,成本仅为原来的一小部分。

注意事项
  • 细微写作任务上的质量差距 — 先进行分析——DeepSeek 在结构化任务上表现突出,在创意/长文本上落后

让 DeepSeek 编写一个短脚本来一次性调用多个工具

👤 厌倦了 10 轮工具调用循环的 agent 开发者 ⏱ ~20 min advanced

何时使用: 一个任务需要按顺序进行 8 次工具调用;每次往返都很慢并消耗 token。

步骤
  1. 启用代码执行模式
    使用 deepseek 代码执行模式:用 fetch MCP 获取 5 个 URL,总结每个,然后合并为表格。一次完成。✓ 已复制
    → 脚本在执行运行时运行;返回表格

结果: 对于管道式任务,token 更少,往返更少。

注意事项
  • 脚本在执行运行时有 bug — 调试时降级到逐个工具调用
  • 安全性——执行运行时运行 LLM 生成的代码 — 保持工具访问范围窄;除非必要,否则不要授予文件系统/shell 访问权限
搭配使用: fetch · firecrawl

从你的 agent 监控 DeepSeek API 支出

👤 运行 DeepSeek agent 的运维人员 ⏱ ~5 min beginner

何时使用: 你想让 agent 在支出不足时停止,或每周发出警报。

步骤
  1. 获取余额
    我的 DeepSeek 余额是多少?✓ 已复制
    → 当前余额
  2. 如果余额不足则警报
    如果余额 < $5,向 Slack 的 #ops-alerts 频道发送该数字。✓ 已复制
    → 条件警报

结果: 永远不会在管道执行中途用完额度。

组合

与其他 MCP 搭配,撬动十倍杠杆

deepseek + fetch

廉价地爬取后用 DeepSeek 分类

获取 20 个新闻 URL,然后按主题用 deepseek 分类每个(5 个类别)。✓ 已复制

工具

此 MCP 暴露的能力

工具输入参数何时调用成本
chat messages: Msg[], model?: str, stream?: bool 委托推理或分类任务 DeepSeek tokens
completions prompt, model?, max_tokens? 非 chat 完成调用 DeepSeek tokens
models 列出可用的 DeepSeek 模型 free
balance 检查支出/低额度警报 free

成本与限制

运行它的成本

API 配额
按 DeepSeek 账户
每次调用 Token 数
在许多任务上,DeepSeek 比前沿模型便宜 10-50 倍
费用
DeepSeek V3 ~$0.27/M input,R1 ~$0.55/M input(截至 2026 年)
提示
使用 balance 工具在额度低于阈值时强制停止 agent。

安全

权限、密钥、影响范围

凭据存储: DEEPSEEK_API_KEY 用于本地;DEEPSEEK_MCP_AUTH_TOKEN 用于远程端点
数据出站: 你的 prompt 发送到 api.deepseek.com(中国)
切勿授予: 未经审查暴露的工具就不要向代码执行模式授予广泛的工具访问权限

故障排查

常见错误与修复

来自 DeepSeek 的 401

检查 API key。还要验证账户未被暂停。

验证: curl -H 'Authorization: Bearer $KEY' https://api.deepseek.com/v1/models
速率限制

DeepSeek 对新账户有严格的每分钟限制。添加重试 + 退避。

代码执行模式返回 'tool not available'

代码执行仅能看到你暴露的工具集。将所需工具添加到其允许列表。

替代方案

deepseek-mcp-server 对比其他方案

替代方案何时用它替代权衡
通过直接 API 使用 OpenAI / Anthropic你想要前沿质量且不受成本限制成本高 5-50 倍
Groq MCP你想要开源模型上的超低延迟不同的模型阵容;没有代码执行模式

更多

资源

📖 阅读 GitHub 上的官方 README

🐙 查看未解决的 issue

🔍 浏览全部 400+ MCP 服务器和 Skills