/ 目录 / 演练场 / AI-Research-SKILLs
● 社区 Orchestra-Research ⚡ 即开即用

AI-Research-SKILLs

作者 Orchestra-Research · Orchestra-Research/AI-Research-SKILLs

涵盖 87 项 ML 研究技能,包括训练、微调、分布式系统、推理和论文写作——Claude 成为一个可信赖的 ML 基础设施协作者。

一个精选的 Agent 技能库,专为 AI 研究和工程设计。每项技能(vLLM、DeepSpeed、Axolotl、TRL、Flash Attention、Unsloth、LLaMA-Factory 等)都附带一份 SKILL.md 快速参考(50-150 行)以及 300KB+ 的一手资料。一个自动研究编排技能负责在它们之间路由,用于端到端实验。

为什么要用

核心特性

实时演示

实际使用效果

ai-research-skill.replay ▶ 就绪
0/0

安装

选择你的客户端

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "ai-research-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/Orchestra-Research/AI-Research-SKILLs",
        "~/.claude/skills/AI-Research-SKILLs"
      ],
      "_inferred": true
    }
  }
}

打开 Claude Desktop → Settings → Developer → Edit Config。保存后重启应用。

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "ai-research-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/Orchestra-Research/AI-Research-SKILLs",
        "~/.claude/skills/AI-Research-SKILLs"
      ],
      "_inferred": true
    }
  }
}

Cursor 使用与 Claude Desktop 相同的 mcpServers 格式。项目级配置优先于全局。

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "ai-research-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/Orchestra-Research/AI-Research-SKILLs",
        "~/.claude/skills/AI-Research-SKILLs"
      ],
      "_inferred": true
    }
  }
}

点击 Cline 侧栏中的 MCP Servers 图标,然后选 "Edit Configuration"。

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "ai-research-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/Orchestra-Research/AI-Research-SKILLs",
        "~/.claude/skills/AI-Research-SKILLs"
      ],
      "_inferred": true
    }
  }
}

格式与 Claude Desktop 相同。重启 Windsurf 生效。

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "ai-research-skill",
      "command": "git",
      "args": [
        "clone",
        "https://github.com/Orchestra-Research/AI-Research-SKILLs",
        "~/.claude/skills/AI-Research-SKILLs"
      ]
    }
  ]
}

Continue 使用服务器对象数组,而非映射。

~/.config/zed/settings.json
{
  "context_servers": {
    "ai-research-skill": {
      "command": {
        "path": "git",
        "args": [
          "clone",
          "https://github.com/Orchestra-Research/AI-Research-SKILLs",
          "~/.claude/skills/AI-Research-SKILLs"
        ]
      }
    }
  }
}

加入 context_servers。Zed 保存后热重载。

claude mcp add ai-research-skill -- git clone https://github.com/Orchestra-Research/AI-Research-SKILLs ~/.claude/skills/AI-Research-SKILLs

一行命令搞定。用 claude mcp list 验证,claude mcp remove 卸载。

使用场景

实战用法: AI-Research-SKILLs

用 Unsloth + LoRA 微调 Llama 模型,无需查资料

👤 在单 GPU 机器上运行微调的 ML 工程师 ⏱ ~20 min intermediate

何时使用: 你有数据集,想让 Claude 生成一个可直接运行的训练脚本,所有标志都对。

前置条件
  • 安装了 Unsloth — pip install unsloth——技能会提醒你关于每夜版本的注意事项
步骤
  1. 描述目标运行
    使用 unsloth 技能。在 ~/data/train.jsonl 数据集上微调 Llama-3-8B,使用 QLoRA,3 个 epoch,输出到 ./out。✓ 已复制
    → Claude 用正确的 Unsloth 导入和实际的 CLI 标志编写脚本
  2. 要求解释配置
    逐个解释每个超参数以及原因。✓ 已复制
    → 推理基于 Unsloth 文档,而不是泛泛的 ML 套话

结果: 一个可以第一次运行成功的训练脚本。

注意事项
  • Claude 混合了 HF Trainer 和 Unsloth 的用法 — 坚持说'仅使用 unsloth 技能'——不要从 Transformers 技能中拉取
搭配使用: filesystem

设置一个 vLLM 服务器,为你的 GPU 配置正确的张量并行化

👤 在生产环境中部署 LLM 的基础设施工程师 ⏱ ~30 min advanced

何时使用: 你有 2-8 个 GPU,希望 Claude 为你选择正确的 --tensor-parallel-size 和 --max-model-len。

步骤
  1. 说出硬件和模型
    使用 vllm 技能。在 4x H100s 上部署 Qwen2.5-72B。给我确切的启动命令和合理性检查。✓ 已复制
    → 正确的 TP 大小和量化建议
  2. 要求负载测试脚本
    现在给我一个 locust 或 vllm-benchmark 脚本来验证吞吐量。✓ 已复制
    → 使用正确的 endpoint 格式的可运行基准

结果: 一个带有合理性检查和基准基线的 vLLM 部署。

注意事项
  • Claude 选择的 TP 大小不能整除注意力头数 — vLLM 技能的参考资料列表每个模型族的有效 TP 大小——让 Claude 引用它
搭配使用: aws

起草一篇 ML 论文,使用正确的结构和引文约定

👤 为 NeurIPS/ICML/ICLR 写论文的研究者 ⏱ ~60 min advanced

何时使用: 你有实验结果,需要一个符合投稿会议风格的论文大纲。

步骤
  1. 提供结果和会议
    使用 ml-paper-writing 技能。目标是 ICLR。这是我的结果 [粘贴]。起草引言、方法和实验部分。✓ 已复制
    → 结构遵循会议约定,消融表恰当框架化
  2. 针对审稿人疑虑进行修订
    审稿人 2 会反对什么?添加主动响应。✓ 已复制
    → 具体的弱点,而不是泛泛的'多做实验'

结果: 一份通过初步审查、值得打磨的草稿。

注意事项
  • Claude 在摘要中过度宣传 — 明确告诉它要参照顶级接收论文的克制程度
搭配使用: arxiv

组合

与其他 MCP 搭配,撬动十倍杠杆

ai-research-skill + filesystem

在 Claude 驱动实验时存储训练配置、日志和检查点

将运行配置保存在 experiments/<date>-<name>/ 下,并追踪日志。✓ 已复制
ai-research-skill + arxiv

在 ml-paper-writing 技能起草部分时拉取相关工作

找到 5 篇最近的 arXiv 论文关于 GRPO,并让 paper-writing 技能将它们编织到相关工作部分。✓ 已复制

工具

此 MCP 暴露的能力

工具输入参数何时调用成本
Autoresearch orchestrator research goal 复杂的多阶段实验 0
Fine-tuning (Axolotl, LLaMA-Factory, Unsloth, PEFT) dataset + base model SFT / LoRA / QLoRA 运行 0
Post-training (TRL, GRPO, OpenRLHF, SimPO, verl, slime) reward model or preference data 对齐、偏好优化 0
Distributed training (DeepSpeed, FSDP, Megatron, Accelerate) model + cluster topology 多节点或多 GPU 训练 0
Inference (vLLM, SGLang, TensorRT-LLM, llama.cpp) model + hardware 高效地部署一个模型 0
Optimization (Flash Attention, bitsandbytes, GPTQ, AWQ, GGUF) model weights 将模型装入更小的硬件 0

成本与限制

运行它的成本

API 配额
技能本身没有配额
每次调用 Token 数
较重——SKILL.md + 参考资料每个子技能可以加载 5-10k 令牌
费用
免费——技能是本地文件;你为运行的计算付费
提示
将提示限制在一个子技能内;完整的 87 个技能库太大了,无法同时加载。

安全

权限、密钥、影响范围

凭据存储: 没有凭据——技能是提示 + 参考资料
数据出站: 技能本身没有数据外泄

故障排查

常见错误与修复

Claude 错误地混合了两个框架(例如 Accelerate + DeepSpeed)

在提示中指定一个技能,告诉 Claude 忽略另一个。

参考资料感觉过时了

repo 是 TeX 重型的,可能落后于前沿。对于全新的框架,补充获取官方文档的新数据。

在相关提示中技能没有自动调用

按名称提及框架——87 个技能重叠,自动路由模糊。

替代方案

AI-Research-SKILLs 对比其他方案

替代方案何时用它替代权衡
scientific-agent-skill你需要生物学/化学/临床,而不是 ML 训练基础设施不同的领域重点
huggingface MCP你想要实时 HF Hub 操作而不是专家提示MCP 给你真实的 API 动作;这个技能教授模式

更多

资源

📖 阅读 GitHub 上的官方 README

🐙 查看未解决的 issue

🔍 浏览全部 400+ MCP 服务器和 Skills