/ 目錄 / 演練場 / AI-Research-SKILLs
● 社群 Orchestra-Research ⚡ 即開即用

AI-Research-SKILLs

作者 Orchestra-Research · Orchestra-Research/AI-Research-SKILLs

87 個 ML 研究技能,涵蓋訓練、微調、分散式系統、推論與論文撰寫——讓 Claude 成為可靠的 ML 基礎設施協作夥伴。

一套專為 AI 研究與工程設計的 Agent Skills 精選函式庫。每個技能(vLLM、DeepSpeed、Axolotl、TRL、Flash Attention、Unsloth、LLaMA-Factory 等)均附帶 50–150 行的 SKILL.md 快速參考,以及 300KB 以上的原始參考資料。另有一個自動研究協調器技能,可在各子技能之間路由,支援端對端的實驗流程。

為什麼要用

核心特性

即時演示

實際使用效果

ai-research-skill.replay ▶ 就緒
0/0

安裝

選擇你的客戶端

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "ai-research-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/Orchestra-Research/AI-Research-SKILLs",
        "~/.claude/skills/AI-Research-SKILLs"
      ],
      "_inferred": true
    }
  }
}

開啟 Claude Desktop → Settings → Developer → Edit Config。儲存後重啟應用。

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "ai-research-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/Orchestra-Research/AI-Research-SKILLs",
        "~/.claude/skills/AI-Research-SKILLs"
      ],
      "_inferred": true
    }
  }
}

Cursor 使用與 Claude Desktop 相同的 mcpServers 格式。專案級設定優先於全域。

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "ai-research-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/Orchestra-Research/AI-Research-SKILLs",
        "~/.claude/skills/AI-Research-SKILLs"
      ],
      "_inferred": true
    }
  }
}

點擊 Cline 側欄中的 MCP Servers 圖示,然後選 "Edit Configuration"。

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "ai-research-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/Orchestra-Research/AI-Research-SKILLs",
        "~/.claude/skills/AI-Research-SKILLs"
      ],
      "_inferred": true
    }
  }
}

格式與 Claude Desktop 相同。重啟 Windsurf 生效。

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "ai-research-skill",
      "command": "git",
      "args": [
        "clone",
        "https://github.com/Orchestra-Research/AI-Research-SKILLs",
        "~/.claude/skills/AI-Research-SKILLs"
      ]
    }
  ]
}

Continue 使用伺服器物件陣列,而非映射。

~/.config/zed/settings.json
{
  "context_servers": {
    "ai-research-skill": {
      "command": {
        "path": "git",
        "args": [
          "clone",
          "https://github.com/Orchestra-Research/AI-Research-SKILLs",
          "~/.claude/skills/AI-Research-SKILLs"
        ]
      }
    }
  }
}

加入 context_servers。Zed 儲存後熱重載。

claude mcp add ai-research-skill -- git clone https://github.com/Orchestra-Research/AI-Research-SKILLs ~/.claude/skills/AI-Research-SKILLs

一行命令搞定。用 claude mcp list 驗證,claude mcp remove 移除。

使用場景

實戰用法: AI-Research-SKILLs

使用 Unsloth + LoRA 微調 Llama 模型,不需要 Google

👤 在單一 GPU 機器上執行微調的 ML 工程師 ⏱ ~20 min intermediate

何時使用: 你已有資料集,想讓 Claude 產生一份可直接執行的訓練腳本,並附上正確的參數旗標。

前置條件
  • Unsloth installed — pip install unsloth — the skill will remind you of the nightly build caveats
步驟
  1. 描述目標執行設定
    Use the unsloth skill. Fine-tune Llama-3-8B on my dataset at ~/data/train.jsonl, QLoRA, 3 epochs, output to ./out.✓ 已複製
    → Claude 產生包含正確 Unsloth 匯入語法與實際 CLI 旗標的腳本
  2. 請求設定說明
    Walk me through each hyperparameter and why.✓ 已複製
    → 推理依據來自 Unsloth 文件,而非通用 ML 套話

結果: 一份第一次就能跑起來的訓練腳本。

注意事項
  • Claude 混用了 HF Trainer 與 Unsloth 的寫法 — 明確指定「只使用 unsloth skill」——不要從 Transformers skill 取用內容
搭配使用: filesystem

針對你的 GPU 配置設定具備正確張量並行的 vLLM 伺服器

👤 在正式環境提供 LLM 服務的基礎設施工程師 ⏱ ~30 min advanced

何時使用: 你有 2–8 張 GPU,想讓 Claude 選出正確的 --tensor-parallel-size 與 --max-model-len。

步驟
  1. 說明硬體與模型
    Use the vllm skill. Serve Qwen2.5-72B on 4x H100s. Give me the exact launch command and sanity tests.✓ 已複製
    → 正確的 TP 大小與量化建議
  2. 請求負載測試腳本
    Now give me a locust or vllm-benchmark script to verify throughput.✓ 已複製
    → 使用正確端點格式的可執行基準測試

結果: 一套附有健全性檢查與基準測試基線的 vLLM 部署方案。

注意事項
  • Claude 選擇的 TP 大小無法整除注意力頭數 — vLLM skill 參考資料列出了各模型系列的有效 TP 大小——讓 Claude 引用該資料
搭配使用: aws

依照正確結構與引用慣例起草一篇 ML 論文

👤 投稿 NeurIPS/ICML/ICLR 的研究人員 ⏱ ~60 min advanced

何時使用: 你已有實驗結果,需要一份符合投稿會議風格的論文大綱。

步驟
  1. 提供結果與投稿目標
    Use the ml-paper-writing skill. Target ICLR. Here are my results [paste]. Draft the intro, method, and experiments sections.✓ 已複製
    → 結構符合會議慣例,消融實驗表格框架正確
  2. 針對審稿人意見進行修訂
    What would Reviewer 2 push back on? Add preemptive responses.✓ 已複製
    → 具體指出弱點,而非泛泛地說「加更多實驗」

結果: 一份通過初步健全性審閱、值得繼續打磨的草稿。

注意事項
  • Claude 在摘要中過度宣稱 — 明確告知它要仿照頂級錄用論文的克制措辭
搭配使用: arxiv

組合

與其他 MCP 搭配,撬動十倍槓桿

ai-research-skill + filesystem

在 Claude 驅動實驗的同時,儲存訓練設定、日誌與檢查點

Save the run config under experiments/<date>-<name>/ and tail the logs.✓ 已複製
ai-research-skill + arxiv

在 ml-paper-writing skill 起草各章節時,同步撈取相關文獻

Find 5 recent arXiv papers on GRPO and have the paper-writing skill weave them into the related work section.✓ 已複製

工具

此 MCP 暴露的能力

工具輸入參數何時呼叫成本
Autoresearch orchestrator research goal 複雜的多階段實驗 0
Fine-tuning (Axolotl, LLaMA-Factory, Unsloth, PEFT) dataset + base model SFT / LoRA / QLoRA 訓練執行 0
Post-training (TRL, GRPO, OpenRLHF, SimPO, verl, slime) reward model or preference data 對齊訓練、偏好最佳化 0
Distributed training (DeepSpeed, FSDP, Megatron, Accelerate) model + cluster topology 多節點或多 GPU 訓練 0
Inference (vLLM, SGLang, TensorRT-LLM, llama.cpp) model + hardware 高效率地提供模型服務 0
Optimization (Flash Attention, bitsandbytes, GPTQ, AWQ, GGUF) model weights 讓模型能在規格較小的硬體上執行 0

成本與限制

運行它的成本

API 配額
技能本身不佔用 API 配額
每次呼叫 Token 數
用量較大——每個子技能的 SKILL.md 加上參考資料可載入 5–10k tokens
費用
免費——技能為本機檔案;你只需支付自行執行的運算費用
提示
每次提示聚焦在單一子技能;完整的 87 個技能函式庫無法同時全部載入。

安全

權限、密鑰、影響範圍

憑證儲存: 無需憑證——技能內容僅為提示詞與參考資料
資料出站: 技能本身不會對外傳輸資料

故障排查

常見錯誤與修復

Claude blends two frameworks (e.g. Accelerate + DeepSpeed) incorrectly

在提示詞中只指定一個技能,並告知 Claude 忽略另一個。

References feel outdated

此 repo 內容偏向學術文獻,可能落後於最新進展。若框架非常新,請補充抓取官方文件的最新版本。

Skill not auto-invoking on a relevant prompt

在提示詞中明確提及框架名稱——87 個技能之間有重疊,自動路由可能不夠精確。

替代方案

AI-Research-SKILLs 對比其他方案

替代方案何時用它替代權衡
scientific-agent-skill你需要的是生物、化學或臨床領域,而非 ML 訓練基礎設施領域專注方向不同
huggingface MCP你想要即時操作 HF Hub,而非取得專家提示詞MCP 提供真實的 API 操作;此技能則傳授使用模式

更多

資源

📖 閱讀 GitHub 上的官方 README

🐙 查看未解決的 issue

🔍 瀏覽全部 400+ MCP 伺服器和 Skills