/ ディレクトリ / プレイグラウンド / AI-Research-SKILLs
● コミュニティ Orchestra-Research ⚡ 即起動

AI-Research-SKILLs

作者 Orchestra-Research · Orchestra-Research/AI-Research-SKILLs

トレーニング、ファインチューニング、分散システム、推論、論文執筆をカバーする87のML研究スキル — ClaudeがMLインフラの信頼できる協力者になります。

AI研究およびエンジニアリング向けに厳選されたエージェントスキルライブラリです。各スキル(vLLM、DeepSpeed、Axolotl、TRL、Flash Attention、Unsloth、LLaMA-Factoryなど)には、50〜150行のクイックリファレンスと300KB以上の一次資料を含むSKILL.mdが同梱されています。autoresearchオーケストレータースキルがスキル間のルーティングを行い、エンドツーエンドの実験を支援します。

なぜ使うのか

主な機能

ライブデモ

実際の動作

ai-research-skill.replay ▶ 準備完了
0/0

インストール

クライアントを選択

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "ai-research-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/Orchestra-Research/AI-Research-SKILLs",
        "~/.claude/skills/AI-Research-SKILLs"
      ],
      "_inferred": true
    }
  }
}

Claude Desktop → Settings → Developer → Edit Config を開く。保存後、アプリを再起動。

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "ai-research-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/Orchestra-Research/AI-Research-SKILLs",
        "~/.claude/skills/AI-Research-SKILLs"
      ],
      "_inferred": true
    }
  }
}

Cursor は Claude Desktop と同じ mcpServers スキーマを使用。プロジェクト設定はグローバルより優先。

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "ai-research-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/Orchestra-Research/AI-Research-SKILLs",
        "~/.claude/skills/AI-Research-SKILLs"
      ],
      "_inferred": true
    }
  }
}

Cline サイドバーの MCP Servers アイコンをクリックし、"Edit Configuration" を選択。

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "ai-research-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/Orchestra-Research/AI-Research-SKILLs",
        "~/.claude/skills/AI-Research-SKILLs"
      ],
      "_inferred": true
    }
  }
}

Claude Desktop と同じ形式。Windsurf を再起動して反映。

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "ai-research-skill",
      "command": "git",
      "args": [
        "clone",
        "https://github.com/Orchestra-Research/AI-Research-SKILLs",
        "~/.claude/skills/AI-Research-SKILLs"
      ]
    }
  ]
}

Continue はマップではなくサーバーオブジェクトの配列を使用。

~/.config/zed/settings.json
{
  "context_servers": {
    "ai-research-skill": {
      "command": {
        "path": "git",
        "args": [
          "clone",
          "https://github.com/Orchestra-Research/AI-Research-SKILLs",
          "~/.claude/skills/AI-Research-SKILLs"
        ]
      }
    }
  }
}

context_servers に追加。保存時に Zed がホットリロード。

claude mcp add ai-research-skill -- git clone https://github.com/Orchestra-Research/AI-Research-SKILLs ~/.claude/skills/AI-Research-SKILLs

ワンライナー。claude mcp list で確認、claude mcp remove で削除。

ユースケース

実用的な使い方: AI-Research-SKILLs

Unsloth + LoRAでLlamaモデルをファインチューニング — 検索不要

👤 シングルGPUマシンでファインチューニングを行うMLエンジニア ⏱ ~20 min intermediate

使うタイミング: データセットがあり、正しいフラグを含む実行可能なトレーニングスクリプトをClaudeに生成してほしい場合。

前提条件
  • Unslothがインストール済みであることpip install unsloth — ナイトリービルドに関する注意点はスキルが案内します
フロー
  1. 目標とする実行内容を記述する
    Use the unsloth skill. Fine-tune Llama-3-8B on my dataset at ~/data/train.jsonl, QLoRA, 3 epochs, output to ./out.✓ コピーしました
    → Claudeが正しいUnslothのインポートと実際のCLIフラグを含むスクリプトを出力する
  2. コンフィグの説明を求める
    Walk me through each hyperparameter and why.✓ コピーしました
    → 一般的なML定型文ではなく、Unslothのドキュメントに基づいた説明

結果: 初回で動作するトレーニングスクリプト。

注意点
  • ClaudeがHF TrainerとUnslothのイディオムを混在させる — 'use the unsloth skill only'と明示する — Transformersスキルからの引用を防ぐ
組み合わせ: filesystem

GPUに適したテンソル並列設定でvLLMサーバーを構築する

👤 本番環境でLLMを提供するインフラエンジニア ⏱ ~30 min advanced

使うタイミング: 2〜8基のGPUがあり、適切な--tensor-parallel-size--max-model-lenをClaudeに選択してほしい場合。

フロー
  1. ハードウェアとモデルを指定する
    Use the vllm skill. Serve Qwen2.5-72B on 4x H100s. Give me the exact launch command and sanity tests.✓ コピーしました
    → 正しいTPサイズと量子化の推奨
  2. 負荷テストスクリプトを依頼する
    Now give me a locust or vllm-benchmark script to verify throughput.✓ コピーしました
    → 正しいエンドポイント形式を使用した実行可能なベンチマーク

結果: 健全性チェックとベンチマークベースラインを備えたvLLMデプロイメント。

注意点
  • Claudeがアテンションヘッド数を割り切れないTPサイズを選択する — vLLMスキルのリファレンスにはモデルファミリーごとの有効なTPサイズが記載されている — Claudeにそれを引用させる
組み合わせ: aws

正しい構成と引用規則でML論文を起草する

👤 NeurIPS/ICML/ICLR向けに論文を執筆する研究者 ⏱ ~60 min advanced

使うタイミング: 実験結果があり、投稿先のスタイルに合った論文アウトラインが必要な場合。

フロー
  1. 結果と投稿先を提示する
    Use the ml-paper-writing skill. Target ICLR. Here are my results [paste]. Draft the intro, method, and experiments sections.✓ コピーしました
    → 投稿先の慣例に従った構成、適切にフレーミングされたアブレーションテーブル
  2. 査読者の懸念点に対して修正する
    What would Reviewer 2 push back on? Add preemptive responses.✓ コピーしました
    → 一般的な「実験を追加してください」ではなく、具体的な弱点の指摘

結果: 初回のサニティレビューをパスし、推敲する価値のあるドラフト。

注意点
  • Claudeがアブストラクトで誇大な主張をする — トップティア採択論文の抑制的な表現を手本にするよう明示的に指示する
組み合わせ: arxiv

組み合わせ

他のMCPと組み合わせて10倍の力を

ai-research-skill + filesystem

Claudeが実験を進める間、トレーニングコンフィグ・ログ・チェックポイントを保存する

Save the run config under experiments/<date>-<name>/ and tail the logs.✓ コピーしました
ai-research-skill + arxiv

ml-paper-writingスキルがセクションを起草する間、関連研究を取得する

Find 5 recent arXiv papers on GRPO and have the paper-writing skill weave them into the related work section.✓ コピーしました

ツール

このMCPが提供する機能

ツール入力呼び出すタイミングコスト
Autoresearch orchestrator research goal 複雑な多段階実験 0
Fine-tuning (Axolotl, LLaMA-Factory, Unsloth, PEFT) dataset + base model SFT / LoRA / QLoRAの実行 0
Post-training (TRL, GRPO, OpenRLHF, SimPO, verl, slime) reward model or preference data アラインメント、選好最適化 0
Distributed training (DeepSpeed, FSDP, Megatron, Accelerate) model + cluster topology マルチノードまたはマルチGPUトレーニング 0
Inference (vLLM, SGLang, TensorRT-LLM, llama.cpp) model + hardware モデルの効率的なサービング 0
Optimization (Flash Attention, bitsandbytes, GPTQ, AWQ, GGUF) model weights より小さなハードウェアにモデルを収める場合 0

コストと制限

運用コスト

APIクォータ
スキル自体にはなし
呼び出しあたりのトークン
大量 — SKILL.md+リファレンスでサブスキルごとに5,000〜10,000トークンを消費する可能性あり
金額
無料 — スキルはローカルファイル。課金されるのは実行するコンピュートのみ
ヒント
プロンプトは一度に1つのサブスキルに絞ること。87スキル全体を同時にロードするのは過大です。

セキュリティ

権限、シークレット、影響範囲

認証情報の保管: クレデンシャルなし — スキルはプロンプトとリファレンスのみ
データ送信先: スキル自体からのデータ送出なし

トラブルシューティング

よくあるエラーと対処法

Claudeが2つのフレームワーク(例:Accelerate + DeepSpeed)を誤って混在させる

プロンプトで1つのスキルを名指しし、もう一方を無視するようClaudeに指示してください。

リファレンスが古く感じられる

リポジトリはTeX中心のため最先端から遅れることがあります。最新のフレームワークについては公式ドキュメントを別途取得して補完してください。

関連するプロンプトでスキルが自動起動しない

フレームワーク名を明示的に記載してください — 87スキルは重複があり、自動ルーティングは曖昧になりがちです。

代替案

AI-Research-SKILLs 他との比較

代替案代わりに使う場面トレードオフ
scientific-agent-skillMLトレーニングインフラではなく、生物学・化学・臨床分野が必要な場合対象ドメインが異なる
huggingface MCPエキスパートプロンプトではなく、HF Hubのライブ操作が必要な場合MCPは実際のAPIアクションを提供し、本スキルはパターンを教える

その他

リソース

📖 GitHub の公式 README を読む

🐙 オープンな issue を見る

🔍 400以上のMCPサーバーとSkillsを見る