大規模リポジトリで新しいエージェントを素早く戦力化する方法
使うタイミング: エージェントがコンテキストの30%をファイルの読み込みと再読み込みに浪費している場合。
前提条件
- Node + bunまたはnpm — brew install bunまたはnpmを使用
- エンベディングプロバイダー(Ollamaローカル、OpenAI、Gemini、またはGroq) — オフライン利用にはollama pull nomic-embed-textを実行
フロー
-
コンテキストツリーを構築するリポジトリルートでget_context_treeを実行し、トップレベルのレイヤーを要約してください。✓ コピーしました→ ファイルヘッダー付きASTツリー
-
スケルトンのみ読み取るget_file_skeletonをsrc/auth/に対して使用し、シグネチャのみを確認してください。本文はまだ読まないこと。✓ コピーしました→ 本文なしの関数シグネチャ
-
セマンティックな質問をするsemantic_identifier_search: 'JWT検証はどこに実装され、どこから呼ばれているか?'✓ コピーしました→ ランク付きの実装箇所+コールサイト
結果: エージェントがコンテキスト使用量を約5分の1に削減しながら、リポジトリのメンタルモデルを持って作業できるようになります。
注意点
- 初回インデックス作成が遅い — 初回スキャンは一度だけ実行すれば、以降の増分更新は高速です
- インデックス作成時とクエリ時でエンベディングモデルが異なる — エンベディングモデルは一つに統一し、変更した場合は再インデックスしてください