Comment rendre un nouvel agent productif dans un grand repo rapidement
Quand l'utiliser : L'agent gaspille 30% du contexte en lisant et relisant les fichiers.
Prérequis
- Node + bun ou npm — brew install bun ou utiliser npm
- Un fournisseur d'embeddings (Ollama local, OpenAI, Gemini ou Groq) — ollama pull nomic-embed-text pour hors ligne
Déroulement
-
Construire l'arbre de contexteExécutez get_context_tree à la racine du repo. Résumez les couches de haut niveau.✓ Copié→ Arbre AST avec en-têtes de fichier
-
Lectures skeleton-onlyUtilisez get_file_skeleton sur src/auth/ pour voir uniquement les signatures — ne lisez pas les corps pour l'instant.✓ Copié→ Signatures de fonction sans corps
-
Poser une question sémantiquesemantic_identifier_search: 'où la vérification JWT est-elle implémentée et appelée?'✓ Copié→ Implémentations classées + call sites
Résultat : L'agent opère avec un modèle mental du repo en utilisant ~5x moins de contexte.
Pièges
- L'indexation au premier lancement est lente — Exécutez l'analyse initiale une fois ; les mises à jour incrémentielles sont rapides
- Incompatibilité du modèle d'embeddings entre l'index et la requête — Restez avec un modèle d'embedding ; réindexez si vous le changez