Como tornar um novo agente produtivo em um grande repositório rapidamente
Quando usar: O agente desperdiça 30% do contexto lendo e relendo arquivos.
Pré-requisitos
- Node + bun ou npm — brew install bun ou use npm
- Um provedor de embeddings (Ollama local, OpenAI, Gemini ou Groq) — ollama pull nomic-embed-text para offline
Fluxo
-
Construir a árvore de contextoExecute get_context_tree na raiz do repositório. Resuma as camadas de nível superior.✓ Copiado→ Árvore AST com cabeçalhos de arquivo
-
Leituras apenas de esqueletoUse get_file_skeleton em src/auth/ para ver apenas assinaturas — não leia os corpos ainda.✓ Copiado→ Assinaturas de função sem corpos
-
Faça uma pergunta semânticasemantic_identifier_search: 'onde é a verificação JWT implementada e chamada?'✓ Copiado→ Implementações classificadas + locais de chamada
Resultado: Agente opera com um modelo mental do repositório usando ~5x menos contexto.
Armadilhas
- A indexação na primeira execução é lenta — Execute a verificação inicial uma vez; as atualizações incrementais são rápidas
- Falta de correspondência do modelo de embeddings entre índice e consulta — Mantenha um modelo de embedding; reindexe se você o alterar