Analiza un volcado de CSV/JSON cargándolo en SQLite
Cuándo usarlo: Alguien te envió un CSV con 200 mil filas y la pregunta 'qué segmento convierte mejor?' — demasiado grande para hojas de cálculo, demasiado pequeño para una base de datos real.
Requisitos previos
- Archivo de origen en disco — Guárdalo como .csv o .json en una carpeta de trabajo
- Una ruta de archivo SQLite vacío — Elige una ubicación como /tmp/analysis.db; el MCP la creará
Flujo
-
Crea la tabla y cargaCrea una tabla
signupsen /tmp/analysis.db que coincida con las columnas de /data/signups.csv. Carga todas las filas. Dime el número de filas.✓ Copiado→ Tabla creada, número de filas coincide con el archivo -
Explora el esquema¿Qué columnas existen? Para cada una, ¿cuál es la distribución de valores (5 valores distintos principales para categóricas; mín/máx/prom para numéricas)?✓ Copiado→ Perfil por columna
-
Responde la pregunta realAgrupa por signup_source. Para cada una, calcula: total de registros, tasa de conversión (registros con completed_onboarding=true / total). Ordena por tasa de conversión.✓ Copiado→ Tabla de calidad de decisión con la SQL mostrada
Resultado: Respuestas defensibles en 5 minutos, con un archivo .db que puedes consultar nuevamente cuando surjan nuevas preguntas.
Errores comunes
- Columnas CSV con tipo automático incorrecto (números como TEXT) — Después de cargar, ejecuta
PRAGMA table_info(signups)y CAST o recrea las columnas con tipos explícitos si es necesario - Las cadenas de fecha no se ordenan/comparan correctamente como TEXT — Almacena fechas como ISO 8601 (YYYY-MM-DDTHH:MM:SSZ) para que lexicográfico = cronológico; o usa
julianday()para cálculos