5. Experimentos, Modelos, Predicciones

Objetivo

Entrenar modelos, comparar resultados, registrar el mejor candidato y ejecutar predicciones.

Crear experimento

  1. Abrir Experiments.

  2. Click en New Experiment.

  3. Configurar: - Dataset/version. - Columna target. - Tipo de problema. - Estrategia de validacion y metrica objetivo.

  4. Iniciar corrida y monitorear estado.

Revisar resultados y modelos

  1. Abrir leaderboard al completar corrida.

  2. Validar metrica primaria y ranking.

  3. Abrir detalle del mejor modelo y revisar: - Metricas. - Explainability/importancia de features si aplica. - Metadata de artifact/version.

  4. Registrar o fijar modelo segun flujo interno.

Ejecutar predicciones

  1. Abrir Predictions.

  2. Ejecutar prediccion individual desde formulario.

  3. Ejecutar prediccion batch por archivo si esta disponible.

  4. Validar campos de salida: - Valor/clase predicha. - Confianza/probabilidad si aplica. - Timestamp y referencia de corrida.

Checklist de validacion funcional

  1. Experimento llega a estado terminal sin falla silenciosa.

  2. Metricas de detalle coinciden con leaderboard.

  3. Esquema de salida de prediccion es estable.

  4. Batch conserva paridad de filas input/output.

  5. Errores de prediccion entregan mensaje accionable.

Resultado esperado

  1. Al menos un modelo listo para despliegue.

  2. Predicciones consistentes y trazables.

Errores comunes y recuperacion

  1. Falla temprana de experimento: - Revisar target y manejo de nulos.

  2. Metrica inconsistente: - Confirmar mismo split/seed.

  3. Input rechazado en prediccion: - Alinear nombres/tipos con schema del modelo.

Imagenes

Ejecucion de experimentos y estado

Ejecucion de experimentos y monitoreo.

Registro de modelos y detalle

Registro de modelos con metricas y metadata.

Vista de predicciones

Prediccion individual y batch desde UI.