Cuándo detener el entrenamiento
El entrenamiento no necesita ejecutarse "para siempre". En proyectos reales, los mejores resultados se obtienen al detenerse en el momento adecuado:
no demasiado pronto (el modelo aún no ha aprendido)
no demasiado tarde (el modelo empieza a sobreajustarse / memorizar)
En AugeLab Studio, el entrenamiento normalmente termina cuando alcanza las max iterations configuradas, o cuando haces clic en Stop Training. El Training Chart te ayuda a decidir si vale la pena continuar.
Si este es tu primer entrenamiento, empieza con la Starter Checklist.
Monitorizar el progreso del entrenamiento
Durante el entrenamiento, monitoriza el progreso del modelo y observa la relación entre:
Loss
mAP
IOU
Iterations
Loss y mAP se muestran en un gráfico como el siguiente:

Todas las métricas pueden variar enormemente según:
Variedad de datos
Tamaño del conjunto de datos
Precisión de las anotaciones
Tamaño del modelo
Los números que se muestran a continuación solo se proporcionan para establecer una base inicial para los recién llegados.
Regla rápida (lo que suele funcionar)
Si solo recuerdas una regla:
Detente cuando el validation mAP deje de mejorar durante mucho tiempo, o cuando empiece a bajar mientras el loss sigue disminuyendo.
Ese segundo caso es la señal clásica de overfitting.
Patrones comunes de entrenamiento (chuleta)
Estos patrones son comunes en el uso real. Para cada uno, mira primero el gráfico y luego lee la explicación.
Estos gráficos de ejemplo se han generado con fines de entrenamiento/documentación. En tu repositorio, colócalos en la carpeta .assets/ junto a esta página.
Datos insuficientes

Explicación:
Qué significa: no tienes suficiente señal aún para confiar en la tendencia.
Causas probables: pocas imágenes, ejecución muy corta, validación muy pequeña o débil.
Qué hacer: entrenar más tiempo; añadir datos; asegurarse de que la validación exista e incluya variedad real.
Baja varianza

Explicación:
Qué significa: el modelo aprende la "repetición fácil" rápidamente y deja de obtener información nueva.
Causas probables: dataset repetitivo (mismo fondo/ángulo/iluminación), falta de negativos, ausencia de casos límite.
Qué hacer: añadir variedad (ángulos, fondos, iluminación), añadir negativos, capturar casos difíciles adrede.
Sobreentrenamiento

El sobreentrenamiento no siempre es catastrófico, pero suele indicar memorización en lugar de generalización. Para entornos estrictos (cámara fija, iluminación fija) puede ser aceptable.
Qué significa: el modelo mejora en el set de entrenamiento pero empeora en la validación (memorización).
Causas probables: poca variedad, validación demasiado pequeña, duplicados/casi duplicados.
Qué hacer: detener y conservar los mejores pesos; añadir más variedad; aumentar la partición de validación; eliminar duplicados.
Modelo que no aprende

Explicación:
Qué significa: el entrenamiento no progresa de forma significativa.
Causas probables: etiquetas/clases equivocadas, desajuste de IDs de clase, formato de anotación roto, configuración incorrecta.
Qué hacer: verificar el orden de
.namesvs IDs de etiquetas; revisar etiquetas aleatorias; confirmar formato YOLO; ajustar la configuración de entrenamiento.
Conjunto de datos corrupto

Explicación:
Qué significa: el entrenamiento se interrumpe por datos inconsistentes o dañados.
Causas probables: archivos de imagen corruptos, etiquetas inválidas, fuentes/resoluciones mixtas, imágenes "vacías pero que contienen objetos".
Qué hacer: ejecutar comprobaciones del dataset; eliminar datos corruptos; corregir el formato de etiquetas; reexportar un conjunto limpio.
Buen entrenamiento

Explicación:
Qué significa: aprendizaje saludable y buena generalización.
Causas probables: etiquetas consistentes + suficiente variedad.
Qué hacer: detener cuando mAP se estabilice; validar con metraje real / un "golden set"; desplegar los mejores pesos.
Loss
Loss es una señal de ajuste del entrenamiento. Representa qué tan bien se está ajustando el modelo a los batches de entrenamiento.
Loss es útil, pero puede ser engañoso:
El loss puede seguir disminuyendo incluso cuando el modelo ya está sobreajustando.
El loss no garantiza el rendimiento en el mundo real.
El loss por sí solo no es suficiente para juzgar la precisión. Usa mAP para entender la generalización en datos de validación.
2.0 ≥ Loss
A menudo indica que "el aprendizaje ha empezado", pero la calidad puede seguir siendo pobre. Úsalo como señal de que la tubería funciona, no como línea de meta.
Como se muestra en el gráfico más arriba, valores de loss alrededor de 2.0 pueden no producir modelos precisos.
1.0 ≥ Loss
Comúnmente una línea base usable en muchos datasets enfocados.
0.5 ≥ Loss
A menudo indica un modelo bien ajustado en un dataset limpio y consistente. Después de este punto, las mejoras pueden ser lentas y el riesgo de overfitting aumenta.
Los umbrales de Loss no son universales (por qué)
Los valores de loss dependen de la arquitectura del modelo, tamaño de imagen, número de clases, ruido en las etiquetas, aumentos (augmentation) y complejidad del dataset. Usa los umbrales de loss para construir intuición, no como una regla universal de aprobado/reprobado.
mAP
La métrica mAP (mean average precision) combina precisión y recall para ofrecer una evaluación completa de la exactitud del modelo al detectar objetos en una imagen.
Se calcula evaluando las predicciones frente a las etiquetas ground-truth en umbrales IoU específicos (los detalles exactos dependen del backend/configuración de entrenamiento).
mAP solo es tan buena como tu conjunto de validación. Si las imágenes de validación son muy pocas, demasiado "limpias", muy similares al entrenamiento o mal etiquetadas, el mAP puede parecer excelente mientras el modelo falla en producción.
Interpretación práctica:
Una meseta estable suele ser más importante que perseguir el último +1%.
Un mAP muy alto (p. ej. 95–99%) en un dataset pequeño o repetitivo es una trampa común de sobreajuste.
Si mAP alcanza un pico y luego baja, consulta Over-Fitting.
IOU
IOU (Intersection over Union) mide la superposición entre cajas delimitadoras predichas y reales para detecciones de objetos individuales. mAP evalúa el rendimiento general del modelo de detección considerando precisión y recall en todas las categorías de objetos.
A mayor valor de IOU, más ajustada es la caja predicha.
Puedes seguir cada IOU en los registros de la Training Window:

Ajustes finos
Tiempo de entrenamiento
Define un presupuesto máximo de tiempo de entrenamiento basado en los recursos computacionales disponibles y las limitaciones del proyecto. Si el modelo no alcanza un rendimiento satisfactorio dentro del tiempo asignado, considera detener el entrenamiento y explorar otras vías como:
Analizar manualmente la precisión de las anotaciones
Verificar la variedad de clases
Probar diferentes tamaños de modelo y tamaños de lote (batch)
Aumentar el tamaño de la base de datos
Over-Fitting
Evita el overfitting monitorizando cómo se comporta el mAP a lo largo del tiempo.
La señal de overfit más fiable en "la vida real" es:
loss disminuye, pero mAP alcanza un pico y luego empeora.
El overfitting no siempre es "catastrófico" en configuraciones muy restringidas y de cámara fija. Pero si te importa la robustez (diferente iluminación, turnos, fondos), el overfitting aparecerá rápidamente.
Qué suele ayudar:
Añadir más variedad (días nuevos, iluminación distinta, nuevos fondos)
Añadir negativos que se parezcan a tu entorno real
Mejorar la consistencia de las etiquetas (mismo estilo entre etiquetadores)
Aumentar la partición de validación para que mAP sea más difícil de "engañar"


Equilibrar tiempo y rendimiento
Equilibra el tiempo de entrenamiento con el rendimiento deseado del modelo. En algunos casos, iteraciones adicionales pueden mejorar el rendimiento, pero la ganancia puede disminuir con el tiempo. Valora los beneficios frente al coste computacional y la urgencia del proyecto.
Normalmente, dependiendo del número de clases y del tamaño de la base de datos, la duración del proceso de entrenamiento puede variar entre un día y una semana.
Starter Checklist
Base de datos:
Modelo:
Entrenamiento (detener si):
Lista rápida de depuración (cuando algo va mal)
Revisa aleatoriamente 20–50 imágenes en el dataset (no solo la primera página)
Confirma el mapeo de clases:
El archivo
.namescoincide en orden con los IDs de las etiquetasno hay clases faltantes o extra
Revisa archivos de etiquetas:
Formato YOLO:
class x_center y_center width height(normalizado)las cajas están dentro de los límites y no tienen tamaño cero
Si mAP parece "demasiado bueno para ser verdad":
la partición de validación puede ser demasiado pequeña o demasiado similar al entrenamiento
puede haber duplicados / casi duplicados
Si el entrenamiento es inestable o hay OOM:
incrementa subdivisions o reduce batch
reduce temporalmente la resolución de entrada para depurar
Última actualización