Cuándo detener el entrenamiento

El entrenamiento no necesita ejecutarse "para siempre". En proyectos reales, los mejores resultados se obtienen al detenerse en el momento adecuado:

  • no demasiado pronto (el modelo aún no ha aprendido)

  • no demasiado tarde (el modelo empieza a sobreajustarse / memorizar)

circle-info

En AugeLab Studio, el entrenamiento normalmente termina cuando alcanza las max iterations configuradas, o cuando haces clic en Stop Training. El Training Chart te ayuda a decidir si vale la pena continuar.

Si este es tu primer entrenamiento, empieza con la Starter Checklist.

Monitorizar el progreso del entrenamiento

Durante el entrenamiento, monitoriza el progreso del modelo y observa la relación entre:

  • Loss

  • mAP

  • IOU

  • Iterations

Loss y mAP se muestran en un gráfico como el siguiente:

Good training example chart
Ejemplo: buen entrenamiento (loss disminuye, mAP aumenta y luego se estabiliza)
circle-exclamation

Regla rápida (lo que suele funcionar)

Si solo recuerdas una regla:

Detente cuando el validation mAP deje de mejorar durante mucho tiempo, o cuando empiece a bajar mientras el loss sigue disminuyendo.

Ese segundo caso es la señal clásica de overfitting.

Patrones comunes de entrenamiento (chuleta)

Estos patrones son comunes en el uso real. Para cada uno, mira primero el gráfico y luego lee la explicación.

circle-info

Estos gráficos de ejemplo se han generado con fines de entrenamiento/documentación. En tu repositorio, colócalos en la carpeta .assets/ junto a esta página.

Datos insuficientes

Insufficient data example chart
Datos insuficientes: muy pocos puntos / ejecución demasiado corta (métricas ruidosas al inicio)

Explicación:

  • Qué significa: no tienes suficiente señal aún para confiar en la tendencia.

  • Causas probables: pocas imágenes, ejecución muy corta, validación muy pequeña o débil.

  • Qué hacer: entrenar más tiempo; añadir datos; asegurarse de que la validación exista e incluya variedad real.

Baja varianza

Low variance example chart
Baja varianza: el loss se estabiliza y el mAP apenas mejora

Explicación:

  • Qué significa: el modelo aprende la "repetición fácil" rápidamente y deja de obtener información nueva.

  • Causas probables: dataset repetitivo (mismo fondo/ángulo/iluminación), falta de negativos, ausencia de casos límite.

  • Qué hacer: añadir variedad (ángulos, fondos, iluminación), añadir negativos, capturar casos difíciles adrede.

Sobreentrenamiento

Overtraining example chart
Sobreentrenamiento: el loss sigue mejorando, pero el mAP alcanza un pico (incluso muy alto) y luego empeora

El sobreentrenamiento no siempre es catastrófico, pero suele indicar memorización en lugar de generalización. Para entornos estrictos (cámara fija, iluminación fija) puede ser aceptable.

  • Qué significa: el modelo mejora en el set de entrenamiento pero empeora en la validación (memorización).

  • Causas probables: poca variedad, validación demasiado pequeña, duplicados/casi duplicados.

  • Qué hacer: detener y conservar los mejores pesos; añadir más variedad; aumentar la partición de validación; eliminar duplicados.

Modelo que no aprende

Model not learning example chart
Modelo que no aprende: loss se mantiene alto/estable, mAP cercano a cero

Explicación:

  • Qué significa: el entrenamiento no progresa de forma significativa.

  • Causas probables: etiquetas/clases equivocadas, desajuste de IDs de clase, formato de anotación roto, configuración incorrecta.

  • Qué hacer: verificar el orden de .names vs IDs de etiquetas; revisar etiquetas aleatorias; confirmar formato YOLO; ajustar la configuración de entrenamiento.

Conjunto de datos corrupto

Corrupted dataset example chart
Conjunto de datos corrupto: picos inestables de loss y mAP errático

Explicación:

  • Qué significa: el entrenamiento se interrumpe por datos inconsistentes o dañados.

  • Causas probables: archivos de imagen corruptos, etiquetas inválidas, fuentes/resoluciones mixtas, imágenes "vacías pero que contienen objetos".

  • Qué hacer: ejecutar comprobaciones del dataset; eliminar datos corruptos; corregir el formato de etiquetas; reexportar un conjunto limpio.

Buen entrenamiento

Good training example chart
Buen entrenamiento: aprendizaje constante y una meseta alta y estable

Explicación:

  • Qué significa: aprendizaje saludable y buena generalización.

  • Causas probables: etiquetas consistentes + suficiente variedad.

  • Qué hacer: detener cuando mAP se estabilice; validar con metraje real / un "golden set"; desplegar los mejores pesos.

Loss

Loss es una señal de ajuste del entrenamiento. Representa qué tan bien se está ajustando el modelo a los batches de entrenamiento.

Loss es útil, pero puede ser engañoso:

  • El loss puede seguir disminuyendo incluso cuando el modelo ya está sobreajustando.

  • El loss no garantiza el rendimiento en el mundo real.

circle-info

El loss por sí solo no es suficiente para juzgar la precisión. Usa mAP para entender la generalización en datos de validación.

2.0 ≥ Loss

A menudo indica que "el aprendizaje ha empezado", pero la calidad puede seguir siendo pobre. Úsalo como señal de que la tubería funciona, no como línea de meta.

circle-exclamation

1.0 ≥ Loss

Comúnmente una línea base usable en muchos datasets enfocados.

0.5 ≥ Loss

A menudo indica un modelo bien ajustado en un dataset limpio y consistente. Después de este punto, las mejoras pueden ser lentas y el riesgo de overfitting aumenta.

chevron-rightLos umbrales de Loss no son universales (por qué)hashtag

Los valores de loss dependen de la arquitectura del modelo, tamaño de imagen, número de clases, ruido en las etiquetas, aumentos (augmentation) y complejidad del dataset. Usa los umbrales de loss para construir intuición, no como una regla universal de aprobado/reprobado.

mAP

La métrica mAP (mean average precision) combina precisión y recall para ofrecer una evaluación completa de la exactitud del modelo al detectar objetos en una imagen.

Se calcula evaluando las predicciones frente a las etiquetas ground-truth en umbrales IoU específicos (los detalles exactos dependen del backend/configuración de entrenamiento).

circle-exclamation

Interpretación práctica:

  • Una meseta estable suele ser más importante que perseguir el último +1%.

  • Un mAP muy alto (p. ej. 95–99%) en un dataset pequeño o repetitivo es una trampa común de sobreajuste.

  • Si mAP alcanza un pico y luego baja, consulta Over-Fitting.

IOU

IOU (Intersection over Union) mide la superposición entre cajas delimitadoras predichas y reales para detecciones de objetos individuales. mAP evalúa el rendimiento general del modelo de detección considerando precisión y recall en todas las categorías de objetos.

circle-info

A mayor valor de IOU, más ajustada es la caja predicha.

Puedes seguir cada IOU en los registros de la Training Window:

Ajustes finos

Tiempo de entrenamiento

Define un presupuesto máximo de tiempo de entrenamiento basado en los recursos computacionales disponibles y las limitaciones del proyecto. Si el modelo no alcanza un rendimiento satisfactorio dentro del tiempo asignado, considera detener el entrenamiento y explorar otras vías como:

  • Analizar manualmente la precisión de las anotaciones

  • Verificar la variedad de clases

  • Probar diferentes tamaños de modelo y tamaños de lote (batch)

  • Aumentar el tamaño de la base de datos

Over-Fitting

Evita el overfitting monitorizando cómo se comporta el mAP a lo largo del tiempo.

La señal de overfit más fiable en "la vida real" es:

loss disminuye, pero mAP alcanza un pico y luego empeora.

El overfitting no siempre es "catastrófico" en configuraciones muy restringidas y de cámara fija. Pero si te importa la robustez (diferente iluminación, turnos, fondos), el overfitting aparecerá rápidamente.

Qué suele ayudar:

  • Añadir más variedad (días nuevos, iluminación distinta, nuevos fondos)

  • Añadir negativos que se parezcan a tu entorno real

  • Mejorar la consistencia de las etiquetas (mismo estilo entre etiquetadores)

  • Aumentar la partición de validación para que mAP sea más difícil de "engañar"

Overtraining example chart
Ejemplo de sobreentrenamiento: mAP alcanza un pico y luego cae mientras el loss sigue disminuyendo

Equilibrar tiempo y rendimiento

Equilibra el tiempo de entrenamiento con el rendimiento deseado del modelo. En algunos casos, iteraciones adicionales pueden mejorar el rendimiento, pero la ganancia puede disminuir con el tiempo. Valora los beneficios frente al coste computacional y la urgencia del proyecto.

Normalmente, dependiendo del número de clases y del tamaño de la base de datos, la duración del proceso de entrenamiento puede variar entre un día y una semana.

Starter Checklist

Base de datos:

Modelo:

Entrenamiento (detener si):

chevron-rightLista rápida de depuración (cuando algo va mal)hashtag
  1. Revisa aleatoriamente 20–50 imágenes en el dataset (no solo la primera página)

  2. Confirma el mapeo de clases:

  • El archivo .names coincide en orden con los IDs de las etiquetas

  • no hay clases faltantes o extra

  1. Revisa archivos de etiquetas:

  • Formato YOLO: class x_center y_center width height (normalizado)

  • las cajas están dentro de los límites y no tienen tamaño cero

  1. Si mAP parece "demasiado bueno para ser verdad":

  • la partición de validación puede ser demasiado pequeña o demasiado similar al entrenamiento

  • puede haber duplicados / casi duplicados

  1. Si el entrenamiento es inestable o hay OOM:

  • incrementa subdivisions o reduce batch

  • reduce temporalmente la resolución de entrada para depurar

Última actualización