🧪 Herramienta Interactiva

Playground de Segmentación

Explora los tres tipos de segmentación de imágenes: semántica, por instancias y panóptica. Pinta máscaras sobre imágenes reales, compara resultados lado a lado con un slider, y explora la arquitectura U-Net capa por capa.

Herramientas de pintura

Clase activa

Lienzo de segmentación

0px pintados
0%cobertura
0clases usadas
mIoU
Dice
Pixel Acc
🎨
Pinta máscaras de segmentación seleccionando una clase y usando el pincel sobre la imagen. Pulsa Auto-segmentar para ver una segmentación simulada pre-calculada, y compara con tu pintura. Las métricas IoU, Dice y Pixel Accuracy se calculan respecto a la segmentación de referencia.

Comparador: Semántica vs Instancia vs Panóptica

Arrastra el slider para comparar la imagen original con cada tipo de segmentación. Observa cómo la segmentación semántica asigna una clase a cada pixel, la de instancias distingue objetos individuales, y la panóptica combina ambas.

Segmentación
Original
Segmentación semántica Clase por pixel
Asigna una clase a cada pixel de la imagen. No distingue entre objetos individuales de la misma clase. Ejemplo: todos los coches son "coche", sin importar cuántos haya.
Segmentación por instancias Objetos individuales
Detecta y segmenta cada objeto individual por separado. Cada coche tiene su propia máscara con un ID único. No segmenta el fondo (cielo, carretera, etc.).
Segmentación panóptica Combinada
Combina semántica + instancias: segmenta el fondo por clases (stuff) y cada objeto individual (things) con su propia máscara.
📐
Métricas típicas: Segmentación semántica usa mIoU (mean Intersection over Union). Instancias usa mAP como en detección pero con máscaras. Panóptica introduce PQ (Panoptic Quality) = SQ × RQ.

Arquitectura U-Net interactiva

Haz clic en cada bloque para explorar su función. La U-Net tiene una estructura encoder-decoder simétrica con skip connections que preservan la información espacial.

Haz clic en un bloque para ver detalles sobre esa capa de la arquitectura U-Net.
💡
Skip connections (flechas horizontales) son la clave de U-Net: concatenan los feature maps del encoder con los del decoder, permitiendo al modelo combinar características de alto nivel (semánticas) con detalle espacial fino.