¿Cómo Funciona un Sistema de Visión Artificial?

1. ¿Qué es la visión artificial y por qué importa?

La visión artificial es, en pocas palabras, el conjunto de técnicas y sistemas que permiten a una máquina ver y tomar decisiones a partir de imágenes o vídeo. No es solo “una cámara” —es una cadena: captura, procesamiento, interpretación y acción. Esto la convierte en una herramienta clave en la industria para automatizar controles de calidad, clasificar piezas y evitar paradas por defectos que antes detectaba (o dejaba pasar) una persona.

En mi caso, tras diez años en una fábrica de piezas de coches, la visión artificial no es teoría: es la diferencia entre una línea que corre y una que se detiene cada hora por un fallo pequeño. Para nosotros, ponerle ojos a la cinta significó menos rechazos y menos noches corrigiendo errores manuales.

Visión artificial vs visión por computador

Son términos que a menudo se usan como sinónimos. Técnica y operativamente: visión por computador suele referirse al campo científico (algoritmos, modelos), y visión artificial al sistema aplicado (hardware + software + integración industrial). Ambos convergen cuando llevas un modelo de laboratorio al flujo de producción.

Aplicaciones clave en la industria

  • Control de calidad en línea (inspección de agujeros, dimensiones, ensamblajes).

  • Detección de presencia/posicionamiento (piezas mal colocadas).

  • Clasificación y conteo automático.
    Tu ejemplo de comprobar que el agujero del freno esté en su sitio es exactamente el tipo de aplicación que genera ahorro inmediato y trazabilidad.

2. Componentes de un sistema de visión artificial

Cámaras industriales: tipos y cómo elegir

Hay dos familias habituales: area-scan (imagen completa por frame) y line-scan (raya por raya, útil para objetos largos o alta resolución en movimiento). La elección depende de velocidad de la cinta, tamaño de pieza y resolución requerida. En nuestra línea usamos cámaras area-scan para piezas discretas porque nos aporta suficiencia de detalle a alta velocidad.

Iluminación y puesta en escena (por qué es crítica)

La iluminación es tan importante como la cámara. Luz difusa, coaxial o estructurada se selecciona según el defecto que quieras resaltar. Mal control de luz = falsos positivos y falsos negativos. Por eso, al instalar la cámara sobre la cinta siempre montamos un sistema de luces dedicado: si la pieza se ve distinta por sombras, el algoritmo falla. Esa inversión en iluminación suele ser la que más rápido devuelve valor.

Óptica, filtros y trigger

  • Lentes para obtener la resolución necesaria.

  • Filtros (IR, polarizadores) para reducir reflejos.

  • Trigger o sincronización: asegura que la cámara capture justo cuando la pieza está en el campo correcto. En nuestra planta, la cámara está sincronizada con sensores en la cinta para evitar frames inútiles y ahorrar procesamiento.

3. Flujo operativo: paso a paso (integrando mi experiencia)

Captura: cámara sobre la cinta y sincronización

Primero: ubicamos la cámara sobre la cinta con su iluminación. En nuestra instalación la cámara dispara con un trigger magnético: cuando la pieza pasa por el punto X, la cámara saca la foto. Esto permite imágenes consistentes aun a 200–300 piezas por minuto.

Preprocesado: limpieza de ruido y corrección de iluminación

El software aplica filtros (normalización, eliminación de ruido, corrección gamma) para dejar la imagen "lista" para detectar características. En la práctica esto baja drásticamente las falsas alarmas: una vez ajustamos el preprocesado, dejamos de recibir alertas por suciedad en la cinta.

Detección y clasificación: desde reglas clásicas hasta IA

Hay dos enfoques mixtos:

  • Visión clásica: detección de bordes, umbrales, morfología. Rápido y determinista para problemas simples.

  • IA / Deep Learning: redes neuronales convolucionales (CNNs) entrenadas con ejemplos buenos y defectuosos para reconocer patrones complejos.
    En nuestra línea empezamos con reglas (para arrancar rápido) y después entrenamos modelos con miles de imágenes para reducir excepciones. El proceso fue: etiquetado → entrenamiento → validación → despliegue.

Decisión y actuación: expulsar, parar, alertar

El resultado del modelo genera una señal: expulsar la pieza con un actuador, detener la línea o mandar una alarma al operario. En mi experiencia, el sistema está configurado para expulsar automáticamente en defectos claros y alertar en casos dudosos —esto reduce las paradas innecesarias.

4. Algoritmos y modelos: ¿cómo “aprende” la máquina?

Métodos clásicos

Filtros, detección de bordes (Canny), transformadas (Hough para líneas/aros), morfología y correlación. Eficientes cuando las variaciones son pequeñas.

Aprendizaje profundo

Modelos como YOLO, SSD o Mask R-CNN hacen detección y segmentación en tiempo real con alta precisión. Requieren dataset etiquetado, potencia de entrenamiento y pipelines de validación. Para producción, muchas veces convertimos el modelo a una versión optimizada para inferencia en edge (dispositivo local) para reducir latencia.

Entrenamiento: datasets, etiquetado y validación

Se necesitan miles de ejemplos representativos: piezas buenas, defectos variados, condiciones de luz y suciedad. Aquí viene una parte práctica: en mi planta hicimos sesiones de etiquetado interno durante una semana: clasificamos miles de imágenes y eso fue lo que permitió pasar de un 75% de acierto a >95% en ciertos checks críticos.

5. Integración con la planta y mantenimiento

Comunicación con PLC/SCADA y protocolos industriales

La visión no vive sola: se integra con el PLC o el SCADA mediante protocolos industriales (Ethernet/IP, PROFINET, Modbus). Así la orden de expulsión o parada se ejecuta con seguridad y trazabilidad.

Calibración, pruebas y re-entrenamiento

Al principio del proyecto pasamos por muchas pruebas (ajustes de luz, posición, thresholds). Ahora el sistema corre “solo”; solo lo ajustamos cuando cambiamos el diseño de una pieza. Re-entrenar o recalibrar es parte del mantenimiento preventivo: programa revisiones mensuales y captura imágenes nuevas cuando introduces un SKU distinto.

6. Ventajas, limitaciones y buenos usos

Ventajas prácticas

  • Velocidad y consistencia: no se cansan.

  • Reducción de errores humanos y de rechazos inseguros.

  • Registro y trazabilidad automáticos.
    En nuestra experiencia, la mayor ganancia fue eliminar inspecciones repetitivas que consumían mano de obra y tiempo.

Limitaciones

  • Sensibles a cambios de iluminación o variabilidad extrema en piezas.

  • Requieren dataset representativo para modelos de IA.

  • Coste inicial (cámaras, lentes, iluminación y desarrollo).

Checklist rápido para una implementación exitosa

  • Definir el defectos objetivo exactamente.

  • Tomar muestras y fotos representativas (buenas y malas).

  • Probar con visión clásica antes de apostar a IA si es viable.

  • Añadir iluminación controlada desde el inicio.

  • Integración con PLC y pruebas de seguridad.

7. Caso real: inspección de frenos (mi ejemplo práctico)

En nuestra línea comprobamos que el agujero del freno esté en la posición correcta. Instalamos la cámara sobre la cinta con iluminación coaxial, sincronizamos el trigger y diseñamos una regla combinada con un clasificador CNN: la regla descarta tamaños imposibles; la CNN detecta desviaciones y porcentajes de confianza. Resultado: pieza fuera si la probabilidad de defecto > 0.9; si está entre 0.6 y 0.9, se envía alerta para revisión manual.
Como decía antes: al principio lo configuramos con pruebas; ahora corre solo y solo lo ajustamos cuando cambiamos producto. Esa transición fue gradual y exigió datos.

8. Preguntas frecuentes (FAQ)

¿Qué componentes tiene un sistema de visión artificial?
Cámaras, iluminación, lentes/filtrado, sistema de captura (trigger), software de preprocesado, modelos de detección/clasificación, y la integración con el actuador o PLC.

¿Qué cámaras se usan en inspección industrial?
Cámaras area-scan para piezas discretas y line-scan para inspección continua de superficies largas. Elegir resolución y frame rate según velocidad de la línea.

¿Cómo se entrena un modelo para detectar defectos?
Recolectas imágenes, etiquetas (buenas/malas o bounding boxes), divides en train/val/test, entrenas el modelo, validas y lo optimizas para inferencia en producción.

¿Cuánto cuesta implementar un sistema?
Depende: desde configuraciones básicas (ciertas decenas de miles) hasta instalaciones complejas con múltiples cámaras y modelos personalizados. El coste inicial se amortiza rápido si reduces rechazos y paradas.

9. Conclusión y próximos pasos

Si quieres empezar: define el defecto que más te interesa, monta una prueba con una cámara y una iluminación controlada, captura 1.000–5.000 imágenes representativas y evalúa si una regla clásica resuelve el problema o necesitas IA. En mi caso, ese método pragmático nos permitió arrancar rápido y escalar con confianza.

La guía definitiva de la robótica industrial

Précédent
Précédent

Reducción de Costes en la Línea de Producción con Automatización Robótica

Suivant
Suivant

5 tareas repetitivas y peligrosas que un robot colaborativo (cobot) puede hacer por tus empleados