Wiki Machine Vision

Esta lista describe los términos más utilizados en machine vision en relación con las cámaras de machine vision.

  • Ancho de banda: Ancho de banda es la cantidad de datos que se pueden transmitir simultáneamente a través de una cierta conexión durante un cierto período. Cuanto mayor sea el ancho de banda de una conexión, más y más rápido se pueden recibir o enviar los datos. Ancho de banda se define como la cantidad de Megabits o Megabytes que se pueden transmitir por segundo. Los valores típicos para Ancho de banda son 40 Megabytes/segundo (conexión USB2), 100 Megabytes/segundo (conexión GigE) y 400 Megabytes/segundo (conexión USB3).

  • Patrón Bayer: Un patrón Bayer, también llamado filtro Bayer, es un raster cuadrado ordinario de filtros de color para rojo, verde y azul (RGB) que se utiliza para sensores de imagen digital en cámaras de visión y cámaras de consumo. El patrón lleva el nombre del inventor Bryce E. Bayer de Eastman Kodak. Cada píxel de color tiene un valor RGB, donde los valores de los píxeles circundantes se utilizan para generar el valor RGB de un solo píxel. La decodificación del patrón Bayer se llama de-Bayering.

  • Profundidad de bits: La profundidad de bits es una medida utilizada para indicar el número de bits utilizados para codificar el valor de color/gris de un píxel. Cuanto mayor sea la profundidad de bits, más valores se podrán codificar. En teoría, una imagen monocromática sólo necesita una profundidad de bits de 1 bit. Sin embargo, sólo puede utilizar el color blanco y negro, no valores de gris. Por lo tanto, una imagen monocromática normal utiliza normalmente 8 bits y puede tener 256 tonos diferentes. Una imagen en color necesita entre 8 y 24 bits, dependiendo de la calidad de la imagen. Con una profundidad de bits más alta, la información de la imagen a menudo se guarda como RGB (rojo, verde y azul), porque no es necesario guardar todos los colores diferentes en una tabla separada.
  • CCD: Un dispositivo de carga acoplada (CCD) es un chip que convierte la radiación electromagnética en un pulso eléctrico. El chip consiste en filas de capacitores conectados por interruptores electrónicos. Al abrirse y cerrarse, estos interruptores alternan para poder transportar cargas de un lado a otro. El chip CCD se coloca detrás de la objetivo de una machine vision. Donde la luz entrante se transforma en una señal eléctrica. Posteriormente, esta señal es convertida por un chip diferente en una señal digital, que solo existe en unos y ceros. Estos datos pueden ser entendidos por una computadora. Los sensores CCD son uno de los sensores más utilizados en cámaras de machine vision, sin embargo, recientemente los sensores CCD están siendo reemplazados por sensores CMOS.

  • CMOS: El semiconductor de óxido metálico complementario (CMOS) es la tecnología de semiconductores que utiliza transistores de efecto de campo de óxido metálico con conducción tanto n- como p-. De esta manera complementaria de conmutación, los circuitos están conectados ya sea a la fuente de voltaje positiva o negativa, mientras que el transistor opuesto no conduce voltaje, lo que hace que el interruptor apenas use corriente cuando no hay conmutación. Debido a su bajo consumo de energía, la tecnología CMOS se utiliza a menudo para sensores de imagen. En este campo, es el mayor competidor del CCD. Muchas de las operaciones necesarias para el CCD posteriormente, se pueden realizar en el chip mismo con chips CMOS, como el fortalecimiento, la reducción de ruido y la interpolación. Un CCD recibe una carga al final de toda una fila de píxeles que luego se convierte en voltaje; con CMOS, esto ocurre con cada píxel por separado. La última generación de cámaras de machine vision tiene solo sensores CMOS y ya no sensores CCD.
  • Rango Dinámico: El rango dinámico es la relación entre la luz más brillante y la luz más débil que puede ser percibida por una cámara. El valor se mide en dB. Cuanto mayor sea el valor en dB, mayor será la diferencia entre la luz más brillante y la luz más débil. El rango dinámico es importante cuando deseas capturar una imagen de un objeto con un gran contraste. Quieres que las partes oscuras y brillantes sean capturadas bien.
  • Factor de relleno: El factor de relleno de un sensor de imagen es la relación entre el área sensible a la luz y un píxel del área total. Para píxeles sin microlentes, el factor de relleno es la relación entre el área del fotodiodo y la superficie total del píxel. Sin embargo, el uso de microlentes aumenta el factor de relleno efectivo, a menudo hasta un 100%, al hacer converger la luz del área total de píxeles en el fotodiodo. En otra ocasión se puede reducir el factor de relleno de una imagen.

  • Framegrabber: Un framegrabber se conecta al bus PCI de una computadora y proporciona la conexión entre la machine vision y la computadora. El capturador de fotogramas transfiere los datos de la machine vision a la CPU de la computadora. Interfaces más nuevas como GigE, USB2 y USB3 se pueden usar sin capturador de fotogramas. Estas interfaces pueden utilizar los puertos estándar de red o USB de la computadora, donde una interfaz como Cámara Link y Coaxpress aún requiere un capturador de fotogramas, lo que lo hace mucho más caro.

  • Velocidad de fotogramas: El número de fotogramas por segundo es una medida que indica qué tan rápido un dispositivo captura fotogramas o qué tan rápido procesa estos fotogramas. El término se utiliza a menudo en películas, gráficos por computadora, cámaras y pantallas. El número de fotogramas por segundo se puede expresar en fotogramas por segundo o en hercios (Hz).
  • LUT, Corrección Gamma: La corrección gamma es una operación no lineal para corregir la intensidad de la luz, la iluminación o el brillo de una imagen en movimiento. La cantidad de corrección gamma no sólo cambia el brillo, sino también la relación RGB. Gamma es el contraste de proporcionalidad entre el brillo de la pantalla y la señal de vídeo.
  • Global Obturador: Si el sensor de imágenes es global obturador, cada píxel comenzará su exposición y terminará su exposición al mismo tiempo. Esto requiere grandes cantidades de memoria. Dado que la imagen completa se puede guardar en la memoria después de que finaliza el tiempo de exposición, los datos se pueden leer gradualmente. Fabricar global obturador sensores es un proceso complejo y es más caro que fabricar sensores de rodante obturador. El principal beneficio de los global obturador sensores es que son capaces de capturar objetos/productos en movimiento a alta velocidad sin distorsión. Los Global obturador sensores también se pueden utilizar en una gama más amplia de aplicaciones.
  • Sensor de imagen: Un sensor de imagen es el término general para un componente electrónico que incorpora múltiples componentes sensibles a la luz y es capaz de capturar imágenes electrónicamente. Convierte una imagen óptica en una señal electrónica. Los sensores de imagen más utilizados son el chip CCD y el chip CMOS. Los sensores de imagen se aplican en una variedad de cámaras, tanto para video como para fotografía digital. El sensor convierte la luz entrante en una imagen digital.

  • Formato del Sensor de Imagen Antes de comprar una visión de cámara, es importante saber qué tamaños de sensores de imagen están disponibles. El sensor de imagen de una cámara tiene una gran influencia sobre la calidad de tus imágenes. El formato del sensor de imagen se indica en pulgadas. Hay que tener en cuenta que las pulgadas no se pueden convertir a formatos reales de sensor de imagen. Esto proviene del formato de los antiguos tubos de televisión. El formato del sensor de imagen es necesario para calcular la objetivo. Los formatos de sensor más utilizados en machine vision son: 1/4 pulgada, 1/3, 1/2 pulgada, 2/3 pulgada y 1 pulgada. Para cámaras de C-mount, el formato del sensor varía desde 1/4 pulgada hasta 1.1 pulgada.

  • Sensibilidad del Sensor de Imagen La cantidad de luz expuesta que una cámara puede convertir en electrones determina la sensibilidad del sensor de imagen. Esto depende del tamaño de los píxeles y de la técnica que se utilizó para fabricar el sensor de imagen. Tradicionalmente, los sensores CCD solían ser más sensibles a la luz que los sensores CMOS. Sin embargo, en los últimos años esto ha cambiado. Los sensores Sony IMX son muy sensibles a la luz y por lo tanto podemos recomendar mucho los sensores de imagen Sony Pregius. Como el IMX 265.

  • Interfaz Una interfaz es un método mediante el cual dos sistemas pueden comunicarse entre sí. Una interfaz convierte información de un sistema en información comprensible y reconocible para otro sistema. La pantalla es una forma de interfaz entre el usuario y la computadora. Convierte información digital de la computadora en forma textual o gráfica. Para cámaras de machine vision, la interfaz es el tipo de conexión entre la cámara y la PC. Esto puede ser GigaBit Ethernet, USB2 o USB3. 

  • Entretejido o escaneo entrelazado es la técnica de capturar imágenes en movimiento en una pantalla. Con una cámara, donde la calidad de la imagen se mejora sin usar más ancho de banda. Con el escaneo entrelazado, una imagen se divide en dos campos. Un campo consiste en todas las líneas pares (líneas de escaneo), y el otro en todas las líneas impares. Alternativamente, ambos campos se actualizan. Por entretejido, la cantidad de información de imagen se reduce a la mitad. Así que, cuando toda la imagen se dibuja de una vez, se llama escaneo progresivo. Cuando una imagen se compila en dos momentos separados, se llama entretejido. Compilar dos fotogramas entrelazados juntos puede resultar en un "efecto de cámara". Esto se debe a que al usar una imagen en movimiento existe una diferencia entre los dos fotogramas. Dos fotogramas se compilan que difieren 1/50 de segundo. Esto resulta en dos instantáneas diferentes de la misma imagen. Una pantalla necesita compensar este asunto, esto se llama desentrelazado.

  • I/O I/o significa entrada / salida. Las señales que se reciben se consideran como entrada, las señales que se envían son salida. Una visión cámara tiene múltiples puertos I/O para la comunicación. La señal es alta o baja. La señal de salida de la visión cámara puede, por ejemplo, ser utilizada para activar una fuente de luz, enviando una señal de activación a otra visión cámara para sincronizar ambas cámaras o enviando una señal a un PLC. Los puertos de entrada se utilizan, por ejemplo, para activar la cámara para capturar una imagen, o para leer el estado de un botón que está conectado al puerto de entrada.
  • Machine vision: Machine vision es la capacidad de una computadora para ver, tener visión. Machine vision es comparable a Visión por computadora, pero en una applicación industrial o práctica. Una computadora requiere una machine vision cámara para ver, esta cámara recoge datos al capturar imágenes de un cierto producto, proceso, etc. Los datos que deben ser recogidos son especificados de antemano por el software utilizado en el sistema de visión. Los datos serán enviados a un controlador de robot o computadora después de la fase de recolección de datos, que luego ejecutará una cierta función.

  • Desenfoque de Movimiento: Desenfoque de movimiento es el fenómeno por el cual los objetos en una foto o imagen de video aparecen borrosos, como resultado del movimiento de un objeto y/o la cámara. El desenfoque de movimiento a menudo ocurre cuando se utiliza un tiempo de obturación que es demasiado largo. La imagen proyectada del objeto en el sensor de imagen no debe moverse más de medio píxel durante el tiempo de exposición. Para calcular el tiempo máximo de exposición tenemos el siguiente ejemplo. El campo de visión es 1000x600mm y la Cámara de Visión Artificial tiene una resolución de 1000x600 píxeles. Esto significa 1 píxel/1 mm. Si un objeto se mueve a 1m/segundo, esto será 1000mm/segundo. Se notará el desenfoque de movimiento si el objeto se mueve más de medio píxel, es decir, 0,5 * 1 píxel/1 mm = 0,5 mm. El tiempo máximo de exposición es (máximo movimiento del objeto = 0,5 mm) / (velocidad del objeto = 1000 mm) = 0,0005 segundos = 0,5 ms. En este caso, el tiempo máximo de exposición para eliminar el desenfoque de movimiento es 0,5 x 1000 = 500 µs.
  • Binación de Píxeles: En los sensores de imagen, el proceso de binación de píxeles se refiere a que los píxeles vecinos combinan su carga eléctrica para transformarse en un superpíxel, reduciendo así la cantidad de píxeles. Esto aumenta la relación señal-ruido (SNR). Hay tres tipos de binación de píxeles, que son horizontal, vertical y binación completa. La binación de píxeles a menudo ocurre con 4 píxeles (2x2) a la vez. Sin embargo, algunos sensores de imagen también pueden combinar hasta 16 (4x4) píxeles al mismo tiempo. De este modo, el sensor aumenta la relación señal-ruido en 4, reduciendo la muestra de muestra (por lo tanto, la resolución) en 4.

  • Los píxeles: Los pixeles son puntos de imagen a partir de los cuales se construye una imagen. El píxel es el elemento más pequeño posible de una imagen. Cada píxel puede tener un valor de gris/color aleatorio. Conjuntamente, los píxeles forman la imagen deseada. El término píxeles deriva de las palabras imagen y elemento y a menudo se abrevia como 'px'. El número de píxeles de una imagen se llama resolución. Cuanto mayor sea la resolución, más píxeles por milímetro, haciendo que tu imagen sea más nítida. La resolución a menudo se expresa en píxeles por pulgada (ppi). El sensor de imagen de una machine vision también consiste en píxeles. El número de píxeles depende del sensor de imagen. Un sensor con una imagen de 6000x4000 píxeles contiene 24 millones de píxeles. Expresado como 24MP o 24 Mpx (megapíxeles). La resolución de nuestras cámaras siempre se menciona en la descripción del producto.

  • Escaneo progresivo: Escaneo progresivo es la técnica para mostrar, guardar o transmitir imágenes en movimiento, donde un fotograma no existe de múltiples campos, sino que todas las filas se actualizan en orden. Esto es lo opuesto al método de escaneo entrelazado que se utiliza con sensores CCD más antiguos. El escaneo progresivo se utiliza en todos los sensores CCD que se utilizan en nuestras cámaras de machine vision.
  • Eficiencia Cuántica: Eficiencia cuántica se refiere a la relación entre fotones incidentes y electrones convertidos (IPCE) de un dispositivo fotosensible, como el sensor de imagen de una machine vision. 
  • Región de Interés: Región de Interés (ROI) de una machine vision es el área / parte del sensor de imagen que se lee. Por ejemplo, una cámara un sensor de imagen con una resolución de 1280x1024 píxeles. Solo estás interesado en la parte central de la imagen. Puedes establecer un ROI de 640x480 píxeles dentro de la cámara. Entonces, solo esa parte del sensor de imagen capturará luz y transmitirá los datos. Establecer un ROI en la visión cámara los fotogramas por segundo porque solo se leerá una parte del sensor de imagen, reduciendo la cantidad de datos a transmitir por cada imagen capturada y permitiendo que la cámara haga más imágenes por segundo.  

  • Resolución: Resolución en el área del procesamiento de imágenes digitales es un término utilizado para describir el número de píxeles de una imagen. Cuanto mayor sea el número de píxeles, mayor será la resolución. La resolución se expresa en la cantidad de píxeles horizontales y verticales o la cantidad total de píxeles de un sensor, expresada en Megapíxeles. Una imagen puede tener una resolución de 1280x1024 píxeles y esto también se expresa como una resolución de 1,3 Megapíxeles.

  • Rodante Obturador: Un rodante obturador tiene un método diferente de captura de imágenes en comparación con el global obturador. Específicamente, expone diferentes líneas en diferentes momentos a medida que se están leyendo. Cada línea se expone en una fila, cada línea se lee completamente antes de que la siguiente línea esté lista. Con un rodante obturador , se requieren solo dos transistores por unidad de píxel para transportar un electrón, reduciendo la cantidad de calor y ruido. En relación con el global obturador, la estructura del rodante obturador es más simple y, por lo tanto, más barata. La desventaja del rodante obturador sin embargo, es que no todas las líneas se exponen simultáneamente, lo que causará distorsión al intentar capturar objetos en movimiento.
  • Corrección de Sombreado: Correción de sombreado o corrección de campo plano se utiliza para corregir el viñeteado del objetivo o partículas de polvo en el sensor de imagen. El viñeteado es el oscurecimiento de las esquinas de la imagen en comparación con el centro de la imagen. Utilizar la corrección de sombreado / corrección de campo plano requiere la misma configuración óptica con la que se capturaron las imágenes originales durante la calibración de la corrección de sombreado. Por lo tanto, con el mismo objetivo, diafragma, filtro y la misma posición. Además, el enfoque que se utilizó al hacer la imagen de calibración debe ser el mismo.

  • Tiempo de obturación/Tiempo de exposición: El obturador o tiempo de exposición es la cantidad de tiempo que la luz incide en el sensor de la cámara. La iluminación y la iluminación son elementos muy importantes con . Su tiempo de exposición determina cuánta luz incide en su sensor y, por lo tanto, el número de detalles que son visibles en esa imagen. Su imagen puede perder muchos detalles con demasiada o muy poca luz, porque estos detalles se pierden en partes demasiado oscuras o demasiado brillantes de la imagen. Por lo tanto, el tiempo de exposición es un elemento importante en la iluminación de sus imágenes y es uno de los tres elementos más importantes del triángulo de exposición. El tiempo de exposición no solo regula la exposición de su imagen, sino también cómo se ve el movimiento enfocado o borroso en su imagen. Con un tiempo de exposición corto, puede capturar movimientos rápidos y congelarlos. Con un tiempo de exposición largo, puede hacer que los movimientos parezcan fluidos. El tiempo de exposición se puede ajustado manualmente en su machine vision. Los tiempos de exposición pueden variar desde 5us hasta un segundo. Realmente dependiendo del tipo de applicación, necesitará un tiempo de exposición largo o corto.

  • Relación señal-ruido: La relación señal-ruido(SNR) es una medida que se utiliza para medir la calidad de una señal en la que se detecta un ruido perturbador. presente. La relación señal-ruido mide la potencia de la señal deseada en relación con la potencia del ruido actual. Cuanto mayor sea este valor, mayor será la diferencia entre la señal y el ruido, lo que permitirá recuperar mejor las señales débiles. Como resultado, un sensor con un valor SNR alto es más capaz de capturar imágenes en situaciones de poca luz.

Reseñas

Las reseñas se traducen automáticamente a tu idioma. Haz clic aquí para ver la reseña original y verificar su autenticidad.

Visión y recursos de Automatización

VA Imaging se encuentra en la intersección entre la creatividad y las aplicaciones prácticas, ofreciendo productos de procesamiento de imágenes diseñados para su uso en máquinas innovadoras. Te proporcionamos productos de visión artificial que te permiten aplicar tu creatividad de maneras innovadoras. Con nuestras cámaras, lentes e iluminación, tu innovación toma forma en el mundo de la Visión y Automatización.