
Wiki Machine Vision
Esta lista descreve os termos mais utilizados em machine vision relativamente a câmaras de machine vision.
- Bandwidth Bandwidth é a quantidade de dados que pode ser transmitida simultaneamente através de uma determinada conexão durante um certo período. Quanto maior a bandwidth de uma conexão, mais e mais rápido os dados podem ser recebidos ou enviados. Bandwidth é definida como a quantidade de Megabit ou Megabyte que pode ser transmitida por segundo. Valores típicos para Bandwidth são 40 Megabyte/segundo (conexão USB2), 100 Megabyte/segundo (conexão GigE) e 400 Megabyte/segundo (conexão USB3).
- Padrão Bayer Um padrão Bayer, também chamado de filtro Bayer, é uma matriz quadrada comum de filtros de cor para vermelho, verde e azul (RGB) que é utilizado em sensores de imagem digital em câmaras de visão e câmaras de consumo. O padrão é nomeado após o inventor Bryce E. Bayer da Eastman Kodak. Cada pixel colorido tem um valor RGB, onde os valores dos pixels circundantes são usados para gerar o valor RGB de um único pixel. A decodificação do padrão Bayer é chamada de de-Bayering.
- Profundidade de bits A profundidade de bits é uma medida usada para indicar o número de bits usados para codificar o valor de cor/cinza de um pixel. Quanto maior for a profundidade de bits , mais valores poderão ser codificados. Em teoria, uma imagem monocromática só precisa de uma profundidade de bits de 1 bit. No entanto, só pode usar a cor preto e branco, sem valores de cinza. Uma imagem monocromática normal, portanto, normalmente usa 8 bits e pode ter 256 tonalidades diferentes. Uma imagem colorida precisa de 8 a 24 bits, dependendo da qualidade da imagem. Com uma maior profundidade de bits , as informações da imagem geralmente são salvas como RGB (vermelho, verde e azul), porque nem todas as cores diferentes precisam ser salvas em uma tabela separada.
- CCD Um dispositivo de carga acoplada (CCD) é um chip que converte radiação eletromagnética em um pulso elétrico. O chip consiste em filas de capacitores conectados por interruptores eletrônicos. Ao abrir e fechar, esses interruptores alternam para que possam transportar cargas de um lado para o outro. O chip CCD é colocado atrás da lente de uma machine vision. Onde a luz que entra é transformada em um sinal elétrico. Depois, esse sinal é convertido por um chip diferente em um sinal digital, que existe apenas em uns e zeros. Esses dados podem ser compreendidos por um computador. Os sensores CCD são um dos sensores mais utilizados em câmaras de machine vision, no entanto, recentemente os sensores CCD estão sendo substituídos por sensores CMOS.
- CMOS O semicondutor de óxido metálico complementar (CMOS) é a tecnologia de semicondutores que utiliza transistores de efeito de campo de óxido metálico com condução tanto n- como p-. Desta forma complementar de comutação, os circuitos estão ligados à fonte de tensão positiva e negativa, enquanto o transistor oposto não conduz tensão, pelo que o interruptor consome quase nenhuma corrente quando não há comutação. Devido ao seu baixo consumo de energia, a tecnologia CMOS é frequentemente utilizada em sensores de imagem. Neste campo, é o maior concorrente do CCD. Muitas das operações necessárias para o CCD posteriormente podem ser realizadas no próprio chip com chips CMOS, como amplificação, redução de ruído e interpolação. Um CCD recebe uma carga no final de toda uma linha de pixels, que é então convertida em tensão; com CMOS, isso acontece com cada pixel separadamente. A última geração de câmaras de machine vision tem apenas sensores CMOS e já não possui sensores CCD.
- Gama Dinâmica A gama dinâmica é a razão entre a luz mais brilhante e a luz mais fraca que pode ser percebida por uma câmera. O valor é medido em dB. Quanto maior o valor em dB, maior pode ser a diferença entre a luz mais brilhante e a luz mais fraca. A gama dinâmica é importante quando se deseja capturar uma imagem de um objeto com um grande contraste. Quer que as partes escuras e brilhantes sejam bem capturadas.
- Fator de preenchimento O fator de preenchimento de um sensor de imagem é a proporção entre a área sensível à luz de um pixel e a área total. Para pixels sem microlentes, o fator de preenchimentoé a proporção entre a área do fotodiodo e a superfície total do pixel. No entanto, o uso de microlentes aumenta o fator de preenchimento efetivo, muitas vezes para 100%, convergindo a luz da área total do pixel para o fotodiodo. Em outra ocasião, o fator de preenchimentode uma imagem pode ser reduzido.
- Capturador de Imagens Um capturador de imagens é ligado ao barramento PCI de um computador e fornece a conexão entre a machine vision e o computador. O capturador de imagens transfere os dados da machine vision para a CPU do computador. Interfaces mais recentes como GigE, USB2 e USB3 podem ser usadas sem capturador de imagens. Estas interfaces podem usar as portas de rede padrão ou USB do computador, enquanto uma interface como Câmera Link e Coaxpress ainda requer um capturador de imagens, tornando-a muito mais cara.
- Taxa de quadros O número de quadros por segundo é uma medida que indica a rapidez com que um dispositivo captura quadros ou com que rapidez ele processa esses quadros. O termo é frequentemente usado em filmes, computação gráfica, câmeras e monitores. O número de quadros por segundo pode ser expresso em quadrospor segundo ou em hertz (Hz).
- LUT, Correção Gama A correção gama é uma operação não linear para corrigir a intensidade de luz, iluminação ou brilho de uma imagem em movimento. A quantidade de correção de gama não altera apenas o brilho, mas também a proporção RGB. Gama é o contraste de proporcionalidade entre o brilho da tela e o sinal de vídeo.
- Global Shutter Se o sensor de imagem for global shutter, cada pixel começará e terminará a sua exposição ao mesmo tempo. Isso requer grandes quantidades de memória. Uma vez que a imagem completa pode ser salva na memória após o término do tempo de exposição, os dados podem ser lidos gradualmente. A fabricação de global shutter sensors é um processo complexo e é mais caro do que fabricar sensores de rolling shutter. O principal benefício dos global shutter sensors é que eles conseguem capturar objetos/produtos em movimento rápido sem distorção.Global shutter sensors também podem ser usados em uma gama mais ampla de aplicações.
- Sensor de imagem Um sensor de imagem é o termo geral para um componente eletrônico que incorpora vários componentes sensíveis à luz e é capaz de capturar imagens eletronicamente. Ele converte uma imagem óptica em um sinal eletrônico. Os sensores de imagem mais utilizados são o chip CCD e o chip CMOS. Sensores de imagem são aplicados em diversas câmeras, tanto para vídeo quanto para fotografia digital. O sensor converte a luz recebida em uma imagem digital.
- Formato do Sensor de ImagemAntes de comprar uma visão de câmera, é importante saber quais tamanhos de sensores de imagem estão disponíveis. O sensor de imagem de uma câmera tem grande influência sobre a qualidade das suas imagens. O formato do sensor de imagem é indicado em polegadas. Deve-se notar que as polegadas não podem ser convertidas em verdadeiros formatos de sensor de imagem. Isso decorre do formato dos antigos tubos de televisão. O formato do sensor de imagem é necessário para calcular a lente. Os formatos de sensor mais utilizados em machine vision são: 1/4 polegada, 1/3, 1/2 polegada, 2/3 polegada e 1 polegada. Para câmaras de C-mount, o formato do sensor varia de 1/4 polegada até 1.1 polegada.
- Sensibilidade do Sensor de Imagem A quantidade de luz exposta que uma câmera pode converter em elétrons determina a sensibilidade do sensor de imagem. Isso depende do tamanho do pixel e da técnica utilizada para fabricar o sensor de imagem. Tradicionalmente, os sensores CCD eram mais sensíveis à luz do que os sensores CMOS. No entanto, nos últimos anos, isso mudou. Os sensores Sony IMX são muito sensíveis à luz e, por isso, podemos recomendar muito os sensores de imagem Sony Pregius. Como o IMX 265.
- Interface Uma interface é um método pelo qual dois sistemas podem comunicar entre si. Uma interface converte informações de um sistema em informações compreensíveis e reconhecíveis para outro sistema. O display é uma forma de interface entre o utilizador e o computador. Ele converte informações digitais do computador em forma textual ou gráfica. Para câmaras de machine vision, a interface é o tipo de conexão entre a câmera e o PC. Isso pode ser GigaBit Ethernet, USB2 ou USB3.
- Entrelaçamento Entrelaçamento ou varredura entrelaçada é a técnica de capturar imagens em movimento em um display. Com uma câmera, onde a qualidade da imagem é melhorada sem usar mais bandwidth. Com a varredura entrelaçada, uma imagem é dividida em dois campos. Um campo consiste em todas as linhas pares (linhas de varredura), e o outro em todas as linhas ímpares. Alternadamente, ambos os campos são atualizados. Com Entrelaçamento, a quantidade de informação da imagem é reduzida pela metade. Assim, quando toda a imagem é desenhada de uma só vez, chama-se varredura progressiva. Quando uma imagem é compilada em dois momentos separados, chama-se entrelaçamento. Compilar dois quadros entrelaçados juntos pode resultar em um “efeito de câmara”. Isso se deve ao fato de que, ao usar uma imagem em movimento, existe diferença entre os dois quadros. Dois quadros são então compilados que diferem 1/50 de segundo. Isso resulta em duas instantâneas diferentes da mesma imagem. Um display precisa compensar essa questão, isso é chamado de desentrelaçamento.
- I/O I/o significa entrada / saída. Os sinais recebidos são considerados como entrada, os sinais enviados são saída. Uma visão câmera tem múltiplas portas I/O para comunicação. O sinal é alto ou baixo. O sinal de saída da visão câmera pode, por exemplo, ser usado para acionar uma fonte de luz, enviando um sinal de disparo para outra visão câmera para sincronizar ambas as câmaras ou enviando um sinal para um PLC. As portas de entrada são, por exemplo, usadas para acionar a câmera para capturar uma imagem, ou para ler o estado de um botão que está conectado à porta de entrada.
- Machine vision Machine vision é a capacidade de um computador ver, ter visão. Machine vision é comparável à computer vision, mas em uma aplicação industrial ou prática. Um computador requer uma machine vision câmera para ver, esta câmera então coleta dados ao capturar imagens de um determinado produto, processo etc. Os dados que devem ser coletados são especificados previamente pelo software utilizado no sistema de visão. Os dados serão enviados a um controlador de robô ou computador após a fase de coleta de dados, que então executará uma determinada função.
- Desfoque de Movimento é o fenômeno em que objetos em uma foto ou imagem de vídeo aparecem borrados, como resultado do movimento de um objeto e/ou da câmera. Desfoque de Movimento ocorre frequentemente quando um tempo de obturação utilizado é demasiado longo. A imagem projetada do objeto no sensor de imagem não deve mover-se mais do que meio pixel durante o tempo de exposição. Para calcular o tempo máximo de exposição, temos o seguinte exemplo. O campo de visão é 1000x600mm e a Câmera de Visão Artificial tem uma resolução de 1000x600pixels. Isso significa 1pixel/1mm. Se um objeto se move a 1m/segundo, isso será 1000mm/segundo. O desfoque de movimento será notado se o objeto se mover mais do que meio pixel, ou seja, 0,5 * 1pixel/1mm = 0,5mm. O tempo máximo de exposição é (movimento máximo do objeto = 0,5mm) / (velocidade do objeto = 1000mm) = 0,0005segundos = 0,5ms. Neste caso, o tempo máximo de exposição para eliminar o desfoque de movimento é 0,5x1000=500us.
- Pixel Binning Nos sensores de imagem, o processo de pixel binning refere-se à combinação da carga elétrica de pixels vizinhos para formar um super-pixel, reduzindo assim a quantidade de pixels. Isso aumenta a relação sinal-ruído (SNR). Existem três tipos de pixel binning, que são horizontal, vertical e total. O pixel binning ocorre frequentemente com 4 pixels (2x2) de cada vez. No entanto, alguns sensores de imagem também conseguem combinar até 16 (4x4) pixels ao mesmo tempo. Assim, o sensor aumenta a relação sinal-ruído em 4, reduzindo a densidade de amostra (portanto, a resolução) em 4.
- Pixels Pixels são pontos de imagem a partir dos quais uma imagem é construída. O pixel é o menor elemento possível de uma imagem. Cada pixel pode ter um valor de cinza / cor aleatório. Juntos, os pixels formam a imagem desejada. O termo pixels deriva das palavras imagem e elemento e é frequentemente abreviado como ‘px’. O número de pixels de uma imagem é chamado de resolução. Quanto maior a resolução, mais pixels por milímetro, tornando sua imagem mais nítida. A resolução é frequentemente expressa em pixels por polegada (ppi). O sensor de imagem de uma machine vision também consiste em pixels. O número de pixels depende do sensor de imagem. Um sensor com uma imagem de 6000x4000pixelscontém 24 milhões de pixels. Expresso como 24MP ou 24 Mpx (megapixels). A resolução das nossas câmaras é sempre mencionada na descrição do produto.
- Digitalização Progressiva é a técnica para exibir, salvar ou transmitir imagens em movimento, onde um quadro não existe de múltiplos campos, mas todas as linhas são atualizadas em ordem. Isto é o oposto do método de digitalização entrelaçada que é utilizado com sensores CCD mais antigos. Digitalização progressiva é utilizada em todos os sensores CCD que são usados nas nossas câmaras de machine vision.
- Eficiência Quântica refere-se à razão entre os fótons incidentes e os elétrons convertidos (IPCE) de um dispositivo fotosensível, como o sensor de imagem de uma machine vision.
- Região de Interesse Região de Interesse (ROI) de uma machine vision câmera é a área / parte do sensor de imagem que é lida. Por exemplo, uma visão câmera tem um sensor de imagem com uma resolução de 1280x1024 pixels. Você está apenas interessado na parte central da imagem. Você pode definir uma ROI de 640x480 pixels dentro da câmera. Assim, apenas essa parte do sensor de imagem capturará luz e transmitirá os dados. Definir uma ROI na visão câmera aumentará os quadros por segundo porque apenas uma parte do sensor de imagem será lida, reduzindo a quantidade de dados a transmitir por imagem capturada e permitindo que a câmera faça mais imagens por segundo.
- Resolução Resolução na área de processamento digital de imagens é um termo usado para descrever o número de pixels de uma imagem. Quanto maior o número de pixels, maior será a resolução. A resolução é expressa na quantidade de pixels horizontais e verticais ou na quantidade total de pixels de um sensor, expressa em Megapixels. Uma imagem pode ter uma resolução de 1280x1024pixels e isso também é expresso como uma resolução de 1,3 Megapixels.
- Rolling Shutter Um rolling shutter tem um método diferente de captura de imagem em comparação com o global shutter. Nomeadamente, expõe diferentes linhas em momentos diferentes enquanto estão a ser lidas. Cada linha é exposta numa fila, cada linha é totalmente lida antes que a próxima linha seja ativada. Com um rolling shutter , requer que a unidade de pixel tenha apenas dois transistores para transportar um elétron, reduzindo a quantidade de calor e ruído. Relativamente ao sensor de global shutter, a estrutura do rolling shutter é simplificada e, portanto, mais barata. A desvantagem do rolling shutter é que nem todas as linhas são expostas simultaneamente, o que causará distorção ao tentar capturar objetos em movimento.
- Correção de Sombreamento Correção de sombreamento ou correção de campo plano é utilizada para corrigir o vinhetamento da lente ou partículas de poeira no sensor de imagem. O vinhetamento é o escurecimento dos cantos da imagem em comparação com o centro da imagem. Usar a correção de sombreamento / correção de campo plano requer o mesmo conjunto óptico pelo qual as imagens originais foram capturadas durante a calibração da correção de sombreamento. Assim, com a mesma lente, diafragma, filtro e mesma posição. Além disso, o foco que foi utilizado ao fazer a imagem de calibração tem que ser o mesmo.
- Shutter Tempo de Exposição O shutter ou tempo de exposição é a quantidade de tempo que a luz incide no sensor da câmera. A iluminação e a claridade são elementos muito importantes com . O seu tempo de exposição determina quanta luz incide no seu sensor e, assim, o número de detalhes que são visíveis nessa imagem. A sua imagem pode perder muitos detalhes com luz demais ou de menos, porque esses detalhes desaparecem em partes da imagem que estão demasiado escuras ou demasiado brilhantes. Portanto, o tempo de exposição é um elemento importante na iluminação das suas imagens e é, assim, um dos três elementos mais importantes do triângulo da exposição. O tempo de exposição não só regula a exposição da sua imagem, mas também como o movimento na sua imagem parece focado ou desfocado. Com um tempo de exposição curto, você pode capturar movimentos rápidos e congelá-los. Com um longo tempo de exposição , você pode fazer com que os movimentos pareçam fluidos. O tempo de exposição pode ser manualmente ajustado na sua machine vision câmera. Os tempos de exposição podem variar de 5us até um segundo. Realmente dependendo do tipo de aplicação, você precisará de um longo ou curto tempo de exposição.
- Relação sinal-ruído A relação sinal-ruído(SNR) é uma medida usada para medir a qualidade de um sinal no qual um ruído perturbador é presente. A relação sinal-ruído mede a potência do sinal desejado em relação à potência do ruído presente. Quanto maior esse valor, maior será a diferença entre o sinal e o ruído, possibilitando melhor recuperação de sinais fracos. Como resultado, um sensor com um valor SNR alto é mais capaz de capturar imagens em situações de pouca luz.