
Wiki Visione Artificiale
Questa lista descrive i termini più utilizzati in machine vision riguardo alle machine vision telecamere.
- Larghezza di banda : La larghezza di banda è la quantità di dati che può essere trasmessa simultaneamente su una certa connessione durante un certo periodo. Maggiore è la larghezza di banda di una connessione, più e più velocemente i dati possono essere ricevuti o inviati. La larghezza di banda è definita come la quantità di Megabit o Megabyte che può essere trasmessa al secondo. I valori tipici per Bandwidth sono 40 Megabyte/secondo (connessione USB2), 100 Megabyte/secondo (connessione GigE) e 400 Megabyte/secondo (connessione USB3).
- Schema Bayer Uno schema Bayer, chiamato anche filtro Bayer, è un raster quadrato ordinario di filtri colorati per rosso, verde e blu (RGB) utilizzato per i sensori di immagine digitali nelle vision di visione e nelle telecamere per consumatori. Lo schema prende il nome dall'inventore Bryce E. Bayer della Eastman Kodak. Ogni pixel colorato ha un valore RGB, dove i valori dei pixel circostanti vengono utilizzati per generare il valore RGB di un singolo pixel. La decodifica dello schema Bayer è chiamata de-Bayering.
- Profondità di bit : La profondità di bit è una misura utilizzata per indicare il numero di bit utilizzati per codificare il valore di colore/grigio di un pixel. Maggiore è la profondità di bit, più valori possono essere codificati. Un'immagine monocromatica in teoria richiede solo una profondità di bit di 1 bit. Tuttavia, può utilizzare solo il colore bianco e nero, senza valori di grigio. Una normale immagine monocromatica utilizza quindi normalmente 8 bit e può quindi avere 256 sfumature diverse. Un'immagine a colori richiede tra 8 e 24 bit, a seconda della qualità dell'immagine. Con una profondità di bit maggiore le informazioni sull'immagine vengono spesso salvate come RGB (rosso, verde e blu), perché in questo caso non è necessario salvare tutti i diversi colori in una tabella separata.
- CCD : Un dispositivo a accoppiamento di carica (CCD) è un chip che converte la radiazione elettromagnetica in un impulso elettrico. Il chip è composto da file di condensatori collegati da interruttori elettronici. Aprendo e chiudendo, questi interruttori alternano in modo tale da poter trasportare le cariche da un lato all'altro. Il chip CCD è posizionato dietro l'lens di una machine vision camera. Dove la luce in arrivo viene trasformata in un segnale elettrico. Successivamente, questo segnale viene convertito da un altro chip in un segnale digitale, composto solo da uno e zero. Questi dati possono essere compresi da un computer. I sensori CCD sono uno dei sensori più utilizzati nelle machine vision, tuttavia recentemente i sensori CCD sono stati sostituiti dai sensori CMOS.
- CMOS : Il semiconduttore a ossido metallico complementare (CMOS) è la tecnologia dei semiconduttori che utilizza transistor a effetto di campo a ossido metallico con conduzione sia n- che p-. In questo modo complementare di commutazione, i circuiti sono collegati o all'alimentazione di tensione positiva o negativa, mentre il transistor opposto non conduce tensione, per cui l'interruttore consuma pochissima corrente quando non c'è commutazione. A causa del suo basso consumo energetico, la tecnologia CMOS è spesso utilizzata per i sensori di immagine. In questo campo è il più grande concorrente del CCD. Molte delle operazioni necessarie per il CCD successivamente possono essere eseguite direttamente sul chip con i chip CMOS, come l'amplificazione, la riduzione del rumore e l'interpolazione. Un CCD riceve una carica alla fine di un'intera riga di pixel che viene poi convertita in tensione, mentre con CMOS questo avviene con ogni pixel separatamente. L'ultima generazione di telecamere per machine vision ha solo sensori CMOS e non più sensori CCD.
- Gamma Dinamica : La gamma dinamica è il rapporto tra la luce più brillante e la luce più debole che può essere percepita da una camera. Il valore è misurato in dB. Maggiore è il valore in dB, maggiore può essere la differenza tra la luce più brillante e la luce più debole. La gamma dinamica è importante quando si desidera catturare un'immagine di un oggetto con un grande contrasto. Si desidera che le parti scure e chiare siano entrambe catturate bene.
- Fattore di riempimento : Il fattore di riempimento di un sensore di immagine è il rapporto tra l'area sensibile alla luce e un pixel dell'area totale. Per i pixel senza microlenti il fattore di riempimento è il rapporto tra l'area del fotodiodo e la superficie totale dei pixel. Tuttavia, l'uso di microlenti aumenta il fattore di riempimento effettivo, spesso fino al 100%, facendo convergere la luce dell'area totale dei pixel al fotodiodo. In un'altra occasione è possibile ridurre il fattore di riempimento di un'immagine.
- Frame Grabber : Un frame grabber è collegato al bus PCI di un computer e fornisce la connessione tra la machine vision camera e il computer. Il framegrabber trasferisce i dati della machine vision camera alla CPU del computer. Interfacce più recenti come GigE, USB2 e USB3 possono essere utilizzate senza frame grabber. Queste interfacce possono utilizzare le porte standard di rete o USB del computer, mentre un'interfaccia come Camera Link e Coaxpress richiede ancora un frame grabber, rendendola molto più costosa.
- Frame Rate : Il numero di fotogrammi al secondo è una misura che indica la velocità con cui un dispositivo acquisisce i fotogrammi o la velocità con cui elabora questi fotogrammi. Il termine è spesso usato in film, grafica computerizzata, fotocamere e display. Il numero di fotogrammi al secondo può essere espresso in fotogrammi al secondo o in hertz (Hz).
- LUT, correzione gamma : La correzione gamma è un'operazione non lineare per correggere l'intensità della luce, l'illuminazione o la luminosità di un'immagine in movimento. La quantità di correzione gamma non modifica solo la luminosità, ma anche il rapporto RGB. La gamma è il contrasto di proporzionalità tra la luminosità del display e il segnale video.
- Global Shutter : Se il sensore delle immagini è global shutter, ogni pixel inizierà la sua esposizione e terminerà la sua esposizione allo stesso tempo. Questo richiede grandi quantità di memoria. Poiché l'immagine completa può essere salvata nella memoria dopo che il tempo di esposizione è terminato, i dati possono essere letti gradualmente. La produzione di global shutter è un processo complesso ed è più costosa rispetto alla realizzazione di sensori rolling shutter. Il principale vantaggio dei global shutter è che sono in grado di catturare oggetti/prodotti in movimento ad alta velocità senza distorsioni.Global shutter possono anche essere utilizzati in una gamma più ampia di Applications.
- Sensore di immagine : Un sensore di immagine è il termine generale per un componente elettronico che incorpora più componenti sensibili alla luce ed è in grado di catturare immagini elettronicamente. Converte un'immagine ottica in un segnale elettronico. I sensori di immagine più utilizzati sono il chip CCD e il chip CMOS. I sensori di immagine vengono applicati in una varietà di fotocamere, sia per i video che per la fotografia digitale. Il sensore converte la luce in entrata in un'immagine digitale.
- Formato del Sensore d'Immagine Prima di acquistare una vision camera, è importante sapere quali dimensioni di sensori d'immagine sono disponibili. Il sensore d'immagine di una camera ha una grande influenza sulla qualità delle tue immagini. Il formato del sensore d'immagine è indicato in pollici. È da notare che i pollici non possono essere convertiti in veri formati di sensore d'immagine. Questo deriva dal formato dei vecchi tubi televisivi. Il formato del sensore d'immagine è necessario per calcolare la lens. I formati di sensore più utilizzati nella machine vision sono: 1/4 di pollice, 1/3, 1/2 di pollice, 2/3 di pollice e 1 pollice. Per le C-mount, il formato del sensore varia da 1/4 di pollice fino a 1.1 pollice.
- Sensibilità del Sensore Immagine La quantità di luce esposta che una camera può convertire in elettroni determina la sensibilità del sensore immagine. Questo dipende dalla dimensione dei pixel e dalla tecnica utilizzata per realizzare il sensore immagine. Tradizionalmente, i sensori CCD erano più sensibili alla luce rispetto ai sensori CMOS. Tuttavia, negli ultimi anni questa situazione si è invertita. I sensori Sony IMX sono molto sensibili alla luce e pertanto possiamo raccomandare vivamente i sensori immagine Sony Pregius. Come l'IMX 265.
- Interfaccia Un interfaccia è un metodo attraverso il quale due sistemi possono comunicare tra loro. Un interfaccia converte le informazioni da un sistema in informazioni comprensibili e riconoscibili per un altro sistema. Il display è una modalità di interfaccia tra l'utente e il computer. Converte le informazioni digitali dal computer in forma testuale o grafica. Per le machine vision, l'interfaccia è il tipo di connessione tra la camera e il PC. Questo può essere GigaBit Ethernet, USB2 o USB3.
- Interlacciamento Interlacciamento o scansione interlacciata è la tecnica di catturare immagini in movimento su un display. Con una camera, per migliorare la qualità dell'immagine senza utilizzare più bandwidth. Con la scansione interlacciata, un'immagine è divisa in due campi. Un campo è composto da tutte le linee pari (linee di scansione), e l'altro da tutte le linee dispari. Alternativamente, entrambi i campi vengono aggiornati. Con Interlacciamento, la quantità di informazioni sull'immagine è dimezzata. Quindi, quando l'intera immagine viene disegnata in un colpo solo, si chiama scansione progressiva. Quando un'immagine è compilata in due momenti separati, si chiama interlacciamento. Compilare due fotogrammi interlacciati insieme può risultare in un "effetto cam". Questo è dovuto al fatto che, utilizzando un'immagine in movimento, esiste una differenza tra i due fotogrammi. Due fotogrammi vengono quindi compilati che differiscono di 1/50 di secondo. Questo porta a due istantanee diverse della stessa immagine. Un display deve compensare questo problema, questo si chiama de-interlacciamento.
- I/O I/o sta per input / output. I segnali ricevuti sono considerati come input, i segnali inviati sono output. Una vision camera ha più porte I/O per la comunicazione. Il segnale è alto o basso. Il segnale di output della vision camera può ad esempio essere utilizzato per attivare una sorgente luminosa, inviando un segnale di attivazione a un'altra vision camera per sincronizzare entrambe le camere o inviando un segnale a un PLC. Le porte di input sono ad esempio utilizzate per attivare la camera per catturare un'immagine, o per leggere lo stato di un pulsante collegato alla porta di input.
- Machine vision : Machine vision è la capacità di un computer di vedere, avere vision. Machine vision è paragonabile a computer vision, ma in un application industriale o pratica. Un computer richiede una machine vision camera per vedere; questa camera raccoglie dati catturando immagini di un certo prodotto, processo ecc. I dati che devono essere raccolti sono specificati in anticipo dal software utilizzato sul sistema di vision. I dati verranno inviati a un controller robotico o a un computer dopo la fase di raccolta dei dati, che eseguirà quindi una certa funzione.
- Motion Blur : è il fenomeno per cui gli oggetti in una foto o in un'immagine video appaiono sfocati, a causa del movimento di un oggetto e/o della camera. Motion blur si verifica spesso quando viene utilizzato un tempo di esposizione troppo lungo. L'immagine proiettata dell'oggetto sul sensore d'immagine non dovrebbe muoversi più di mezzo pixel durante il tempo di esposizione. Per calcolare il tempo massimo di esposizione abbiamo il seguente esempio. Il campo visivo è 1000x600mm e la Machine Vision Camera ha una risoluzione di 1000x600pixel. Questo significa 1pixel/1mm. Se un oggetto si muove a 1m/secondo, questo sarà 1000mm/secondo. Il motion blur sarà notato se l'oggetto si muove con più di mezzo pixel, cioè 0,5 * 1pixel/1mm = 0,5mm. Il tempo massimo di esposizione è (movimento massimo dell'oggetto = 0,5mm) / (velocità dell'oggetto = 1000mm) = 0,0005secondi = 0,5ms. In questo caso, il tempo massimo di esposizione per eliminare il motion blur è 0,5x1000=500us.
- Pixel Binning : Nei sensori di immagine, il processo di pixel binning si riferisce alla combinazione della carica elettrica dei pixel vicini per trasformarsi in un super-pixel, riducendo così il numero di pixel. Questo aumenta il rapporto segnale-rumore (SNR). Ci sono tre tipi di pixel binning, che sono orizzontale, verticale e full binning. Il pixel binning avviene spesso con 4 pixel (2x2) alla volta. Tuttavia, alcuni sensori di immagine sono anche in grado di combinare fino a 16 pixel (4x4) contemporaneamente. In questo modo, il sensore aumenta il rapporto segnale-rumore di 4, riducendo la densità di sample (quindi la risoluzione) di 4.
- I Pixel : sono punti di immagine da cui è costruita un'immagine. Il pixel è il più piccolo elemento possibile di un'immagine. Ogni pixel può avere un valore di grigio / colore casuale. Insieme, i pixel formano l'immagine desiderata. Il termine pixel deriva dalle parole picture ed element ed è spesso abbreviato in 'px'. Il numero di pixel di un'immagine è chiamato risoluzione. Maggiore è la risoluzione, più pixel ci sono per millimetro, rendendo l'immagine più nitida. La risoluzione è spesso espressa in pixel per pollice (ppi). Il sensore dell'immagine di una machine vision camera consiste anch'esso di pixel. Il numero di pixel dipende dal sensore dell'immagine. Un sensore con un'immagine di 6000x4000pixel contiene 24 milioni di pixel. Espressa come 24MP o 24 Mpx (megapixel). La risoluzione delle nostre fotocamere è sempre menzionata nella descrizione del prodotto.
- Scansione progressiva : è la tecnica per visualizzare, salvare o trasmettere immagini in movimento, dove un fotogramma non esiste di più campi, ma tutte le righe vengono aggiornate in ordine. Questo è l'opposto del metodo di scansione a interlacciamento che viene utilizzato con i vecchi sensori CCD. La scansione progressiva è utilizzata su tutti i sensori CCD che sono utilizzati nelle nostre telecamere di machine vision.
- Efficienza Quantica : si riferisce al rapporto tra fotoni incidenti e elettroni convertiti (IPCE) di un dispositivo fotosensibile come il sensore d'immagine di una machine vision camera.
- Regione di Interesse : Regione di Interesse(ROI) di una machine vision camera è l'area / parte del sensore d'immagine che viene letta. Ad esempio, una vision camera ha un sensore d'immagine con una risoluzione di 1280x1024 pixel. Sei interessato solo alla parte centrale dell'immagine. Puoi impostare un ROI di 640x480 pixel all'interno della camera. Solo quella parte del sensore d'immagine catturerà la luce e trasmetterà i dati. Impostare un ROI nella vision camera aumenterà i fotogrammi al secondo perché solo una parte del sensore d'immagine verrà letta, riducendo la quantità di dati da trasmettere per ogni immagine catturata e consentendo alla camera di fare più immagini al secondo.
- Risoluzione : Risoluzione nell'area dell'elaborazione delle immagini digitali è un termine utilizzato per descrivere il numero di pixel di un'immagine. Maggiore è il numero di pixel, maggiore è la risoluzione. La risoluzione è espressa nella quantità di pixel orizzontali e verticali o nella quantità totale di pixel di un sensore, espressa in Megapixel. Un'immagine può avere una risoluzione di 1280x1024pixel e questa viene espressa anche come risoluzione di 1,3 Megapixel.
- Rolling Shutter : Un rolling shutter sensor ha un metodo di acquisizione delle immagini diverso rispetto al global shutter. In particolare, espone linee diverse in momenti diversi mentre vengono lette. Ogni linea viene esposta in fila, ogni linea viene completamente letta prima che la successiva venga esposta. Con un rolling shutter sensor, è necessario che l'unità pixel utilizzi solo due transistor per trasportare un elettrone, riducendo la quantità di calore e rumore. Rispetto al sensore global shutter, la struttura del rolling shutter è semplificata e quindi più economica. Lo svantaggio del rolling shutter è tuttavia che non ogni linea è esposta simultaneamente, il che causerà distorsioni quando si cerca di catturare oggetti in movimento.
- Correzione dell'ombreggiatura o correzione del campo piatto è utilizzata per correggere il vignetting dell'lens o le particelle di polvere sul sensore dell'immagine. Il vignetting è l'oscuramento degli angoli dell'immagine rispetto al centro dell'immagine. Utilizzare la correzione dell'ombreggiatura / correzione del campo piatto richiede lo stesso setup ottico con cui sono state catturate le immagini originali durante la calibrazione della correzione dell'ombreggiatura. Quindi, con lo stesso lens, diaframma, filtro e stessa posizione. Inoltre, la messa a fuoco utilizzata quando si è realizzata l'immagine di calibrazione deve essere la stessa.
- Shutter / Tempo di esposizione : Il shutter o tempo di esposizione è la quantità di tempo in cui la luce colpisce il sensore della camera. L'illuminazione e l'illuminazione sono elementi molto importanti con . Il tuo tempo di esposizione determina quanta luce colpisce il tuo sensore e quindi il numero di dettagli visibili in quell'immagine. La tua immagine può perdere molti dettagli con troppa o troppo poca luce, perché questi dettagli svaniscono nelle parti dell'immagine troppo scure o troppo luminose. Pertanto, il tempo di esposizione è un elemento importante per l'illuminazione delle tue immagini ed è uno dei tre elementi più importanti del triangolo dell'esposizione. Il tempo di esposizione non solo regola l'esposizione della tua immagine, ma anche quanto appare nitido o sfocato il movimento nella tua immagine. Con un breve tempo di esposizione puoi catturare movimenti rapidi e congelarli. Con un lungo tempo di esposizione puoi far sembrare i movimenti fluidi.Il tempo di esposizione può essere regolato manualmente su la tua machine vision camera. I tempi di esposizione possono variare da 5us fino a un secondo. Davvero a seconda del tipo di application, avrai bisogno di un lungo o breve tempo di esposizione.
- Rapporto segnale rumore : Il rapporto segnale rumore (SNR) è una misura utilizzata per misurare la qualità di un segnale in cui è presente un rumore disturbante presente. Il rapporto segnale/rumore misura la potenza del segnale desiderato rispetto alla potenza del rumore presente. Più alto è questo valore, maggiore è la differenza tra il segnale e il rumore, consentendo di recuperare meglio i segnali deboli. Di conseguenza, un sensore con un valore SNR elevato è in grado di catturare meglio immagini in situazioni di scarsa illuminazione.