Wiki Machine Vision

Diese Liste beschreibt die am häufigsten verwendeten Begriffe in Machine Vision bezüglich Machine Vision-Kameras.

  • Bandbreite: Die Bandbreite ist die Menge an Daten, die über eine bestimmte Verbindung während eines bestimmten Zeitraums gleichzeitig übertragen werden kann. Je höher die Bandbreite einer Verbindung ist, desto mehr und schneller können Daten empfangen oder gesendet werden. Bandbreite wird als die Menge an Megabit oder Megabyte definiert, die pro Sekunde übertragen werden kann. Typische Werte für Bandbreite sind 40 Megabyte/Sekunde (USB2-Verbindung), 100 Megabyte/Sekunde (GigE-Verbindung) und 400 Megabyte/Sekunde (USB3-Verbindung).

  • Bayer-Muster: Ein Bayer-Muster, auch Bayer-Filter genannt, ist ein gewöhnliches quadratisches Raster von Farbfiltern für Rot, Grün und Blau (RGB), das in digitalen Bildsensoren in Vision-Kameras und Konsumkameras verwendet wird. Das Muster ist nach dem Erfinder Bryce E. Bayer von Eastman Kodak benannt. Jedes Farbpixel hat einen RGB-Wert, wobei die Werte der umgebenden Pixel verwendet werden, um den RGB-Wert eines einzelnen Pixels zu erzeugen. Die Dekodierung des Bayer-Musters wird als De-Bayering bezeichnet.

  • Bittiefe: Die Bittiefe ist ein Maß, das die Anzahl der Bits angibt, die zum Codieren des Farb-/Grauwerts eines Pixels verwendet werden. Je höher die Bittiefe ist, desto mehr Werte können kodiert werden. Ein monochromes Bild benötigt theoretisch nur eine Bittiefe von 1 Bit. Allerdings kann es nur die Farben Schwarz und Weiß verwenden, keine Grauwerte. Ein normales monochromes Bild nutzt daher normalerweise 8 Bit und kann dabei 256 verschiedene Farbtöne aufweisen. Ein Farbbild benötigt je nach Bildqualität zwischen 8 und 24 Bit. Bei einer höheren Bittiefe werden die Bildinformationen häufig als RGB (Rot, Grün und Blau) gespeichert, da dann nicht alle verschiedenen Farben in einer separaten Tabelle gespeichert werden müssen.
  • CCD: Ein charge-coupled device (CCD) ist ein Chip, der elektromagnetische Strahlung in einen elektrischen Impuls umwandelt. Der Chip besteht aus Reihen von Kondensatoren, die durch elektronische Schalter verbunden sind. Durch das Öffnen und Schließen wechseln sich diese Schalter ab, sodass sie Ladungen von einer Seite zur anderen transportieren können. Der Chip wird hinter das Objektiv einer Machine VisionKamera platziert. Dabei wird das einfallende Licht in ein elektrisches Signal umgewandelt. Danach wird dieses Signal von einem anderen Chip in ein digitales Signal umgewandelt, das nur aus Einsen und Nullen besteht. CCD Sensoren gehören zu den am häufigsten verwendeten Sensoren in Machine VisionKameras, jedoch werden CCD-Sensoren in letzter Zeit zunehmend durch CMOS-Sensoren ersetzt.

  • CMOS: Komplementärer Metalloxid-Halbleiter (CMOS) ist die Halbleitertechnologie, die Metalloxid-Feldeffekttransistoren mit sowohl n- als auch p-Leitfähigkeit verwendet. Durch diese komplementäre Art des Schaltens sind Schaltungen entweder mit der positiven oder negativen Spannungsversorgung verbunden, während der gegenüberliegende Transistor keine Spannung leitet, wodurch der Schalter kaum Strom verbraucht, wenn kein Schalten erfolgt. Aufgrund seines geringen Stromverbrauchs wird die CMOS-Technologie häufig für Bildsensoren verwendet. In diesem Bereich ist sie der größte Konkurrent von CCD. Viele der Operationen, die nachträglich für CCD erforderlich sind, können direkt auf dem Chip selbst mit CMOS-Chips durchgeführt werden, wie z.B. Verstärkung, Rauschunterdrückung und Interpolation. Ein CCD erhält eine Ladung am Ende einer gesamten Pixelreihe, die dann in Spannung umgewandelt wird; bei CMOS geschieht dies jedoch mit jedem Pixel separat. Die neueste Generation von Machine Vision-Kameras hat nur noch CMOS-Sensoren und keine CCD-Sensoren mehr.
  • Dynamic Range: Der Dynamic Range ist das Verhältnis des hellsten Lichts zum schwächsten Licht, das von einer Kamera wahrgenommen werden kann. Der Wert wird in dB gemessen. Je höher der Wert in dB, desto größer kann der Unterschied zwischen dem hellsten Licht und dem schwächsten Licht sein. Der Dynamic Range ist wichtig, wenn Sie ein Bild eines Objekts mit großem Kontrast aufnehmen möchten. Sie möchten, dass sowohl die dunklen als auch die hellen Bereiche gut erfasst werden.
  • Füllfaktor: Der Füllfaktor eines Bildsensors ist das Verhältnis der lichtempfindlichen Fläche eines Pixels zur Gesamtfläche. Bei Pixeln ohne Mikroobjektiv ist der Füllfaktor das Verhältnis der Fotodiodenfläche zur gesamten Pixelfläche. Allerdings erhöht die Verwendung von Mikroobjektiven den effektiven Füllfaktor, oft auf 100 %, indem das Licht der gesamten Pixelfläche zur Fotodiode gebündelt wird. In einem anderen Fall kann der Füllfaktor eines Bildes reduziert werden.

  • Framegrabber: Ein Framegrabber wird in den PCI-Bus eines Computers eingesteckt und stellt die Verbindung zwischen der Machine Vision Kamera und dem Computer her. Der Framegrabber überträgt die Daten der Machine Vision Kamera an die CPU des Computers. Neuere Schnittstellen wie GigE, USB2 und USB3 können ohne Framegrabber verwendet werden. Diese Schnittstellen können die Standardnetzwerk- oder USB-Ports des Computers nutzen, während eine Schnittstelle wie Kamera Link und Coaxpress weiterhin einen Frame Grabber benötigt, was sie deutlich teurer macht.

  • Frame Rate: Die Frame Rate bezeichnet die Anzahl der Frames pro Sekunde. Es ist ein Maß, das angibt, wie schnell ein Gerät Frames aufnimmt oder wie schnell es diese Frames verarbeitet. Der Begriff wird häufig in Filmen, Computergrafiken, Kameras und Displays verwendet. Die Anzahl der Frames pro Sekunde kann in Frames pro Sekunde oder in Hertz (Hz) ausgedrückt werden.
  • Gammakorrektur: Die Gammakorrektur ist eine nichtlineare Operation zur Korrektur der Lichtintensität, Beleuchtung oder Helligkeit eines bewegten Bildes. Der Grad der Gammakorrektur verändert nicht nur die Helligkeit, sondern auch das RGB-Verhältnis. Gamma ist der Kontrast der Proportionalität zwischen der Helligkeit des Displays und dem Videosignal.
  • Global Shutter: Wenn der Bildsensor ein Global Shutter ist, beginnt jeder Pixel seine Belichtung und endet seine Belichtung zur gleichen Zeit. Dies erfordert große Mengen an Speicher. Da das vollständige Bild im Speicher gespeichert werden kann, nachdem die Belichtungszeit endet, können die Daten schrittweise gelesen werden. Die Herstellung von Global Shutter -Sensoren ist ein komplexer Prozess und teurer als die Herstellung von rolling Shutter-Sensoren. Der Hauptvorteil von Global Shutter -Sensoren besteht darin, dass sie in der Lage sind, sich schnell bewegende Objekte/Produkte ohne Verzerrung aufzunehmen. Global Shutter -Sensoren können auch in einem breiteren Spektrum von Applikationen eingesetzt werden.
  • Bildsensor: Ein Bildsensor ist die allgemeine Bezeichnung für eine elektronische Komponente, die mehrere lichtempfindliche Komponenten enthält und in der Lage ist, Bilder elektronisch zu erfassen. Es wandelt ein optisches Bild in ein elektronisches Signal um. Die am häufigsten verwendeten Bildsensoren sind der CCD-Chip und der CMOS-Chip. Bildsensoren werden in einer Vielzahl von Kameras eingesetzt, sowohl für die Video- als auch für die Digitalfotografie. Der Sensor wandelt einfallendes Licht in ein digitales Bild um.

  • Bildsensorformat: Bevor Sie eine vision Kamera kaufen, ist es wichtig zu wissen, welche Größen von Bildsensoren verfügbar sind. Der Bildsensor einer Kamera hat großen Einfluss auf die Qualität Ihrer Bilder. Das Bildsensorformat wird in Zoll angegeben. Es ist zu beachten, dass Zoll nicht in echte Bildsensorformate umgerechnet werden können. Dies stammt vom Format alter Fernsehbildröhren. Das Bildsensorformat wird benötigt, um das Objektiv zu berechnen. Die am häufigsten verwendeten Sensorformate in der Machine Vision sind: 1/4 Zoll, 1/3, 1/2 Zoll, 2/3 Zoll und 1 Zoll. Bei C-mount-Kameras variiert das Sensorformat von 1/4 Zoll bis zu 1,1 Zoll.

  • Bildsensorempfindlichkeit: Die Menge an Licht, die ein Kamera in Elektronen umwandeln kann, bestimmt die Bildsensorempfindlichkeit. Dies hängt von der Pixelgröße und der Technik ab, die zur Herstellung des Bildsensors verwendet wurde. Traditionell waren CCD-Sensoren lichtempfindlicher als CMOS-Sensoren. In den letzten Jahren hat sich dies jedoch gewendet. Die Sony IMX-Sensoren sind sehr lichtempfindlich, und daher können wir die Sony Pregius-Bildsensoren sehr empfehlen. Zum Beispiel den IMX 265.

  • Benutzeroberfläche: Eine Benutzeroberfläche ist eine Methode, durch die zwei Systeme miteinander kommunizieren können. Eine Benutzeroberfläche wandelt Informationen von einem System in verständliche und erkennbare Informationen für ein anderes System um. Die Anzeige ist eine Form der Benutzeroberfläche zwischen Benutzer und Computer. Sie wandelt digitale Informationen vom Computer in textuelle oder grafische Form um. Für Machine Vision-Kameras ist die Benutzeroberfläche die Art der Verbindung zwischen der Kamera und dem PC. Dies kann GigaBit Ethernet, USB2 oder USB3 sein. 

  • Interlacing: Interlacing oder interlaced scanning ist die Technik zur Erfassung von bewegten Bildern auf einem Display. Mit einer Kamera, wobei die Qualität des Bildes verbessert wird, ohne mehr Bandbreite zu verwenden. Bei interlaced scanning wird ein Bild in zwei Felder unterteilt. Das eine Feld besteht aus allen geraden Zeilen (Scanlines), und das andere aus allen ungeraden Zeilen. Abwechselnd werden beide Felder aktualisiert. Durch Interlacing wird die Menge an Bildinformationen halbiert. Wenn das gesamte Bild auf einmal gezeichnet wird, nennt man das progressives Scannen. Wenn ein Bild in zwei separaten Zeitpunkten zusammengestellt wird, nennt man das interlacing. Das Zusammenstellen von zwei interlaced Frames kann zu einem "Cam-Effekt" führen. Dies liegt daran, dass bei der Verwendung eines bewegten Bildes Unterschiede zwischen den beiden Frames bestehen. Zwei Frames werden dann zusammengestellt, die sich um 1/50 Sekunde unterscheiden. Dies führt zu zwei unterschiedlichen Schnappschüssen desselben Bildes. Ein Display muss dieses Problem ausgleichen, dies wird als De-Interlacing bezeichnet.

  • I/O: I/O steht für Input / Output. Signale, die empfangen werden, gelten als Eingabe, Signale, die gesendet werden, sind Ausgabe. Eine vision Kamera hat mehrere I/O-Ports zur Kommunikation. Das Signal ist hoch oder niedrig. Das Ausgangssignal der vision Kamera kann beispielsweise verwendet werden, um eine Lichtquelle auszulösen, ein Auslösesignal an eine andere vision Kamera zu senden, um beide Kameras zu synchronisieren, oder ein Signal an eine SPS zu senden. Die Eingangsports werden beispielsweise verwendet, um die Kamera auszulösen, um ein Bild aufzunehmen, oder um den Status eines Knopfes zu lesen, der mit dem Eingangsport verbunden ist.
  • Machine Vision: Machine Vision ist die Fähigkeit eines Computers zu sehen, eine vision zu haben. Machine Vision ist vergleichbar mit Computer Vision, jedoch in einer industriellen oder praktischen Applikation. Ein Computer benötigt eine Machine Vision Kamera, um zu sehen; diese Kamera sammelt dann Daten, indem sie Bilder eines bestimmten Produkts, Prozesses usw. aufnimmt. Die Daten, die gesammelt werden müssen, sind im Voraus durch die Software festgelegt, die im vision verwendet wird. Die Daten werden nach der Datensammelphase an einen Robotercontroller oder Computer gesendet, der dann eine bestimmte Funktion ausführt.

  • Bewegungsunschärfe: Bewegungsunschärfe ist das Phänomen, dass Objekte auf einem Foto oder Video unscharf erscheinen, als Ergebnis der Bewegung eines Objekts und/oder der Kamera. Bewegungsunschärfe tritt häufig auf, wenn eine Belichtungszeit verwendet wird, die zu lang ist. Das projizierte Bild des Objekts auf dem Bildsensor sollte während der Belichtungszeit nicht mehr als ein halbes Pixel bewegen. Um die maximale Belichtungszeit zu berechnen, haben wir folgendes Beispiel. Der Sichtbereich beträgt 1000x600mm und die Machine Vision Kamera hat eine Auflösung von 1000x600Pixeln. Das bedeutet 1Pixel/1mm. Wenn sich ein Objekt mit 1m/Sekunde bewegt, entspricht dies 1000mm/Sekunde. Bewegungsunschärfe wird wahrgenommen, wenn sich das Objekt um mehr als ein halbes Pixel bewegt, das heißt 0,5 * 1Pixel/1mm = 0,5mm. Die maximale Belichtungszeit beträgt (maximale Objektbewegung = 0,5mm) / (Objektgeschwindigkeit = 1000mm) = 0,0005Sekunden = 0,5ms. In diesem Fall beträgt die maximale Belichtungszeit zur Beseitigung der Bewegungsunschärfe 0,5x1000=500µs.
  • Pixel-Binning: Bei Bildsensoren bezieht sich der Prozess des Pixel-Binnings darauf, dass benachbarte Pixel ihre elektrische Ladung kombinieren, um zu einem Super-Pixel zu werden, und dadurch die Anzahl der Pixel reduziert wird. Dies erhöht das Signal-Rausch-Verhältnis (SNR). Es gibt drei Arten von Pixel-Binning, nämlich horizontales, vertikales und vollständiges Binning. Pixel-Binning erfolgt oft mit 4 Pixeln (2x2) gleichzeitig. Einige Bildsensoren sind jedoch auch in der Lage, bis zu 16 (4x4) Pixel gleichzeitig zu kombinieren. Dadurch erhöht der Sensor das Signal-Rausch-Verhältnis um den Faktor 4 und reduziert die probe-Dichte (daher die Auflösung) um den Faktor 4.

  • Pixel: Pixel sind Bildpunkte, aus denen ein Bild aufgebaut ist. Der Pixel ist das kleinste mögliche Element eines Bildes. Jeder Pixel kann einen zufälligen Grauwert/Farbwert haben. Gemeinsam bilden die Pixel das gewünschte Bild. Der Begriff Pixel leitet sich von den Wörtern Bild und Element ab und wird oft mit „px“ abgekürzt. Die Anzahl der Pixel eines Bildes wird als Auflösung bezeichnet. Je höher die Auflösung, desto mehr Pixel pro Millimeter, wodurch Ihr Bild schärfer wird. Die Auflösung wird oft in Pixeln pro Zoll (ppi) angegeben. Der Bildsensor einer Machine Vision Kamera besteht ebenfalls aus Pixeln. Die Anzahl der Pixel hängt vom Bildsensor ab. Ein Sensor mit einem Bild von 6000x4000 Pixeln enthält 24 Millionen Pixel. Ausgedrückt als 24MP oder 24 Mpx (Megapixel). Die Auflösung unserer Kameras wird immer in der Produktbeschreibung erwähnt.

  • Progressive Scanning: Progressive Scaning ist die Technik, um bewegte Bilder anzuzeigen, zu speichern oder weiterzugeben, bei der ein Frame nicht aus mehreren Feldern besteht, sondern alle Zeilen in Reihenfolge aktualisiert werden. Dies ist das Gegenteil der interlaced scanning Methode, die bei älteren CCD-Sensoren verwendet wird. Progressive Scanning wird bei allen CCD-Sensoren verwendet, die in unseren Machine Vision Kameras eingesetzt werden.
  • Quanteneffizienz: Quanteneffizienz bezieht sich auf das Verhältnis von eingehenden Photonen zu umgewandelten Elektronen (IPCE) eines photosensitiven Geräts wie dem Bildsensor einer Machine Vision Kamera. 
  • Region of Interest: Region of Interest (ROI) einer Machine Vision Kamera ist der Bereich / Teil des Bildsensors, der ausgelesen wird. Zum Beispiel hat eine vision Kamera einen Bildsensor mit einer Auflösung von 1280x1024 Pixeln. Sie sind nur an dem zentralen Teil des Bildes interessiert. Sie können eine ROI von 640x480 Pixeln innerhalb der Kamera festlegen. Dann wird nur dieser Teil des Bildsensors Licht erfassen und die Daten übertragen. Das Festlegen einer ROI in der vision Kamera erhöht die Bilder pro Sekunde, da nur ein Teil des Bildsensors ausgelesen wird, wodurch die Menge der zu übertragenden Daten pro erfasstem Bild reduziert wird und die Kamera mehr Bilder pro Sekunde aufnehmen kann.  

  • Auflösung: Auflösung ist im Bereich der digitalen Bildverarbeitung ein Begriff, der die Anzahl der Pixel eines Bildes beschreibt. Je höher die Pixelanzahl, desto höher ist die Auflösung. Die Auflösung wird in der horizontalen und vertikalen Pixelanzahl oder in der Gesamtpixelanzahl eines Sensors in Megapixeln ausgedrückt. Ein Bild kann eine Auflösung von 1280 x 1024 Pixeln haben, was auch als 1,3 Megapixel-Auflösung ausgedrückt wird.

  • Rolling Shutter: Ein Rolling Shutter Sensor hat eine andere Methode zur Bildaufnahme im Vergleich zum global Shutter. Nämlich, er belichtet verschiedene Zeilen zu unterschiedlichen Zeiten, während sie ausgelesen werden. Jede Zeile wird in einer Reihe belichtet, jede Zeile wird vollständig ausgelesen, bevor die nächste Zeile dran ist. Mit einem Rolling Shutter Sensor benötigt die Pixel-Einheit nur zwei Transistoren, um ein Elektron zu transportieren, was die Menge an Wärme und Rauschen reduziert. Im Vergleich zum global Shutter Sensor ist die Struktur des rolling Shutter vereinfacht und daher günstiger. Der Nachteil des Rolling Shutter ist jedoch, dass nicht jede Zeile gleichzeitig belichtet wird, was zu Verzerrungen führen kann, wenn man versucht, sich bewegende Objekte aufzunehmen.
  • Schattierungs-Korrektur oder Flächenkorrektur wird verwendet, um Vignettierung des Objektiv oder Staubpartikel auf dem Bildsensor zu korrigieren. Vignettierung ist die Abdunkelung der Bildecken im Vergleich zur Mitte des Bildes. Die Verwendung von Schattierungs-Korrektur / Flächenkorrektur erfordert dasselbe optische Setup, mit dem die Originalbilder während der Kalibrierung der Schattierungs-Korrektur aufgenommen wurden. Daher muss dasselbe Objektiv, die Blende, der Filter und dieselbe Positionierung verwendet werden. Auch der Fokus, der bei der Erstellung des Kalibrierungsbildes verwendet wurde, muss derselbe sein.

  • Die Shutter Zeit oder Belichtungszeit ist die Zeitspanne, in der Licht auf den Sensor der Kamera fällt. Beleuchtung und Ausleuchtung sind sehr wichtige Elemente mit . Ihre Belichtungszeit bestimmt, wie viel Licht auf Ihren Sensor fällt und damit die Anzahl der Details, die auf diesem Bild sichtbar sind. Ihr Bild kann viele Details verlieren, wenn es zu viel oder zu wenig Licht gibt, da diese Details in zu dunklen oder zu hellen Bereichen des Bildes verloren gehen. Daher ist Belichtungszeit ein wichtiges Element bei der Ausleuchtung Ihrer Bilder und gehört somit zu den drei wichtigsten Elementen des Belichtungstriangels. Die Belichtungszeit regelt nicht nur die Belichtung Ihres Bildes, sondern auch, wie fokussiert oder verschwommen Bewegungen in Ihrem Bild aussehen. Mit einer kurzen Belichtungszeit können Sie schnelle Bewegungen einfangen und einfrieren. Mit einer langen Belichtungszeit können Sie Bewegungen fließend erscheinen lassen.Belichtungszeit kann manuell justiert werden an Ihrer Machine Vision Kamera. Belichtungszeiten können von 5µs bis zu einer Sekunde variieren. Je nach Art der Applikation benötigen Sie eine lange oder kurze Belichtungszeit.

  • Das Signal-Rausch-Verhältnis (SNR) ist ein Maß zur Messung der Qualität eines Signals, in dem sich ein störendes Rauschen befindet gegenwärtig. Das Signal-Rausch-Verhältnis misst die Leistung des gewünschten Signals im Verhältnis zur Leistung des aktuellen Rauschens. Je höher dieser Wert ist, desto größer ist der Unterschied zwischen Signal und Rauschen, wodurch schwache Signale besser erfasst werden können. Dadurch ist ein Sensor mit einem hohen SNR-Wert besser in der Lage, Bilder bei schlechten Lichtverhältnissen aufzunehmen.

Rezensionen VA Imaging

Bewertungen werden automatisch übersetzt. Klicken Sie hier, um die Originalbewertung zu sehen und ihre Authentizität zu prüfen.

Vision & Automatisierungsressourcen