Opto Engineering. Grundlagen

Größe: px
Ab Seite anzeigen:

Download "Opto Engineering. Grundlagen"

Transkript

1 Opto Engineering Grundlagen

2 Zusammenfassung Optiken Einführung Grundlagen der Optik Bildqualität Objektiv-Arten IV VIII XVI Beleuchtung Kameras Einführung Beleuchtung bei der Bildverarbeitung LED-Beleuchtung Beleuchtungsgeometrien und -techniken Wellenlängen und optische Leistung Strukturierte Beleuchtung Beleuchtungssicherheit und Gefahrenklassen von LEDs gemäß EN62471 Einführung Kamera-Arten Sensoren und Kameraeigenschaften Schnittstellen Digitalkameras XXVIII XXIX XXXII XXXVIII XL XL XLIV XLV XLVII Bildverarbeitungssysteme Einführung Anwendungen Arten von Bildverarbeitungssystemen Wie ein Bildverarbeitungssystem arbeitet LII LIII LIII

3 Optiken Der Grundzweck einer Linse jeglicher Art besteht darin, das von einem Objekt gestreute Licht zu sammeln und ein Bild dieses Objekts auf einem lichtempfindlichen Sensor (meist ein CCD- oder CMOS-Sensor) zu erstellen. Bei der Wahl eines Objektivs ist einer bestimmten Anzahl an Parametern Rechnung zu tragen, die von dem Bereich abhängen, der abgebildet werden soll (Sichtbereich), von der Dicke des Objektes oder den Eigenschaften, die geprüft werden sollen (Schärfentiefe), vom Abstand zwischen Objektiv und Objekt (Arbeitsabstand), von der Lichtintensität und der Art der Optik (telezentrisch, entozentrisch, perizentrisch) usw. In der folgenden Liste sind die grundlegenden Parameter aufgeführt, die bei Optiken zu beachten sind. Sichtfeld (Field of View - FOV): Der gesamte Bereich, der von einem Objektiv gesichtet und auf dem Sensor der Kamera abgebildet wird. Arbeitsabstand (WD): Der Abstand zwischen Objektiv und Objekt, an dem das Bild am schärfsten fokussiert ist. Schärfentiefe (Depth of Field - DoF): Der Höchstbereich, innerhalb dessen das Objekt in akzeptabler Schärfe erscheint. Sensorgröße: Die Größe des aktiven Bereichs des Kamerasensors. Dieser ist leicht zu berechnen, indem die Pixelgröße mit der Auflösung des Sensors (Anzahl der aktiven Pixel in der x- und y-richtung) multipliziert wird. Vergrößerung: Verhältnis zwischen Sensorgröße und Sichtfeld (FOV). Auflösung: Mindestabstand zwischen zwei Punkten, bei dem diese noch als separate Punkte wahrgenommen werden können. Die Auflösung ist ein komplexer Parameter, der in erster Linie vom Objektiv und von der Auflösung der Kamera abhängt.

4

5

6 Grundlagen der Optiken Objektive: Näherungen und Gleichungen Die Haupteigenschaften der meisten optischen Systeme können anhand weniger Parameter berechnet werden, vorausgesetzt, man nimmt auch ungefähre Werte in Kauf. Bei der paraxialen Optik werden nur eintretende Lichtstrahlen betrachtet, die mit der optischen Achse kleine Winkel bilden. Bei der Näherungsberechnung der dünnen Linse ist es erforderlich, dass ihre Dicke beträchtlich kleiner ist als die Radien ihrer brechenden Oberflächen: Auf diese Weise können die optischen Wirkungen aufgrund Arbeitsabstand der tatsächlichen Dicke der Linsen außer Acht s gelassen und die Raytracing-Berechnungen s vereinfacht werden. Wenn weiterhin angesetzt f f wird, dass Objekt und Bildraum sich in ein und demselben Medium befinden (z.b. Luft), kommen wir zur grundlegenden Gleichung: 1/s 1/s = 1/f h Objekt wo (s ) die Position des Objekts (Bildes) in Bezug auf die Linse ist, die üblicherweise durch einen negativen (positiven) Wert angegeben wird, und (f) die Brennweite des optischen Systems (siehe Abb. 1). Der Abstand vom Objekt zur Vorderseite der Linse wird als Arbeitsabstand bezeichnet, während der Abstand von der Rückseite der Linse zum Sensor als hintere Schnittweite bezeichnet wird. Im Folgenden wollen wir Ihnen nun einige nützliche Begriffe und Formeln vorstellen, die - soweit nicht anders angegeben - auf diesem vereinfachten Modell basieren. Abb. 1: Die grundlegenden Parameter eines optischen Systems. h Kamera-Mounts Es werden verschiedene mechanische Halterungssysteme verwendet, um das Objektiv an der Kamera anzubringen und um damit sowohl Schärfe als auch Stabilität des Bildes zu gewährleisten. Der Mount wird von der mechanischen Tiefe seiner Mechanik bestimmt (Auflagemaß), zusammen mit seinem Durchmesser und der Steigung des Gewindes (wenn vorhanden). Es ist wichtig, dass das Auflagemaß der Linse und das des Kamera-Mounts genau übereinstimmen, sonst kommt es zu Problemen bei der Schärfe des Bildes. Bei Vorhandensein eines Gewindes ist eine gewisse Einstellung der hinteren Schnittweite möglich, wenn erforderlich. Bei den Objektiven der Serie PCHI von Opto Engineering muss zum Beispiel eine Einstellung der hinteren Schnittweite erfolgen, wenn der Fokus für ein anderes Sichtfeld eingestellt werden soll. Der C-Mount ist der am häufigsten verwendete Objektiv-Mount im industriellen Bereich. Er weist ein Auflagemaß von mm, einen Durchmesser von 1 (25.4 mm) mit 32 Windungen pro Zoll auf. C-Mount Der CS-Mountwird seltener gebraucht. Er ist die um 5 mm kürzere Version des C-Mounts, mit einem Auflagemaß von mm. Bei einer CS- Mount-Kamera, die mit einer C-Mount-Optik gebraucht wird, kommt es zu verschiedenen Schwierigkeiten, besonders, wenn das Objektiv mit einem sehr genauen Auflagemaß arbeiten muss. CS-Mount Sensor mm Sensor mm 1 x 32 TPI 1 x 32 TPI Abb. 2: Mechanisches Layout C-Mount. Abb. 3: Mechanisches Layout CS-Mount. IV

7 Optiken F-Mount ist eine Halterung in der Art eines Bajonett-Anschlusses, die ursprünglich von Nikon für seine Kameras im 35 mm-format entwickelt wurde und auch heute noch bei den meisten seiner digitalen SRL-Kameras verwendet wird. Gewöhnlich wird dieser Mount bei größeren Sensoren benutzt, z.b. bei Vollbild- oder Zeilenkameras. Die Objektive können dank der Bajonett-Halterung problemlos ausgetauscht werden, aber es ist keine Einstellung der hinteren Schnittweite möglich. Mxx-Mounts sind andere Arten von Kamera-Mounts, die durch ihren Durchmesser (z.b. M72, M42), die Steigung des Gewindes (z.b. 1 mm, 0.75 mm) und das Auflagemaß bestimmt werden. Sie sind die übliche Alternative zum F-Mount für größere Sensoren. T-Mount (T1 = M42x1.0; T2 = M42 x 0.75) Sensor Nicht definiert M42 F-Mount M58-Mount (M58 x 0.75) Sensor Nicht definiert 46.5 mm M58 x 0.75 M72-Mount (M72 x 0.75) 44 mm Sensor Nicht definiert 48 mm M72 x 0.75 Abb. 4: Mechanisches Layout F-Mount. Abb. 5: Mechanische Layouts Mxx-Mount. Die einzelnen Kamera-Mounts werden meistens jeweils in Verbindung mit bestimmten Sensorformaten gebraucht. Die häufigsten Sensorformate sind nachstehend aufgelistet. An dieser Stelle muss daran erinnert werden, dass dies keine absoluten Werte sind. Zum Beispiel können zwei aufgeführte Kameras mit demselben Sensorformat sich in Bezug auf das Seitenverhältnis auch bei gleicher Sensordiagonale wesentlich voneinander unterscheiden. Zum Beispiel ist der Sensor Sony Pregius IMX250 als 2/3 -Sensor mit einem aktiven Bereich von 8.45 mm x 7.07 mm aufgeführt. Der Sensor CMOSIS CMV2000 ist ebenfalls als 2/3 -Format angegeben, doch er hat einen aktiven Bereich von mm x 5.98 mm px x 10 µm 2048 px x 14 µm 4096 px x 7 µm 4096 px x 10 µm 7450 px x 4.7 µm 6144 px x 7 µm 8192 px x 7 µm px x 5 µm 20.5 mm 28.6 mm 28.6 mm 35 mm 41 mm 43 mm 57.3 mm 62 mm Abb. 6: Übliche Zeilensensor-Formate. Sensortyp Diagonal Breite Höhe (mm) (mm) (mm) 1/ / / / / / Vollbild - 35 mm /3 1 4/3 1/2.5 1/2 1/1.8 2/3 Vollbild - 35 mm Abb. 7: Übliches Format bereichsabtastender Sensoren. Abb. 8: Größen bereichsabtastender Sensoren. V

8 Einstellung des Auflagemaßes Bei vielen Kameras wird der Industriestandard für C-Mounts (17.52 mm), d.h. der Abstand Flansch-Detektor (das Auflagemaß) nicht eingehalten. Abgesehen von allen Ungenauigkeiten mechanischer Art ziehen viele Hersteller die Dicke des Detektor-Schutzglases nicht ausreichend in Betracht, das - so dünn es auch sein mag - immer Teil des Abstandes zwischen Flansch und Detektor ist. Daher wird mit den telezentrischen Objektiven von Opto Engineering auch ein Abstandskit mit den entsprechenden Anweisungen, wie das Auflagemaß auf den optimalen Wert eingestellt werden kann, geliefert. Brennweite Die Brennweite eines optischen Systems gibt an, wie stark das System Lichtstrahlen konvergiert bzw. divergiert. Bei den handelsüblichen optischen Systemen ist das der Abstand, über den aus dem Unendlichen einfallende kollimierte Strahlen auf einen Punkt konvergieren. Wenn kollimierte Strahlen auf einen physikalischen Punkt konvergieren, wird die Linse als positiv (konvex) bezeichnet. Wenn die Strahlen dagegen divergieren, ist der Brennpunkt virtuell und die Linse wird als negativ (konkav, s. Abb. 9) bezeichnet. Alle Optiken, die bei der Bildbearbeitung eingesetzt werden, sind positiv, d.h. sie fokussieren das einfallende Licht auf die Ebene des Sensors. Abb. 9: Positive (links) und negative (rechts) Linse. Für die optischen Systeme, die bei der Bildbearbeitung in Gebrauch sind, wo die von einem entfernten Objekt reflektierten Strahlen auf die Sensorebene fokussiert werden, kann die Brennweite auch als Maß dafür verstanden werden, wie groß der von der Abbildung betroffene Bereich des Sensors (Sichtfeld) ist: Je größer die Brennweite, desto kleiner das Sichtfeld und umgekehrt (für bestimmte optische Systeme, z.b. in der Astronomie und Mikroskopie, ist das nicht ganz zutreffend). f = 8 mm f = 25 mm f = 50 mm Abb. 10: Brennweite und Sichtfeld. Vergrößerung und Sichtfeld Die Vergrößerung M einer Optik bezeichnet das Verhältnis zwischen der Größe des Bildes (h ) und der des Objekts (h): M = h /h Eine sinnvolles Verhältnis zwischen Arbeitsabstand (s), Vergrößerung (M) und Brennweite (f) ist das folgende Verhältnis: s = f(m-1)/m M Sichtfeld (FOV) Makro- und telezentrische Linsen sind für einen Einsatz mit einer Entfernung entwickelt worden, der ihrer Brennweite entspricht (endlich konjugierte Ebenen), während Fixfokus-Linsen zur Abbildung von Objekten entwickelt wurden, deren Abstand wesentlich weiter als die entsprechende Brennweite Abb. 11: Bei einer vorgegebenen Sensorgröße nimmt das Sichtfeld bei Zunahme der Vergrößerung ab und umgekehrt. ist (unendlich konjugierte Ebenen). Dabei ist es zweckmäßig, die erste Gruppe entsprechend ihrer Vergrößerung zu klassifizieren, sodass es einfacher wird, bei einer vorgegebenen Sensor- und Objektgröße die richtige Linse zu wählen, während die zweite Gruppe auf ihrer Brennweite basierend zu klassifizieren ist. Da die Fixfokus-Linsen ebenfalls der obigen Gleichung entsprechen, ist es möglich, bei Vorgabe der Vergrößerung und des Arbeitsabstands die erforderliche Brennweite zu berechnen bzw. bei Vorgabe der Sensorgröße, des Sichtfeldes und der Brennweite den erforderlichen Arbeitsabstand usw. (am Ende dieses Abschnitts folgen verschiedene Beispiele). Für Makro- und telezentrische Linsen dagegen sind der Arbeitsabstand und die Vergrößerung normalerweise festgelegt. VI

9 Optiken F/# und Schärfentiefe Jedes optische System hat einen Verschluss der Blende. Damit wird die Lichtmenge bestimmt, die durch die Blende eintritt. Für einen vorgegebenen Blendendurchmesser d und die Brennweite f können wir die F-Zahl (Blendenzahl) des Objektivs bestimmen: Objektiv Apertur Bildsensor F/# = f / d Einfallendes Licht Brennweite f Abb. 12: Apertur (Öffnungsweite) eines optischen Systems. Typische F-Zahlen sind: F/1.0, F/1.4, F/2, F/2.8, F/4, F/5.6, F/8, F/11, F/16, F/22 usw. Mit jeder Zunahme der F-Zahl (kleinere Blendenöffnung) wird das eintretende Licht mit einem Faktor von 2 reduziert. Diese Definition der F-Zahl ist auf Objektive mit fester Brennweite anzuwenden, wo das Objekt auf unendlich eingestellt ist (z.b. mit einem wesentlich größeren Abstand als die Brennweite). Bei Makro- und telezentrischen Objektiven, bei denen der Abstand zu den Objekten geringer ist, wird die effektive Blendenzahl F/# (wf/#) benutzt. Diese ist: WF/# = (1 + M) F/# Eine weit verbreitete Blendenzahl ist F/8, da es bei kleineren Öffnungsweiten zu Einschränkungen der Beugung kommen kann, während Linsen mit größerer Öffnungsweite stärker von optischen Abbildungsfehlern oder Verzeichnungen betroffen sind. APERTURBEREICH f 2.8 f 4 f 5.6 f 8 f 11 f 16 f 22 Große Blende Mittlere Blende Kleine Blende Die Blendenzahl (F-Zahl) hat Einfluss auf die Schärfentiefe der Optik, d.h. auf den Bereich zwischen dem nächsten und entferntesten Punkt, innerhalb dessen ein Objekt ausreichend fokussiert ist. Schärfentiefe ist dabei ein irreführender Begriff, denn physikalisch gibt es für den Objektraum nur eine mit der Sensorebene konjugierte Ebene. Trägt man aber der Beugung, der Aberration und der Pixelgröße Rechnung, ist es möglich, einen akzeptablen Fokussierabstand von der konjugierten Ebene des Bildes auf der Grundlage subjektiver Kriterien zu definieren. Zum Beispiel ist der akzeptable Fokussierabstand einer vorgegebenen Linse für eine Präzisionsmessanwendung, die ein sehr scharfes Bild erfordert, kleiner als für eine grobe Sichtprüfung. Grobe Schärfentiefe Schärfentiefe Größte Schärfentiefe Abb. 13: Verhältnis zwischen Blendenzahl (F/#) und Schärfentiefe (DoF). Eine grobe Abschätzung der Schärfentiefe (DoF) von telezentrischen und Makrolinsen (oder in der Makrokonfiguration eingesetzten Fixfokus-Linsen) kann durch die nachstehende Formel gegeben werden: F/# Einfallendes Licht Auflösung Schärfentiefe DoF [mm] = WF/# p [µm] k / M 2 wo p die Pixelgröße des Sensors (in Mikron) bezeichnet, M die Vergrößerung der Linse und k ein dimensionsloser Parameter ist, der von der Anwendung abhängt (ein für Messanwendungen geeigneter Wert ist 0.008, für die Fehlerinspektion). Setzt man z.b. p = 5.5 µm und k = an, hat eine Linse mit einer Vergrößerung von 0.25X und der effektiven Blendenzahl WF/# = 8 eine geschätzte Schärfentiefe (DoF) = 10.5mm. Abb. 14: Beziehung zwischen der F/#, Menge des einfallenden Lichts, Auflösung und Schärfentiefe. VII

10 Bildqualität Bei der Zusammenstellung eines Bildverarbeitungssystems ist es wichtig, dessen Leistungsbeschränkungen bezüglich der optischen Parameter (Sichtfeld, Schärfentiefe, Auflösung), den Abbildungsfehlern, der Verzeichnung und den mechanischen Eigenschaften Rechnung zu tragen. Aberrationen oder Abbildungsfehler Aberrationen ist eine allgemeine Kategorie, zu der die hauptsächlichen Faktoren gehören, aufgrund derer ein optisches System anders abbildet als im Idealfall. Es gibt eine Anzahl von Faktoren, die es einer Linse nicht erlauben, ihre theoretische Leistung zu erreichen. Physikalische Aberrationen Die Einheitlichkeit von optischem Material und dessen Oberflächen ist die erste Anforderung, die es zu erfüllen gilt, um ein Optimum bei der Fokussierung von Lichtstrahlen und der entsprechenden Bildgebung zu erzielen. Natürlich gibt es für die Homogenität realer Materialien Obergrenzen, die von verschiedenen Faktoren abhängen (z.b. Einschlüsse im Material), von denen einige nicht eliminiert werden können. Staub und Schmutz sind externe Faktoren, die sicherlich die Leistung einer Linse beeinträchtigen können, daher sind sie soweit wie möglich zu vermeiden. Sphärische Aberration Sphärische Linsen (Abb. 15) werden sehr häufig eingesetzt, denn sie sind relativ einfach herzustellen. Die Kugelform ist aber für eine perfekte Bildgebung nicht ideal. So werden kollimierte Strahlen, die mit verschiedenen Abständen zur optischen Achse in die Linse einfallen, zu verschiedenen Punkten divergieren, was mit einem allgemeinen Verlust der Schärfe verbunden ist. Wie bei vielen anderen Abbildungsfehlern nimmt die Verwischung auch in diesem Fall an den Rändern der Linse zu. Um diesem Problem zu begegnen, werden oft asphärische Linsen (Abb. 16) eingesetzt. Ihr Oberflächenprofil ist nicht ein Ausschnitt aus einer Kugel oder einem Zylinder, sondern ihr Profil ist komplexer, um sphärische Abbildungsfehler zu reduzieren. Eine andere Lösung besteht darin,mit hohen Blendenzahlen zu arbeiten, sodass die Strahlen, die in die Linse eintreten, weiter von der optischen Achse entfernt sind und die sphärischen Aberrationen den Sensor nicht erreichen. Strahlen an der Linse Optische Achse Bester Brennpunkt Abb. 15: Linsen mit sphärischer Aberration. Strahlen an der Linse Optische Achse Bester Brennpunkt Abb. 16: Asphärische Linsen. VIII

11 Optiken Chromatische Aberration Der Brechungsindex eines Stoffes ist eine Größe, die den Streuwinkel des ihn durchdringenden Lichts angibt (kurz: wie viele Strahlen gebeugt oder gebrochen werden), wie auch seine Auswirkungen in Bezug auf die Wellenlänge des Lichts. Wenn weißes Licht in eine Linse eintritt, nimmt jede Wellenlänge einen leicht unterschiedlichen Weg. Dieses Phänomen wird als Dispersion bezeichnet und führt zur Zerlegung weißen Lichts in seine Spektralfarben. Die Folge ist eine chromatische Aberration. In der Mitte der Optik ist dieser Effekt minimal, zu den Kanten hin nimmt er zu. Die chromatische Aberration führt zur Entstehung von Farbsäumen quer über das Bild und zu verschwommenen Kanten, die es unmöglich machen, die Eigenschaften des Objekts korrekt abzubilden. Um diese Art der Aberration zu reduzieren, kann ein achromatisches Objektiv verwendet werden. Wenn dagegen keine Informationen bezüglich der Farbe erforderlich sind, ist die einfachere Lösung, monochromatisches Licht einzusetzen. Es gibt zweierlei Arten chromatischer Aberration: Farblängsfehler (Abb. 17) und Farbquerfehler (Abb. 18), die von der Richtung der einfallenden parallelen Strahlen abhängen. RGB Farbraum Optische Achse Bester Brennpunkt Abb. 17: Farblängsfehler. RGB Farbraum Optische Achse Bester Brennpunkt Abb. 18: Farbquerfehler. IX

12 Astigmatismus Astigmatismus (Abb. 19) ist eine optische Aberration, die eintritt, wenn Strahlen, die auf zwei rechtwinkligen Ebenen auf der optischen Achse liegen, verschiedene Brennweiten haben. Das führt zu Unschärfen in einer Richtung, die in der anderen nicht vorhanden sind. Wenn der Sensor für die Sagittalebene fokussiert wird, werden Kreise in der Tangentialrichtung zu Ellipsen und umgekehrt. Objektiv Abb. 19: Astigmatismusaberration. Koma Koma-Aberration (Abb. 20) entsteht, wenn parallele, mit einem bestimmten Winkel eintretende Strahlen ihren Brennpunkt - entsprechend ihrem Abstand von der optischen Achse - an verschiedenen Stellen haben. Ein Kreis auf der Objektebene erscheint in der Abbildung wie der Schweif eines Kometen, was diesem Abbildungsfehler auch seinen Namen gegeben hat. Objektiv Abb. 20: Koma-Aberration. X

13 Optiken Feldkrümmung Feldkrümmungsaberrationen (Abb. 21) beschreiben die Tatsache, dass parallele, die Linse aus verschiedenen Richtungen erreichende Strahlen nicht auf einer Ebene fokussieren, sondern vielmehr auf einer gekrümmten Fläche, was zu einer radialen Unschärfe führt, d.h. für eine bestimmte Sensorposition wird nur eine kreisförmige Krone scharf eingestellt. Abb. 21: Feldkrümmungsaberration. Verzeichnung Mit einer perfekten Linse wird ein quadratisches Element nur in seiner Größe verändert, ohne dass seine geometrischen Eigenschaften betroffen sind. Bei einer realen Linse kommt es jedoch zu bestimmten geometrischen Verzeichnungen, die meist radialsymmetrisch sind (und damit der Radialsymmetrie der Optik entsprechen). Dabei gibt es zwei Arten der radialen Verzeichnung: die tonnen- und die kissenförmige Verzeichnung. Bei der tonnenförmigen Verzeichnung nimmt die Vergrößerung des Bildes mit dem Abstand zur optischen Achse ab, sodass der Eindruck entsteht, als wäre das Bild um eine Kugel gewickelt. Bei der kissenförmigen Verzeichnung nimmt die Vergrößerung mit dem Abstand zur optischen Achse zu. So werden die Linien, die nicht durch die Mitte des Bildes gehen, nach innen gebogen, wie die Ecken eines Kissens. Kissen Abb. 22: Verzeichnung. Tonne Wie kann man die Verzeichnung korrigieren? Da telezentrische Linsen ein realer Gegenstand sind, weisen sie einige Restverzeichnungen auf, welche die Genauigkeit der Messungen beeinträchtigen können. Verzeichnung wird als prozentueller Unterschied zwischen der realen und erwarteten Bildhöhe berechnet und kann durch ein Polynom zweiten Grades genähert werden. Wenn die Radialabstände von der Bildmitte folgendermaßen bezeichnet werden: Ra = der tatsächliche Radius wird die Verzeichnung als eine Funktion von Ra berechnet: Re = der erwartete Radius, Dist (Ra) = (Ra - Re)/Ra = c Ra 2 + b Ra + a wobei a, b und c konstante Werte sind, die das Verhalten der Verzeichnungskurve kennzeichnen. Dabei ist a gewöhnlich gleich null, weil die Verzeichnung in der Bildmitte normalerweise gleich null ist. In einigen Fällen könnte ein Polynom dritter Ordnung erforderlich sein, um den genauen Verlauf der Kurve darzustellen. Zusätzlich zur radialen Verzeichnung ist auch der trapezoiden Verzeichnung Rechnung zu tragen. Diesen Effekt kann man sich als einen Fehler der Perspektive vorstellen, der die Folge einer ungenügenden Fluchtung zwischen optischen und mechanischen Komponenten ist. Als Folge werden Linien, die im Objektraum parallel verlaufen, im Bildraum zu konvergierenden (oder divergierenden) Linien. Dieser Effekt, der auch unter der Bezeichnung Trapezverzerrung oder dünnes Prisma bekannt ist, kann leicht durch recht einfache Algorithmen bestimmt werden, welche den Punkt berechnen, in dem sich konvergierende Strahlenbündel kreuzen. Interessant dabei ist, dass radiale und trapezoide Verzeichnung zwei vollkommen unterschiedliche physikalische Phänomene sind. Daher können sie mathematisch durch zwei unabhängige Raumtransformationsfunktionen korrigiert werden, die nacheinander anzuwenden sind. Alternativ dazu (bzw. zusätzlich) können beide Verzeichnungen lokal und sofort korrigiert werden. Man benutzt dazu das Bild eines Rasters, um den Betrag und die Ausrichtung des Verzeichnungsfehlers Bereich für Bereich festzustellen. Das Ergebnis ist ein Vektorfeld, bei dem jeder zu einem spezifischen Bildbereich gehörige Vektor festlegt, welche Korrekturen auf die Messungen der x-, y- und z-koordinate innerhalb dieses Bildbereichs anzuwenden ist. XI

14 Warum wird für telezentrische Linsen GRÜNES Licht empfohlen? Alle Linsen, die im sichtbaren Bereich eingesetzt werden, einschließlich die telezentrischen OE-Linsen, sind über das gesamte sichtbare Spektrum (VIS) achromatisiert. Die Parameter in Bezug auf die Verzeichnung der Linse und die Telezentrie sind normalerweise für die Wellenlängen in der Mitte des sichtbaren Spektrums optimiert, und das ist das grüne Licht. Mehr noch: Im Bereich des grünen Lichts, wo die Achromatisierung nahezu perfekt ist, ist auch die Auflösung besser. Grün ist zudem besser als Rot, weil ein kürzerer Wellenlängenbereich die Beugungsgrenze der Linse und damit die maximal erreichbare Auflösung erhöht. Kontrast, Auflösung und Beugung Kontrast Mängel und optische Aberrationen tragen zusammen mit der Beugung dazu bei, dass die Qualität der Abbildung schlechter wird. Eine wirksame Methode zur Beurteilung der Bildqualität ist die Berechnung des Kontrastes, d.h. des Luminanzunterschieds, durch den ein Gegenstand - und dessen Bild oder Abbildung auf einem Display - zu erkennen ist. Mathematisch wird Kontrast folgendermaßen definiert: C = [I max I min ]/[ I max + I min ] Abb. 23: Graustufen. wobei I max (I min ) die höchste (niedrigste) Luminanz darstellt. Bei einem Digitalbild ist Luminanz ein Wert, der von 0 (schwarz) bis auf einen Höchstwert ansteigt, welcher von der Farbtiefe abhängt (die Anzahl von Bits, die zur Beschreibung der Helligkeit der einzelnen Farben dienen). Bei den üblichen 8-bit-Bildern (in Graustufen, zur Vereinfachung) ist dieser Wert = 255, denn das ist die Anzahl an Kombinationen (gezählt ab dem 0-String `schwarz ), die man mit einer 8 bit-sequenz erzielen kann, wenn man für jede Kombination einen 0-1-Wert ansetzt. Auflösungsvermögen der Linse: Transferfunktion Die Bildqualität eines optischen System wird gewöhnlich durch seine Transferfunktion (TF) angegeben. Die TF beschreibt die Fähigkeit einer Linse, Eigenschaften aufzulösen, indem die räumlichen Informationen des Objektraums (meist als Linienpaar pro Millimeter angegeben) dem im Bild erreichten Kontrast zugeordnet werden. Periodisches Gitter Objektiv Bild Periodisches Gitter Objektiv Bild Schwarz Weiß 100% Kontrast 90% Kontrast y x Weiß Schwarz Weiß Schwarz 100% Kontrast 20% Kontrast y x Weiß Schwarz Abb. 24: Modulationstransferfunktion und Kontrasttransferfunktion. Worin besteht der Unterschied zwischen der Modulationstransferfunktion (MTF) und der Kontrasttransferfunktion (CTF)? Mit der CTF wird das Ansprechen einer Linse auf einen Kontrast ausgedrückt, wenn ein Karomuster (in der Art eines Schachbretts) abgebildet wird. Dieser Parameter ist äußerst nützlich, um die Kantenschärfe für Messanwendungen beurteilen zu können. Dagegen bezieht sich die MTF auf den Kontrast, der erreicht wird, wenn ein sinusförmiges Muster, bei dem die Graustufen von 0 bis 255 gehen, abgebildet wird. Was diesen Wert betrifft, ist es schwieriger, ihn in einen nützlichen Parameter für Bildverarbeitungsanwendungen umzuwandeln. Die Auflösung einer Linse wird normalerweise durch ihre MTF (Modulationstransferfunktion) angegeben, welche die Reaktion einer Linse angibt, wenn ein sinusförmiges Pattern abgebildet wird. XII

15 Optiken Interessanter ist jedoch der CTF-Parameter (Contrast Transfer Funktion), da er den Kontrast der Linse beschreibt, wenn diese ein schwarz-weiß gestreiftes Muster abbildet. Damit wird gezeigt, wie die Linse die Kanten eines Objekts abbilden würde. Wenn t die Breite eines jeden Streifens darstellt, ist die relative Ortsfrequenz w folgende: w = 1/(2t) So hat zum Beispiel ein schwarz-weißes Muster mit 5 µm breiten Streifen eine Ortsfrequenz von 100 lp/mm. Die Grenzfrequenz (cut-off-frequency) wird als Wert w definiert, für den CTF gleich null ist, und sie kann folgendermaßen geschätzt werden: w cut-off = 1/[WF/# λ(mm)] So hat zum Beispiel die TC23036-Linse (WF/#h F/8) von Opto Engineering bei ihrem Einsatz mit grünem Licht (λ = mm) eine Ortsgrenzfrequenz von etwa w cut-off = [ mm ] = 210 lp/mm Modulus der Optischen Übertragungsfunktion (OTF) TS Grenzdifferenz TS 0.00 mm TS mm TS 9.00 mm TS mm Ortsfrequenz in Zyklen pro mm Abb. 25: MTF-Kurven von TC grünes Licht. Auflösung von Optiken und Sensor Die Ortsgrenzfrequenz ist kein besonders interessanter Parameter, da Bildverarbeitungssysteme Einzelheiten bei geringem Kontrast nicht zuverlässig auflösen können. Daher empfiehlt es sich, eine Grenzfrequenz von 20% Kontrast zu wählen. Beugungsscheibchen Aufgelöst Rayleigh- Grenze Nicht aufgelöst Ein allgemein gültiges Kriterium zur Beschreibung der optischen Auflösung ist das Rayleigh-Kriterium, das in Zusammenhang mit dem Begriff der Auflösungsgrenze steht. Wenn eine Welle auf ein Hindernis trifft, z.b. eine Öffnung durchquert, kommt es zur Beugung. In der Optik ist die Beugung eine physikalische Folge der wellenartigen Beschaffenheit des Lichts, die zu Interferenzen führt, die das Intensitätsmuster der eintreffenden Wellenfront verändern. Da jede Linse durch die Unterbrechung der Blendenöffnung charakterisiert ist, wird die Bildqualität durch Beugung beeinflusst, abhängig von der Öffnung der Linse. Ein punktförmiges Objekt wird solange korrekt auf dem Sensor abgebildet, bis das Bild eine bestimmte Grenzgröße erreicht. Alles, was kleiner ist, wird als dasselbe Bild erscheinen - eine Scheibe mit einem bestimmten Durchmesser, der von der Blendenzahl F/# der Linse und der Wellenlänge des Lichtes abhängt. Dieser runde Bereich wird als Beugungsscheibchen bezeichnet, mit einem Durchmesser von r A = 1.22 λ f / d, wobei λ die Wellenlänge des Lichtes ist, f die Brennweite der Linse, d der Blendendurchmesser und f / d die Blendenzahl der Linse. Diese Gleichung findet auch auf entfernte Objekte Anwendung, die klein erscheinen. Betrachtet man zwei benachbarte Objekte, kann der Abstand zwischen diesen als Objekt betrachtet werden, das einer Beugung unterliegt, wenn es von der Linse abgebildet wird. Die Vorstellung ist die, dass die Beugung der Bilder von beiden Objekten bis zu dem Punkt ansteigt, an dem sich diese Objekte nicht mehr als separat erkennen lassen. So könnte man beispielsweise den theoretischen Abstand berechnen, ab dem das menschliche Auge nicht mehr erkennen kann, dass die Scheinwerfer eines Auto voneinander getrennt sind. Das Rayleigh-Kriterium erklärt daher, dass zwei Objekte nicht mehr voneinander unterschieden werden können, wenn die Höchstwerte ihrer Beugungsmuster näher aneinander sind als der Radius ihrer Beugungsscheibchen r A (im Bildraum). (a) (b) (c) Abb. 26: Trennung der Beugungsscheibchen und Rayleigh-Kriterium. Die telezentrische Linse TC12120 von Opto Engineering zum Beispiel kann keine Eigenschaften unterscheiden, die im Bildraum (d.h. auf dem Sensor) näher sind als r A = µm 8 = 5.7 µm. Die Mindestauflösungsgröße ist immer 2 r A, unabhängig von der tatsächlichen Größe des Objekts. Da die TC12120-Linse eine Vergrößerung von 0.052X und 2r A = 11.4 µm hat, beläuft sich die Mindestgröße des realen Objekts, die aufgelöst werden kann, auf 11.4 µm /0.052 = 220 µm. Aus diesem Grund müssen Objektive genau dem Sensor entsprechen und umgekehrt. Im vorhergehenden Beispiel wäre der Einsatz einer Kamera mit einer Pixelgröße von 2 µm ohne jeden Vorteil, da jedes punktgleiche Objekt immer mehr als einen Pixel besetzen würde. In diesem Fall könnte man sich für eine Linse mit höherer Auflösung oder einen anderen Sensor (mit größeren Pixeln) entscheiden. Andererseits kann auch die Pixel-Größe die Grenze eines Systems ausmachen, auch wenn die Optiken an sich in der Lage wären, wesentlich kleinere Objekte zu erfassen. An dieser Stelle sollte die Transferfunktion des gesamten Systems in Betracht gezogen und der Beitrag sowohl der Optik als auch des Sensors beurteilt werden. Es ist wichtig, daran zu erinnern, dass die aktuelle Auflösungsgrenze nicht nur durch die Blendenzahl der Linse und die Wellenlänge gegeben ist, sondern auch von den Aberrationen der Linse abhängt. Somit ist die reale, in Betracht zu ziehende Ortsfrequenz diejenige, die durch die MTF-Kurven der gewünschten Linse beschrieben wird. XIII

16 Reflexion, Transmission und Beschichtungen Wenn das Licht auf eine Oberfläche trifft, wird ein Teil des Lichtstrahls reflektiert, ein anderer Teil wird gebrochen (durchgelassen) und der Rest wird durch das Material absorbiert. Bei einer Linse gilt es, die höchstmögliche Transmission zu erreichen, während Reflexion und Absorption möglichst gering zu halten sind. Während die Absorption gewöhnlich recht unbedeutend ist, kann die Reflexion zu einem echten Problem werden. Der Lichtstrahl wird nämlich nicht nur reflektiert, wenn er in die Linse eintritt (Luft-Glas-Grenze), sondern auch, wenn er aus der Linse austritt (Glas-Luft-Grenze). Nehmen wir einmal an, dass jede der beiden Oberflächen 3% des einfallenden Lichtes reflektieren. In diesem Fall beträgt der Gesamtverlust bei einem Zwei-Linsen-System 3*3*3*3 % = 81%. Übliche Lösungen sind optische Beschichtungen, d.h. ein oder zwei dünne Materialschichten, mit denen die Linsenoberfläche beschichtet wird. Nur wenige Mikron eines solchen Materials können die Bildqualität bedeutend verbessern, die Reflexion mindern und die Transmission steigern. Die Transmission hängt in beträchtlichem Ausmaß von der Wellenlänge des Lichts ab: Verschiedene Glasarten und Beschichtungen sorgen dafür, die Leistung der Linse in besonderen Spektralbereichen zu verbessern, zum Beispiel im UV- oder IR-Bereich. Im Allgemeinen ist es schwieriger, eine gute Transmission im UV-Bereich zu erreichen. Transmissionsgrad Rohr Kieselglas Optische Qualität Handelsübliche Qualität Handelsübliche Qualität Quarzglas Optische Qualität Quarzglas Kieselglas 160 Rohr Wellenlänge, Nanometer Abb. 27: Transmissionsgrad bei verschiedenen Glasarten. Antireflexbeschichtungen (AR) sind dünne, auf Oberflächen aufgebrachte Schichten, die deren Reflektivität durch optische Interferenz reduzieren sollen. Eine AR-Beschichtung besteht typischerweise aus einem sorgfältig konstruierten Aufbau dünner Schichten mit unterschiedlichen Brechungsindizes. Die inneren Reflexionen dieser Schichten interferieren miteinander, sodass eine Wellenspitze und ein Wellental zusammen kommen und einander aufheben, was zu einem niedrigeren Gesamtreflexionsvermögen als jenem der bloßen Substratoberfläche führt. Antireflexionsbeschichtungen sind an den meisten Brechungsoptiken enthalten und werden verwendet, um den Durchsatz zu maximieren und Ghosting zu reduzieren. Die wahrscheinlich einfachste und üblichste Antireflexbeschichtung besteht aus einer einzigen Schicht aus Magnesiumfluorid (MgF 2 ), die einen sehr geringen Brechungsindex aufweist (etwa 1.38 bei 550 nm). Hartkohle HCAR Antireflex-Beschichtung: HCAR ist eine optische Beschichtung, die häufig auf Silizium und Germanium angewendet wird und entwickelt wurde, um Anwendungen genügen zu können, bei denen die optischen Elemente rauen Bedingungen ausgesetzt sind (Militärfahrzeuge und Außen-Wärmekameras). Diese Beschichtung bietet hohe Schutzeigenschaften bei gleichzeitig guter Antireflex-Leistung, sie schützt die äußeren optischen Oberflächen vor Schwebeteilchen mit hoher Geschwindigkeit, Meerwasser, Motorkraftstoff und Ölen, hoher Luftfeuchtigkeit, unsachgemäßer Handhabung usw. Sie ist besonders widerstandsfähig gegen Abrieb, Salze, Säuren, Laugen und Öl. XIV

17 Optiken Vignettierung Das Licht, das auf den Sensor fokussiert wird, kann durch eine Anzahl interner Faktoren reduziert werden, die nicht von externen Faktoren abhängen. Zum Vignettieren der Mounts kommt es, wenn das Licht auf seinem Weg zum Sensor physisch blockiert wird. Normalerweise passiert das, wenn der Bildkreis der Linse (Querschnitt des Lichtkegels, der durch die Linse projiziert wird) kleiner als die Sensorgröße ist, sodass eine Anzahl von Pixeln nicht vom Licht getroffen wird und auf dem Bild schwarz erscheint. Diese Tatsache kann durch eine geeignete Zuordnung von Optik und Sensor vermieden werden. So würde zum Beispiel ein typischer 2/3 -Sensor (8.45 x 7.07 mm, 3.45 µm Pixelgröße) mit einer Diagonalen von 11 mm eine Linse mit einem Mindestbildkreis von 11 mm verlangen. Apertur-Vignettieren steht im Zusammenhang mit der Blendenzahl des Objektivs: Eine Linse mit einer höheren Blendenzahl erhält aus den meisten Richtungen das gleiche Licht, während eine Linse mit einer niedrigeren Blendenzahl im Weitwinkel nicht dieselbe Lichtmenge erhält, da das Licht teilweise durch die Kanten der physischen Blendenöffnung blockiert wird. Abb. 28: Beispiel für ein Bild mit Vignettierung. Abb. 29: Eine Linse mit einer niedrigen Blendenzahl (links) und einer hohen Blendenzahl, von der optischen Achse (Oberseite) und von außerhalb der Achse (Taste) gesehen. Cos 4 Vignettierung beschreibt die natürliche Vignettierung, die durch Lichtstrahlen hervorgerufen wird, die in einem bestimmten Winkel auf den Sensor treffen. Die Vignettierung wird durch die Cos^4(θ) Funktion beschrieben, wo θ der Winkel des einfallenden Lichts in Bezug auf die optische Achse im Bildraum ist. Die Verringerung der Intensität ist stärker bei weiten Einfallwinkeln, wodurch das Bild in der Mitte heller und an den Kanten dunkler erscheint. Lichtintensität Abb. 30: Cos 4 Vignettierung. Vignettierung durch θ Winkel mit einfallendem Licht in Bezug auf die optische Achse. XV

18 Objektiv-Arten Die Industrie bietet eine große Anzahl verschiedener Optiken an, wobei jede auf bestimmte Zwecke und Anwendungen zugeschnitten ist. Es folgt ein kurzer Überblick über die handelsüblichen Objektiv-Arten, zusammen mit deren Funktionsprinzipien und allgemeinen Anwendungen. TELEZENTRISCHE OBJEKTIVE Telezentrische Objektive sind eine besondere Klasse von Optiken, die entwickelt wurden, um ausschließlich kollimierte Strahlenbündel zu erfassen (d.h. parallel zur optischen Achse, siehe Abb. 31). Dadurch werden Fehler in der Perspektive vermieden. Parallele Strahlen Unendlichkeit Eintrittspupille Unendlichkeit Da nur Strahlen, die parallel zur optischen Achse verlaufen, erfasst werden, ist die Vergrößerung einer telezentrischen Linse unabhängig vom Standort des Objekts. Aufgrund dieser einzigartigen Eigenschaft sind telezentrische Objektive ausgezeichnet für Messanwendungen geeignet, wo Fehler der Perspektive und Änderungen der Vergrößerung zu uneinheitlichen Messungen führen können. Aufgrund ihrer besonderen Beschaffenheit muss das vordere Element eines telezentrischen Objektivs mindestens so groß wie das gewünschte Sichtfeld (FOV) sein, sodass diese Linsen nicht zur Abbildung sehr großer Objekte geeignet sind. Die nachstehenden Zeichnungen (Abb. 32) zeigen den Unterschied zwischen üblichen Optiken (entozentrisch) und telezentrischen Objektiven. Fixfokus- Objektive sind entozentrische Linsen, d.h. sie erfassen Strahlen, die von der optischen Achse abweichen. Dadurch können sie ein großes Sichtfeld abdecken, aber da die Vergrößerung bei verschiedenen Arbeitsabständen unterschiedlich ist, eignen sich diese Linsen nicht, wenn die tatsächlichen Abmessungen eines Objekts bestimmt werden sollen. Abb. 31: Telezentrische Optiken erfassen nur Strahlen, die parallel zur optischen Achse verlaufen. a) b) Abb. 32: a) Die Beschaffenheit einer telezentrischen Linse ist derart, dass Objekte mit verschiedenen Abständen zur Linse dieselbe Größe zu haben scheinen. Abb. 32: b) Bei entozentrischen Optiken wird eine Änderung des Arbeitsabstandes auf dem Sensor als perspektivischer Fehler abgebildet. Vorteile bi-telezentrischer Objektive Bessere Vergrößerungsstabilität Telezentrische Standardobjektive empfangen Strahlenkegel, deren Achse parallel zur optischen Hauptachse verläuft. Wenn die Linse nur im Objektraum telezentrisch ist, erreichen die Strahlenkegel, die durch das optische System einfallen, den Detektor unter verschiedenen Winkeln, entsprechend der Position im Feld. Außerdem ist die optische Wellenfront vollkommen asymmetrisch, da die einfallenden telezentrischen Strahlen im Bildraum zu nicht-telezentrischen Strahlen werden. So kommt es, dass die durch die Strahlenkegel auf der Detektorebene generierten Punkte in Bezug auf Form und Abmessungen sich im Bildraum von Punkt zu Punkt ändern (die Punktspreizfunktion wird unsymmetrisch und ein kleiner runder Punkt wird größer und nimmt die Form einer Ellipse an, wenn man die Situation an den Bildrändern mit der der Bildmitte vergleicht). Schlimmer noch: Wenn das Objekt verstellt wird, generieren die Strahlen aus einem bestimmten Punkt des Feldes einen Punkt, der sich über die gesamte Bildebene vor und zurück bewegt, sodass es zu einer bedeutenden Änderung der Vergrößerung kommt. Aus diesem Grund weisen Objektive, die nicht bi-telezentrisch sind, eine geringere Vergrößerungskonstanz auf, obwohl ihre Telezentrie sehr gut ist, wenn man diese nur im Objektraum misst. XVI

19 Optiken Bi-telezentrische Objektive sind sowohl im Objekt- als auch im Bildraum telezentrisch. Das bedeutet, dass die Hauptstrahlen nicht nur bei ihrem Eintritt in die Linse parallel sind, sondern auch, wenn sie die Linse verlassen. Diese Eigenschaft ist grundlegend, um all die Präzisionsprobleme zu lösen, die bei mono-telezentrischen Objektiven auftreten, wie die Ungleichmäßigkeit der Punktspreizfunktion und die mangelnde Vergrößerungsstabilität über die gesamte Schärfentiefe. Detektor Detektor a) nicht bi-telezentrisch b) bi-telezentrisch Abb. 33: (a) Bei einer nicht bi-telezentrischen Linse (links) trifft der Strahlenkegel in verschiedenen Winkeln auf den Detektor. Abb. 33: (b) Bei einer bi-telezentrischen Linse (rechts) sind die Strahlenkegel parallel und erreichen den Bildsensor in einer Art, die von der Feldposition unabhängig ist. Mehr Schärfentiefe Schärfentiefe bedeutet das max. zulässige Versetzen eines Objekts, weg von der Position der besten Schärfe. Jenseits dieser Grenze wird die Bildauflösung gering, denn die vom Objekt einfallenden Strahlen sind nicht in der Lage, ausreichend kleine Punkte auf dem Detektor zu erzeugen. Unschärfen entstehen, weil die geometrische Information der Lichtstrahlen über zu viele Bildpixel verstreut wird. Die Schärfentiefe hängt im Wesentlichen von der Blendenzahl des Objektivs ab, die sich umgekehrt proportional zum Öffnungsdurchmesser verhält. Je höher die Blendenzahl, desto größer die Schärfentiefe, bei einer fast linearen Abhängigkeit. Bei Zunahme von F/# wird die Divergenz von Strahlenkegeln reduziert, sodass kleinere Punkte auf dem Detektor abgebildet werden. Wenn F/# jedoch über eine bestimmten Wert hinaus erhöht wird, kommt es zu Beugungseffekten, welche die max. erzielbare Auflösung begrenzen. Die Bi-Telezentrie sorgt für die Aufrechterhaltung eines sehr guten Bildkontrastes, auch, wenn sehr dicke Objekte betrachtet werden (siehe Abb. 34): Die Symmetrie des optischen Systems und die Parallelismen der Strahlen sorgen dafür, dass die Bildpunkte symmetrisch bleiben, wodurch der Unschärfe-Effekt reduziert wird. Das führt zu einer Schärfentiefe, die um etwa 20-30% höher liegt als bei nicht bitelezentrischen Optiken. Abb. 34: Bild eines dicken Objekts, das von einer bi-telezentrischen Linse über seine ganze Tiefe betrachtet wird. Gleichmäßige Detektorbeleuchtung Bi-telezentrische Objektive weisen eine sehr gleichmäßige Beleuchtung des Detektors auf, was bei verschiedenen Anwendungen sehr nützlich ist, so zum Beispiel bei der Qualitätskontrolle von LCD-Displays, Stoffen und Drucken (Abb. 35). Wenn dichroitische Filter für photometrische oder radiometrische Messungen in das optische System integriert werden müssen, stellt die Bi-Telezentrie sicher, dass die Achse des Strahlenfächers normal zu seiner Oberfläche auf den Filter trifft, wodurch ein optisches Übergreifen auf den gesamten Detektorbereich verhindert wird. Abb. 35: Eine bi-telezentrische Linse ist mit einem regulierbaren Filter kombiniert, um hoch auflösende Farbmessungen vornehmen zu können. Die bildseitige Telezentrie stellt sicher, dass der optische Bandfilter über die gesamte Filteroberfläche homogen ist und dem Detektor eine gleichförmige Beleuchtung liefert, vorausgesetzt das Objekt ist ebenfalls gleichförmig beleuchtet. XVII

20 Wie wählt man das richtige telezentrische Objektiv? Da telezentrische Linsen einen festen Arbeitsabstand und ein feste Apertur haben, werden sie nach ihrer Vergrößerung und ihres Bildkreises klassifiziert. Die Wahl des richtigen telezentrischen Objektivs ist einfach: Es gilt, die Vergrößerung zu finden, unter der das Bild zum Sensor passt. Beispiel. Es geht darum, die geometrische Beschaffenheit eines mechanischen Teils (Mutter) unter Einsatz eines telezentrischen Objektivs und eines 2048 x 2048, 5.5 µm Sensors zu überprüfen. Die Mutter ist in einen Kreis von 10 mm Durchmesser mit 2 mm Unbestimmtheit in Bezug auf die Position des Prüflings eingeschrieben. Was ist die beste Wahl? Unter Vorgabe der Kamera-Auflösung und der Pixelgröße (2048 x 2048 pix, 5.5 µm) werden die Abmessungen des Sensors mit x mm berechnet. Das Sichtfeld muss einen Kreis von 12 mm Durchmesser enthalten, daher ist die erforderliche Mindestvergrößerung 0.938X. Die telezentrischen TC23009-Objektive von Opto Engineering (M=1.000X, Bildkreis 11 mm) würden ein Sichtfeld von11.26 mm x mm ergeben, doch aufgrund der Vignettierung hat das tatsächliche Sichtfeld nur einen Kreis von 11 mm Durchmesser. In diesem Fall kann keine präzise Positionierung gewährleistet werden. Daher ist ein Objektiv mit einer geringeren Vergrößerung oder einem größeren Bildkreis zu wählen. Mit dem TC2MHR016-x-Objektiv von Opto Engineering (M=0.767X, Bildkreis 16.0 mm) ist dagegen ein Sichtfeld von x mm gegeben, was sehr gut zu unserer Situation passt. UV TELEZENTRISCHE OPTIKEN Da die Beugungsgrenze eine höhere Auflösung bei kürzeren Wellenlängen zulässt (siehe Abb. 36), können UV-Optiken im Vergleich zu Standard- Linsen bessere Ergebnisse erzielen, und sie können leistungsstark mit Pixeln mit einer Größe von 1.75 µm arbeiten. So arbeiten zum Beispiel die telezentrischen Objektive der TCUV-Serie im nahen UV-Bereich. Sie erzielen eine extrem hohe Auflösung für äußerst anspruchsvolle Messanwendungen. Kontrast 100% 80% 60% 40% VIS-Objektiv UV-Objektiv Grenzfrequenz, VIS Grenzfrequenz, UV 20% 0% Ortsfrequenz (Linienpaare/mm) Abb. 36: Der Graph zeigt die Grenzleistungen (Beugungsgrenze) von zwei Linsen mit effektiver Blendenzahl F/# 8. Standardlinsen arbeiten bei 587 nm (grünes Licht), die UV-Linsen dagegen bei 365 nm. XVIII

21 Optiken Warum haben telezentrische Objektive von Opto Engineering keine Blende eingebaut? Unsere TC-Objektive haben keine Blende, doch wir können die Apertur auf Anfrage problemlos vor dem Versand der Linse einstellen, ohne jegliche Mehrkosten oder Verzögerungen für den Kunden. Die Gründe, unsere Linsen keine Blenden haben, sind so zahlreich, dass man sich eher fragen sollte, warum andere Hersteller überhaupt Blenden einbauen: Durch den Einbau einer Blende wird eine Linse teurer, und das durch eine Funktion, die nur ein- oder zweimal während der gesamten Lebensdauer des Produkts genutzt wird. Durch den Einbau einer Blende wird die Präzision des Mechanismus beeinflusst, die optische Ausrichtung verschlechtert sich. Wir wären nicht in der Lage, die Linse mit derselben Apertur zu testen, die der Kunde gebrauchen wird. Die Position der Blende ist wesentlich weniger genau als die Apertur eines Metallblechs, das bedeutet eine starke Beeinträchtigung der Telezentrie. Die Geometrie der Blende ist polygonal, nicht kreisförmig. Dadurch wird die Neigung des Hauptlichtstrahls im Sichtfeld verändert, was wiederum eine Auswirkung auf die Verzeichnung und Auflösung der Linse hat. Eine Irisblende kann nicht so gut zentriert werden wie feste, runde Blenden. Und die korrekte Zentrierung ist grundlegend für eine gute Telezentrie der Linse. Nur eine runde, feste Apertur bringt dieselbe Helligkeit für alle Linsen. Eine einstellbare Irisblende ist normalerweise nicht flach. Dadurch kann die Stopp-Position nicht eindeutig eingehalten werden, was dagegen beim Einsatz telezentrischer Objektive grundlegend ist. Eine Irisblende ist ein sich bewegendes Teil, das in den meisten industriellen Umgebungen eine Gefahrenquelle darstellt. Erschütterungen könnten sich leicht auf die Mechanik auswirken oder die Öffnung der Linse verändern. Die Einstellung der Blende kann ungewollt vom Benutzer geändert werden, damit würde es zu Änderungen an der ursprünglichen Systemkonfiguration kommen. Die Endanwender bevorzugen es, weniger Optionen zu haben und nur ein paar Einstellungen in einem Bildverarbeitungssystem vornehmen zu müssen. Geringere Aperturen als die, die von OE als Standard geliefert werden, haben keinen Sinn, da sich die Auflösung aufgrund der Beugungsgrenze verschlechtern würde. Andererseits würden wesentlich weitere Aperturen zu einer Reduzierung der Schärfentiefe führen. Die Standard-Apertur der OE-Linsen ist also so gewählt, dass Bildauflösung und Schärfentiefe optimiert werden. Warum haben die telezentrischen OE-Objektive keinen Fokussierungsmechanismus? Wie bei der Blende würde ein Fokussierungsmechanismus ein weiteres Element im beweglichen Teil der Linse darstellen, wodurch das Zentrieren des optischen Systems schwieriger wird und es außerdem zu einer trapezförmigen Verzeichnung kommen würde. Ein weiteres Problem ist die Radialverzeichnung: Die Verzeichnung einer telezentrischen Linse kann nur dann gering gehalten werden, wenn die Abstände zwischen den optischen Komponenten auf bestimmte Werte festgesetzt sind. Wenn irgendeine der Komponenten ihre korrekte Position verlässt, würde das Phänomen der Verzeichnung der Linse zunehmen. Ein Fokussiermechanismus macht das Positionieren der Linsen im optischen System unsicher, der Verzeichnungswert wäre unbekannt. Die Verzeichnung würde sich von den Werten unterscheiden, die im Rahmen unseres Qualitätskontrollprozesses gemessen wurden. XIX

22 360 -OPTIKEN Viele Bildverarbeitungsanwendungen erfordern die Rundumansicht der Oberfläche eines Objekts, da es gilt, zahlreiche Einzelheiten zu inspizieren, die sich eher an den Seiten des Objektes als auf seiner Oberseite befinden. Die meisten zylindrischen Objekte wie Flaschen und Behälter wie auch zahlreiche mechanische Teile verlangen eine Inspektion der Seitenflächen auf Kratzer und Unreinheiten, oder weil Strichcodes eingelesen werden sollen bzw. sicherzustellen ist, dass das Etikett korrekt gedruckt wurde. Der übliche Ansatz in diesen Fällen besteht darin, mehrere Kameras (meist 3 oder 4) einzusetzen, um zusätzlich zur Ansicht seiner Oberseite Ansichten von mehreren Seiten des Teils zu erhalten. Mit dieser Lösung steigen die Kosten des Systems. Außerdem kommt es oft zu Engpässen in der Leistung des Systems, weil die Elektronik oder Software mehrere Bilder von verschiedenen Kameras gleichzeitig verarbeiten muss. In anderen Fällen ziehen die Ingenieure der Bildverarbeitung vor, die Außenoberflächen mit Zeilenkamerasystemen einzuscannen. Aber auch dieser Ansatz hat zahlreiche technische Nachteile und ist zudem kostspielig. Das Objekt muss innerhalb des Sichtfeldes mechanisch gedreht werden, was sich auch auf die Geschwindigkeit der Inspektion auswirkt. Außerdem benötigen Zeilenkameras eine sehr helle Beleuchtung. Zudem verstärkt das große Format der Zeilendetektoren die optische Vergrößerung des Systems, was zu einer Verringerung der Schärfentiefe führt. Die Kategorie der 360 -Optiken umfasst verschiedene optische Lösungen, durch die die vom Objekt ausgehenden Strahlen erfasst werden (siehe Abb. 37). Damit wird nicht nur die Objektoberfläche vor dem Objektiv erfasst, sondern auch die Seitenflächen (siehe das nachstehende optische Diagramm). Die folgenden Bilder zeigen das Funktionsprinzip einer perizentrischen Linse (PC), einer katadioptrischen Linse (PCCD), einer Lochinspektionslinse (PCHI) und einer Boroskop-Linse (PCPB). Andere Lösungen mit 360 -Optiken kombinieren telezentrische Objektive mit einer Reihe von Spiegeln, sodass eine komplette Ansicht des Prüflings mit nur einer Kamera möglich ist (TCCAGE, PCPW und PCMP-Serie). Konvergierende Strahlen Eintrittspupille Abb. 37: Perizentrische Linse. Die Eintrittspupille ist auf der Vorderseite der Linse lokalisiert. Durchmesser Abb. 38: Opto Engineering PC: optisches Schema es Objektivs, Bild des Prüflings und Abwicklung. Abb. 39: Opto Engineering PCCD: optisches Schema, Bild des Prüflings und Abwicklung. XX

23 Optiken Abb. 40: Opto Engineering PCHI: optisches Schema, Bild des Prüflings und Abwicklung. Abb. 41: Opto Engineering PCPB: optisches Schema, Bild des Prüflings und Abwicklung. Abb. 42: Opto Engineering TCCAGE: optisches Schema und Bild des Prüflings. Abb. 43: Opto Engineering PCPW: optisches Schema und Bild des Prüflings. Abb. 44: Opto Engineering PCMP: optisches Schema und Bild des Prüflings. MAKROOBJEKTIVE Makroobjektive sind Fixfokus-Linsen, deren Arbeitsabstand mit ihrer Brennweite vergleichbar ist. Der empfohlene Arbeitsabstand vom Objekt ist gewöhnlich festgelegt, da Makroobjektive normalerweise durch ihre Vergrößerung definiert werden. Da Makroobjektive speziell entworfen wurden, um kleine und fixe Sichtfelder abzubilden, weisen sie meistens eine extrem geringe geometrische Verzeichnung auf. Zum Beispiel liegt die Verzeichnung der Objektive der Opto Engineering MC-Serie zwischen <0.05% und <0.01%. XXI

24 FIXFOKUS-OBJEKTIVE Fixfokus-Objekte sind entozentrische Linsen, d.h. sie erfassen Strahlen, die von der optischen Achse abweichen (siehe Abb. 45). Fixfokus-Objektive sind häufig verwendete Optiken bei der Bildverarbeitung. Sie sind preisgünstig und eignen sich gut für Standardanwendungen. Anhand ihrer Basisparameter (Brennweite und Sensorgröße) lassen sich das Sichtfeld und der Arbeitsabstand leicht berechnen. Der Fokus kann von einem Mindestarbeitsabstand bis auf Unendlich eingestellt werden. Gewöhnlich wird auch die Blende mechanisch gesteuert, sodass die Blendenzahl der Linse eingestellt werden kann und damit die Lichtintensität, die Schärfentiefe und die Auflösung. Beispiel: Eine Keramikkachel (100 x 80 mm) soll mit einer Fixfokus-Linse aus einem Abstand von 200 mm geprüft werden. Welche Linse würden Sie wählen? Der Kamerasensor hat eine Auflösung von 2592 x 1944 mit 2.2-µm-Pixeln. Die Grundgleichung für Linsen ist: damit: 1/s (+) 1/s (-) = 1/f(+) M = h /h = s /s 1/s ( h/h - 1 ) = 1/f Divergierende Strahlen Eintrittspupille also oder demzufolge und auch WD = - s = - f ( h/h - 1 ) f = s / ( h/h - 1 ) h = h ( 1 + s/ f ) Abb. 45: Eine entozentrische Optik nimmt von der Linse divergierende Strahlen auf. Fixfokus-Linsen sind preisgünstig und vielseitig, aber sie eignen sich nicht für alle Anwendungen. Gewöhnlich führen sie zu signifikanten perspektivischen Abbildungsfehlern und Verzeichnungen, was bei Präzisionsmessungen nicht vorkommen darf. Da Blende und Fokus per Hand eingestellt werden können, sind diese Linsen aufgrund dieser Mechanik nicht für Anwendungen geeignet, die konstante und wiederholbare Einstellungen erfordern. wobei zu bedenken ist, dass s und h (Position des Objekts in Bezug auf die Linse und Bildhöhe) üblicherweise negativ sind, während f und h (die Brennweite und die Objekthöhe) üblicherweise positiv sind. In der Bildverarbeitung wird mit h auch der Höchstwert für das gewünschte Sichtfeld bezeichnet, während h die kurze Seite des Sensors ist, um sicherzustellen, dass das erforderliche Mindestsichtfeld abgedeckt ist. Bei Vorgabe der Sensorauflösung und der Pixelgröße kann die Sensorgröße berechnet werden. Angesetzt wird h = mm und h = 100 mm. Damit ergibt sich bei einem s -Wert = 200 ein f -Wert von 8.2 mm. Mit einer 8 mm-standardlinse würde man also ein etwas weiteres Sichtfeld abdecken (137 x 102 mm). Verlängerungsrohre Bei den meisten Standard-Linsen ist der Arbeitsabstand (WD) kein fester Parameter. Der Fokussierungsabstand kann mit Hilfe eines spezifischen Knopfes geändert werden. Dennoch gibt es immer einen Mindestobjektabstand (MOD), unter dem die Fokussierung unmöglich wird. Bei Verwendung eines Verlängerungsrohres (siehe Abb. 46), das zwischen der Linse und der Kamera eingesetzt wird, nimmt die hintere Schnittweite zu, wodurch eine Reduzierung des MOD möglich ist. Außerdem nimmt damit auch die Vergrößerung der Linse zu, während das Sichtfeld reduziert wird. Obwohl dieses Verfahren in der bildverarbeitenden Industrie sehr häufig verwendet wird, sollte es möglichst vermieden werden, denn dadurch verschlechtern sich die Leistungen der Linse (Auflösung, Verzeichnung, Aberration, Helligkeit usw.). In diesen Fällen wird empfohlen Linsen einzusetzen, die von Anfang an für einen Einsatz bei kurzem Arbeitsabstand entwickelt wurden (Makrolinsen). Abb. 46: Verlängerungsrohre für Fixfokal-Linsen. XXII

25 Optiken VARIOFOKUS-OBJEKTIVE Variofokus-Objektive sind Linsen mit veränderlicher Brennweite, die eingestellt werden können, indem Einheiten optischer Elemente innerhalb der Linse relativ zueinander verschoben werden. Dank der veränderlichen Brennweite sind zahlreiche Kombinationen von Arbeitsabständen und Vergrößerungen möglich, sodass mit einem einzigen Objektiv mehrere verschiedene Konfigurationen möglich sind. Variofokus-Objektive haben dieselben Probleme in Bezug auf die Zuverlässigkeit wie Fixfokus-Linsen, wobei zudem durch die Bewegung der optischen Einheiten innerhalb des Aufbaus noch ein größerer Unsicherheitsfaktor hinzukommt. ZOOM-OBJEKTIVE Zoom-Objektive (Parfokal-Objektive) sind eine besondere Art von Variofokus-Objektiven, bei denen der Arbeitsabstand konstant gehalten wird, wenn sich die Brennweite ändert (d.h. der Fokus wird über den gesamten Prozess aufrecht erhalten). Eigentlich wird ein Zoomobjektiv allgemein als eine Linse definiert, welche die Vergrößerung ohne Änderung ihres Arbeitsabstands ändern kann: Zu dieser Kategorie gehören auch Makro-Zooms (z.b. Opto Engineering MCZR und MZMT) sowie telezentrische Zoom-Objektive (Opto Engineering TCZR). SCHEIMPFLUG-OPTIKEN Scheimpflug-Objektive sind eine besondere Klasse von Objektiven, wobei es sich um Fixfokus-, Makro- oder telezentrische Linsen handeln kann, die entwickelt wurden, um dem Scheimpflug-Kriterium zu entsprechen. Angenommen, die Objekt-Ebene einer optischen Anordnung verläuft nicht parallel zur Bildebene (etwa ein Kamera-Linsen-System, das ein flaches Ziel mit einem Winkel von 45 abbilden soll): Dadurch wird das Bild nur dort scharf, wo sich die Fokus-Ebene und die Ziel-Ebene überschneiden. Da die Bild- und die Objekt-Ebene konjugierte Ebenen sind, wird bei einem Neigen der ersten Ebene mit einem gewissen Winkel auch das Neigen letzterer um einen entsprechenden Winkel verursacht. Wenn Fokus-Ebene und Ziel-Ebene aneinander ausgerichtet sind, wird die Schärfe über das gesamte Bild wiederhergestellt. Der Winkel, um den die Sensorebene geneigt werden muss, wird durch das Scheimpflug-Kriterium angegeben: tan(θ ) = M tan(θ) θ = atan(m tan(θ)) wo M die Vergrößerung der Linse ist, θ der Neigungswinkel der Bildebene (d.h. auf der Sensorseite) und θ der Neigungswinkel der Objekt-Ebene. Es ist klar, dass dieser Zustand bei einer großen Vergrößerung nicht erreicht werden kann, da eine Neigung der Objekt-Ebene um 45 eine Neigung des Sensors um 80 erfordern würde, was mit bedeutenden mechanischen Schwierigkeiten und Vignettierungsproblemen verbunden wäre (siehe Abb. 47, wo M = 5 schwarz, M=1 blau, M=0.25 rot) Sensorwinkel M=5 60 M= M=0.25 Objektwinkel Abb. 47: Beziehung zwischen dem Objekt- (θ) und dem Sensorwinkel (θ ) bei verschiedener Vergrößerung M. Die Neigung der Bildebene wird praktisch durch die Änderung des Kamerawinkels in Bezug auf das Objektiv erreicht, wobei ein spezieller neigbarer Mount eingesetzt wird. Das Bild unten zeigt ein Beispiel einer telezentrischen Scheimpflug-Anordnung. Abb. 48: Beispiel einer telezentrischen Scheimpflug-Anordnung. XXIII

26 IR-OPTIKEN Bei der Bildverarbeitung ist eine ganze Anzahl interessanter und hochtechnologischer Anwendungen von IR-Strahlungen zu finden. In einigen Bereichen des Spektrums erfordert der Abbildungsprozess spezifisch entwickelte Linsen, die als IR-Optiken bezeichnet werden. Alle Objekte mit einer absoluten Temperatur über 0 K emittieren Infrarot (IR) -Strahlung. Die Infrarot-Strahlungsenergie wird durch die Temperatur und das Emissionsvermögen eines Objekts bestimmt und ist durch Wellenlängen im Bereich von 0,76 µm (dem roten Ende des sichtbaren Bereichs) bis 1000 µm (Anfang Mikrowellen-Bereich) gekennzeichnet. Je höher die Temperatur eines Objekts, desto höher die spektrale Strahlungsenergie oder Emittanz bei allen Wellenlängen und umso kürzer die Peakwellenlänge der Emissionen. Aufgrund der Beschränkungen im Detektorbereich wird IR-Strahlung häufig auf der Basis der Reaktion von verschiedenen Detektoren in drei kleinere Bereiche geteilt. SWIR ( μm) wird auch der «reflektierte Infrarot»-Bereich genannt, da von einer Lichtquelle kommende Strahlung durch das Objekt in ähnlicher Weise wie im sichtbaren Bereich reflektiert wird. Die SWIR Bildgebung erfordert eine Art Beleuchtung, um ein Objekt abzulichten, und kann nur durchgeführt werden, wenn etwas Licht, wie Umgebungsmondlicht oder Sternenlicht vorhanden ist. In der Tat ist der SWIR Bereich geeignet für Outdoor-Nachtzeit-Bildgebung. SWIR Abbildungslinsen sind speziell entworfen, optimiert und mit Antireflex-Beschichtung für SWIR Wellenlängen versehen. Indium-Gallium-Arsenid (InGaAs) Sensoren sind die primären in SWIR verwendeten Sensoren und decken die typische SWIR-Bandbreite ab, können aber von µm und bis zu 2.5 µm erweitert werden. Eine große Anzahl von mit sichtbarem Licht schwer oder gar nicht ausführbaren Anwendungen sind unter Verwendung von SWIR InGaAs-basierten Kameras möglich: zerstörungsfreie Identifizierung von Materialien, deren Zusammensetzung, Beschichtungen und anderen Merkmalen, Inspektion von Platinen und Solarzellen, Identifikation und Sortierung, Überwachung, Anti- Produktpiraterie, Prozessqualitätskontrolle usw. Bei Abbildungen in SWIR sind Wasserdampf, Nebel und bestimmte Materialien wie Silizium transparent. Zudem können fast identische Farben unter Verwendung von SWIR einfach unterschieden werden. MWIR (3-5 μm) und LWIR (8-14 μm) Bereiche werden auch als "thermisches Infrarot" bezeichnet, da Strahlung von dem Objekt emittiert wird und keine externe Lichtquelle für die Abbildung des Objekts benötigt wird. Zwei wesentliche Faktoren bestimmen, wie hell ein Objekt für eine Wärmebildkamera erscheint: die Objekttemperatur und seine Emissivität (eine physikalische Eigenschaft von Materialien, die beschreibt, wie effizient es ausstrahlt). Wenn ein Objekt heißer wird, strahlt es mehr Energie aus und erscheint bei einem Wärmebildsystem heller. Atmosphärische Verdunkelungen verursachen viel weniger Streuung in den MWIR- und LWIR-Bändern als im SWIR-Band, sodass für diese längeren Wellenlängen empfindliche Kameras sehr tolerant gegenüber Rauch, Staub und Nebel sind. MWIR sammelt das Licht im 3 µm bis 5 µm Spektralband. SWIR-Kameras werden eingesetzt, wenn das primäre Ziel der Erhalt von Bildern hoher Qualität und nicht Temperaturmessung und Mobilität ist. Das MWIR-Band des Spektrums ist der Bereich, in dem der thermische Kontrast aufgrund der Schwarzkörper-Physik höher ist; während im LWIR-Band im Gegensatz zum MWIR-Band mehr Strahlung von terrestrischen Objekten emittiert wird, variiert die Menge an Strahlung weniger aufgrund der Temperatur: aus diesem Grund liefern MWIR-Bilder im Allgemeinen einen besseren Kontrast als LWIR. Beispielsweise treten die Emissionsspitzen von heißen Motoren und Abgasen im MWIR-Band auf, sodass diese Kameras besonders empfindlich auf Fahrzeuge und Flugzeuge reagieren. Die Hauptdetektormaterialien im MWIR sind InSb (Indium-Antimonid) und HgCdTe (Quecksilber-Cadmium-Tellurid), auch als MCT bezeichnet und teilweise Blei-Selenid (PbSe). LWIR sammelt das Licht im 8 µm bis 14 µm Spektralband und ist der Wellenlängenbereich mit den meisten verfügbaren Wärmebildkameras. Nach dem Planckschen Gesetz emittieren terrestrische Ziele in der Tat vor allem im LWIR. LWIR-Systemanwendungen umfassen Thermografie-/ Temperatursteuerung, vorbeugende Instandhaltung, Gasleck-Erkennung, Bildgebung von Szenen, die sich über einen sehr weiten Temperaturbereich erstrecken (und einen großen Dynamikbereich erfordern), Bildgebung durch dichten Rauch usw. Die beiden am häufigsten verwendeten Materialien für ungekühlte Detektoren im LWIR sind amorphes Silizium (a-si) und Vanadiumoxid (VOx), während gekühlte Detektoren in diesem Bereich in erster Linie HgCdTe sind. Athermalisierung. Jedes Material ist durch einen bestimmten Temperaturausdehnungskoeffizienten gekennzeichnet und reagiert auf Temperaturveränderungen entweder durch Erhöhung oder Verringerung seiner physischen Abmessungen. Somit kann Wärmeausdehnung von optischen Elementen die optische Leistung des Systems verändern und Defokussierung aufgrund einer Temperaturänderung verursachen. Ein optisches System ist athermalisiert, wenn seine kritischen Leistungsparameter (wie Modulationstransferfunktion, Schnittweite, Brennweite,...) sich nicht wesentlich über den Betriebstemperaturbereich hinaus ändern. Athermalisierungstechniken können entweder aktiv oder passiv sein. Aktive Athermalisierung benutzt Motoren oder andere aktive Systeme zur mechanischen Einstellung der Position der Linsenelemente, während passive Athermalisierung Techniken zur Kompensation für die thermische Defokussierung verwendet, indem gezielt ausgewählte Linsenmaterialien und Optikleistungen kombiniert werden (optische Kompensation), oder durch Expansionsstangen mit sehr unterschiedlichen Wärmeausdehnungskoeffizienten, die mechanisch ein Linsenelement verschieben, sodass das System im Fokus bleibt (mechanische Kompensation). XXIV

27 Beleuchtung Die Beleuchtung ist eine der kritischsten Komponenten bei einem Bildverarbeitungssystem. Die Wahl der passenden Beleuchtung für eine bestimmte Anwendung ist sehr wichtig, um sicherzustellen, dass das Bildverarbeitungssystem seine Aufgaben regelmäßig und zuverlässig erfüllt. Der wichtigste Grund dabei ist, dass eine ungeeignete Beleuchtung zu einem Verlust an Daten führt, der in den meisten Fällen auch über die Software nicht wiederhergestellt werden kann. Eben deshalb ist die Wahl und die Qualität der Beleuchtungskomponenten von erstrangiger Bedeutung. Es gibt keinen Software-Algorithmus, der in der Lage wäre, Eigenschaften zu entdecken, die nicht korrekt beleuchtet werden. Um die richtige Wahl zu treffen, sind viele Parameter in Betracht zu ziehen, so zum Beispiel: die Beleuchtungsgeometrie die Art der Lichtquelle die Wellenlänge die Oberflächeneigenschaften des zu inspizierenden oder zu messenden Materials (z.b. Farbe, Reflektivität) die Form des Gegenstandes die Geschwindigkeit des Gegenstandes (Inline- oder Offline-Anwendung) mechanische Auflagen Umweltaspekte Kosten Da viele Parameter in Betracht zu ziehen sind, kann die Wahl schwierig werden, und manchmal ist es am besten, Machbarkeitsuntersuchungen mit verschiedenen Lichttypen zu machen um zu sehen, welche davon die Eigenschaften, die interessieren, hervorheben können. Auf der anderen Seite gibt es eine Reihe einfacher Regeln und Praktiken, die dabei helfen können, die richtige Beleuchtung zu wählen und die Qualität des Bildes zu verbessern. Bei jeder Anwendung sind die Hauptzielsetzungen folgende: 1. Der Kontrast der Eigenschaften, die inspiziert oder gemessen werden sollen, ist zu maximieren. 2. Der Kontrast der Eigenschaften, die nicht interessieren, ist zu minimieren. 3. Es gilt, unerwünschte Veränderungen auszuschalten, die verursacht werden durch: a. Umgebungslicht b. Unterschiede zwischen den Artikeln, die für die Inspektionsaufgabe irrelevant sind.

28

29

30 Licht beim maschinellen Sehen Bei der Bildverarbeitung ist das Licht meistens durch seine Wellenlänge gekennzeichnet, die im Allgemeinen in nm (Nanometern) ausgedrückt wird. Grundsätzlich ist Licht eine elektromagnetische Strahlung innerhalb eines bestimmten Bereichs des elektromagnetischen Spektrums (siehe Abb. 1). Es kann fast monochromatisch sein (d.h. es ist durch ein enges Wellenlängenband gekennzeichnet, z.b. eine einzige Farbe) oder weiß (über das gesamte sichtbare Spektrum verteilt, d.h. es enthält alle Farben). Das für das menschliche Auge sichtbare Licht hat Wellenlängen im Bereich nm, der zwischen dem infraroten (mit längeren Wellenlängen) und dem ultravioletten Bereich (mit kürzeren Wellenlängen) liegt. Bei bestimmten Anwendungen könnten IR- oder UV-Lichtquellen anstatt des sichtbaren Lichtes erforderlich werden. UV SICHTBAR INFRAROT 1000 RÖNTGENSTRAHLEN MIKROWELLEN SWIR - Kurzwellen- Infrarotlicht MWIR - Mittelwellen- Infrarotlicht LWIR - Langwellen- Infrarotlicht Abb. 1: Elektromagnetisches Spektrum. XXVIII

31 Beleuchtung Grundsätzlich interagiert Licht mit den Materialien (Abb. 2), indem es reflektiert und/oder durchgelassen und/oder absorbiert Außerdem wird das Licht gebrochen, wenn es durch die verschiedenen Medien tritt, d.h. es ändert seine Richtung. Das Ausmaß der Lichtbrechung verhält sich umgekehrt proportional zur Wellenlänge, d.h. violette Lichtstrahlen werden stärker gebrochen als rote. Reflektiert Emittiert wird Durchgelassen Das bedeutet, dass Licht mit kurzen Wellenlängen leichter gestreut wird als Licht mit langen Wellenlängen, wenn es auf eine Oberfläche trifft, und somit, allgemein gesprochen, besser für Oberflächeninspektionen geeignet ist. Wollte man nun die Wellenlänge idealerweise als den einzigen Parameter aus der obigen Liste für eine Entscheidung heranziehen, dann wird blaues Licht für Anwendungen empfohlen, bei der das Objekt auf Kratzer untersucht wird, während sich rotes Licht (längere Wellenlängen) besser eignet, wenn die Umrisse eines transparenten Material hervorgehoben werden sollen. Einfallend Absorbiert Abb. 2: Wechselwirkung zwischen Licht und Materie: Reflexion, Absorption und Transmission. LED-Beleuchtung Es gibt viele verschiedene Arten verfügbarer Lichtquellen (Abb. 3), darunter die folgenden: Glühlampen Leuchtstofflampen LED-Leuchten LED-Leuchten werden weitaus am häufigsten bei der Bildverarbeitung eingesetzt, denn sie bieten eine Anzahl an Vorzügen wie: schnelle Reaktion geeignet für den Puls- und den Strobe-Betrieb mechanisch widerstandsfähig lange Lebensdauer, höhere Ausgabestabilität problemloses Einrichten verschiedener Lichtgeometrien Relative Intensität (%) Quecksilber Quartz Halogen / Wolfram Tages-Sonnenlicht 0.8 Fluoreszierend 0.6 Xenon Weiß LED Rot LED Wellenlänge (nm) Abb. 3: Emissionsspektren verschiedener Lichtquellen. Glühlampen sind die bekannten gläsernen Birnen, die bei niedrigem Druck mit inertem Gas (gewöhnlich Argon) gefüllt werden und in denen sich ein dünner weißer Draht befindet (Wolfram), der auf hohe Temperaturen gebracht wird, indem elektrischer Strom durch den Draht geschickt wird. Das glühende Metall gibt Licht auf einem breiten Spektrum ab, das von 400 nm bis zum IR-Licht geht. Das Ergebnis ist ein weißes, warmes Licht (einer Temperatur von 2870 K entsprechend), wobei auch eine bedeutende Menge an Wärme erzeugt wird. Leuchtstofflampen sind Vakuumröhren, in denen zuerst UV-Licht erzeugt wird (durch die Wechselwirkung zwischen Quecksilberdämpfen und hoch energetischen, von einer Kathode erzeugten Elektronen), das dann von den Wänden der Röhre absorbiert wird, die mit einem fluoreszierenden und phosphoreszierenden Material beschichtet sind. Die Wände geben dieses Licht dann wieder über ein Spektrum ab, das wiederum den gesamten sichtbaren Bereich abdeckt, wobei es sich um eine kältere weiße Lichtquelle handelt. LEDs (Licht emittierende Dioden) erzeugen Licht durch die Zerstrahlung eines Elektron-Loch- Paares in einen positiven/negativen Übergang eines Halbleiterchips. Das von einer LED erzeugte Licht hängt von den Materialien ab, die im Chip verwendet wurden, wobei dieses Licht durch ein enges Spektrum gekennzeichnet ist, d.h. es ist fast monochromatisch. Das weiße Licht wird wie bei den Leuchtstofflampen erzeugt, aber das blaue Licht wird absorbiert und erneut mit einem breiten Spektrum abgegeben, mit Höchstwerten im blauen Bereich. XXIX

32 LED Spannungsversorgung und Leistung Eine LED-Leuchte kann entweder gesteuert werden, indem die Spannung V durch den Stromkreis geschickt wird, oder indem der Stromkreis direkt mit elektrischem Strom I gespeist wird. Eine wichtige Überlegung ist dabei, dass sich der von einer einzigen LED erzeugte Lichtfluss bei Steigerung des Stromes praktisch linear steigert, während das nicht der Fall ist, wenn Spannung durch den Stromkreis geschickt wird: Ein 1%-iger Fehler des Steuerstroms führt zu einem 1%- igen Fehler bei der Luminanz, während ein 1%-iger Fehler bei der Spannung zu einem mehrprozentigen Fehler bei der Luminanz führen kann (Abb. 4). Aus diesem Grund wird empfohlen, direkt den Strom zu steuern und nicht die Spannung, sodass das abgegebene Licht stabil ist, genau gesteuert wird und ausgezeichnet wiederholbar ist. Durchlassstrom (ma) Durchlassspannung im Vergleich zu Durchlassstrom Durchlassspannung (V) Durchlassstrom im Vergleich zum relativen Lichtfluss So ist es zum Beispiel bei Messanwendungen von vorrangiger Bedeutung, Bilder mit einem stabilen Grauton-Hintergrund zu erhalten, um die Einheitlichkeit der Ergebnisse gewährleisten zu können. Das kann erreicht werden, indem Lichtflackern ausgeschlossen und sichergestellt wird, dass der LED-Durchlassstrom des telezentrischen Lichtes genau gesteuert wird. Darum haben die telezentrischen LTLCHP-Leuchten von Opto Engineering eine eingebaute Elektronik, die dafür sorgt, dass bei der Intensität des Durchlassstroms keine Fehler von bzw. über 1% auftreten, womit eine sehr stabile Leistung erreicht wird, Relativer Lichtfluss (a.u.) Durchlassstrom (ma) LED Puls- und Strobe-Betrieb Abb. 4: LED Strom, Spannung und Lichtausgabekurve. LEDs können problemlos im Puls-Betrieb (ein/aus) gesteuert werden, sie können in Sequenz ein- und ausgeschaltet werden und nur dann eingeschaltet werden, wenn es nötig ist. Der Pulsbetrieb bei LEDs bietet zahlreiche Vorteile, einschließlich die Verlängerung ihrer Lebensdauer. Wenn der Steuerstrom (bzw. die Steuerspannung) der LED auf den vom LED-Hersteller für den Dauerbetrieb angegebenen Sollwert eingestellt ist, können wir von Pulsbetrieb sprechen: Die LED wird einfach ein- und ausgeschaltet. LEDs können auch mit höheren Intensitäten als den Sollwerten gesteuert werden (Übersteuerung). Dadurch wird mehr Licht erzeugt, aber nur für eine bestimmte Zeitdauer. Diese Art des Betriebs wird als Strobe-Betrieb bezeichnet. Strobing wird immer dann erforderlich, wenn die Anwendung eine gesteigerte Lichtmenge benötigt, um die Bewegung eines sich schnell bewegenden Objekts einzufrieren. Auf diese Weise wird der Einfluss des Umgebungslichtes ausgeschaltet, die Lebensdauer der LED beibehalten und die ON-Zeit des Lichtes (Ton) mit der Kamera und dem zu inspizierenden Objekt synchronisiert. Für den korrekten Strobe-Betrieb einer LED-Leuchte sind verschiedene Parameter in Betracht zu ziehen (Abb. 5 und 6): t on max Auslösesignal T t off Abb. 5: Parameter des Betriebszyklus. Auslösesignal Max. Pulsbreite oder ON-Zeit (t on max ): der maximale Zeitraum, für den die LED bei maximalem Durchlassstrom eingeschaltet sein kann. Der Betriebszyklus D wird definiert als (gewöhnlich in % ausgedrückt): Erfassungszeit Kamera erfassend t on Erfassungszeit Kamera erfassend t on D = t on /(t on +t off ) wobei t off die Zeitdauer darstellt, für die die LED-Leuchte ausgeschaltet ist, und T = t on +t off die Zyklusperiode. Der Betriebszyklus gibt den Anteil der Zykluszeit, während dem die LED eingeschaltet sein kann, in % an. Die Periode T kann auch als Zyklushäufigkeit f = 1/T, angegeben in Hertz (Hz) ausgedrückt werden. LED im Strobe-Betrieb Lichtausgabe t off Konstante Lichtausgabe der LED Abb. 6: Auslöser und Strobe-Betrieb. LED im Strobe-Betrieb Lichtausgabe Zeit XXX

33 Beleuchtung LED Lebensdauer Die Lebensdauer einer LED wird als die Zeit definiert, innerhalb der die Luminanz der LED bei einer Umgebungstemperatur von 25 C auf 50% ihrer anfänglichen Luminanz absinkt. Zeilengeschwindigkeit, Strobing und Belichtungsdauer Wenn es um Online-Anwendungen geht, sind verschiedene wichtige Parameter in Betracht zu ziehen. So muss die Belichtungsdauer der Kamera - in Abhängigkeit von der Geschwindigkeit des Objekts und der Schärfe des Bildes, die für die jeweilige Anwendung verlangt wird - immer so klein wie möglich gehalten werden, um die Bewegung einzufrieren und Unschärfen zu vermeiden. Zudem sind schwarze und matte Objekte, die dazu tendieren, das Licht zu absorbieren anstatt es zu reflektieren, besonders kritisch. Nehmen wir an, dass wir ein sich mit einer Geschwindigkeit v o bewegendes Objekt unter Einsatz einer Linse mit einer Vergrößerung m und einer Kamera mit einer Pixelgröße p untersuchen wollen. Die Geschwindigkeit des Objekts auf dem Sensor wird m-mal v o betragen: v i = m v o, Damit beträgt der Weg, den das Objekt x i während der Belichtungsdauer t zurückgelegt hat, x i = v i t. Wenn dieser Weg größer als die Pixelgröße ist, wird das Objekt über eine bestimmte Anzahl von Pixeln unscharf erscheinen. Angenommen, wir können eine Unschärfe von 3 Pixeln akzeptieren: Anders gesagt, verlangen wir, dass sodass die Belichtungsdauer t der Kamera folgende sein muss: x i = v i t = m v o t < 3 p t < 3 p / (m v o ) Bei folgenden Werten: p = 5.5 µm, m = 0.66, v o = 300 mm/s (d.h. eine Geschwindigkeit von Proben/h bei einem 100 mm Sichtfeld) darf die maximale Belichtungsdauer t = 83 µs betragen. Bei einer solchen Geschwindigkeit ist das von einer LED-Leuchte im Dauerbetrieb abgegebene Licht kaum genug, sodass der Impulsbetrieb (Strobing) für eine ebenso kurze Zeitdauer die beste Lösung ist. Ein anderer Parameter, der eingestellt werden kann, um mehr Licht in das System zu bringen, ist die Blendenzahl F/#: Bei einer geringeren Blendenzahl tritt mehr Licht ein, doch gleichzeitig wird damit auch die Schärfentiefe des gesamten Systems verringert. Das kann auch die Bildqualität beeinträchtigen, da eine Linse gewöhnlich die beste Leistung in ihrer Mitte erbringt, während die Qualität zu den Kanten hin aufgrund der Linsen-Aberrationen geringer wird und es zu einem allgemeinen Verlust an Schärfe kommt. Eine andere Möglichkeit wäre eine Steigerung des Gains, womit aber ein gewisses Rauschen verbunden wäre, was wiederum zu einer Verschlechterung des Bildes führen würde, auf dem weniger Einzelheiten zu erkennen wären. Daher ist es immer angebracht, für eine ausreichend helle Beleuchtung zu sorgen, sodass die Eigenschaften des inspizierten Objekts, die jeweils interessieren, hervorgehoben und die verwendeten Linsen auf die optimale Blendenzahl F/# gesetzt werden können und zudem auch keine digitale Steigerung des Kamera-Gains erforderlich ist. XXXI

34 Beleuchtungsgeometrien und -techniken Wie kann man nun die beste Beleuchtung für eine spezifische Bildverarbeitungsaufgabe bestimmen? Dabei ist verschiedenen Aspekten Rechnung zu tragen, wenn Sie die richtige Beleuchtung für Ihr Bildverarbeitungssystem mit einem gewissen Grad an Zuverlässigkeit wählen wollen. Zweck der Anwendung Das ist der allererste Punkt, der unbedingt klar sein muss. Wenn wir die Oberfläche eines Objekts inspizieren wollen und Mängel oder Eigenschaften wie einen gedruckten Text untersuchen wollen, dann ist die Beleuchtung von vorne erforderlich, d.h.das Licht kommt von der Seite der Kamera her. Jetzt hängt es von den spezifischen Oberflächeneigenschaften ab, die hervorgehoben werden sollen, wie die Lichtrichtung oder der Einfallswinkel auf die Zieloberfläche zu wählen sind und welche weiteren optischen Eigenschaften (diffuses oder direktes Licht) zu wählen sind. Wenn wir dagegen den Durchmesser oder die Länge eines Objektes messen oder die Stelle für eine Durchgangsbohrung ermitteln wollen, ist zu empfehlen, zur Verstärkung des Kontrastes an den Kanten die Hintergrundbeleuchtung einzusetzen, d.h. das Licht wird auf seinem Weg zur Kamera durch das Objekt blockiert. Die Entscheidung ist nicht so eindeutig, wenn man es mit komplexeren Situationen zu tun hat, wie z.b. mit transparenten Materialien, sodass in einigen Fällen auch Mischlösungen gefunden werden müssen. Beleuchtungswinkel Wenn wir uns jetzt entschieden haben, welche Beleuchtung passender ist, von vorne oder von hinten, muss der Winkel festgelegt werden, mit dem das Licht auf die Objektoberfläche treffen soll. Obwohl sich der Winkel ändern kann, gibt es zwei wichtige Untergruppen für die Beleuchtung von vorne und von hinten: die Hellfeld- und die Dunkelfeld-Beleuchtung. Die vier Kombinationen, die daraus folgen, werden nachstehend beschrieben (Abb. 7). BELEUCHTUNG VON VORN VORN Hellfeld VORN Hellfeld VORN Dunkelfeld Vorderbeleuchtung, koaxial, und kollimierte Beleuchtung OBJEKT VORN Dunkelfeld HINTERGRUND Dunkelfeld HINTERGRUND Hellfeld Hintergrundbeleuchtung, koaxial und kollimierte Beleuchtung HINTERGRUND Hellfeld HINTERGRUND Dunkelfeld HINTERGRUNDBELEUCHTUNG Abb. 7: Beleuchtung und Direktionalität: die W -Regel. XXXII

35 Beleuchtung Im Hellfeld, bei der Beleuchtung von vorne, wird das von einer flachen Oberfläche reflektierte Licht von der Optik eingefangen. Das ist die häufigste Situation, bei der die nicht flachen Eigenschaften (z.b. Mängel, Kratzer usw.) das Licht außerhalb des max. Akzeptanzwinkels der Linse zerstreuen können und somit dunkle Zeichen auf einem hellen Hintergrund (dem Hellfeld - siehe Abb. 8 sowie 10.a 10.b) erscheinen. Beim Hellfeld kann die Vorderbeleuchtung entweder durch eine LED- Balkenleuchte oder eine LED-Ringleuchte erfolgen, je nach der System- Symmetrie (Abb. 9). In beiden Fällen kann das Licht der LED direkt sein oder durch ein Medium gestreut werden (in manchen Fällen ist diese Lösung zu bevorzugen, um eine ungleichmäßige Beleuchtung auf reflektierenden Oberflächen zu vermeiden). Abb. 8: Schema der Hellfeld-Beleuchtung von vorne. a b Abb. 9: Geometrie von Ringleuchten (a) und Balkenleuchten (b). Abb. 10.a: Bild eines Prüflings mit Gravur mit vorderer Hellfeld-Beleuchtung (Ringleuchte). Abb. 10.b: Bild einer Metallmünze (mit geprägten Stellen), mit vorderer Hellfeld-Beleuchtung (Ringleuchte). Beim Dunkelfeld, Beleuchtung von vorn, wird das reflektierte Licht nicht von der Optik erfasst. Nur das gestreute Licht wird erfasst, wodurch die nicht ebenen Eigenschaften der Oberfläche als hellere Zeichen auf einem dunklen Hintergrund (dem Dunkelfeld - siehe Abb. 11 sowie 13.a - 13.b) erscheinen. Diese Wirkung wird im Allgemeinen durch eine Ringleuchte mit Flachwinkel erzeugt (Abb. 12). Abb. 11: Aufbau Dunkelfeld mit Beleuchtung von vorn. Abb. 12: Geometrie von Flachwinkel-Ringleuchten. Abb. 13.a: Bild eines Prüflings mit Gravur, Dunkelfeld- Vorderbeleuchtung (Ringleuchte). Abb. 13.b: Bild einer Metallmünze (mit Prägungen), Dunkelfeld-Vorderbeleuchtung (Ringleuchte). XXXIII

36 Bei der Dunkelfeld-Hintergrundbeleuchtung wird das Licht entweder blockiert oder von der Oberfläche durchgelassen, wenn das Material matt (Abb. 14) oder transparent ist. Im ersten Fall sehen wir die Umrisse des Objekts (ein schwarzes Objekt vor einem weißen Hintergrund - siehe die Abb. 16 und 18). Im zweiten Fall erscheinen die nicht ebenen Eigenschaften des transparenten Objekts als dunkle Zeichen auf einem weißen Hintergrund. In diesem Fall ist der Kontrast gewöhnlich gering, außer wenn die transparente Oberfläche deutliche Kurven aufweist (z.b. eingeschlossene Luftblasen in Kunststoffteilen). Diese Beleuchtungstechniken können unter Einsatz diffuser Hintergrundleuchten (Abb. 15a, 15b und 16) oder einer telezentrischen Beleuchtung erreicht werden, die eigens für Hochpräzisionsanwendungen entwickelt wurde (Abb. 17 und 18). Abb. 14: Aufbau einer Hellfeld-Hintergrundbeleuchtung. Abb. 15.a: Geometrie von diffuser Hintergrundbeleuchtung (Lichtabgabe von hinten her). Abb. 16: Bild einer Plastikkappe mit Hintergrundbeleuchtung. Abb. 15.b: Geometrie von diffuser Hintergrundbeleuchtung (Lichtabgabe von der Seite her). Abb. 17: Geometrie von telezentrischer Hintergrundbeleuchtung. Abb. 18: Bild eines mechanischen Präzisionsteils mit telezentrischer Hintergrundbeleuchtung. XXXIV

37 Beleuchtung Beim Dunkelfeld mit Hintergrundbeleuchtung wird nur das Licht erfasst, das vom Prüfling durchgelassen und von den nicht ebenen Merkmalen zerstreut wurde, wobei besagte Eigenschaften hell auf dem dunklen Hintergrund erscheinen (Abb. 19). Das kann mit Hilfe von Ringleuchten oder Balkenleuchten erreicht werden, die hinter einem transparenten Prüfling angeordnet sind. Abb. 19: Aufbau einer Dunkelfeld-Hintergrundbeleuchtung. Koaxialbeleuchtung. Wenn die Beleuchtung von vorn rechtwinklig zur Objektebene auf die Oberfläche des Objekts trifft, sprechen wir von koaxialerbeleuchtung. Koaxialbeleuchtung kann zusätzlich kollimiert werden, d.h. die Strahlen verlaufen parallel zur optischen Achse (innerhalb eines gewissen Grades). Für diesen Beleuchtungsaufbau gibt es Koaxialboxen, die zusammen mit jeder Art von Linsen (Fixfokus-, Makro- oder telezentrischen Linsen) eingesetzt werden können, oder auch telezentrische Linsen mit eingebauter Koaxialbeleuchtung (etwa die TCCX-Serie von Opto Engineering ). Der Unterschied besteht im Grad der Kollimation, d.h. im Kontrast, der bei der Suche nach Mängeln auf hoch reflektierenden Oberflächen erzielt werden kann. Siehe Abb. 21 und 22. Diffusor Abb. 20: Aufbau einer Koaxialbeleuchtung (nicht kollimiert). Abb. 21: Geometrie von Koaxialbeleuchtung (Standard und kollimiert). Abb. 22: Bild eines Prüflings mit Gravur mit Koaxialbeleuchtung. XXXV

38 Dom- und Tunnelleuchten. Wenn ein Objekt mit einer komplexen kurvenförmigen Geometrie inspiziert werden soll, um spezifische Oberflächeneigenschaften festzustellen, ist eine Beleuchtung von vorne aus verschiedenen Winkeln die am besten geeignete Lösung, auch um das Problem der Reflexion zu beseitigen, die zu einer uneinheitlichen Beleuchtung führen könnte: Domleuchten sind die ideale Lösung für diese Art von Anwendungen, denn sie sind entwickelt worden, um eine Beleuchtung aus praktisch jeder Richtung zu liefern (Abb. 23 und 24). Domleuchten werden manchmal auch als trüber-tag -Leuchten bezeichnet, weil sie ein gleichförmiges Licht so wie an einem trüben Tag liefern. Eine andere Art der Beleuchtungsgeometrie ist die Tunnelleuchte:Diese Leuchten sind entwickelt worden, um eine gleichförmige Beleuchtung bei langen, dünnen, zylindrischen Objekten liefern zu können. Wie die Domleuchten haben sie oben eine runde Öffnung. Abb. 23: Beleuchtungsgeometrie der Domleuchte. Abb. 24: Bild einer Metallmünze (mit Prägeteilen) unter einer Domleuchten-Beleuchtung. Kombinierte und fortschrittliche Beleuchtungslösungen. Manchmal ist es zur Inspektion besonders komplexer Objektgeometrien erforderlich, verschiedene Arten von Leuchten miteinander zu kombinieren, um die Oberflächendefekte wirksam hervorheben zu können. So ist zum Beispiel die Kombination von einer Dom- und einer Flachwinkelleuchte äußerst wirksam, da dadurch eine gleichförmige Beleuchtung über das gesamte Sichtfeld erreicht wird. Ein Beispiel für die kombinierte Beleuchtung ist die LTDMLA-Serie von Opto Engineering, die Dom- und Flachwinkel-Ringleuchten miteinander vereint, wobei diese gleichzeitig oder unabhängig voneinander benutzt werden können (siehe Abb. 25). Abb. 25: Kombiniertes Licht (Dom- + Flachwinkel-Ringleuchte) - Beleuchtungsgeometrie. XXXVI

39 Beleuchtung Telezentrische Beleuchtung T elezentrische Beleuchtung wird in einer Vielzahl von Anwendungen eingesetzt, darunter: Hochgeschwindigkeitsinspektionen und Sortieren: Wenn sie nämlich mit einer telezentrischen Linse gekoppelt werden, können durch den hohen Durchsatz extrem kurze Belichtungszeiten erreicht werden. Umrissbildgebung für präzise Kantenuntersuchung und Fehleranalyse. Messungen von reflektierenden zylindrischen Objekten: Eine diffuse Hintergrundbeleuchtung kann zu unerwünschten Reflexionen an den Kanten von glänzenden runden Gegenständen führen, sodass sie kleiner erscheinen als sie sind und die Messungen ungenau werden. Da kollimierte Strahlen typischerweise weniger reflektiert werden, kann eine telezentrische Beleuchtung diesen Randeffekt wirkungsvoll beseitigen und ein einheitliches Einlesen gewährleisten (siehe Abb. 26). Alle Präzisions-Messanwendungen, bei denen Genauigkeit, Wiederholbarkeit und ein hoher Durchsatz die Schlüsselfaktoren sind. Nicht kollimierte Hintergrundbeleuchtung Das Licht kommt aus ganz verschiedenen Winkeln Kollimierte Hintergrundbeleuchtung Parallele Strahlen Abb. 26: Kollimierte Hintergrundbeleuchtung im Vergleich zur diffusen Hintergrundbeleuchtung. Der Einsatz von kollimiertem Licht in Kombination mit einer telezentrischen Linse erhöht die natürliche Schärfentiefe der telezentrischen Linse selbst um etwa +20/30% (wobei dieser Wert natürlich auch von anderen Faktoren abhängt wie Linsentyp, Wellenlänge des Lichts und Pixelgröße). Zusätzlich kann der Abstand zwischen dem Objekt und der Lichtquelle dank der ausgezeichneten Lichtkombination dort erhöht werden, wo das erforderlich ist, ohne dass es irgendwelche Auswirkungen auf die Bildqualität hat. Das geschieht, weil die numerische Apertur (NA) der Leuchte kleiner ist als die NA der telezentrischen Linse. Daher verhält sich das optische System so, als ob die Linse in Bezug auf die Schärfentiefe dieselbe NA wie die Leuchte hätte, aber dabei dieselbe Bildauflösung beibehält, die durch die tatsächliche NA der telezentrischen Linse gegeben ist. Kollimiertes Licht ist eine ausgezeichnete Wahl, wenn es gilt, Objekte mit kurvenförmigen Kanten zu inspizieren. Aus diesem Grund wird diese Beleuchtungstechnik weitgehend bei Systemen zum Messen von Schäften, Rohren, Schrauben, Federn, O-Ringen und ähnlichen Prüfteilen eingesetzt. XXXVII

40 Wellenlänge und optische Leistung Viele Bildverarbeitungsanwendungen erfordern ganz spezifische Wellenlängen des Lichts. Diese können mit quasi-monochromatischen Lichtquellen oder mit der Hilfe von optischen Filtern generiert werden. Im Bereich der Bildverarbeitung ist die Wahl der richtigen Wellenlänge der Schlüssel, um nur bestimmte farbige Eigenschaften des abgebildeten Objekts herauszustellen. Die Beziehung zwischen Wellenlänge (d.h. der Farbe des Lichts) und der Farbe des Objekts ist auf Abb. 27 dargestellt. Bei Verwendung einer Wellenlänge, die mit der Farbe der Eigenschaften, die festgestellt werden sollen, übereinstimmt, werden diese Eigenschaften besonders hervorgehoben, und umgekehrt, d.h. wenn eine andere Farbe gewählt wird, werden die nicht relevanten Eigenschaften weggedunkelt (siehe Abb. 28). Zum Beispiel lässt grünes Licht grüne Eigenschaften auf dem Bildsensor heller erscheinen, während rotes Licht grüne Eigenschaften auf dem Sensor dunkler erscheinen lässt. Andererseits bildet weißes Licht einen Kontrast zu allen anderen Farben, wobei diese Lösung vielleicht als Kompromiss zu betrachten ist. Zusätzlich ist in Betracht zu ziehen, dass es einen großen Unterschied in der Empfindlichkeit zwischen dem menschlichen Auge und einem CMOS- oder CCD- Sensor gibt. Daher ist es wichtig, das Bildverarbeitungssystem zunächst einmal einzurichten und zu prüfen, wie es das Objekt wahrnimmt, denn das menschliche Auge könnte irregeführt werden. Monochromatisches Licht kann nur auf zwei Arten erhalten werden: Zum Einen können irrelevante Wellenlängen davon abgehalten werden, den Sensor zu erreichen (z.b. durch einen Filter), zum Anderen können direkt monochromatische Lichtquellen eingesetzt werden. Optische Filter lassen nur die Transmission bestimmter Wellenlängen des Lichts zu. Sie können entweder benutzt werden, um das Licht einer bestimmten Wellenlänge durchzulassen (Bandpass-Filter) oder um bestimmte Wellenlängen zu blockieren (z.b. Bandfilter für kurze Wellen, nur für UV-Licht). Farbfilter können andere, nicht monochromatische Lichtquellen blockieren, die in industrieller Umgebung oft vorhanden sind (z.b. Sonnenlicht, Deckenleuchten usw.), sie reduzieren aber auch die Lichtmenge, welche den Sensor tatsächlich erreicht. V B G Y O R V B G Y O R R Blaues Objekt R Rotes Objekt R Weißes Obekt B Erscheint blau Erscheint rot Erscheint rot Zu bemerken ist auch, dass quasi-monochromatische Quellen nur Licht einer bestimmten Wellenlänge innerhalb einer in der Regel schmalen Bandbreite abgeben. In beiden Fällen werden, wenn wir mono-chromatisches Licht wählen (z.b. grün), alle nicht grünen Eigenschaften auf dem Sensor dunkelgrau oder schwarz erscheinen, je nach Bandbreite des Filters und der Farbe der Eigenschaft. Der Einsatz farbigen Lichts im Vergleich zu weißem Licht ist ein einfacher Weg, um Kontraste hervorzuheben. (Abb ). V B G Y O R Erscheint schwarz WARM KALT Schwarzes Objekt R V Abb. 27: Beziehung zwischen Farbe des Objekts und Lichtfarbe. O Y Abb. 28: Eine Möglichkeit zur Hervorhebung des Kontrastes besteht darin, die Lichtfarbe zu wählen, die sich im Farbkreis auf der der Farbe der Eigenschaften gegenüberliegenden Seite befindet. In diesem Fall werden die Eigenschaften auf dem Bildsensor dunkel erscheinen. XXXVIII G B Zusätzlich könnte in einigen Fällen eine spezifische Wellenlänge aus anderen Gründen bevorzugt werden: Die telezentrischen Linsen von Opto Engineering werden gewöhnlich für den Einsatz im sichtbaren Bereich optimiert, und sie bieten ihre beste Leistung in Bezug auf Telezentrie und Verzeichnung, wenn sie mit grünem Licht eingesetzt werden. Grünes Licht ist zudem ein guter Kompromiss zwischen der Auflösungsgrenze (welche die kürzeren Wellenlängen verbessert) und den Transmissionseigenschaften von normalem Glas (das nämlich eine geringe Transmissionsleistung bei kurzen Wellenlängen hat). In Fällen, bei denen alle Wellenlängen geeignet sind, könnte die Wahl einer spezifischen LED-Farbe auch aus Kostengründen erfolgen.

41 Beleuchtung Roter Filter Blauer Filter Objekt Objekt Bild Rotes Licht wird vom roten Hintergrund reflektiert, aber vom blauen Kreis absorbiert. Bild Blaues Licht wird vom blauen Kreis reflektiert, wird aber vom roten Hintergrund absorbiert. Abb. 29: Filtern und farbige Prüflinge: Aufbau und monochromatisches Ergebnis. Abb. 30: Farb-Kamera. Abb. 31: Mono-Kamera. Abb. 32: Roter Filter. Abb. 33: Grüner Filter. Abb. 34: Blauer Filter. Polarisierungsfilter bestehen aus speziellen Materialien, deren Eigenschaft eine besondere optische Richtung ist: Alles Licht, das in dieser Richtung schwingt, wird durchgeleitet, während die anderen Bestandteile der Welle blockiert werden. Da Licht, das von einer Oberfläche reflektiert wird, in der Richtung parallel zur Oberfläche selbst polarisiert ist, kann eine derartige Reflexion entscheidend reduziert oder blockiert werden, indem zwei Polarisierungsfilter verwendet werden: einer auf der Lichtquelle, der andere auf der Linse. Polarisierungsfilter werden benutzt, um Blendeffekte zu eliminieren, die bei der Abbildung reflektierender Materialien auftreten (wie bei Glas, Plastik usw.). XXXIX

42 Strukturierte Beleuchtung Die Projektion eines Lichtmusters auf eine Oberfläche kann in einfacher Weise Informationen über seine dreidimensionalen Eigenschaften geben (Abb. 35). Wenn wir zum Beispiel eine Linie betrachten, die aus der vertikalen Richtung mit einer Kamera projiziert wird, die aus einem bekannten Winkel aufnimmt, können wir die Höhe des Objektes, wohin die Linie projiziert wird, bestimmen. Dieses Konzept kann auf zahlreiche andere Muster ausgedehnt werden, wie zum Beispiel Raster, Kreuze, Punkte usw. Projiziertes Pattern Abb. 35: Strukturierte Lichttechniken. Gesehenes Pattern Obwohl üblicherweise sowohl LED- als auch Laserquellen für Musterprojektionen eingesetzt werden, treten bei der Laserquelle verschiedene Nachteile auf (Abb. 36). Der feine, von der Laserquelle projizierte Streifen hat eine gaussartige Form, in der Mitte ist er höher und nimmt zu den Kanten des Streifens ab. Wenn man außerdem mit einer Laserquelle etwas auf eine Oberfläche projiziert, kommt es zum sog. Sprenkel-Effekt, d.h. einem Interferenzphänomen, das zu einem Schärfeverlust an den Kanten der Laserlinie führt. Verursacht wird diese Phänomen durch die hoch kohärente Beschaffenheit von Laserlicht. Bei Laserquellen nimmt die Beleuchtung sowohl über den Linienkreuz- Bereich als auch über die Linienbreite ab. Außerdem haben Linien von Laserquellen verzerrte Kanten, weisen Beugungen und Sprenkel-Effekte auf. Benutzt man dagegen LED-Licht für diese strukturierte Beleuchtung, treten all diese Problematiken nicht mehr auf. Pattern-Projektoren von Opto Engineering bieten dünnere Linien, deutlichere Kanten und eine einheitlichere Beleuchtung. Da das Licht durch eine endliche Quelle erzeugt wird, kann es durch ein physikalisches Pattern mit den gewünschten Eigenschaften unterbrochen, mit eine handelsüblichen Linse erfasst und auf die Oberfläche projiziert werden. Die Lichtintensität ist über das gesamte Muster stabil, es gibt keine sichtbaren Sprenkel, da LED-Licht wesentlich weniger kohärent ist als Laserlicht. Außerdem kann weißes Licht problemlos erzeugt und im Projektionsprozess verwendet werden. LED LASER LED-Pattern-Projektoren sorgen für dünnere Linien, deutlichere Kanten und eine homogenere Beleuchtung als Laserquellen. Bei Laserquellen nimmt die Beleuchtung sowohl über den Linienkreuz-Bereich als auch über die Linienbreite ab. Die Linien von Laserquellen sind dicker und haben verzerrte Kanten, Beugungs- und Sprenkel-Effekte liegen ebenfalls vor. Abb. 36: LASER und LED im Vergleich bei strukturierter Beleuchtung. Beleuchtungssicherheit und Risikoklasse von LEDs gemäß Norm EN62471 Die Norm IEC/EN gibt Leitlinien zur photobiologischen Sicherheit von Lampen und Lampensystemen, einschließlich Leuchten, optischen Breitbandstrahlungsquellen wie LEDs (Laser sind ausgeschlossen) im Wellenlängenbereich von 200 nm bis 3000 nm vor. Gemäß der Norm IEC/EN sind Lichtquellen auf der Grundlage ihrer photobiologischen Gefährlichkeit in Risikogruppen unterteilt. Ausgenommen Gruppe Ia Gruppe II Gruppe III Risikogruppe Keine photobiologische Gefahr Keine photobiologische Gefahr bei normalen Verhaltensbeschränkungen Keine Gefahr aufgrund einer unangenehmen Reaktion auf helles Licht oder unangenehmer Wärme Gefährlich auch bei momentaner Exposition XL

43 Kameras Eine Kamera ist eine Fernsensoreinheit, die Bilder erfassen und speichern bzw. übertragen kann. Das Licht wird erfasst und über ein optisches System auf eine empfindliche Oberfläche (Sensor) fokussiert, welche die Intensität und Frequenz der elektromagnetischen Strahlung mittels eines chemischen oder elektronischen Prozesses in Daten verwandelt. Das einfachste System dieser Art besteht in einer Dunkelkammer oder einer Schachtel, in die das Licht nur durch ein kleines Loch eintritt und auf die gegenüberliegende Wand fokussiert wird, wo es vom menschlichen Auge gesehen oder von einem lichtempfindlichen Material (z.b. von einem fotografischen Film) erfasst wird. Diese Bildgebungsmethode ist Jahrhunderte alt und wird als Camera obscura - der lateinische Ausdruck für Dunkelkammer - bezeichnet, von dem die modernen Kameras ihren Namen ableiten. Abb. 1: Funktionsprinzip einer Camera obscura. Abb. 2: Camera obscura Ansicht des Hotel de Ville, Paris, Frankreich 2015 Foto von Abelardo Morell. Die Kameratechnologie hat in den letzten Jahrzehnten enorme Fortschritte gemacht, vor allem seit der Entwicklung ladungsgekoppelter Bauteile (Charge Coupled Device - CCD) sowie anschließend der CMSO-Technologie. Frühere Standardsysteme wie das der Vakuumröhren-Kameras sind dagegen nicht weiterentwickelt worden. Die Fortschritte bei der Bildauflösung und der Erfassungsgeschwindigkeit haben natürlich auch die Qualität und Geschwindigkeit von Bildverarbeitungskameras verbessert.

44

45

46 Kamera-Arten Matrix- und Zeilenkameras Die in den Anwendungen der Bildverarbeitung eingesetzten Kameras können in zwei Gruppen unterteilt werden, in bereichsabtastende Kameras (sog. Matrixkameras) und zeilenabtastende Kameras. Erstere sind einfacher und technisch weniger anspruchsvoll, während letzteren unter bestimmten Bedingungen der Vorzug gegeben wird, wenn Matrixkameras nicht erfolgreich eingesetzt werden können. Bereichsabtastende Kameras erfassen zweidimensionale Bilder mit Hilfe einer bestimmten Anzahl aktiver Elemente (Pixel), während das Kennzeichen der Zeilenkamerasensoren ein einziges Pixelfeld ist. Sensorgrößen und Auflösung Die Sensorgrößen (oder Formate) werden gewöhnlich mit einem imperialen Bruchwert, z.b. 1/2, 2/3, angegeben. Die heutigen Abmessungen entsprechen aber diesem Bruchwert nicht mehr, wodurch es oft zu Missverständnissen unter den Benutzern kommt. Diese Art der Größenangabe geht nämlich auf die 1950er Jahre zurück, die Zeit der TV Kameraröhren, und hat sich bis zum heutigen Tag gehalten. Man sollte daher immer die Daten des Sensors überprüfen, denn auch zwei Sensoren gleichen Formats können leicht unterschiedliche Abmessungen und Seitenverhältnisse aufweisen. Die Raumauflösung ist die Anzahl aktiver Elemente (Pixel), die im Sensorbereich enthalten sind: Je höher die Auflösung, desto kleiner sind die Einzelheiten, die man auf dem Bild entdecken kann. Nehmen wir an, es soll ein 30 x 40 mm großes Sichtfeld inspiziert werden, das auf 40*40 μm kleine Mängel zu untersuchen ist, die auf mindestens drei Pixeln zu sehen sind. Es können also 30*40/(0.04*0.04) = 0.75x10^6 Mängel vorhanden sein. Setzt man eine Mindestanzahl von 3 Pixeln voraus, um diesen Defekt sehen zu können, wird eine Kamera von mindestens 2.25 MP Pixeln benötigt. Das ist die Mindestauflösung, die der Sensor benötigt, abgesehen davon, dass immer auch die Auflösung des gesamten Systems (einschließlich die Auflösung des Objektivs) zu bestimmen ist. Tabelle 1 gibt einen kurzen Überblick über verschiedene handelsübliche Sensorabmessungen und -auflösungen. Dabei ist zu unterstreichen, dass Sensoren die gleichen Abmesssungen, aber verschiedene Auflösungen haben können, da sich die Pixelgröße ändern kann. Wenn man sich nun bei einem vorgegebenen Sensorformat für kleinere Pixel entscheidet, kommt es zwar zu einer höheren Auflösung, doch kleine Pixel sind nicht immer die ideale Lösung. Sie sind nämlich weniger lichtempfindlich und erzeugen mehr Rauschen. Außerdem müssen die Auflösung des Objektivs und die Pixelgröße immer in geeigneter Form kombiniert werden, um optimale Leistungen des gesamten Systems zu erreichen. Sensortyp 1/3 1/2 2/3 1 4/3 4 K (linear) 8 K (linear) 12 K (linear) Sensorgröße (mm) 4.80 x x x x x Pixelgröße (μm) Auflösung (mm) 960 x x x x x Auflösung (Pixel) 0.6 M 1.2 M 2.5 M 5 M 10 M 4 K 8 K 12 K Tabelle 1: Beispiele für übliche Sensorgrößen und -auflösungen. Sensortypen: CCD und CMOS Die meistverbreiteten Sensor-Technologien für Digitalkameras sind CCD und CMOS. Ein CCD-Sensor (Charged Coupled Device = ladungsgekoppeltes Bauteil) hat eine komplexe elektronische Platine, wo lichtempfindliche Halbleiterelemente Photonen (Licht) in Elektronen umwandeln. Die akkumulierte Ladung verhält sich proportional zur Belichtungszeit. Bildübertragung (Frame Transfer - FT) Vollbild (FF) Zwischenzeile (IL) = Fortlaufendes Abtasten Das Licht wird in einem Potentialtopf eingefangen, um dann auf zwei verschiedene Arten abgegeben und ausgelesen zu werden (siehe Abb. 3). Grundlegend erfolgt bei allen Architekturen die Weitergabe der Daten an ein Register, manchmal über einen passiven Bereich zur Speicherung. Aktiver & belichteter Pixelbereich Die Ladung wird dann auf ein Spannungssignal verstärkt, das gelesen und quantifiziert werden kann. Passiver Bereich zur Speicherung und Übertragung Pixelregister zum Auslesen Abb. 3: CCD-Architekturen. XLIV

47 Kameras CMOS-Sensoren (Complementary Metal-Oxid Semiconductor, d.h. sich ergänzender Metall-Oxid-Halbleiter) sind in ihrer Konzeption anders angelegt als CCD-Sensoren, da das Auslesen Pixel um Pixel und nicht sequentiell erfolgt. So wird das Signal auf jeder Pixel-Position verstärkt, sodass man wesentlich höhere Bildfrequenzen erhalten und für das Auslesen kundenspezifische ROIs (Bereiche von Interesse) festlegen kann. CMOS- und CCD-Sensoren sind ungefähr zur selben Zeit erfunden wurden, wobei die CCD-Technologie früher als hochstehender betrachtet wurde, die CMOS-Sensoren ihre Leistung aber in den letzten Jahren entsprechend gesteigert haben. Global- und Rolling-Shutter (CMOS) Bei den Rolling-Shutter-CMOS- Sensoren erfolgt das Erfassen nacheinander von der oberen zur letzten Pixel-Reihe, wobei der Zeitabstand zwischen der ersten und der letzten Zeile bis zu 1/Bildfrequenz betragen kann. Ist das Auslesen beendet, kann der Prozess der fortlaufenden Erfassung erneut beginnen. Wenn sich das Objekt bewegt, ist der Zeitunterschied zwischen der Erfassung der einzelnen Pixel deutlich auf dem Bild zu sehen, die Objekte werden verzerrt (siehe Abb. 4). Bei der Global-Shutter- Betriebsart erfolgt das Erfassen durch das gleichzeitige Aktivieren aller Pixel, sodass ein Verzerren des Objekts vermieden wird. Sensoren und Kameraeigenschaften Abb. 4: Der Rolling-Shutter-Effekt. Sensoreigenschaften Es gibt dreierlei Arten von Pixelfehlern: heiße, warme und tote Pixel. Heiße Pixel sind überempfindliche Elemente die immer ein maximales Signal abgeben, d.h. voll weiß, vollkommen unabhängig von der Lichtintensität. Tote Pixel sind das Gegenteil, sie geben null Signal (schwarz) ab. Warme Pixel geben zufällige Signale ab. Diese drei Fehlerarten sind von der Intensität und Belichtungszeit unabhängig. Daher können sie leicht repariert werden, zum Beispiel indem sie digital mit dem Durchschnittswert der Nachbarpixel ersetzt werden. Rauschen. Es gibt verschiedene Arten von Rauschen, die beim Auslesen des Pixels auftreten können. Sie können durch geometrische, physikalische und elektronische Faktoren verursacht werden, und sie können zufällig verteilt sein oder konstant auftreten. Einige dieser Rausch-Geräusche werden nachstehend erläutert: Das Schrotrauschen ist eine Folge der Beschaffenheit des Lichts. Wenn die Lichtintensität sehr niedrig ist, so wie das der Fall ist, wenn man die kleine Oberfläche eines einzelnen Pixels in Betracht zieht, ist die Fluktuation der Photonenanzahl im Zeitverlauf beträchtlich. Man kann es sich ähnlich vorstellen, als würde man eine Münze mehrere Male werfen. Vorder- oder Rückseite werden relativ weit von einem 50%igen Treffer entfernt sein. Diese Fluktuation wird als Schrotrauschen bezeichnet. Das Dunkelstromrauschen wird durch die Elektronen hervorgerufen, die zufällig durch thermische Wirkung erzeugt werden. Die Anzahl der thermischen Elektroden wie auch das damit verbundene Rauschen steigen bei Anstieg von Temperatur und Belichtungszeit ebenfalls an. Das Quantisierungsrauschen tritt bei der Umwandlung des Dauerwertes des ursprünglichen (analogen) Spannungswertes in den diskreten Wert der verarbeiteten (digitalen) Spannung auf. Das Verstärkungsrauschen wird durch das verschiedene Verhalten der Pixel (in Bezug auf Empfindlichkeit und Verstärkung) erzeugt. Das hier ist ein Beispiel für ein konstantes Rauschen, das gemessen und eliminiert werden kann. Der Parameter Empfindlichkeit quantifiziert, wie der Sensor auf Licht reagiert. Die Empfindlichkeit steht in engem Zusammenhang mit der Quantenausbeute, d.h. mit dem Anteil an Photonen, die effektiv in Elektronen konvertiert wurden. Der Kontrastumfang ist der Quotient der größten und kleinsten Signalstärke, die vom Sensor erfasst wird. Ab der oberen Grenze erscheinen die Pixel für jeden höheren Intensitätswert weiß (Sättigung), während sie ab der unteren Grenze und darunter schwarz erscheinen. Der Kontrastumfang wird gewöhnlich durch den Logarithmus des Min.- Max.-Quotienten ausgedrückt, und zwar entweder in Dezibel (10-facher Logarithmus) oder als Logarithmus zur Basis 2 (Doppelung oder Stopps). Das menschliche Auge zum Beispiel kann Gegenstände sowohl unter einem Sternenhimmel als auch im hellen Sonnenschein erkennen, was einer Intensitätsdifferenz von 90 db entspricht. Diesen Umfang erreicht das menschliche Auge aber nicht gleichzeitig, sondern es braucht eine gewisse Zeit, um sich auf die verschiedenen Lichtverhältnisse einzustellen. Ein LCD von guter Qualität weist einen Kontrastumfang von etwa 1000:1 auf, bei einigen der neuesten CMOS-Sensoren wurden Kontrastumfänge von etwa :1 gemessen (angegeben als 14.5 Stops). Faktor Dezibel Stops Tabelle 2: Kontrastumfang D, Dezibel (10 Log D) und Stops (Log2 D). XLV

48 Der Wert SNR (Signal-Rausch-Verhältnis) zieht das Vorhandensein von Rauschen in Betracht, das bedeutet, dass der theoretisch unterste Grauwert gemäß dem Kontrastumfang oft nicht erreicht werden kann. Das SNR ist das Verhältnis zwischen dem maximalen Signal und dem Gesamtrauschen und wird in db gemessen. Der Höchstwert für das SNR-Verhältnis wird durch das Schrotrauschen begrenzt (das durch die physikalische Beschaffenheit des Lichts gegeben und damit unvermeidlich ist) und kann annähernd dargestellt werden als EMVA-1288-Standard SNR max = sqrt [maximale Sättigungsfähigkeit an Elektronen auf einem einzigen Pixel] Vom SRN-Verhältnis hängt auch die Grenze der Grauwerte ab, die für die Umwandlung zwischen analogem (kontinuierlichem) und digitalem (diskretem) Signal von Bedeutung ist. Wenn zum Beispiel das höchste SNR-Verhältnis 50 db beträgt, ist ein 8bit-Sensor zu empfehlen, dessen 256 Grauwerte 48 db entsprechen. Würde man einen Sensor mit höheren Grauwerten einsetzen, würde das bedeuten, dass auch ein gewisses Rauschen erfasst werden würde. Der Parameter der spektralen Empfindlichkeit beschreibt, wie effizient die Lichtintensität auf verschiedenen Wellenlängen erkannt wird. Das menschliche Auge verfügt über drei verschiedene Arten von Lichtrezeptoren, die sich in ihrer Empfindlichkeit in Bezug auf sichtbare Wellenlängen unterscheiden, womit die Kurve der Gesamtempfindlichkeit die Kombination von allen dreien ist. Bildverarbeitungssysteme basieren gewöhnlich auf CCD- oder CMOS- Kameras, die Licht in einem Bereich von 350 bis 900 nm erkennen, wobei der Hauptbereich zwischen 400 und 650 nm liegt. Mit anderen Sensortypen kann auch das UV-Spektrum abgedeckt werden bzw. auf der anderen Seite ein Spektrum nahe dem Infrarotlicht. Und dann können natürlich, unter Einsatz vollkommen anderer Technologien, auch kurzwellige (SWIR) bis langwellige (LWIR) Infrarotbereiche abgedeckt werden. Die verschiedenen Parameter, welche die Eigenschaften und Qualität eines Sensors beschreiben, sind im EMVA-1288-Standard zusammengefasst und erläutert. Dieser Standard beschreibt die grundlegenden Parameter, die bekannt sein müssen, um das reale Verhalten eines Sensors beschreiben zu können, zusammen mit den Messmethoden, um diese Parameter zu erfassen. Die Standard-Parameter sind: Empfindlichkeit, Linearität des Signals gegenüber Lichtintensität und Rauschen Dunkelstrom (Temperaturabhängigkeit: optional) Ungleichmäßigkeiten des Sensors und defekte Pixel Spektrale Empfindlichkeit (optional) Messverfahren Ergebnis Empfindlichkeit, Linearität und Rauschen Test zum Messen der Lichtmenge bei zunehmender Belichtungszeit, von der geschlossenen Blende bis zur Sättigung. Die Lichtmenge wird gemessen (zum Beispiel mit dem Photometer) Quantenausbeute (das in % angegebene Verhältnis der konvertierten Photonen gegenüber den insgesamt eintreffenden Photonen). Zeitliches Dunkelrauschen, in Elektronen (e-) Absolute Empfindlichkeitsschwelle (Mindestanzahl an Photonen, um ein Signal zu generieren) Kontrastumfang, angegeben in Stops Dunkelstrom Gemessen von dunklen Bildern, die bei zunehmenden Beleuchtungszeiten aufgenommen werden. Da Dunkelstrom temperaturabhängig ist, kann dessen Verhalten bei verschiedenen Temperaturen angegeben werden. Das ohne Licht registrierte Signal in Elektronen pro Sekunde. Ungleichmäßigkeiten des Sensors und defektes Pixel Eine Anzahl von Bildern wird ohne Licht aufgenommen (um heiße Pixel festzustellen) sowie bei einer 50%igen Sättigung. Die Parameter der räumlichen Verzeichnung werden mit dem Fourier-Algorithmus berechnet. Ungleichförmigkeit von Dunkel- und Hellsignal Dunkel- und Hell-Spektrogramme sowie (logarithmische) Histogramme Spektrale Empfindlichkeit Es werden Aufnahmen bei verschiedenen Wellenlängen gemacht. Kurve der spektralen Empfindlichkeit SNR, in Stops Sättigungsfähigkeit (Höchstanzahl an Elektronen bei Sättigung) Kamera-Parameter Die Belichtungszeit ist die Zeitdauer, während der dem Licht die Möglichkeit gegeben wird, den Sensor zu erreichen. Je höher dieser Wert ist, desto höher ist die Lichtmenge, die auf dem sich ergebenden Bild dargestellt wird. Die Steigerung der Belichtungszeit ist die erste und einfachste Lösung, wenn nicht genug Licht vorhanden ist, die aber verschiedene Problematiken mit sich bringt. Zunächst einmal nimmt das Rauschen bei Verlängerung der Belichtungszeit zu. Außerdem kann es bei sich bewegenden Objekten zu Verwischungen kommen. Wenn die Belichtungszeit nämlich zu hoch ist, wird das Objekt auf einer Anzahl verschiedener Pixel erfasst, wodurch es zum bekannten Effekt der Bewegungsverwischung kommt (Abb. 5). Auf der anderen Seite können zu lange Belichtungszeiten zu einer Überbelichtung führen, besonders, wenn eine Reihe von Pixeln ihre Höchstkapazität erreichen und weiß erscheinen, auch dann, wenn die Lichtintensität, die die einzelnen Pixel erreicht, eigentlich verschieden ist. Abb. 5: Effekt der Bewegungsverwischung. XLVI

49 Kameras Bildfrequenz. Hiermit wird die Häufigkeit bezeichnet, mit der ein vollständiges Bild vom Sensor erfasst wird; die Angabe erfolgt meistens in Bildern pro Sekunden (frames per second - fps). Es ist klar, dass die Bildfrequenz auf die Anwendung abgestimmt sein muss. Ein System, das in einer Produktionslinie 1000 Flaschen pro Minute prüfen muss, muss in der Lage sein, Bilder mit einer Mindestfrequenz von 1000/60 = 17 fps zu erfassen. Auslösung. Bei den meisten Kameras besteht die Möglichkeit, den Beginn des Bilderfassungsprozesses zu steuern und ihn der Anwendung anzupassen. Bei einem typischen Auslösesystem wird das Licht nach Erhalt eines Signals von einem externen Gerät (z.b. Positionssensor) zusammen mit der Bilderfassung aktiviert. Diese Technik ist grundlegend, wenn es darum geht, Bilder von sich bewegenden Objekten zu erfassen, um sicherzustellen, dass sich die Eigenschaften, die geprüft werden sollen, im Sichtfeld des Bildverarbeitungssystems befinden. Die Ausbeute bei einer digitalen Kamera stellt das Verhältnis zwischen der Anzahl der erfassten Elektronen und den generierten analog-auf-digital- Einheiten (ADUs) dar, d.h. das Bildsignal. Bei einer Steigerung der Ausbeute nimmt also das Verhältnis zwischen ADUs und erfassten Elektronen zu und führt zu einer sichtbar höheren Helligkeit des Bildes. Natürlich erhöht sich damit auch das Rauschen des Bildes, sodass sich der Gesamt-SNR-Wert nicht ändert. Unter Binning versteht man die Eigenschaft einer Kamera, mehrere benachbarte Pixel im Sensor zusammenzufassen, gewöhnlich in Reihen oder Spalten oder häufiger in 2x2 oder 4x4 Quadraten (siehe Abb. 6). Obwohl die Auflösung in diesem Fall natürlich abnimmt, führt dies zu einer Verbesserung einer Reihe anderer Eigenschaften. Bei einem 2x2- Binning wird die Auflösung halbiert, doch die Empfindlichkeit und der Kontrastumfang werden 4-mal gesteigert (die Kapazitäten jedes einzelnen Potentialtopfes werden summiert), die Auslesezeit wird ebenfalls halbiert (die Bildfrequenz also verdoppelt), das Rauschen wird geviertelt. Horizontal-Binning Vertikal-Binning Voll-Binning Ladungen von zwei benachbarten Pixeln in der Zeile werden summiert und als ein einziges Pixel erfasst. Ladungen von zwei benachbarten Pixeln in zwei Zeilen werden summiert und als ein einziges Pixel erfasst. Ladungen von Gruppen von vier Pixeln werden summiert und als ein einziges Pixel erfasst. Abb. 6: Sensor-Binning. Schnittstellen Digitalkameras Camera Link Der Automated Imaging Association (AIA) Standard, allgemein als Camera Link bekannt, ist ein Standard für schnelle Bildübertragung von Digitalvideos. Der AIA-Standard legt Kabel, Steckverbinder und Kamerafunktionalitäten zwischen Kamera und Framegrabber fest. Geschwindigkeit. Die Camera Link-Schnittstelle bietet in Sachen Geschwindigkeit eine sehr hohe Leistung. Dabei stehen verschiedene Bandbreitenvarianten zur Verfügung, z.b. 255 MB/s, 510 MB/s und 680 MB/s. Von der Bandbreite hängt das Verhältnis zwischen Bildauflösung und Bildfrequenz ab: Eine basis-konfigurierte Kamera kann ein 1 Mpixel-Bild in 50 Frames/s oder mehr erfassen, während eine voll konfigurierte Kamera 4 Mpixel bei über 100 Frames/s erfasst. Camera Link HS ist der neuere Standard, der Werte bis zu 300 MB/s auf einer Leitung und bis zu 6 GB/s auf bis zu 20 Leitungen erreichen kann. Kosten. Camera Link bietet eine mittlere bis Hochleistungserfassung, wobei dazu gewöhnlich teurere Kameras erforderlich sind. Außerdem ist bei diesem Standard ein Framegrabber erforderlich, um die umfangreiche Datenmenge zu verwalten, was bei anderen Standards nicht erforderlich ist. Kabel. Der Camera-Link-Standard legt eine Höchstlänge von 10 m für die Kabel fest. Für basiskonfigurierte Kameras ist ein Kabel erforderlich, für voll konfigurierte Kameras dagegen zwei. Stromversorgungskabel. Camera Link bietet ein PoCL-Modul (Stromversorgung über Camera Link) an, das die Kamera mit Strom versorgt. Auch verschiedene Grabber arbeiten damit. CPU-Nutzung. Da Camera Link Framegrabber benutzt, welche die Bilder als eigenständige Module an einen Computer übertragen, belegt dieser Standard nur einen geringen Platz in der System-CPU. XLVII

50 CoaXPress CoaXPress ist der zweite Standard, der nach Camera Link entwickelt wurde. Im Wesentlichen handelt es sich um die Übertragung von Spannungsversorgung, Daten und Kontrollprotokoll für das Remotegerät über ein Koaxialkabel. Geschwindigkeit. Ein einziges Kabel kann bis zu MB/s von Remotegerät zum Framegrabber und 20 Mbit/s Steuerdaten vom Framegrabber zum Remotegerät übertragen, das entspricht 5- bis 6-mal der GigE-Bandbreite. Einige Modelle können auf halber Geschwindigkeit laufen ( MB/s). Heute können bis zu 4 Kabel parallel an den Framegrabber angeschlossen werden, sodass eine maximale Bandbreite von etwa 1800 MB/s erreicht wird. Kosten. Im einfachsten Fall benutzt CoaXPress ein einziges Koaxialkabel zur Übertragung der Daten, und Koaxialkabel sind eine einfache Lösung mit geringen Kosten. Andererseits wird ein Framegrabber benötigt, d.h. es muss eine zusätzliche Karte installiert werden, die zusätzliche Kosten für das System mit sich bringt. Kabel. Die maximale Kabellänge bei voller Bandbreite beträgt 40 m, 100 m bei halber Bandbreite. Stromversorgungskabel. Die gelieferte Spannung geht bis zu 13 W bei 24 V, das ist für viele Kameras genug. CPU-Nutzung. CoaXPress verwendet wie auch Camera Link Framegrabber, welche die Bilder als eigenständige Module an den PC übertragen. Damit verbraucht dieser Standard nur wenig Ressourcen der System-CPU. GiG-E Gig-E-Vision ist eine Kamera-Bustechnologie, welche das Gigabit Ethernet standardisiert und ein Plug & Play -Verhalten (z.b. automatische Geräteerkennung) hinzufügt. Aufgrund seiner relativ hohen Bandbreite, seines langen Kabels und seinem verbreiteten Gebrauch ist dies eine gute Lösung für industrielle Anwendungen. Geschwindigkeit. Gigabit Ethernet hat eine theoretische Höchstbandbreite von 125 MB/s, die auf 100 MB/s heruntergeht, wenn man bestimmte praktische Einschränkungen in Betracht zieht. Diese Bandbreite ist mit dem FireWire-Standard vergleichbar und wird nur von Camera Link übertroffen. Kosten. Die Systemkosten von GigE Vision sind angemessen und nicht hoch, die Verkabelung ist preiswert, außerdem wird kein Framegrabber benötigt. USB 3.0 Der USB (Universal Serial Bus) 3.0-Standard ist die zweite Überarbeitung des USB-Standards, der für die Computerkommunikation entwickelt wurde. Aufbauend auf dem USB 2.0-Standard bietet er eine höhere Bandbreite und bis zu 4.5 W Spannungsversorgung. Geschwindigkeit. Während USB 2.0 eine Geschwindigkeit von bis zu 60 MB/s erreicht, kann USB 3.0 eine Geschwindigkeit von 400 MB/s erreichen, ähnlich der mittleren Konfiguration beim Camera Link-Standard. Kabel. Die Kabellänge ist der wahre Vorteil des GigE-Standards, da Längen bis zu 100 m möglich sind. Dies ist die einzige digitale Lösung, die es in Sachen Kabellänge mit analogem Sehen aufnehmen kann, und eben diese Tatsache hat dazu beigetragen, dass GigE-Vision analoge Systeme, z.b. bei Überwachungsanwendungen, ersetzt hat. Stromversorgungskabel. Oft ist eine Spannungsversorgung über das Ethernet (PoE) an GigE-Kameras vorhanden. Dennoch können einige Ethernet-Karten keine ausreichende Spannungsversorgung bieten, sodass ein Schalter, ein Hub oder ein PoE Injektor erforderlich werden. CPU-Nutzung. Die CPU-Nutzung eines GigE-Systems kann entsprechend den eingesetzten Treibern verschieden sein. Gefilterte Treiber sind allgemeiner und einfacher zu erstellen und zu benutzen, aber wenn sie mit Datenpaketen auf hoher Ebene arbeiten, können sie das CPU-System beeinträchtigen. Optimierte Treiber werden speziell für eine bestimmte Netzwerkschnittstellenkarte geschrieben, sodass ein Betrieb auf einer niedrigeren Ebene nur einen geringen Einfluss auf die CPU-Belastung hat. Kosten. USB-Kameras haben gewöhnlich keine hohen Kosten, außerdem wird kein Framegrabber benötigt. Aus diesem Grund ist eine USB-Kamera die preisgünstigste Lösung, die der Markt heute bietet. Kabel. Das passive USB-3.0-Kabel hat eine Höchstlänge von etwa 7 m, ein aktives USB-3.0-Kabel kann unter Verwendung entsprechender Repeater bis zu 50 m lang sein. Stromversorgungskabel. USB 3.0 bietet eine Spannungsversorgung von bis zu 4.5 W, das bedeutet, dass man auf separate Stromkabel verzichten kann. CPU-Nutzung. Mit USB 3.0 Vision kann das Bild direkt in den Speicher des PC übertragen werden, ohne Nutzung der CPU. GenIcam-Standard Der GenICam-Standard (GENeric Interface for CAMeras - Allgem. Schnittstelle für Kameras) wurde entwickelt, um eine Softwareschnittstelle allgemeiner Art für alle Kameras bereitzustellen, unabhängig von der Hardware der Kamera. Einige der neuen Technologie-Standards basieren auf dem GenIcam-Standard (z.b. Camera Link HS, CoaXPress, USB3 Vision). Das Ziel des GenICam-Standards besteht darin, eine Plug&Play -Lösung für Bildverarbeitungssysteme jeder Art bereitzustellen. Es besteht aus drei Modulen, mit denen die Hauptaufgaben, auf die es beim maschinellen Sehen ankommt, auf eine allgemeine Art gelöst werden: GenApi: Verwendung einer Datei im XML-Format, Möglichkeit der Kamerakonfiguration und der Zugriffssteuerung. Standard Feature Naming Convention (SFNC): Hierbei handelt es sich um empfohlene Bezeichnungen für gemeinsame Kamera-Eigenschaften zur Förderung der Kompatibilität. GenTL: Beschreibt die Schnittstelle der Transportschicht zum Spezifizieren der der Kameras, Erfassen der Bilder und ihrer Übertragung an die Benutzerschnittstelle. XLVIII

51 Bildverarbeitungssysteme Maschinelles Sehen oder Bildverarbeitung, so heißt die Disziplin, die bildgebende Technologien und Methoden umfasst, deren Zweck die automatische Inspektion und Analyse bei verschiedensten Anwendungen ist, so etwa bei Form- und Maßprüfungen, Messungen oder im Rahmen der Prozesskontrolle. Ein weit verbreiteter Ansatz sind dabei schlüsselfertige Lösungen, d.h. komplette Systeme, die rasch und problemlos für den Einsatz im Feld konfiguriert werden können. Ein Bildverarbeitungssystem besteht normalerweise aus einigen grundlegenden Komponenten, die zur Lösung der gestellten Aufgabe erforderlich sind, wie Objektive, Beleuchtung, Kameras und Software. Bei der Zusammenstellung und dem Aufbau eines Bildverarbeitungssystems ist es sehr wichtig, ein ausgewogenes Gleichgewicht zwischen Leistung und Kosten zu finden, um optimale Ergebnisse für die gewünschte Anwendung erzielen zu können. Normalerweise werden Bildverarbeitungssysteme für Online-Anwendungen entwickelt, wo sie eine direkte Auswirkung auf den Produktionsprozess haben (Echtzeit-Systeme). Ein klassisches Beispiel für das Online- Konzept ist die Möglichkeit, sofort Produkte aussortieren zu können, die als nicht konform betrachtet werden. Dabei lassen sich die Bildverarbeitungssysteme je nachdem, wie diese Entscheidung getroffen wird und welche Eigenschaften das geprüfte Objekt hat, in verschiedene Klassen unterteilen.

52

53

54 Anwendungen Bildverarbeitungssysteme sind wahre Tausendsassas: Sie können messen, identifizieren, sortieren, Codes lesen, Zeichen erkennen, Roboter führen usw. Sie können über verschiedene Kommunikationsstandards leicht mit anderen Geräten interagieren. Nachstehend einige der hauptsächlichen Kategorien, in denen Bildverarbeitungssysteme zur Anwendung kommen: Messen. Eine der wichtigsten Anwendungen der Bildverarbeitungstechnologie besteht darin, die kritischen Abmessungen eines Objekts innerhalb festgesetzter Toleranzgrenzen mit verschiedenen Genauigkeitsgraden zu erfassen. Objektiv, Beleuchtung und Kamera müssen mit leistungsstarken Software-Tools gekoppelt werden, denn nur mit Hilfe robuster, subpixelgenauer Algorithmen kann die bei Messanwendungen oft erforderliche Präzision erreicht werden (z.b. bis zu 1 um). Defekterkennung. Es gilt, verschiedene Arten von Produktmängeln aus Gründen des Aussehens und/oder Sicherheitsgründen zu erkennen. Beispiele für Mängel des Aussehens sind Verfärbungen, Flecken, Farbklumpen, Farbtonveränderungen usw., während andere Oberflächen- bzw. strukturellen Mängel wie Risse oder Dellen, aber auch Druckfehler usw. ernstere Folgen haben können. Kontrolle. Das drittgrößte Anwendungsgebiet für Bildverarbeitungssysteme ist die Kontrolle, ob ein Produkt vorschriftsmäßig hergestellt wurde, wobei es sich hier um etwas Allgemeineres handelt, das über die vorher beschriebenen Beispiele hinausgeht. So ist z.b. zu kontrollieren, ob Tabletten in einem Blister vorhanden bzw. nicht vorhanden sind, ob ein Siegel richtig positioniert ist oder ob ein bedrucktes Etikett unversehrt ist. LII

55 Bildverarbeitungssysteme Arten von Bildverarbeitungssystemen Auf dem Markt werden verschiedene Bildverarbeitungssysteme angeboten, die sich unter bei der Flexibilität, der Leistung und dem Preis voneinander unterscheiden. Bildverarbeitungssysteme werden gewöhnlich in drei Klassen eingeteilt: PC-basierte Systeme, kompakte Systeme und Systeme, die auf einer intelligenten Kamera beruhen. PC-basiert. Das klassische Bildverarbeitungssystem besteht aus einem Industrie-Computer, der alle peripheren Geräte wie Kameras und Beleuchtung steuert, mit diesen kommuniziert und die erhaltenen Informationen rasch über seine Software analysiert. Diese Lösung zeichnet sich durch eine hohe Rechenleistung und Flexibilität aus, doch ihre Größe und ihre Kosten können bedeutend sein. PC-basierte Systeme sind bei sehr komplexen Anwendungen zu empfehlen, wenn es darum geht, Inspektionsaufgaben vielerlei Art mit hoher Geschwindigkeit und einer leistungsstarken Hardware auszuführen. Die kompakte Lösung. Es handelt sich um eine leichtere Ausführung eines PC-basierten Systems, die eben als Kompaktes Bildverarbeitungssystem bezeichnet wird. Zwar heißt es, gewisse Kompromisse in Bezug auf Leistung und Kosten zu schließen, doch oft ist auch ein solches System ausreichend für weniger anspruchsvolle Anwendungen. Zu einem kompakten Bildverarbeitungssystem gehört normalerweise eine Grafikkarte, welche die Daten erhält und diese an ein separates Peripheriegerät (z.b. an Industrie-Tablets oder einen externen Monitor) überträgt. In einigen Fällen verwalten diese kompakten Bildverarbeitungssysteme nicht nur Eingaben der ersten Ebene wie Beleuchtungs-, Kamera- und Trigger-Eingaben, sondern auch eingebettete Eingaben der ersten Ebene. Fotos von Tim Coffey Photography. Quelle: Integro Technologies Corp. Auf einer intelligenten Kamera basierend. Die einfachsten und günstigsten Bildverarbeitungssysteme basieren auf intelligenten Kameras, die normalerweise in Kombination mit Standard-Objektiven (meistens Objektive mit fester Brennweite) und Beleuchtung eingesetzt werden. Zwar werden sie gewöhnlich für einfachere Anwendungen empfohlen, doch sind sie sehr leicht aufzubauen und bieten ähnliche Funktionalitäten wie klassische Bildverarbeitungssysteme, in einer sehr kompakten Form. Wie ein Bildverarbeitungssystem arbeitet Die Architektur eines Bildverarbeitungssystems steht in engem Zusammenhang damit, wofür es eingesetzt werden soll. Einige Systeme sind eigenständige Geräte, die für spezifische Aufgaben entwickelt wurden (z.b. zum Messen und zur Erkennung), andere dagegen sind in einen komplexeren Rahmen eingebettet, zu dem zum Beispiel mechanische Antriebe, Sensoren usw. gehören können. Dennoch sind alle Bildverarbeitungssysteme durch drei grundlegende Vorgänge gekennzeichnet: Bilderfassung. Die erste und bedeutendste Aufgabe eines Bildverarbeitungssystems besteht in der Erfassung des Bildes, was normalerweise durch einen lichtempfindlichen Sensor erfolgt. Dabei kann es sich um ein herkömmliches 2D-Bild, eine 3D-Punktzuordnung oder eine Bildsequenz handeln. In dieser Phase kann eine Anzahl von Parametern konfiguriert werden, wie die Auslösung des Bildes, Belichtungszeit der Kamera, die Blendeneinstellung, die Beleuchtungsgeometrie usw. Gewinnung von Merkmalen. In dieser Phase können bestimmte Eigenschaften aus dem Bild extrapoliert werden: Linien, Kanten, Winkel, besondere Zielbereiche und auch komplexere Eigenschaften wie die Bewegungsverfolgung, Formen und Beschaffenheit. Erkennung/Segmentierung. Jetzt muss das System entscheiden, welche der vorher erfassten Informationen weitergeleitet und verarbeitet werden sollen. Verarbeitung auf hoher Ebene. Hier besteht die Eingabe gewöhnlich aus einem begrenzten Datensatz. Der Zweck dieses letzten Schrittes kann folgender sein: Zuordnung von Objekten oder Eigenschaften eines Objekts zu einer bestimmten Klasse Kontrolle, ob die Eingabe den vom Modell oder von der Klasse geforderten Spezifikationen entspricht Messung/Schätzung/Berechnung spezifischer Parameter wie die Position oder die Abmessungen eines Objekts oder der Eigenschaften des Objekts LIII

56

Die Interpretation Optischer Leistungsdaten

Die Interpretation Optischer Leistungsdaten Die Interpretation Optischer Leistungsdaten Einige Fakten über die Carl Zeiss AG Seit 1896 berühmt für Kamera-Objektive Zeiss 1846 von Carl Zeiss gegründet 48 Produktionsstandorte weltweit Die ersten Kamerabilder

Mehr

Optische Systeme (5. Vorlesung)

Optische Systeme (5. Vorlesung) 5.1 Optische Systeme (5. Vorlesung) Yousef Nazirizadeh 20.11.2006 Universität Karlsruhe (TH) Inhalte der Vorlesung 5.2 1. Grundlagen der Wellenoptik 2. Abbildende optische Systeme 2.1 Lupe / Mikroskop

Mehr

Bildwinkel & Auflösung

Bildwinkel & Auflösung Whitepaper HD-Kameras Bildwinkel & Auflösung Box-Kameras DF4510HD DF4910HD DF4910HD-DN DF4920HD-DN Dome-Kameras DDF4510HDV DDF4910HDV DDF4910HDV-DN DDF4820HDV-DN DDF4920HDV-DN IR-Kameras DF4910HD-DN/IR

Mehr

Fachartikel. Telezentrische Objektive für Kameras größer 1 Zoll

Fachartikel. Telezentrische Objektive für Kameras größer 1 Zoll Vision & Control GmbH Mittelbergstraße 16 98527 Suhl. Germany Telefon: +49 3681 / 79 74-0 Telefax: +49 36 81 / 79 74-33 www.vision-control.com Fachartikel Telezentrische Objektive für Kameras größer 1

Mehr

Übungen zur Experimentalphysik 3

Übungen zur Experimentalphysik 3 Übungen zur Experimentalphysik 3 Prof. Dr. L. Oberauer Wintersemester 2010/2011 7. Übungsblatt - 6.Dezember 2010 Musterlösung Franziska Konitzer (franziska.konitzer@tum.de) Aufgabe 1 ( ) (8 Punkte) Optische

Mehr

Versuch C: Auflösungsvermögen Einleitung

Versuch C: Auflösungsvermögen Einleitung Versuch C: svermögen Einleitung Das AV wird üblicherweise in Linienpaaren pro mm (Lp/mm) angegeben und ist diejenige Anzahl von Linienpaaren, bei der ein normalsichtiges Auge keinen Kontrastunterschied

Mehr

7.7 Auflösungsvermögen optischer Geräte und des Auges

7.7 Auflösungsvermögen optischer Geräte und des Auges 7.7 Auflösungsvermögen optischer Geräte und des Auges Beim morgendlichen Zeitung lesen kann ein gesundes menschliche Auge die Buchstaben des Textes einer Zeitung in 50cm Entfernung klar und deutlich wahrnehmen

Mehr

LEICA SUMMILUX-M 1:1,4/28mm ASPH.

LEICA SUMMILUX-M 1:1,4/28mm ASPH. LEICA SUMMILUX-M :,4/8mm ASPH. Mit dem Leica Summilux-M :,4 / 8mm ASPH. ist die Reihe der hoch lichtstarken M-Weitwinkel-Brennweiten nun vollständig. Die Abbildungsleistungen liegen bereits bei voller

Mehr

LEICA Summarit-S 1:2,5/70 mm ASPH. /CS

LEICA Summarit-S 1:2,5/70 mm ASPH. /CS LEICA Suarit-S 1:2,5/7 ASPH. /CS Technische Daten. Abbildung 1:2 Technische Daten Bestell-Nuer 1155 (CS: 1151) Bildwinkel (diagonal, horizontal, vertikal) ca. 42 / 35 / 24, entspricht ca. 56 bei Kleinbild

Mehr

Lösung zum Parabolspiegel

Lösung zum Parabolspiegel Lösung zum Parabolspiegel y s 1 s 2 Offensichtlich muss s = s 1 + s 2 unabhängig vom Achsenabstand y bzw. über die Parabelgleichung auch unabhängig von x sein. f F x s = s 1 + s 2 = f x + y 2 + (f x) 2

Mehr

Auflösungsvermögen bei leuchtenden Objekten

Auflösungsvermögen bei leuchtenden Objekten Version: 27. Juli 2004 Auflösungsvermögen bei leuchtenden Objekten Stichworte Geometrische Optik, Wellennatur des Lichts, Interferenz, Kohärenz, Huygenssches Prinzip, Beugung, Auflösungsvermögen, Abbé-Theorie

Mehr

Dr. Thomas Kirn Vorlesung 12

Dr. Thomas Kirn Vorlesung 12 Physik für Maschinenbau Dr. Thomas Kirn Vorlesung 12 1 Wiederholung V11 2 Lichterzeugung: Wärmestrahlung Schwarzer Körper: Hohlraumstrahlung Wien sches Verschiebungsgesetz: λ max T = b = 2,9 10-3 m K Stefan

Mehr

1 mm 20mm ) =2.86 Damit ist NA = sin α = 0.05. α=arctan ( 1.22 633 nm 0.05. 1) Berechnung eines beugungslimitierten Flecks

1 mm 20mm ) =2.86 Damit ist NA = sin α = 0.05. α=arctan ( 1.22 633 nm 0.05. 1) Berechnung eines beugungslimitierten Flecks 1) Berechnung eines beugungslimitierten Flecks a) Berechnen Sie die Größe eines beugungslimitierten Flecks, der durch Fokussieren des Strahls eines He-Ne Lasers (633 nm) mit 2 mm Durchmesser entsteht.

Mehr

Praktikum Angewandte Optik Versuch: Aufbau eines Fernrohres

Praktikum Angewandte Optik Versuch: Aufbau eines Fernrohres Praktikum Angewandte Optik Versuch: Aufbau eines Fernrohres Historisches und Grundlagen: Generell wird zwischen zwei unterschiedlichen Typen von Fernrohren unterschieden. Auf der einen Seite gibt es das

Mehr

LEICA APO-SUMMICRON-R 1:2/90 mm ASPH. 1

LEICA APO-SUMMICRON-R 1:2/90 mm ASPH. 1 LEICA APO-SUMMICRON-R 1:2/9 mm ASPH. 1 Apochromatische Korrektur und der Einsatz einer asphärischen Linsenfläche ergänzen sich bei diesem kompakten Teleobjektiv im Hochleistungs-Zusammenspiel. Zwei von

Mehr

Teilskript zur LV "Optik 1" Paraxiale Abbildungseigenschaften sphärischer Linsen Seite 1

Teilskript zur LV Optik 1 Paraxiale Abbildungseigenschaften sphärischer Linsen Seite 1 Teilskript zur LV "Optik " sphärischer Linsen Seite Objekt (optisch) Gesamtheit von Objektpunkten, von denen jeweils ein Bündel von Lichtstrahlen ausgeht Wahrnehmen eines Objektes Ermittlung der Ausgangspunkte

Mehr

FK Ex 4 - Musterlösung Dienstag

FK Ex 4 - Musterlösung Dienstag FK Ex 4 - Musterlösung Dienstag Snellius Tarzan wird in einem ruhigen See am Punkt J von einem Krokodil angegriffen. Jane, die sich an Land mit gezücktem Buschmesser am Punkt T befindet, möchte ihm zu

Mehr

LEICA MACRO-ELMAR-M 1:4/90 mm

LEICA MACRO-ELMAR-M 1:4/90 mm 1 Das Leica Macro-Elmar-M 1:4/90mm ist ein leistungsstarkes Teleobjektiv. Seine mittellange Brennweite eignet sich vor allem für Portraits, bei denen sich die Personen bildwirksam deutlich vom Hintergrund

Mehr

Bi-Telezentrische Objektive

Bi-Telezentrische Objektive Bi-Telezentrische Objektive Hochgenaue optische Vermessung Prüfung mechanischer Bauteile Kunststoffteileprüfung Inspektion pharmazeutischer Erzeugnisse Prüfung von Glaskörpern Inspektion elektronischer

Mehr

Kapitel 1 Optik: Bildkonstruktion. Spiegel P` B P G. Ebener Spiegel: Konstruktion des Bildes von G.

Kapitel 1 Optik: Bildkonstruktion. Spiegel P` B P G. Ebener Spiegel: Konstruktion des Bildes von G. Optik: Bildkonstruktion Spiegel P G P` B X-Achse Ebener Spiegel: g = b g b G = B Konstruktion des Bildes von G. 1. Zeichne Strahl senkrecht von der Pfeilspitze zum Spiegel (Strahl wird in sich selbst reflektiert)

Mehr

18.Elektromagnetische Wellen 19.Geometrische Optik. Spektrum elektromagnetischer Wellen Licht. EPI WS 2006/7 Dünnweber/Faessler

18.Elektromagnetische Wellen 19.Geometrische Optik. Spektrum elektromagnetischer Wellen Licht. EPI WS 2006/7 Dünnweber/Faessler Spektrum elektromagnetischer Wellen Licht Ausbreitung von Licht Verschiedene Beschreibungen je nach Größe des leuchtenden (oder beleuchteten) Objekts relativ zur Wellenlänge a) Geometrische Optik: Querdimension

Mehr

Physik 2 (GPh2) am

Physik 2 (GPh2) am Name: Matrikelnummer: Studienfach: Physik 2 (GPh2) am 17.09.2013 Fachbereich Elektrotechnik und Informatik, Fachbereich Mechatronik und Maschinenbau Zugelassene Hilfsmittel zu dieser Klausur: Beiblätter

Mehr

LEICA SUMMILUX-M 1:1,4/35 mm ASPH. 1

LEICA SUMMILUX-M 1:1,4/35 mm ASPH. 1 LEICA SUMMILUX-M 1:1,4/35 mm ASPH. 1 Das LEICA SUMMILUX-M 1:1,4/35 mm ASPH. ist eine weiter optimierte Neuauflage des beliebten Weitwinkelobjektivs im Leica Messsuchersystem. Durch die konsequente Weiterentwicklung

Mehr

Herausforderung Hochauflösende Inspektion. 13./14.11.2013 Thomas Schäffler

Herausforderung Hochauflösende Inspektion. 13./14.11.2013 Thomas Schäffler Herausforderung Hochauflösende Inspektion 13./14.11.2013 Thomas Schäffler Agenda Herausforderung der hochauflösenden Inspektion: Große Sensoren, kleine Pixel und große Abbildungsmaßstäbe Über Qioptiq Einige

Mehr

2.4 Technische Optik. Dieses Skript ist eine Ergänzung zu der Vorlesung Technische Bildverarbeitung. Es ist kein Lehrbuch.

2.4 Technische Optik. Dieses Skript ist eine Ergänzung zu der Vorlesung Technische Bildverarbeitung. Es ist kein Lehrbuch. 2.4 Technische Optik Dieses Skript ist eine Ergänzung zu der Vorlesung Technische Bildverarbeitung. Es ist kein Lehrbuch. Dieses Skript darf ausschließlich als begleitendes Lehrmittel für die Vorlesung

Mehr

Einführung in die Physik II für Studierende der Naturwissenschaften und Zahnheilkunde. Sommersemester 2007

Einführung in die Physik II für Studierende der Naturwissenschaften und Zahnheilkunde. Sommersemester 2007 Einführung in die Physik II für Studierende der Naturwissenschaften und Zahnheilkunde Sommersemester 2007 VL #45 am 18.07.2007 Vladimir Dyakonov Erzeugung von Interferenzen: 1) Durch Wellenfrontaufspaltung

Mehr

Instrumenten- Optik. Mikroskop

Instrumenten- Optik. Mikroskop Instrumenten- Optik Mikroskop Gewerblich-Industrielle Berufsschule Bern Augenoptikerinnen und Augenoptiker Der mechanische Aufbau Die einzelnen mechanischen Bauteile eines Mikroskops bezeichnen und deren

Mehr

Inhalt Phototechnik 24.4.07

Inhalt Phototechnik 24.4.07 Inhalt Phototechnik 24.4.07 4.2.1.5 Abbildungsfehler Klassifikation der Abbildungsfehler Ursachen Fehlerbilder Versuch Projektion Ursachen für Abbildungsfehler Korrekturmaßnahmen 1 Paraxialgebiet Bisher:

Mehr

BL Brennweite von Linsen

BL Brennweite von Linsen BL Brennweite von Linsen Blockpraktikum Frühjahr 2007 25. April 2007 Inhaltsverzeichnis 1 Einführung 2 2 Theoretische Grundlagen 2 2.1 Geometrische Optik................... 2 2.2 Dünne Linse........................

Mehr

Physik für Mediziner im 1. Fachsemester

Physik für Mediziner im 1. Fachsemester Physik für Mediziner im 1. Fachsemester #22 27/11/2008 Vladimir Dyakonov dyakonov@physik.uni-wuerzburg.de Optische Instrumente Allgemeine Wirkungsweise der optischen Instrumente Erfahrung 1. Von weiter

Mehr

Praktikum MI Mikroskop

Praktikum MI Mikroskop Praktikum MI Mikroskop Florian Jessen (Theorie) Hanno Rein (Auswertung) betreut durch Christoph von Cube 16. Januar 2004 1 Vorwort Da der Mensch mit seinen Augen nur Objekte bestimmter Größe wahrnehmen

Mehr

Protokoll. zum Physikpraktikum. Versuch Nr.: 8 Mikroskop. Gruppe Nr.: 1

Protokoll. zum Physikpraktikum. Versuch Nr.: 8 Mikroskop. Gruppe Nr.: 1 Protokoll zum Physikpraktikum Versuch Nr.: 8 Mikroskop Gruppe Nr.: 1 Andreas Bott (Protokollant) Marco Schäfer Theoretische Grundlagen Das menschliche Auge: Durch ein Linsensystem wird im menschlichen

Mehr

Telezentrische Meßtechnik

Telezentrische Meßtechnik Telezentrische Meßtechnik Beidseitige Telezentrie - eine Voraussetzung für hochgenaue optische Meßtechnik Autor : Dr. Rolf Wartmann, Bad Kreuznach In den letzten Jahren erlebten die Techniken der berührungslosen,

Mehr

Industrielle Bildverarbeitung

Industrielle Bildverarbeitung Industrielle Bildverarbeitung Übungen 1. Aufgabe Ein Objektiv mit der Brennweite 12.5mm kann auf Entfernungen zwischen 0.5 m und eingestellt werden. Wie gross ist dann jeweils die Bildweite? Dieses Objektiv

Mehr

LUMIMAX Beleuchtungsworkshop. iim AG 19.03.2015

LUMIMAX Beleuchtungsworkshop. iim AG 19.03.2015 LUMIMAX Beleuchtungsworkshop iim AG 19.03.2015 Bedeutung der Beleuchtung Der Einfluss der Beleuchtung auf die Bildverarbeitungslösung wird häufig unterschätzt. Jede BV-Applikation benötigt ein optimales

Mehr

Eine solche Anordnung wird auch Fabry-Pérot Interferometer genannt

Eine solche Anordnung wird auch Fabry-Pérot Interferometer genannt Interferenz in dünnen Schichten Interferieren die an dünnen Schichten reflektierten Wellen miteinander, so können diese sich je nach Dicke der Schicht und Winkel des Einfalls auslöschen oder verstärken

Mehr

Beste Bildqualität mit 6 Megapixeln!

Beste Bildqualität mit 6 Megapixeln! 1 von 7 02.11.2007 11:07 Die Flut der kleinen Pixel oder der Fluch der kleinen Pixel? Freitag, den 31. August 2007 Beste Bildqualität mit 6 Megapixeln! Der beste Kompromiss für eine Kompaktkamera ist ein

Mehr

Wima-Praktikum 2: Bildsynthese-Phong

Wima-Praktikum 2: Bildsynthese-Phong Wima-Praktikum 2: Bildsynthese-Phong Wima-Praktikum 2: Prof. Dr. Lebiedz, M. Sc. Radic 1 Inhaltsverzeichnis 1 Einleitung 3 2 Kurze Beschreibung der Aufgabenstellung und dem Phong- Modell 3 3 Modellierung

Mehr

Abb. 2 In der Physik ist der natürliche Sehwinkel der Winkel des Objektes in der "normalen Sehweite" s 0 = 25 cm.

Abb. 2 In der Physik ist der natürliche Sehwinkel der Winkel des Objektes in der normalen Sehweite s 0 = 25 cm. Mikroskop 1. ZIEL In diesem Versuch sollen Sie sich mit dem Strahlengang in einem Mikroskop vertraut machen und verstehen, wie es zu einer Vergrößerung kommt. Sie werden ein Messokular kalibrieren, um

Mehr

Filter in der industriellen Bildverarbeitung. Polytec

Filter in der industriellen Bildverarbeitung.  Polytec www.polytec.com Polytec Wozu Filter? - Zum Hervorheben von gewünschten Bildinformationen - Zum Unterdrücken von unerwünschten Bildinformationen 2 Arten von Filtern Standardfilter für Objektive mit Filtergewinde

Mehr

Klausurtermin: Anmeldung: 2. Chance: voraussichtlich Klausur am

Klausurtermin: Anmeldung:  2. Chance: voraussichtlich Klausur am Klausurtermin: 13.02.2003 Anmeldung: www.physik.unigiessen.de/dueren/ 2. Chance: voraussichtlich Klausur am 7.4.2003 Optik: Physik des Lichtes 1. Geometrische Optik: geradlinige Ausbreitung, Reflexion,

Mehr

UNIVERSITÄT BIELEFELD

UNIVERSITÄT BIELEFELD UNIVERSITÄT BIELEFELD Optik Brechungszahl eines Prismas Durchgeführt am 17.05.06 Dozent: Praktikanten (Gruppe 1): Dr. Udo Werner Marcus Boettiger Daniel Fetting Marius Schirmer II Inhaltsverzeichnis 1

Mehr

Brennweite, Bildwinkel und Aufnahmeformat

Brennweite, Bildwinkel und Aufnahmeformat Brennweite, Bildwinkel und Aufnahmeformat Der Ausschnitt einer Szene, die eine Kamera von beliebigen Standorten aufnimmt, hängt von der Objektivbrennweite und dem Aufnahmeformat ab. Die Konstrukteure von

Mehr

Polarisationsapparat

Polarisationsapparat 1 Polarisationsapparat Licht ist eine transversale elektromagnetische Welle, d.h. es verändert die Länge der Vektoren des elektrischen und magnetischen Feldes. Das elektrische und magnetische Feld ist

Mehr

Makros scharf von vorne bis hinten.

Makros scharf von vorne bis hinten. Makros scharf von vorne bis hinten. Das Programm CombineZP ermöglicht diese Rechnung. http://myrmecos.wordpress.com/2009/12/05/combinezp-stack-your-images-for-free/ http://www.hadleyweb.pwp.blueyonder.co.uk/

Mehr

OW_01_02 Optik und Wellen GK/LK Beugung und Dispersion. Grundbegriffe der Strahlenoptik

OW_01_02 Optik und Wellen GK/LK Beugung und Dispersion. Grundbegriffe der Strahlenoptik OW_0_0 Optik und Wellen GK/LK Beugung und Dispersion Unterrichtliche Voraussetzungen: Grundbegriffe der Strahlenoptik Literaturangaben: Optik: Versuchsanleitung der Fa. Leybold; Hürth 986 Verfasser: Peter

Mehr

Geometrische Optik Brechungs- und Reflexionsgesetz

Geometrische Optik Brechungs- und Reflexionsgesetz Geometrische Optik Brechungs- und Reflexionsgesetz 1) In einem Gefäß mit Wasser (n = 4/3) befindet sich unter der Wasseroberfläche ein ebener, unter 45 o geneigter Spiegel. Unter welchem Winkel muß ein

Mehr

III. Elektrizität und Magnetismus Anhang zu 21. Wechselstrom: Hochspannungsleitung 22. Elektromagnetische Wellen

III. Elektrizität und Magnetismus Anhang zu 21. Wechselstrom: Hochspannungsleitung 22. Elektromagnetische Wellen 21. Vorlesung EP III. Elektrizität und Magnetismus Anhang zu 21. Wechselstrom: Hochspannungsleitung 22. Elektromagnetische Wellen IV Optik 22. Fortsetzung: Licht = sichtbare elektromagnetische Wellen 23.

Mehr

Geometrische Optik. Lichtbrechung

Geometrische Optik. Lichtbrechung Geometrische Optik Bei der Beschreibung des optischen Systems des Mikroskops bedient man sich der Gaußschen Abbildungstheorie. Begriffe wie Strahlengang im Mikroskop, Vergrößerung oder auch das Verständnis

Mehr

Telezentriefehler und seine Auswirkungen auf die Messgenauigkeit. Vision 2008. Simone Weber

Telezentriefehler und seine Auswirkungen auf die Messgenauigkeit. Vision 2008. Simone Weber Telezentriefehler und seine Auswirkungen auf die Messgenauigkeit Vision 2008 Simone Weber Gliederung 1. Einleitung 2. Eigenschaften der telezentrischen Abbildung 3. Telezentriefehler 2ϕ 4. Quantifizierung

Mehr

Optimales Zusammenspiel von Kamera und Optik. Carl Zeiss AG, Udo Schellenbach, PH-V

Optimales Zusammenspiel von Kamera und Optik. Carl Zeiss AG, Udo Schellenbach, PH-V Trivialitäten Nicht mehr ganz so trivial Geheimwissen Welchen Stellenwert nimmt die Optik bei Bildverarbeitern oft ein? Trivialitäten: Wie groß ist der Sensor der Kamera? Deckt der Bildkreis des Objektivs

Mehr

> Vortrag: GL Optik > Christian Williges (christian.williges@dlr.de) Grundlagen der Optik. Eine kurze Einführung

> Vortrag: GL Optik > Christian Williges (christian.williges@dlr.de) Grundlagen der Optik. Eine kurze Einführung DLR.de Folie 1 Grundlagen der Optik Eine kurze Einführung DLR.de Folie 2 Agenda 1. Fotografie Bedeutung der Blendenwerte Blende und Schärfentiefe Blende und Helligkeit 2. Strahlenoptik (Paraxiale Optik)

Mehr

geschlossene Schachtel mit einem kleinen Loch

geschlossene Schachtel mit einem kleinen Loch Kameramodellierung Lochkamera Kamerakonstante Kamerazentrum geschlossene Schachtel mit einem kleinen Loch ideale Kamera: Loch hat keine Ausdehnung die Strahlen sind ein Büschel von Geraden Abbildung erfolgt

Mehr

Physikalisches Praktikum 3. Abbésche Theorie

Physikalisches Praktikum 3. Abbésche Theorie Physikalisches Praktikum 3 Versuch: Betreuer: Abbésche Theorie Dr. Enenkel Aufgaben: 1. Bauen Sie auf einer optischen Bank ein Modellmikroskop mit optimaler Vergrößerung auf. 2. Untersuchen Sie bei verschiedenen

Mehr

ABV2 R. Neubecker, WS 2015 / 2016

ABV2 R. Neubecker, WS 2015 / 2016 Telezentrische (und andere) Objektive ABV2 R. Neubecker, WS 2015 / 2016 2 Objektseitige Telezentrie Beidseitige Telezentrie Anwendungen und Eigenschaften Telezentrische Beleuchtung Pupillen und Projektionszentren

Mehr

CSCB - Fotoclub Workshop. TIPS und Grundlagen für gute Bilder

CSCB - Fotoclub Workshop. TIPS und Grundlagen für gute Bilder CSCB - Fotoclub Workshop TIPS und Grundlagen für gute Bilder Themen Übersicht Einführungs-Workshop / Kurs Fokussierung Belichtungsmessung Weitwinkel vs. Tele wie wird scharf gestellt wie wird das Licht

Mehr

Übungen zur Experimentalphysik 3

Übungen zur Experimentalphysik 3 Übungen zur Experimentalphysik 3 Prof. Dr. L. Oberauer Wintersemester 2010/2011 10. Übungsblatt - 10. Januar 2011 Musterlösung Franziska Konitzer (franziska.konitzer@tum.de) Aufgabe 1 ( ) (6 Punkte) a)

Mehr

Optik für 4K oder mehr

Optik für 4K oder mehr Optik für 4K oder mehr Dr. H. Nasse Staff Scientist Wiesbaden, 17.03.2015 Nahe oder ferne Zukunft oder??? 16 K 2 Kommentar Ich habe vor kurzem schon Anfragen aus USA bekommen nach Optiken für einen 16K-

Mehr

Polarisation durch Reflexion

Polarisation durch Reflexion Version: 27. Juli 2004 Polarisation durch Reflexion Stichworte Erzeugung von polarisiertem Licht, linear, zirkular und elliptisch polarisiertes Licht, Polarisator, Analysator, Polarisationsebene, optische

Mehr

Dokument in Arbeit. Objektiv Test. Anregungen, wie man Objektive für Makro- und Mikrofotografie selber testen kann. Kurt Wirz

Dokument in Arbeit. Objektiv Test. Anregungen, wie man Objektive für Makro- und Mikrofotografie selber testen kann. Kurt Wirz Dokument in Arbeit Objektiv Test Anregungen, wie man Objektive für Makro- und Mikrofotografie selber testen kann. 18.12.2016 ObjektivTest_001.pdf Seite 1 von 7 Vorwort Hier ist die Rede von Objektiven,

Mehr

Hauptseminar Autofokus

Hauptseminar Autofokus Hauptseminar Autofokus Hans Dichtl 30. Januar 2007 Wann ist ein Bild fokussiert? Wann ist ein Bild fokusiert? Welche mathematischen Modelle stehen uns zur Verfügung? Wie wird das elektronisch und mechanisch

Mehr

85mm F1,4 Spitzenleistung. Einführung des ultimativen Objektivs für Portraits und mehr.

85mm F1,4 Spitzenleistung. Einführung des ultimativen Objektivs für Portraits und mehr. September 2016 A Art SIGMA 85mm F1.4 DG HSM 85mm F1,4 Spitzenleistung. Einführung des ultimativen Objektivs für Portraits und mehr. 1. Ein Design, das optische Leistung priorisiert ohne Kompromisse 2.

Mehr

Physikalisches Praktikum

Physikalisches Praktikum Physikalisches Praktikum MI2AB Prof. Ruckelshausen Versuch 3.2: Wellenlängenbestimmung mit dem Gitter- und Prismenspektrometer Inhaltsverzeichnis 1. Theorie Seite 1 2. Versuchsdurchführung Seite 2 2.1

Mehr

Objektive für extrem großen Spektralbereich

Objektive für extrem großen Spektralbereich Polychromat Objektive für extrem großen Spektralbereich Autor : Henning Mehnert und Thomas Steinich, Bad Kreuznach Dieser Artikel ist erschienen in der Oktoberausgabe der Fachzeitschrift PHOTONIK 5/2011

Mehr

Turmdrehkrane richtig fotografieren. Eine Kurzanleitung

Turmdrehkrane richtig fotografieren. Eine Kurzanleitung Turmdrehkrane richtig fotografieren Eine Kurzanleitung Von A. Bruderer, kran- info.ch 04.10.2015 Version 1.00 kran- info.ch Seite 1 / 6 Einführung Turmdrehkrane als Gitter Konstruktion sind bei der Fotografie

Mehr

Wie gut ist ein altes Objektiv Revuenon 1:2,8 135 mm?

Wie gut ist ein altes Objektiv Revuenon 1:2,8 135 mm? Wie gut ist ein altes Objektiv Revuenon 1:2,8 135 mm? Auf ebay existiert seit geraumer ein stetes Angebot und Nachfrage nach einem alten Objektiv Revuenon 1:2,8 135mm. Das Objektiv gehört zu der Klasse

Mehr

2. Linsen und Linsensysteme

2. Linsen und Linsensysteme 2. Linsen und Linsensysteme 2.1. Sphärische Einzellinsen 2.1.1. Konvexlinsen Konvexlinsen sind Sammellinsen mit einer positiven Brennweite. Ein paralleles Lichtbündel konvergiert nach dem Durchgang durch

Mehr

Musterprüfung Welche Winkel werden beim Reflexions- und Brechungsgesetz verwendet?

Musterprüfung Welche Winkel werden beim Reflexions- und Brechungsgesetz verwendet? 1 Musterprüfung Module: Linsen Optische Geräte 1. Teil: Linsen 1.1. Was besagt das Reflexionsgesetz? 1.2. Welche Winkel werden beim Reflexions- und Brechungsgesetz verwendet? 1.3. Eine Fläche bei einer

Mehr

Übungen zur Optik (E3-E3p-EPIII) Blatt 8

Übungen zur Optik (E3-E3p-EPIII) Blatt 8 Übungen zur Optik (E3-E3p-EPIII) Blatt 8 Wintersemester 2016/2017 Vorlesung: Thomas Udem ausgegeben am 06.12.2016 Übung: Nils Haag (Nils.Haag@lmu.de) besprochen ab 12.12.2016 Die Aufgaben ohne Stern sind

Mehr

Gitterherstellung und Polarisation

Gitterherstellung und Polarisation Versuch 1: Gitterherstellung und Polarisation Bei diesem Versuch wollen wir untersuchen wie man durch Überlagerung von zwei ebenen Wellen Gttterstrukturen erzeugen kann. Im zweiten Teil wird die Sichtbarkeit

Mehr

Physikalisches Praktikum I Bachelor Physikalische Technik: Lasertechnik, Biomedizintechnik Prof. Dr. H.-Ch. Mertins, MSc. M.

Physikalisches Praktikum I Bachelor Physikalische Technik: Lasertechnik, Biomedizintechnik Prof. Dr. H.-Ch. Mertins, MSc. M. Physikalisches Praktikum I Bachelor Physikalische Technik: Lasertechnik, Biomedizintechnik Prof. Dr. H.-Ch. Mertins, MSc. M. O0 Optik: Abbildung mit dünnen Linsen (Pr_PhI_O0_Linsen_6, 5.06.04). Name Matr.

Mehr

3B SCIENTIFIC PHYSICS

3B SCIENTIFIC PHYSICS 3B SCIENTIFIC PHYSICS Demonstrations-Laseroptik-Satz U17300 und Ergänzungssatz U17301 Bedienungsanleitung 1/05 ALF Inhaltsverzeichnung Seite Exp - Nr. Experiment Gerätesatz 1 Einleitung 2 Leiferumfang

Mehr

Fotografie Grundlagen (aus https://de.wikipedia.org/wiki)

Fotografie Grundlagen (aus https://de.wikipedia.org/wiki) Fotografie Grundlagen (aus https://de.wikipedia.org/wiki) Die Blende Die Blende ist eine (normalerweise mechanische) Vorrichtung an Kameras, mit deren Hilfe der Lichtdurchlass durch das optische System

Mehr

Bildbearbeitungstechniken Lehrerinformation

Bildbearbeitungstechniken Lehrerinformation Lehrerinformation 1/9 Arbeitsauftrag Ziel Zwanzig klassische Elemente der Bildbearbeitung werden vorgestellt. Die Sch arbeiten in Zweierteams und erarbeiten sich das Wissen zu je 1 2. Sie bearbeiten Bildausschnitte,

Mehr

Tutorium Physik 2. Optik

Tutorium Physik 2. Optik 1 Tutorium Physik 2. Optik SS 16 2.Semester BSc. Oec. und BSc. CH 2 Themen 7. Fluide 8. Rotation 9. Schwingungen 10. Elektrizität 11. Optik 12. Radioaktivität 3 11. OPTIK - REFLEXION 11.1 Einführung Optik:

Mehr

Fortgeschrittenenpraktikum: Ausarbeitung - Versuch 14 Optische Absorption Durchgeführt am 13. Juni 2002

Fortgeschrittenenpraktikum: Ausarbeitung - Versuch 14 Optische Absorption Durchgeführt am 13. Juni 2002 Fortgeschrittenenpraktikum: Ausarbeitung - Versuch 14 Optische Absorption Durchgeführt am 13. Juni 2002 30. Juli 2002 Gruppe 17 Christoph Moder 2234849 Michael Wack 2234088 Sebastian Mühlbauer 2218723

Mehr

Modellierung optischer Linsen mit Dynamischer Geometriesoftware

Modellierung optischer Linsen mit Dynamischer Geometriesoftware Modellierung optischer Linsen mit Dynamischer Geometriesoftware Andreas Ulovec 1 Einführung Wenn im Physikunterricht der Zeitpunkt gekommen ist, den Weg eines Lichtstrahls durch Glas, Linsen oder ein ganzes

Mehr

Optik des Mikroskops

Optik des Mikroskops Master MIW University of Lübeck Biomedizinische Optik II Optik des Mikroskops Einfluss der Beleuchtung auf Auflösung, Kontrast und Bildstrukturen Alfred Vogel / April 2012 Strahlengang im modernen Mikroskop

Mehr

zur geometrischen Optik des Auges und optische Instrumente: Lupe - Mikroskop - Fernrohr

zur geometrischen Optik des Auges und optische Instrumente: Lupe - Mikroskop - Fernrohr zur geometrischen Optik des Auges und optische Instrumente: Lupe - Mikroskop - Fernrohr 426 Das Auge n = 1.3 adaptive Linse: Brennweite der Linse durch Muskeln veränderbar hoher dynamischer Nachweisbereich

Mehr

DinoCapture2.0: BMP, GIF, PNG, MNG, TIF, TGA, PCX, WBMP, JP2, JPC, JPG, PGX, RAS, PNM DinoXcope: PNG, JPEG Movie Format:

DinoCapture2.0: BMP, GIF, PNG, MNG, TIF, TGA, PCX, WBMP, JP2, JPC, JPG, PGX, RAS, PNM DinoXcope: PNG, JPEG Movie Format: Dino-Lite Edge Serie USB Handmikroskop AM4515T5 1.3M, 1280x1024, 500x-550x Vergrößerung - AMR (Automatic Magnification Reading) - Stativ RK-10 empfehlenswert praktisch präzise preiswert auto-reading Model

Mehr

Fortgeschrittene Photonik Technische Nutzung von Licht

Fortgeschrittene Photonik Technische Nutzung von Licht Fortgeschrittene Photonik Technische Nutzung von Licht Fresnel Formeln Fresnel sche Formeln Anschaulich Fresnel sche Formeln Formeln Fresnel schen Formeln R k = r 2 k = R? = r 2? = Energieerhaltung:

Mehr

Physik für Mediziner im 1. Fachsemester

Physik für Mediziner im 1. Fachsemester Physik für Mediziner im 1. Fachsemester #21 26/11/2008 Vladimir Dyakonov dyakonov@physik.uni-wuerzburg.de Brechkraft Brechkraft D ist das Charakteristikum einer Linse D = 1 f! Einheit: Beispiel:! [ D]

Mehr

Beugung an Spalt und Gitter, Auflösungsvermögen des Mikroskops

Beugung an Spalt und Gitter, Auflösungsvermögen des Mikroskops 22-1 Beugung an Spalt und Gitter, Auflösungsvermögen des Mikroskops 1. Vorbereitung : Wellennatur des Lichtes, Interferenz, Kohärenz, Huygenssches Prinzip, Beugung, Fresnelsche und Fraunhofersche Beobachtungsart,

Mehr

UV-LED Flächenbeleuchtung - Benutzerhandbuch

UV-LED Flächenbeleuchtung - Benutzerhandbuch UV-LED Flächenbeleuchtung Benutzerhandbuch Seite 1 von 8 1. Allgemeine Beschreibung Die UV-LED Flächenbeleuchtung besteht aus einer LED-Beleuchtungseinheit mit Objektiv und der darauf angepassten Treiberelektronik

Mehr

Handbuch zu SpyderLENSCAL

Handbuch zu SpyderLENSCAL Handbuch zu SpyderLENSCAL Der Spyder-Effekt Herzlichen Glückwunsch! Sie haben jetzt ein überlegenes Tool zum Messen und Anpassen der Fokussierungsleistung Ihrer Ka-mera-Objektiv-Kombinationen. Datacolor

Mehr

2. Quadratische Lagrangefunktionen und Fourierreihe.

2. Quadratische Lagrangefunktionen und Fourierreihe. 0. Einführung Wir haben gerade das klassische Wirkungsprinzip betrachtet, nachdem wir wissen, dass der dynamische Verlauf eines Teilchens in dem Diagramm die Kurve darstellen soll, die die minimale Wirkung

Mehr

vicotar Optiken Herausforderung Präzision. OPTIKEN FÜR MACHINE VISION Pioneering vision.

vicotar Optiken Herausforderung Präzision. OPTIKEN FÜR MACHINE VISION Pioneering vision. vicotar Optiken Herausforderung OPTIKEN FÜR MACHINE VISION Präzision. Pioneering vision. Herausforderung Präzision. Der im Verborgenen liegenden Formenvielfalt und komplizierten Geometrien schenken wir

Mehr

Optisches Institut der TU Berlin Technische Optik. Optisches Praktikum, Aufgabe 15: Mikroprojektion

Optisches Institut der TU Berlin Technische Optik. Optisches Praktikum, Aufgabe 15: Mikroprojektion Optisches Institut der TU Berlin Technische Optik Optisches Praktikum, Aufgabe 15: Mikroprojektion 1. Ziel der Aufgabe Kennenlernen der Grundlagen von Abbildungs- und Beleuchtungsstrahlengängen und deren

Mehr

LEICA VARIO-APO-ELMARIT-R 1:2,8/70-180 mm 1

LEICA VARIO-APO-ELMARIT-R 1:2,8/70-180 mm 1 LEICA VARIO-APO-ELMARIT-R 1:2,8/7-18 mm 1 Ein besonders aufwändig hergestelltes Vario-Objektiv: Die Rechnung basiert auf 13 Linsen in 1 Gliedern, die mit 12 verschiedenen optischen Gläsern gearbeitet sind

Mehr

C 6 der unbekannte Korrekturfaktor?

C 6 der unbekannte Korrekturfaktor? C 6 der unbekannte Korrekturfaktor? am Beispiel eines Linienlaser mit Bewertung nach DIN EN 60825-1 Bestimmung von C6 Kerkhoff.Thomas@bgetem.de // Stand: 2012-09 Beispiel eines Linienlasers Seite 2 Vor

Mehr

des Titels»Menschen fotografieren«(isbn ) 2013 by Verlagsgruppe Hüthig Jehle Rehm GmbH, Heidelberg. Nähere Informationen unter:

des Titels»Menschen fotografieren«(isbn ) 2013 by Verlagsgruppe Hüthig Jehle Rehm GmbH, Heidelberg. Nähere Informationen unter: Verlagsgruppe Hüthig Jehle Rehm GmbH, Heidelberg. Kapitel 1 Manuelle Kameraeinstellungen 1.1 Die richtige ISO-Zahl......................... 14 1.2 Tiefenschärfe reduzieren...................... 16 1.3

Mehr

Monokular Mikroskop Biosup Best.- Nr. MD03366

Monokular Mikroskop Biosup Best.- Nr. MD03366 Monokular Mikroskop Biosup Best.- Nr. MD03366 1. Beschreibung 1. Okular 2. monokularer Beobachtungsaufsatz 3. Tubus 4. Objektrevolver mit 4 Objektiven 5. Objektive 6. Objekttisch 7. Rädchen für Längsbewegung

Mehr

Testaufgaben bitte zuhause lösen. Richtige Antworten werden im Internet demnächst bekannt gegeben. Bitte kontrollieren Sie Ihre Klausuranmeldung für

Testaufgaben bitte zuhause lösen. Richtige Antworten werden im Internet demnächst bekannt gegeben. Bitte kontrollieren Sie Ihre Klausuranmeldung für Testaufgaben bitte zuhause lösen. Richtige Antworten werden im Internet demnächst bekannt gegeben. Bitte kontrollieren Sie Ihre Klausuranmeldung für den 13.02.2003 unter www.physik.uni-giessen.de/ dueren/

Mehr

O2 PhysikalischesGrundpraktikum

O2 PhysikalischesGrundpraktikum O2 PhysikalischesGrundpraktikum Abteilung Optik Mikroskop 1 Lernziele Bauteile und Funktionsweise eines Mikroskops, Linsenfunktion und Abbildungsgesetze, Bestimmung des Brechungsindex, Limitierungen in

Mehr

Theoretische Grundlagen - Physikalisches Praktikum. Versuch 11: Mikroskopie

Theoretische Grundlagen - Physikalisches Praktikum. Versuch 11: Mikroskopie Theoretische Grundlagen - Physikalisches Praktikum Versuch 11: Mikroskopie Strahlengang das Lichtmikroskop besteht aus zwei Linsensystemen, iv und Okular, die der Vergrößerung aufgelöster strukturen dienen;

Mehr

Das Weitwinkel Zuiko Digital F2,8-3, mm

Das Weitwinkel Zuiko Digital F2,8-3, mm Das Weitwinkel Zuiko Digital F2,8-3,5 11-22 mm Klaus Schräder April 2004 Inhalt 1. Zusammenfassung 2. Beschreibung 3. Bildwinkel 4. Vignettierung 5. Verzeichnung 6. Nodalpunkt in Abhängigkeit von der Brennweite

Mehr

Versuch P1-31,40,41 Geometrische Optik. Auswertung. Von Ingo Medebach und Jan Oertlin. 9. Dezember 2009

Versuch P1-31,40,41 Geometrische Optik. Auswertung. Von Ingo Medebach und Jan Oertlin. 9. Dezember 2009 Versuch P1-31,40,41 Geometrische Optik Auswertung Von Ingo Medebach und Jan Oertlin 9. Dezember 2009 Inhaltsverzeichnis 1. Brennweitenbestimmung...2 1.1. Kontrolle der Brennweite...2 1.2. Genaue Bestimmung

Mehr

FLC200 BL - Hintergrund

FLC200 BL - Hintergrund FLC200 BL - Hintergrund WE-EF s Philosophie in puncto Umweltschutz ist ganz einfach: Wir entwerfen und produzieren innovative langlebige Leuchten und schließen damit auf lange Zeit aus, dass sie ersetzt

Mehr

Fachartikel. Titel. Erschienen in: elektronikpraxis.de Ausgabe: 11 / Autorin: Dr.-Ing. Claudia Brückner, Entwicklungsingenieurin Optik

Fachartikel. Titel. Erschienen in: elektronikpraxis.de Ausgabe: 11 / Autorin: Dr.-Ing. Claudia Brückner, Entwicklungsingenieurin Optik Fachartikel Erschienen in: elektronikpraxis.de Ausgabe: 11 / 2013 Titel Autorin: Dr.-Ing. Claudia Brückner, Entwicklungsingenieurin Optik Telezentrische Objektive Bedeutung von Lichtstärke und Homogenität

Mehr

Weißes Licht wird farbig

Weißes Licht wird farbig B1 Weißes Licht wird farbig Das Licht, dass die Sonne oder eine Halogenlampe aussendet, bezeichnet man als weißes Licht. Lässt man es auf ein Prisma fallen, so entstehen auf einem Schirm hinter dem Prisma

Mehr