1 Prinzip der dreidimensional messenden videometrischen Messsysteme Die dreidimensional messenden videometrischen Messsysteme basieren auf der Triangulation. Die Triangulation in Abb. 1-1 a) stellt ein grundlegendes Verfahren der videometrischen Messtechni zur Bestimmung von räumlichen Koordinaten dar. Die videometrischen Messsysteme werden in ative und passive ysteme unterteilt. Als primäre Messinformation steht in deegel nur eine Positionsinformation zur Verfügung, die durch Nutzung von beannten Relationen zwischen verschiedenen Positionen oder Objetmermalen in eine Poseinformation 1 überführt werden ann. 1.1 Passive Triangulation Mit der passiven Bildtriangulation beschäftigt sich die Wissenschaft und Techni der Photogrammetrie seit über einem Jahrhundert (Abb. 1-1 a) und b)). Die zu vermessende Bildszene wird hierbei zumeist mit möglichst diffusem Tageslicht erhellt. Das Finden von orrespondierenden Bildpunten beruht dabei auf der Auswertung von Ähnlicheitsmaßen zwischen den Bilddaten. Dabei lassen sich sowohl zwei oder mehrere Kamerasysteme (tereo- oder Mehrbildverband) als auch eine Kamera in zwei oder mehreren zueinander beannten Posen verwenden. Das Korrespondenzproblem ann deutlich entschärft werden, wenn man sich optisch maranter Mermale bedient. Dies führt zur Einteilung nach passiven und ativen optischen Mermalen. a) Korrespondenzproblem p" b) p' 1 z diffuse Beleuchtung passiv Basis B x β P c) Objet Projetor = inverse Kamera ehstrahlen Projetionsstrahl Objet retrorefletierende oder ativ leuchtende Maren Kamera ehstrahl e) ativ Projetor t = t 0 t t P = 1 : = t 5 t d) t t 110100 Projetionsebene Abb. 1-1: Triangulation 110100 In einer vom Menschen gestaltbaren, technischen zene bedient man sich entweder passiv retrorefletierender oder ativ leuchtender Zielmaren. Bei dem Einsatz ativer und passiver ysteme ann man zur Kontrasterhöhung sowohl getriggerte pulsartig leuchtende Lichtquellen einsetzen als auch den Wellenlängenbereich der ativen Zielmaren durch optische 1 Pose steht für Position und Orientierung mit 6 Freiheitsgraden (siehe auch [114]). - 1-1 -
Filter im Kamerasystem seletieren (z.b. Infrarotbereich). Letzteres ann auch in Kombination angewendet werden. 1. Ative Triangulation Die ative Triangulation unterscheidet sich von der passiven durch eine struturierte Objetbeleuchtung, deren optische und geometrische Eigenschaften beannt sind Abbildung 1-1 c) bis d)). Dieser Gewinn an Information führt zu einer Vereinfachung des Korrespondenzproblems, da die trutur der Beleuchtung das Finden der Korrespondenzen evident vereinfachen ann. Im Grunde ommen hierbei auch zwei Kamerasysteme zum Einsatz. Die zweite Kamera repräsentiert hierbei die Projetionseinheit, die die Lichtstruturen erzeugt, wobei ihr mathematisches Modell identisch mit dem inversen Kameramodell ist und sie deshalb quasi die zweite Kamera darstellt. Die struturierten Beleuchtungsquellen und damit die ativen Triangulationsverfahren werden ihrerseits in puntförmige (Abbildung 1-1 c)), linienförmige (Abbildung 1-1 d)) und codierte (Abbildung 1-1 e)) ysteme eingeteilt. Ein puntförmiges ystem projiziert einen Projetionsstrahl auf die Objetoberfläche. Dieses Mermal wird über den Bildstrahl auf die Kameraebene abgebildet, wobei sich Projetions- und Bildstrahl in einem Punt auf der Objetoberfläche schneiden. Aus den vier gemessenen und beannten Bildoordinaten im Kamera- und Projetionssystem ergeben sich vier Gleichungen, die die gesuchten Raumoordinaten enthalten. Dieses überbestimmte ystem ann analog durch den Ausgleichansatz gelöst werden. Zur Erzeugung eines Tiefenbildes muss eine Vielzahl von Oberflächenpunten vermessen werden. Hierfür wird üblicherweise der Lichtpunt rasterförmig über das Objet geführt. Ein linienförmiges ystem projiziert eine Lichtebene auf die Objetoberfläche, wodurch auf dem Objet eine Profillinie entsteht. Jedem Punt der Linie ann ein ehstrahl zugeordnet werden, wobei sich der ehstrahl und die Lichtebene schneiden. Die Menge der chnittpunte stellt die Profillinie dar. Zur Erzeugung eines Tiefenbildes muss die Lichtebene in einer Richtung, möglichst orthogonal zur Lichtebene über das Objet geführt werden. Diese im Grunde einfache Techni ann durch parallele Projetionen mehrerer Mermale in ihrer Leistungsfähigeit deutlich gesteigert werden, jedoch önnen hierbei Mehrdeutigeiten im inne des Korrespondenzproblems entstehen. Die direte Auflösung der Mehrdeutigeiten des Korrespondenzproblems paralleler Projetionen ermöglichen die codierten ysteme. Bei ihnen werden zeitlich gestaffelt codierte Muster auf die Objetoberfläche projiziert. Dieser Ansatz bildet die Grundlage für eine sichere und schnelle Auswertung der Messdaten. Man unterscheidet folgende Prinzipien: unterschiedliche Beleuchtungsintensitäten in den Projetionsrichtungen (Graueilcodierung), unterschiedliche Wellenlängen in den Projetionsrichtungen (Farbcodierung), periodische analoge Intensitätsverteilungen (Cos- oder Dreiecscodierung), binäre zeitlich gestaffelte Muster (binäre Codierung, z.b. Gray-Code) und Mischformen aus binärer und periodischer Codierung. Diese verschiedenen Verfahren nutzen letztlich den räumlich, zeitlichen und wellenlängenabhängigen Informationsanal des optischen ystems.
1.3 Videometrisches Messsystem Videometrische Messsysteme bestehen aus mindestens zwei Kamerasystemen oder einem Projetor-Kamerasystem. unter Verwendung von ativen oder retrorefletierenden Marern (siehe Abb. 1-1 b)). Es wird die passive Triangulation mit strobosopischer Beleuchtung oder strobosopisch ativen Marern realisiert. Bei retrorefletierenden Maren müssen die Beleuchtungsquellen in der Umgebung der optischen Achse am Objetiv angebracht sein. Die videometrische 3D -Positionsmessung lässt sich in mehrere Phasen entsprechend Abb. 1- unterteilen. Die optische und algorithmische Vorverarbeitung erfolgt mit dem Ziel, den Informationsontrast der Bilddaten so zu erhöhen, dass die anschließenden Verarbeitungsschritte der eigentlichen 3D-Messung möglichst einfach in der Ausführung und robust gegenüber törungen ausfallen. 3D-Objete wellenlängenseletiv, strobosopisch, retrorefletierend Algorithmische Bildvorverarbeitung Differenzbilder aus ungeblitzten und geblitzten Bildern, zeitliche Mittelung egmentierung Marer und Hintergrund 3D-Positionsmessung Marermodell- Positionsschätzung Flächenschwerpunt, onturorientierte und Pulsverfahren chwellwertverfahren ubpixel- Messung Optische Bildvorverarbeitung 3D-Position Abb. 1-: Prinzipien der videometrischen 3D-Positionsmessung D steht für dimensional - 1-3 -
Bei relativ hohen Kontrasten ann eine egmentierung von Marer und Hintergrund mit den chwellwertverfahren in Kap. 8.3 vollzogen werden. Entsprechend den Marervarianten nach Tab. 1-1 erfolgt die Positionsschätzung für die Marerobjete (siehe Kap. 8.6). Beim Einsatz des Flächenschwerpuntverfahrens in Kap. 8.6.1 wird eine echte subpixelgenaue Positionsmessung im Grunde nicht erreicht. Hierzu sind je nach Marer und Größe der truturen Kanten- oder Pulsmodell nach Kap. 5 einzusetzen. Eine Positionsschätzung ann ferner über grafische Primitiva nach Kap. 5.3.3, 8.6. und 8.6.3 erfolgen. Dieses önnen z.b. Kreise, Ellipsen und Geraden mit überwiegend onturorientierten Ansätzen sein (siehe Kap. 8.4, 8.5 und 8.6 mit 8.6. und 8.6.3 oder 5.3.3). Nach der Bestimmung der Marerpositionen sind orrespondierende Positionsmermale zu ermitteln. Die uche orrespondierender Positionen ann mit Hilfe der Epipolaren in Kap. 6.6 in der Komplexität reduziert werden. Unter Kenntnis orrespondierenden Marerpositionen lässt sich die 3D-Position nach Kap. 6. berechnen. Ein abschließender Validitätstest nach Kap. 6.7 ann zur eletion relevanter 3D-Positionsdaten herangezogen werden. 1.4 Marervarianten Die in Tab. 1-1 gezeigten Marervarianten önnen mit den Ansätzen in Kap. 8.6 zur Positionsmessung herangezogen werden. Die phäre ist dabei in Bezug auf die Invarianzeigenschaften des RAM-Modells vorzuziehen. Die Rotationssymmetrie des phäre bewirt zudem, dass im Idealfall bei nicht identischen geometrischen und optischen Kanten die Positionsmessung hiervon unbeeinflusst bleibt. Beim Einsatz von Geraden als Messmermale muss die Positionsmessung loal erfolgen, wenn die Linsenverzerrungen gegenüber den angestrebten Genauigeiten nicht mehr vernachlässigbar sind. Dies gilt analog für den segmentierten Kreis. Bei den zur Disussion stehenden Weitwinelobjetiven gilt diese Einschränung. Pos. Bezeichnung 3D- Messmarenvarianten Dimension Eigenschaften D-Modell im RAM 3 trutur des RAM-Modells 1 phäre 3D passiv retrorefletierend Kreis oder Ellipse Poseinvariant Kreis D passiv retrorefletierend Kreis oder Ellipse Positionsinvariant / Rotationsinvariant um Flächennormale 3 segmentierter Kreis und Geraden D passiv retrorefletierend Kreis oder Ellipse und Gerade Positionsinvariant 4 Geraden D passiv Gerade Positionsinvariant 5 LED 4 3D ativ Punt Poseinvariant nur bei speziellen LED Tab. 1-1: Marervarianten 3 RAM := random access memory := steht hier für Bilddaten im Rechnersystem 4 LED := light emitting diode
1.5 ensoralibration owohl bei den ativen als auch passiven dreidimensional messenden videometrischen Messsystemen müssen die ensormodelle in Tab 1- alibriert werden. Hierbei ommen verschiedene Kalibrier- und Projetionsmermale entsprechend Tab. 1-3 zum Einsatz. Die idealen physialischen ensoroordinaten orrespondierender Bildpunte sind über das innere inverse Kameramodell bestimmt. Je nach ensortyp lassen sich die dreidimensionalen ensoroordinaten über die chnittpunt zweier ehstrahlen oder den chnittpunt aus Lichebene oder ehstrahl beschreiben (siehe auch Kap. 10). Die für die ensoralibration notwendigen Referenzinformationen werden über Kalibriermermale eingeführt. Zur Erlangung einer ausreichenden Anzahl von Referenzinformationen önnen die Kalibrierörper aus mehreren Kalibriermermalen aufgebaut sein oder das Kalibriermermal wird in definierter Weise gegenüber einer tartpose in der Pose entsprechend Abb. 1-3 verändert. ensor- KO K ehstrahlen oder Projetionsmuster T R 0 R 0 T K p R Kalibriermermale Referenz- KO Abb. 1-3: ensoralibration Für die mathematische Analyse der hierbei auftretenden Verhältnisse werden die Grundgleichungen der dreidimensionalen Videometrie benötigt. Es handelt sich hierbei um (siehe auch Tab. 1- und 1-3 sowie Kap. 10 und [113]): Modelle: von Geraden, von Ebenen und von Kugeln. chnittmengen: von zwei Geraden, von Gerade und Ebene und von drei orthogonalen Ebenen. Parameteridentifiationsaufgaben: der Ebene, der Kugel und der ensormodelle. - 1-5 -
Pos. ensor 3D-ensoroordinaten 3D-Kalibrieroordinaten 1 ensor- KO T R R eh strahlen Referenz- KO chnittpunt r ( p, x ) ehstrahl- t gleichungen x = ( r ) t : r = r τ, mit r ( u v b) t = T r r ( p, x) = 0 R R ensor- KO T R R ehstrahl Kalibriermermal Referenz- KO truturierte Beleuchtung chnittpunt ehstrahl- und Ebenengleichung : r = r τ 0t E : n ( r r 0) = 0 chnittpunt r ( p ) der 3 orthogonalen Ebenen 0t E : ( 0) = 0, {1,, 3} R R n r r definiert T r r ( p, x) = 0. 3 ensor- KO T R R ehstrahl Kalibriermermal Referenz- KO truturierte Beleuchtung chnittpunt r ( p, x ) ehstrahlund Ebenengleichung : r = r τ 0t E : n ( r r 0) = 0 Tab. 1-: ensoralibration Minimum der impliziten Körpermodelle f ( p, T r ( p, x)) = 0, mit T r D und {1,..., N} Kη Kη K K f η K η
Pos. Kalibrierörper Körpermodelle Projetionsmermale Bemerung 1 Kugelgleichung in vetorieller Form t K : ( r r ) ( r r ) = r M M K Lichtpunte orthogonale Ebenengleichung in vetorieller Form 0t E : n ( r r ) = 0, {1,, 3} 0 Lichtpunte orthogonale egmentierung der Bildoordinaten zu den Ebenen erforderlich 3 Implizite Körpermodelle f ( p, r) = 0, Kη Kη mit r D, η {1,..., N} f K η Lichtpunte orthogonale egmentierung der Bildoordinaten zu den impliziten Körpermodellen erforderlich. Körperoordinatensystem muss eindeutig definiert sein. Tab. 1-3: Kalibrier- und Projetionsmermale - 1-7 -
- 1-8 -
Inhaltsverzeichnis 1 Prinzip der dreidimensional messenden videometrischen Messsysteme...1 1.1 Passive Triangulation...1 1. Ative Triangulation... 1.3 Videometrisches Messsystem...3 1.4 Marervarianten...4 1.5 ensoralibration...5-1-9 -