Ein Mehrkamerasystem zur exakten Positionsbestimmung von beweglichen Effektoren

Ähnliche Dokumente
Entwicklung eines fächerartigen Distanzmesssystems zur Messung von Rotorblättern. Konzept, Orientierung und erste Ergebnisse

Kalibrierung. HJ Przybilla

Grundlagen der optischen Geometrievermessung und deren Anwendungen

Untersuchung und Modellierung des Rolling-Shutter-Effekts für photogrammetrische Einzel- und Mehrbildauswertungen

SIPLACE LED Centering. Dipl.-Ing. Norbert Heilmann, Siplace Technology & Networking Event 2014 Technology Scout

Neues Verfahren zur Roboterzielführung ohne Kalibrierung

AICON 3D Arena Optische Trackingtechnologie für große Messvolumina. Kurt Sinnreich

3D-BILDVERARBEITUNG VON DER PROBLEMSTELLUNG ZUM ERGEBNIS MAURICE LINGENFELDER, ENTWICKLUNG BILDVERARBEITUNG, STEMMER IMAGING

Fachartikel. Telezentrische Objektive für Kameras größer 1 Zoll

PRÄZISION TRIFFT PERFORMANCE WIR SEHEN DAS, WAS SIE NICHT SEHEN. BEDARFSGERECHTE DIENSTLEISTUNGEN SIND UNSERE SPEZIALITÄT

Einleitung. Gliederung des Kolloquiums: 1. Vorstellung der Aufgabe. 2. Präsentation des Prozesses. 3. Konstruktion des 3D-Scanners

Realisierung und Analyse eines TLS-Überprüfungsverfahrens nach Prof. Heister

ONYX -S EINKANAL-PYROMETER ZUR OPTISCHEN TEMPERATURMESSUNG PRÄZISE TEMPERATURMESSUNG FÜR ANSPRUCHSVOLLE INDUSTRIEANWENDUNGEN

High-Tech im Doppelpack: 3D-Sensortechnologie für Roboterführung und Formerfassung

Synergie von Lasertracker und Laserscanner mit Beispielen. Peter Wintjens, Ralf Lichtenberger LIMESS Messtechnik und Software

Automatische Kalibrierung eines Kamerasystems zur Verkehrsdatenerfassung auf Basis von Navigationssensorik Sebastian Schulz, DLR-TS-ANL

Polte, Galina; Rennert, Klaus-Jürgen; Linß, Gerhard: Korrektur von Abbildungsfehlern für optische Messverfahren

Bildflug - Navigation - HS BO Lab. für Photogrammetrie: Navigation 1

ibeo LUX Laserscanner

Kalibrierung von Oblique- und UAV Kameras

Hochflexibel und zuverlässig: Neuer 3D- Sensor nutzt Formerfassung für hochpräzise Qualitätsmessung

Emitec Group Gegründet 1993

Roboterbaureihe TX60 ESD. Industrieroboter 6 Achsen - Elektronikindustrie

LASER-KONTUR- MESSUNG

MESSTECHNIK ROBOTERGEFÜHRTE OPTISCHE CMM-3D-SCANNER FÜR AUTOMATISIERTE PRÜFUNGEN

Der diskrete Kalman Filter

Prof. J. Zhang Universität Hamburg. AB Technische Aspekte Multimodaler Systeme. 16. Dezember 2003

Anwendung und Auswertung von photogrammetrischen Verfahren zur Analyse von Leuchtdichtemessungen

Roboterbaureihe TX90 ESD. Industrieroboter 6 Achsen - Elektronikindustrie

Deflektometrie Ein Messverfahren für spiegelnde Oberflächen

Qualitative Beurteilung photogrammetrischer Aufnahmekonstellationen im Nahbereich

Mobile Robotik KMR QUANTEC

Industrie-Infrarotstrahler IR

Inline 3D-Mess- und Prüfsysteme

Industrie 4.0. Sensoren, Regler und Antriebe für Ihre Produktionskette, ausgestattet mit hochmoderner Technik!

Verfahren zur autonomen bildgestützten Navigation

3. Analyse der Kamerabewegung Video - Inhaltsanalyse

Genauigkeit am Tool Center Point signifikant steigern. HEIDENHAIN-Messgeräte für Industrieroboter TECHNOLOGIEBERICHT

Stabilitätsprüfung projizierter Referenzpunkte für die Erfassung großvolumiger Messobjekte

STEUERUNGSINTEGRIERTE VISION LÖSUNGEN

DPAPro und DPAInspect

ONYX -MC MEHRKANAL- GLASFASER-PYROMETER PRÄZISE TEMPERATURMESSUNG FÜR ANSPRUCHSVOLLE INDUSTRIEANWENDUNGEN

SCAN&GO DIE NEUE VERMESSUNGSTECHNOLOGIE. V

DIESES PRODUKT WIRD SEINEM HERSTELLER SCHON BALD DEN SCHLAF RAUBEN. Vistron PROZESSOPTIMIERUNG IN DER MASSENFERTIGUNG

Quelle: BMW Group. Optische Doppelständer Robotermesszelle für Gesamtfahrzeuge im Prototypen- und Vorserienstatus.

Annährungssensoren. Induktive Sensoren. Kapazitive Sensoren. Ultraschall-Sensoren. Optische Anährungssensoren

Empfängeruhrmodellierung in GNSS: Auswirkungen und Realisierbarkeit

ONYX -S2C ZWEIFARBIGES QUOTIENTEN-PYROMETER ZUR OPTISCHEN TEMPERATURMESSUNG PRÄZISE TEMPERATURMESSUNG FÜR ANSPRUCHSVOLLE INDUSTRIEANWENDUNGEN

Qualität der ALS50 Laserscanner Daten Befliegung Vaihingen/Enz

3. Übung IHCI. Markus Weber

Infrarot-Temperatur- Messgerät

Inspektor FOV Messstation

3D-Messverfahren Streifenprojektion

Entwicklung einer robusten Methode zur Berechnung von Stereokorrespondenzen

AW 1 - Vortrag. Simulationsmodell für visuell geführte Roboter. von Bernd Pohlmann. Betreuender: Prof. Dr. Andreas Meisel

Optischer Streifenlichtprojektions- und Bildverarbeitungssensor PHOENIX

2D, 3D Kameratechnik in der Robotik. Jan Fischer

Arbeitsbereich Werkzeugmaschinen und Automatisierungstechnik. Automatisierungstechnik

DPAPro und DPAInspect

Untersuchung eines Miniatur- Nullpunktspannsystems µ-prisfix. Abschlussbericht

Turmdrehkrane richtig fotografieren. Eine Kurzanleitung

Mobile Messmaschine: TRITOP

TX2-40. Industrieroboter - 6 Achsen

Optik in Smartphones. Proseminar Technische Informatik Fabio Becker 9. Juli 2014

Roboterbaureihe TX2-60. Industrieroboter - 6 Achsen

Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung , Dr.-Ing. Steffen Herbort, A.R.T. GmbH

ADROLOOK. Videoendoskop adrovision 2-Wege flexible Kamerasonde

Leica Absolute Trackers

100%-Kontrolle der Eigenspannungen bei der Produktion und Veredelung von Flachglas

Hexamove Testing System PRJ00099

W30x-HD. High Definition Kamera Inspektions - System

DISTANZ MESSUNG kontaktlos und zuverlässig. Genauigkeit 1 mm Messbereich 50 m / 150 m / 500 m Messgeschwindigkeit 250 Hz

TX2-40. Industrieroboter - 6 Achsen

Roboterbaureihe TX2-90. Industrieroboter - 6 Achsen

Plug-and-Work für verteilte Echtzeitsysteme mit Zeitsynchronisation

9. Tagung Zahnriemengetriebe am Institut für Feinwerktechnik und Elektronik-Design der TU Dresden

Moderne Vermessungsinstrumente: Von Richtungs- und Distanzmessern zu perfekten Koordinatenmessmaschinen? Johannes Schwarz Leica Geosystems

Der Einsatz von Laserscanning-Technologie im Vergleich zu taktilen Messverfahren

ONYX -MCE MEHRKANAL- GLASFASER-PYROMETER MIT AKTIVER EMISSIONSGRADKORREKTUR PRÄZISE TEMPERATURMESSUNG FÜR ANSPRUCHSVOLLE INDUSTRIEANWENDUNGEN

Anwendungsbezogenes Tracking

WLAN-Ortung im Projekt MagicMap Referenzpunkteverwaltung

THOMAS P. KERSTEN, HEINZ JÜRGEN PRZYBILLA & MAREN LINDSTAEDT

WESTCAM Datentechnik GmbH

Panomera die Bilddarstellung

Fördertechnik-Innovationen Made in Germany DAS VARIO PUFFER FÖRDERBAND

VISION SENSOR CS 50 DER KLEINSTE VISION SENSOR DER WELT

Versuchsprotokoll. Mathematisch-Naturwissenschaftliche Fakultät I Institut für Physik. Versuch O8: Fraunhofersche Beugung Arbeitsplatz Nr.

Neue 3D-Robot Vision Produktfamilie: Griff in die Kiste sekundenschnell und robust, selbst bei sehr komplexen Bauteilen

OPTISCHER 3D SCANNER web skype

CYHT203. Digital Gauss/Tesla Meter. Bedienungsanleitung. ChenYang Technologies GmbH & Co. KG. 1. Eigenschaften: 2.

vicotar Optiken Herausforderung Präzision. OPTIKEN FÜR MACHINE VISION Pioneering vision.

Phasen im Vergleich - Erste Untersuchungsergebnisse der Phasenvergleichsscanner Faro Photon und Trimble FX 1 / 28

SO MUSS ROBOTIK SEIN EINFACH, FLEXIBEL UND GÜNSTIG AUTOMATISIEREN

PosCon HM. Clevere Höhenmessung mit 3D Lichtschnittsensorik.

Roboterbaureihe RX160. Industrieroboter - 6 Achsen

Hohe Wachstumsraten für ISRA Systeme im Automotive- und im Assembly-Bereich

Praktikum MI Mikroskop

Transkript:

Ein Mehrkamerasystem zur exakten Positionsbestimmung von beweglichen Effektoren Rainer SCHÜTZE, Frank BOOCHS, Christoph RAAB, Holger WIRTH, Jürgen MEIER Abstract In diesem Beitrag stellen wir eine photogrammetrische Lösung zur Steigerung der Positioniergenauigkeit eines Roboterkopfes vor. Zuerst werden die Notwendigkeit und die Ziele eines solchem Tracking Systems erläutert. Wir stellen aktuelle Tracking Lösungen vor und benennen deren Einschränkungen. Dann wird das Potenzial der photogrammetrischen Lösung zu solchen Zwecken umrissen, gefolgt von einer ausführlichen Beschreibung des hier entwickelten Systems. Schließlich wird durch erfolgte Praxistests gezeigt, dass der Entwurf und die Realisierung des Systems in der Lage ist, die Herausforderung zu halten, die absolute Genauigkeit eines Roboters um den Faktor 20 zu verbessern. 1 Einleitung Roboter sind mittlerweile einer der wichtigsten Bestandteile in der Produktion und werden in vielen Schritten eines Produktionsprozesses eingesetzt. Eine noch vielseitigere Verwendung der Roboter wird lediglich durch ihre systemimmanente Beschränkung in der Genauigkeit verhindert. Soll der Roboter als Plattform für optische Sensoren verwendet werden, muss die absolute Genauigkeit der Position resp. Pose des Endeffektors genauer bekannt sein, als dies zurzeit tatsächlich möglich ist. Die derzeitige Genauigkeit einer absoluten Pose liegt im Bereich von 1 mm. Bestehende Lösungen, die die absolute Genauigkeit des Roboters steigern wollen, sind nicht in der Lage, den Roboter über einen längeren Zeitraum seiner Tätigkeit zu kontrollieren. Vorher durchgeführte Kalibrierungsschritte können jedoch nicht garantieren, dass zu jeder Zeit jede Position des Arbeitsbereiches korrigiert werden kann. Photogrammetrische Lösungen sind auf der anderen Seite für ihre Präzision und Flexibilität bekannt. Es ist unser Ziel eine photogrammetrische Lösung zu entwickeln, die die absolute Positioniergenauigkeit eines Roboters um den Faktor 20 zu verbessern. 2 Die Notwendigkeit der Posen Bestimmung von beweglichen Effektoren Im Qualitätsmanagement in der Industrie werden mehr und mehr optische Messsysteme verwendet um geometrische Merkmale (Kanten, Löcher, Schrauben, etc.) zu messen und Oberflächen zu inspizieren (Kratzer, Beulen, etc.). Das Ziel ist eine automatische Überprüfung jedes einzelnen Teiles während des Produktionsprozesses, was die sofortige Beseiti-

R. Schütze, F. Boochs, C. Raab, H. Wirth und J. Meier gung von fehlerhaften Teilen erlaubt. Dies garantiert, dass alle Teile die für die Produktion verwendet werden innerhalb der Toleranzen liegen. Solche Systeme werden in der Regel von den Automobilherstellern genutzt, werden aber auch in anderen Zweigen der Industrie eingesetzt. Üblicherweise werden optische Sensoren (z.b. Kameras oder Lasertriangulationssensoren) in Racks an der Produktionslinie einer Produktionsstätte fest eingerichtet. Hierbei ist ein einzelner Sensor für ein bestimmtes Messobjekt (z. B. ein Loch oder eine Bohrung) erforderlich. Um in dem absoluten Bauteilkoordinatensystem messen zu können, muss die Position sowie die räumliche Orientierung der Sensoren bekannt sein. Die Orientierungsparameter der Sensoren werden durch eine vorherige Kalibrierung bestimmt. Mit dem Ziel einer höheren Flexibilität und der Verwendung günstiger Industrierobotern, können diese als Plattformen für optische Sensoren für Inline-Messsysteme verwendet werden. Der Roboter bewegt den am Effektor befestigten Sensor an die verschiedenen Positionen und die Messobjekt werden nacheinander gemessen und registriert. Die Kosten reduzieren sich, verglichen mit einem Messaufbau mit festen Sensoren, da nur ein Sensor am Roboter benötigt wird. Für die absolute Messung müssen die Position (die kartesischen Koordinaten X, Y und Z) sowie die Ausrichtung (die drei Raumwinkel A, B und C) bekannt sein oder bestimmt werden. (In der Photogrammmetrie werden Position und Orientierung zusammen als "äußeren Orientierung", in der Robotik-Terminologie "Pose" bezeichnet.) Üblicherweise erfolgt die Bestimmung der Pose des Effektors mit dem Wissen der Kinematik eines sechs-arm-roboters und Messungen der Achsenwinkel in der jeweiligen Stellung. Der Achsenwinkel beim Roboter wird üblicherweise indirekt über die Motorposition bestimmt. Dies kann dazu führen, dass Fehler bei der Messung entstehen, die durch das Spiel in den Getrieben verursacht werden. Zusätzlich führt die Kinematik eines Roboters zu einer ungünstigen Fehlerfortpflanzung. Ein weiterer wichtiger Faktor ist die Temperatur. Normalerweise wird ein Roboter aus Stahl oder Aluminium gefertigt und nach dem Einschalten erwärmt sich das Metall aufgrund der Abwärme von Motor und Getriebe deutlich. Längenausdehnungseffekte beim Industrie-Roboter wirken ungünstig auf die Realisierung eines Messsystems mit hoher Präzession und Zuverlässigkeit. Dennoch ist es den Roboter-Hersteller gelungen die Wiederholgenauigkeit der Roboter zu optimieren. Heutzutage kann eine maximale Wiederholgenauigkeit von 0,1 mm, für die größeren Roboter mit einer Reichweite von 2,5 m von 0,2 mm erreicht werden. Jedoch kann diese Genauigkeit nicht für lange Zeiträume garantiert werden. Aus diesem Grund werden zusätzliche Techniken genutzt um die Wiederholgenauigkeit der Pose zu steigern. Darüber hinaus sind adäquate Methoden erforderlich um absolute Pose zu bestimmen (z.b. Kalibrierung mit einem Übergeordneten Messgerät). Oft reicht es jedoch nicht aus, nur die Wiederholgenauigkeit zu optimieren. In einem flexiblen Messsystem, was ein Robotergestütztes System darstellt, ist eine schnelle Ausrichtung für einen neuen Messpunkt erforderlich. Ein vorher definierter Messpunkt (oder eine Pose) muss von dem Roboter angefahren werden. In diesem Fall wird die absolute Genauigkeit der Roboterbewegung wichtig. In der Regel ist diese erheblich schlechter als die Wiederholgenauigkeit und liegt in der Größenordnung von 1 bis 2 mm. Für viele Anwendungen ist dies nicht ausreichend, insbesondere bei der Nutzung des Roboters als Plattform für optische Messsensoren.

Ein Mehrkamerasystem zur exakten Positionsbestimmung von beweglichen Effektoren 3 Lösungen für die Verbesserung der Genauigkeit Roboter Die begrenzte absolute Positioniergenauigkeit von Robotern ist seit längerer Zeit Gegenstand verschiedener Untersuchungen, die diesen Effekt zu verbessern versuchen. Erste Arbeiten wurden bereits in der Mitte des letzten Jahrzehnts durchgeführt. Durch externe physikalische Messungen konnten Verbesserungen erreicht werden (GONG etal. 1999, WIEST 2001, ISIOS ROBOTICS 2009). Diese Aktivitäten kommen aus dem Bereich der Hersteller und verfolgen konsequent die Idee verschiedene physikalische Sensoren zu verwenden, welche bereits wesentlicher Bestandteil der Roboter selbst sind. Im Rahmen einer Kalibrierung werden unabhängige externe Informationen zur Kontrolle verwendet, wie z.b. Länge und Geradlinigkeit eines Laserstrahls. Auf der Grundlage dieser Messungen wird ein Fehler-Korrektur-Modell entwickelt, das jede einzelne Position entsprechend korrigiert. Hierbei können Genauigkeitssteigerungen um den Faktor 10 erreicht werden. Jedoch muss die Kalibrierung offline als Vorverarbeitungsschritt durchgeführt werden. Es ist eine zusätzliche zeitaufwändige Arbeit. Die Fehlerkorrektur gilt nur, wenn das Fehler-Modell invariant während der Tätigkeit des Roboters ist. Risiken wie Temperaturschwankungen oder Änderungen anderen externen Faktoren die das Roboter-Modell beeinflussen, können weder in Echtzeit berücksichtigt werden, noch erkannt werden. Dies kann nur vermieden werden, wenn der Roboter selbst in der Lage ist, seine falsche Position während seiner Tätigkeit zu bemerken. Kameras eignen sich als gutes Werkzeug um räumliche Positionen zu beobachten. Entsprechende Forschungsarbeiten sind in die Richtung photogrammetrischer Konzepte gerichtet (CLARKE & WANG 2000, HEFELE & BRENNER 2000, HEFELE & BRENNER 2002, ROSY 2009). Die meisten Arbeiten folgen der Idee, den Roboter Kopf mit einer Reihe von Kameras zu bestücken, die bestimmten Referenz-Informationen beobachten. Der Raumbezug kann durch das Objekt selbst oder durch spezielle Vorrichtungen wie ein Passpunktfeld erfolgen. Dient das Objekt selbst das Referenzsystem, ist die Kalibrierung in Bezug auf das Objekt durchzuführen. Dies verbessert die Positioniergenauigkeit am Objekt und erhöht die Qualität der Verarbeitung und kann ausreichend sein, wenn der Roboter im Wiederholungbetriebsmodus arbeitet. Jedoch kann diesen nicht als absolute Kalibrierung gesehen werden. Dies ist erst der Fall, wenn das Referenzsystem von einem externen Punktfeld kommt, das durch die Kameras am Roboter Effektor beobachtet wird. Allerdings haben diese Lösungen einen geringen räumlichen Arbeitsbereich und die Genauigkeit ist begrenzt durch den geometrischen Zusammenhang zwischen der Kamera und dem Punktfeld. Darüber hinaus muss das Referenzpunktfeld einen großen Raum abdecken, wenn die Position des Effektors in jeder möglichen Stellung des Roboters bestimmt werden soll. Hierzu wären raumfüllende Referenzpunktfelder notwendig, was sich praktisch nicht realisieren lässt. Neuere Entwicklungen basieren auf Tracking-Konzepte für den Effektor am Roboter. Unterschiedliche Ansätze wurden vorgestellt oder sind Bestandteil kommerzieller Lösungen (METRIS K600 2009, STEINBICHLER TSCAN 2 2009, LOSER 2009, RICHTER & HENNES 2009). Eine Idee nutzt das Genauigkeitspotenzial des Laser-Trackers. Sie erweitert die Positions-Messung durch den Tracker mit einer optischen Lösung für die Orientierung. Dies wird erreicht, indem am zu beobachtende Objekt, hier der Effektor, zusätzliche Referenzpunkte beobachtet werden. Wird ausschließlich mit einem photogrammetrischen Konzept gearbeitet dienen solche Referenzpunkte als alleinige Information für die Pose. Hierbei

R. Schütze, F. Boochs, C. Raab, H. Wirth und J. Meier wird der Effektor durch ein hochgenaues kalibriertes Mehrkameramesssystem beobachtet, meistens bestehend aus zwei oder drei Kameras. Beide Lösungen, Tracking und Photogrammetrie, erhöhen die Positioniergenauigkeit eines am Roboter Kopf montierten Werkzeugs. Allerdings ist die Trackinglösung durch die Schnittgeometrie und der Blickrichtung des Tracking-Systems begrenzt. Die Genauigkeiten beider Systeme sind nicht homogen über den Raum verteilt, zusätzlich muss der Effektor stets zur Kamera ausgerichtet sein und kann so nicht in jeder beliebigen Stellung beobachtet werden. Aber im Allgemeinen haben photogrammetrische Lösungen das Potenzial für höchste Genauigkeit und die Verwendung eines photogrammetrischen Ansatzes sollte im Prinzip das Problem befriedigender Weise lösen können. Bereits sehr früh wurde gezeigt, dass entsprechend angeordnete Kameras geeignet sind ein Objekt zu beobachten (LOSER & LUHMANN 1992). Es gibt viele verschiedene Beispiele, in denen photogrammetrische Konzepte geeignet sind unterschiedlichste Probleme im industriellen Umfeld zu lösen (BEYER 1995, LUHMANN 2000). Obwohl die meisten Anwendungen das Ziel haben ein einzelnes Objekt durch eine Reihe von Bildern zu beobachten, ist es auch möglich unterschiedliche Objekte mit mehreren Kameras in einer fixen Konfiguration zu bestimmen (BÖSEMANN 1996). Es ist daher logisch, die Idee eines allgemeinen photogrammetrischen Konzeptes zu erweitern, um einen am Roboter Kopf montierten Effektor zu beobachten. Der Erfolg hängt einfach nur von einigen bekannten Rahmenbedingungen ab, wie z.b. die präzise und stabile interne und äußere Orientierung der Kameras, eine geeignete geometrische Beziehung zwischen Objekt und Kameras um die geforderten Genauigkeit einzuhalten und ein Messobjekt, das zuverlässig in jeder Position des Roboters beobachtet werden kann. 4 Genauigkeit Potential eines Photogrammetrische Lösung Ein entschiedenes Merkmal von Photogrammetrischen Lösungen ist deren Flexibilität und Anpassungsfähigkeit an das jeweilige Problem. Photogrammetrische Anwendungen besitzen viele Parameter, die für eine Optimierung der Genauigkeit, des Aufwands, der Robustheit und dem praktischen Rahmen entsprechend angepasst werden müssen. Folglich müssen diese Anwendung mehreren Aspekte betrachten, wie z.b. die Anzahl und Anordnung der Kameras, Blickfeld, Größe und Auflösung der Bildebene, Anzahl und Verteilung der Zielpunkte, Größe und Abmessungen des Arbeitsbereiches des Roboters sowie möglichen Ungenauigkeiten in der Orientierung des Effektor. Diese große Anzahl an Einflussfaktoren können nur durch eine numerische Simulationen optimiert werden. Auf Basis derer werden entsprechende Entscheidungen getroffen, die eventuelle folgen für praktische und / oder wirtschaftliche Zwänge haben. Der erste Prototyp des hier vorgestellten Systems wurde für einen Arbeitsbereich des Roboters von 4 m³ entworfen (siehe Abb. 1). Alle wichtigen Parameter wie z.b. Anzahl und Position von Kameras, Blickwinkel, Größe des Referenzkörpers wurden in einer Simulation optimiert. Alle Überlegungen wurden unter der Annahme getroffen, dass die absolute Genauigkeit der Effektor Raumposition nicht schlechter als 0,1 mm sein darf. Bei einem Abstand zwischen

Ein Mehrkamerasystem zur exakten Positionsbestimmung von beweglichen Effektoren dem Messobjekt und dem Referenzkörper von 500 mm muss die Winkelgenauigkeit der Pose 0,2 mrad betragen. Durch den geometrischen Aufbau des Systems kann die geforderte räumliche Positionsgenauigkeit für einen einzelnen Punkt nicht erreicht werden. Es ist daher eine größere Anzahl von Punkten notwendig, um die Roboter Position zu definieren. Dabei ist zu beachten, dass immer eine gewisse Anzahl von Punkten in jeder Stellung des Roboters sichtbar sein muss. Folglich wurde ein kugelförmiger Referenzobjekt entworfen, um alle Zielpunkte aufzunehmen. Abb. 1: Schematischer Aufbau der Messzelle. Links: Rückansicht, Rechts: Seitenansicht Die Größe, die Anzahl und Verteilung der Zielpunkte auf dem Referenzobjekte sind wichtige Faktoren der Anwendung und waren ein Schwerpunkt der Simulationen. Tabelle 1 enthält eine Liste der wichtigsten Elemente, die den größten Einfluss auf die Posengenauigkeiten haben: Tabelle 1: Pose Parameter Faktor Translation Rotation Einflussfaktoren auf die Tracking-Genauigkeit Zahl der signalisierten Punkte Geometrische Stabilität der Punkte (Punktgenauigkeit des lokalen Systems) Genauigkeit der äußeren Orientierung der Kameras Point Erkennung Präzision in den Bildern Größe (Durchmesser) der Kalibrierung Objekt Genauigkeit der äußeren Orientierung der Kameras Point Erkennung Präzision in den Bildern

R. Schütze, F. Boochs, C. Raab, H. Wirth und J. Meier Bezieht man alle diese Faktoren in einer Simulation ein, kann man eine theoretische Genauigkeit der Effektor-Pose von 0,06 mm (ein Sigma) erreichen. Dieses Ergebnis basiert auf der sehr konservativen Annahme für die Bildmessgenauigkeit von 1/10 Pixel, bei einer vier Kamera-Konfiguration. Die Genauigkeit ist im gesamten Arbeitsbereich stabil, wie in Abb. 2 gezeigt. Weitere Annahmen für diese Konfiguration sind: RMS der äußeren Orientierung: 0,15 mm (Position), 0,06 mrad (Winkel) RMS für einen signalisierten Objektpunkt: 0,05 mm. Abb. 2: Fehler Ellipsen der theoretischen Genauigkeit für die Effektor Pose im Messvolumen. Links: Ansicht von oben. Rechts: Frontansicht Die Simulation bestätigt, dass die gewünschte Genauigkeit vom theoretischen Standpunkt aus erreicht werden kann. Praktische Tests müssen dann den Nachweis erbringen, dass die zugrunde liegenden Annahmen nicht zu optimistisch gewesen sind und dass diese Qualität der Posenbestimmung in der Praxis erreicht werden kann (siehe Kapitel 6). 5 Design einer Testinstallation Wie bereits erläutert, nutzen wir in unserer vorgestellten Lösung mehrere Kameras, die das mit Zielmarken signalisiertes Referenzobjekt beobachten. Durch die Verwendung des Photogrammetrischen Ansatzes kann die Konfiguration auf die Bedürfnisse der Anwendung und des Volumens individuell angepasst werden. Hierzu sind die Anzahl der Kameras und deren Verteilung im Raum entsprechend anzupassen. Die Kameras sind in einer Weise angeordnet, dass der am Roboterkopf installierte Referenzkörper von einer ausreichenden Zahl von Kameras in alle verwendeten Posen zu sehen ist. Der Referenzkörper wurde mit aktiven, d.h. selbst leuchtenden, homogen auf einer Kugel verteilten Zielmarken realisiert. Aktive Marken haben den Vorteil, dass sie einfach an- und aus geschaltet werden können. Es ist daher möglicht durch entsprechende Schaltfolge der LEDs Punktkodierungen zu erzeugen. Eine externe Beleuchtung ist ebenfalls nicht notwen-

Ein Mehrkamerasystem zur exakten Positionsbestimmung von beweglichen Effektoren dig, was weitgehend die Flexibilität des Systems erhöht. Außerdem kann störendes Tageslicht durch den Einsatz von Infrarot-Licht erheblich unterdrückt werden. Für den eigentlichen Test-Aufbau wurde das Messvolumen von 1,0 m x 2,0 m x 2,0 m (Länge, Breite, Höhe) so gewählt, dass es der Reichweite eines typischen Roboters in der Automobilindustrie entspricht (siehe Abb. 1). Das Volumen wird von vier Kameras beobachtet, die an den Ecken eines vertikalen Rechtecks mit 4,0 x 3,0 m Kantenlänge, etwa zwei Meter hinter dem Messvolumen angeordnet sind. Um die gewünschte Auflösung in den Bildern zu gewährleisten wurden vier-megapixel Firewire Kameras verwendet. Jede Kamera ist mit einem Objektiv mit 12,5 mm Brennweite ausgestattet, was einem Blickwinkel von etwa 85 Grad entspricht. Abb. 3: Referenzobjekt mit aktiven Zielmarken. Abb. 3 zeigt die Realisierung des aktiven Referenzobjekts, das direkt am Roboter Kopf montiert wird. Der Referenzkörper ist mit 54 aktiven Zielmarken bestückt und besteht aus zwei halben Aluminium Kugelschalen. Die Zielmarken wurden gleichmäßig auf der Kugel verteilt. Jeder einzelne Zielpunkt ist präzise auf der stabilen Trägerstruktur montiert und enthält je eine Infrarot-LED. Der integrierte Diffusor sorgt zusammen mit der mechanischen Konstruktion für eine homogene Ausleuchtung. Durch die Verwendung aktiver im infraroten Spektrum leuchtenden Zielmarkierungen ist das System robuster gegenüber Schwankungen des Tageslichts und erfordert keine Einhausung der Messzelle.

R. Schütze, F. Boochs, C. Raab, H. Wirth und J. Meier 6 Test-Ergebnisse Die praktischen Prüfungen konzentrieren sich auf die innere- und äußere Genauigkeit des Systems. Für die Tests der inneren Genauigkeit wurden 27 unterschiedliche Positionen im gesamten Arbeitsbereich angefahren. Für jede Position wurden zehn unabhängige Messungen durchgeführt. Aus diesen Wiederholungsmessungen ergab sich eine Standardabweichung der Lage von 0,03 5 mm (ein Sigma), mit einem Maximum von 0,10 0 mm. Von größerem Interesse und Bedeutung für die tatsächliche Genauigkeit des Systems ist die äußere Genauigkeit, definiert in einem übergeordneten Referenz-Koordinatensystem (z.b. dem Messzellen System). Um den Testaufbau zu vereinfachen, nutzten wir ein durch ein Laser Tracker definiertes Bezugssystem. Im Allgemeinen hat ein Laser Tracker eine sehr hohe Genauigkeit von etwa 0,02 mm für den einzelnen 3D-Punkt. Das ist um den Faktor 5 besser als unsere Bedürfnisse und damit ausreichend für unsere Testzwecke. Die Idee hinter dem Test ist der Vergleich der Positionsunterschiede bei gleichzeitiger Beobachtung des Roboters mit den Kameras und dem Laser Tracker. Die numerische Auswertung erfolgt auf Basis der Entfernungen zwischen diesen beobachteten Positionen. Dies macht die Einführung einer Datumstransformation unnötig. Die räumliche Position des Roboterkopfes wird durch eine Kreuzkonstruktion mit fünf Reflektoren für den Laser Tracker signalisiert (siehe Abb. 4). Abb. 4: Testmessung mit dem Laser Tracker. Links: Testaufbau; Rechts: Messkreuz mit fünf Reflektoren In dem ersten Test wurde der Roboter Kopf an sechs unterschiedliche Positionen im Messvolumen bewegt und die Posen mit beiden Systemen gemessen. Diese Sequenz wurde acht Mal durchgeführt. Für jede Sequenz wurden die Residuen zwischen der Referenzentfernung und der photogrammetrisch errechneten Wegstrecke bestimmt (vgl. Abb. 5). Die Ergebnisse zeigen einen Mittelwert der Distanz-Differenz von 0,03 7 mm, einer Standardabweichung über alle Unterschiede von 0,07 0 mm mit einer maximalen Differenz von 0,14 2 mm. In Anbetracht des Umstandes, dass der Abstand aus zwei Punkten bestimmt wird, ist die einzelne Koordinate um einen Faktor von 1,41 (ergibt sich aus der Fehlerfortpflanzung) bes-

Ein Mehrkamerasystem zur exakten Positionsbestimmung von beweglichen Effektoren ser. Daher liegt die absolute Qualität des photogrammetrischen Tracking Systems für eine einzelne Pose bei etwa 0,05 mm (ein Sigma), das ist um den Faktor 2 besser als die ursprünglich zu erzielende Genauigkeit. Die hohe Qualität des vorgestellten photogrammetrischen Systems wird sichtbar, wenn man die beobachteten Koordinaten mit den Posen des Roboters selbst vergleicht. Hier liegt die Standardabweichung in etwa bei 1,5 mm, das entspricht in etwa den Erwartungen der absoluten Positionsgenauigkeit eines Roboters von etwa 1,0-2,0 mm pro Pose. Abb. 5: Ergebnisse der praktischen Tests: Unterschiede zwischen den Referenz- und beobachteten Abständen. 7 Fazit Es wurde gezeigt, dass diese photogrammetrische Lösung die absolute Positioniergenauigkeit eines Roboters um den Faktor 20 erhöht. Dies eröffnet neue Möglichkeiten, Roboter als präzise Messeinheit zu nutzen oder mit ihnen andere sensible Tätigkeiten durchzuführen. Weitere Vorteile unseres Ansatzes ist die Inline-Konzeption zur Steuerung des Roboters während seiner Tätigkeit. Darüber hinaus kann dieses Konzept für andere Anwendungen angepasst werden und ist an andere Messvolumen skalierbar. 8 Danksagung Diese Arbeit wurde von dem Deutsch Bundesministeriums für Wirtschaft und Technologie (BMWi) unter dem Förderkennzeichen (FKZ) KF0069602SS6 gefördert, was von den Autoren geschätzt wird.

R. Schütze, F. Boochs, C. Raab, H. Wirth und J. Meier 9 References Loser, R. & Luhmann, T. (1992): The Programmable Optical Measuring System POM - Applications and Performance, International Archives of Photogrammetry and Remote Sensing, Part 5, 1992. Beyer, H. A. (1995): Digital Photogrammetry in Industrial Applications, International Archives of Photogrammetry and Remote Sensing, Vol. 30 Part 5W1, 1995 Bösemann, W. (1996): The optical tube measurement system OLM photogrammetric methods used for industrial automation and process control. International Archives of Photogrammetry and Remote Sensing, Part 5, 1996, 55-58 Gong, Ch. & Yuan, J. & Ni J. (1999): Self-calibration method for robotic measurement system, American Society of Mechanical Engineers, Manufacturing Engineering Division, Nashville Luhmann, T. (2000): Photogrammetrische Verfahren in der industriellen Messtechnik. Publikationen der DGPF, Band 9, 2000 Clarke T. & Wang X. (2000): The Control Of A Robot End-Effector Using Photogrammetry, International Archives of Photogrammetry and Remote Sensing, Vol 33, 2000 Hefele, J. & Brenner C. (2000): Robot pose correction using photogrammetric tracking, Machine Vision and Three-Dimensional Imaging Systems for Inspection and Metrology, Photonics East, Boston Wiest, U. (2001): Kinematische Kalibrierung von Industrierobotern. Shaker Verlag, Aachen Isios Robotics (2009), http://www.isios.de/produkte1.htm, letzter zugriff 10.12.2009 ROSY (2009), http://www.teconsult.de/data/archive/files/roboterkalibrierung.pdf, letzter zugriff 10.12.2009 Metris K600 (2009), http://de.metris.com/products, letzter zugriff 10.12.2009 Hefele, J. & Brenner C. (2002): Real-Time Photogrammetric Algorithms For Robot Calibration, International Archives of Photogrammetry and Remote Sensing, Vol 34, Part 5, 2002 Steinbichler TSCAN 2 (2009), http://www.steinbichler.de/de/main/_t-scan_2_home_.htm, letzter zugriff 10.12.2009 Loser R. (2009): 6DoF Technologie als Grundlage zur Automatisierung, Oldenburger 3D- Tage 2009 Richter E. & Hennes M. (2009): Ein neuartiges Verfahren zur 6DoF Bestimmung, Oldenburger 3D-Tage 2009 Northern Digital (2009), OptoTrack Pro Series Optical Tracker, http://www.ndigital.com/- industrial/optotrak.php, letzter zugriff 10.12.2009