*DE B *

Ähnliche Dokumente
Bildtransformationen. Geometrische Transformationen Grauwert-Interpolation

Prof. J. Zhang Universität Hamburg. AB Technische Aspekte Multimodaler Systeme. 6. Januar 2004

Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17

*DE B *

Technische Universität München. Fakultät für Informatik

*EP A2* EP A2 (19) (11) EP A2 (12) EUROPÄISCHE PATENTANMELDUNG. (43) Veröffentlichungstag: Patentblatt 2002/43

*DE B *

in-situ visio n & se nso r system s

Selbstorganisierende Sensorik VMT Technologie Workshop 2015 Mannheim.

PRODUKTBROSCHÜRE. m&h 3D FORM INSPECT SOFTWARE Messen in der Werkzeugmaschine schnell und präzise

Vorgehen zur Kalibrierung von Kamerabildern

TEPZZ 9_5469A_T EP A1 (19) (11) EP A1 (12) EUROPÄISCHE PATENTANMELDUNG. (51) Int Cl.: A47J 42/50 ( )

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg,

TEPZZ 7998_ZA_T EP A1 (19) (11) EP A1 (12) EUROPÄISCHE PATENTANMELDUNG. (51) Int Cl.: G01B 11/25 ( )

*DE A *

EP A1 (19) (11) EP A1 (12) EUROPÄISCHE PATENTANMELDUNG. (43) Veröffentlichungstag: Patentblatt 2007/13

*DE B *

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg

EP A1 (19) (11) EP A1 (12) EUROPÄISCHE PATENTANMELDUNG. (43) Veröffentlichungstag: Patentblatt 2008/14

Hinweise zur Kalibrierung von Kameras mit einer AICON Kalibriertafel

*DE A *

PATENTAMT. <e> Offenlegungsschrift

PATENTANMELDUNG. mt.ci.5; F21Q 1/00, F21V 5/02. W-4780 Lippstadt 4(DE)

Partners and pioneers in automation. Worldwide

Hohe Wachstumsraten für ISRA Systeme im Automotive- und im Assembly-Bereich

(51) Int Cl.: B23K 26/28 ( ) B23K 26/32 ( ) B23K 26/30 ( ) B23K 33/00 ( )

TEPZZ 9_6 58A_T EP A1 (19) (11) EP A1 (12) EUROPÄISCHE PATENTANMELDUNG. (51) Int Cl.: G06K 7/10 ( )

*DE A *

(51) Int Cl.: F24J 2/52 ( ) H01L 31/048 ( )

Europäisches Patentamt European Patent Office Veröffentlichungsnummer: Office europeen des brevets EUROPÄISCHE PATENTANMELDUNG

*EP A1* EP A1 (19) (11) EP A1 (12) EUROPÄISCHE PATENTANMELDUNG. (43) Veröffentlichungstag: Patentblatt 2002/18

Optische 3D-Messsysteme. Bildgebende Systeme mit punktförmiger Antastung. VDI/VDE 2634 Blatt 1

TEPZZ 86ZZ 4A_T EP A1 (19) (11) EP A1 (12) EUROPÄISCHE PATENTANMELDUNG

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg

5i; Int. CI.J: Mol f* a/uu A 61 H 5/00

Zukunft TIVIS. AluCheck

*EP A1* EP A1 (19) (11) EP A1 (12) EUROPÄISCHE PATENTANMELDUNG. (43) Veröffentlichungstag: Patentblatt 2002/47

Technische Universität

2. Propädeutische Geometrie Klasse 5/6. Für den Geometrieunterricht ausnützen!

GOM TRITOP CMM, mobile optische 3D- Koordinatenmesstechnik der Sauter Engineering + Design

PATENTANMELDUNG. int ci 5 G09F 9/35. W-1000 Berlin 33(DE) Erfinder: Schultze, Claudia Forstweg 97 W-1000 Berlin 28(DE)

Durch diese Anleitung soll eine einheitliche Vorgehensweise bei der Vermessung und Bewertung von Golfplätzen sichergestellt werden.

"sf CT CO. Ps r" C? LU O. «t Oi. rs, <3- co LU Q G01T1/167. Offenlegungsschrift. DEUTSCHLAND ^ 3f DEUTSCHES PATENTAMT

EP A1 (19) (11) EP A1 (12) EUROPÄISCHE PATENTANMELDUNG. (43) Veröffentlichungstag: Patentblatt 2011/13

3D-Model Reconstruction using Vanishing Points

*DE U *

TEPZZ 8 4 6A_T EP A1 (19) (11) EP A1 (12) EUROPÄISCHE PATENTANMELDUNG. (51) Int Cl.: D04B 1/22 ( )

*EP A2* EP A2 (19) (11) EP A2 (12) EUROPÄISCHE PATENTANMELDUNG. (43) Veröffentlichungstag: Patentblatt 2003/49

FlexPlace. Höchste Präzision bei der robotergestützten Positionierung von Karosserieteilen

(51) Int Cl. 7 : G06K 7/00, G06K 13/08. (72) Erfinder: Baitz, Günter Berlin (DE) Kamin, Hartmut Berlin (DE)

Software Form Control

*EP A1* EP A1 (19) (11) EP A1 (12) EUROPÄISCHE PATENTANMELDUNG. (43) Veröffentlichungstag: Patentblatt 2004/43

*EP A1* EP A1 (19) (11) EP A1 (12) EUROPÄISCHE PATENTANMELDUNG. (43) Veröffentlichungstag: Patentblatt 2002/18

Praktikum 6. Digitale Bildverarbeitung

Offenlegungsschrift

2 Lineare Gleichungen mit zwei Variablen

Berechnung von Roboter Koordinatensystemen

*EP A2* EP A2 (19) (11) EP A2 (12) EUROPÄISCHE PATENTANMELDUNG. (43) Veröffentlichungstag: Patentblatt 2002/27

TEPZZ A_T EP A1 (19) (11) EP A1 (12) EUROPÄISCHE PATENTANMELDUNG. (43) Veröffentlichungstag: Patentblatt 2015/03

*EP A2* EP A2 (19) (11) EP A2 (12) EUROPÄISCHE PATENTANMELDUNG. (43) Veröffentlichungstag: Patentblatt 2005/30

Bildverarbeitung in der Fügetechnik FANUC irvision

PATENTANMELDUNG. mt ci s H05K 3/42

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Arbeitsblätter für die Klassen 7 bis 9: Linsen und optische Geräte

Grundregeln der Perspektive und ihre elementargeometrische Herleitung

EP A1 (19) (11) EP A1 (12) EUROPÄISCHE PATENTANMELDUNG. (43) Veröffentlichungstag: Patentblatt 2007/19

TEPZZ 797Z57A_T EP A1 (19) (11) EP A1 (12) EUROPÄISCHE PATENTANMELDUNG

Prüfungsarbeit eines Bewerbers - DI

TEPZZ 8 4 6A_T EP A1 (19) (11) EP A1 (12) EUROPÄISCHE PATENTANMELDUNG. (51) Int Cl.: F03D 11/00 ( ) G01M 11/08 (2006.

EP A2 (19) (11) EP A2 (12) EUROPÄISCHE PATENTANMELDUNG. (43) Veröffentlichungstag: Patentblatt 2011/40

TubeInspect. TubeInspect S. Spezifikationen. Effiziente Qualitätssicherung in der Rohrleitungsfertigung

Bach 3D Messtechnik GmbH, Rosenstraße Ostfildern. Ihr Ansprechpartner bei. BACH 3D Messtechnik GmbH:

Selbststudienunterlagen: Freiformflächen in Pro/Engineer

*EP A2* EP A2 (19) (11) EP A2 (12) EUROPÄISCHE PATENTANMELDUNG. (43) Veröffentlichungstag: Patentblatt 2002/01

*EP A2* EP A2 (19) (11) EP A2 (12) EUROPÄISCHE PATENTANMELDUNG. (43) Veröffentlichungstag: Patentblatt 2003/19

PATENTANMELDUNG. mtci5h01r 13/645. Erfinder: Rast, Oliver, Dipl.-lng. Brahmstrasse 20 W-5309 Meckenhem(DE)

Vorlesung. Optische Koordinatenmesstechnik. Dr. Uwe Nehse Mahr GmbH, Jena. November 2010

EP A1 (19) (11) EP A1 (12) EUROPÄISCHE PATENTANMELDUNG. (43) Veröffentlichungstag: Patentblatt 2007/22

(51) Int Cl.: B23K 10/00 ( ) B23K 26/38 ( ) B23K 26/14 ( ) F23D 14/54 ( ) H05H 1/34 ( ) (72) Erfinder: Czaban, Marco

Kapitel 0. Einführung. 0.1 Was ist Computergrafik? 0.2 Anwendungsgebiete

Sägeblätter präzise und zeitminimiert justieren Hightech mit bildverarbeitendem Sensor

TEPZZ A_T EP A1 (19) (11) EP A1 (12) EUROPÄISCHE PATENTANMELDUNG

Praktikumsversuch. Kamerakalibrierung. S. Rahmann und H. Burkhardt

Data Mining als Arbeitsprozess

Europäisches Patentamt European Patent Office Office europeen des brevets (11) EP A2

EP A1 (19) (11) EP A1 (12) EUROPÄISCHE PATENTANMELDUNG. (43) Veröffentlichungstag: Patentblatt 2007/28

Grundlagen der Computer-Tomographie

*EP A2* EP A2 (19) (11) EP A2 (12) EUROPÄISCHE PATENTANMELDUNG. (43) Veröffentlichungstag: Patentblatt 2001/45

Europäisches Patentamt European Patent Office Veröffentlichungsnummer: Office europeen des brevets EUROPÄISCHE PATENTANMELDUNG

*EP A2* EP A2 (19) (11) EP A2 (12) EUROPÄISCHE PATENTANMELDUNG. (43) Veröffentlichungstag: Patentblatt 2001/20

EP B2 (19) (11) EP B2 (12) NEUE EUROPÄISCHE PATENTSCHRIFT

Erinnerung. Arbeitsschritte der Computergraphik. Modellierung. Animation. Rendering. Ausgabemedium. Generierung

Linsen und Linsensysteme

(51) Int Cl.: E02F 9/22 ( ) F15B 11/064 ( ) F15B 15/14 ( ) F15B 21/14 ( ) F16F 9/06 ( )

2 Arbeiten mit CAD-Modellen

V 2 B, C, D Drinks. Möglicher Lösungsweg a) Gleichungssystem: 300x y = x + 500y = 597,5 2x3 Matrix: Energydrink 0,7 Mineralwasser 0,775,

Lineare Gleichungssysteme

1. Sichtbarkeitsproblem beim Rendern einer dreidimensionalen Szene auf einer zweidimensionalen

Vorlesung: Angewandte Sensorik

PATENTANMELDUNG. int. ci e: H04M 3/54, H04Q 11/04

Transkript:

(19) *DE102006005990B420130221* (10) DE 10 2006 005 990 B4 2013.02.21 (12) Patentschrift (21) Aktenzeichen: 10 2006 005 990.5 (22) Anmeldetag: 08.02.2006 (43) Offenlegungstag: 09.08.2007 (45) Veröffentlichungstag der Patenterteilung: 21.02.2013 (51) Int Cl.: G01B 11/24 (2006.01) G01B 11/03 (2006.01) Innerhalb von drei Monaten nach Veröffentlichung der Patenterteilung kann nach 59 Patentgesetz gegen das Patent Einspruch erhoben werden. Der Einspruch ist schriftlich zu erklären und zu begründen. Innerhalb der Einspruchsfrist ist eine Einspruchsgebühr in Höhe von 200 Euro zu entrichten( 6 Patentkostengesetz in Verbindung mit der Anlage zu 2 Abs. 1 Patentkostengesetz). (73) Patentinhaber: Vision Tools Hard- und Software Entwicklungs GmbH, 68753, Waghäusel, DE (72) Erfinder: Antrag auf Nichtnennung (56) Für die Beurteilung der Patentfähigkeit in Betracht gezogene Druckschriften: DE 40 26 942 A1 DE 199 31 676 A1 R.Y. Tsai, R.K. Lenz: A new technique for fully autonomous and efficient 3D robotics hand/eye calibration, in: IEEE Transactions on Robotics and Automation, Vol. 3, No.3, 1989, S.345-358 R.Y. Tsai, R.K. Lenz: Real time versatile robotics hand/eye calibration using 3D machine vision, in: Proc. 1988 IEEE International Conference on Robotics and Automation, Vol.1, S.554-561 (54) Bezeichnung: Werkstückvermessung für 3-D Lageerkennung in mehreren Multi-Roboter-Stationen (57) Hauptanspruch: Verfahren zum Vermessen der Position von Merkmalen eines Werkstücks, die für eine 3D-Lageerkennung eines solchen Werkstücks verwendet werden, in einer Station mit mindestens einem Roboter, wobei an mindestens einem Roboter eine Kamera mit dem Roboter bewegbar befestigt ist, dadurch gekennzeichnet, daß die Position der Abbildung der Merkmale im Bildkoordinatensystem für mehrere Bildaufnahmen gemessen wird, wobei die Kamera so auf die Merkmale gerichtet wird, dass a) in den Bildaufnahmen für jeden Roboter mit zur Vermessung verwendeter Kamera mindestens ein Merkmal existiert, für das mindestens sechs Bildaufnahmen dieser Kamera mit rotatorisch gleicher und translatorisch unterschiedlicher Roboterpose enthalten sind, und b) in den Bildaufnahmen für alle Merkmale mindestens zwei Bildaufnahmen einer Kamera mit rotatorisch unterschiedlicher Roboterpose enthalten sind, und wobei aus den Messungen die Positionen der Merkmale in den betreffenden Roboterkoordinatensystemen bestimmt werden.

Beschreibung [0001] Die Erfindung betrifft, das Einmessen eines Werkstücks zur optischen 3D-Lageerkennung mit einem Bildverarbeitungssystem in einer Station mit Roboter, insbesondere mit mehreren Robotern und bei großem Werkstück, außerdem das Einmessen an mehreren Stationen mit gleichem oder ähnlichem Werkstück, in einer stationsspezifischen Standardlage. [0002] Bildverarbeitungssysteme zur 3D-Lageerkennung von Werkstücken arbeiten meist mit punktuellen Merkmalen (Löcher, Ecken, rechnerische Schnittpunkte von Kanten), deren dreidimensionale Positionen am Werkstück bekannt sein müssen, bezogen auf die Geometrie der anstehenden Verarbeitung (Greifpunkt, Bearbeitungsbahn..). Bei Robotersystemen wird der Greif- oder Bearbeitungsvorgang vorzugsweise eingegeben durch Vorzeigen mit einem realen Werkstück in einer zufällig oder speziell gewählten Lage, im folgenden Standardlage genannt (gemeint ist die physikalische Lage, unabhängig vom dem zur Darstellung gewählten Koordinatensystem). Im laufenden Betrieb wird über eine 3D-Lageerkennug die Abweichung der aktuellen Werkstücklage von der Standardlage bestimmt und über eine entprechende Koordinatentransformation der Greif- oder Bearbeitungsvorgang an die aktuelle Situation angepaßt. Dazu kann hilfsweise ein Werkstück-Koordinatensystem definiert sein. [0003] Die 3D-Merkmalsgeometrie kann aus den CAD-Daten stammen, das hat jedoch die folgenden Nachteile: a) es fehlt der Bezug der 3D-Positionen laut CAD zu der Bearbeitungsgeometrie in Standardlage; dieser Bezug muß vor Ort hergestellt werden. b) Reale Werkstücke können von den CAD-Daten in systematischer Weise abweichen. Man bevorzugt daher das Vermessen der Merkmale anhand von Serienteilen. Letzteres kann mit Meßmaschine in einem dafür vorgesehenen Meßraum geschehen, was in der Regel mit handhabungstechnischen Problemen verbunden ist, außerdem fehlt immer noch der Bezug zu der Standardlage. [0004] Nach DE 199 31 676 A1 wird zum genauen Vermessen der Position von Meßpunkten an einem Werkstück ein an einem Roboter montiertes optisches Meßwerkzeug verwendet. Zur Verbesserung der Genauigkeit werden vor oder während der Messungen Kalibriermarken angemessen, die sich in der Nähe der Messpunkte befinden. Die dreidimensionale Position der Kalibriermarken ist vorab genau bekannt. Nach DE 40 26 942 A1 wird zur Vermessung charakteristischer Punkte auf einer Objektoberfläche eine Kamera mittels Schwenk-Dreheinrichtung in zwei verschiedenen Stellungen mit verschiedenen Dreh- bzw. Schwenkwinkeln auf die Punkte gerichtet. Für jede Messung muss die Lage des Sensors im Bildraum und die Orientierung des Bildraums im Koordinatenmessgeräts bekannt sein. [0005] Die Verwendung einer Meßmaschine ist besonders umständlich und nachteilig bei sehr großen Teilen wie sie z. B. im Automobilbau vorkommen; es sind große und teure Meßmaschinen erforderlich, beim Transport zum Meßraum können sich Geometrieveränderungen ergeben. [0006] Es wäre handhabungstechnisch und meßtechnisch günstiger, in der Bearbeitungsstation ein Serienteil in Standardlage zur Bestimmung der 3D- Merkmalsgeometrie zu verwenden. Dazu kann man unter manueller Führung eine am Roboter befestigte Meßspitze an die Merkmale heranführen und die Koordinaten der einzelnen Merkmale festhalten. Vorteil ist, daß die Koordinaten gleich im Roboter-Koordinatensystem verfügbar sind. Nachteilig bei dieser Vorgehensweise ist die Unfallgefahr (der Bediener muß mit dem Auge nahe an die Meßspitze heran), die Abhängigkeit der Genauigkeit von der Sorgfalt des Bedieners, außerdem der Zeitbedarf. Auch muß hier die Position der Meßspitze im Roboterkoordinatensystem bekannt sein. Bei Verwendung von Meßspitzen wird in der Regel der TCP (Tool Center Point) in die Spitze gelegt; dafür gibt es fertig aufbereitete Roboter-Prozeduren, es geschieht jedoch wiederum unter Führung und Kontrolle des Bedieners. [0007] Gerade bei großen Teilen, wo das Einmessen in der Bearbeitungsstation in Standardlage erwünscht ist, werden jedoch in der Regel mehrere Roboter eingesetzt und die Merkmale können oft nicht von einem einzelnen Roboter mittels Meßspitze mechanisch erreicht werden. Werden mehrere Roboter verwendet und vermessen diese verschiedene Merkmale, so müssen die Koordinaten für ein Bildverarbeitungssystem in einem gemeinsamen Koordinatensystem dargestellt werden. [0008] Anmerkung: Die Betrachtungen zu dieser Erfindung sind davon unabhängig, wieviele Kameras zur Lageerkennung verwendet werden und ob die Kameras fest oder an einem Roboter montiert sind. Allgemein sind zur Lageerkennung bei punktuellen Merkmalen mindestens drei Merkmale erforderlich, die aus mindestens zwei schräg zueinander stehenden Richtungen aufgenommen werden; dies geschieht normalerweise mit drei aus verschiedene Richtungen auf verschiedene Merkmale blickenden Kameras, kann aber auch mit einer einzelnen Kamera und divergierenden Strahlenbündeln (kurzbrennweitige Optik) realisiert sein. [0009] Aufgabe der Erfindung ist es, die Unfallgefahr zu vermeiden, die Bedienung beim ersten Einmessen in einer Station zu erleichtern und jedes nachträgliche Einmessen ähnlicher Werkstücke für diese Station oder für andere, ähnlich aufgebaute Stationen 2/7

vollautomatisch durchführen zu können (nachträgliches Einmessen ist z. B. erforderlich bei neuen, ähnlichen Varianten oder bei Chargenwechsel und chargenspezifischen Geometrieabweichungen). [0010] Die Aufgabe wird gelöst nach Anspruch 1. [0011] Vorbemerkung: eine 3D-Position wird durch 3 Parameter beschrieben (x, y, z), eine 2D-Position (Bildkoordinaten) durch 2 Parameter (u, v), eine 3D- Lage oder eine Pose bestehen aus Position und Orientierung und werden somit durch 6 Parameter beschrieben (x, y, z, a, b, c). [0012] Das Verfahren zum Vermessen der Position von Merkmalen eines Werkstücks, die für eine 3D-Lageerkennung eines solchen Werkstücks verwendet werden, in einer Station mit mindestens einem Roboter, wobei an mindestens einem Roboter eine Kamera mit dem Roboter bewegbar befestigt ist, ist dadurch gekennzeichnet, daß die Position der Abbildung der Merkmale im Bildkoordinatensystem für mehrere Bildaufnahmen gemessen wird, wobei die Kamera so auf die Merkmale gerichtet wird, dass a) in den Bildaufnahmen für jeden Roboter mit zur Vermessung verwendeter Kamera mindestens ein Merkmal existiert, für das mindestens sechs Bildaufnahmen dieser Kamera mit rotatorisch gleicher und translatorisch unterschiedlicher Roboterpose enthalten sind, und wobei b) in den Bildaufnahmen für alle Merkmale mindestens zwei Bildaufnahmen einer Kamera mit rotatorisch unterschiedlicher Roboterpose enthalten sind, und wobei aus den Messungen die Positionen der Merkmale in den betreffenden Roboterkoordinatensystemen bestimmt werden. [0013] Es werden also für jedes für die Bildverarbeitung herangezogene Merkmal mit mindestens einem Roboter und der daran befetigten Kamera Messungen realisiert. [0014] Bei Mehr-Roboter-Systemen kann es sinnvoll sein, unterschiedliche Merkmale über Kameras an unterschiedlichen Robotern zu vermessen. Wenn der Bezug zwischen den Roboterkoordinatensystemen direkt oder indirekt bekannt ist (gegenseitige Roboterkalibrierung gegeben), können die Merkmalspositionen auf ein gemeinsames System transformiert werden, wie für die Bildverarbeitung praktisch gefordet. [0015] Bei Systemen mit mehreren Robotern mit je einer Kamera treffen besonders vorteilhaft für jede dieser Kameras Bedingung a) für mindestens ein Merkmal und Bedingung b) für mindestens drei Merkmale zu. Dann kann aus den Messungen der Bezug zwischen den betreffenden Roboterkoordinatensystemen hergeleitet werden, ohne daß die Roboter- Koordinatensysteme vorab zueinander kalibriert sein müssen: ist die Position von drei Punkten in zwei verschiedenen Roboterkoordinatensystemen bekannt, so kann daraus inbekannter Weise der Bezug zwischen den Koordinatensystemen hergestellt werden. Im Zuge der Werkstückvermessung findet also quasi nebenbei eine gegenseitige Kalibrierung aller Roboter der Station untereinander statt. [0016] Für das nachträgliche Einmessen eines Werkstücks mit gleicher oder ähnlicher Merkmalsgeometrie, in der gleichen Station, kann der Meßvorgang vollautomatisch unter Wiederverwendung von bei einem vorherigen Einmessen manuell bestimmten und gespeichereten Roboterposen. [0017] Für das Einmessen eines Werkstücks in einer zweiten Station, wobei ein Werkstück mit gleicher oder ähnlicher Werkstückgeometrie bereits in einer ersten Station vermessen wurde, kann der Meßvorgang vollautomatisch laufen unter Wiederverwendung der in der ersten Station gespeichereten Roboterposen. Die dafür erforderliche Datenübertragung kann natürlich über Netzwerk erfolgen. [0018] Zur rechentechnisch einfacheren Handhabung kann nun ein. beliebiges Koordinatensystem, z. B. ein Zell-Koordinatensystem definiert werden, das in bekanntem Bezug zu den Roboterkoordinatensystemen steht. Für die Lagegerkennung ist es insbesondere bei Mehr-Robotersystemen wichtig, die Merkmale in einem gemeinsamen Koordinatensystem ausdrücken zu können. [0019] Vorzugsweise befindet sich beim Messen das Werkstück in einer Standardlage, für die ein Greifund/oder Bearbeitungsvorgang des Roboters definiert ist oder durch Teach-In eingegeben wird. [0020] Im Automatikbetrieb wird ein durch Werkstückerkennungssystem auf Basis der wie oben beschrieben gewonnenen Merkmalspositionen die Abweichung der Lage des aktuellen Werkstücks von der Standardlage bestimmt, mit Ergebnisausgabe wiederum im zweiten Koordinatensystem oder auch in den Roboter-Koordinatensystemen. Entprechend der Abweichung wird der zuvor für die Standardlage eingespeicherte Greif- bzw. Bearbeitungsvorgang modifiziert. Hilfsweise kann dazu ein Werkstückkoordinatensystem herangezogen werden. [0021] Die Messungen werden mit einem an die Kamera angeschlossenen Bildverarbeitungssystem bestimmt. (Dies kann eine intelligente Kamera mit integrerter Bildauswertung sein oder eine Kamera mit getrennter Bildauswerteeinheit, z. B. ein PC mit Framegrabber.) Die Kamera braucht nicht präzise befestigt zu werden, es genügt, wenn sie für die erste Aufnah- 3/7

me grob so eingerichtet wird, daß sie das Merkmal erfaßt. Die Kamera braucht auch nicht bezüglich ihrer inneren Parameter vorkalibriert zu sein. Für die folgenden Aufnahmen wird der Roboter vom Operateur so in verschiedene Posen gebracht, daß die oben geschilderten Bedingungen erfüllt sind. Die dabei eingenommenen Posen werden aufgezeichnet und für ein nachträgliches Einmessen (z. B. bei neuen, ähnlichen Varianten, s. o.) wiederverwendet, das dann vollautomatisch geschehen kann. Nach dem Einmessen kann die Kamera entfernt werden, für das nachträgliche Einmessen genügt eine provisorische Befestigung in grob ähnlicher Lage wie beim ersten Einmessen. Bei Anwendungen in rauer Umgebung wie einer Lackiererei oder Wachsanlage kann man, falls erforderlich, die Kamera während des Automatikbetriebs einfach abdecken. [0022] Falls für die Werkstückerkennung oder andere Zwecke ohnehin Kameras am Roboter befestigt sind, können diese für das oben geschilderte Verfahren mit verwendet werden. [0023] Natürlich können die Verfahrensschritte bei mehreren Robotern gleichzeitig oder zeitlich getrennt durchgeführt werden. Befinden sich mehrere Merkmale im Bildfeld einer Kamera, so können Messungen mehrerer Merkmale mit einer einzigen Bildaufnahme zusammengefaßt werden. [0024] Vorbemerkung zur folgenden Erläuterung: Unter Kalibrierung einer Kamera verstehen wir die Herstellung des abbildenden Bezugs von Raumkoordinaten zu Bildkoordinaten. Für das einfache Lochkamera-Modell kann man die Abbildung mit einer Projektionsmatrix mit 11 freien Parametern darstellen, bei Erfassung nichtlinearer Verzerrungen (Verzeichnung durch die verwendete Optik) arbeitet man mit einer vorgeschalteten Verzerrungsfunktion; ausführliche Angaben dazu findet man in der Literatur unter dem Stichwort Kamerakalibrierung. [0025] Fig. 1 zeigt zwei Roboter R1 und R2, mit Koordinatensystemen RKS1 bzw. RKS2, zur Vereinfachung der Darstellung mit nur drei Freiheitsgraden gezeichnet, mit je einer Kamera 2, sowie ein gemeinsames Zell-Koordinatensystem ZKS. RKS1 und RKS2 können zueinander verschoben und verdreht sein, wie in der Figur angedeutet. Die Kameras sind auf Merkmale 3 eines Werkstücks 4 gerichtet. Die Werkzeuge 6 sind ebenso wie die Kameras 2 am Endeffektor der Roboter befestigt. Die Bearbeitungsbahn 5 (z. B. für eine Schweißnaht) und die Merkmale werden in einem der genannten Koordinatensysteme angegeben oder hilfsweise in einem Werkstückkoordinatensystem WKS. Nicht notwendigerweise, aber um beste Genauigkeit zu erzielen, erfaßt jede Kamera in einem Schritt jeweils nur ein Merkmal (kleines Bildfeld, Merkmale weit voneinander entfernt). [0026] Es werden mindestens sechs Bildaufnahmen mit einem Merkmal in unterschiedlicher, allgemeiner Kameraposition und mit beliebiger, aber konstanter Kameraorientierung realisiert und jeweils die Position der Abbildung des Merkmals durch die Kamera bestimmt, gemessen in einem Bildkoordinatensystem. Zur Veranschaulichung des Vorgangs betrachten wir in Fig. 2 ein Merkmal, das mit rein translatorischen Bewegungen aufgenommen wird, wobei die Roboterposen hier zur anschaulichen Darstellung 6 Punkte auf den Kanten eines Quaders einnnehmen. Für die 11 freien Parameter der Kamerakalibrierung sind mindestens 6 Punkte erforderlich, denn jede Aufnahme eines Merkmals liefert 2 Bildkoordinaten. Die Kamera sieht in diesem Beispiel also die Punkte auf einem Quader, wie in Fig. 2 abgebildet (Monitorbild 7), an Positionen 8, im Bildkoordinatensystem BKS. Wohlgemerkt sind die Abbildungspunkte Abbildungen des selben Merkmals 3. Mit dem Lochkameramodell kann aus sechs solchen Punkten (die räumliche Verschiebung ist bekannt über die bekannte Roboterbewegung) eine Kamerakalibrierung realisiert werden. Dabei bezieht sich das Kamerakoordinatensystem auf das Merkmal und hat die gleiche Orientierug wie das Roboterkoordinatensystem. Die Koordinaten des Merkmals im Roboterkoordinatensystem sind allerdings noch unbekannt. Realisierung: [0027] Mit Darstellung in homogenen Koordinaten und Index i der i-ten Bildaufnahme Kameraprojektion K als 3 4-Matrix mit 11 freien Parametern, welche unbekannt sind, inverse Roboterpose F(i) als 4 4-Matrix (enthält Rotation R(i) und Translation t(i) des TCPs) Bildpunkt q(i) (des selben Merkmals) Merkmal p ergibt sich die Abbildung des Merkmals p auf den Bildpunkt q(i) zu q(i) = K F(i) p [1] [0028] Legt man das Bezugssystem in die Merkmal p, ergibt sich p = 0 und damit q(i) = K t(i), wobei t(i) den Translationsanteil von F(i) darstellt und bekannt ist. Bei mindestens 6 Aufnahmen (i = 1..6) läßt sich ein überbestimmtes lineares Gleichungssystem formulieren 4/7

aus welchem sich durch bekannte mathematische Verfahren die 11 Unbekannten der Kameraprojektionsmatrix K bestimmen lassen. [0029] Nun wird der translatorische Bezug von dem aktuell betrachteten Merkmal zum Roboterkoordinatensystem des gerade betrachteten Roboters hergestellt. Dies geschieht durch eine Bewegung mit Rotationsanteil um einen Raumpunkt, und Messung der Abbildung des Merkmals, wobei der optionale Translationsanteil so gewählt wird, daß das Merkmal im Bildfeld der Kamera verbleibt. Da die Kamera bereits kalibriert ist, kann nun aus mindestens zwei solcher Aufnahmen die Lage des Merkmals in Roboterkoordinaten bestimmt werden. Realisierung: [0030] Das Bezugssystem KBS der Kameraprojektion K liegt in p und hat die Orientierung des Roboterbezugssystems RBS. [0031] Um den Versatz des Kamerabezugssystems KBS zum RBS zu bestimmen, werden (mindestens) zwei Aufnahmen des Merkmals p benötigt, wobei sich die Rotationen des TCPs sowohl untereinander, als auch in Bezug zu den oben erwähnten Aufnahmen unterscheiden müssen. [0032] Auf das RBS bezogen, ergibt sich die Projektionsgleichung [1] zu q(i) = K T F(i) T^ 1 p [2], wobei T die zu bestimmende Translationsmatrix zwischen KBW und RBS, sowie T^ 1 ihre Inverse ist. Der in T enthaltene Translationsvektor sei p'. [0033] Aus [2] mit p = 0 folgt durch Umformung q(i) = K (F(i) I + N) ( p'), wobei I die 4 4-Einheitsmatrix, und N die homogene Nullmatrix (alle Elemente sind Null, nur N[4, 4] = 1) darstellen. [0034] Bei mindestens 2 Aufnahmen (i = 1..2) läßt sich erneut ein überbestimmtes lineares Gleichungssystem formulieren q(1) = K (F(1) I + N) ( p') q(2) = K (F(2) I + N) ( p'), aus welchem sich durch bekannte mathematische Verfahren die Koordinaten der Translation p' bestimmen lassen. p' ist damit zugleich die Position des Kalibrierpunktes bezüglich des RBS. [0035] Nun ist also die Position des vermessenen Merkmals in Roboterkoordinaten bekannt, außerdem der abbildende Bezug von Raumkoordinaten eines Merkmals zu Bildkoordinaten. Umgekehrt kann aus Bildkoordinaten der zugehörige Sehstrahl bestimmt werden. Die Position des zusätzlichen Merkmals kann nun durch Schneiden der Sehstrahlen von zwei Bildaufnahmen aus unterschiedlicher Richtung berechnet werden (dies entpricht dem klassichen Stereo). Um die restlichen Merkmale eines Werkstücks zu vermessen, genügen also nun pro zusätzlichem Merkmal zwei Messungen aus unterschiedlicher Richtung. [0036] Natürlich wird man in der Praxis sowohl Translationen als auch Rotationen redundant ausführen, um über eine Ausgleichsrechnung eine höhere Präzision zu erreichen. Vorteile: [0037] Für das erste Einmessen braucht der Roboterbediener nur dafür zu sorgen, daß die Merkmale im Monitorbild der Kamera bzw. des Bildverarbeitungssystems sichtbar sind, er braucht sich also nicht in die Nähe einer Meßspitze zu begeben (Unfallgefahr). [0038] Jede nachträgliche Messung geschieht vollautomatisch. [0039] Messungen für gleich oder ähnlich aufgebaute Stationen mit einem oder mehreren Robotern geschehen in stationsspezifischer Standardlage vollautomatisch. [0040] Es besteht keine Abhängigkeit der Meßgenauigkeit von der Sorgfalt des Bedieners. Die Messung geschieht im Gegensatz zu einer separaten Messung mit Meßmaschine im Meßraum direkt im Roboter-Koordinatensystem, was die Meßkette verkürzt. Die Messung geschieht direkt in der Station: a) Fehler, die beim Transport in den Meßraum auftreten können, entfallen; b) das Teil wird in der Halterung vermessen, in der es später erkannt werden soll, systematische Geometrieveränderungen aufgrund unterschiedlicher Teilehalterung (z. B. Verwinden je nach Aufhängung in einem Hängeförderer) werden automatisch stationsindividuell eingebracht. [0041] Wird die gleiche Kamera zum Einmessen wie zur Werkstückerkennung verwendet, so ergibt sich noch der wesentliche Vorteil, daß bezüglich Bildauswertung systematische Meßfehler beim Einmessen wie im Automatikbetrieb gleichermaßen auftreten und sich daher in erster Näherung aufheben. Anschauliches Beispiel: Bei der Bildaufnahme eines runden Lochs kann sich aufgrund der Beleuchtungsund Hintergrundverhältnisse eine eher mondförmige als kreisrunde Form ergeben, was zu einem seitli- 5/7

chen Versatzfehler bei der Messung im Bild führen kann. Tritt dieser Fehler beim Einmessen und später bei der Lageerkennung systematisch in gleicher Weise auf, so arbeitet das System mit einer virtuell verschobenen Lochposition, bei Modellbildung und Erkennung gleichermaßen, und erkennt somit die Abweichung von der Standardlage trotzdem richtig. Patentansprüche 1. Verfahren zum Vermessen der Position von Merkmalen eines Werkstücks, die für eine 3D-Lageerkennung eines solchen Werkstücks verwendet werden, in einer Station mit mindestens einem Roboter, wobei an mindestens einem Roboter eine Kamera mit dem Roboter bewegbar befestigt ist, dadurch gekennzeichnet, daß die Position der Abbildung der Merkmale im Bildkoordinatensystem für mehrere Bildaufnahmen gemessen wird, wobei die Kamera so auf die Merkmale gerichtet wird, dass a) in den Bildaufnahmen für jeden Roboter mit zur Vermessung verwendeter Kamera mindestens ein Merkmal existiert, für das mindestens sechs Bildaufnahmen dieser Kamera mit rotatorisch gleicher und translatorisch unterschiedlicher Roboterpose enthalten sind, und b) in den Bildaufnahmen für alle Merkmale mindestens zwei Bildaufnahmen einer Kamera mit rotatorisch unterschiedlicher Roboterpose enthalten sind, und wobei aus den Messungen die Positionen der Merkmale in den betreffenden Roboterkoordinatensystemen bestimmt werden. 5. Verfahren nach einem der vorigen Ansprüche, für ein nachträgliches Vermessen eines Werkstücks mit gleicher oder ähnlicher Merkmalsgeometrie wie ein zuvor vermessenes Werkstück, dadurch gekennzeichnet, daß der Meßvorgang vollautomatisch läuft unter Wiederverwendung von bei einem vorherigen Einmessen manuell bestimmten und gespeichereten Roboterposen. 6. Verfahren nach einem der Ansprüche 1 bis 4, für das Einmessen eines Werkstücks in einer zweiten Station, wobei ein Werkstück mit gleicher oder ähnlicher Werkstückgeometrie bereits in einer ersten Station vermessen wurde, dadurch gekennzeichnet, daß der Meßvorgang vollautomatisch läuft unter Wiederverwendung der in der ersten Station gespeichereten Roboterposen. Es folgt ein Blatt Zeichnungen 2. Verfahren nach Anspruch 1, mit mehreren Robotern mit je einer Kamera, wobei für jede dieser Kameras Bedingung a) zutrifft für mindestens ein Merkmal und Bedingung b) zutrifft für mindestens drei Merkmale, und wobei aus den Messungen der Bezug zwischen den beiden Roboterkoordinatensystemen hergestellt wird. 3. Verfahren nach einem der vorigen Ansprüche, wobei sich das Werkstück in einer Standardlage befindet, für die ein Greif- und/oder Bearbeitungsvorgang des Roboters definiert ist oder durch Teach-In eingegeben wird, wobei im Automatikbetrieb ein Werkstückerkennungssystem auf Basis der nach vorigen Ansprüchen gewonnenen Merkmalspositionen die Abweichung der Lage des aktuellen Werkstücks von der Standardlage bestimmt und der Greif- bzw. Bearbeitungsvorgang entprechend dieser Abweichung modifiziert wird. 4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß die für das Einmessen des Werkstücks verwendeten. Kameras auch für die 3D-Lageerkennung verwendet werden. 6/7

Anhängende Zeichnungen 7/7