Bestimmung von Einflussgrößen in der Nahbereichsphotogrammetrie mittels Monte-Carlo-Simulation



Ähnliche Dokumente
Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

QM: Prüfen -1- KN

SOFTWARE FÜR PRG-APPLIKATIONEN

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

1 Einleitung. 1.1 Motivation und Zielsetzung der Untersuchung

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel

Erfolg und Vermögensrückgänge angefertigt im Rahmen der Lehrveranstaltung Nachrichtentechnik von: Eric Hansen, am:

Statistische Thermodynamik I Lösungen zur Serie 1

Berechnung der Erhöhung der Durchschnittsprämien

Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR)

Das große ElterngeldPlus 1x1. Alles über das ElterngeldPlus. Wer kann ElterngeldPlus beantragen? ElterngeldPlus verstehen ein paar einleitende Fakten

GEPRÜFTE / -R INDUSTRIEMEISTER / -IN METALL / NEU

Hinweise zur Kalibrierung von Kameras mit einer AICON Kalibriertafel

Tutorial: Homogenitätstest

Universität Bonn 28. Juli 2010 Fachbereich Rechts- und Wirtschaftswissenschaften Statistische Abteilung Prof. Dr. A. Kneip. KLAUSUR Statistik B

Plotten von Linien ( nach Jack Bresenham, 1962 )

Erstellen von x-y-diagrammen in OpenOffice.calc

Statistische Auswertung:

Doing Economics with the Computer Sommersemester Excel Solver 1

Optische 3D-Messsysteme. Bildgebende Systeme mit punktförmiger Antastung. VDI/VDE 2634 Blatt 1

Diplomarbeit. Konzeption und Implementierung einer automatisierten Testumgebung. Thomas Wehrspann. 10. Dezember 2008

Zeichen bei Zahlen entschlüsseln

R ist freie Software und kann von der Website.

Behörde für Bildung und Sport Abitur 2008 Lehrermaterialien zum Leistungskurs Mathematik

Prüfung eines Datenbestandes

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50, ,5 51,7 48,8

Toleranzberechnung/-Simulation

14. Minimale Schichtdicken von PEEK und PPS im Schlauchreckprozeß und im Rheotensversuch

Data Mining: Einige Grundlagen aus der Stochastik

PVL 3 - Roulette. (5 Punkte) Abgabe bis

Agile Vorgehensmodelle in der Softwareentwicklung: Scrum

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

Statistik II. Statistik II, SS 2001, Seite 1 von 5

Theoretische Informatik SS 04 Übung 1

einfache Rendite

Excel Pivot-Tabellen 2010 effektiv

Suche schlecht beschriftete Bilder mit Eigenen Abfragen

Modellbildungssysteme: Pädagogische und didaktische Ziele

Kugel-Fächer-Modell. 1fach. 3fach. Für die Einzelkugel gibt es 3 Möglichkeiten. 6fach. 3! Möglichkeiten

Theoretische Grundlagen der Informatik WS 09/10

W-Rechnung und Statistik für Ingenieure Übung 11

Wir arbeiten mit Zufallszahlen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Mitarbeiterbefragung als PE- und OE-Instrument

Schritt für Schritt zur Krankenstandsstatistik

Dipl.-Ing. Herbert Schmolke, VdS Schadenverhütung

Die Beschreibung bezieht sich auf die Version Dreamweaver 4.0. In der Version MX ist die Sitedefinition leicht geändert worden.

Kurzeinführung LABTALK

Meinungen der Bürgerinnen und Bürger in Hamburg und Berlin zu einer Bewerbung um die Austragung der Olympischen Spiele

i x k k=1 i u i x i v i 1 0, ,08 2 0, ,18 3 0, ,36 4 0, ,60 5 1, ,00 2,22 G = n 2 n i=1

Melanie Kaspar, Prof. Dr. B. Grabowski 1

Lineare Gleichungssysteme

Welche Unterschiede gibt es zwischen einem CAPAund einem Audiometrie- Test?

Hilfe zur Urlaubsplanung und Zeiterfassung

A1.7: Entropie natürlicher Texte

Fragebogen zur Anforderungsanalyse

Monte Carlo Simulation (Grundlagen)

4. Erstellen von Klassen

Inhalte. Photogram. Aufnahmesysteme. HS BO Lab. für Photogrammetrie: Metrische Kameras und Innere Orientierung 1

Eine der Aktien hat immer einen höheren Gewinn als die andere Aktie. Ihre Aufgabe ist es diese auszuwählen.

Zusammenfassende Beurteilung der Unterrichtsbeispiele für Wirtschaft und Recht

Leseprobe. Wilhelm Kleppmann. Versuchsplanung. Produkte und Prozesse optimieren ISBN: Weitere Informationen oder Bestellungen unter

Ihr Einkommensteuertarif:

Vermögensbildung: Sparen und Wertsteigerung bei Immobilien liegen vorn

Abituraufgabe zur Analysis, Hessen 2009, Grundkurs (TR)

Leitfaden #1a. "zanox Publisher-Statistik" (next generation)

Binäre Bäume. 1. Allgemeines. 2. Funktionsweise. 2.1 Eintragen

Virtuelle Fotografie (CGI)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

1 Mathematische Grundlagen

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374

Datenanalyse - Schnittstellendesign

OUTSOURCING ADVISOR. Analyse von SW-Anwendungen und IT-Dienstleistungen auf ihre Global Sourcing Eignung. Bewertung von Dienstleistern und Standorten

Funktionaler Zusammenhang. Lehrplan Realschule

Auswerten mit Excel. Viele Video-Tutorials auf Youtube z.b.

Standard Inhaltsverzeichnis für Testvorschrift

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN

Research Note zum Thema: Laufzeit von Support-Leistungen für Server OS

Leseauszug DGQ-Band 14-26

CVR Seniorentreff vom 04. und Serienbriefe/Seriendruck. Serienbriefe / Seriendruck

IRF2000 Application Note Lösung von IP-Adresskonflikten bei zwei identischen Netzwerken

Analyse zum Thema: Laufzeit von Support-Leistungen für ausgewählte Server OS

Box-and-Whisker Plot -0,2 0,8 1,8 2,8 3,8 4,8

TempusCapio Erste Schritte

Bedienungsanleitung EKZ Preis- und Produktvergleichsrechner

AZK 1- Freistil. Der Dialog "Arbeitszeitkonten" Grundsätzliches zum Dialog "Arbeitszeitkonten"

Gibt es einen Geschmacksunterschied zwischen Coca Cola und Cola Zero?

Primzahlen und RSA-Verschlüsselung

Übungspraktikum 3 Physik II

Die Methode des Robusten Trends und der CAC40 (Frankreich)

Im Jahr t = 0 hat eine Stadt Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b

Orderarten im Wertpapierhandel

(1) Problemstellung. (2) Kalman Filter

Professionelle Seminare im Bereich MS-Office

Computational Finance

Manager. von Peter Pfeifer, Waltraud Pfeifer, Burkhard Münchhagen. Spielanleitung

15.3 Bedingte Wahrscheinlichkeit und Unabhängigkeit

Transkript:

Bestimmung von Einflussgrößen in der Nahbereichsphotogrammetrie mittels Monte-Carlo-Simulation HEIDI HASTEDT, THOMAS LUHMANN & WERNER TECKLENBURG 1 Zusammenfassung: In diesem Beitrag wird ein Simulationsverfahren vorgestellt, mit dem anhand numerischer Simulation auf Basis realer Datensätze auf den photogrammetrischen Prozess wirkende Einflussfaktoren untersucht werden sollen. Im Folgenden soll hauptsächlich das Verfahren beschrieben und zum Anderen kurz Untersuchungen zu Einflüssen aus Objektraum, Systemfestlegung und die Auswirkungen unterschiedlicher Kameramodelle betrachtet werden. Die Untersuchungen beziehen sich auf die Verifizierung nach der VDI/VDE-Richtlinie 2634 mit den darin spezifizierten Genauigkeits- und Abnahmekriterien. 1 Einleitung In den letzten Jahren ist die Entwicklung hochgenauer optischer 3D-Messsysteme stark gestiegen. Hierbei werden Ein- und Mehrkamerasysteme basierend auf digitalen Bildsensoren mit Beleuchtungs- und Projektionseinrichtungen verschiedener Konstruktionen angeboten. Sie erreichen hohe Messgenauigkeiten, die vor allem im industriellen Bereich benötigt werden. Diese Genauigkeiten sind im Bezug auf die Abnahme nach VDI/VDE Richtlinie 2634 nachweisbar. Jedoch zeigen viele Untersuchungen, dass die theoretisch erreichbaren Genauigkeiten nicht ohne Restunsicherheiten, wie z.b. längenabhängige Trends in den Längemessabweichungen, erzielbar sind. Unterschiedliche Einflussfaktoren können durch geeignete Verfahren bestimmt und deren Auswirkung minimiert werden. In den Untersuchungsreihen sind allerdings immer verschiedene Einflussgrößen gleichzeitig enthalten, die das Gesamtsystem beeinflussen und als Restunsicherheiten im Ergebnis verbleiben. Zur Untersuchung der einzelnen Einflüsse auf das photogrammetrische Gesamtsystem wurde ein Verfahren notwendig, in dem gezielt und separiert systematische Fehler eingebracht und deren Auswirkung unbeeinflusst von anderen, veränderten Parametern auf die Auswertung untersucht werden können. Da praktische Versuche immer eine Vielzahl Veränderliche enthalten bzw. aufwändige Laborversuche zudem unwirtschaftlich sind, wurde diesbezüglich ein numerisches Simulationsverfahren auf Basis der Monte-Carlo-Methode (MCM) entwickelt. Das Simulationsverfahren wird in den folgenden Ausführungen spezifiziert. Zur Beurteilung der Simulation und der gesuchten Auswirkungen werden zunächst Längenmessabweichungen (VDI/VDE 2634, 2001) bestimmt und näher untersucht. Hierbei ergeben sich Beurteilungskriterien aus dem Vergleich der generierten Bündel in Bezug auf den Ausgangsdatensatz der Simulation sowie auf übergeordnete Referenzkoordinaten aus einer Punktmessung mit einem Koordinatenmessgerät (KMG). Des weiteren wurden Maßstabsuntersuchungen durchgeführt. Alle Simulationen sind mit unterschiedlichen Kameramodellen berechnet, so dass ebenfalls Aussagen über das Verhalten der Bündelausgleichung bezüglich der Kamerageometrie getroffen werden können. Das Simulationsverfahren bietet die Möglichkeit der gezielten Untersuchung von Einzelkomponenten des photogrammetrischen Systems und zeigt in diesem ersten Verfahren seine Funktionalität. 1 Fachhochschule Oldenburg/Ostfr./Whv., Institut für Angewandte Photogrammetrie und Geoinformatik, Ofener Str. 16, 26121 Oldenburg, Tel. 0441-7708-3243, iapg@fh-oldenburg.de

2 Monte-Carlo-Methode Die Monte-Carlo-Methode (MCM) ist ein statistisches Simulationswerkzeug, auch genannt Verfahren der statistischen Versuche. Innerhalb des Simulationsprozesses wird eine Zahl unabhängiger Variationen generiert, woraus das Optimum der Zielfunktion bestimmt wird. Die Simulation kann als Optimierungsvorgang durch Variation näher bezeichnet werden. Die Wahrscheinlichkeit dieses Optimum zu erzielen wächst mit der Anzahl der Simulationen (SCHMITT, 1977). Statistische Simulationsverfahren sind Hilfsmittel zur Lösung komplexer linearer Gleichungssysteme. Die MCM kann für die Lösung komplexer Systeme genutzt werden, bei denen die Untersuchung einzelner Systemkomponenten im Vordergrund steht, aber dennoch gleichzeitig das Gesamtergebnis betrachtet werden soll (SCHWENKE, 1999). Das Prinzip der virtuellen Experimente wurde bereits durch SCHWENKE (1999) erfolgreich für den Anwendungsfall der KMG realisiert. Die aufgeführten Vorteile können auf die optische Messtechnik im wesentlichen übertragen werden: - Einbindung von Filtern und Algorithmen - funktionales Modell der Simulation bedarf keiner zusätzlichen Linearisierung - Anwendung beliebiger Wahrscheinlichkeiten, Verteilungsfunktionen Für den Simulationsprozess ergeben sich verschiedene Arbeitsschritte. COX et al. (2001, 2004) unterscheiden zwei Phasen der Unsicherheitsbestimmung nach der Monte-Carlo- Methode. Phase 1 konzentriert sich als Formulierungsphase auf die Wahl der Modell- und Wahrscheinlichkeitsfunktion sowie die Bereitstellung der Eingabeparameter. Die sich anschließende zweite Phase, die Berechnungsphase, bildet den Kern der Simulation nach MCM. Abb. 1 zeigt den Arbeitsprozess einer Simulation nach COX et al. (2001). Model Y=f(X) Probability density functions g(x) Number M of Monte Carlo trials M samples x 1,...,x m of X from g(x) M model values y = (y 1,...,y m ) = {f(x 1 ),...,f(x m )} M sorted model values y (1),...,y (m) Abb. 1: Simulationsprozess nach COX et al. (2001) Für den Simulationsprozess wird eine Vielzahl Zufallszahlen benötigt. Zufallszahlengeneratoren erzeugen üblicherweise gleichverteilte Pseudo-Zufallszahlen im Intervall [0,1]. Durch geeignete Algorithmen können diese in beliebige Verteilungen transformiert werden. Zur Erzeugung normalverteilter Zufallszahlen N (0,1) kann der Box-Muller-Algorithmus verwendet werden. Hierfür gilt: sind U 1 und U 2 unabhängig gleichverteilte Zufallszahlen U (0,1), ergeben sich X 1 und X 2 zu unabhängig normalverteilten Zufallszahlen N (0,1) mit (1) (ROBERT & CA- SELLA, 2002; COX et al. (2001,2004)).

X = log( U ) cos(2π ) X log( U ) sin(2π ) 1 2 1 U2 2 2 1 U2 = (1) Für den im Folgenden beschriebenen Simulationsprozess wurde zunächst eine Normalverteilung zu Grunde gelegt. Streng genommen muss hier für endliche Wiederholungen eine Student-(t)-Verteilung zur Erzeugung der im Simulationsprozess verwendeten Pseudo- Zufallszahlen genutzt werden. Ein geeigneter Pseudo-Zufallszahlengenerator für t-verteilte Zufallszahlen formuliert COX et al. (2001, 2004), ROBERT & CASELLA (2002). V 1 und V 2 werden als unabhängig gleichverteilte Zufallszahlen zur Berechnung geeignet verteilter Zufallswerte (2) verwendet: V 1 < 1 2 1 Z = 4V1 1 V2 V = 2 Z 1 Z = 4V1 3 V 1 (2) 2 V = V2 Werden zudem mit f = Anzahl Freiheitsgrade folgende Bedingungen (3) erfüllt, kann Z als t- verteilte Pseudo-Zufallszahl für den Simulationsprozess verwendet werden. Z V < 1 oder 2 ( f 2 Z < 1 + + 1) / 2 V (3) f 3 Simulationsverfahren Das Simulationsverfahren ist so konzipiert, dass die Simulationsdaten auf vorliegenden photogrammetrischen Bündeln für Verifizierungen nach VDI/VDE 2634 basieren. Der Simulationsprozess basiert demnach auf den Kollinearitätsgleichungen. Im Falle der Auswertungen mit einem erweiterten Kameramodell ist das Modell der Kollinearitätsgleichungen um bildvariante Parameter erweitert, Abweichungen werden in den betreffenden Abschnitten erläutert. Eine genaue Definition kann HASTEDT et al. (2002) entnommen werden. Aufgrund vieler Eingangsparameter für eine Bündelausgleichung erfolgt die Erzeugung der Simulationsdaten in Einzelschritten (siehe Abb. 2). Ausgehend von der vordefinierten Anzahl an Simulationsdurchläufen werden zunächst alle für den Prozess notwendigen Zufallszahlen generiert (Step 2, Abb. 2). In das Verfahren ist die Veränderung aller Kameraparameter für jedes Bild pro Bündel innerhalb ihrer Standardabweichung implementiert, d.h. es wird eine Veränderung der Kamera bei jedem Auslösen impliziert, jedoch ist dies zur Bestimmung einzelner Einflüsse auch selektierbar (Step 3, Abb. 2). Ein Parameter wird dann nach folgendem Modell (4) neu berechnet: ( nrng [ trng] s ) p * ( rm) = p( iv) + 1 p (4) p(rm) p(iv) veränderter Parameter durch Simulation Eingabewert des Parameters (InputB, Kap.4) nrng ;trng 1 normalverteilte Zufallszahl, t-verteilte Zufallszahl sp Standardabweichung des Parameters (aus Eingabedaten) Die Grundlage für die Simulation bilden dann die neu berechneten Bildmessungen (St3.4). Diese werden aus dem als fehlerfrei angenommenen Objektraum und den äußeren Orientierungen anhand der veränderten Kameraparameter berechnet. Innerhalb ihrer Standardabwei-

chung bekommen sie ggf. ebenfalls einen Zuschlag (St3.5). Abb. 2 zeigt das Ablaufdiagramm für die Erzeugung der Simulationsmodelle. Ausgangswert der Generierung (Systemzeit) srand() Step 1 Generierung von Pseudo-Zufallszahlen als Vorprozess zur Simulation Step 2 Kameraparameter (c k, x h, y h, A 1, A 2, A 3, B 1, B 2, C 1, C 2 ) veränderbar in angegebener Reihenfolge (S3.1-S3.3) St31 RANDOM NUMBER GENERATOR Zufallszahl [0,Rand_MAX]: gmaxrng1 = rand(); gleichverteilte Zufallszahl [0,1]: grng1, grng2 Simulativ geänderte (rm) Kameraparameter e.g. c k (rm) = c k + (nrng1 * s ck ) St3.2 input: gleichverteilt (grng1, grng2) output: normalverteilt (nrng1, nrng2) oder output: t-verteilt(trng1) Weitere KameraparameterSt3.3 verändern? NEIN JA Für jedes Bild des Eingabedatensatzes für eine Simulation Step 3 Berechnung der Bildmessungen für ein Bild (Kollinearitätsgleichungen) St3.4 Ggf. simulativer Zuschlag der Bildkoordinaten im Rahmen ihrer Standardabweichung x,y = f(s x,y ) St3.5 Abb. 2: Ablaufplan für den Simulationsprozess 4 Ergebnisse Die Diskussion der Ergebnisse wird in diesem Kapitel zunächst durch allgemeine Erläuterungen und der Veranschaulichung der Implementierung vorbereitet. Die zur Beurteilung herangezogenen Simulationen basieren auf einem photogrammetrischen Datensatz. Der Basisdatensatz, parametrisiert in Tabelle 1 und im folgenden mit InputB bezeichnet, wurde mit einer Kodak DCS645M in einem Rundumverband erstellt. Als Objekt diente hierbei ein institutseigener Testkörper mit 92 Referenzlängen. Die Genauigkeit beträgt von RMS (XYZ) [Ref] = 0.015mm (5). Kodak DCS 645 M 35mm Objektiv Bildverband mit 60 Bildern Sensorformat: 36.648 x 36.648 mm² 4072 x 4072 Pixel 2410 Bildmessungen 200 Objektpunkte ck -35.6637 sck 0.0005 B1 2.37E-06 sb1 2.23E-07 xh -0.0993 sxh 0.0007 B2-1.46E-07 sb2 2.21E-07 yh 0.4083 syh 0.0007 C1 1.06E-04 sc1 3.30E-06 A1-9.01E-05 sa1 1.56E-07 C2-1.04E-05 sc2 3.17E-06 A2 6.23E-08 sa2 6.88E-10 A3-1.48E-11 sa3 9.20E-13 Tabelle 1: Basisdatensatz (InputB) Die Simulationen wurden mit am IAPG bzw. der Firma AXIOS 3D entwickelten Bündelausgleichungsprogrammen durchgeführt. Das Programm Ax.Ori arbeitet mit einer selbständig fehlereliminierenden Bündelausgleichung mit herkömmlichem Kameramodell (c k, x h, y h, A 1,

A 2, A 3, B 1, B 2, C 1, C 2 ). Zum Anderen wurde das Programm FiBun verwendet, welches auf dem in HASTEDT et al. (2002) erläuterten Kameramodell basiert. 4.1 Implementierung Zufallszahlen Für die Simulationen wurde zur Implementierung zunächst eine Normalverteilung zu Grunde gelegt. Im weiteren Verlauf der Entwicklung des Simulationsverfahren wurde ebenfalls die t- Verteilung als Funktion zur Generierung der Zufallszahlen hinzugefügt. Abb. 3 und 4 zeigen die Auswirkung der Verteilung der normal- und t-verteilten Zufallszahlen für 32000 Werte. Während sich die normalverteilten Zufallszahlen aufgrund ungenügend großer Anzahl darstellbarer und benötigter Werte so darstellen, dass zusätzlich weitere Häufigkeiten auftreten, stellen sich die t-verteilten Werte mit f = n-u (Freiheitsgrade der jeweiligen Bündelausgleichung) erwartungsgemäß gleichmäßig verteilt dar. Abb. 3: normalverteilte Zufallszahlen Abb. 4: t-verteilte Zufallszahlen Simulationswerte der Kamerageometrie Hinsichtlich der Eingabeparameter (InputB) ergeben sich für 200 Simulationen bei je 60 Bildern die in Abb. 5 und 6 dargestellten normalverteilten Eingabeparameter für die Simulationen. Abb. 5: simulierte Eingabewerte c k Abb. 6: simulierte Eingabewerte x h, y h Die Kamerakonstante variiert dabei im Wertebereich 36.66187mm bis 36.66556mm. Bezüglich ihrer Standardabweichung s ck = 0.0005mm liegen 0.4% aller Werte außerhalb 3σ. Gleiches gilt für die x-koordinate des Bildhauptpunktes bei einem Wertebereich von -0.10194mm bis -0.09664mm. Für die y-koordinate des Bildhauptpunktes ergibt sich, dass

0.2% aller zwischen 0.40561mm und 0.41106mm liegenden Simulationswerte außerhalb der dreifachen Standardabweichung liegen. Das in Abb. 6 (rot) markierte Feld begrenzt den 3σ- Wertebereich des Bildhauptpunktes. Objektraum Die Beurteilung der inneren und äußeren Systemgenauigkeit der Simulationsdaten basiert auf der Annahme, dass jedes simuliert erzeugte Bündel eine mögliche reale Konfiguration darstellt, da die veränderten Parameter ausschließlich innerhalb ihrer Standardabweichungen variieren. Für die in diesem Abschnitt spezifizierten Untersuchungen wurden Längenmessabweichungen (LME) nach VDI/VDE 2634 (2001) bezogen auf kalibrierte Werte aus einer KMG-Messung als Beurteilungskriterium für die äußere Genauigkeit herangezogen. Hinsichtlich der verwendeten Kamera und der erzielten inneren Systemgenauigkeit kann eine Genauigkeit des Objektraumes von RMS (XYZ) [ObSp] = 0.040mm erwartet werden (5). Da die LME von beiden Ungenauigkeiten (RMS (XYZ) [ObSp], RMS (XYZ) [Ref]) beeinflusst werden, können für die LME folgende Unsicherheiten erwartet werden: ±60µm für 1σ, ±120µm für 2σ, ±180µm für 3σ. = [ RMS( X )] 2 + [ RMS( Y )] 2 [ RMS( )] 2 (5) RMS XYZ + ( ) Z Abb. 7: LME für 200 Simulationen Abb. 8: LME im Vergleich zu InputB-Daten Abb. 9: klassifizierte LME Abb. 7 zeigt die LME für 200 Simulationen. Aufgrund der hohen Zahl an Werten ist eine Analyse im Gesamtdiagramm nicht möglich. Beispielhaft wurden deshalb zwei Simulationsergebnisse (Kreuze) zusammen mit den LME des Basisdatensatzes (Punkte) in einem Diagramm dargestellt (Abb. 8). Hier zeigen sich anschaulich die stark ändernden Ergebniskonstellationen anhand der LME für ein Bündel, wobei zu bedenken bleibt, dass die

Eingangswerte ausschließlich innerhalb ihrer Standardabweichung variiert wurden. Diese Effekte werden im Folgenden näher betrachtet. Zusammenfassend wurden die LME klassifiziert und ergeben sich approximiert zu einer Gaußschen Glockenkurve (Abb. 9). Dies entspricht den Erwartungen bei implementierter Normalverteilung für die Simulation. Das Simulationsverfahren läuft demzufolge ausreichend stabil für normalverteilte Zufallszahlen. Entsprechende Tests wurden ebenfalls erfolgreich mit verwendetem t-verteilten Ansatz erzielt. 4.2 Analyse und Diskussion Zur Beurteilung und Analyse der Restfehler in längenabhängigen Anteilen (Trend) aus früheren Untersuchungen zur Kamerakalibrierung (HASTEDT et al., 2001) muss zunächst festgestellt werden, ob die Referenzkoordinaten ggf. stark fehlerhaft sind. Hierzu wurden Simulationen mit zwei Systemfestlegungen durchgeführt. Zum Einen mit r=6 und 3 Maßstäben in den drei Koordinatenrichtungen (Abb. 11), zum Anderen wurde eine freie Netzausgleichung mit der Lagerung auf allen Objektpunkten (Abb. 10) verwendet. Die LME wurden hierbei bezogen auf den Ausgangsdatensatz der Simulation (s. Abb. 10.1) sowie auf Referenzkoordinaten (s. Abb. 10.2) bestimmt. Abb. 10 und 11 zeigen die resultierenden Trends der LME pro Simulation in einem Diagramm. Eine Verschiebung in den negativen Bereich bei Bezugnahme auf die Referenzkoordinaten wird hier deutlich (Abb. 10.2). Abb. 10.1: Trend r=7 [mm/m] Abb. 11: Trend r=6 +3M [mm/m] Abb. 10.2: Trend r=7 [mm/m] Abb. 12: Trend r=7 [mm/m] Zusammenfassend wurden die LME als RMS-Werte (6) aufgestellt. Es zeigt sich beispielhaft für die Ausgleichung mit Ax.Ori, dass die LME grundsätzlich im Mittel in max. 25µm resultieren. Abweichende Ergebnisse (Ausreißer) liegen hier bei max. 34µm. Betrachtet man hierbei die Mittelwerte bezogen auf den Referenzkoordinatensatz sind wesentlich höhere Ungenauigkeiten im Bereich von 25 40µm erkennbar. Aufgrund dieser Daten könnte man vermuten, dass die Referenzkoordinaten den längenabhängigen Fehleranteil enthalten. Abb. 12

zeigt die Trends für 200 Simulationen auf einen Referenzkoordinatensatz, der aus einer Laser-Tracker-Messung stammt. Da die Simulationsdaten bezogen auf einen weiteren unabhängigen Referenzdatensatz in ähnlichen Trends (auch hier eine Verschiebung) resultieren, stellt sich weiterhin die Frage nach den auslösenden Faktoren der verbleibenden längenabhängigen Restfehler in den LME. Die Simulationsergebnisse zeigen, dass die Datensätze untereinander gleichartige Ergebnisse liefern, obwohl auch hier Trends von ±30µm/m auftreten. Die Verschiebung der LME-Trends in Bezug auf die Referenzkoordinaten stellt jedoch dar, dass grundsätzliche Restfehler in den Daten vorliegen. l n 2 RMS LME = (6) 5 Zusammenfassung Im Bereich der Untersuchung von Einflüssen auf die photogrammetrische Auswertung liegt noch viel Analysebedarf. Mit dem vorgestellten Simulationsprozess wird es möglich Einzeleinflüsse in vielen Wiederholungen in einem wirtschaftlichen Prozess zu untersuchen und ihren Einfluss zu spezifizieren. Die hier dargestellten Ergebnisse zeigen erst den Beginn des Prozesses und der Möglichkeiten. Generierte Simulationen decken zudem teilweise immer wieder neue Problematiken auf. Im Hinblick auf Analysen für die Einflussgrößen sollen weitere Untersuchungen zur Systemfestlegung erfolgen sowie Entwicklungsarbeit in Bezug auf Verifizierungen nach VDI/VDE 2634 geleistet werden. Spezielle Versuche zum Einfluss von Kamerageometrien im funktionalen Modell der Bündelausgleichung werden im Simulationsverfahren zusätzlich berücksichtigt. Durch die erfolgreiche Implementierung der numerischen Simulation für die Nahbereichsphotogrammetrie können für die Zukunft einige interessante Ergebnisse erwartet werden. 6 Literaturverzeichnis COX, M. G., DAINTON, M. P., HARRIS, P. M. (2001): Software Specifications for Uncertainty Calculation and Associated Statistical Analysis; NPL Report CMSC 10/01 COX, M. G., DAINTON, M. P. (2004): Software Specifications for Uncertainty Evaluation; NPL Report CMSC 40/04 (CMSC 10/01 revised) HASTEDT, H., LUHMANN, Th., TECKLENBURG, W. (2002): Image-variant interior orientation and sensor modelling of high-quality digital cameras; ISPRS Congress Com. V, Corfu ROBERT, C. P., CASELLA, G. (2002): Monte Carlo Statistical Methods; Springer-Verlag SCHMITT, G. (1977): Monte-Carlo-Design geodätischer Netze; AVN(84), 87-94, Heft 3/1977 SCHWENKE, H. (1999): Abschätzung von Meßunsicherheiten durch Simulation an Beispielen aus der Fertigungsmeßtechnik; PTB-Bericht: F-36 VDI/VDE 2634 (2001): Optical 3-D measuring systems Imaging systems with point-by-point probing, VDI, Düsseldorf