Technische Universität Dresden Fachrichtung Geowissenschaften

Größe: px
Ab Seite anzeigen:

Download "Technische Universität Dresden Fachrichtung Geowissenschaften"

Transkript

1 Technische Universität Dresden Fachrichtung Geowissenschaften Untersuchung photogrammetrischer Verfahren für die Rekonstruktion historischer Grabmale eingereicht als Diplomarbeit von Katja Krönert betreut durch Prof. Dr. H.-G. Maas Dipl.-Ing. U. Olunczek Abgabe:

2 Aufgabenstellung Seite 1 (Original) II

3 Aufgabenstellung Seite 2 (Original) III

4 IV Selbständigkeitserklärung Hiermit erkläre ich, dass ich die von mir am heutigen Tage der Diplomkommission der Fachrichtung Geowissenschaften eingereichte Diplomarbeit zum Thema: Untersuchung photogrammetrischer Verfahren für die Rekonstruktion historischer Grabmale selbständig und nur unter Benutzung der in der Arbeit angegebenen Literatur angefertigt habe Ort, Datum Unterschrift

5 V Inhaltsverzeichnis Seite Titelseite...I Aufgabenstellung... II Selbständigkeitserklärung...IV Liste der Symbole und Formelzeichen... VIII Liste der Abkürzungen...IX Kurzzusammenfassung...XI 1 Einleitung Motivation Ziel der Arbeit Theoretische Grundlagen Geodätische Passpunktbestimmung Photogrammetrische Grundlagen Mathematisches Modell Definition des Bildkoordinatensystems Aufnahmesysteme Aufnahmekonfigurationen Photogrammetrische Mehrbildauswertung Vorarbeit Digitalisierung Berechnung der Bildkoordinaten Näherungswertbestimmung Bildung und Transformation unabhängiger Modelle Kombiniertes Vorwärts- und Rückwärtseinschneiden Bündelblockausgleichung Funktionaler Ansatz Rechengang Ergebnisanalyse Mehrbildauswertung...26

6 VI 2.4 Visualisierung der Ergebnisse Zweidimensionale Darstellung Dreidimensionale Darstellung Texturierung (texture mapping) Licht und Schatten Dynamik und Animation Experimentelle Untersuchungen Untersuchungsobjekt Grabmal KOCH Bildmaterial Bereitstellung historischer Bilddaten Bereitstellung aktueller Bilddaten Passpunktbestimmung Vom Bild zum Modell Zeichnungsdatei in MICROSTATION Projektverwaltung in PHIDIAS Objektpunktdaten Kameradaten Bilder einfügen Rahmenmarkenmessung Messen und Verwalten der Bildpunkte Mehrbildorientierung Mehrbildorientierung der aktuellen Messbilder Mehrbildorientierung der historischen Bilder Nachtrag zur Benutzung von PHIDIAS Mehrbildauswertung Auswerteprinzip Herangehensweise und Probleme Ergebnis Visualisierung der Ergebnisse Realistische Darstellung des 3D-Modells Beurteilung der Restaurierungsarbeiten Generieren virtueller Bilder Darstellung der Schäden Dynamische Visualisierung des aktuellen Modells Empfehlungen für eine effiziente Vorgehensweise...85

7 VII 4 Zusammenfassung Danksagung...92 Literaturverzeichnis...93 Anhang A Vergleich historischer Bilder mit virtuell generierten Bildern...96 A-1 Ansicht A-2 Ansicht A-3 Ansicht A-4 Ansicht Anhang B Schadensdokumentation in einer 2D-Ansicht Anhang C CD: Projekt Aktuelles Projekt + Vertech + PhidiasMS + Rollei-Daten + Drahtmodell + Texturiertes Modell + Texturen + Kamerafahrt + Historisches Projekt + PhidiasMS + Imbun + Drahtmodell + Texturiertes Modell + Texturen + Nachtrag Phocad + Ergebnisse + Virtuell generierte Bilder + 2D-Ansichten (siehe auch Anhang A) + VRML + Animation + Internetfähig + Programme + Cosmo-Player + Windows-Media-Player + QuickTime-Player + RealMedia-Player + DivX Bundle + Text Anhang D CD: Messbilder des aktuellen Projektes Anhang E CD: Bilder des historischen Projektes...103

8 VIII Liste der Symbole und Formelzeichen (unsortiert) c... Kammerkonstante H... Bildhauptpunkt O... Projektionszentrum (x, y )... Bildkoordinatensystem (X, Y, Z)... Objektkoordinatensystem a,?,?... Drehwinkel (Azimut, Bildneigung, Bildkantung), terrestrische Photogrammetrie M... Bildmittelpunkt dx ' ; dy '... Einfluss der Verzeichnung AV... Geometrisches Auflösungsvermögen f... maximal vorkommende Ortsfrequenz in einem analogen Bild f A... Abtastfrequenz des Scanners EP... Eintrittspupille AP... Austrittspupille HS A... (Autokollimations-) Hauptstrahl H A... Bildhauptpunkt τ... Eintrittswinkel des Hauptstrahls τ... Austrittswinkel des Hauptstrahls O P... Physikalisches Projektionszentrum O M... Mathematisches Projektionszentrum v... Verbesserungsvektor der Beobachtungen A... Koeffizientenmatrix δ x... Unbekanntenzuschläge zu Näherungswerten l... Beobachtungsvektor (gemessen) l... Vektor der ausgeglichenen Beobachtungen N... Normalgleichungsmatrix n... Absolutglied P... Gewichtsmatrix Q... Kofaktormatrix der Unbekannten n... Anzahl der Beobachtungen u... Anzahl der Unbekannten r... Redundanz, Überbestimmung q x j x j... Hauptdiagonalelemente der Matrix Q

9 IX p i... Gewicht einer Beobachtung i Q l i l i q l i l i... Kofaktormatrix der ausgeglichenen Beobachtungen... Hauptdiagonalelemente der Matrix Q l i l i Q vv Q ll... Kofaktormatrix der Verbesserungen... Kofaktormatrix der ursprünglichen Beobachtungen R... Redundanzmatrix r i... Hauptdiagonalelemente der Matrix R v i... Normierte Verbesserung s... Standardabweichung s... mittlere Standardabweichung Liste der Abkürzungen 2D... zweidimensional 3D... dreidimensional Abb.... Abbildung ASCII... American Standard Code for Information Interchange BMP... bitmap bzw... beziehungsweise ca... circa CAAD... computer aided architectural design CAD... computer aided design CCD... charge coupled device cm... Zentimeter CSG... constructive solid geometry DDR... double data rate dgn... design file DLT... Direkte Lineare Transformation DM... Deutsche Mark dpi... dots per inch DXF... drawing interchange format

10 X evt.... eventuell ISO... International Standardization Organization ISPRS... International Society of Photogrammetry and Remote Sensing m... Meter min... Minute mm... Millimeter NN... Normal Null RWTH... Rheinisch-Westfälische Technische Hochschule SD... single data sog... sogenannt TIF... tag image (file) format TU... Technische Universität u.a.... unter anderem VGI... Österreichische Zeitschrift für Vermessung und Geoinformation vgl.... vergleiche z.b... zum Beispiel ZPF... Zeitschrift für Photogrammetrie und Fernerkundung µm... Mikrometer

11 XI Kurzzusammenfassung Die Methoden der digitalen Photogrammetrie werden zunehmend für Anwendungen in den Bereichen der Architektur, der Denkmalpflege und der Bauforschung eingesetzt. Die Grundlage für Dokumentationen und Planungen denkmalpflegerischer und restauratorischer Maßnahmen beschränken sich größtenteils auf die klassischen Ergebnisse: Risse, Fassadenpläne, Schnitte und Ansichten. An Bedeutung gewinnen ergänzend dazu räumliche Linien-, Flächen- und Volumenmodelle als Folge einer streng dreidimensionalen Auswertung in Verbindung mit CAD-Systemen. (Computer Aided Design) Ein Schwerpunkt der Arbeit bestand in der photogrammetrischen Aufnahme und Auswertung eines Testobjektes zu verschiedenen Zeiten. Dazu wurde das Programm PHIDIAS-MS verwendet, welches als Applikation in Bentleys CAD-System MICROSTATION integriert ist. Aufgrund der offenen Form und großen Detailliertheit des Objektes waren die Arbeiten sehr umfangreich, jedoch zur Dokumentation seiner Geschichte und einen eventuellen Wiederaufbau unerlässlich. Der zweite Schwerpunkt lag in der Untersuchung effizienter Verfahren zur Visualisierung des entstandenen Objektmodells. Das konnte einerseits durch Beleuchtung und entsprechende Texturierung der Oberfläche mit Bitmaps erreicht werden. Daraus wurde in MICROSTATION mit erheblichem Zeitaufwand eine Animation berechnet. Aufgrund von Exportproblemen konnte diesbezüglich keine effizientere Variante getestet werden. Die Visualisierung der Oberfläche mit Hilfe der Messbilder ist durch Entzerrung auf einzelne Ebenen möglich, aber bei diesem detaillierten Objekt sehr aufwendig. Automatisierte Verfahren sind jedoch in der Entwicklung. Spezielle Projektionen, Ansichten und Schnitte aus dem 3D-Modell können in CAD-Systemen automatisch generiert werden. Die Berechnung einer Seitenansicht in MICROSTATION lieferte jedoch erst nach einer umfangreichen Nachbearbeitung ein befriedigendes Ergebnis. Die Wahl des Auswertesystems PHIDIAS in Verbindung mit MICROSTATION stellte letztendlich einen Kompromiss dar. Die photogrammetrische Auswertung kann mit diesen Programmen sehr gut gelöst werden. Mögliche Visualisierungsverfahren sind oftmals nicht effizient. Aufgrund der eingeschränkten Exportfähigkeit von MICROSTATION kann ein ökonomischeres Arbeiten nicht gewährleistet werden.

12 1 1 Einleitung Die Photogrammetrie ist ein Messverfahren, mit dem geometrische Maße ebener und räumlicher Objekte ermittelt werden können. Im Gegensatz zu anderen Verfahren werden die photogrammetrischen Vermessungen nicht am Objekt selbst, sondern indirekt mit Hilfe von Fotografien des Objektes durchgeführt. Bezogen auf die Vermessung von Objekten der Architektur und der bildenden Kunst spricht man von Architekturphotogrammetrie. 1.1 Motivation Der Denkmalschutz ist heute ein wichtiger Teil des kulturellen Selbstverständnisses. Die Bewahrung von wichtigen Zeugnissen der menschlichen Kultur und ein größeres Verständnis unserer Zeit für die Geschichte, bringt einen beträchtlichen Zuwachs an denkmalwürdigen Objekten mit sich. Dazu gehören auch Grabmale, [ ] an deren Erhaltung wegen ihrer geschichtlichen, wissenschaftlichen, technischen, künstlerischen, städtebaulichen oder volkskundlichen Bedeutung ein öffentliches Interesse besteht. ( 2 des Brandenburgischen Denkmalschutzgesetzes - BbgDSchG). Ein solches Grabmal ist das KOCHsche Erbbegräbnis auf dem Neuen Friedhof in Potsdam, welches im Sommer 2001 restauriert wurde und in dieser Arbeit untersucht werden soll. Im Bereich der Denkmalpflege kann die Architekturphotogrammetrie einen wesentlichen Beitrag leisten. Die Auswertung historischer Aufnahmen liefert maßstäbliche Informationen über bereits zerstörte oder veränderte Bauwerke. Die Messergebnisse können z.b. in verschiedenen Ansichten, Rissen, Vertikal- und Horizontalschnitten dargestellt werden, aber auch als perspektivische Zeichnungen oder räumliche Nachbildungen. Auf dieser Grundlage können Schäden und Deformationen festgestellt und dokumentiert, restaurative Arbeiten durchgeführt oder bereits zerstörte Gebäude originalgetreu wiederaufgebaut werden. An den Ergebnissen der photogrammetrischen Auswertung sind u. a. Architekten, Statiker, Bauund Kunsthistoriker, Denkmalpfleger und Bauforscher interessiert. Dem Statiker genügt eine mit Maßen versehene Rissdarstellung der tragenden Teile des Gebäudes, der Architekt benötigt Bauzeichnungen evt. mit Maßangaben, den Denkmalpfleger interessiert die Darstellung als Ganzes, der Bauhistoriker möchte die geschichtliche

13 2 Entwicklung des Bauwerks verfolgen und der Kunsthistoriker will die Intention des Schöpfers ablesen können. Da jeder eine andere Art der Darstellung der Ergebnisse benötigt, ist eine enge Zusammenarbeit mit dem Photogrammeter äußerst wichtig. [Weimann 1988] 1.2 Ziel der Arbeit Anhand der photogrammetrischen Auswertung des Grabmals Koch sollen verschiedene Methoden der Erfassung und der Visualisierung der Ergebnisse untersucht werden. Die Grundlage dafür bildet eine photogrammetrische Mehrbildaufnahme des Grabmals Koch nach seiner Restaurierung sowie die Untersuchung historischen Bildmaterials. Die beiden Epochen sollen zunächst unabhängig voneinander ausgewertet werden. Mit Hilfe der Bündeltriangulation werden die einzelnen Bilder zu einem Gesamtmodell verknüpft, in dem das Grabmal vollständig dreidimensional rekonstruiert werden kann. Die Bearbeitung erfolgt mit dem digitalen photogrammetrischen Auswertesystem PHIDIAS, dass durch die Integration in das CAD-System MICROSTATION (Bentley Systems) die effektive Vermessung und dreidimensionale grafische Auswertung des komplexen Objektes ermöglicht. Das Ergebnis ist ein 3D-Gittermodell des Grabmals. Dieses maßstäbliche Modell ist bereits eine Form der Visualisierung. Anhand der gesammelten Informationen und der ausgewerteten Daten des Grabmals KOCH sollen unterschiedliche Verfahren und Methoden der Ergebnispräsentation untersucht werden. Sie sollen den Möglichkeiten entsprechend dargestellt und bewertet werden. Dabei sollen folgende Punkte berücksichtigt werden: - Die Darstellung von Schäden als Grundlage für Erneuerungsarbeiten (zur Planung des Umfangs der Arbeiten sowie der Kosten an Zeit und Material) - Ein geometrischer Vergleich der Bauzustände vor und nach der Rekonstruktion anhand zweier 3D-Modelle (z.b. Kontrolle der Sanierungsarbeiten möglich, Beurteilung unter denkmalpflegerischer Sicht) - Auf Grundlage einzeln vorhandener historischer Fotografien können aus dem aktuellen 3D-Modell virtuelle Bilder mit gleicher Aufnahmekonfiguration wie die historischen Bilder generiert und dadurch visuell verglichen werden. - Die dynamische Visualisierung des Modells anhand einer Animation.

14 3 2 Theoretische Grundlagen In den folgenden Abschnitten sollen die Voraussetzungen für das Verständnis dieser Arbeit vermittelt werden. Zuerst wird die Rolle der Passpunkte beleuchtet, ihre Auswahlkriterien sowie die Bestimmung und Genauigkeit der Koordinaten. Ihre Bedeutung wird sich auch in späteren Kapiteln erschließen. Wegen des Zusammenhangs der photogrammetrischen Grundlagen und der Mehrbildauswertung wurde die Passpunktbestimmung allerdings an den Anfang gestellt. Es folgen die photogrammetrischen Grundlagen. Dabei wird auf das Abbildungsmodell, die möglichen Aufnahmesysteme und -konfigurationen eingegangen. Einige Aspekte bzw. Verfahren werden nur kurz vorgestellt, da sie für das allgemeine Verständnis und die Eingliederung dieser Arbeit in den großen Inhalt wichtig sind. Nach der Abgrenzung von anderen Aufnahmeverfahren wird anschließend die Auswertung der photogrammetrischen Mehrbildaufnahme näher betrachtet. Ausgehend von der fotografischen Abbildung werden die einzelnen Arbeitsschritte beschrieben, die eine photogrammetrische Auswertung erst möglich machen. Dazu gehören die Definition des Bildkoordinatensystems, die Messung der Bildkoordinaten sowie die Näherungswertbestimmung der Unbekannten der Bündeltriangulation. Dieses Verfahren zur gleichzeitigen Berechnung der Orientierungsparameter der Bilder im Raum, der Kameraparameter und der Objektkoordinaten wird in seinem funktionalen Ansatz bis zur Interpretation der Ergebnisse beschrieben. Anschließend wird auf die eigentliche Auswertung der Bilder eingegangen. Der abschließende Teil beschäftigt sich mit dem Ergebnis der photogrammetrischen Mehrbildauswertung. Es werden verschiedene Arten der Präsentation der Resultate aufgezeigt. Neben den herkömmlichen Methoden von 2D-Ansichten und Schnittzeichnungen eröffnen sich mit Fortschreiten der Computertechnik auch neue Möglichkeiten der Visualisierung.

15 4 2.1 Geodätische Passpunktbestimmung Mit Hilfe von mindestens drei Passpunkten können die sechs Elemente der äußeren Orientierung (vgl. Abschnitt 2.3.2) indirekt bestimmt werden. Sie stellen den Bezug zwischen dem Bildkoordinatensystem und dem dreidimensionalen Objektkoordinatensystem her, da ihre Koordinaten im Bild- und im Objektraum bekannt sind. Passpunkte sorgen demzufolge für den richtigen Maßstab und die raumrichtige Lagerung des Punkthaufens. Sie können auch zur Festlegung der NN-Höhe und der Schwerkraftrichtung [Weimann 1988] dienen. Sie sollten gleichmäßig über das gesamte Objekt verteilt sein und nicht in einer Ebene liegen. Die Bestimmung der Passpunktkoordinaten im Objektraum erfolgt durch die geodätische Vermessung mit einem Tachymeter. Die Wahl des Koordinatensystems (z.b. übergeordnetes Landeskoordinatensystem; lokales Koordinatensystem) ist von der Aufgabenstellung abhängig. Wird ein Koordinatensystem selbst definiert, so ist auf eine geeignete Lage zum Objekt zu achten (z.b. Koordinatenachse parallel zur Hausfassade; alle Objektkoordinaten positives Vorzeichen). Die Aufnahme erfolgt durch die Polaraufnahme. Dabei werden Standpunkte (Festpunkte, freie Standpunkte) gewählt, von denen aus jeweils die Strecke und die Richtung zu den Passpunkten gemessen werden. Aus diesen Daten erfolgt dann die Koordinatenbestimmung der Passpunkte: Werden Punkte mehrmals von verschiedenen Standpunkten aus angemessen, entstehen Überbestimmungen. Die Richtigkeit bzw. Genauigkeit der Messungen kann anhand einer Ausgleichung der Ergebnisse kontrolliert werden. Dabei werden eventuelle grobe Fehler eliminiert und zufällige Abweichungen gleichmäßig auf alle Messungen verteilt. Wie genau die Passpunkte bestimmt werden müssen, ist abhängig von der Genauigkeitsanforderung an die Bündelausgleichung (siehe Abschnitt 2.3.3) bzw. der Darstellungsgenauigkeit des Modells. [Eckstein 1986] Die gewählten Punkte können am Objekt mit speziellen Marken signalisiert werden. Dadurch kann die Genauigkeit der Vermessung und die Wiedererkennbarkeit im Bild verbessert werden. Man spricht dann von künstlichen Passpunkten.

16 5 Oft ist dies aber nicht möglich, z.b. wenn Markierungen in großer Höhe am Objekt angebracht werden müssen oder ihr Anbringen den Gesamteindruck von Gebäuden, insbesondere von Denkmälern beeinträchtigt. Natürliche Passpunkte an Gebäuden sind Schnittpunkte von Steinfugen, Fensterkreuze, Schnittlinien und Kreise in Ornamenten der Fassadenverzierung, aber auch kreuz-, stern- und kreisförmige Beschädigungen des Putzes oder Mauerwerks. Ungeeignet als natürliche Passpunkte sind im Allgemeinen Kantenpunkte wegen der Gefahr einer Überstrahlung bei zu starkem Kontrast und einer daraus resultierenden Schwerpunktverlagerung, z.b. bei Dachkanten: heller Himmel, dunkles Dach. [Weimann 1988]

17 6 2.2 Photogrammetrische Grundlagen Mathematisches Modell Die photogrammetrische Aufnahme erfolgt durch die Projektion eines Objektes auf eine Abbildungsebene (z.b. lichtempfindlicher Film, Glasplatte, CCD-Sensor), wobei jedem Objektpunkt genau ein Bildpunkt zugeordnet wird. Das mathematische Modell entspricht einer idealisierten Zentralprojektion, mit einigen Abstraktionen hinsichtlich der optischen Abbildung. (siehe Abb. 2-1) Abbildung 2-1: Definition des mathematisch bildseitigen Projektionszentrums O M [Kraus 1997] - Der abbildende Lichtstrahl von einem Punkt P aus ist ein Strahlenkegel, der auf einen Hauptstrahl durch die Mitte der Eintrittspupille EP reduziert wird. - Bezugsachse ist nicht die optische Achse, sondern der (Autokollimations-) Hauptstrahl HS A, der durch die Mitte der Eintrittspupille verläuft, senkrecht auf der Bildebene B steht und sie im (Autokollimations-) Bildhauptpunkt H A durchstößt. - Der Eintrittswinkel t des Hauptstrahls soll dem Austrittswinkel t des Strahls durch die Mitte der Austrittspupille AP (O P = physikalisches Projektionszentrum) entsprechen. - Die Mitte der Eintrittpupille fällt mit der der Austrittspupille zusammen und beschreibt das Projektionszentrum. - Ein Objektpunkt P, der zugehörige Bildpunkt P und das mathematische Projektionszentrum O M sind kollinear 1. 1 kollinear: Drei Punkte heißen kollinear, wenn sie auf einer Geraden liegen.

18 7 Alle auftretenden Abweichungen von dieser Idealvorstellung werden als Verzeichnungen bezeichnet. Die radial-symmetrische Verzeichnung?? entsteht durch Änderung des Winkels t bei der Brechung an den Linsen des Objektivs. Sie ist abhängig von der Fokussierung und der Objektentfernung. Für die Bildgröße? gilt folgende Beziehung, die auch als Gleichung der inneren Orientierung bezeichnet wird: ρ = c tanτ + ρ (2.1) Die Fertigungsqualität der Optik (Zentrierungsfehler der Linsen im Objektiv) wird durch die radial-asymmetrische und die tangentiale Verzeichnung ausgedrückt. Ihre Beträge sind gegenüber der radialsymmetrischen Verzeichnung gering. Aufgabe der Photogrammetrie ist es nun, die Lage des Aufnahmestrahlenbündels im Raum zu rekonstruieren. Das geschieht durch die Transformation der ebenen Bildkoordinaten (x, y ) in ein übergeordnetes räumliches System (X, Y, Z), wobei die Daten der inneren und äußeren Orientierung bekannt sein müssen. (siehe Abb. 2-2) Abbildung 2-2: Zusammenhang zwischen Bild- und Objektkoordinaten [Kraus 1997]

19 8 Die Parameter der inneren Orientierung beschreiben den geometrischen Zusammenhang zwischen der Optik der Kamera und dem von ihr aufgenommenen Bild. Die relevanten Größen sind die Kammerkonstante c, die Lage des Bildhauptpunktes H (x H, y H ) und die Parameter der Objektivverzeichnung. Abhängig von der verwendeten Aufnahmekamera spricht man von der inneren Orientierung der Kamera bzw. der inneren Orientierung des Bildes. (siehe Abschnitt 2.2.3) Die Lage eines Bildes im übergeordneten Objektkoordinatensystem (X, Y, Z) wird durch die Parameter der äußeren Orientierung beschrieben. Dazu gehören die Koordinaten des Projektionszentrums O (X 0,Y 0,Z 0 ) und die in der terrestrischen Photogrammetrie üblichen Drehwinkel Azimut a, Bildneigung? und Bildkantung?. (siehe Abb. 2-3) [Kraus 1996] Abbildung 2-3: Sequenz der drei aufeinander folgenden Bilddrehungen a,? und? [Kraus 1996] Definition des Bildkoordinatensystems In einem Messbild sind Referenzpunkte für die Definition des Bildkoordinatensystems abgebildet. (siehe Abb. 2-4) Es handelt sich hierbei um Rahmenmarken bzw. Réseaukreuze (mit kalibrierten Sollkoordinaten), die bei der Aufnahme mitbelichtet werden. So ist das Bild- bzw. Rahmenkoordinatensystem kamerafest verkörpert und kann im Messbild rekonstruiert werden. Es wird definiert als ebenes, kartesisches Koordinatensystem (x, y ) mit dem Ursprung M (x M, y M ), welcher in der Bildmitte liegt. Abbildung 2-4: Definition des Bildkoordinatensystems durch Rahmenmarken (links), Réseaukreuze (rechts) [Luhmann 2000]

20 Aufnahmesysteme Für die photogrammetrische Aufnahme können verschiedene Kameratypen verwendet werden. Man unterscheidet sie hinsichtlich der Stabilität ihrer inneren Orientierung und der Art der Bildkoordinatendefinition. - Die Messkameras besitzen Hochleistungsobjektive mit geringer Verzeichnung und hoher Konstanz der Daten der inneren Orientierung. Durch die stabile Lage des Projektionszentrums zum Bildkoordinatensystem sind die Kammerkonstante c und die Koordinaten des Bildhauptpunktes H (x H, y H ) unveränderlich. Deswegen spricht man auch von der inneren Orientierung der Kamera. Das Bildkoordinatensystem wird über Rahmenmarken definiert. Die Bilder sind großformatig (80mm 100mm bzw. 150mm 180mm), daher ist der abgebildete Bildbereich größer. - Teilmesskameras sind Klein- (24mm 36mm) bzw. Mittelformatkameras (60mm 60mm). Sie sind im Gegensatz zur Messkammer leichter und einfacher zu handhaben, aber ihre innere Orientierung ist nicht so stabil. Für eine genaue Bestimmung der geometrischen Verhältnisse werden die Kameras vom Hersteller oder direkt bei der Auswertung kalibriert. Ein einstellbarer Fokus ist mit einer Rastung versehen. Das Bildkoordinatensystem kann durch Rahmenmarken definiert werden, aber auch durch Réseaukreuze, die auf einer eingebauten Glasgitterplatte angeordnet sind und bei der Aufnahme mitbelichtet werden. - Zu den Nichtmesskameras gehören beliebige Fotoapparate und fokussierbare Kameras, die für eine photogrammetrische Messung nicht vorbereitet sind. Sie besitzen kein fest definiertes Bildkoordinatensystem, d.h. jedes Bild erhält ein individuell gelagertes Bildkoordinatensystem, wodurch sich auch die Koordinaten der Bildhauptpunkte unterscheiden. Außerdem ist die Kammerkonstante abhängig vom Fokus und dem eingestellten Zoom. Daher erhält jedes Bild eine andere innere Orientierung. Man spricht auch von der inneren Orientierung des Bildes. - Neben den bisher vorgestellten analogen Kameras gibt es auch digitale Aufnahmesysteme. Deren innere Orientierung ist nicht unbedingt stabil. Das Bildkoordinatensystem wird durch die Pixelmatrix definiert. Das Auflösungsvermögen ist abhängig von der Anzahl und Anordnung der Sensorelemente sowie von der Aufnahmeentfernung. Sie kommen zunehmend zum Einsatz, verursachen aber bei vergleichbarer Auflösung noch hohe Gerätekosten. [Luhmann 2000]

21 10 Neben dem Kameratyp spielt auch das verwendete Objektiv der Kamera eine entscheidende Rolle bei der photogrammetrischen Aufnahme. Die Brennweite entscheidet über den aufnehmbaren Bildausschnitt abhängig von der Entfernung zum Objekt. Das wiederum beeinflusst die Sichtbarkeit verwinkelter Objektteile. Sichttote Räume können durch weitere Standpunkte mit unterschiedlichen Aufnahmerichtungen vermieden werden. Mit Hilfe einer durchdachten Planung der Aufnahme kann der Informationsgehalt der Bilder bei minimaler Bildanzahl optimiert werden. Die Qualität der Aufnahmen ist abhängig von der gewählten Blendenzahl, der Belichtungszeit und natürlich dem verwendeten Filmmaterial. Es ist dabei auf die Lichtempfindlichkeit, das Auflösungsvermögen und die optische Dichte des Films zu achten Aufnahmekonfigurationen Abhängig davon, welches Ergebnis mit der photogrammetrischen Aufnahme erzielt werden soll, muss neben der Kamera auch das richtige Aufnahmeverfahren gewählt werden. Darunter wird die Anordnung der Kamerastandpunkte und Aufnahmerichtungen zum Objekt verstanden. Man unterscheidet folgende Aufnahmeanordnungen: - Einzelbildaufnahme - Stereobildaufnahme - Mehrbildaufnahme Die Einzelbildaufnahme ist die Aufnahme eines Objektes mit einzeln zu bearbeitenden Bildern. Die Auswertung beschränkt sich auf das Entzerren ebener Objektoberflächen bzw. eine ebene Objektauswertung nach dem Festlegen von Objektebenen (z.b. Auswertung ebener Hausfassaden). Das Besondere bei der Stereobildaufnahme ist die Aufnahmekonstellation mit zwei parallelen Aufnahmerichtungen und einer bekannten Basis (Normalfall). Die Bildpaare werden im Anschluss visuell oder automatisch stereoskopisch ausgewertet. Die Bildkoordinaten homologer Bildpunkte können durch visuelles Aufsetzen einer räumlich optischen Messmarke gemessen werden. Mit Hilfe des räumlichen Vorwärtsschnitts werden die 3D-Koordinaten bestimmt.

22 11 Für eine dreidimensionale Rekonstruktion eines gesamten Objektes eignet sich auch die Mehrbildaufnahme. Im Gegensatz zu den anderen beiden Verfahren ist die Anordnung der Aufnahmepositionen und -richtungen der Kamera keinen Einschränkungen unterworfen. Ebenso ist die Anzahl der Bilder nicht vorgeschrieben. Um ein Objekt in seiner räumlichen Struktur (z.b. Verdeckungen, gleichzeitige Aufnahme des Innen- und Außenbereichs) ausreichend festhalten zu können, ist eine große Anzahl von Bildern notwendig. Der Mehraufwand an Zeit und Kosten ist gering zugunsten einer gesteigerten Genauigkeit. Entscheidend dafür ist aber auch die Schnittgeometrie der Strahlenbündel. Ist der Winkel zwischen den einzelnen Aufnahmerichtungen zu klein (< 10gon), entstehen schleifende Schnitte [Kraus 1997]. Dadurch ergibt sich in eine größere Unsicherheit bei der Bestimmung der Strahlenschnittpunkte. Für eine grafische Auswertung bedeutet das eine reduzierte Objektgenauigkeit in Aufnahmerichtung. Als Nachteil bei der Auswertung ist der fehlende Stereoeindruck zu erwähnen, der das Messen räumlicher Gebilde (z.b. reliefartiger Ornamente) erleichtern würde.

23 Photogrammetrische Mehrbildauswertung Vorarbeit Digitalisierung Analoge Messbilder werden für die rechnergestützte Mehrbildauswertung in ein digitales Format umgewandelt. Für die Digitalisierung mit entsprechenden Bildscannern müssen Aspekte hinsichtlich der notwendigen bzw. sinnvollen Abtastrate und der Quantisierungsrate 2 (Bit-Tiefe) berücksichtigt werden. Die geometrische und radiometrische Qualität des analogen Bildes ergibt sich aus dem verwendeten Film und Aufnahmesystem. Ein Maß für die Qualität ist das geometrische Auflösungsvermögen AV. Es beschreibt die Fähigkeit, eine bestimmte Anzahl schwarzer und weißer Linien mit gleichem Abstand ( x' ), gleicher Dicke und konstantem Kontrast noch getrennt voneinander abzubilden. [Luhmann 2000] Das Auflösungsvermögen wird in Linien pro Millimeter (L/mm), Linienpaare pro Millimeter (Lp/mm) oder dots per inch (dpi) angegeben. Der Informationsgehalt eines analogen Bildes kann auch als maximal vorkommende Ortsfrequenz ist die Abtastfrequenz f = 1 x' (AV des analogen Bildes) bezeichnet werden. Nach dem Abtasttheorem f A (AV des Scanners) für eine hinreichend genaue Wiedergabe bzw. eine ausreichende visuelle Interpretation mindestens doppelt so hoch zu wählen. Der Zusammenhang zwischen dem AV des analogen Bildes und der zu wählenden Abtastfrequenz wird in Tabelle (2-1) in einigen Beispielen verdeutlicht. Tabelle 2-1: Zusammenhang zwischen analogem und digitalem AV Ortsfrequenz f Minimale Abtastfrequenz (f A =2f) Pixelgrösse Pixelauflösung 3 [L/mm] [L/mm] [dpi] [µm] [Pixel] Quantisierung: Unterteilung des Amplitudenbereichs eines kontinuierlich fortlaufenden Signals in eine endliche Anzahl kleiner Teilbereiche 3 Pixelauflösung für eine Mittelformataufnahme (60mm 60mm)

24 13 Die radiometrische Auflösung gibt die Anzahl der vom Abtastsystem unterschiedenen Graustufen wieder. Bei der Digitalisierung wird jedem Pixel ein Grauwert zugeordnet. Dabei ist eine Quantisierung mit 8 Bit üblich. Das ermöglicht 256 Graustufen. Da das menschliche Auge nur etwa 60 Grautöne unterscheiden kann, reicht das für eine visuelle Bearbeitung vollkommen aus. Die zur Digitalisierung verfügbaren Abtastsysteme unterscheiden sich hinsichtlich des verwendeten Sensorsystems, ihres maximalen geometrischen und radiometrischen Auflösungsvermögens, der Größe der Scanvorlagen, der Scanzeiten und der Kosten. Für messtechnische Aufgaben wird für das digitale Bild ein ebenes Pixelkoordinatensystem definiert. Der Ursprung des Systems liegt in der linken, oberen Ecke, die x-achse verläuft in Zeilenrichtung, die y-achse in Spaltenrichtung. (siehe Abb. 2-5) Abbildung 2-5: Pixelkoordinatensystem [Luhmann 2000] Berechnung der Bildkoordinaten Werden Punkte im digitalen Bild lokalisiert, beziehen sie sich zunächst auf das Pixelkoordinatensystem. Für die photogrammetrische Auswertung müssen die Koordinaten allerdings im kamerafesten Bildkoordinatensystem vorliegen. Eine Beziehung zwischen beiden Systemen wird durch die Transformation anhand identischer Punkte (der gemessenen Bildkoordinaten der Rahmenmarken und deren kalibrierte Sollkoordinaten) hergestellt.

25 14 Zur ebenen Koordinatentransformation können unterschiedliche Transformationsarten verwendet werden. [Luhmann 2000] - Ähnlichkeitstransformation: - 4 Transformationsparameter - mindestens 2 identische Punkte - Winkel- und Streckenverhältnisse bleiben erhalten - Affintransformation: - 6 Transformationsparameter - mindestens 3 identische Punkte - unterschiedliche Winkel- und Streckenverhältnisse werden berücksichtigt - Polynomtransformation n.grades: - 12 Transformationsparameter (für n=2) - mindestens 6 identische Punkte (für n=2) - beschreibt auch nicht-lineare Verformungen, z.b. die Nichtplanlage des Films in der Kamera - Bilineare Transformation: - 8 Transformationsparameter - mindestens 4 identische Punkte - Erweiterung der Affintransformation - zwangsfreie Transformation und Interpolation von Vierecksmaschen (z.b. bei der Abbildung von Réseaugittern) - Ebene Projektivtransformation - 8 Transformationsparameter - mindestens 4 identische Punkte - Geradlinigkeit und Schnittpunkte von Geraden bleiben erhalten; Winkel-, Strecken- und Flächenproportionen dagegen nicht Analog aufgenommene Messbilder, die eine Vielzahl von Bearbeitungsschritten durchlaufen, sind geometrischen Einflüssen unterlegen. Nach der Belichtung werden sie in der Dunkelkammer entwickelt, fixiert, gewässert und getrocknet und anschließend unter verschiedenen Temperatur- und Feuchtigkeitsbedingungen gelagert. Da der verwendete Film forminstabil ist, müssen auftretende Maßstabs- und Formänderungen berücksichtigt werden.

26 15 Durch die Transformation in das Bildkoordinatensystem anhand kalibrierter Sollkoordinaten der Referenzpunkte können die regelmäßigen Anteile der Bilddeformation wieder aufgehoben werden (Maßstab, Scherung, mittlerer radialer Anteil der optischen Verzeichnung). Wie gut das gelingt, ist abhängig von der Transformationsmethode, der Bildkoordinatendefinition (Rahmenmarken, Réseau), der Anzahl und der Verteilung der identischen Punkte. Réseaubilder werden vorzugsweise durch eine maschenweise affine oder bilineare Transformation umgewandelt. [Luhmann 2000] Durch die gleichmäßige Verteilung der Réseaukreuze über das ganze Bild, können auch nichtlineare Deformationen berücksichtigt werden Näherungswertbestimmung Das mathematische Modell der Bündelausgleichung besteht aus nichtlinearen Formelzusammenhängen. (vgl. Abschnitt ) Durch das Bereitstellen von Näherungswerten für die Unbekannten können die Gleichungssysteme mit Hilfe der TAYLORschen Reihe [Gruber 1996] linearisiert, Verbesserungsgleichungen aufgestellt und nach der Methode der kleinsten Quadrate ausgeglichen werden. Für die Unbekannten x werden Näherungswerte xˆ und die Unbekanntenzuschläge δ x eingeführt: - Äußere Orientierungsdaten der Bilder: X O = Xˆ + δx α = αˆ + δα O O Y O = Ŷ + δy ν = νˆ + δν (2.2) O O Z O = Ẑ + δz κ = κˆ + δκ O - Objektkoordinaten der Neupunkte i: X i = Xˆ i + δx i O Y i = Ŷ + δy (2.3) i i Z i = Ẑ i + δz i - Sind die Parameter der inneren Orientierung nicht bekannt, können diese als einzige direkt mit Näherungswerten angegeben werden: c ˆ = f (Brennweite); x ˆ = 0 ; y ˆ = 0 (2.4) H Näherungswerte der Verzeichnungsparameter = 0 H

27 16 Eine manuelle Berechnung der Näherungswerte ist aufgrund der Charakteristik der Mehrbildorientierung (beliebige Aufnahmeanordnung in beliebig gelagerten Objektkoordinatensystemen) kaum möglich. Für eine automatische Bestimmung der Näherungswerte müssen folgende Daten bereit stehen: - Datei der gemessenen Bildkoordinaten (der Pass- und Verknüpfungspunkte) - Datei der Objektkoordinaten der Passpunkte - Datei der Kameradaten (evt. näherungsweise) Die Berechnung der Näherungswerte kann nach verschiedenen Methoden durch Kombination grundlegender Orientierungs- und Transformationsaufgaben (Relative-, Absolute Orientierung; Rückwärts-, Vorwärtseinschnitt) erfolgen. Folgende Strategien haben sich bei komplexen Bildverbänden als erfolgreich erwiesen: [Luhmann 2000] - Bildung und Transformation unabhängiger Modelle - kombiniertes Vorwärts- und Rückwärtseinschneiden Anhand dieser Berechnungsmethoden werden durch iterative Verfahren die Bilder miteinander verknüpft, näherungsweise orientiert sowie die Objektkoordinaten der Verknüpfungspunkte näherungsweise bestimmt Bildung und Transformation unabhängiger Modelle Diese Methode setzt sich aus mehreren Arbeitsschritten zusammen, die im Folgenden erläutert werden sollen: a) Relative Orientierung Die Relative Orientierung findet immer zwischen zwei Bildern statt. Dabei wird die räumliche Lage des einen Bildes (x', y') als Referenz festgelegt, das andere Bild (x'', y'') wird relativ dazu durch räumliche Translation und Rotation so bewegt, dass sich die homologen Bildstrahlen unter minimalen Restklaffungen schneiden. Es wird ein dreidimensionales kartesisches Modellkoordinatensystem definiert mit dem Ursprung im Projektionszentrum O' des ersten Bildes, die x-achse verläuft durch das Projektionszentrum O'' des zu orientierenden zweiten Bildes. (siehe Abb. 2-6)

28 17 Die Parameter der äußeren Orientierungen in diesem System lauten dann: X' O = 0 X'' O = bx = 1 (frei definierter Maßstab) Y' O = 0 Y'' O = by = 0 Z' O = 0 Z'' O = bz = 0 α α 0 (2.5) 1 2 = ν 1 ν 2 κ 1 κ 2 Zur Berechnung der relativen Orientierung müssen also fünf unabhängige Drehwinkel bestimmt werden. Mathematische Grundlage für die Berechnung ist die Bedingung, dass ein Objektpunkt P und die Projektionszentren O' und O'' in einer Ebene liegen müssen (Komplanaritätsbedingung). Die Abbildungsstrahlen r' und r'' vom jeweiligen Projektionszentrum zum Objektpunkt P spannen zusammen mit der Basis b = [bx by bz] T die Kernebene auf. In dieser liegen dann auch die Bildpunkte P' und P''. (siehe Abb. 2-6) Abbildung 2-6: Modellkoordinaten für ein Bildpaar [nach Luhmann 2000] Ausgehend von diesen geometrischen Verhältnissen lässt sich für je ein Paar homologer Bildpunkte eine Bedingungsgleichung ableiten. Man benötigt daher mindestens fünf Verknüpfungspunkte, um die unbekannten Parameter bestimmen zu können. Die Genauigkeit dieser Berechnung ist abhängig von der Anzahl und der Verteilung der Verknüpfungspunkte sowie der Genauigkeit der Bildkoordinatenmessung.

29 18 b) Absolute Orientierung Die relativ orientierten Bildpaare liegen nun als Einzelmodelle mit beliebiger Lage, Orientierung und Maßstab vor. Im Zuge der Absoluten Orientierung werden die Modelle anhand von Passpunkten in ein einziges übergeordnetes Objekt- bzw. Passkoordinatensystem transformiert. Die Berechnung erfolgt mit Hilfe einer räumlichen Ähnlichkeitstransformation (3D Helmerttransformation), die durch 3 Translationen, 3 Rotationen und einen Maßstabsfaktor realisiert wird. Für die Bestimmung der 7 Parameter werden für jedes Modell mindestens drei räumlich verteilte Passpunkte benötigt, die nicht auf einer Geraden liegen dürfen. Sind nicht genügend Passpunkte vorhanden, um jedes Modell einzeln in das Objektkoordinatensystem zu transformieren, kann eine Strategie angewendet werden, die mit weniger Passpunkten auskommt (Modell-zu-Modell-Transformation). Dabei wird ein Modell mit günstigem Strahlenschnitt, großer Anzahl und gut verteilten Verknüpfungspunkten als Referenzmodell gewählt. In das Koordinatensystem dieses Modells werden dann nacheinander alle anderen Modelle mit jeweils mindestens 3 gemeinsamen Punkten transformiert. Die Reihenfolge sollte abhängig von der Qualität der Modelle gewählt werden. Modelle mit der schlechteren geometrischen Konstellation sollten zuletzt in das Referenzsystem transformiert werden. Anschließend wird die Ähnlichkeitstransformation ins Objektkoordinatensystem durchgeführt. Als Ergebnis der absoluten Orientierung erhält man Näherungswerte der Verknüpfungspunkte im Objektraum. Daraus lassen sich im folgenden Schritt die äußeren Orientierungsparameter der einzelnen Bilder näherungsweise bestimmen. c) Einzelbildorientierung Laut Handbuch Bildorientierung für PHIDIAS-MS ist dieser Arbeitsschritt der problematischste, da leicht Mehrdeutigkeiten und Singularitäten auftreten können, die ein falsches oder nicht bestimmbares Ergebnis zur Folge haben. Für die näherungsweise Berechnung der äußeren Orientierungsparameter gibt es verschiedene Ansätze. Diese zu erläutern, würde in dieser Arbeit zu weit führen, deshalb seien hier exemplarisch zwei Varianten kurz vorgestellt.

30 19 Eine Möglichkeit ist die Berechnung auf der Basis der Kollinearitätsgleichungen. Mathematische Grundlage ist der räumliche Rückwärtsschnitt, der für alle Bilder unabhängig voneinander durchgeführt wird. Benötigt werden dabei für jedes Bild mindestens 3 Passpunkte, die nicht auf einer Geraden liegen dürfen, sowie die Näherungskoordinaten der Verknüpfungspunkte. Außerdem werden für das nichtlineare Gleichungssystem Näherungswerte für die äußeren Orientierungsparameter gebraucht, wobei man wieder am Anfang des Problems steht! Dieses Problem wird von den Herstellern der Bündelausgleichungssoftware unterschiedlich gelöst. Details werden in der Literatur oft übergangen. Eine direkte Lösung ohne Näherungswerte ist die Direkte Lineare Transformation (DLT). Die Kollinearitätsgleichungen sind dabei um eine Affintransformation der Bildkoordinaten erweitert, so dass ein linearer Zusammenhang zwischen Bild- und Objektkoordinaten hergestellt werden kann. Zur Bestimmung der DLT-Parameter werden allerdings mindestens 6 Passpunkte benötigt Kombiniertes Vorwärts- und Rückwärtseinschneiden Als erstes wird die relative Orientierung des Startmodells berechnet. Dieses sollte eine günstige geometrische Konstellation und eine große Anzahl gut verteilter Verknüpfungspunkte aufweisen. Es bildet das Referenzmodell für das Modellkoordinatensystem. Danach wird ein weiteres Bild anhand des räumlichen Rückwärtsschnittes in dieses Modell eingebunden. Dabei werden die sechs Elemente der äußeren Orientierung mit Hilfe von mindestens drei Passpunkten berechnet. Das neu in das Modellkoordinatensystem transformierte Bild enthält weitere Verknüpfungspunkte, deren Modellkoordinaten noch unbekannt sind. Diese können anhand der bekannten inneren und äußeren Orientierung des Bildes mit dem räumlichen Vorwärtsschnitt berechnet werden. Wird der räumliche Rückwärtsschnitt mit den jetzt bekannten Modellkoordinaten noch einmal durchgeführt, kann die äußere Orientierung des Modellsystems verbessert werden. Auf diese Weise werden nacheinander alle Bilder in das bestehende System eingegliedert. Durch die räumlichen Vorwärtsschnitte steigt die Zahl der berechneten Modellkoordinaten, mit

31 20 denen bessere Rückwärtsschnitte für die Bildorientierung gewonnen werden können. So stabilisiert sich der Bildverband im Laufe der iterativen Berechnung. Anschließend wird eine räumliche Ähnlichkeitstransformation zur Berechnung der absoluten Orientierung durchgeführt. Als Ergebnis erhält man Näherungswerte für die äußeren Orientierungen der Bilder sowie die 3D-Koordinaten der Verknüpfungspunkte im Objektkoordinatensystem Bündelblockausgleichung Im Rahmen der sog. Bündelausgleichung werden die Strahlenbündel aller Bilder bestmöglich aufeinander eingepasst. Geometrisch bedeutet das, dass sich homologe Bildstrahlen optimal in ihrem Objektpunkt schneiden sollen. Die einzelnen Bilder werden dadurch zu einem Gesamtmodell verknüpft, in dem anschließend die photogrammetrische Vermessung des Objektes vorgenommen werden kann. Abbildung 2-7: Netzwerk photogrammetrischer Strahlenbündel [Kraus 1997]

32 Funktionaler Ansatz Das mathematische Modell der idealisierten Zentralprojektion kann durch die nicht linearen Kollinearitätsgleichungen ausgedrückt werden. x' = x' y' = y' r c r (X X ) + r (Y Y ) + r (Z Z 11 O 21 O 31 O H + 13(X X O ) + r23(y YO ) + r33(z Z O ) r c r (X X ) + r (Y Y ) + r (Z Z 12 O 22 O 32 O H + 13(X X O ) + r23(y YO ) + r33(z Z O ) ) ) dx' (2.6) dy' Die gemessenen Bildkoordinaten (x, y ) werden als Funktion aller unbekannten Parameter beschrieben. Dazu gehören: - die äußeren Orientierungsdaten für jedes Bild (6): Koordinaten des Projektionszentrums O (X O, Y O, Z O ) Drehwinkel α, ν, κ in Gestalt der Drehmatrixkomponenten r ij - die Objektkoordinaten (X, Y, Z) für jeden Neupunkt (3) - die innere Orientierung für jede Kamera (0 oder >3): Kammerkonstante c Koordinaten des Bildhauptpunktes H (x H,, y H ) Einfluss der Verzeichnung dx, dy (abhängig von Verzeichnungsparametern, vgl. Abschnitt 2.2.1) Rechengang Die Ausgleichung erfolgt nach der Methode der kleinsten Quadrate bzw. der Minimierung nach der L 2 - Norm. [ pvv] Minimum! (2.7) Die ursprünglichen Verbesserungsgleichungen haben die Form: l + v = A x bzw. x' + v i x' i = f ( X Oj,Y Oj,Z Oj, α j, υ j, κ j,c k,x' Hk, y' Hk,dx' k, X i,y,z i i ) y' + v = f ( X,Y,Z, α, υ, κ,c,x', y',dy', X,Y,Z ) (2.8) i x' i Oj Oj Oj j j j k Hk Hk k i i i mit i: Punktindex j: Bildindex k: Kameraindex

33 22 Wegen ihrer Nichtlinearität werden die Gleichungen mit Hilfe der TAYLORschen Reihe linearisiert. Dazu werden für die Unbekannten Näherungswerte eingeführt. (siehe Abschnitt 2.3.2) In den linearisierten Verbesserungsgleichungen sind die Unbekannten lediglich die Zuschläge zu den Näherungswerten. Sie haben die allgemeine Form: v = A δ x l (2.9) v... Verbesserungsvektor der Beobachtungen A... Koeffizientenmatrix δ x... Unbekanntenzuschläge zu Näherungswerten l... Beobachtungsvektor (gemessen) Aus dem Minimum der Quadratsumme der Verbesserungen (2.6) folgt das Normalgleichungssystem: T N δ x n = 0 mit N = A P A (2.10) n = A T P l N... Normalgleichungsmatrix n... Absolutglied P... Gewichtsmatrix Daraus ergibt sich der Vektor δ x für die Unbekanntenzuschläge: δ x = Q n mit 1 Q = N (2.11) = ( A T P A ) 1 A T P l Q... Kofaktormatrix der Unbekannten Anhand der Näherungswerte und der eben bestimmten Zuschläge lassen sich nun die Unbekannten berechnen: x = xˆ + δ x (2.12) Nach der Berechnung der Verbesserungen nach (2.8) können nun auch die ausgeglichenen Beobachtungen l i bestimmt werden: l = l + v (2.13)

34 23 Die Ergebnisse der Ausgleichung können wieder als Näherungswerte angesehen werden. Mit den neuen, genaueren Startwerten kann die Berechnung erneut durchgeführt werden. Die Iteration wird solange fortgesetzt bis sich die Unbekannten nicht mehr nennenswert ändern Ergebnisanalyse Um die Qualität des Ausgleichungsergebnisses beurteilen zu können, sind vor allem die Genauigkeiten der ausgeglichenen Beobachtungen und Unbekannten von Interesse. Dafür ist zunächst die a posteriori Standardabweichung der Gewichtseinheit s 0 zu berechnen. [ pvv ] s 0 = mit r = n u (2.14) r n... Anzahl der Beobachtungen u... Anzahl der Unbekannten r... Redundanz, Überbestimmung Die Standardabweichung einer Unbekannten x j ergibt sich nun aus: s x j = s q (2.15) 0 x jx j q x j x j.. Hauptdiagonalelemente der Matrix Q Die Genauigkeit der ursprünglichen Beobachtungen wird angegeben durch: s 0 sl i = (2.16) pi p i... Gewicht einer Beobachtung i Nach der Bestimmung der Kofaktormatrix der ausgeglichenen Beobachtungen l i können auch deren Standardabweichungen bestimmt werden: s li = s q mit 0 lili Q l l i i T = A Q A (2.17) Q l i l i q l i l i... Kofaktormatrix der ausgeglichenen Beobachtungen... Hauptdiagonalelemente der Matrix Q l i l i

35 24 Neben den Genauigkeitsangaben der einzelnen Parameter können im Zuge der Ausgleichung auch grobe Datenfehler aufgedeckt und eliminiert werden. Informationen über die Zuverlässigkeit der Ausgleichung und somit über die Kontrollierbarkeit der einzelnen Beobachtungen lassen sich aus der Kofaktormatrix der Verbesserungen ableiten: Q vv = Q A Q A mit ll T Q ll 1 = P (2.18) Q vv... Kofaktormatrix der Verbesserungen Q ll... Kofaktormatrix der ursprünglichen Beobachtungen Unter Berücksichtigung der Gewichtsmatrix der ursprünglichen Beobachtungen aus Q die Gesamtredundanz r der Ausgleichung bestimmen: vv P ll lässt sich r = n u = spur( R ) = ri mit R = Q P ll (2.19) vv R... Redundanzmatrix r i... Hauptdiagonalelemente der Matrix R Man bezeichnet r i auch als Redundanzanteil einer Beobachtung l i an der Gesamtredundanz r in den Grenzen 0 ri 1. Der übrige Anteil 1 ri wird zur Berechnung der Unbekannten benutzt. Hohe Redundanzanteile sprechen demzufolge für hohe Überbestimmungen bzw. eine gute Kontrollierbarkeit der Beobachtungen. Im Gegensatz dazu zeugen kleine Redundanzanteile von einer schwachen, schlecht kontrollierbaren Überbestimmung. Zwischen Beobachtungen und Verbesserungen besteht nun folgender Zusammenhang: v = A δ x l = R l (2.20) Für einen groben Beobachtungsfehler gilt allerdings nicht, dass er sich direkt auf seine Verbesserung auswirkt. Grund dafür ist, dass Verbesserungen neben groben Beobachtungsfehlern auch zufällige Fehler und Modellfehler (bei ungenügendem funktionalen Ansatz) enthalten können. Außerdem hat die Methode der kleinsten Quadrate die Eigenschaft, Beobachtungsfehler optimal auf alle Beobachtungen zu verteilen. Das führt zu dem so genannten Verschmierungseffekt, der die Erkennbarkeit grober Fehler erschwert.

36 25 Aus diesem Grund wird die normierte Verbesserung vi eingeführt: v i v i = mit vi li i sv i s = s r (2.21) Die v i sind normalverteilt mit dem Erwartungswert E=0 und der Standardabweichung = 1. sv i ± Die Suche nach groben Fehlern erfolgt nun mit Hilfe statistischer Tests mit einer passend gewählten Toleranz k. Da sich grobe und zufällige Fehler überlagern, können diese nur mit einer gewissen Wahrscheinlichkeit aufgedeckt werden. Das bedeutet, dass auch falsche Entscheidungen vorkommen können. Durch die Vorgabe der Signifikanzzahl a (Fehler 1.Art) bzw. der Macht des Tests ß (1- ß = Fehler 2.Art) ergibt sich der so genannte Nichtzentralitätsparameter d 0. Dieser bezeichnet den für die Zuverlässigkeitskontrolle maßgebenden Abstand der normierten Normalverteilungen für die Null-

37 Mehrbildauswertung Das Ziel der photogrammetrischen Mehrbildauswertung ist die Bestimmung der geometrischen Form des zu vermessenden Objektes. Die Bündelausgleichung liefert dafür zunächst die Position der Messbilder im Raum, in denen nun punktweise gemessen werden kann. Ein Objektpunkt wird dafür in mindestens zwei Bildern lokalisiert und identifiziert. Anhand der gemessenen Bildkoordinaten sowie der bekannten räumlichen Lage und Richtung der Bildstrahlen kann nun durch den räumlichen Vorwärtsschnitt der Schnittpunkt der Strahlen und somit die 3D-Koordinaten des Objektpunktes bestimmt werden. (siehe Abb. 2-8) Abbildung 2-8: Prinzip der photogrammetrischen Auswertung [Handbuch 1] Durch eine Messung in mehr als zwei Bildern kann die Genauigkeit der Objektkoordinaten deutlich gesteigert werden. Neben der reinen Koordinatenbestimmung ist vor allem die Ableitung grafischer Objektinformationen Ziel der Auswertung. Daher werden die gewonnen Daten normalerweise an ein CAD-Programm übergeben und dort weiterbearbeitet. Die Auswertesysteme können unterschieden werden hinsichtlich des verwendeten Bildformates. Vergrößerte Papierabzüge analoger Messbilder können mit einem Digitalisiertablett ausgewertet werden. Dazu muss vorher die Orientierung der Bilder auf dem Tablett erfolgen. Die Messung in digitalisierten Bildern kann dagegen direkt in einer grafischen Benutzeroberfläche erfolgen. Die Auswertung ist viel effizienter und genauer.

38 27 Die Zuordnung des Pixelbildes zum Bildkoordinatensystem wird einmal durchgeführt und dann mit dem Bild gespeichert. Für eine bessere Erkennbarkeit im Bild können Kontrast und Schärfe verändert werden. Außerdem ist es möglich, das digitale Bild mit den grafischen Informationen zu überlagern und so die Auswertung visuell zu kontrollieren. Das Ergebnis der photogrammetrischen Mehrbildauswertung ist ein 3D-Gittermodell, welches das Objekt durch seine Ecken und Kanten beschreibt. Man bezeichnet diese Form als Liniendarstellung bzw. wireframe. In Abbildung (2-9) wird ein Würfel durch seine Kanten beschrieben. Das Zusammenfügen der einzelnen Linien zu Seitenflächen bzw. die Fiktion eines Würfels kann man sich allein durch anschauliches Denken vorstellen. Da auch verdeckte Kanten zu sehen sind, ist die Darstellung jedoch nicht eindeutig. Durch den so genannten Umkippeffekt kann man zwei verschiedene Darstellungsmöglichkeiten des Würfels erkennen. Abbildung 2-9: wireframe-dartellung eines Würfels Es besteht ein Unterschied zwischen der Darstellung von Dingen, die aussehen wie Körper und der Darstellung von Körpern. Die Visualisierung eines 3D-Modells (siehe Abschnitt 2.4.2) mit Hilfe der Computergrafik geschieht durch eine eindeutige Darstellung des Objektes durch Flächen oder Körper, denen dann Eigenschaften zugewiesen werden können. Für die Beschreibung eines Würfels reicht demnach die Darstellung durch Linien nicht aus. Es müssen zusätzliche Eigenschaften definiert werden. Legt man fest, dass je vier Kanten in einer Ebene die Fläche eines Quadrates bilden, so stellt die Abbildung (2-9) die Oberflächenbeschreibung eines Würfels dar. Zusätzlich kann man definieren, dass diese Flächen das Volumen eines Würfels umschließen.

39 28 Anhand dieser Definition ist es z.b. möglich die Darstellung des Körpers plastischer erscheinen zu lassen, indem verdeckte Kanten nicht dargestellt werden. (siehe Abb. 2-10) Abbildung 2-10: Darstellung ohne verdeckte Kanten Weitere Möglichkeiten, die sich aus der Definition von Flächen bzw. Körpern ergeben, werden im Abschnitt (2.4.2) erläutert. Für die photogrammetrische Auswertung ist der angesprochene Punkt von großer Bedeutung, da die Definition geschlossener Flächen bzw. die Definition von Körpern in CAD-gestützten Mehrbildauswertesystemen bereits während des Auswerteprozesses erfolgen kann. Dafür hat sich der Begriff CAAD (computer aided architectural design) eingebürgert. [Luhmann 2000] Man unterscheidet prinzipiell zwischen der Darstellung des Modells aus Flächen und der Darstellung aus Körpern: [Foley 1994] - die Randdarstellung bzw. boundary representation (kurz: b-rep) beschreibt das Objekt durch die Ränder seiner Oberfläche: Ecken, Kanten, Seitenflächen - Darstellung des Objektes durch einfache 3D-Formen (primitives), die mit Hilfe boolescher Mengenoperationen kombiniert werden können; bezeichnet als CSG (constructive solid geometry) Für die jeweilige Darstellungsmethode ist eine andere Auswertung nötig. Soll das Modell durch Flächen beschrieben werden, werden einzelne Punkte gemessen und durch Linien verbunden. Diese werden dann zu Flächen zusammengeschlossen. Eine Darstellung durch Körper verlangt auch eine Auswertung von Körpern, die durch das Messen der beschreibenden Parameter durchgeführt werde kann. Zum Beispiel für einen Zylinder muss der Mittelpunkt der Grundfläche, der Radius und die Höhe in mehreren Bildern gemessen werden.

40 Visualisierung der Ergebnisse Zweidimensionale Darstellung Eine herkömmliche Methode der Visualisierung ist die Darstellung eines Objektes in verschiedenen maßstäblichen Ansichten (siehe Abb. 2-11) sowie in Längs- und Querschnitten. Da eine einzelne Ansicht keine Tiefeninformation enthält, werden Grund- und Seitenrisse meist zusammen gezeigt. Abbildung 2-11: Aufriss, Grundriss und isometrische Darstellung (von links) Diese Art der Visualisierung wird häufig zur Dokumentation von Schäden sowie zur Darstellung von Fassadenelementen verwendet. Durch die Parallelprojektion lassen sich leicht geometrische Zusammenhänge erkennen (z.b. Rechtwinkligkeit) und Maße abgetragen. Aus einem 3D-Modell lassen sich dafür Ansichten generieren. Um sich eine Vorstellung von der Ganzheitlichkeit des dreidimensionalen Gebildes machen zu können reichen Ansichten manchmal nicht aus, so dass eine dreidimensionale Visualisierung angestrebt wird Dreidimensionale Darstellung - Was ist der Unterschied der dreidimensionalen Darstellung gegenüber der zweidimensionalen? - Ist nicht die isometrische Darstellung bereits dreidimensional? - Ist ein 3D-Bild im Endeffekt nicht auch eine zweidimensionale Abbildung?

41 30 Der Unterschied besteht im Anspruch auf eine räumliche, realistische Darstellung des Modells. Bei der Erzeugung fotorealistischer Bilder wird versucht, synthetisch die gleichen Lichtintensitäten zu erzeugen wie auf der Filmebene einer Kamera, die auf die abzubildenden Objekte gerichtet ist. [Foley 1994] Die Visualisierung eines 3D-Modells erfordert topologische Oberflächen. Für eine geschlossene Fläche bedeutet das, dass die zu ihr gehörenden Punkte und Linien zu logischen Flächeneinheiten verknüpft sein müssen. (vgl. Abschnitt 2.3.4) Neben der Geometrie kann so auch die Oberfläche visualisiert werden, indem die geschlossene Fläche entsprechende Attribute erhält, z.b. eine Füllfarbe oder Materialeigenschaften. Die Erzeugung realistischer Bilder aus Modellen bezeichnet man allgemein als Rendering. Ein Beispiel für ein gerendertes Objekt zeigt Abbildung (2-13). Abbildung 2-13: Würfel mit Textur überlagert und beleuchtet Die Bedeutung der Oberflächen und deren Beleuchtung werden in den folgenden zwei Abschnitten näher behandelt. Das Problem bei der Erzeugung realistischer Bilder ist die Komplexität der realen Welt, die bestenfalls nachgeahmt werden kann. Gebäude haben verschiedene Oberflächenstrukturen und Farbabstufungen, Schatten, Spiegelungen und kleine Unregelmäßigkeiten. Im Bereich der Computergrafik können viele dieser Effekte anhand verschiedener Algorithmen simuliert werden. Diese werden ständig verbessert und weiterentwickelt. Es gibt heute eine Vielzahl von 3D-Render-Programmen, die auf das Modellieren, Texturieren, Rendern und Animieren von 3D-Szenen spezialisiert sind. (siehe Tab. 2-2)

42 31 Tabelle 2-2: 3D-Render-Software (ohne Anspruch auf Vollständigkeit) Programm Hersteller Preis Quelle 3ds Max Discreet - Art lantis Abvent - Autodesk VIZ Autodesk - Carrara Studio Eovia Cinema 4D Maxon Computer - Lightwave 3D NewTek - Maya Alias wavefront $ POV-Ray POV-Team freeware Rhino 3D Robert McNeel & Assoc. 330 (Student) Softimage XSI Avid - truespace Caligari Texturierung (texture mapping) Die Zuweisung eines zweidimensionalen Bildes (Bitmap) auf eine 3D-Oberfläche, unter Berücksichtigung der perspektivischen Verzerrung, bezeichnet man als texture mapping. Dabei werden die Textur-Bilder als Kacheln 4 oder vollformatig auf die Oberfläche projiziert und so zur Definition der Materialeigenschaften benutzt. Die Texturierung kann mit Hilfe verschiedener Techniken erfolgen. Zum Beispiel durch: - pattern maps: sind Bilder, die das Muster bzw. die Struktur einer Oberfläche beschreiben (siehe Abb. 2-13) - bump maps: beschreiben ebenfalls eine Oberflächenstruktur, wobei hellere Anteile des Bildes als gehobene Punkte dunklere Anteile als tiefer liegende Punkte interpretiert werden, so dass die Struktur eine dritte Dimension bekommt. Die Bilder können künstlich mit Hilfe verschiedener Algorithmen hergestellt werden. Es ist auch möglich, Strukturen zu fotografieren und daraus patterns oder bumps zu erzeugen. Damit eine zugeordnete Textur die gesamte Fläche füllt, wird das Bitmap zeilen- und spaltenweise skaliert. Bei gleicher Dimension der Flächengeometrie und des Bitmaps kann durch orthogonale Projektion die maßstäbliche Wiedergabe erfolgen. 4 Kacheln: Texturen, die sich nahtlos aneinanderfügen (kacheln) lassen. Werden große Flächen mit kleinen Kacheln belegt, können auffällige Wiederholungen im Muster sichtbar werden.

43 32 Eine weitere Möglichkeit besteht in der Beschaffung der Originaltextur aus den Messbildern der photogrammetrischen Aufnahme. Die so genannte Fototextur bzw. fotorealistische Textur ermöglicht die Darstellung der Oberfläche mit einem höheren Informationsgehalt. Im einfachsten Fall kann eine rechteckige Oberfläche durch die 3D-Koordinaten ihrer Eckpunkte beschrieben werden. Mit Hilfe der in der Bündelausgleichung berechneten und ausgeglichenen Parameter der inneren und äußeren Orientierungen können diese Eckpunkte in das Bildkoordinatensystem eines speziellen Bildes transformiert werden. Der durch die Eckpunkte festgelegte Bildausschnitt kann anschließend in den Objektraum auf die Objektfläche projiziert werden. Die Eckpunkte entsprechen in diesem Sinn Passpunkten, anhand derer der Bildausschnitt auf die Objektoberfläche entzerrt wird. Im Vergleich zu künstlich erzeugten Strukturen unterstreichen die sichtbaren individuellen Eigenheiten der Oberfläche die Einzigartigkeit des Objektes. Dieses rein digitale photogrammetrische Werkzeug wird in [Hanke 1997] als Digitaler Projektor beschrieben. Im Ingenieurbüro FPK wird ein Programm diesbezüglich entwickelt, dass die Texturierung automatisch vornimmt. Neben der Zuweisung von künstlichen oder fotorealistischen Bildern können die Oberflächen durch weitere Materialeigenschaften beschrieben werden. Dazu gehören z.b. die Rauheit bzw. die Glätte einer Oberfläche, die Transparenz, die Art der Streuung des Lichts, der Grad der Lichtreflexion bzw. der Lichtbrechung Licht und Schatten Wird ein Objekt nicht beleuchtet, erscheint es als flache Silhouette. (siehe Abb. 2-14) Deshalb wird mit Hilfe der Computergrafik das Licht modelliert. Man unterscheidet dabei verschiedene Lichtquellen: [Foley 1994] - Umgebungslicht fällt aus allen Richtungen ein, so dass alle Flächen gleichmäßig beleuchtet werden. Es wirkt allein aber eher unrealistisch - Bei einer punktförmigen Lichtquelle gehen die Strahlen von einem Punkt aus. (Bsp. Glühbirne) - Mit Hilfe einer gerichteten Lichtquelle, bei der alle Strahlen aus der gleichen Richtung kommen, kann das Sonnenlicht modelliert werden. - Das Licht der verteilten Lichtquelle geht nicht nur von einem Punkt und nur einer Richtung aus, wie z.b. bei Neonröhren.

44 33 Wird ein Objekt mit einer dieser oder mehreren Lichtquellen beleuchtet, erscheint es viel realistischer. Schatten geben zusätzliche Hinweise zu Tiefenverhältnissen und steigern dadurch den realistischen Eindruck. (siehe Abb. 2-15) Abbildung 2-14: Würfel mit Flächenfüllung, jedoch ohne Beleuchtung Abbildung 2-15: Würfel beleuchtet mit Umgebungslicht und einer punktförmigen Lichtquelle Dynamik und Animation Unter der dynamischen Visualisierung versteht man die Darstellung von Änderungen innerhalb einer Folge von Bildern. Für eine flüssige Bewegung werden 25 Bilder pro Sekunde benötigt, wobei für jedes Bild neue Darstellung erzeugt werden muss. Durch die Einführung einer vierten Dimension (der Zeit) lässt sich die Bewegung eines Objektes simulieren. Zeigt man z.b. in schneller Folge eine Reihe von Projektionen eines Objektes, jeweils von einem geringfügig anderen Standpunkt rund um das Objekt, so scheint sich das Objekt zu drehen. Ein Punkt des Objektes nahe dem Rotationszentrum hat eine geringere maximale lineare Geschwindigkeit als ein Punkt, der weiter vom Rotationszentrum entfernt ist. Dadurch kann der relative Abstand eines Punktes vom Rotationszentrum verdeutlicht werden. Außerdem ändert sich bei der Zentralprojektion die Größe einzelner Teile mit dem Abstand vom Projektionszentrum. Diese relativen Abstände liefern Hinweise auf räumliche Zusammenhänge. Je mehr man über das Objekt und die Beziehungen der Objektteile zueinander weiß, desto besser kann man sich eine Vorstellung von diesem Objekt machen. [Foley 1994] Eine Animation umfasst jedoch nicht nur die Bewegung, sondern alle Änderungen mit sichtbaren Auswirkungen. Dazu gehören auch Änderungen von Form, Farbe, Struktur und Textur eines Objektes sowie Änderungen der Beleuchtung, Kameraposition und Orientierung.

45 34 3 Experimentelle Untersuchungen 3.1 Untersuchungsobjekt Grabmal KOCH Es handelt sich um die Grabanlage der Familie Koch auf dem Neuen Friedhof in der Potsdamer Heinrich-Mann-Allee. (siehe Abb. 3-1) Sie wurde 1870 von dem bekannten Bildhauer, Stuckateur und Fabrikant Friedrich Wilhelm Koch ( ) aus Anlass des Todes seines Sohnes Wilhelm ( ) geschaffen. Später wurden dort auch er selbst, seine Frau Julie, geb. Paul ( ) und sieben weitere Verwandte beigesetzt. Nach über einhundert Jahren haben Umwelteinflüsse ihre Spuren an der Grabstätte hinterlassen. An vielen Stellen fehlt der Putz und der blanke Stein kommt zutage, Ornamente sind verwittert und der alles umrankende Efeu mit seinen astdicken Trieben übt zusätzlichen Druck auf das Bauwerk aus. Im Juni 2001 hat die Untere Denkmalschutzbehörde Potsdam die Restaurierung des Grabmals in Auftrag gegeben. Für insgesamt DM wurde es rundum saniert, wurden Reinigungs-, Putz- und Stuckarbeiten durchgeführt, Vergoldungen und Bepflanzungen erneuert. Nach Abschluss der Arbeiten, die bis Ende Oktober andauerten, wurde das Grabmal am feierlich eingeweiht. [O.A. 2001] Abbildung 3-1: Grabmal Koch auf dem Neuen Friedhof in Potsdam

46 Bildmaterial Das KOCHsche Erbbegräbnis sollte in seinem aktuellen Zustand und aus historischer Sicht photogrammetrisch untersucht werden. Daher war es notwendig, Bildmaterial aus zwei verschiedenen Epochen für die Auswertung bereitzustellen Bereitstellung historischer Bilddaten Die Suche nach historischen Fotografien ergab drei brauchbare Quellen. Wobei historisch im weiteren Verlauf bedeuten soll, dass die Aufnahmen vor der im Juni 2001 begonnenen Rekonstruktion gemacht wurden. a) Bei der Stadtverwaltung Potsdam - Fachbereich Stadterneuerung und Denkmalpflege - Bereich Untere Denkmalschutzbehörde gibt es eine Handakte zum Grabmal Koch. Darin enthalten ist eine Fotoserie von Negativen aus dem Jahr Nach Rücksprache mit dem damals beauftragten Architekturfotografen konnte ermittelt werden, dass die Bilder mit einer SINAR F2 Grossbildplattenkamera aufgenommen wurden. Das Besondere an dieser Kamera ist, dass die Filmebene trotz geneigter Aufnahmeachse parallel zum Objekt gestellt werden kann. Damit können stürzende Linien 5 korrigiert werden, was ein gefälliges und natürliches Aussehen zur Folge hat. (siehe Abb. 3-2) Abbildung 3-2: links: Bild mit geneigter Aufnahmeachse und stürzenden Linien (aktuelles Messbild); rechts: Bildebene parallel zum Objekt (historische Fotografie vom Denkmalamt) 5 Stürzende Linien: Wird die Kamera schräg gehalten und damit die Filmebene geneigt, werden vertikale Linien perspektiv verzerrt abgebildet.

47 36 Für die photogrammetrische Auswertung ist diese Eigenschaft eher ungeeignet. Es ist zu berücksichtigen, dass die Lage des Bildhauptpunktes nicht in der Bildmitte liegt, sondern entlang der y-achse verschoben ist. (siehe Abb.3-3) Bei der Konstruktion des Bildhorizontes wird deutlich, dass dieser von der x-achse um den Wert dy abweicht. Abbildung 3-3: Verschiebung des Bildhauptpunktes um dy (historische Fotografie des Denkmalamtes) Die 60mm 90mm großen Negative wurden mit dem Trommelscanner HOWTEK Scanmaster 7500 pro der Firma FPK und 2500 dpi digitalisiert. Zur Abschätzung der Digitalisiergenauigkeit vgl. Abschnitt (3.2.2). b) Weitere Bilder wurden von einer Studentin der TU Berlin im Rahmen ihrer Abschlussarbeit für das Aufbaustudium Denkmalpflege gemacht. Diese waren leider nur mit geringer Detailgenauigkeit digital verfügbar und hatten eine Größe von 20 cm 27 cm. (Das entspricht etwa dem Verhältnis 9 13.) c) Die dritte Quelle ist das Architekturbüro C.Fischer. Im April 1997 wurde der Bauzustand des Grabmals für einen Kostenvoranschlag fotografisch festgehalten. Auch diese Aufnahmen existierten mit einer Größe von 10 cm 15 cm nur in einem unzulänglichen digitalen Format. Die Suche nach Bildern vom Grabmal Koch erstreckte sich auch auf Luftbildaufnahmen im großmaßstäblichen Bereich (1:5000 und größer) im weitgehend unbelaubten Zustand. Befragte Stellen waren unter anderem: die Luftbildstelle des Landesvermessungsamtes Brandenburg, das Stadtvermessungsamt Potsdam, das Potsdam Museum und das Bundesarchiv. Eine passende Aufnahme konnte allerdings nicht gefunden werden.

48 37 Genauigkeitsvergleich für eine Gewichtsverteilung: Da die verfügbaren Bilder zu unterschiedlichem Zweck mit unterschiedlichen Genauigkeiten entstanden, muss das für eine gemeinsame photogrammetrische Auswertung berücksichtigt werden. Ein Kriterium, um die Bilder vergleichen zu können, ist die Größe der Pixel im Bildraum. Aufgrund der festgestellten Formate der digitalen Bilder, konnte darauf geschlossen werden, dass vergrößerte Abzüge von Kleinbildaufnahmen eingescannt wurden und nicht die Negative, welche die Projektionsebene der Kamera repräsentieren. Das Standardformat für Negative einer Kleinbildkamera ist 24mm 36mm und wird hier als Bildgröße angenommen. Die Größe eines Pixels bzw. die Auflösung für jedes Negativ wurde wie folgt berechnet. Bildbreite[mm] = Pixelgröße[mm] (3.1) Pixelanzahl in der Breite Die Bildmessgenauigkeiten lassen sich nun direkt vergleichen. (siehe Tabelle 3-1) Tabelle 3-1: Vergleich der historischen Bilder Quelle Denkmalamt [D] Architekturbüro [F] Studentin [P] Aufnahmezeitpunkt Erhaltenes Format analog digital digital Format der Negative 60mm 90mm 24mm 36mm 24mm 36mm Anzahl der Bilder Größe eines Pixels 11µm 16µm 42µm Auflösung 2300 dpi* 1600 dpi 600 dpi * geringer als Auflösung beim scannen, da Bilder nachbearbeitet werden mussten Im Folgenden sollen die Quellen des historischen Bildmaterials mit [D], [F], und [P] bezeichnet werden.

49 Bereitstellung aktueller Bilddaten Die photogrammetrische Aufnahme des Grabmals nach der Rekonstruktion erfolgte mit der Teilmesskamera Rolleiflex 6006 metric. Sie ist mit einem Réseaugitter mit Kreuzen ausgestattet. Als Aufnahmemedium wurde ein Schwarz/Weiß-Film der Marke AGFA mit der Bezeichnung Agfapan APX100 Professional verwendet. Zu seinen Eigenschaften gehören: - ISO 100/21 - Sehr feine Körnigkeit (RMS 9.0) - Sehr hohe Schärfe - Auflösungsvermögen von 150 Linien/mm - Lineare Kontrastkurve - Konstante sensitometrische Eigenschaften Die Größe der Bilder liegt im Mittelformatbereich bei 60mm 60mm. Diese Angabe entspricht aber nicht dem belichtbaren Bereich des Films. Wegen einem Rand für die laufende Bildnummer und einem Abstand zwischen den einzelnen Aufnahmen ist die Bildgröße entsprechend kleiner (55mm 55mm). Zur Planung der Aufnahme (Aufnahmeentfernung, Standpunktverteilung, Kamerasystem) für eine ausreichende Genauigkeit und Detailerkennbarkeit wurde zunächst der mittlere Abbildungsmaßstab bestimmt. Die Bildmaßstabszahl m b ergibt sich aus dem Verhältnis einer Objektstrecke X zur entsprechenden Bildstrecke x bzw. aus dem Verhältnis der Aufnahmeentfernung h zur Kammerkonstante c. h X m b = = (3.2) c x' Die räumlichen Ausmaße des Grabmals in Länge Breite Höhe liegen bei 7m 5m 5m. Aus dem Verhältnis der Objektbreite von 5m zur Bildbreite von 55mm ergibt sich die mittlere Maßstabszahl m b 90. Damit lässt sich nun die Aufnahmeentfernung für eine formatfüllende Abbildung des Objektes in Abhängigkeit von der Objektivbrennweite bestimmen. h = c (3.3) m b Für ein 50mm-Objektiv ergibt sich eine Entfernung von 4,5m, für ein 120mm-Objektiv eine Distanz von 11m.

50 39 Der Großteil der Aufnahmen entstand mit dem 50mm-Objektiv. Wegen des größeren Blickwinkels können mit der kurzen Aufnahmedistanz sichttote Räume ausgeleuchtet und die Innenaufnahmen realisiert werden. Unter Beachtung eines gewissen Abstandes zwischen den Aufnahmestandpunkten entstehen günstige Strahlenschnitte. Mit dem 120mm-Objektiv wurde durch das schmalere Strahlenbündel und die größere Aufnahmeentfernung ein anderer Blickwinkel erzeugt. Die Aufnahmen sollen dadurch der Stabilität des Modells dienen. Abbildung (3-4) zeigt die Anordnung der Aufnahmestandpunkte und -richtungen. Abbildung 3-4: Konfiguration der Aufnahmestandpunkte und -richtungen Die Kamera wurde während der gesamten Aufnahmezeit auf unendlich fokussiert. Dadurch wurde eine gleich bleibende innere Orientierung der Kamera ermöglicht. Die offene Gestalt des Grabmals hat Auswirkungen auf seine Scharfabbildung. Da die Abstände zwischen den Objektpunkten und dem Kamerastandpunkt unterschiedlich groß sind (bis zu 5m), bedarf es eines großen Schärfentiefebereichs [Luhmann 2000]. Das Gleiche trifft auch auf Schrägaufnahmen zu. Durch das Einstellen einer kleinen Blende bzw. einer großen Blendenzahl und einer längeren Belichtungszeit (bis zu mehreren Sekunden) sollte die Tiefenschärfe vergrößert werden. Um Verwacklungen und Vibrationen zu vermeiden, wurde ein Stativ verwendet und der Spiegel der Kamera wurde unmittelbar vor der Aufnahme umgeklappt.

51 40 Abschätzung der Digitalisiergenauigkeit: Für die digitale Bildauswertung mussten die Aufnahmen gescannt werden. Die Digitalisierung erfolgte mit dem Trommelscanner HOWTEK Scanmaster 7500 pro der Firma FPK. Dieser hat eine Genauigkeit von ca. 5 µm. Vorher musste jedoch abgeschätzt werden, wie hoch die Auflösung zu wählen ist, damit ausreichend genaue Messungen in den Bildern durchgeführt werden können, ohne dass die Datenmengen zu groß werden. Die Untersuchungen am Grabmal KOCH werden mit dem Ziel einer großmaßstäblichen, sehr detaillierten und verformungsgetreuen Dokumentation durchgeführt. Deshalb soll das Modell im Maßstab 1:20 ausgewertet werden mit einer Darstellungsgenauigkeit von ± 1cm. [Eckstein u.a. 1986] Das entspricht einer Auflösung von ca. 0,1mm im Bild. Eine Digitalisierauflösung von 2500 dpi entspricht einer Pixelgröße von ca. 10µm. Die Größe der Bilddatei liegt dann mit Pixel und 8 Bit pro Pixel bei 28,8 MB.

52 Passpunktbestimmung Für die Geodätische Aufnahme der Passpunkte wurde das elektronische Tachymeter LEICA TCRA 1103 plus der Firma FPK verwendet. Das Gerät besitzt eine Streckenmessgenauigkeit von s = σ ( reflektorlos ) 5mm bzw. σ ( mit Re flektor ) = 2mm 2 ppm und eine Winkelmessgenauigkeit von σ = 1 r mgon. s + Zur Festlegung eines lokalen kartesischen Koordinatensystems wurden zwei Festpunkte vermarkt. Der erste definiert den Koordinatenursprung, hat die Punktnummer 1000 und die fiktiven Koordinaten X = 1000,000 m; Y = 1000,000 m; Z = 50,000 m. Die X - Achse verläuft durch den zweiten Festpunkt mit der Punktnummer Die Y- Achse ergibt sich aus einer horizontalen Drehung der X-Achse um 100gon entgegen dem Uhrzeigersinn um den Ursprung. Die Z-Achse steht senkrecht auf der XY-Ebene und geht ebenfalls durch den Ursprung. (siehe Abb.3-5) vermarkte Punkte: Sicherung Sicherung freie Standpunkte: Abbildung 3-5: Lageskizze des lokalen Koordinatensystems, der vermarkten und freien Standpunkte der geodätischen Aufnahme Die Objektpunkte wurden mittels Polaraufnahme reflektorlos von den vermarkten und freien Standpunkten aus bestimmt.

53 42 Bei den gewählten Passpunkten handelt es sich ausschließlich um natürliche, eindeutig am Grabmal erkennbare Punkte. Auf spezielle Zielzeichen bzw. Passpunktmarken musste wegen der gerade abgeschlossen Restaurierung verzichtet werden. Je nach Sichtbarkeit wurden die Punkte ein- bis zweimal angezielt. Um Verwechslungen zu vermeiden, wurden die gemessenen Punkte auf Fotografien mit Nadelstichen und deren Beschriftung dokumentiert. Im Anschluss an die Messung erfolgte eine 3D-Netzausgleichung mit dem Programm VERTECH [Wiedemann u.a. 2001]. Die Ausgleichung der 128 gemessenen Passpunkte wurde unter Zwang mit 4 Festpunkten und einer Redundanz von 360 (780 Beobachtungen, 420 Unbekannte) durchgeführt. Folgende a priori Standardabweichungen wurden bei der Berechnung berücksichtigt: - Richtungsmessgenauigkeit: s r = ±0,0010gon - Exzentrizität: s exz = ±0,005m - Streckenmessgenauigkeit: s s = ±0,005m - Instrumentenhöhe: s z = ±0,001m - Anzielgenauigkeit: s p = ±0,005m s0 ( aposteriori ) - Soll-Verhältnis: = 1 s ( apriori ) 0 Das Protokoll der Ausgleichungsberechnung kann unter <AktuellesProjekt\Vertech\k3a.ern> (siehe Anhang C) eingesehen werden. Das Verhältnis der Standardabweichungen nach der Ausgleichung ergab: s 0 ( s aposteriori ) 0 ( apriori ) = 2,038. Das relativ schlechte Ergebnis ist mit der Anzielgenauigkeit der natürlichen Passpunkte zu erklären. Die Wiedererkennbarkeit ist mit signalisierten Punkten viel höher und hätte zu einem besseren Ergebnis geführt. Die ausgeglichenen Koordinaten der Passpunkte haben eine Genauigkeit von ca. s = s = s = 1cm und sind unter <AktuellesProjekt\Vertech\koch.koo> (siehe Anhang C) x y z ± einzusehen.

54 Vom Bild zum Modell In Absprache mit der FPK Ingenieurgesellschaft mbh wurde das digitale photogrammetrische Auswertesystem PHIDIAS - MS verwendet. Am Geodätischen Institut der RWTH Aachen entwickelt und heute von Phocad vertrieben, ist PHIDIAS als Applikation in Bentleys CAD-System MICROSTATION integriert. (siehe Abb.3-6) Das hat den Vorteil, dass nach abgeschlossener Bündelausgleichung sämtliche gängigen CAD- Funktionen für die photogrammetrische Objekterfassung zur Verfügung stehen. Das System ist somit für komplexe grafische Objektrekonstruktionen geeignet, wie sie bei Architekturanwendungen vorkommen. Abbildung 3-6: Menüleiste von MICROSTATION/J Zeichnungsdatei in MICROSTATION Um mit PHIDIAS arbeiten zu können, muss zunächst das Programm MICROSTATION gestartet werden. Der erste Schritt besteht darin, eine Zeichnungsdatei *.dgn (design file) anzulegen. In dieser wird das grafische Ergebnis der späteren photogrammetrischen Auswertung gespeichert. Das Erstellen dieser Datei erfolgt durch die Eingabe eines Dateinamens und der Auswahl einer so genannten Seed-Datei. Diese ist ebenfalls eine Zeichnungsdatei und besitzt bestimmte Voreinstellungen, z.b. ob es sich um eine zwei- oder dreidimensionale Zeichnung handelt (siehe Abb. 3-7). Seed-Dateien werden von MICROSTATION für die unterschiedlichsten Anwendungen mitgeliefert und müssen nur richtig ausgewählt werden. Abbildung 3-7: Dialogfenster für das Erstellen einer neuen Zeichnungsdatei Damit ist die Zeichnungsdatei in der CAD-Umgebung geöffnet, und jede Aktion kann sofort gespeichert werden.

55 Projektverwaltung in PHIDIAS Unabhängig von der *.dgn - Datei wird mit PHIDIAS ein Projekt angelegt, in dem die bedeutsamen Parameter der photogrammetrischen Auswertung verwaltet werden. (siehe Abb. 3-8) Abbildung 3-8: Anlegen eines Projektes Da der Zustand des Grabmals vor und nach der Rekonstruktion dokumentiert werden sollte, mussten zwei verschiedene Epochen ausgewertet werden. Deshalb wurden die Verzeichnisse <AktuellesProjekt> und <HistorischesProjekt> angelegt. (siehe Anhang C) In diesen Verzeichnissen werden die zugehörigen Bilder, Zeichnungen, Punkt- und Orientierungsdaten verwaltet. Die von PHIDIAS erzeugten Dateien liegen im ASCII - Format vor und können somit in einem normalen Text - Editor angezeigt und bearbeitet werden. Tabelle 3-2: Datenverwaltung innerhalb eines Projektes Dateierweiterung Beschreibung des Dateiinhalts *.bpk Bildkoordinaten der gemessenen Punkte *.eor Näherungswerte der Orientierungsparameter *.kam Kameradaten *.log Protokolldaten *.mdv Modelldaten nach Modell-zu-Modell Transformation *.mod Modelldaten nach der Relativen Orientierung *.opk Koordinaten der Objektpunkte *.out Ergebnisdaten *.pho Bildliste *.prj Projektdaten Als nächstes müssen die bekannten Parameter an das Programm übergeben werden:

56 Objektpunktdaten Die Passpunktkoordinaten liegen als *.koo - Datei des Programms VERTECH vor. Damit PHIDIAS die Daten lesen konnte, musste das Format entsprechend angepasst werden. Die Datei der Objektpunkte *.opk ist wie folgt aufgebaut: Punktnummer / Kennung mit 7=Passpunkt, 8=Neupunkt, 9=Datumspunkt, 10=inaktiv / X-Koordinate / Y-Koordinate / Z-Koordinate Die Objektpunktkoordinaten können auch einzeln in der PHIDIAS-Oberfläche unter PHIDIAS > Orientierung > Mehrbildorientierung > Objektdaten eingegeben werden, was sich aber bei sehr vielen Punkten als aufwendig erweisen kann. Deshalb wurde die erste Variante bevorzugt. Da für die historischen Bilder keine Passpunkte zur Verfügung standen, wurde die Passpunktdatei des aktuellen Projektes übernommen Kameradaten Zu den Kameradaten gehören die Parameter der Inneren Orientierung: die Kammerkonstante c, die Koordinaten des Bildhauptpunktes H (x H ; y H ) und die Verzeichnungsparameter (der Nulldurchgang der Verzeichniskurve r 0,

57 46 Das bedeutet, dass für jedes Bild eine neue Kamera definiert werden musste. Leider konnte auch vom Fotografen der Bilder nicht ermittelt werden, welche Parameter seine Kamera hat. Die anderen Bilder (Quellen [F] und [P]) wurden jeweils mit Amateurkameras aufgenommen. Auch wenn deren Parameter unbekannt sind, kann man sie zu je einer Kamera zusammenfassen, was die Anzahl der Unbekannten erheblich verringert. Berücksichtigt man jedoch, dass die Kameras eine Vorrichtung zum Fokussieren besitzen, muss auch hier jeder Aufnahme eine eigene Kamera zugewiesen werden. Es muss davon ausgegangen werden, dass der Fokus bei jedem Bild eingesetzt wurde, um das Motiv scharf zu stellen, und dabei ändert sich die innere Geometrie der Kamera jedes Mal. (vgl. Abschnitt 2.2.3) Entsprechend der Bildanzahl bedeutet das: Es müssen mindestens 8 und maximal 15 Kameras definiert werden! Um geschickt vorzugehen, wurden vorläufig 15 Kameras definiert. Diese wurden später unterschiedlich zusammengefasst, um verschiedene Versionen testen zu können Bilder einfügen Alle Bilder eines Projektes wurden in eine Liste aufgenommen, gespeichert und dort verwaltet (siehe Abb. 3-9). Die verwendeten Aufnahmen des aktuellen Projektes können in Anhang (D), die des historischen Projektes in Anhang (E) eingesehen werden. Abbildung 3-9: Dialogfenster zur Verwaltung der Bilder Mit dem Schalter Hinzufügen wird ein neues Bild und die dazugehörige Kamera ausgewählt und zum Projekt hinzugefügt, vorausgesetzt die Kamera wurde vorher in der Kameradatei eingetragen.

58 47 Nachdem sich das Bild in der Liste befindet, kann es in ein Ansichtsfenster von MICROSTATION geladen werden. Es werden zwei verschiedene Lademodi unterschieden: - Für die Bildkoordinatenmessung wird das Bild im Modus Punktmessung geladen. - Der Modus Auswertung muss nach der Orientierungsberechnung für die Bildauswertung gewählt Rahmenmarkenmessung Die Transformation des Pixelkoordinatensystems der Bilder in das Kamerakoordinatensystem erfolgt über die Rahmenmarken. Diese sind als identische Punkte in beiden Systemen gegeben. Zur Auswahl stehen drei verschiedene Möglichkeiten der Rahmenmarkenmessung: - durch Koordinaten von bis zu acht Einzelmarken (historische Bilder) - durch eine Réseaudatei (aktuelle Messbilder) - durch ein regelmäßiges Réseaugitter In den aktuellen Messbildern werden die Rahmenmarken durch die Réseaukreuze repräsentiert. Deren Sollkoordinaten wurden vom Hersteller der Kamera durch Kalibrierungsverfahren bestimmt und stehen als Réseaudatei <AktuellesProjekte\PhidiasMS\Rollei-Daten\RES0957.res> (siehe Anlage C) zur Verfügung. Das Format muss für die Verwendung in PHIDIAS so angepasst werden, dass in jeder Zeile ein Koordinatenpaar steht, wobei mit dem Kreuz in der linken oberen Ecke begonnen und dann zeilenweise fortgesetzt wird. Zur Definition des Kamerakoordinatensystems wird zuerst das entsprechende Bild in ein Ansichtsfenster im Modus Punktmessung geladen. Man wählt den Menüpunkt PHIDIAS > Rahmenpunkt/Réseau und identifiziert das Bild durch einen Datenpunkt (linke Maustaste) in das Ansichtsfenster. Daraufhin erscheint ein Dialogfenster, in dem das gesamte Réseaugitter gezeigt wird. Das Programm benötigt zunächst eine Inertialmessung, d.h. es werden zwei Kreuze manuell gemessen. Die gewünschten Kreuze werden in der Dialogbox vorher ausgewählt, damit es nicht zu Verwechslungen bei der Zuordnung kommt. Mit Betätigen des Schalters Automatisch misst das Programm dann die restlichen Kreuze.

59 48 Als Ergebnis werden Klaffungsvektoren numerisch in x- und y-richtung und grafisch als Vektoren angezeigt. Nach der automatischen Messung können einzelne Kreuze manuell nachgemessen werden. Dabei kann es sich um Réseaukreuze handeln, die wegen zu geringem Kontrast nicht mitbestimmt werden können oder um Fehlmessungen mit augenscheinlich großen Klaffungsvektoren. Schließlich müssen die Transformationsdaten nach abgeschlossener Messung gesichert werden. Zur Angabe der Bildkoordinatenmessgenauigkeit wäre es wünschenswert gewesen, dass die Restklaffungen gespeichert und als Verbesserungen angebracht worden wären und dass eine allgemeine Aussage über die Messgenauigkeit in den Bildern getroffen worden wäre. Aus diesem Grund wurde die Bildkoordinatenmessgenauigkeit für eine a priori - Schätzung auf 20 µm festgelegt. Neben der absoluten Größe war jedoch wichtig, dass alle Bilder die gleiche Messgenauigkeit erhielten, so dass sie gleich gewichtet wurden. Die historischen Bilder weisen weder Rèseaukreuze noch Rahmenmarken auf, so dass auf die Bildecken als Marken zurückgegriffen werden musste. Die Messung erfolgte durch Angabe der Eckkoordinaten, die aus der Bildgröße der Negative berechnet wurden. Dies ist jedoch als Notlösung anzusehen, da die Genauigkeit der photogrammetrischen Auswertung hierdurch empfindlich beeinträchtigt werden kann. Die erste Ecke wird mit der Maus in der Übersicht ausgewählt (siehe Abb.3-10) und dann im Bild gemessen. Mit den anderen Ecken wird genauso verfahren. Auch hier werden Restklaffungen angezeigt, die einen visuellen Eindruck über die Qualität der Messung geben. Im Idealfall sind die Vektoren gleich groß mit unterschiedlicher Ausrichtung. Abbildung 3-10: Dialogfenster zur Rahmenmarkenmessung mit Übersicht zur Lage der Kreuze

60 Messen und Verwalten der Bildpunkte Die Bildpunkte werden mit der Maus in die Bilder gesetzt und erhalten anhand ihrer Position x- und y-koordinaten. Man unterscheidet Passpunkte, die die Verbindung zum Objektkoordinatensystem darstellen, und Neupunkte, welche die Bilder untereinander stabil verketten sollen. Die Bildpunkte müssen in mindestens 2 Bildern gemessen werden, um Strahlenschnitte berechnen zu können. Ist ein Bild im Modus Punktmessung geladen und die Messung unter PHIDIAS > Bildpunkte > Messen aktiviert, können beliebig viele Bildpunkte gemessen werden. Die Messung wird mit der linken Maustaste ausgelöst, direkt im Bild oder im Lupenfenster, mit dem einzelne Bildstellen mit höherer Präzision lokalisiert werden können. (siehe Abb. 3-11) Danach wird über die Tastatur die Bildpunktnummer eingegeben. Wird der Cursor im Ansichtsfenster auf den gewünschten Bildbereich bewegt und die mittlere Maustaste gedrückt, öffnet sich das Lupenfenster, in dem der Bereich vergrößert wird. Befindet sich der Cursor in der Lupe und wird wieder die mittlere Maustaste gedrückt, erscheint ein Fadenkreuz (siehe Abb. 3-11), das auf die gewünschte Position des zu messenden Bildpunktes gebracht werden kann, solange die Taste gedrückt bleibt. Mit der linken Maustaste wird die Messung dann ausgeführt. Im Lupenfenster können noch zusätzliche Einstellungen vorgenommen werden: Der Vergrößerungsfaktor für den Bildausschnitt wird mit Werten zwischen 1 und 8 eingestellt. Mit Hilfe des Gamma - Reglers kann der Härte- bzw. Weichheitsgrad des Bildes eingestellt werden. Ein Gammawert größer als 1.0 erhöht den Kontrast in dunklen Bildbereichen, das Bild wird heller. Ein Wert unter 1.0 erhöht den Kontrast in hellen Bereichen und das Bild wird dunkler. [Handbuch 1] Abbildung 3-11: Lupenfenster

61 50 Als Ergebnis der Messung wird der Bildpunkt mit einem Kreis und der dazugehörigen Punktnummer markiert. (siehe Abb. 3-12) Die Koordinaten werden in der *.bpk - Datei gespeichert. Abbildung 3-12: gemessene Bildpunkte Es ist möglich die Punktmessung Bild für Bild durchzuführen. Aus Gründen der schnellen Wiedererkennung in anderen Bildern kann ein Punkt auch nacheinander in den aktuell geladenen Bildern bestimmt werden. Im Menü PHIDIAS > Orientierung > Mehrbildorientierung > Daten editieren > Bilddaten werden die Bildpunktdaten grafisch sehr anschaulich verwaltet. (siehe Abb. 3-13) Abbildung 3-13: Verwaltung der Bildpunktdaten mit PHIDIAS Im oberen Listenfeld Bilder (siehe Abb. 3-13) werden alle zum Projekt gehörenden Bilder aufgeführt. Zu jedem Bild erfolgt eine Angabe über die Anzahl der aktiven Bildpunkte und der Gesamtanzahl der im Bild gemessenen Punkte.

62 51 Mit einem Doppelklick auf die aktive Zeile im Listenfeld Bilder werden die zugehörigen Daten der Bildpunkte zur Anzeige gebracht. Sie erscheinen in dem Listenfeld Bildpunkte von Bild [Bildnummer] (siehe Abb. 3-13) mit Punktnummer, den Bildkoordinaten und deren Standardabweichungen. Die inaktiven Punkte haben ein Minus in der ersten Spalte. Die Punktverteilung in den einzelnen Bildern wird grafisch visualisiert. Dabei werden aktive Punkte Rot und inaktive Punkte Gelb dargestellt. (siehe Abb. 3-13) Die Daten der Bildpunkte können manuell über den Schalter Bearbeiten (siehe Abb. 3-13) geändert werden. An dieser Stelle können auch die unterschiedlichen Bildmessgenauigkeiten der historischen Bilder (vgl. Tab. 3-1, Abschnitt 3.2.1) als Standardabweichungen berücksichtigt werden. Problematisch wurde die Umsetzung, da nicht jeder Punkt in allen Bildern einzeln angeklickt und die Standardabweichung manuell geändert werden sollte. Eine bildweise Zuordnung ist in PHIDIAS leider nicht möglich. Deshalb wurde die Änderung in der Datei <\historisch.bpk> in einem einfachern Text - Editor vorgenommen Mehrbildorientierung Im Menü PHIDIAS > Orientierung > Mehrbildorientierung > Bündelausgleichung werden die Steuerparameter für die Bündelausgleichung festgelegt. (siehe Abb. 3-14) Abbildung 3-14: Eingabemaske für die Bündelausgleichung

63 52 Grundsätzlich gibt es zwei verschiedene Wege zur Berechnung der Bildorientierung. Eine Möglichkeit ist die automatische Berechnung von Näherungswerten und die anschließende Bündelausgleichung in einem Schritt. (Schalter: Automatische Orientierung) Bei guten Näherungswerten und genügend Passpunkten kann diese Methode bereits beim ersten Versuch erfolgreich sein. Konvergiert die Berechnung nicht, kann die Näherungswertbestimmung in Einzelschritten durchgeführt werden. Dabei werden nacheinander die Schritte relative Orientierung, absolute Orientierung und Einzelbildorientierung abgearbeitet. Bei der relativen Orientierungsberechnung werden die Komponenten des Basisvektors sowie die drei Drehwinkel für jedes Modell bestimmt. Außerdem werden zu jedem Modell so genannte Gütemerkmale gespeichert. Dazu gehören: - Standardabweichung der Gewichtseinheit s Durchschnittlicher Schnittwinkel der Bildstrahlen dw 10gon - Durchschnittliche Klaffung der Bildstrahlen in den Modellpunkten dd Darüber hinaus werden die Bildkoordinaten auf grobe Fehler untersucht und etwaige Ausreißer schrittweise eliminiert. Der Anwender hat hierbei die Möglichkeit zwischen der Berechnung nach der L1- bzw. L2- Norm zu wählen, er kann einzelne Modelle von der Berechnung ausschließen, Nährungswerte manuell vorgeben aber auch einzelne Bildpunkte entfernen. Die zuvor berechneten Gütemerkmale der einzelnen Modelle werden bei der absoluten Orientierung dazu benutzt, eine optimale Berechnungsreihenfolge abzuleiten. Denn oftmals hängt davon das Gelingen der Orientierung ab. Das möglichst beste Modell wird nach diesen Kriterien als Referenzmodell automatisch oder manuell ausgewählt. Ebenso kann die Transformation der anderen Modelle in das Referenzmodell automatisch bzw. manuell durchgeführt werden. Anschließend erfolgt die Transformation des Referenzmodells in das Objektkoordinatensystem. Auch hier können einzelne Modelle gezielt von der Transformation ausgeschlossen werden, Grenzwerte festgelegt und Objektpunkte dauerhaft oder temporär deaktiviert werden. Die Einzelbildorientierung kann mit Hilfe der in der absoluten Orientierung bestimmten Parameter berechnet werden oder durch kombiniertes Vorwärts- und Rückwärtseinschneiden mit Hilfe verhältnismäßig vieler Passpunkte.

64 53 Erstere Strategie erlaubt das manuelle Vorgeben von Näherungswerten (z.b. auch durch das Übernehmen der Orientierungsdaten anderer Bilder), die Suche nach groben Fehlern mit der L1- Norm und das Deaktivieren einzelner Objektpunkte. Verfolgt man die zweite Strategie, beginnt die Näherungswertbeschaffung erst mit dem kombinierten Vorwärts-Rückwärtsschnitt. Hier können Grenzwerte für Rückwärts- und Vorwärtsschnitt festgelegt, die Anzahl der Parameter sowie die Art deren Berechnung (Kleinste- Quadrate-Ausgleichung; Direkte Lineare Transformation) bestimmt werden. Als Anwender benötigt man für diesen detaillierten Berechnungsweg fundiertes Grundwissen und Erfahrung mit der Berechnung von Bündelausgleichungen. Im Folgenden sollen die Mehrbildorientierungen für die historischen und aktuellen Bilder näher erläutert werden: Mehrbildorientierung der aktuellen Messbilder Anzahl der Bilder: 21 Anzahl der Kameras: 2 Anzahl der Passpunkte: 27 Anzahl der Neupunkte: 110 Anzahl der Unbekannten: 456 Anzahl der Bildbeobachtungen: 1120 Redundanz: 664 Gewichtung Die a priori Standardabweichung der Gewichtseinheit s 0, in PHIDIAS bezeichnet als Gewichtskonstante, wurde mit s 0 = 0,020mm festgelegt. Die Messgenauigkeit der Bildkoordinaten wurde für x und y mit s x = s y = 0,020mm abgeschätzt. (vgl. Abschnitt 3.4.6) Die Beobachtungsgewichte der Bildkoordinaten sollten nicht verändert werden, daher wurden die Varianzfaktoren für x und y mit 1,0000 belegt. Da die Passpunkte durch eine 3D-Netzausgleichung Verbesserungen erhielten (siehe Abschnitt 3.3), sollten die Genauigkeiten in die Bündelausgleichung einfließen. Diese weiche Lagerung [Luhmann 2000] lässt PHIDIAS allerdings nicht zu. (siehe auch Abschnitt ) Das bedeutet, dass die Passpunkte fehlerfrei in die Ausgleichung eingehen mussten.

65 54 Parametrisierung Für die verwendeten 50mm- bzw. 120mm-Objektive lagen Kalibrierungsprotokolle vom Hersteller ROLLEI vor. Diese wurden für die Parameter der inneren Orientierungen übernommen, so dass eine Selbstkalibrierung der Kameras nicht notwendig war. Die Ausgleichung sollte anhand von Passpunkten und nicht durch eine freie Netzausgleichung erfolgen, damit die Datumsdefinition gewahrt bleibt. Fehlersuche Die Suche nach groben Fehlern soll durchgeführt werden mit einer maximal zulässigen Anzahl von 30 Ausreißern. Diese sollen automatisch und einzeln eliminiert werden. Die Irrtumswahrscheinlichkeit für den Ausreißertest soll mit a=5% eingehen. Grenzkriterien Die maximale Anzahl der Iterationen wird mit 20 vorgegeben. Konvergiert die Berechnung nach 20 Iterationen nicht bis zu einem Grenzwert dx, wird die Ausgleichung abgebrochen. Dabei stellt die Grenze dx in [mm im Bild] das Abbruchkriterium der Bündelausgleichung dar. Ist der größte Unbekanntenzuschlag bei der Ausgleichung (umgerechnet in das Bildsystem) kleiner als dx, ist das Konvergenzziel erreicht. Der Wert für dx wurde mit 0,005mm im Bild festgelegt. Eine weitere Auswahl in der Eingabemaske (siehe Abb.3-14) besteht in der Benutzung des Banker-Algorithmus [George 1981]. Er wird verwendet, um die Lösung und Inversion der Normalgleichungsmatrix zu beschleunigen. Bei großen Bildverbänden kommt es häufig zu schwach verknüpften Messungen und demzufolge schwach besetzten Matrizen. Mit Hilfe des Algorithmus werden die Nicht-Null- Elemente der Matrix so umsortiert, dass sie möglichst nah an der Diagonalen liegen. In besonderen Fällen kann die Umsortierung Zeit kosten statt sie zu sparen, deshalb besteht die Möglichkeit den Algorithmus abzuschalten. Ergebnisse Die Berechnung der Näherungswerte wurde Schritt für Schritt durchgeführt, um die Funktionen des Programms zu testen und einen Überblick zu erlangen. Die Ergebnisse der Bündelausgleichung können der Datei <AktuellesProjekt\PhidiasMS\aktuell.out> (siehe Anlage C) entnommen werden.

66 55 Die Ergebnisdatei ist in 10 Hauptabschnitte untergliedert: - Steuerparameter - Eingabestatistik - Kameradaten - Orientierungsdaten der Bilder - Passpunkte - Neupunkte - Bildpunkte - Zusatzbeobachtungen - Bildmessgenauigkeiten - Ausreißer Auf die wichtigsten Abschnitte soll im Folgenden näher eingegangen werden: Kameradaten: Da die Selbstkalibrierung ausgeschaltet wurde, gehen die Parameter als feste Größen in die Ausgleichung ein. Ihre Standardabweichungen sind Null, ebenso die Korrelationskoeffizienten. Orientierungsdaten der Bilder: Für jedes Bild werden die ausgeglichenen Parameter der äußeren Orientierung mit der zugehörigen Standardabweichung und dem Zuschlag gegenüber dem Näherungswert angegeben. Die Standardabweichungen in den Koordinaten X 0, Y 0, Z 0 der jeweiligen Projektionszentren liegen im Bereich weniger Millimeter, die der Drehwinkel deutlich unter 1gon. Neupunkte: Zur Beurteilung der ausgeglichenen Objektpunkte stehen die Standardabweichungen der einzelnen Punkte in den Koordinatenrichtungen zur Verfügung. Allerdings fehlt eine Angabe über die mittleren Standardabweichungen s. Diese wurden nachträglich berechnet, um eine allgemeingültige Aussage treffen zu können. s x = ±0,0031m, s y = ±0,0037m, s z = ±0,0023m Mit Hilfe der Formel (3.2) lässt sich die Beziehung zur Genauigkeitsabschätzung überprüfen. Mit einer geschätzten Bildmessgenauigkeit von 20µm und einem mittleren Bildmaßstab m b = 90 (siehe Abschnitt 3.2.2) ergibt sich eine Auflösung am Objekt von ± 0,0018m. Diese Genauigkeit wird von den Neupunkten nicht ganz erreicht. Eine mögliche Ursache dafür kann sein, dass die Passpunkte als fehlerfreie Größen eingeführt worden sind. Ihre Fehler verteilen sich nun auf die Koordinaten der Neupunkte.

67 56 Die Standardabweichungen an den einzelnen Punkten liegen im erwarteten Bereich weniger Millimeter. Von den 110 Neupunkten haben 5 eine Abweichung in einer Koordinatenrichtung von ±0,010m. Die maximale Standardabweichung hat der Punkt 458 mit s y = ±0,017m. Die Restklaffungen einzelner Objektpunkte zeigen, mit welchem Genauigkeitsverlust an problematischen Punkten oder ungünstigen Bereichen des Bildverbandes zu rechnen ist. Die Ausgleichung unter Zwang kann ein Grund für diese Abweichungen sein. Denn etwaige Spannungen im Passpunktfeld fließen in die Genauigkeit der Objektpunkte mit ein. Bildpunkte: Die ausgeglichenen Bildkoordinaten werden mit ihren Verbesserungen (Residuen) und den Testgrößen aus dem Ausreißertest angegeben. Die Genauigkeiten der Bildkoordinaten werden anhand der Formel (3.17) berechnet. Sie werden bildweise aufgelistet mit einer Angabe über die jeweils größte Abweichung in x - bzw. y - Richtung. Diese liegen deutlich unter 0,1mm. Im nächsten Abschnitt lässt sich eine Aussage über die Messgenauigkeit im gesamten Projekt treffen. Bildmessgenauigkeiten: Die durchschnittlichen bildbezogenen Koordinatenmessgenauigkeiten sollten in x - bzw. y - Richtung identisch sein. Sie liegen bei: = 0,0266mm, = 0,0217mm s x ' ± s y ' ± Die Werte liegen im Bereich der geschätzten Bildmessgenauigkeit, die Differenz von etwa 0,0049mm zwischen s x' und s entspricht am Objekt etwa 0,5mm. Dieser geringe y' Unterschied kann durchaus zu den zufälligen Fehlern gerechnet werden. Bei der Beurteilung der Genauigkeit ist außerdem die begrenzte Messgenauigkeit der natürlich festgelegten Punkte zu berücksichtigen. Eine Messung mit signalisierten Punkten hätte zu einem besseren Ergebnis geführt. Die durchschnittlichen Redundanzanteile der Bilder ergeben in der Summe die vor der Ausgleichung bestimmte Gesamtredundanz aus der Anzahl der Beobachtungen und Unbekannten. Diese Kontrolle bedeutet für die Ausgleichung, dass keine sehr großen Ausreißer mehr in den Beobachtungen vorliegen und das System keinen Rangdefekt aufweist. Ein Vergleich der Standardabweichungen a priori und a posteriori zeigt, das die angesetzte Standardabweichung den tatsächlichen Messgenauigkeiten sehr nahe kommt. Standardabw.: s 0 [ mm] s x [ mm ] [ mm] a-priori: a-posteriori: s y

68 57 Anhand der Qualitätskriterien von PHIDIAS lässt sich die innere Genauigkeit der photogrammetrischen Auswertung beurteilen. Um eine Aussage über die äußere Genauigkeit der Auswertung treffen zu können, wurden 72 Passpunkte 6 als Neupunkte eingeführt. Durch die Ausgleichung erhielten diese Punkte neu berechnete Objektkoordinaten, die nun mit den geodätisch gemessenen Koordinaten verglichen werden konnten. Durch diese unabhängige Kontrolle können sämtliche Eigenschaften des photogrammetrischen Systems sichtbar und eine durchgreifende Genauigkeitsaussage möglich gemacht werden. Die Genauigkeit der Passpunktkoordinaten beträgt ± 1cm (vgl. Abschnitt 3.3). Deshalb wurden Koordinatenunterschiede, die deutlich größer als 1cm waren, in der Datei <AktuellesProjekt\VergleichNP-PP.xls> (siehe Anlage C) rot markiert. Von den 12 Punkten erschienen jedoch nur zwei (Punktnummern 211 und 318) als bedenklich. Eine Abweichung in dieser Größenordnung lässt darauf schließen, dass die Punkte falsch im Bild gesetzt wurden. An diesen Stellen kann es zu einem Genauigkeitsverlust kommen Mehrbildorientierung der historischen Bilder Die photogrammetrische Mehrbildorientierung der historischen Bilder hat einige Probleme bereitet. Das erste Problem bestand in der Datumsfestlegung. Da eine Passpunktmessung oder das Messen einer Objektstrecke rückwirkend nicht möglich war und für eine Ausgleichung von 15 Bildern mit 8 bis 15 unbekannten Kameras (vgl. Abschnitt 3.4.4) viele Beobachtungen benötigt worden wären, sollten die Passpunkte des aktuellen Projektes erst einmal übernommen werden. Auch wenn das bedeutete, Abstriche in der Genauigkeit hinnehmen zu müssen. Die gleichzeitige Berechnung aller 15 Bilder führte erwartungsgemäß zu keinem Ergebnis. Deshalb wurde als erstes versucht, eine Ausgleichung von 3 Bildern vorzunehmen. Die berechneten Parameter wurden mit PHIDIAS > Orientierung > Ergebnisse übernehmen (siehe Abb. 3-15) als neue Näherungswerte festgelegt. Anschließend sollte immer ein Bild zur Berechnung hinzugefügt werden, bis alle in den Bildverband eingegliedert sind. Diese Prozedur wurde in verschiedenen Variationen durchgeführt. Eine Konvergenz mit allen Bildern wurde allerdings nie erreicht. 6 Von den 110 Neupunkten sind 72 geodätisch bestimmt.

69 58 Abbildung 3-15: Übernahme der Ergebnisse für die Auswertung bzw. für eine erneute Ausgleichung mit verbesserten Näherungswerten Das kann verschiedene Gründe haben. Zum einen konnte die Divergenz durch zu viele unbekannte Parameter verursacht worden sein. Andererseits spielt die große Anzahl der Kameras eine entscheidende Rolle. Wenn für jedes Bild eine eigene Kamera definiert wird, kommt es zu einer starken Korrelation zwischen innerer und äußerer Orientierung bezüglich eines Bildes. Die Verschiebung des Bildhauptpunktes H einiger Bilder führt möglicherweise dazu, dass die Kamera relativ zum Bild verschoben wird, so dass H im Bildmittelpunkt liegt. Die Aufnahmesituation eines einzelnen Bildes kann so wiederhergestellt werden. Es entspricht jedoch nicht der realen Situation, so dass im Bildverband die Strahlenbündel nicht zusammenpassen bzw. eine Auflösung der Normalgleichungen nicht erreicht wird. Da die Ausgleichung mit PHIDIAS zu keinem Ergebnis führte, wurde eine externe Berechnung mit dem Programm IMBUN [Wiedemann u.a. 2001] durchgeführt. Dieses Programm wurde im Zuge der Rekonstruktion des Berliner Stadtschlosses entwickelt [Wiedemann u.a. 2000], wofür historische Aufnahmen mit unbekannten inneren und äußeren Orientierungen verwendet wurden. Es ermöglicht, jeden Parameter einzeln als feste Größe oder als Beobachtung mit einer Standardabweichung einzuführen. Gleich bleibende Parameter einer Kamera können so als feste Größen definiert werden, die Veränderlichen (z.b. Bildhauptpunkt) als Beobachtungen. Für Letztere sind jedoch gute Startwerte notwendig.

70 59 Das Nacheinanderhinzufügen von Bildern in den Gesamtverband kam hier mit 15 Kameras zu einer Lösung. (siehe <HistorischesProjekt\Imbun\hist.lis>, Anlage C) Anschließend wurde nach Ähnlichkeiten gesucht, um evt. Kameras zusammenfassen zu können. Für die verwendeten Bilder bedeutet das: Quelle [D]: Für die 6 Bilder wurde jeweils eine Kamera definiert, wegen einer möglichen Verschiebung der Bildhauptpunktlage. Die Koordinaten ( x ' H ; y ' H ) wurden als Beobachtungen mit Näherungswerten eingeführt, ebenso die Kammerkonstanten und Verzeichnungen. Quelle [F]: Für die 4 Bilder konnte eine Kamera definiert werden, da die Kammerkonstanten ähnlich groß und die Bildhauptpunktlage näherungsweise dem Bildmittelpunkt entsprach. Quelle [P]: Die Kammerkonstanten waren zu unterschiedlich, so dass man die Kameras nicht zusammenfassen konnte. Das bedeutet, für jedes der 5 Bilder wurde eine eigene Kamera definiert. Das Ergebnis dieser Berechnung (siehe <HistorischesProjekt\Imbun\hist2.lis>, Anlage C) wurde als Grundlage für die weitere Berechnung mit PHIDIAS benutzt. Die Kameraparameter wurden als feste Größen in PHIDIAS übertragen, d.h. die Bündelausgleichung wurde ohne Selbstkalibrierung noch einmal berechnet. Außerdem konnten die äußeren Orientierungen aus den Berechnungen mit IMBUN und PHIDIAS zur Kontrolle miteinander verglichen werden. Die Projektionszentren konnten dabei direkt gegenübergestellt werden, die Drehwinkel wurden vom (ω, ϕ, κ ) - System 7 von PHIDIAS in das (α, ν, κ ) - System von IMBUN transformiert. Die Ergebnisse können unter <HistorischesProjekt/VergleichÄO.xls> (siehe Anlage C) eingesehen werden. Die Abweichungen geben Auskunft über die Genauigkeit der verschiedenen Berechnungsmethoden. Man kann jedoch keine Aussage darüber machen, welches Programm die besseren Ergebnisse liefert. Auf die endgültige Ausgleichung und die Ergebnisdatei soll im Folgenden näher eingegangen werden: (siehe <HistorischesProjekt\PhidiasMS\historisch.out>, Anlage C) Anzahl der Bilder: 15 Anzahl der Kameras: 12 Anzahl der Passpunkte: 23 Anzahl der Neupunkte: 63 Anzahl der Unbekannten: 279 Anzahl der Bildbeobachtungen: 594 Redundanz: Entspricht der gleichen Rotation, die das Programm CUBA verwendet [Wiedemann u.a. 2001]

71 60 Gewichtung Die a priori Standardabweichung der Gewichtseinheit wurde mit s 0 = 0,020mm festgelegt. Die unterschiedlichen Messgenauigkeiten (vgl. Tab. 3-1, Abschnitt 3.2.1) der Bildkoordinaten wurden in der Datei historisch.bpk eingetragen. [A]: s x = s y = 0,011mm [B]: [C]: s x ' = s y' = 0,016mm s x ' = sy' = 0,042mm Die Beobachtungsgewichte der Bildkoordinaten sollten nicht verändert werden, daher wurden die Varianzfaktoren für x und y mit 1,0000 belegt. Die Passpunkte gehen fehlerfrei in die Ausgleichung ein. Parametrisierung Die extern bestimmten Kameraparameter wurden als feste Größen eingeführt, d.h. eine Selbstkalibrierung wurde nicht durchgeführt. Um einen geometrischen Vergleich zwischen dem historischen und dem aktuellen Projekt herstellen zu können, wurden zur Datumsfestlegung wieder Passpunkte verwendet. Eine freie Netzausgleichung wurde demzufolge abgelehnt. Fehlersuche und Beendigungskriterien Die Einstellungen für die Suche nach groben Fehlern und für den Abbruch der Ausgleichung wurden aus dem aktuellen Projekt übernommen. Ergebnisse Kameradaten: Da die Selbstkalibrierung ausgeschaltet wurde, gehen die Parameter als feste Größen in die Ausgleichung ein. Ihre Standardabweichungen sind Null ebenso die Korrelationskoeffizienten. Die Warnung, dass die Koordinaten der Bildhauptpunkte sehr groß seien, zeigt, dass PHIDIAS eine Verschiebung des Bildhauptpunktes nicht berücksichtigt. Orientierungsdaten der Bilder: Die Standardabweichungen in den Koordinaten X 0, Y 0, Z 0 der jeweiligen Projektionszentren liegen im Bereich weniger Zentimeter, die der Drehwinkel unter 1gon, außer in den Bildern Nummer 4 und 9. Neupunkte: Die mittleren Standardabweichungen der Neupunkte in den Koordinatenrichtungen betragen s x = ±0,0070m, s y = ±0,0109m, s z = ±0,0034m.

72 61 Ursache für die großen Koordinatenunterschiede kann die Art der Rahmenmarkenmessung (siehe Abschnitt 3.4.6) sein. Durch die alleinige Messung der Bildecken können Deformationen, die z.b. durch die Vergrößerung als Positiv und bei der Digitalisierung der Papierabzüge entstehen können, nicht berücksichtigt werden. In den Bildern können also systematische Fehler enthalten sein, was an den unterschiedlichen Genauigkeiten in den Koordinatenrichtungen zu sehen ist. Des Weiteren muss berücksichtigt werden, dass die Passpunkte aus dem aktuellen Projekt übernommen worden sind und sich die dadurch entstandenen Ungenauigkeiten auf die Neupunkte fortpflanzen können. Betrachtet man die Standardabweichungen der einzelnen Neupunkte, kann man sehen, dass der Großteil der Genauigkeiten in den Koordinatenrichtungen mit problematischen Abweichungen mit einem Schwerpunkt in y-richtung. 1cm ist. Insgesamt sind es 6 Punkte Diese Restklaffungen zeigen mit welchem Genauigkeitsverlust in diesen Bereichen des Bildverbandes zu rechnen ist. Bildpunkte: Die maximalen Verbesserungen der ausgeglichenen Bildkoordinaten liegen deutlich unter 0,1mm. Bildmessgenauigkeiten: Die durchschnittlichen bildbezogenen Koordinatenmessgenauigkeiten liegen in x - bzw. y - Richtung bei identisch. = 0,0330mm und = 0,0359mm. Sie sind nahezu s x ' ± s y ' ± Die durchschnittlichen Redundanzanteile der einzelnen Bilder ergeben in der Summe die vor der Ausgleichung bestimmte Gesamtredundanz aus der Anzahl der Beobachtungen und Unbekannten. Ein Vergleich der a priori und a posteriori Standardabweichungen zeigt, dass es eine Abweichung zu der angesetzten Messgenauigkeit gibt. Für das Orientierungsergebnis ist jedoch weniger die absolute Höhe, als das Verhältnis der Standardabweichungen zueinander von Bedeutung. Das ist für s 0, s x' und s y' in etwa gleich. Standardabw.: s 0 [ mm] [ mm] s ` x' s y ' [ mm] a-priori: a-posteriori: Verhältnis: 1: :1,909 1:1,994

73 62 Die Abweichung zwischen den abgeschätzten und tatsächlichen Messgenauigkeiten kann folgende Ursachen haben. Zum einen spielen die Passpunkte eine entscheidende Rolle, welche nicht direkt am (historischen) Objekt gemessen wurden und als Fehler behaftete Größen fehlerfrei in die Ausgleichung eingingen. Zum anderen war die genaue Positionierung der Bildpunkte durch die teilweise schlechte Qualität der auszuwertenden Bilder beeinträchtigt. Die abgeschätzte Genauigkeit der Bildkoordinatenmessung anhand der Pixelgrößen spiegelt auch eher das Genauigkeitsverhältnis der unterschiedlichen Bilder zueinander wieder als die wahre Messgenauigkeit. Zu berücksichtigen ist außerdem die Genauigkeit der Rahmenmarkenmessung, die sich auf die Bildmessgenauigkeit auswirkt und wie bereits erwähnt nicht sehr genau war Nachtrag zur Benutzung von PHIDIAS Nach Rücksprache mit Herrn Effkemann von PHOCAD konnten einige Bedienungsfehler bei der Mehrbildorientierung mit PHIDIAS aufgedeckt werden. Diese wurden erst festgestellt als die Testversion für eine Überarbeitung nicht mehr zur Verfügung stand. Um trotzdem eine Aussage über die Auswirkungen auf das Ergebnis treffen zu können, wurden von Herrn Effkemann einige exemplarische Berechnungen durchgeführt. Zum einen konnten Passpunkte nur als feste Größen definiert werden. Es ist jedoch möglich, sie in einem bestimmten Rahmen als bewegliche Punkte einzuführen. Die Passpunkte werden dafür nicht als solche sondern als Neupunkte deklariert. Unter PHIDIAS > Mehrbildorientierung > Daten Editieren > Zusatzbeobachtungen werden die Direktbeobachtungen als Zusatzbeobachtungen formuliert und mit einer Standardabweichung versehen. Um die Auswirkungen dynamischer Passpunkte auf das Ergebnis beurteilen zu können, wurden von Herrn Effkemann exemplarisch drei verschiedene Varianten berechnet. Anhand der mittleren Bildmessgenauigkeiten kann man eine Aussage über den Einfluss der Passpunktdefinition machen: Ausgleichung mit festen Passpunkten: (Aktuell_Normal.out) s 0 = 0,020, s x ' = 0, 017, 0, 0012 s y ' = Freie Netzausgleichung: (Aktuell_FreiesNetz.out) s 0 = 0,020, s x ' = 0, 011, 0, 010 s y ' = Ausgleichung mit dynamischen ( ± 3mm ) Passpunkten: (Aktuell_ DynamischePasspunkte.out) s 0 = 0,020, s x ' = 0, 011, 0, 010 (siehe <NachtragPhocad>, Anhang C) s y ' =

74 63 Wird die Genauigkeit der Passpunkte bei der Ausgleichung berücksichtigt, verbessern sich die Bildmessgenauigkeiten geringfügig. Auch die Koordinaten der Neupunkte ändern sich nur um wenige Millimeter. Da bei der Berechnung von Herrn Effkemann die Selbstkalibrierung und die Varianzkomponentenschätzung eingeschaltet war, ließen sich die Ergebnisse nicht direkt mit dem ursprünglichen Ergebnis (siehe <AktuellesProjekt\PhidiasMS\Aktuell.out>, Anlage C) vergleichen. Im gleichen Menü wie die Passpunkte können auch die Kameradaten und die äußeren Orientierungsdaten mit einer Standardabweichung versehen werden. Bei der Bündelausgleichung der historischen Bilder wären dadurch bessere Möglichkeiten der Berechnung durchführbar gewesen. Ob PHIDIAS so zu einem Ergebnis gekommen wäre, ist jedoch weiterhin fraglich, da für alle Parameter einer Kamera nur ein Gewicht definiert werden kann. Das Problem der Bildhauptpunktverschiebung besteht weiter. Die Definition der Eingabeparameter als Beobachtungen konnte im Menüpunkt Zusatzbeobachtungen vorgenommen werden. Im Dialogfenster des Menüpunktes PHIDIAS > Orientierung > Mehrbildorientierung > Daten editieren werden die verschiedenen Parameter unterteilt. (siehe Abb. 3-16) Abbildung 3-16: Editierbare Daten Unter Bilddaten werden die einzelnen Koordinaten hinzugefügt, editiert und auch die Standardabweichungen der Bildkoordinaten eingetragen. (vgl. Abschnitt 3.4.7) Die Kamera- und Objektdaten werden dagegen im jeweiligen Menüpunkt Kameradaten bzw. Objektdaten lediglich hinzugefügt und verändert. Die dazugehörigen Standardabweichungen sollen jedoch unter Zusatzbeobachtungen eingegeben werden. Da die Daten bereits existieren, ist ein zusätzlicher Menüpunkt mit dem Namen Zusatzbeobachtungen eher verwirrend. Darunter wurden lediglich zusätzliche Streckenmessungen vermutet. Eine Bearbeitung der Daten in einem Untermenü wäre übersichtlicher oder wenigstens ein Hinweis im entsprechenden Untermenü auf die Zusatzbeobachtungen wäre in der sonst selbsterklärenden Menüführung wünschenswert gewesen.

75 64 Ein weiteres Problem bestand im Umgang mit den Möglichkeiten der Réseaukreuzmessung. (siehe Abschnitt 3.4.6) Verwendet wurde die Definition einer Réseaudatei mit vorgegebenen Werten für die einzelnen Marken. In diesem Fall wurden die Restklaffungen nicht abgespeichert und nicht zur Korrektur der Messungen verwendet. Besser wäre es gewesen, den Menüpunkt Regelmäßiges Réseau zu wählen und einen regelmäßigen Abstand der Kreuze von 5mm vorzugeben statt der kalibrierten Werte des Herstellers. Dann wären die Restklaffungen an den Marken abgespeichert und als Korrektur angebracht worden. So lässt sich auch eine Aussage über die mittlere Bildmessgenauigkeit treffen. Herr Effkemann führte eine Messung in fünf Bildern mit Regelmäßigem Réseau durch. (siehe <NachtragPhocad\Aktuell.res>, Anlage C) Die durchschnittlichen Restklaffungen lagen danach bei 0,010mm. Das entspricht einer mittleren Korrektur im Bild von 1 Pixel.

76 Mehrbildauswertung Auswerteprinzip Die Mehrbildauswertung in PHIDIAS beginnt mit dem Laden der Bilder in den Auswertemodus. (vgl. Abschnitt 3.4.5) Das zu messende Detail muss zunächst in mindestens zwei Bildern lokalisiert werden. Danach wird mit Hilfe der Zeichenbefehle von MICROSTATION z.b. eine gerade Linie durch Messen des Anfangs- und Endpunktes grafisch über das Bild gelegt. Soll eine geradlinige Kontur einer Objektkante durch eine Linie beschrieben werden, wird zunächst der Anfangspunkt in mindestens zwei Bildern gemessen. Dazu wird der entsprechende Bildausschnitt in dem ersten Bild mit dem Lupenfenster vergrößert. (siehe Abb. 3-17) Abbildung 3-17: Vergrößerung des Bildausschnittes, in dem ein Punkt gemessen werden soll In diesem kann der Anfangspunkt anschließend mit dem Fadenkreuzcursor lokalisiert und mit einem Datenpunkt (linke Maustaste) gesetzt werden. Nachdem der Punkt auch in den anderen Bildern gemessen wurde, erfolgt durch PHIDIAS die Berechnung der dreidimensionalen Objektkoordinaten des Anfangspunktes durch Vorwärtsschnitt.

77 66 Als Ergebnis wird in der Statusleiste die maximale Klaffung der Bildstrahlen angezeigt und die Linie wird mit ihrem Anfangspunkt in den grafischen Datenbestand der Zeichnung und zur Darstellung in MICROSTATION übergeben. Der Endpunkt der Linie hängt bis zu seiner Messung am Cursor fest. (siehe Abb. 3-18) Abbildung 3-18: Ergebnis der Messung des Anfangspunktes Der Endpunkt wird ebenfalls in mehreren Bildern gemessen und anschließend berechnet, so dass die Linie gezeichnet werden kann. Sie wird dann in allen Ansichtsfenstern dargestellt. (siehe Abb. 3-19) Abbildung 3-19: Ergebnis der Messung der Linie

78 Herangehensweise und Probleme Im Hinblick auf die Weiterarbeit mit dem fertigen 3D-Modell musste ein günstiges Darstellungsprinzip gewählt werden. Da im Anschluss an die Auswertung Methoden der Visualisierung untersucht werden sollten und dem entsprechend Texturen benötigt würden, musste das Modell aus einzelnen Flächen oder Körpern bestehen. (vgl. Abschnitt 2.3.4) Die Wahl fiel auf die so genannte Randdarstellung, so dass das Modell des Grabmals aus einzelnen Oberflächen zusammengesetzt ist. Zu den Gründen ist Folgendes zu sagen: - Die Darstellung eines Körpers mit CAD-Funktionen ist an sich nicht schwierig. Da das eigentliche Zeichnen des Körpers aber im Zusammenhang mit dem Messen markanter Punkte in mehreren Bildern steht, erweist sich diese Darstellungsmethode als sehr umständlich und schwierig zu realisieren. Noch dazu ist das Grabmal sehr detailliert, würde also aus vielen kleinen Einzelkörpern bestehen. - Eine Auswertung mit Flächen ist vollkommen ausreichend. Sie kann durch das Messen einzelner Punkte erfolgen, die durch Linien verbunden werden. (siehe Abschnitt ) Diese wiederum können zu Flächen zusammengeschlossen werden. Aktuelles Projekt Bei der photogrammetrischen Auswertung des Grabmals mit Hilfe der aktuellen Messbilder wurde ähnlich der Planung eines Gebäudes mit dem Messen des Grundgerüstes begonnen. Vom Grund aufwärts wurden zuerst die geometrisch leicht beschreibbaren Formen ausgewertet. Dazu gehören die ebenen rechteckigen Flächen, die sich aus waagerechten und senkrechten Geraden zusammensetzen. Mit zunehmender Erfahrung im Umgang mit den CAD-Funktionen wurden auch räumliche Flächen konstruiert. Im Folgenden soll auf einige ausgewählte Details näher eingegangen werden, um den Umfang der Auswertung zu verdeutlichen. - Die Auswertung der ionischen Säulen in der Säulenapsis beschränkte sich auf das photogrammetrische Ausmessen der Plinthe (Standplatte der Säule) und des Abakus (das Kapitell abschließende Platte). Damit konnte die Mittelachse bzw. der Mittelpunkt der Querschnittsfläche der Säule konstruiert werden. (siehe Abb. 3-20)

79 68 Die durch Stege getrennten Kanneluren wurden im Grundriss mit Hilfe von Kreisbögen konstruiert. Da der Radius selbst nicht gemessen werden konnte, wurde dieser durch die Skalierungsfunktion solange verändert bis die Überlagerung mit den Bildern eine gute Übereinstimmung ergab. Abbildung 3-20: Grundriss einer ionischen Säule Die Oberfläche des Kapitells wurde mit Hilfe der Rotation eines Profils um eine Achse erzeugt. Als Rotationsachse diente die Mittelachse der Säule. Die Schwierigkeit bestand jedoch in der Erstellung eines Profils. Da es nicht möglich ist, einen Kantenpunkt auf einer gleichmäßig gekrümmten Fläche in mehreren Bildern (mit unterschiedlichen Ansichten) zu messen, wurde das Profil in einem einzigen Bild gezeichnet. Die Kontrolle lieferten einerseits die Konturen der Rotationsfläche überlagert mit anderen Bildern, aber auch eine gerenderte Ansicht. (siehe Abb. 3-21) Abbildung 3-21: Bild einer ionischen Säule (Links) mit Konturen überlagert (Mitte) und gerendert (Rechts) - Ein anderes Problem bestand in der fehlenden Rundumsicht des gesamten Objektes. Obwohl die hohe Anzahl von 21 Bildern viele Bereiche abdeckte, gab es Teilstücke die nicht gemessen werden konnten. Das lag zum einen daran, dass Teilbereiche nicht fotografisch festgehalten werden konnten. Das betraf die Draufsicht und einen Großteil der Rückansicht, die durch eine ca. 1,5m hohe Mauer verdeckt war. Andererseits standen keine bzw. zu wenig Aufnahmen vom Innenbereich der Apsis sowie der Ecken im Innenbereich des Grabfeldes zur Verfügung. Um trotzdem eine genaue Auswertung zu erreichen, wurden Parallelitäten und die Überlagerung der Linien mit den Bildern ausgenutzt, aber auch zusätzlich Messungen mit einem Bandmaß direkt am Objekt durchgeführt.

80 69 - Eine weitere Herausforderung stellte die Modellierung der Gesimse dar. (siehe Abb. 3-22) Die waagerechten Kanten wurden photogrammetrisch gemessen und hinsichtlich ihrer Parallelität überprüft. Dabei wurde festgestellt, dass die Auswertung bei diesen geringen Tiefenunterschieden der einzelnen Kanten an ihre Genauigkeitsgrenzen geht. Die Ursachen dafür liegen in der Genauigkeit des Modells von ca. 1cm begründet sowie im teilweise geringen Bildkontrast und der Überschattung der Kanten. Deshalb wurden die Höhen- und Tiefenunterschiede der treppenförmigen Abstufungen an verschiedenen Stellen gemessen und die Maße gemittelt. Eine Kontrolle konnte durch die Überlagerung der Linien mit den Bildern durchgeführt werden. Abbildung 3-22: Modellierung des Gesims - Die Auswertung jedes Elementes des detailreich gegliederten Friesbandes (siehe Abb. 3-23) wäre sehr aufwendig gewesen. Da sich die Elemente in regelmäßigen Abständen wiederholen, wurde jedes Element an 2 bis 3 gut sichtbaren Stellen photogrammetrisch ausgewertet, die Maße gemittelt und anschließend die Konturen gruppiert, so dass diese zusammenhängend kopiert und an anderer Stelle wieder eingefügt werden konnten. Abbildung 3-23: Friesband des Grabmals

81 70 - Die dreidimensionale Auswertung der zahlreichen Ornamente sowie der Statue (siehe Abb. 3-24) waren mit dem hier benutzten Verfahren nicht möglich. Die Methoden der stereoskopischen Auswertung oder des Laserscanning wären bessere Alternativen für eine genaue Auswertung gewesen. Für eine vollständige Dokumentation wurden die Schmuckelemente wenigstens angedeutet. Dazu wurde jeweils ein Bild mit der günstigsten Ansicht (im Idealfall senkrecht) gewählt, eine senkrechte Ebene definiert und in dieser zweidimensional ausgewertet. Dabei wurde kein Wert auf geschlossene Flächen gelegt. Im gerenderten Bild bleiben so die Konturen erhalten. Abbildung 3-24: verschiedene Ornamente und Statue - Mit Zunahme der ausgewerteten Konturen überlagerten sich die Linien immer mehr. Eine Unterscheidung wurde immer schwieriger (siehe Abb. 3-27) Aus diesem Grund gab es die Möglichkeit die Auswertung in verschiedenen Zeichenebenen durchzuführen. Ebenen, die nicht gebraucht wurden, konnten zeitweise ausgeschaltet werden. (siehe Abb. 3-25) Von den insgesamt 63 zur Verfügung stehenden Ebenen sind die weißen belegt, die grauen leer. Schwarz unterlegte Ebenen sind aktiviert, d.h. sie sind in den Ansichtsfenstern sichtbar. Die mit einem schwarzen Kreis unterlegte Ebene ist die momentane Zeichenebene. Abbildung 3-25: Ebenenverwaltung mit Microstation/J

82 71 historisches Projekt Die orientierten 15 Aufnahmen hatten eine deutlich schlechtere Bildqualität als die aktuellen Messbilder und deckten viel weniger Bereiche des Objektes ab. Eine Auswertung in der gleichen Genauigkeitsordnung wäre daher nicht möglich gewesen. Außerdem hätte die vorgegebene Zeit nicht ausgereicht. Deshalb wurde das historische Projekt nicht photogrammetrisch ausgewertet. Es sollte jedoch eine Schadenskartierung durchgeführt werden. Deshalb wurde versucht, dass 3D-Modell des aktuellen Projektes (siehe Abb. 3-27) mit den historischen Bildern zu überlagern. Da in der Bündelausgleichung die gleichen Passpunkte wie im aktuellen Projekt verwendet wurden, lag das gleiche lokale Koordinatensystem als Grundlage vor, so dass eine lagerichtige Einpassung der Zeichnungsdatei möglich war. Die Überlagerung der Linien mit den historischen Bildern ergab gute Übereinstimmungen, deshalb wurde im Folgenden das Modell zur Dokumentation der Schäden verändert. Dabei wurde in den Bildern nicht photogrammetrisch gemessen. (siehe <Historisches Projekt\ Drahtmodell\>, Anhang C) Es wurden dennoch verschiedene Methoden zur Darstellung der Schäden angewandt. Diese sollen kurz erläutert werden. - Dabei handelt es sich einerseits um die Darstellung von Rissen anhand von Linien, welche in ebenen oder räumlichen Flächen liegen können. (siehe Abb. 3-26) Handelte es sich um Risse in ebenen Flächen, wurde ein zweidimensionales Hilfskoordinatensystem definiert, so dass direkt in der Fläche gezeichnet werden konnte. Bei gekrümmten Flächen gestaltete sich das etwas schwieriger. Zuerst wurde ein ebenes Koordinatensystem möglichst senkrecht zur entsprechenden Fläche definiert und darin die Risse anhand von Linien festgehalten. Anschließend wurden diese senkrecht auf die räumliche Fläche projiziert. - Die Darstellung von Schäden, die innerhalb einer Fläche in die Tiefe gehen, wurde generalisiert, indem die Schadensstelle mit Linien umrandet und zu einer Fläche zusammengefügt wurde. Dadurch ist der Schaden nur oberflächlich sichtbar. (siehe Abb. 3-26)

83 72 Da eine gerenderte Darstellung von zwei übereinander liegenden Flächen nicht eindeutig ist, musste die Schadensfläche aus der ursprünglichen Fläche ausgeschnitten werden, so dass diese an der Stelle der Schadensfläche ein Loch hat. - Eine weitere Methode bestand in der Darstellung von abgebrochenen Ecken oder fehlenden Teilen des Objektes. Diese wurden aus dem Modell entfernt bzw. Bruchstellen wurden zu neuen Flächen zusammengeschlossen. Um eine Veränderung an den Flächen vornehmen zu können, mussten diese zuerst aufgelöst werden, die Linien verändert und wieder zu Flächen zusammengefügt werden. Abbildung 3-26: umrandete Schadensstellen (Links) nur flächig sichtbar (Rechts) Um Verwechslungen bzw. unnötige Veränderungen im Modell zu vermeiden, wurden die betroffenen Flächen jeweils in eine neue Ebene verschoben, dort verändert und wieder zurückbewegt. Zur Genauigkeit der Darstellung ist zu sagen, dass die Schadensflächen in ihrer Lage und Oberflächenform ausreichend für die Planung einer Sanierung dokumentiert wurden, anhand derer der Umfang der Restaurierungsarbeiten, sowie die Kosten an Material und Zeit abgeschätzt werden können.

84 Ergebnis Das Ergebnis der Mehrbildorientierung ist ein 3D-Drahtmodell (siehe Abb. 3-27), das die Konturen des Grabmals darstellt. Die geometrischen Daten des aktuellen bzw. des historischen Projektes sind jeweils in der Zeichnungsdatei (*.dgn) abgespeichert. (siehe <\Drahtmodell>, Anhang C) Das Modell kann nun losgelöst von der Photogrammetrieapplikation PHIDIAS weiter bearbeitet werden. (vgl. Abschnitt 3.5) Abbildung 3-27: eine Ansicht des 3D-Drahtmodell des aktuellen Projektes

85 Visualisierung der Ergebnisse Die bisherigen Ergebnisse umfassen gesammelte und selbst erstellte Fotografien, ein maßstäbliches 3D-Modell des aktuellen Zustandes des Grabmals sowie eine Dokumentation der aufgetretenen Schäden seit seiner Erbauung. Daraus ergeben sich verschiedene Möglichkeiten der Visualisierung, die die Geschichte des Grabmals bis zum heutigen Zeitpunkt für die Zukunft dokumentieren Realistische Darstellung des 3D-Modells Eine möglichst realistische Darstellung des Grabmals konnte durch Texturierung und die entsprechende Beleuchtung des Modells erreicht werden. (vgl. Abschnitt 2.4.2) Dazu wurden die Funktionen von MICROSTATION benutzt. Abbildung 3-28: realistische Darstellung des 3D-Modells in MICROSTATION Zur Darstellung der Oberflächen sollte die Originaltextur des Grabmals mit Hilfe ausgewählter Texturbilder verwendet werden. Dafür wurden Aufnahmen auf einem Stativ mit der Digitalkamera Olympus Camedia C-900 Zoom gemacht. Mit einer Pixelauflösung von ( ) wurden die Bilder unkomprimiert im *.tif - Format gespeichert. (siehe <\Texturiertes Modell\Texturen\>, Anhang C) Es wurden Senkrechtaufnahmen von den Grabtafeln und Grabsteinen gemacht sowie Nahaufnahmen der unterschiedlich farbigen verputzten Flächen, der Grabsockel, dem Boden (Mulch, Kopfsteinpflaster) und dem Dach.

86 75 Die Bilder der Grabsteine und Grabtafeln wurden auf die Größe der entsprechenden Flächen angepasst, in MICROSTATION als Material definiert und der Fläche zugewiesen. Dabei war zu beachten, dass in jeder Zeichenebene nur ein Material zugewiesen werden konnte, so dass jedes Grabfeld in eine neue Ebene verschoben wurde. Die Nahaufnahmen, welche lediglich Ausschnitte der gesamten Textur wiedergaben, wurden als pattern maps (vgl. Abschnitt ) definiert und gekachelt auf alle ähnlichen Flächen gelegt. Man kann hier demzufolge nur mit Abstrichen von einer Original - Textur sprechen. Für die korrekte Darstellung der Texturen mussten zusätzliche Eigenschaften für die patterns definiert werden, die die Lichteffekte auf den Oberflächen betreffen. Neben Umgebungslicht wurde Sonnelicht definiert unter Angabe der geografischen Lage des Grabmals, der Jahres- und Tageszeit. (vgl. Abschnitt ) Fazit: Das Ergebnis (siehe Abb. 3-28) kommt einer realistischen Darstellung schon sehr nahe. Der Großteil der Flächen gibt jedoch die reale Oberfläche nicht exakt wieder, da lediglich die pattern maps immer wieder aneinandergelegt wurden. Für einen Gesamteindruck des Grabmals ist diese Darstellung ausreichend. Zusätzliche Informationen können auch den Messbildern entnommen werden. Eine Möglichkeit der fotorealistischen Darstellung bestand in der Texturierung durch Rückprojektion der Messbilder der photogrammetrischen Aufnahme auf das Flächenmodell. (vgl. Abschnitt ) Zu diesem Zweck sollte das Programm IMDIS benutzt werden, dass von Herrn Wiedemann (Mitarbeiter der FPK-Ingenieurgesellschaft mbh) zurzeit entwickelt wird. Dafür musste die Zeichnungsdatei im *.dxf-format bereitgestellt werden. Die exportierte Datei konnte jedoch nicht gelesen werden. Selbst das CAD-Programm AUTOCAD hatte Probleme das von Microstation exportierte Format zu interpretieren. Damit konnte der Versuch leider nicht durchgeführt werden. Es lässt sich jedoch sagen, dass die Texturierung mit dieser Methode einen großen Arbeitsaufwand aufgrund der Detailliertheit des Grabmals bedeutet hätte. Um Verwechslungen bei der Zuordnung der Bildausschnitte auf die Flächen zu vermeiden, hätten die jeweils verdeckten Flächen aus dem Modell entfernt werden müssen. Senkrecht zur Bildebene liegende und mathematisch schwer zu beschreibende Flächen hätten gar nicht texturiert werden können.

87 Beurteilung der Restaurierungsarbeiten Die Auswertung des Grabmals zu unterschiedlichen Zeiten setzt einen grundlegenden Gedanken voraus. Ausgehend von den verschiedenen Zeitzuständen: - Neu erbauter Zustand/ ohne Dokumentation (1870) - Beschädigte Zustände/ historisches Projekt (exemplarisch 1995, 1997, 2001) - Restaurierter Zustand/ aktuelles Projekt (2001) ist festzuhalten, dass das Grabmal im restaurierten Zustand nicht dem neu erbauten entsprechen kann. Der Versuch einer originalgetreuen Rekonstruktion bzw. die Vorstellung, wie das Gebäude einmal ausgesehen hat, muss sich am Zustand des beschädigten Gebäudes bzw. den ältesten auffindbaren Fotografien orientieren. Bei der Betrachtung der Bilder nach der Rekonstruktion sind einige Details am Grabmal aufgefallen, die wahrscheinlich nicht dem ursprünglichen Zustand entsprechen. - Es gab eine Stelle, die während der Restaurierung zugeputzt wurde, so dass die geometrische Form im Vergleich zum Original verändert wurde. (siehe Abb. 3-29) Abbildung 3-29: Zugeputzte Stelle nach der Restaurierung (Links), vorher zum Vergleich (Rechts) - Ein weiteres Beispiel ist die linke, vordere Ecke des Dachgesimses. Die waagerecht aus der Mauer hervortretenden Streifen zur Horizontalgliederung sollten an der Ecke aufeinander treffen. In der linken Abbildung (3-30) ist zu sehen, dass sie sich nicht treffen sondern versetzt zueinander angeordnet sind. Ein Vergleich zu Aufnahmen des historischen Zustandes brachte jedoch keinen Aufschluss über den Originalzustand. (siehe Abb. 3-30) Es waren lediglich Bilder mit einer Ansicht der Ecke von vorn oder von links verfügbar.

88 77 - Im Zuge der Restaurierung des Grabmals erhielt das Dach eine neue Abdeckung. Aus den historischen Aufnahmen von 1995 geht hervor, dass es zu diesem Zeitpunkt keine Abdeckung hatte. (siehe Abb. 3-30, Rechts) Man kann hier nur vermuten, dass das Grabmal einst eine Abdeckung besaß, die mit der Zeit verwittert oder vollkommen zerstört wurde. Abbildung 3-30: Ecke des Dachgesims vorn/links nach der Rekonstruktion (Links), Vorderansicht der Ecke aus dem Jahr 1995 (Rechts) - Abweichungen zum Originalzustand im Jahr 1870 gibt es wahrscheinlich bei dem gewählten Farbton des aufgetragenen Putzes. - Anhand der detaillierten Auswertung des Grabmals fiel auf, dass nach der Rekonstruktion an einer Stelle der Zierleiste ein pyramidenförmiges Element fehlte. (siehe Abb. 3-31) Abbildung 3-31: Element der Zierleiste Neben einem rein visuellen Vergleich der Bilder können die Bauzustände vor und nach der Rekonstruktion auch anhand zweier 3D-Modelle geometrisch verglichen werden. Dadurch können Größen-, Höhen- und Längenunterschiede erkannt werden, die allein durch das Betrachten von Fotografien nicht deutlich werden.

89 78 Dazu können in den Modellen unter Berücksichtigung der Darstellungsgenauigkeiten Strecken gemessen und verglichen werden. Wurde das gleiche Referenzsystem verwendet, können die Modelle auch übereinander gelegt werden, so dass Unterschiede visuell erkannt und anschließend geometrisch überprüft werden können. Da die historischen Bilder nicht photogrammetrisch ausgewertet wurden (vgl. Abschnitt ), war eine geometrische Auswertung des Grabmals leider nicht möglich. Fazit: Der geometrische sowie der visuelle Vergleich (siehe auch Abschnitt 3.5.3) sind einfach umzusetzen und sinnvolle Hilfsmittel für Analysen, z.b. für die Kontrolle von Sanierungsarbeiten sowie deren Beurteilung aus denkmalpflegerischer Sicht Generieren virtueller Bilder Eine weitere Möglichkeit des visuellen Vergleichs der Bauzustände besteht im Generieren virtueller Bilder aus dem 3D-Modell. Sinnvoll ist das vor allem, wenn aus historischen Fotografien kein maßstäbliches Modell erzeugt werden kann. Ein Vergleich mit dem aktuellen Bauzustand ist dann am besten mit virtuellen Bildern durchzuführen, die den gleichen Öffnungswinkel bzw. die gleichen Standpunkte und Aufnahmerichtungen wie die historischen Fotografien besitzen. Anhand von exemplarisch gewählten historischen Bildern wurden virtuelle Bilder mit Hilfe des aktuellen 3D-Modells entwickelt. (siehe Anhang A) Dazu wurde die Funktion define camera der neuesten Version MICROSTATION/ V8 8 benutzt sowie die in der Bündelausgleichung berechneten äußeren Orientierungsparameter der historischen Bilder. Die Koordinaten der Standpunkte konnten direkt übernommen werden. Die Aufnahmerichtungen mussten jedoch zunächst in das System von MICROSTATION transformiert werden. Die dort benutzten Winkel orient, elevate und roll sind bezüglich α, ν und κ folgendermaßen definiert: orient = α + 90 ; elevate = ν ± 90 ; roll = κ Im Menu Utilities > Image > Save konnte jedes Bild mit den entsprechenden Kameraeinstellungen gerendert und gespeichert werden. Stehen die notwendigen Parameter nicht durch eine Bündelausgleichung zur Verfügung, können diese auch durch eine Einzelbildorientierung erhalten werden. (siehe Abschnitt ) 8 MICROSTATION/ J enthielt diese Funktion noch nicht

90 79 Fazit: Der Vergleich der historischen Bilder mit dem aktuellen 3D-Modell wird durch virtuell generierte Bilder vereinfacht. Durch den gleichen Blickwinkel auf das Objekt treten die gleichen perspektivischen Verzerrungen auf. Sie zeigen den gleichen Bildausschnitt in der gleichen Ansicht und enthalten demzufolge die gleichen räumlichen, geometrischen Informationen. Eine höhere Aussagekraft ließe sich in Zusammenhang mit der Originaltextur erreichen. (vgl. Abschnitt 3.5.1) Die Methode eignet sich für eine Beurteilung der Schäden bzw. der Restaurierungsarbeiten. Es sollte jedoch eher mit der digitalen Version der Bilder gearbeitet werden, damit Einzelheiten durch Zoomen näher betrachtet werden können. (siehe <Ergebnisse\ Virtuell generierte Bilder\>, Anhang C) Darstellung der Schäden Eine Schadensdokumentation kann auf herkömmliche Weise in Ansichten erfolgen. Dafür musste das 3D-Modell auf eine zweidimensionale Ebene reduziert werden, wobei lediglich sichtbare Kanten abgebildet sein durften. Nachdem das 3D-Modell in MICROSTATION in die entsprechende Ansicht gedreht wurde, konnte mit Hilfe der Export-Funktion Visible Edges eine 2D-Darstellung des Modells realisiert werden. Diese Funktion beinhaltet verschiedene Einstellungsmöglichkeiten hinsichtlich der Ausgabedimension (2D oder 3D), der Berechnungsgenauigkeit sowie der Berechnung der Schnittgeometrie. Trotz der Vorgabe einer hohen Berechnungsgenauigkeit und der Inkaufnahme einer längeren Berechnungszeit war der Export nicht exakt. Anfangs- und Endpunkte trafen sich teilweise nicht mehr in einem Punkt, manche Linien fehlten vollkommen. Außerdem gingen die Flächeninformationen verloren, so dass die Schäden zwar umrandet, aber nicht flächig dargestellt werden konnten. Daher war eine umfangreiche Nachbearbeitung des Exportergebnisses notwendig. Anschließend wurde die Ansicht mit einem Rahmen versehen einschließlich einer Legende zur Beschreibung der Schäden. Zuletzt wurde die Datei für das Plotten vorbereitet und aus MICROSTATION mit einem Epson Stylus Photo EX im A3-Format ausgedruckt. (siehe Anhang B) Fazit: Die Ableitung einer Ansicht aus dem 3D-Modell ist grundsätzlich möglich. Mit zusätzlichem Arbeitsaufwand lässt sich zwar ein aussagekräftiges Ergebnis erzielen, das entspricht aber keiner effizienten Arbeitsweise.

91 80 Die Schäden können ebenso im aktuellen 3D-Modell sichtbar gemacht werden (siehe Abb. 3-32), da sie in diesem bereits ausgewertet wurden. (vgl. Abschnitt ) Sie liegen als Linien bzw. Flächen direkt auf der Oberfläche des Modells, heben sich aber durch die unnatürlich gewählte Farbe deutlich ab. Bei einer Einteilung der Schäden in verschiedene Kategorien, können diese auch unterschiedlich farbig dargestellt werden. Abbildung 3-32: Darstellung der Schäden (hier rot markiert) im 3D-Modell Im Gegensatz zu den oben beschriebenen 2D-Ansichten können vor allem abgebrochene Stellen räumlich sehr gut verdeutlicht werden. (siehe Abb. 3-33) Abbildung 3-33: räumliche Darstellung der Abbruchstellen Ein besserer und schnellerer Überblick über das Ausmaß der Schäden kann durch das zusätzliche Einbringen einer Bewegung erlangt werden. (vgl. Abschnitt 3.5.5)

92 Dynamische Visualisierung des aktuellen Modells Die wohl beste Methode zur Veranschaulichung des Grabmals als räumliches Gebilde ist die dynamische Visualisierung. Für ein so detailliertes Objekt ist diese Form der Darstellung sehr anschaulich, da so die räumlichen Beziehungen der einzelnen Objektteile zueinander wahrgenommen werden können. Eine Möglichkeit bestand darin, die Zeichnungsdatei in das international standardisierte 3D- Grafikformat VRML (Virtual Reality Modeling Language) zu eportieren. Es ist systemunabhängig und kann mit Hilfe eines plug-ins, z.b. dem COSMOPLAYER (siehe <Programme\CosmoPlayer\>, Anhang C) in einem Browser geöffnet werden. Mit Hilfe verschiedener Steuerelemente wird die Bewegung vom Benutzer interaktiv ausgeführt. Dabei kann sich der Betrachter bezüglich des fest im Raum stehenden Objektes bewegen. Oder das Objekt wird bezüglich eines fest stehenden Betrachters bewegt. Die exportierte Datei zeigte im COSMOPLAYER einige Fehler in der geometrischen Form der Flächen. Sie waren teilweise verzerrt. Gleichmäßig gekrümmte Linien wurden stark vereinfacht als Polygone dargestellt. Die Texturelemente wurden mit exportiert und im COSMOPLAYER gerendert. Dabei wurden jedoch die Texturen der Grabtafeln verdreht. (siehe <Ergebnisse\VRML\>, Anhang C) Fazit: Mit VRML besteht die Möglichkeit das 3D-Modell dynamisch zu visualisieren. Man sollte jedoch abwägen, ob sich die Dynamik auf Kosten der Darstellungsgenauigkeit lohnt. Eine dynamische Visualisierung kann auch dadurch erreicht werden, indem man zuerst eine Bewegung definiert, die anschließend wie ein Film abgespielt werden kann. Diese Methode wird als Animation (vgl. Abschnitt 2.4.3) bezeichnet. Sie ist nicht interaktiv, d.h. eine Änderung des festgelegten Bewegungsablaufes ist nicht möglich. In MICROSTATION wurde dazu eine Kamerafahrt definiert. (siehe Abb. 3-34) Das Prinzip soll im Folgenden kurz erläutert werden: - Zuerst wird eine animation camera definiert, indem Position und Blickrichtung der Kamera angegeben werden. - Anschließend wird der Weg, den die Kamera während der Bewegung beschreibt, durch Geraden bzw. Kurven im Raum festgelegt. Dabei behält die Kamera die zuvor angegebene Blickrichtung bei.

93 82 - Soll die Blickrichtung der Kamera während der Bewegung konstant auf einen Punkt gerichtet bleiben, wird zusätzlich ein Ziel (target) durch Angabe seiner Position definiert. (Bsp.: Bewegung der Kamera auf einer Kreisbahn mit konstantem Blick auf den Kreismittelpunkt) - Soll die Kamera während der Bewegung ihre Blickrichtung ändern, wird für das target ebenfalls ein Weg definiert. (Bsp.: Bewegung der Kamera auf dem Äquator einer Kugel mit Anfangsblickrichtung auf deren Mittelpunkt und ansteigender Blickrichtung gen Nordpol) ROT animation camera DUNKELBLAU Weg der Kamera HELLBLAU Weg des target Abbildung 3-34: Kamerafahrt der Animation SCHWARZ angedeutetes Grabmal Für die Animation des Grabmals mit Hilfe des aktuellen 3D-Modells wurden insgesamt 10 animation cameras definiert. Durch die Aufteilung des Kameraweges in 10 kleine Abschnitte (siehe <Aktuelles Projekt\ Texturiertes Modell\ Kamerafahrt\>, Anhang C) konnte die Bewegung bezüglich der Blickrichtung besser kontrolliert werden. Die Geschwindigkeiten der Kamera- und target-bewegungen entlang des Weges konnten unabhängig voneinander konstant, beschleunigt oder negativ beschleunigt gewählt werden. Das Tempo des gesamten Bewegungsablaufes war jedoch abhängig von der Anzahl der Bilder, die pro Sekunde abgespielt werden. Nach diesen Geschwindigkeitsvorgaben richtete sich die Änderung der Standpunkte und Blickrichtungen bezüglich des jeweils vorigen Bildes.

94 83 Die Anzahl der Bilder wurde auf 1860 festgelegt. Mit 25 Bildern pro Sekunde ergab das eine Filmlänge von 1 Minute und 15 Sekunden. Die Berechnung der Animation erfolgte anschließend durch das Rendern jedes einzelnen Bildes, mit der Möglichkeit diese als Einzelbilder oder aber direkt als Film zu speichern. Nach einem Probedurchlauf mit wenigen Bildern wurde festgestellt, dass die Kompression der Daten bei einer Filmberechnung zu groß für eine qualitativ ausreichende Wiedergabe war. Weder das Kompressionsverfahren noch das Verhältnis der Kompression zur Qualität des Bildes konnten eingestellt werden. Deswegen wurden die Einzelbilder im *.tga-format gespeichert mit dem Vorteil, dass die Berechnung unterbrochen werden konnte, ohne dass die Daten bereits berechneter Bilder verloren gingen. Bei einer Auflösung von ( ) lag die Größe eines gerenderten Bildes etwa bei 600 bis 900 KByte. Die gesamte Datenmenge betrug rund 1,3 GByte. Da MICROSTATION kein optimiertes Render-Programm ist, bedeutete die Berechnung der Bilder mit dieser Software einen sehr hohen Zeit- und Rechenaufwand. Daher wurden die Berechnungen auf 2 Rechner aufgeteilt: (siehe Tab. 3-3) Rechner A: - Prozessor: Intel Pentium 4-2,26 GHz - Arbeitsspeicher: 512MB DDR-RAM Rechner B: - Prozessor: Intel Pentium MHz - Arbeitsspeicher: 512 MB SD-RAM Tabelle 3-3: Gegenüberstellung der Rechendauer der Bilder auf 2 verschiedenen Rechnern Weg Rechner A Rechner B Anzahl der Bilder Rechenzeit [min] Anzahl der Bilder Rechenzeit [min] gesamt Ø = 26min/ Bild Ø = 63min/ Bild Die durchschnittliche Berechnungsdauer für ein Bild lag bei ca. 35 min. Für die insgesamt 1860 Bilder wurde daher eine reine Rechenzeit von ca. 44 Tagen benötigt.

95 84 Aufgrund dieses großen Aufwands wurde versucht, die *.dgn-datei aus Microstation zu exportieren, um sie in ein optimiertes Render-Programm (siehe Tab. 2-2, Abschnitt 2.4.2) einzulesen. Dabei traten entweder Fehlermeldungen auf, oder die exportierte Datei konnte von anderen Programmen nicht gelesen werden. Die berechneten Einzelbilder konnten in den in MICROSTATION integrierten MoviePlayer eingelesen und dort abgespielt werden. Um die Animation jedoch außerhalb der MICROSTATION-Umgebung abspielen zu können, mussten die Einzelbilder in eines der gängigen Formate für einen Film umgerechnet werden. Aufgrund der hohen Komprimierungsrate, die MICROSTATION für eine solche Berechnung vorsieht, wurde diese mit dem Programm ADOBE PREMIERE durchgeführt. Nach Einlesen der mit fortlaufenden Nummern gekennzeichneten Bilder wurde festgelegt, dass jedes Bild 1/25 Sekunde lang gezeigt werden sollte. Anschließend wurden sie unter Angabe eines Komprimierungsverfahrens und des Verhältnisses zwischen Qualität und Speicherplatzersparnis in verschiedene Videoformate umgewandelt: - Audio/Video Interleaved Format: *.avi - Motion Picture Expert Group: *.mpg - Windows Media Audio-/Videofile: *.wmv - Quicktime Movie Format: *.mov - RealMedia File: *.rm (siehe <Ergebnisse\ Animation\>, Anhang C) Diese können mit frei erhältlicher Software abgespielt werden, z.b.: - Windows Media-Player - Quicktime-Player - RealMedia-Player (siehe <Programme\>, Anhang C) Für eine mögliche Präsentation im Internet wurden die Formate unterschiedlich komprimiert. (siehe <Ergebnisse\ Animation\ internetfähig\>, Anhang C)

96 Empfehlungen für eine effiziente Vorgehensweise Zu Beginn eines Projektes sollten die Anforderungen an das 3D-Modell hinsichtlich der Art und der Genauigkeit der Darstellung klar sein. Daraus ergeben sich die Ansprüche an die Genauigkeiten der Passpunktmessung, der Bildorientierung und der Mehrbildauswertung. Die geodätische Aufnahme der Passpunkte sollte im Anschluss an die photogrammetrische Mehrbildaufnahme erfolgen, da man anhand der Messbilder nur Punkte auswählt, die auch wirklich zu sehen sind. Die Passpunkte sollten während der Messung auf Amateurfotos mit Nadelstichen und deren Beschriftung mit einer Punktnummer dokumentiert werden. Damit können Verwechslungen vermieden werden, ebenso eine umfangreiche Passpunktskizze. Die photogrammetrische Mehrbildaufnahme sollte ebenfalls gut geplant werden beginnend bei der Wahl der Standpunkte, der Anzahl der Aufnahmen, entsprechende Überdeckungsbereiche bis hin zur Wahl des Fotomaterials. Soll das Modell mit Hilfe der Messbilder texturiert werden, ist die Frage nach Schwarz/Weiß- oder Farbfilm eventuell relevant, aber auch für eine bessere Interpretierbarkeit der Konturen bei der Auswertung. Soll für eine Auswertung historisches Bildmaterial benutzt werden, so sind folgende Dinge zu beachten. Die Aufnahmen müssen das gesamte Objekt in ausreichender Überlappung zeigen sowie eine gute Qualität hinsichtlich Auflösung (bei digitalen Bildern) und Kontrast besitzen. Von Vorteil sind außerdem Kamera(s) mit bekannter innerer Orientierung. Bei der photogrammetrischen Mehrbildauswertung ist die Darstellung von Details im Verhältnis zu dem entsprechenden Arbeits- und Zeitaufwand zu bedenken. In bestimmten Fällen reicht möglicherweise eine generalisierte Darstellung aus. Nicht auswertbare Teilbereiche können eventuell konstruiert oder nur angedeutet werden. (wie z.b. die Ornamente) Darüber hinaus sollte man sich über die Möglichkeiten der Ergebnispräsentation informieren. Wichtig ist dabei, welche Darstellungsform das Wesentliche optimal wiedergibt und mit welchem Programm das bestmöglich zu realisieren ist.

97 86 Wenn man sich für eine Auswertung mit PHIDIAS als Applikation im CAD-System MICROSTATION entscheidet, kann man viele Vorteile nutzen, die die Kombination dieser beiden Programme bietet: - PHIDIAS ermöglicht eine schnelle Einarbeitung in das Programm selbst und in die Menüführung, aufgrund der größtenteils selbsterklärenden und mit zusätzlichen Informationen versehenen Bedienoberfläche. - Die Nutzung der umfangreichen Befehlssammlung von MICROSTATION gestattet eine komplexe Auswertung eines dreidimensionalen Objektes. - Durch die Überlagerung der Zeichnung mit den Aufnahmen am Bildschirm kann man die Auswertung auf Richtigkeit und Vollständigkeit auf einen Blick beurteilen. Dadurch können Fehler bereits bei der Erfassung der Objektkanten vermieden werden. - Im Zuge der Auswertung können außerdem Flächen und Volumenkörper erzeugt werden, die in Verbindung mit leistungsfähigen Render-Werkzeugen vielfältige Visualisierungsmöglichkeiten eröffnen. Auf dieser Grundlage ist auch das Generieren zweidimensionaler Schnittzeichnungen und Ansichten möglich. Darüber hinaus gibt es einige Kritikpunkte, die nicht unerwähnt bleiben sollen: - Auch wenn die Funktionen von PHIDIAS nicht optimal genutzt wurden, konnte man doch feststellen, dass der Umgang mit vielen unbekannten Kameras, demzufolge unbekannten inneren Orientierungen bei der Bündelausgleichung Probleme bereitete. - Trotz der Verbindung von PHIDIAS mit MICROSTATION benutzen sie intern unterschiedliche Drehwinkel für die äußere Orientierung. Während sie in PHIDIAS mit den Winkeln ω, ϕ und κ beschrieben werden (vgl. Abschnitt ), geschieht in MICROSTATION bei Nutzen der Funktion define camera die Eingabe mit Hilfe von orient, elevate und roll (vgl. Abschnitt 3.5.3). Auch wenn diese Funktionen für unterschiedliche Zwecke zur Verfügung stehen, sollte eine Transformation untereinander möglich sein. - Nach Abschluss der photogrammetrischen Auswertung wird für eine anschließende Visualisierung des Modells die Weiterarbeit mit MICROSTATION empfohlen, da ein Export der *.dgn-datei in vielen Fällen Probleme bereitet. MICROSTATION bietet zwar eine Vielzahl von Visualisierungsmöglichkeiten an, diese sind jedoch nicht immer optimal.

98 87 Außerdem sollten bei einem Einsatz von MICROSTATION und PHIDIAS folgende Mindestanforderungen an die Arbeitsstation berücksichtigt werden: - PC oder Workstation basierend auf Intel- oder AMD-Technologie - Betriebssysteme: Windows 2000, Windows XP Professional, Windows XP Home Edition, Windows NT 4 (mit Servicepaket), Windows ME, Windows 98 (Second Edition) - Microsoft Internet Explorer 5 oder höher - CD-ROM Laufwerk MB freier Festplattenspeicher MB RAM (mehr Speicher besser für schnelleren Bildaufbau) - Grafikkarte von Windows unterstützt; Multimonitor-Konfiguration unterstützt von Windows 98 und Windows2000; sollte mindestens 256 Farben in hoher Auflösung darstellen können Werden andere Programmsysteme zur Mehrbildauswertung und anschließender Visualisierung der Ergebnisse verwendet, sollten Informationen über die jeweiligen Datenformate, Import- und Export-Fähigkeiten eingeholt werden und vor dem Einsatz eventuell getestet werden. Von vielen Programmen wird das *.dxf-format zwar als Standardformat für Im- und Exporte angeboten, es scheint jedoch nicht mehr der Standard zu sein, der es einmal war. Aufgrund des offen liegenden ASCII-Codes kann jeder Software-Hersteller eigene Erweiterungen des Codes vornehmen, womit andere Programme wiederum nicht unbedingt umgehen können. Abschließend soll noch etwas zum Zeitaufwand einer solchen Auswertung gesagt werden. Eine selbständige Einarbeitung in Programme wie PHIDIAS und MICROSTATION bedeutet: Viel Probieren, wobei Bedienungsfehler passieren können (vgl. Abschnitt ) und manches umständlich gelöst wird. Ausgehend von einem Bearbeiter mit Erfahrung im Umgang mit der entsprechenden Hard- und Software und der Berücksichtigung des wirtschaftlichen Aspektes sollte ein solches Projekt nicht länger als 2 Wochen dauern. (Dabei wurde jedoch nicht die Zeit für die Berechnung der Animation berücksichtigt.) Entscheidend für den Aufwand ist nicht unbedingt die Größe des Bauwerks, sondern der Grad der Detailliertheit mit der es ausgewertet werden soll. Am Beispiel der Auswertung des Grabmals KOCH ist das gut nachvollziehbar.

99 88 4 Zusammenfassung Die Methoden der digitalen Photogrammetrie werden zunehmend für Anwendungen in den Bereichen der Architektur, der Denkmalpflege und der Bauforschung eingesetzt. Die Grundlage für Dokumentationen und Planungen denkmalpflegerischer und restauratorischer Maßnahmen beschränken sich größtenteils auf die klassischen Ergebnisse: Risse, Fassadenpläne, Schnitte und Ansichten. An Bedeutung gewinnen ergänzend dazu räumliche Linien-, Flächen- und Volumenmodelle als Folge einer streng dreidimensionalen Auswertung in Verbindung mit CAD-Systemen. (Computer Aided Design) Deren Vorteil liegt in der einfachen digitalen Weiterverarbeitung durch den Auftraggeber und einer blattschnittfreien Verwaltung der räumlichen Daten. Ferner enthalten dreidimensionale Modelle alle Informationen, die auch aus Grundrissen, Ansichten und Schnittplänen entnommen werden können. Diese sind lediglich spezielle Projektionen oder Schnitte des Raummodells, die sich mit modernen CAD-Applikationen automatisch generieren lassen. Außerdem lassen sich bei der Planung nicht bedachte Ergebnisse später noch aus den räumlichen Daten ableiten. Die erweiterten Anforderungen an die Ergebnisse der Architekturphotogrammetrie, auch begründet durch die verschiedenen Endnutzer der Ergebnisse (Architekten, Statiker, Bau- und Kunsthistoriker, Denkmalpfleger, Bauforscher), erfordern diesbezüglich neue Strategien für Aufnahme, Auswertung und Darstellung. Am Beispiel des Grabmals KOCH wurde die dreidimensionale Rekonstruktion eines denkmalgeschützten historischen Bauwerks untersucht. Die Schwerpunkte der Bearbeitung lagen dabei einerseits in der photogrammetrischen Auswertung, andererseits in der Untersuchung effizienter Verfahren zur Visualisierung der Resultate. Dabei wurde einerseits die Dokumentation des aktuellen Bauzustandes nach seiner Rekonstruktion im Sommer 2001, andererseits die Recherche nach historischem Bildmaterial für eine (rückwirkende, theoretische) Planungsgrundlage denkmalpflegerischer Maßnahmen berücksichtigt. Die Besonderheit des untersuchten Objektes ist, dass es architektonisch stark ausgeprägt, d.h. stark gegliedert und für den Betrachter offen ist. Es enthält Vorsprünge, Nischen und verdeckte Teile. Daher ist es kaum ausreichend in der klassischen zweidimensionalen Form zu beschreiben. Um den Vorteil des visuellen Eindrucks zu nutzen, war daher insgesamt eine dreidimensionale Rekonstruktion des Grabmals einer fassadenweisen vorzuziehen.

100 89 Für die durchgeführten Arbeiten wurde das digitale photogrammetrische Auswertesystem PHIDIAS-MS verwendet, das durch die Integration in das leistungsfähige CAD-System MICROSTATION (Bentley Systems) eine effektive Vermessung und 3D-Auswertung komplexer Objekte ermöglicht. Die Orientierungsberechnung der historischen Bilder mit diesem Programm bereitete Probleme, da mehrere Kameras mit unbekannten inneren Orientierungen berücksichtigt werden mussten. Durch eine effizientere Nutzung der Funktionen von PHIDIAS (vgl. Abschnitt ) hätte eine Konvergenz der Bündelausgleichung erreicht werden können. Es konnte jedoch nicht geklärt werden, ob PHIDIAS dadurch auch mit der Verschiebung der Bildmittelpunkte einiger Bilder hätte umgehen können. Ein allgemeines Problem bezüglich des Maßstabes besteht bei Fotografien historischer Bauwerke, die bereits zerstört sind. Das Messen von Passpunkten oder Objektstrecken ist dann nicht mehr möglich. In diesem Projekt wurden die nötigen Überbestimmungen (aufgrund der hohen Anzahl unbekannter Parameter) aus aktuellen Passpunktmessungen übernommen, wobei das einen Genauigkeitsverlust bedeutete. Ein großer Vorteil gegenüber anderen Auswertesystemen war die Kopplung der Auswertung mit dem CAD-System Microstation. Nach dem interaktiven Messen in mehreren Bildern und der Übernahme der mittels Vorwärtsschnitt berechneten Objektpunktkoordinaten in die CAD- Umgebung, konnten sämtliche Zeichenfunktionen zur Beschreibung der Objektkonturen verwendet werden. Durch die Überlagerung der Zeichnung mit den Bildern kann eine sofortige Kontrolle der Messungen erfolgen. Außerdem können im Zuge der Auswertung Linienzüge geschlossen werden bzw. Linien zu logischen Flächeneinheiten verknüpft werden. Andere Auswertesysteme dagegen enthalten lediglich einfache Funktionen zur Beschreibung der Objektkonturen, so dass in einem zusätzlichen Arbeitsschritt die Überarbeitung des Liniengerüstes innerhalb einer CAD-Umgebung notwendig ist. Die photogrammetrische Mehrbildauswertung beschränkte sich auf die Messbilder des aktuellen Bauzustandes. Das historische Bildmaterial hatte eine deutlich schlechtere Bildqualität und deckte viel weniger Objektbereiche ab, so dass eine Auswertung in der gleichen Genauigkeitsordnung und dadurch ein Vergleich mit dem aktuellen Bauzustand nicht möglich gewesen wäre. Es konnten jedoch Informationen über sichtbare Schäden dokumentiert werden, indem das aktuelle 3D-Modell mit den historischen Bildern überlagert wurde.

101 90 Die in der Auswertung gewonnen Daten konnten mit Hilfe verschiedener Verfahren anschaulich visualisiert werden. Dabei muss jedoch gesagt werden, dass lediglich die Möglichkeiten von MICROSTATION untersucht werden konnten, da das 3D-Modell nicht exakt exportiert werden konnte. 1. Eine möglichst realistische Darstellung des Modells konnte durch eine genaue Beschreibung der Oberfläche erreicht werden. Die einzelnen Flächen des Objektmodells bekommen dafür bestimmte Eigenschaften zugewiesen. Das kann lediglich eine Füllfarbe sein, oder aber ein digitales Bild (Bitmap), das die Struktur bzw. ein Muster einer Oberfläche wiedergibt. Man spricht dann von einer Textur, die auf die Oberfläche gemappt wird. (texture mapping) Mit fotografierten Ausschnitten einer Oberfläche konnten dabei gute Ergebnisse erzielt werden. Eine höhere Aussagekraft haben jedoch Originaltexturen, die z.b. den Messbildern entnommen werden können. Mit Hilfe von Entzerrungstechniken können Fotografien auf einfache Oberflächenformen projiziert werden. Für stark detaillierte Gebäude bedeutet die Entzerrung der vielen Flächen einen enormen Zeitaufwand. Die Entwicklung geht hin zu einer Automatisierung des Verfahrens, ist aber zurzeit noch nicht realisiert. 2. Die Veranschaulichung eines Bauwerks als räumliches Gebilde kann zusätzlich durch eine dynamische Visualisierung erreicht werden. Dadurch können die räumlichen Beziehungen der einzelnen Objektteile zueinander besser wahrgenommen werden. Die Dynamik kann dabei einerseits interaktiv durch den Betrachter in einem Internet-Browser im VRML-Format (Virtual Reality Modeling Language) erzeugt werden, andererseits durch einen vordefinierten Bewegungsablauf in einer Animation. Aufgrund von Exportproblemen kann das VRML-Modell nicht überzeugen. Das Ergebnis der Animationsberechnung ist sehr anschaulich. Berücksichtigt man jedoch den enormen Zeitaufwand für deren Erstellung, ist die Methode eher ineffizient. MICROSTATION ist vornehmlich ein Zeichen- und Konstruktionsprogramm. Die zusätzlichen Rendering-Funktionen reichen zwar für einfache Anwendungen aus, sind jedoch nicht optimal. 3. Ein 3D-Modell kann in seiner räumlichen CAD-Umgebung von allen Seiten betrachtet werden. Daher ist es auch vorstellbar spezielle Ansichten zu generieren, anhand derer Ergebnisse anschaulich dargestellt werden. Dazu gehört z.b. die klassische Ansicht einer Fassadenfront. Das 3D-Modell wird dafür in der CAD-Umgebung in die entsprechende Ansicht gedreht, anschließend eine Sichtbarkeitsberechnung durchgeführt, so dass verdeckte Kanten nicht dargestellt werden.

102 91 Das Ergebnis mit MICROSTATION war jedoch, dass die Flächeninformationen verloren gingen und die Schnittgeometrie nicht ordentlich berechnet wurde. Nach umfangreicher Nacharbeit ließ sich eine Schadensdokumentation erstellen. (Anhang B) Um die Vorteile der 3D-Modelle nutzen zu können und auf eine fassadenweise Auswertung verzichten zu können, sollte diese Methode einwandfrei funktionieren. Ebenfalls möglich war das Einstellen einer bestimmten Ansicht mit Hilfe der Eingabe des Standpunktes und der Blickrichtung des Betrachters. Dadurch konnten virtuelle Bilder generiert werden, die die gleiche Aufnahmekonstellation wie vorhandene Fotografien haben. An dieser Stelle wäre es wünschenswert gewesen, die Drehwinkel der Berechnung mit PHIDIAS in MICROSTATION übernehmen zu können. Die Wahl des Auswertesystems PHIDIAS in Verbindung mit MICROSTATION stellte letztendlich einen Kompromiss dar. Die photogrammetrische Auswertung kann mit diesen Programmen sehr gut gelöst werden. Mögliche Visualisierungsverfahren sind oftmals nicht effizient. Aufgrund der eingeschränkten Exportfähigkeit von MICROSTATION kann ein ökonomischeres Arbeiten nicht gewährleistet werden. Trotz aufgetretener Schwierigkeiten bei der Auswertung und Visualisierung in dieser Arbeit ist die dreidimensionale Objekterfassung und Bearbeitung zukunftsweisend. Bei einer blattschnittfreien Verwaltung der Daten ohne Vorwegnahme der Datennutzung wäre die Art der Darstellung dem Endnutzer der Daten überlassen. Im Mittelpunkt aller Aktivitäten stünde das Gesamtobjekt, aus dem z.b. Ansichten, Schnitte, Schrägansichten und Animationen abgeleitet werden. Eine Verknüpfung der photogrammetrisch erfassten, geometrischen Daten mit beliebigen Sachdaten würde eine Einbindung in Gebäudeinformationssysteme erlauben. In Verbindung mit digitalen Geländemodellen wäre eine Einbettung in die natürliche Umgebung denkbar. Die Möglichkeiten sind vielfältig. Daher lässt sich eine Entwicklung in dieser Richtung abzeichnen. Mit Fortschreiten der Technik werden zunehmend Digitalkameras für photogrammetrische Aufnahme eingesetzt werden. Die Entwicklung automatisierter photogrammetrischer Verfahren für das texture mapping kann eine Alternative für Renderprogramme werden, die ledigleich mit künstlicher Textur virtuelle Realitäten erschaffen.

103 92 5 Danksagung Ich danke allen, die in irgendeiner Weise zum Gelingen dieser Arbeit beigetragen haben. Vielen Dank an die FPK - Ingenieurgesellschaft mbh für die Bereitstellung von Arbeitsmitteln und technischen Geräten, und insbesondere Herrn Tauch und Herrn Wiedemann, die mir bei Fragen und Problemen zur Seite standen. Ich bedanke mich bei Herrn Prof. Dr. Maas und Herrn Olunczek für die Betreuung seitens der Technischen Universität Dresden. Mein Dank gilt auch den Herren Kalesse und Limberg der Stadtverwaltung Potsdam - Bereich Untere Denkmalschutzbehörde, die mir Bildmaterial des Grabmals Koch zur Verfügung gestellt haben, ebenso Herrn Butzmann, Leiter der Friedhofsverwaltung Potsdam für Ermöglichung der Arbeiten am Grabmal KOCH und Herrn Bach, beauftragter Architekturfotograf der historischen Bilder für die Informationen zu seiner Kamera. Herzlichen Dank an Herrn Effkemann, Ansprechpartner bei Phocad für die Möglichkeit das Programm PHIDIAS-MS zu für die Diplomarbeit zu benutzen, die Beantwortung meiner Fragen zu dem Programm und der ergänzenden Berechnungen für einen Vergleich mit meinen Ergebnissen. In diesem Zusammenhang auch vielen Dank an Herrn Deylamipour für die Hilfe im Umgang mit PHIDIAS und MICROSTATION.

104 93 Literaturverzeichnis Eckstein, G.; Gromer, J. (1986): Empfehlungen für Bauaufnahmen. Genauigkeitsstufen Planinhalte Kalkulationsrahmen. Landesdenkmalamt Baden-Württemberg, Stuttgart 1986 Foley, J.D.; van Dam, A.; Feiner, S.K.; Hughes, J.F.; Phillips, R.L. (1994): Grundlagen der Computergraphik. Einführung, Konzepte, Methoden. Addison-Wesley Verlag, Bonn u.a George,A.; Liu, J. (1981): Computer Solution of Sparse Positive Definite Systems. Prentice-Hall Inc., Englewood Cliffs, New Jersey 1981 Gross, M. (1991): 3D-Visualisierung und Simulation in der graphischen Datenverarbeitung. ZPF 59, S , Darmstadt 1991 Grosser, M.; Zunke, H. (2001): Radiometrische und geometrische Untersuchung des Trommelscanners HOWTEK Scanmaster 7500 pro. Seminararbeit Fachgebiet Photogrammetrie und Kartographie, Institut für Geodäsie und Geoinformationstechnik, TU Berlin 2001 Gruber, F.J. (1996): Formelsammlung für das Vermessungswesen. 8. Auflage, Dümmler Verlag, Bonn 1996 Gruber, M.; Meissl, S.; Böhm, R. (1995): Das dreidimensionale digitale Stadtmodell Wien, Erfahrungen aus einer Vorstudie. VGI 83, S.29-36, Graz 1995 Jordan, W.; Eggert, O.; Kneissl, M. (1956): Handbuch der Vermessungskunde. Band 3: Photogrammetrie. 10. Auflage, Metzler Verlag, Stuttgart 1956 Kahmen, H. (1997): Vermessungskunde. 19.Auflage, de Gruyter Verlag, Berlin - New York 1997 Kiesow, G. (1995): Einführung in die Denkmalpflege. 3.Auflage, wissenschaftliche Buchgesellschaft, Darmstadt 1995

105 94 Kraus, K. (1997): Photogrammetrie. Grundlagen und Standardverfahren. 6. Auflage, Dümmler Verlag, Bonn 1997 Kraus, K. (1996): Photogrammetrie. Verfeinerte Methoden und Anwendungen. 3. Auflage, Dümmler Verlag, Bonn 1996 Loviscach, J. (2002): Glanzlicht. c t Magazin für Computertechnik 18, Heise Verlag, Hannover 2002 Luhmann, T. (2000): Nahbereichsphotogrammetrie. Grundlagen, Methoden und Anwendungen. Wichmann Verlag, Heidelberg 2000 O.A. (2001): KOCHsches Erbbegräbnis auf dem Neuen Friedhof restauriert. Landeshauptstadt Potsdam, Presse- und Informationsamt, Pressemitteilung Nr. 457/01, Potsdam Weimann, G. (1988): Architektur-Photogrammetrie. Wichmann Verlag, Karlsruhe 1988 Wiedemann, A. (1997): Othophototechnik in der Architekturphotogrammetrie Möglichkeiten und Grenzen. In Albertz/ Wiedemann (ed.): Architekturphotogrammetrie gestern heute morgen. Technische Universität Berlin 1997 Wiedemann, A.; Hemmleb, M.; Albertz, J. (2000): Reconstruction of historical buildings based on images from the Meydenbauer archives. ISPRS 33, Amsterdam 2000 Wiedemann, A.; Moré, J.; Suthau, T.; Theodoropoulou, I.; Weferling, U.; Ergün, B. (2001): Comparison of bundle block adjustments for close range applications. O. Altan & L. Gründig (eds.) Fourth Turkish-German Joint Geodetic Days, Vol. I, Berlin 2001 Wolf, H. (1975 Ausgleichungsrechnung. Formeln zur praktischen Anwendung. Dümmler Verlag, Bonn 1975 Wolf, H. (1968): Ausgleichungsrechnung nach der Methode der kleinsten Quadrate. Dümmler Verlag, Bonn 1968

106 95 Quellen im Internet 3D-Grafiksoftware POV-Ray: Bentleys Homepage: Brandenburgisches Denkmalschutzgesetz vom : CAD-Lexikon: Hanke, K.; Ebrahim, M. (1997): Architekturdokumentation mittels digitaler Photogrammetrie. Fachvortrag der 9. Internationalen Geodätischen Woche, Obergurgl Kamerahersteller SINAR: PHOCAD Ingenieurgesellschaft: Professioneller Schwarz/Weiß - Negativffilm von Agfa: Handbücher [1] PHIDIAS-MS: Photogrammetrische Mehrbildauswertung. Version 2.0, PHOCAD Ingenieur- gesellschaft mbh, Aachen [2] PHIDIAS-MS: Bildorientierung. Version 2.00-i, PHOCAD Ingenieurgesellschft mbh, Aachen [3] PHIDIAS-MS: Tutorial. Version 2.00, PHOCAD Ingenieurgesellschaft mbh, Aachen Kleines Wörterbuch der Architektur. 4.Auflage, Reclam, Stuttgart 1997

107 96 Anhang A Vergleich historischer Bilder mit virtuell generierten Bildern A-1 Ansicht 1 X 0 = 1000,121m ; Y 0 = 1016,180m ; Z 0 = 52, 760m α = 250,4016 gon ; ν = 102, 7316 gon ; κ = 0,6379gon (siehe auch <Ergebnisse\Virtuell generierte Bilder\A-1_HL_D.tif>, Anhang C)

108 97 A-2 Ansicht 2 X 0 = 1009,437m Y 0 = 1000,551m Z 0 = 52,236m α = 399,3720gon ν = 102,1540gon κ = 399,8329gon (siehe auch <Ergebnisse\Virtuell generierte Bilder\A-2_iNah_D.tif>, Anhang C)

109 98 A-3 Ansicht 3 X ,913m ; Y 0 = 1008,438m ; Z 0 = 51,886m α = 93, 7127gon ; ν = 97,3100gon ; κ = 2,1098gon siehe auch <Ergebnisse\Virtuell generierte Bilder\A-3_Detail03_F.tif>, Anhang C)

110 99 A-4 Ansicht 4 X 0 = 1001,546m Y 0 = 1012,558m Z 0 = 52, 718m α = 266,2905gon ν = 105,1186 gon κ = 399,1350gon siehe auch <Ergebnisse\Virtuell generierte Bilder\A-4_Detail18_P.tif>, Anhang C)

Orientierung. HJ Przybilla

Orientierung. HJ Przybilla Orientierung Der Begriff der Orientierung wird in der Photogrammetrie vielfach genutzt. Er beschreibt dabei die geometrischen Zusammenhänge im und um das Messbild. Innere Orientierung Äußere Orientierung

Mehr

Prof. Dr.-Ing. H.-J. Przybilla Photogrammetrie Vertiefung WS 2005/6

Prof. Dr.-Ing. H.-J. Przybilla Photogrammetrie Vertiefung WS 2005/6 rientierung Der Begriff der rientierung wird in der Photogrammetrie vielfach genutzt. Er beschreibt dabei die geometrischen Zusammenhänge im und um das Meßbild. - Innere rientierung - Äußere rientierung

Mehr

Inhalte. Photogram. Aufnahmesysteme. HS BO Lab. für Photogrammetrie: Digitalisierung analoger Bilder 1

Inhalte. Photogram. Aufnahmesysteme. HS BO Lab. für Photogrammetrie: Digitalisierung analoger Bilder 1 Inhalte Photogram. Aufnahmesysteme Metrische Kameras (Definition der Inneren Orientierung) Analoge Messkameras Fotografische Aspekte Digitalisierung analoger Bilder Digitale Aufnahmesysteme (Messkameras)

Mehr

Kalibrierung. HJ Przybilla

Kalibrierung. HJ Przybilla Kalibrierung Die Kalibrierung von Aufnahmesystemen dient der Bestimmung des geometrischen Kameramodells, beschrieben durch die Parameter der inneren Orientierung. Kamerakonstante Lage des Bildhauptpunktes

Mehr

Inhalte. Mathematische Grundlagen. Koordinatensysteme Ebene und räumliche Koordinatentransformationen Zentralperspektive

Inhalte. Mathematische Grundlagen. Koordinatensysteme Ebene und räumliche Koordinatentransformationen Zentralperspektive Inhalte Mathematische Grundlagen Koordinatensysteme Ebene und räumliche Koordinatentransformationen Zentralperspektive HS BO Lab. für Photogrammetrie: Koordinatensysteme Koordinatensysteme Ein kartesisches

Mehr

Inhalte. Methoden und Verfahren zur automatisierten Auswertung Bildtriangulation

Inhalte. Methoden und Verfahren zur automatisierten Auswertung Bildtriangulation Inhalte Methoden und Verfahren zur automatisierten Auswertung Bildtriangulation Grundlagen Blockausgleichung mit unabhängigen Modellen Bündelblockausgleichung HS BO Lab. für Photogrammetrie: Bildtriangulation

Mehr

Inhalte. HS BO Lab. für Photogrammetrie: Orientierungsverfahren in der Stereoauswertung 1

Inhalte. HS BO Lab. für Photogrammetrie: Orientierungsverfahren in der Stereoauswertung 1 Inhalte Bildflug Bildflugplanung Navigation (Einsatzmöglichkeiten von GPS und Inertialsystemen) Zweibildauswertung Grundlagen Stereoskopisches Sehen und Messen Stereoauswertesysteme Orientierungsverfahren

Mehr

Grundlagen der optischen Geometrievermessung und deren Anwendungen

Grundlagen der optischen Geometrievermessung und deren Anwendungen Grundlagen der optischen Geometrievermessung und deren Anwendungen Christian Gerlach Innovationstag 2010 1 Gliederung: Grundlagen der Photogrammetrie Stand der Technik Industrielle Anwendungen der Photogrammetrie

Mehr

3. Analyse der Kamerabewegung Video - Inhaltsanalyse

3. Analyse der Kamerabewegung Video - Inhaltsanalyse 3. Analyse der Kamerabewegung Video - Inhaltsanalyse Stephan Kopf Bewegungen in Videos Objektbewegungen (object motion) Kameraoperationen bzw. Kamerabewegungen (camera motion) Semantische Informationen

Mehr

Technische Universität Dresden

Technische Universität Dresden Technische Universität Dresden Institut für Photogrammetrie und Fernerkundung Übung 1 Entzerrung von digitalen Bildern Bearbeiter: Janin Wach Anke Heidenreich Seminargruppe: Geodäsie 99/1 Datum: 10.05.01

Mehr

Methoden und Verfahren zur automatisierten Auswertung

Methoden und Verfahren zur automatisierten Auswertung Inhalte Bildtriangulation Grundlagen Blockausgleichung mit unabhängigen Modellen Bündelblockausgleichung Methoden und Verfahren zur automatisierten Auswertung H.-J. Przybilla Bündelblockausgleichung 1

Mehr

Versuch C: Auflösungsvermögen Einleitung

Versuch C: Auflösungsvermögen Einleitung Versuch C: svermögen Einleitung Das AV wird üblicherweise in Linienpaaren pro mm (Lp/mm) angegeben und ist diejenige Anzahl von Linienpaaren, bei der ein normalsichtiges Auge keinen Kontrastunterschied

Mehr

Susanne Haußmann. Aerotriangulation eines Bildverbandes des Stuttgarter Adlers

Susanne Haußmann. Aerotriangulation eines Bildverbandes des Stuttgarter Adlers Susanne Haußmann Aerotriangulation eines Bildverbandes des Stuttgarter Adlers Dauer der Arbeit: 3 Monate Abschluss: Juli 2010 Betreuer: Dr.-Ing. Michael Cramer (ifp), Dipl.-Ing. Ursula Kirchgäßner (IRS)

Mehr

Grundlagen Ausgleichungsrechnung

Grundlagen Ausgleichungsrechnung Saarbrücken Abteilung Bautechnik Gliederung Einleitung Fehlerarten Ausgleichungsrechnung, Methode der kleinsten Quadrate Beispiel Maßstabsfaktor und Additionskonstante Beispiele Helmerttransformation Saarbrücken

Mehr

Qualitativ: Hier geht es um die Inhalte wie z.b. die Landnutzung Quantitativ: Hierbei geht es um das Messen von Koordinaten

Qualitativ: Hier geht es um die Inhalte wie z.b. die Landnutzung Quantitativ: Hierbei geht es um das Messen von Koordinaten Grundlagen der Photogrammetrie Die Photogrammetrie ist ein Verfahren zur Vermessung von Objekten nach Lage und Form. Dabei werden die Messungen nicht direkt am Objekt, sondern indirekt auf Bildern des

Mehr

UNI Duisburg-Essen FB11 Photogrammetrie-Klausur Teil Matrikel-Nr.:

UNI Duisburg-Essen FB11 Photogrammetrie-Klausur Teil Matrikel-Nr.: 1. Nennen Sie je 2 typische Anwendungen aus den Bereichen (6 Punkte) a. Nahbereichsphotogrammetrie b. Luftbildphotogrammetrie c. Fernerkundung 2. Nennen Sie je 2 typische Sensoren aus den Bereichen (6

Mehr

geschlossene Schachtel mit einem kleinen Loch

geschlossene Schachtel mit einem kleinen Loch Kameramodellierung Lochkamera Kamerakonstante Kamerazentrum geschlossene Schachtel mit einem kleinen Loch ideale Kamera: Loch hat keine Ausdehnung die Strahlen sind ein Büschel von Geraden Abbildung erfolgt

Mehr

Der kegelförmige hellenistische Turm auf der Insel von Andros (Ag. Petros)

Der kegelförmige hellenistische Turm auf der Insel von Andros (Ag. Petros) Altgriechische Türme Ansichten der zwei Objekte Der kegelförmige hellenistische Turm auf der Insel von Andros (Ag. Petros) Der zylinderförmige hellenistische Turm auf der Insel von Ikaria (Drakanos) Visualisierung

Mehr

Ebene und Räumliche Transformationen Transformationen

Ebene und Räumliche Transformationen Transformationen Ebene und Räumliche R Transformationen Christoph Brauner Landesamt für Kataster-, Vermessungs- und Kartenwesen Ebene konforme Transformation 5 Parameter Transformation Affine Transformation Räumliche konforme

Mehr

Messungen im Objektkoordinatensystem aus Kamerabildern

Messungen im Objektkoordinatensystem aus Kamerabildern Einbildorientierung Orientierung Ziel der Photogrammetrie Messungen im Objektkoordinatensystem aus Kamerabildern Dazu müssen bekannt sein die Abbildungsgeometrie der Kameras, d.h. die Parameter der inneren

Mehr

Entwicklung eines fächerartigen Distanzmesssystems zur Messung von Rotorblättern. Konzept, Orientierung und erste Ergebnisse

Entwicklung eines fächerartigen Distanzmesssystems zur Messung von Rotorblättern. Konzept, Orientierung und erste Ergebnisse Entwicklung eines fächerartigen Distanzmesssystems zur Messung von Rotorblättern Konzept, Orientierung und erste Ergebnisse Martina Göring M.Sc. & Prof. Dr. Thomas Luhmann AUFGABENSTELLUNG Entwicklung

Mehr

Kalibrierung von Oblique- und UAV Kameras

Kalibrierung von Oblique- und UAV Kameras Kalibrierung von Oblique- und UAV Kameras ERWIN J. KRUCK 1 & BALÁZS MÉLYKUTI 2 Oblique Kalibrierungen haben wegen der nicht vertikalen Blickwinkel andere geometrische Voraussetzungen als Standard-Befliegungen.

Mehr

Digitale Amateur- oder kalibrierte Spiegelreflexkameras für die Photogrammetrie im Bauwesen? Ein Vergleich der Leistungsfähigkeit beider Systeme

Digitale Amateur- oder kalibrierte Spiegelreflexkameras für die Photogrammetrie im Bauwesen? Ein Vergleich der Leistungsfähigkeit beider Systeme Digitale Amateur- oder kalibrierte Spiegelreflexkameras für die Photogrammetrie im Bauwesen? Ein Vergleich der Leistungsfähigkeit beider Systeme DIPLOMARBEIT zur Erlangung des Grades einer Diplom-Bauingenieurin

Mehr

Bildverarbeitung: 3D-Geometrie. D. Schlesinger () Bildverarbeitung: 3D-Geometrie 1 / 13

Bildverarbeitung: 3D-Geometrie. D. Schlesinger () Bildverarbeitung: 3D-Geometrie 1 / 13 Bildverarbeitung: 3D-Geometrie D. Schlesinger () Bildverarbeitung: 3D-Geometrie 1 / 13 Lochkamera Modell C Projektionszentrum, Optische Achse, Bildebene, P Hauptpunkt (optische Achse kreuzt die Bildebene),

Mehr

Einleitung 2. 1 Koordinatensysteme 2. 2 Lineare Abbildungen 4. 3 Literaturverzeichnis 7

Einleitung 2. 1 Koordinatensysteme 2. 2 Lineare Abbildungen 4. 3 Literaturverzeichnis 7 Sonja Hunscha - Koordinatensysteme 1 Inhalt Einleitung 2 1 Koordinatensysteme 2 1.1 Kartesisches Koordinatensystem 2 1.2 Polarkoordinaten 3 1.3 Zusammenhang zwischen kartesischen und Polarkoordinaten 3

Mehr

Lineare Funktionen. Aufgabe 1. Sei f R 2 R definiert durch. x 1 + 3x Beweisen Sie ausführlich, dass f linear ist.

Lineare Funktionen. Aufgabe 1. Sei f R 2 R definiert durch. x 1 + 3x Beweisen Sie ausführlich, dass f linear ist. Lineare Funktionen Aufgabe. Sei f R R definiert durch x f = x x + 3x. Beweisen Sie ausführlich, dass f linear ist. Aufgabe. Die Funktionen (nicht erschrecken sind definiert durch + ( (R n R m (R n R m

Mehr

Inhaltsverzeichnis. 1 Hardwaregrundlagen

Inhaltsverzeichnis. 1 Hardwaregrundlagen Inhaltsverzeichnis 1 Hardwaregrundlagen 2.1 Koordinatentransformationen 2.2 Transformationen in der Ebene 2.3 Transformationen im Raum 3 Repräsentation und Modellierung von Objekten 4 Rasterung 5 Visibilität

Mehr

Qualitative Beurteilung photogrammetrischer Aufnahmekonstellationen im Nahbereich

Qualitative Beurteilung photogrammetrischer Aufnahmekonstellationen im Nahbereich Qualitative Beurteilung photogrammetrischer Aufnahmekonstellationen im Nahbereich Karsten Raguse Manfred Wiggenhagen Inhalt Motivation Übersicht Optische Messkette Bestandteile der Messkette Simulation

Mehr

ANIMATION - GRUNDLAGEN

ANIMATION - GRUNDLAGEN ANIMATION - GRUNDLAGEN Bei CAD-Programmen gibt es meist folgende Verfahren zur Erzeugung von : Festlegung von Schlüsselszenen, aus denen das Programm automatisch Zwischenbilder generiert ( Keyframing )

Mehr

LEICA SUMMARON-M 1:5,6/28 mm

LEICA SUMMARON-M 1:5,6/28 mm Technische Daten. Abbildung : Objektiv Leica Summaron-M :,6/8 mm Bestellnummer 69 Bildwinkel (diagonal, horizontal, vertikal) Für Kleinbild (4 x 6 mm): /6 /46 Optischer Aufbau Zahl der Linsen/Gruppen:

Mehr

Untersuchung und Modellierung des Rolling-Shutter-Effekts für photogrammetrische Einzel- und Mehrbildauswertungen

Untersuchung und Modellierung des Rolling-Shutter-Effekts für photogrammetrische Einzel- und Mehrbildauswertungen Untersuchung und Modellierung des Rolling-Shutter-Effekts für photogrammetrische Einzel- und Mehrbildauswertungen 16. Oldenburger 3D-Tage 2017 Oldenburg, 2. Februar 2017 Robin Rofallski & Thomas Luhmann

Mehr

Fachartikel. Telezentrische Objektive für Kameras größer 1 Zoll

Fachartikel. Telezentrische Objektive für Kameras größer 1 Zoll Vision & Control GmbH Mittelbergstraße 16 98527 Suhl. Germany Telefon: +49 3681 / 79 74-0 Telefax: +49 36 81 / 79 74-33 www.vision-control.com Fachartikel Telezentrische Objektive für Kameras größer 1

Mehr

Versuchsprotokoll. Mathematisch-Naturwissenschaftliche Fakultät I Institut für Physik. Versuch O10: Linsensysteme Arbeitsplatz Nr.

Versuchsprotokoll. Mathematisch-Naturwissenschaftliche Fakultät I Institut für Physik. Versuch O10: Linsensysteme Arbeitsplatz Nr. Mathematisch-Naturwissenschaftliche Fakultät I Institut für Physik Physikalisches Grundpraktikum I Versuchsprotokoll Versuch O10: Linsensysteme Arbeitsplatz Nr. 1 0. Inhaltsverzeichnis 1. Einleitung 2.

Mehr

Anwendung und Auswertung von photogrammetrischen Verfahren zur Analyse von Leuchtdichtemessungen

Anwendung und Auswertung von photogrammetrischen Verfahren zur Analyse von Leuchtdichtemessungen Themengebiet: [Messtechnik & Normen] Anwendung und Auswertung von photogrammetrischen Verfahren zur Analyse von Leuchtdichtemessungen Bleicken, J. R. 1 ; Faecks, N. 1 ; Cappitelli, M. 1 ; Prof. Dr. sc.

Mehr

Eidgenössische Technische Hochschule Zürich DARCH Institut Denkmalpflege und Bauforschung. IDB Institut für Denkmalpflege und Bauforschung

Eidgenössische Technische Hochschule Zürich DARCH Institut Denkmalpflege und Bauforschung. IDB Institut für Denkmalpflege und Bauforschung IDB Institut für Denkmalpflege Kombination von Tachymetrie und Nahbereichsphotogrammetrie zur Modellierung eines verstürzten Giebels in Kalapodi, Griechenland Silke Langenberg, Martin Sauerbier Institut

Mehr

Lineares Gleichungssystem - Vertiefung

Lineares Gleichungssystem - Vertiefung Lineares Gleichungssystem - Vertiefung Die Lösung Linearer Gleichungssysteme ist das "Gauß'sche Eliminationsverfahren" gut geeignet - schon erklärt unter Z02. Alternativ kann mit einem Matrixformalismus

Mehr

Ausgleichungsrechnung - nach der Methode der kleinsten Quadrate -

Ausgleichungsrechnung - nach der Methode der kleinsten Quadrate - Computer Vision Ausgleichungsrechnung - nach der Methode der kleinsten Quadrate -.6.5 Problem Beispiel: Bestimmung der Parameter einer Gerade bei gegebenen x und fehlerhaften y y = ax+ b Beschreibung der

Mehr

Projektive Geometrie

Projektive Geometrie Projektive Geometrie Einleitung Was ist projektive Geometrie? eine alternative algebraische Repräsentation von geometrischen Objekten (Punkt, Gerade,...) und Transformationen (Translation, Rotation,...)

Mehr

Aufgabe 1. Aufgabe 2. Die Formel für den mittleren Fehler einer Streckenmessung mit Meßband lautet:

Aufgabe 1. Aufgabe 2. Die Formel für den mittleren Fehler einer Streckenmessung mit Meßband lautet: Semesterklausur Fehlerlehre und Statistik WS 96/97 11. Februar 1997 Zeit: 2 Stunden Alle Hilfsmittel sind zugelassen Die Formel für den mittleren Fehler einer Streckenmessung mit Meßband lautet: m s :

Mehr

Vermessungskunde für Bauingenieure und Geodäten

Vermessungskunde für Bauingenieure und Geodäten Vermessungskunde für Bauingenieure und Geodäten Übung 6: statistische Auswertung ungleichgenauer Messungen Milo Hirsch Hendrik Hellmers Florian Schill Institut für Geodäsie Fachbereich 13 Inhaltsverzeichnis

Mehr

3D - Modellierung. Arne Theß. Proseminar Computergraphik TU Dresden

3D - Modellierung. Arne Theß. Proseminar Computergraphik TU Dresden 3D - Modellierung Arne Theß Proseminar Computergraphik TU Dresden Gliederung Darstellungsschemata direkte Constructive Solid Geometry (CSG) Generative Modellierung Voxelgitter indirekte Drahtgittermodell

Mehr

LEICA SUMMILUX-M 1:1,4/21 mm ASPH. 1

LEICA SUMMILUX-M 1:1,4/21 mm ASPH. 1 LEICA SUMMILUX-M :,4/ mm ASPH. Mit dem LEICA SUMMILUX-M :,4/mm ASPH. erweitert Leica die Reihe der hoch lichtstarken M-Objektive in den ausgeprägten Weitwinkel-Bereich. Die Abbildungsleistungen des LEICA

Mehr

Versuch O02: Fernrohr, Mikroskop und Teleobjektiv

Versuch O02: Fernrohr, Mikroskop und Teleobjektiv Versuch O02: Fernrohr, Mikroskop und Teleobjektiv 5. März 2014 I Lernziele Strahlengang beim Refraktor ( Linsenfernrohr ) Strahlengang beim Mikroskop Strahlengang beim Teleobjektiv sowie Einblick in dessen

Mehr

Die Interpretation Optischer Leistungsdaten

Die Interpretation Optischer Leistungsdaten Die Interpretation Optischer Leistungsdaten Einige Fakten über die Carl Zeiss AG Seit 1896 berühmt für Kamera-Objektive Zeiss 1846 von Carl Zeiss gegründet 48 Produktionsstandorte weltweit Die ersten Kamerabilder

Mehr

Distributed Algorithms. Image and Video Processing

Distributed Algorithms. Image and Video Processing Chapter 7 High Dynamic Range (HDR) Distributed Algorithms for Quelle: wikipedia.org 2 1 High Dynamic Range bezeichnet ein hohes Kontrastverhältnis in einem Bild Kontrastverhältnis bei digitalem Bild: 1.000:1

Mehr

Vektoren - Basiswechsel

Vektoren - Basiswechsel Vektoren - Basiswechsel Grundprinzip Für rein geometrische Anwendungen verwendet man üblicherweise die Standardbasis. Damit ergibt sich in den Zahlenangaben der Koordinaten kein Unterschied zu einem Bezug

Mehr

Transformation Allgemeines Die Lage eines Punktes kann durch einen Ortsvektor (ausgehend vom Ursprung des Koordinatensystems

Transformation Allgemeines Die Lage eines Punktes kann durch einen Ortsvektor (ausgehend vom Ursprung des Koordinatensystems Transformation - 1 1. Allgemeines 2. Zwei durch eine Translation verknüpfte gleichartige Basissysteme 3. Zwei durch eine Translation verknüpfte verschiedenartige Basissysteme (noch gleiche Orientierung)

Mehr

Geometrische Objekte im 3-dimensionalen affinen Raum oder,... wie nützlich ist ein zugehöriger Vektorraum der Verschiebungen

Geometrische Objekte im 3-dimensionalen affinen Raum oder,... wie nützlich ist ein zugehöriger Vektorraum der Verschiebungen Geometrische Objekte im -dimensionalen affinen Raum Bekanntlich versteht man unter geometrischen Objekten Punktmengen, auf die man die üblichen Mengenoperationen wie z.b.: Schnittmenge bilden: - aussagenlogisch:

Mehr

Fortgeschrittene Bildverarbeitung und Analyse

Fortgeschrittene Bildverarbeitung und Analyse Fortgeschrittene Bildverarbeitung und Analyse Studiengang IEM Inhalt Definition der Bildverarbeitung Verarbeitung-Bearbeitung (Systeme) Grundlagen der Abbildungssysteme Auge, visuelle Wahrnehmung, Kamera,

Mehr

Versuch 005 / Versuch 403

Versuch 005 / Versuch 403 38 Versuch 005 / Versuch 403 Dünne Linsen und Spiegel In diesem Versuch werden die Brennweiten von verschiedenen Sammel- und Zerstreuungslinsen sowie von einem Hohlspiegel bestimmt. Dies geschieht mit

Mehr

) (1 BE) 1 2 ln 2. und somit

) (1 BE) 1 2 ln 2. und somit 1 Aufgaben aus dem Aufgabenpool 1 1.1 Analysis A1_1 Eine Funktion f ist durch 1 x f(x) e 1, x IR, gegeben. Ermitteln Sie die Nullstelle der Funktion f. ( ) b) Die Tangente an den Graphen von f im Punkt

Mehr

Grenzwert für NV 2.0 Grenzwert der Kontrollierbarkeit EV 10 % Zieleinstellfehler m Anzahl der zu rechnenden Iterationen 9.

Grenzwert für NV 2.0 Grenzwert der Kontrollierbarkeit EV 10 % Zieleinstellfehler m Anzahl der zu rechnenden Iterationen 9. F Nachweis über die Qualität der Messung 1 von (3) Freie Ausgleichung Ausgleichungsmodell Programm Benutztes Rechenprogramm WinKAFKA Version 6.0.0 Name und Stand der Auftragsdatei Name: Stahlsweg4.kpf

Mehr

Vektoren - Die Basis

Vektoren - Die Basis Vektoren - Die Basis Motivation (Als Vereinfachung - der Schreibarbeit - wählen wir meistens Vektoren in R 2.) Eigentlich ist ja Alles klar! Für einen Vektor a gilt a = ( a x a y )! Am Ende werden wir

Mehr

3.1 Motivation. - Mit (mehreren) Koordinatentransformationen wird das Objektsystem in das Gerätesystem transformiert.

3.1 Motivation. - Mit (mehreren) Koordinatentransformationen wird das Objektsystem in das Gerätesystem transformiert. 3.1 Motivation Wichtige Grundlage der Bildwiedergabe auf dem Bildschirm oder anderen Ausgabegeräten sind Koordinatensysteme und Koordinatentransformationen im IR 2 und IR 3. Im allgemeinen unterscheidet

Mehr

Stabilitätsprüfung projizierter Referenzpunkte für die Erfassung großvolumiger Messobjekte

Stabilitätsprüfung projizierter Referenzpunkte für die Erfassung großvolumiger Messobjekte Stabilitätsprüfung projizierter Referenzpunkte für die Erfassung großvolumiger Messobjekte Murat ÜRÜN, Manfred WIGGENHAGEN, Hubertus NITSCHKE, Christian HEIPKE VWN Hannover, IPI Universität Hannover IPI

Mehr

3. Übung Astronomie Positionsbestimmung mit Hilfe des Standlinienverfahrens. Andreas Maus

3. Übung Astronomie Positionsbestimmung mit Hilfe des Standlinienverfahrens. Andreas Maus 3. Übung Astronomie Positionsbestimmung mit Hilfe des Standlinienverfahrens Andreas Maus 23. Juni 1999 Aufgabe: Es sind die Koordinaten (Länge λ und Breite φ) des Beobachtungsstandortes durch Messung von

Mehr

Inhalte. Kamerasysteme in der Nahbereichsphotogrammetrie Analoge Messkameras Analoge Teil-Messkameras Analoge Nicht-Messkameras Digitale Kamerasysteme

Inhalte. Kamerasysteme in der Nahbereichsphotogrammetrie Analoge Messkameras Analoge Teil-Messkameras Analoge Nicht-Messkameras Digitale Kamerasysteme Inhalte Kamerasysteme in der Nahbereichsphotogrammetrie Analoge Messkameras Analoge Teil-Messkameras Analoge Nicht-Messkameras Digitale Kamerasysteme Hochauflösende Digitalkameras Scanning-Kameras Videokameras

Mehr

unabhängigen Variablen Eine Funktion dient der Beschreibung von Zusammenhängen zwischen mehreren verschiedenen Faktoren.

unabhängigen Variablen Eine Funktion dient der Beschreibung von Zusammenhängen zwischen mehreren verschiedenen Faktoren. Funktionsbegriff 2.1 2 Funktionen mit einer unabhängigen Variablen 2.1 Funktionsbegriff Eine Funktion dient der Beschreibung von Zusammenhängen zwischen mehreren verschiedenen Faktoren. In den Wirtschaftswissenschaften

Mehr

Aufgabe 1: Koordinatensysteme

Aufgabe 1: Koordinatensysteme Übungen zu Struktur aus Bewegung Arbeitsgruppe Aktives Sehen Sommersemester 3 Prof. Dr-Ing. D. Paulus / S. Bouattour / M. Eisemann Beispiellösung für Übungsblatt Aufgabe : Koordinatensysteme Skizzieren

Mehr

14. Polarpunktberechnung und Polygonzug

14. Polarpunktberechnung und Polygonzug 14. Polarpunktberechnung und Polygonzug An dieser Stelle sei noch einmal auf das Vorwort zu Kapitel 13 hinsichtlich der gekürzten Koordinatenwerte hingewiesen. 14.1. Berechnungen bei der Polaraufnahme

Mehr

Kamerakalibrierung. Messen in Videobildern, Leobots-Projekt Version 1.0. Matthias Jauernig, 03INB, HTWK Leipzig

Kamerakalibrierung. Messen in Videobildern, Leobots-Projekt Version 1.0. Matthias Jauernig, 03INB, HTWK Leipzig Kamerakalibrierung Messen in Videobildern, Leobots-Projekt 2006 Version 1.0 Matthias Jauernig, 03INB, HTWK Leipzig Copyright (c) 2006, Matthias Jauernig Kamerakalibrierung, Matthias Jauernig 3 Begriffe

Mehr

Rotation. Versuch: Inhaltsverzeichnis. Fachrichtung Physik. Erstellt: U. Escher A. Schwab Aktualisiert: am 29. 03. 2010. Physikalisches Grundpraktikum

Rotation. Versuch: Inhaltsverzeichnis. Fachrichtung Physik. Erstellt: U. Escher A. Schwab Aktualisiert: am 29. 03. 2010. Physikalisches Grundpraktikum Fachrichtung Physik Physikalisches Grundpraktikum Versuch: RO Erstellt: U. Escher A. Schwab Aktualisiert: am 29. 03. 2010 Rotation Inhaltsverzeichnis 1 Aufgabenstellung 2 2 Allgemeine Grundlagen 2 2.1

Mehr

entspricht der Länge des Vektorpfeils. Im R 2 : x =

entspricht der Länge des Vektorpfeils. Im R 2 : x = Norm (oder Betrag) eines Vektors im R n entspricht der Länge des Vektorpfeils. ( ) Im R : x = x = x + x nach Pythagoras. Allgemein im R n : x x = x + x +... + x n. Beispiele ( ) =, ( 4 ) = 5, =, 4 = 0.

Mehr

Protokoll: Grundpraktikum II O10 - Linsensysteme

Protokoll: Grundpraktikum II O10 - Linsensysteme Protokoll: Grundpraktikum II O10 - Linsensysteme Sebastian Pfitzner 10. März 2014 Durchführung: Anna Andrle (550727), Sebastian Pfitzner (553983) Arbeitsplatz: Platz 4 Betreuer: Valentina Scherer Versuchsdatum:

Mehr

Grenzwert für NV 2.0 Grenzwert der Kontrollierbarkeit EV 10 % Zieleinstellfehler m Anzahl der zu rechnenden Iterationen 9 Auffelderung

Grenzwert für NV 2.0 Grenzwert der Kontrollierbarkeit EV 10 % Zieleinstellfehler m Anzahl der zu rechnenden Iterationen 9 Auffelderung F Nachweis über die Qualität der Messung 1 von (4) Freie Ausgleichung Ausgleichungsmodell Programm Benutztes Rechenprogramm WinKAFKA Version 7.0.3 Name und Stand der Auftragsdatei Name: Gebeinmessung S1.kpf

Mehr

Verzeichnung und Messgenauigkeit aufgrund der Verzeichnung. Tutorial

Verzeichnung und Messgenauigkeit aufgrund der Verzeichnung. Tutorial Verzeichnung und Messgenauigkeit aufgrund der Verzeichnung Seite 2 1. Definition Verzeichnung Verzeichnung (engl. distortion) ist ein geometrischer Abbildungsfehler eines optischen Systems. Dieser Fehler

Mehr

LEICA APO-MACRO-ELMARIT-R 1:2,8/100 mm 1

LEICA APO-MACRO-ELMARIT-R 1:2,8/100 mm 1 LEICA APO-MACRO-ELMARIT-R 1:2,8/1 mm 1 Seine Gesamtleistung macht es zum großen Vorbild im Kleinbildbereich: Wo sonst sind Schärfe und Kontrast, Vignettierung und Verzeichnung bei allen Entfernungen und

Mehr

Ausgleichsproblem. Definition (1.0.3)

Ausgleichsproblem. Definition (1.0.3) Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst

Mehr

Kreis - Tangente. 2. Vorbemerkung: Satz des Thales Eine Möglichkeit zur Bestimmung der Tangente benutzt den Satz des Thales.

Kreis - Tangente. 2. Vorbemerkung: Satz des Thales Eine Möglichkeit zur Bestimmung der Tangente benutzt den Satz des Thales. Kreis - Tangente 1. Allgemeines 2. Satz des Thales 3. Tangente an einem Punkt auf dem Kreis 4. Tangente über Analysis (an einem Punkt eines Ursprungkreises) 5. Tangente von einem Punkt (Pol) an den Kreis

Mehr

Mathematische Grundlagen

Mathematische Grundlagen Mathematische Grundlagen Oliver Deussen Mathematische Grundlagen 1 Affine Räume um Zeichenebene bzw. Raum zu beschreiben, muß vorher ein Koordinatensystem festgelegt werden durch geometrische Fragestellungen

Mehr

Abb. 5.10: Funktion und Tangentialebene im Punkt ( ) ( ) ( ) 3.) Die Zahlenwerte und in Gleichung (Def. 5.11) berechnen sich durch ( ) ( )

Abb. 5.10: Funktion und Tangentialebene im Punkt ( ) ( ) ( ) 3.) Die Zahlenwerte und in Gleichung (Def. 5.11) berechnen sich durch ( ) ( ) Abb. 5.0: Funktion und Tangentialebene im Punkt Aus der totalen Differenzierbarkeit folgt sowohl die partielle Differenzierbarkeit als auch die Stetigkeit von : Satz 5.2: Folgerungen der totalen Differenzierbarkeit

Mehr

Praktikum Optische Technologien Anleitung zum Versuch Dicke Linsen

Praktikum Optische Technologien Anleitung zum Versuch Dicke Linsen Fachbereich Energietechnik Lehrgebiet für Lasertechnik und Optische Technologien Prof. Dr. F.-M. Rateike Praktikum Optische Technologien Anleitung zum Versuch Dicke Linsen August 204 Praktikum Optische

Mehr

2.2 Kollineare und koplanare Vektoren

2.2 Kollineare und koplanare Vektoren . Kollineare und koplanare Vektoren Wie wir schon gelernt haben, können wir einen Vektor durch Multiplikation mit einem Skalar verlängern oder verkürzen. In Abbildung 9 haben u und v die gleiche Richtung,

Mehr

Was ist eine Funktion?

Was ist eine Funktion? Lerndomino zum Thema Funktionsbegriff Kopiereen Sie die Seite (damit Sie einen Kontrollbogen haben), schneiden Sie aus der Kopie die "Dominosteine" zeilenweise aus, mischen Sie die "Dominosteine" und verteilen

Mehr

CRSEU Informationssystem für europäische Koordinatenreferenzsysteme

CRSEU Informationssystem für europäische Koordinatenreferenzsysteme CRSEU Informationssystem für europäische Koordinatenreferenzsysteme Einführung Geodätische Bezugssysteme sichern den Raumbezug für topographische und thematische Karten sowie für digitale Geoinformationen.

Mehr

Akzeptanz einfacher photogrammetrischer Auswertesoftware in der photogrammetrischen Ausbildung

Akzeptanz einfacher photogrammetrischer Auswertesoftware in der photogrammetrischen Ausbildung Akzeptanz einfacher photogrammetrischer Auswertesoftware in der photogrammetrischen Ausbildung MANFRED WIGGENHAGEN 1 Zusammenfassung: Die photogrammetrische Auswertesoftware PhotoModeler der Firma EOS

Mehr

Kapitel 2: Mathematische Grundlagen

Kapitel 2: Mathematische Grundlagen [ Computeranimation ] Kapitel 2: Mathematische Grundlagen Prof. Dr. Stefan M. Grünvogel stefan.gruenvogel@fh-koeln.de Institut für Medien- und Phototechnik Fachhochschule Köln 2. Mathematische Grundlagen

Mehr

20. und 21. Vorlesung Sommersemester

20. und 21. Vorlesung Sommersemester 2. und 21. Vorlesung Sommersemester 1 Der Spezialfall fester Drehachse Aus dem Trägheitstensor sollte der früher behandelte Spezialfall fester Drehachse wieder hervorgehen. Wenn man ω = ω n mit einem Einheitsvektor

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

Projektion. Ebene geometrische Projektionen

Projektion. Ebene geometrische Projektionen Projektion - 1 - Ebene geometrische Projektionen Die ebenen geometrischen Projektionen sind dadurch charakterisiert, daß mit Projektionsstrahlen konstanter Richtung, d.h. entlang von Geraden, auf Ebenen

Mehr

Vektorgeometrie. 1. Vektoren eingeben, Norm, Skalarprodukt. 2 In einem kartesischen Koordinatensystem sind die Vektoren. , v. und. gegeben.

Vektorgeometrie. 1. Vektoren eingeben, Norm, Skalarprodukt. 2 In einem kartesischen Koordinatensystem sind die Vektoren. , v. und. gegeben. Vektorgeometrie 1. Vektoren eingeben, Norm, Skalarprodukt 2 In einem kartesischen Koordinatensystem sind die Vektoren u 14, 5 11 10 v 2 und w 5 gegeben. 10 10 a) Zeigen Sie, dass die Vektoren einen Würfel

Mehr

Das Zusammenspiel von ISO Blende - Belichtungszeit. Die Belichtung. Michael Lamberty -

Das Zusammenspiel von ISO Blende - Belichtungszeit. Die Belichtung. Michael Lamberty - Das Zusammenspiel von ISO Blende - Belichtungszeit Die Belichtung Michael Lamberty - www.mlsb.de Grundlagen Übersicht ISO Belichtungszeit Blende Zerstreuungskreis Beugungsunschärfe Belichtung messen 2

Mehr

2.3.4 Drehungen in drei Dimensionen

2.3.4 Drehungen in drei Dimensionen 2.3.4 Drehungen in drei Dimensionen Wir verallgemeinern die bisherigen Betrachtungen nun auf den dreidimensionalen Fall. Für Drehungen des Koordinatensystems um die Koordinatenachsen ergibt sich 1 x 1

Mehr

Prof. Dr. B. Lang Prof. Dr. J. Biermann. Kameragestützte Volumenbestimmung von Hühnereiern im Stall. Fakultät Ingenieurwissenschaften und Informatik

Prof. Dr. B. Lang Prof. Dr. J. Biermann. Kameragestützte Volumenbestimmung von Hühnereiern im Stall. Fakultät Ingenieurwissenschaften und Informatik Prof. Dr. B. Lang Prof. Dr. J. Biermann Kameragestützte Volumenbestimmung von Hühnereiern im Stall 1 Aufgabenstellung Big Dutchman EggCam Ei-Aufnahme (verzerrt) Arbeitsschritte Aufnahme und Detektion von

Mehr

Aufnahmeplanung. 1. Geben Sie im Bereich Objektgröße / Bildgröße die vor Ort gemessene Breite [m] und Höhe [m] Ihres Objektes ein.

Aufnahmeplanung. 1. Geben Sie im Bereich Objektgröße / Bildgröße die vor Ort gemessene Breite [m] und Höhe [m] Ihres Objektes ein. Für viele Kunden war der Kauf von metigo MAP mit einem Umstieg von der klassischen Kartierung mit Fotografien, Folien und Stiften hin zur digitalen Kartierung am PC verbunden. So war es dann auch nicht

Mehr

Digitale Bildverarbeitung (DBV)

Digitale Bildverarbeitung (DBV) Digitale Bildverarbeitung (DBV) Prof. Dr. Ing. Heinz Jürgen Przybilla Labor für Photogrammetrie Email: heinz juergen.przybilla@hs bochum.de Tel. 0234 32 10517 Sprechstunde: Montags 13 14 Uhr und nach Vereinbarung

Mehr

4. Segmentierung von Objekten Video - Inhaltsanalyse

4. Segmentierung von Objekten Video - Inhaltsanalyse 4. Segmentierung von Objekten Video - Inhaltsanalyse Stephan Kopf Inhalt Vorgehensweise Berechnung der Kamerabewegungen zwischen beliebigen Bildern Transformation eines Bildes Hintergrundbilder / Panoramabilder

Mehr

Proseminar über multimediale Lineare Algebra und Analytische Geometrie

Proseminar über multimediale Lineare Algebra und Analytische Geometrie Proseminar über multimediale Lineare Algebra und Analytische Geometrie Aufgabensteller: Dr. M. Kaplan Josef Lichtinger Montag, 1. Dezember 008 Proseminar WS0809 Inhaltsverzeichnis 1 Aufgabenstellung 3

Mehr

A2.3 Lineare Gleichungssysteme

A2.3 Lineare Gleichungssysteme A2.3 Lineare Gleichungssysteme Schnittpunkte von Graphen Bereits weiter oben wurden die Schnittpunkte von Funktionsgraphen mit den Koordinatenachsen besprochen. Wenn sich zwei Geraden schneiden, dann müssen

Mehr

Modul: Ausgewählte Kapitel der Didaktik der Mathematik

Modul: Ausgewählte Kapitel der Didaktik der Mathematik Modul: Ausgewählte Kapitel der Didaktik der Mathematik Raumgeometrie: Körperdarstellungen, Projektionen Pascal Becker, Alexander Simon 11. Dezember 2014 1 / 16 Inhaltsverzeichnis 1 Rahmenlehrpläne 2 Projektionen

Mehr

Versuchsprotokoll. Mathematisch-Naturwissenschaftliche Fakultät I Institut für Physik. Versuch O8: Fraunhofersche Beugung Arbeitsplatz Nr.

Versuchsprotokoll. Mathematisch-Naturwissenschaftliche Fakultät I Institut für Physik. Versuch O8: Fraunhofersche Beugung Arbeitsplatz Nr. Mathematisch-Naturwissenschaftliche Fakultät I Institut für Physik Physikalisches Grundpraktikum I Versuchsprotokoll Versuch O8: Fraunhofersche Beugung Arbeitsplatz Nr. 1 0. Inhaltsverzeichnis 1. Einleitung.

Mehr

5. Raum-Zeit-Symmetrien: Erhaltungssätze

5. Raum-Zeit-Symmetrien: Erhaltungssätze 5. Raum-Zeit-Symmetrien: Erhaltungssätze Unter Symmetrie versteht man die Invarianz unter einer bestimmten Operation. Ein Objekt wird als symmetrisch bezeichnet, wenn es gegenüber Symmetrieoperationen

Mehr

Einführung in die linearen Funktionen. Autor: Benedikt Menne

Einführung in die linearen Funktionen. Autor: Benedikt Menne Einführung in die linearen Funktionen Autor: Benedikt Menne Inhaltsverzeichnis Vorwort... 3 Allgemeine Definition... 3 3 Bestimmung der Steigung einer linearen Funktion... 4 3. Bestimmung der Steigung

Mehr

SCHRIFTLICHE ABITURPRÜFUNG Mathematik (Leistungskurs) Arbeitszeit: 300 Minuten

SCHRIFTLICHE ABITURPRÜFUNG Mathematik (Leistungskurs) Arbeitszeit: 300 Minuten Mathematik (Leistungskurs) Arbeitszeit: 300 Minuten Der Prüfling wählt je eine Aufgabe aus den Gebieten L 1, L 2 und L 3 zur Bearbeitung aus. Gewählte Aufgaben (Die drei zur Bewertung vorgesehenen Aufgaben

Mehr

3. Analyse der Kamerabewegung Video - Inhaltsanalyse

3. Analyse der Kamerabewegung Video - Inhaltsanalyse 3. Analyse der Kamerabewegung Video - Inhaltsanalyse Stephan Kopf Bewegungen in Videos Objektbewegungen (object motion) Kameraoperationen bzw. Kamerabewegungen (camera motion) Semantische Informationen

Mehr

How To Create A Panorama Image From A Photoelectric Image From An Image From The Camera (I)

How To Create A Panorama Image From A Photoelectric Image From An Image From The Camera (I) Chapter 3 Image Registration Distributed Algorithms for Einführung (I) Definition: Image Registration Gegeben: 2 Bilder der gleichen Szene aber aufgenommen aus unterschiedlichen Perspektiven Gesucht: Transformation,

Mehr

Inhalte. HS BO Lab. für Photogrammetrie: Bildflug 1

Inhalte. HS BO Lab. für Photogrammetrie: Bildflug 1 Inhalte Bildflug Bildflugplanung Navigation (Einsatzmöglichkeiten von GPS und Inertialsystemen) Zweibildauswertung Grundlagen Stereoskopisches Sehen und Messen Stereoauswertesysteme Orientierungsverfahren

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr