Einsatzmöglichkeiten und Genauigkeitspotenzial eines strengen mathematischen Modells für Rotationszeilenkameras

Ähnliche Dokumente
Untersuchungen zur Genauigkeit eines integrierten terrestrischen Laserscanner-Kamera Systems

Ein Ansatz zur Elimination der chromatischen Aberration bei der Modellierung und Kalibrierung von Fisheye-Aufnahmesystemen

Bildwinkel & Auflösung

Qualitative Beurteilung photogrammetrischer Aufnahmekonstellationen im Nahbereich

Inhalte. Methoden und Verfahren zur automatisierten Auswertung Bildtriangulation

Analoge Messkameras Analoge Teil-Messkameras Analoge Nicht-Messkameras Digitale Kamerasysteme

Untersuchung zur Genauigkeit der Kamerakalibrierung über Merkmalspunkte in SfM-Werkzeugen

Sensor Modeling, Calibration and Point Positioning with Tcrrcstrial Panoramic Cameras

Methoden und Verfahren zur automatisierten Auswertung

Fachartikel. Telezentrische Objektive für Kameras größer 1 Zoll

Digitale Bildverarbeitung (DBV)

Prinzip. Grundkonzept Zeilenkamera

Superweitwinkel- und Fisheye-Kameras in photogrammetrischen Anwendungen

Superweitwinkel- und Fisheye-Kameras in photogrammetrischen Anwendungen

Untersuchung der Fujifilm Real 3D Stereokameras für den photogrammetrischen Einsatz

geschlossene Schachtel mit einem kleinen Loch

Parametrisierung von Hochgeschwindigkeits-Kamerasystemen zur Echtzeit-Bildbearbeitung

Eidgenössische Technische Hochschule Zürich DARCH Institut Denkmalpflege und Bauforschung. IDB Institut für Denkmalpflege und Bauforschung

Versuch C: Auflösungsvermögen Einleitung

Vermessung und Photogrammetrie mit dem Trimble V10 Multi-Kamera Rover. Martin Köhler

Digitale Luftbildkamera ADS40 (Airborne Digital Sensor)

Aufnahmeplanung. 1. Geben Sie im Bereich Objektgröße / Bildgröße die vor Ort gemessene Breite [m] und Höhe [m] Ihres Objektes ein.

Automatische Verfahren zur Verknüpfung von Punktwolken

Potential neuer großformatiger digitaler Kameras

abf diagnostics GmbH ForensiScan Spurenscanner 2015

Polte, Galina; Rennert, Klaus-Jürgen; Linß, Gerhard: Korrektur von Abbildungsfehlern für optische Messverfahren

Honeywell.com. 1JSR Document control number. Honeywell Proprietary

Dienstbesprechung 3D - Produkte der VKV. Vom Orientierten Luftbild bis zum Orthophoto (DOP) Andreas Schellmann

Cycloramas Nutzen und Mehrwerte für die Stadt Frankfurt am Main

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg

Untersuchung von Kavitationszuständen. IGF-Vorhaben N / 1

Terrestrisches Laserscanning Ein allgemeiner Überblick über Messmethoden und Einsatzmöglichkeiten in der Geomatik. Hans-Martin Zogg, ETH Zürich

C 6 der unbekannte Korrekturfaktor?

(7) Normal Mapping. Vorlesung Computergraphik II S. Müller. Dank an Stefan Rilling U N I V E R S I T Ä T KOBLENZ LANDAU

Inhalte. Photogram. Aufnahmesysteme. HS BO Lab. für Photogrammetrie: Metrische Kameras und Innere Orientierung 1

Technologievergleich Digitalkamerasysteme

Prof. J. Zhang Universität Hamburg. AB Technische Aspekte Multimodaler Systeme. 16. Dezember 2003

Optische Systeme und Computer Vision. Heinz-Wilhelm Hübers, Ralf Reulke

Der EVMA 1288 Standard als Wegweiser zur richtigen Kamera mit der richtigen Bildqualität. Vortragender: Christoph Hoernlen Territory Account Manager

Kinematische Ingenieurvermessung von Autobahnen und U-Bahnen mit Hochleistungs-Laserscannern

Physikalisches Praktikum 3. Abbésche Theorie

Sagt die Anzahl der Pixel im Bild alles?

Vektoren - Basiswechsel

GIS Einführungsschulung

1 Lambert-Beersches Gesetz

Anleitung: Standardabweichung

Didaktik der Geometrie Kopfgeometrie

2 Elektrischer Stromkreis

FEM isoparametrisches Konzept

Warme Kante für Fenster und Fassade

Akzeptanz einfacher photogrammetrischer Auswertesoftware in der photogrammetrischen Ausbildung

Die vier Parameter beim Fotografieren: Das Equipment

Optische 3D-Messsysteme. Bildgebende Systeme mit punktförmiger Antastung. VDI/VDE 2634 Blatt 1

Bildtransformationen. Geometrische Transformationen Grauwert-Interpolation

CCD. Autoren: Rupert Gratz - Daniel Kadir - Stefan Reischmann. CCD steht für "charge"

Bildverarbeitung - Inhalt

Koordinatenentzerrung

1 Messfehler. 1.1 Systematischer Fehler. 1.2 Statistische Fehler

Digitale Luftbildkameras

Genauigkeitsuntersuchungen zur photogrammetrischen Positionsbestimmung eines Multi-Kamera-Systems

Debayeringverfahren. 19. Mai Thomas Noack, Nikolai Kosjar. SE Computational Photography - Debayeringverfahren

'Visual Hull' mit Hilfe von Spiegeln

Pentominos auf der Hundertertafel

Inhalte. HS BO Lab. für Photogrammetrie: Bildflug 1

Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17

Gemeinsame Tagung 2014 der DGfK, der DGPF, der GfGI und des GiN (DGPF Tagungsband 23 / 2014) Bildqualität

Farbtiefe. Gängige Farbtiefen

Elektronisches Auge wird wachsamer

Patientenbezogene Qualitätssicherung von IMRT-Bestrahlungen

Bayernbefliegung digital

Software in der Industriellen Bildverarbeitung

Photogrammetrie Laserscanning Optische SD- Messtechnik

PP Physikalisches Pendel

Hinweise zur Ermittlung der Kameraposition

Arbeitsweisen der Physik

Vermessungskunde für Bauingenieure und Geodäten

Verwendungszweck elektronischer Kameras

Praktikum Angewandte Optik Versuch: Aufbau eines Fernrohres

PANORAMA-FOTOGRAFIE. Tutorial 1: Die optimale Aufnahme von Jürgen Winkels

Lernmaterialblatt Mathematik. Vektorrechnung eine Einführung. Anwendung Mathematik I. Einleitung:

X.media.press. Digitale Panoramen. Tipps, Tricks und Techniken für die Panoramafotografie. Bearbeitet von Corinna Jacobs

Überschrift. Titel Prognosemethoden

8. Statistik Beispiel Noten. Informationsbestände analysieren Statistik

Nichtrealistische Darstellung von Gebirgen mit OpenGL

ifp Diplomhauptprüfung Frühjahr 2000 Prüfung mündlich abgehalten Institut für Photogrammetrie

Kapitel 7. Crossvalidation

Regelbasierte Zufallsgenerierung von Gebäudemodellen aus Bebauungsplänen mit der Software CityEngine

Entwicklung und Erprobung eines digitalen Zenitkamerasystems für die hochpräzise Lotabweichungsbestimmung

MaTHEMATISCHE GRUNDLAGEN BUGA-AR TELESCOPE. Marko HeRBERTZ

3D-Sensoren auf PMD-Basis zur Objekterkennung und -verfolgung

Kamerakalibrierung. Messen in Videobildern, Leobots-Projekt Version 1.0. Matthias Jauernig, 03INB, HTWK Leipzig

Technische Universität

Messtechnik. Rainer Parthier

Digitale Bildverarbeitung (DBV)

Inhalte. Photogram. Aufnahmesysteme. HS BO Lab. für Photogrammetrie: Digitale Aufnahmesysteme 1

Abiturprüfung Mathematik 2012 Baden-Württemberg Allgemeinbildende Gymnasien Wahlteil Geometrie II 2 Lösungen

Herzlich willkommen zur Vorlesung Statistik. Streuungsmaße oder die Unterschiedlichkeit der Daten nebst kurzen Ausführungen zu Schiefe und Wölbung

*DE A *

Evaluation des Einsatzpotentials einer distanzmessenenden Kamera im Bereich der mobilen Roboternavigation

GPS Analogieexperiment

Transkript:

Einsatzmöglichkeiten und Genauigkeitspotenzial eines strengen mathematischen Modells für Rotationszeilenkameras Danilo SCHNEIDER und Hans-Gerd MAAS Zusammenfassung Ein im Institut für Photogrammetrie und Fernerkundung der TU Dresden entwickeltes strenges mathematisches Modell für Rotationszeilenkameras wird im vorliegenden Beitrag beschrieben und untersucht. Die Genauigkeit des Modells konnte durch Einbeziehen zusätzlicher Parameter, welche systematische Abweichungen vom geometrischen Modellansatz beschreiben, gesteigert werden. Außerdem wurde das mathematische Modell erfolgreich in verschiedene photogrammtrische Auswerteverfahren implementiert. Zu diesen Verfahren gehört vor allem die selbstkalibrierende Bündelblockausgleichung für Panoramabilder. Damit eignen sich die Panoramakamera und deren mathematisches Modell vor allem für die genaue 3D-Modellierung von Innenräumen, Plätzen oder langen Fassaden in Verbindung mit der Auswertung hochauflösender Texturinformation. 1 Einleitung Die stereoskopische Aufnahme von Innenräumen oder Plätzen mit konventionellen Kameras bereitet oft Schwierigkeiten, da sehr viele Bilder aufgenommen werden müssen, um für die Auswertung notwendige Überlappungen zu erreichen. Deshalb bieten Panoramakameras in der Photogrammetrie eine interessante Alternative zu herkömmlichen Verfahren, da innenraumähnliche Geometrien mit wenigen Bildern in Verbindung mit einer hohen Auflösung vollständig erfasst werden können (TECKLENBURG & LUHMANN 2003). Analoge Panoramakameras existieren bereits seit geraumer Zeit, wurden anfänglich jedoch ausschließlich für fotografische Zwecke genutzt. Abb. 1: Panorama der Ruine der Trinitatiskirche in Dresden Die meisten photogrammetrischen Aufnahmetechniken basieren auf dem Grundprinzip der Zentralperspektive. Dieses Prinzip gilt für Panoramakameras nicht, es handelt sich vielmehr

2 D. Schneider und H.-G. Maas um eine Abbildung auf einen Zylindermantel. Um Panoramakameras photogrammetrisch nutzen zu können, musste deshalb ein strenges mathematisches Modell für diese Abbildungsform entwickelt werden (SCHNEIDER & MAAS 2003). Dieses Modell wurde um spezielle, für digitale Panoramakameras geltende Zusatzparameter erweitert und die Modellgenauigkeit dadurch erhöht. Das mathematische Modell wurde zunächst zur Kamerakalibrierung im räumlichen Rückwärtsschnitt implementiert und anhand einer von der Fa. KST (Kamera System Technik Dresden GmbH) entwickelten Kamera analysiert. Aufbauend auf dem Modell wurden eine Bündelblockausgleichung für Panoramabilder entwickelt und andere photogrammetrische Methoden an die spezielle Panoramageometrie angepasst. Damit ist es nun möglich, eine genaue 3D-Erfassung von Objekten wie Innenräumen, Plätzen oder langen Fassaden unter Nutzung detailgetreuer RGB-Information der Kamera vorzunehmen. 2 Rotationszeilenkamera 2.1 Aufnahmeprinzip Das Aufnahmeprinzip einer digitalen Panoramakamera ähnelt dem eines Flachbettscanners. Bei einem Flachbettscanner wird eine RGB-CCD-Zeile linear über das aufzunehmende Objekt geführt. Bei der Panoramakamera bewegt sich die CCD-Zeile auf einer Kreisbahn um eine feste Rotationsachse und beschreibt dabei einen Zylindermantel. Man spricht daher auch von einer Rotationszeilenkamera. Abb. 2: Aufnahmeprinzip einer Rotationszeilenkamera und Kamera EYESCAN M3 Auf diese Art und Weise wird der Raum, in dem sich die Kamera befindet, mit einem horizontalen Öffnungswinkel von bis zu 360 gescannt. Der vertikale Öffnungswinkel hängt neben der Sensorlänge natürlich von der Brennweite des verwendeten Objektivs ab. Da der Zeilensensor tatsächlich aus jeweils einer CCD-Zeile je Farbkanal besteht, wird die volle RGB-Information ohne Verwendung von Farbfiltern und nachträglicher Interpolation aufgezeichnet. Nachteilig an diesem Aufnahmeprinzip ist die im Vergleich zu Flächensensoren lange Aufnahmedauer, weshalb u. a. auch bewegte Objekte falsch abgebildet werden.

Einsatzmöglichkeiten und Genauigkeit eines mathematischen Modells für Panoramakameras 3 2.2 Kamera EYESCAN M3 Die verwendete Rotationszeilenkamera EYESCAN M3 wurde von der Kamera System Technik Dresden GmbH (KST) in Zusammenarbeit mit dem Deutschen Zentrum für Luftund Raumfahrt (DLR) entwickelt. In dieser Kamera wird ein CCD-Sensor mit 3 10200 Pixel verwendet. Ähnliche Sensoren werden auch in Zeilenkameras auf Flugzeugplattformen eingesetzt, wie beispielsweise im ADS40 (Airborne Digital Sensor). Die Bildgröße eines 360 -Panoramas beträgt je nach verwendetem Objektiv zwischen ca. 300 und 900 Megapixel. Weitere Details zum Aufbau und der Arbeitsweise der EYESCAN M3 wurden bereits in SCHNEIDER & MAAS (2003) beschrieben. Einige der technischen Daten sind in Tabelle 1 zusammengefasst. Tabelle 1: Technische Daten der Rotationszeilenkamera EYESCAN M3 Objektiv 35 mm 45 mm 60 mm 100 mm Sensor: RGB-CCD-Zeile mit 10200 Pixel je Farbkanal, Länge 72 mm, Radiometrische Auflösung: 16 bit je Farkanal Anzahl Bildspalten (360 ) 31400 40400 53800 89700 Vertikaler Öffnungswinkel 90 80 60 40 Datenvolumen (360, 48 Bit) 1,7 GB 2,3 GB 3,1 GB 5,1 GB Aufnahmedauer (360, 8 ms je Spalte) 3 min 4,5 min 6 min 10 min Es besteht die Möglichkeit, ein Beleuchtungssystem auf der Kamera zu montieren, welches einen sich mit der Kamera mitdrehenden Lichtstreifen an das Objekt projiziert. Dieses System besteht aus einer Lichtquelle und einem Lichtleiterkabel, welches das Licht zu 3 Querschnittswandlern leitet. Für die Aufnahme retro-reflektierender Zielmarken, beispielsweise zur Kamerakalibrierung, ist eine solche Beleuchtung aus Aufnahmerichtung zwingend notwendig. 3 Mathematisches Modell 3.1 Modellansatz Die Abbildung von Objektpunkten auf dem durch die Rotationszeilenkamera beschriebenen Zylindermantel entspricht nur in einer Bildkoordinatenrichtung dem bekannten Prinzip der Zentralperspektive. Deshalb musste ein mathematisches Modell für die Abbildung auf die Zylindergeometrie entwickelt werden. Für diese Modellierung werden verschiedene Koordinatensysteme verwendet. Wie auch in LISOWSKI & WIEDEMANN (1998) werden neben kartesischem Objekt- und dem Pixelkoordinatensystem ein kartesisches und ein zylindrisches Kamerakoordinatesystem, angepasst an die spezielle Geometrie der Abbildung, definiert. Durch die gegenseitige Transformation der Systeme erhält man das Grundmodell in Form von Beobachtungsgleichungen (vgl. Abbildung 3). Diese Gleichungen sind als Beobachtungsgleichungen ähnlich aufgebaut wie die Kollinearitätsbeziehungen der Zentralperspektive, d.h. die Beobachtungen (Bildkoordinaten) werden in Abhängigkeit der Objektkoordinaten, der Orientierung der Kamera und möglicher Zusatzparameter beschrieben.

4 D. Schneider und H.-G. Maas Abb. 3: Abbildungsprinzip einer Rotationszeilenkamera und mathematisches Modell (Definition der verwendeten Variablen in SCHNEIDER & MAAS 2003) 3.2 Zusatzparameter und Genauigkeitspotenzial Der physikalische Abbildungsvorgang entspricht nur näherungsweise dem entwickelten mathematischen Grundmodell. Entscheidend für die Genauigkeit des Modells sind deshalb die Korrekturterme dm und dn, in denen Zusatzparameter zur Kompensation von Restsystematiken berücksichtigt werden. Zusatzparameter, die Abweichung vom mathematischen Modellansatz der Rotationszeilenkamerageometrie beschreiben, wurden bereits in SCHNEIDER & MAAS (2003) erläutert. Abbildung 4 veranschaulicht drei der berücksichtigten Parameter. Abb. 4: Abweichungen vom Modellansatz (e1 Exzentrizität des Projektionszentrums von der Rotationsachse; γ 1, γ 2 Neigung/Kantung der Sensorzeile) Das mathematische Modell wurde zunächst in einem räumlichen Rückwärtsschnitt implementiert. Dabei wurde unter anderem die resultierende Standardabweichung der Gewichtseinheit zur Beurteilung der Wirkung einzelner Zusatzparameter herangezogen. Tabelle 2 zeigt, wie sich ˆ σ 0 verändert, wenn einzelne Parameter schrittweise dem Modell hinzugefügt werden. Dem Rückwärtsschnitt liegen ca. 360 Referenzpunkte zugrunde, die sich in einem Kalibrierraum befinden, der freundlicherweise von der Fa. Aicon zur Verfügung gestellt wurde.

Einsatzmöglichkeiten und Genauigkeit eines mathematischen Modells für Panoramakameras 5 Tabelle 2: ˆ σ 0 aus Räumlichem Rückwärtsschnitt (links) Parameter ˆ σ 0 [Pixel] Äußere Orientierung 25,20 Innere Orientierung 5,88 Exzentrizität Projektionszentrum 5,63 Neigung/Kantung Sensorzeile 1,15 Verzeichnung 0,60 Affinität 0,45 sonstige 0,24 Überträgt man die nach Berücksichtigung aller Parameter aus dem räumlichen Rückwärtsschnitt erhaltene Standardabweichung der Gewichtseinheit von 0,24 Pixel in den Objektraum, ergibt sich eine Lagegenauigkeit zwischen 0,1 und 0,5 mm im Entfernungsbereich bis zu 10 m (bei Verwendung eines Objektivs mit c k = 35 mm). Bezogen auf die Länge der CCD-Zeile von 10200 Pixel entspricht der erreichte Wert ca. 1 : 42000. In AMIRI PARIAN & GRÜN (2003) werden neben physikalisch definierten Zusatzparametern, weitere Parameter zur Kompensation lokaler Systematiken verwendet. Dazu wird jedes zu korrigierende Panorama mittels Wavelet-Analyse in Teilsstücke aufgeteilt, in denen dann ein Polynomansatz zur Kompensation lokaler Restsystematiken verwendet wird. Dadurch wurde ˆ σ 0 = 0,23 Pixel erreicht, was der hier gezeigten Größenordnung entspricht. 4 Implementierung des Modells 4.1 Bündelblockausgleichung Nachdem das entwickelte mathematische Modell erfolgreich getestet werden konnte, wurde es in verschiedene photogrammetrische Anwendungen implementiert. Dazu gehört vor allem die Bündelblockausgleichung für Panoramabilder. Damit ist es möglich, aus zwei oder mehr Panoramen Objektpunkte, Orientierungen und Kameraparameter simultan in einer Berechnung zu ermitteln. Im Vergleich zur Bündelblockausgleichung zentralperspektivischer Aufnahmen bietet sie den Vorteil, dass innenraumähnliche Objektgeometrien mit sehr wenigen Bildern und einer hohen Auflösung erfasst werden können. Bei der Entwicklung der Bündelblockausgleichung wurde vor allem Wert auf Anwenderfreundlichkeit gelegt, d.h. die Berechnung sollte mit möglichst wenigen Näherungswerten auskommen. Mit nur 3 Objektpunkten ist es deshalb möglich, Näherungswerte für die Orientierung der Panoramen und daraus folgend für alle Objektpunkte zu beschaffen. Diese 3 Objektpunkte können beispielsweise durch ein in das Objekt gestelltes Referenzdreieck realisiert werden. Die Ausgleichung kann alternativ mit minimalem Datum, einer bestimmten Anzahl von Passpunkten oder als freie Ausgleichung durchgeführt werden. In Tabelle 3 sind die Resultate zweier Berechnungen, einer Ausgleichung mit minimalem Datum und einer freien Ausgleichung zusammengetragen. Verwendet wurden dabei insgesamt 364

6 D. Schneider und H.-G. Maas Objektpunkte und 5 Kamerastandpunkte. Abhängig von der Punktverteilung der zur Datumsfestlegung verwendeten Punkte werden die RMS-Werte der Objektkoordinaten durch die freie Ausgleichung entscheidend verbessert und betragen ca. 0,1 bis 0,4 mm. Vor allem die Z-Komponente wurde durch die freie Ausgleichung verbessert, da alle Standpunkte auf gleicher Höhe lagen und deshalb die Strahlenschnittgeometrie relativ schlecht war. 7,5 m 2,5 m 5,0 m Abb. 5: Prinzipskizze der Bündelblockausgleichung für Panoramen (links) Punkte im Kalibrierraum der Fa. Aicon inkl. Standpunktverteilung (rechts) Tabelle 3: Ergebnisse der Bündelblockausgleichung Minimales Datum Freie Ausgleichung ˆ0 σ [Pixel] 0,22 RMS X [mm] 0,97 0,39 RMS Y [mm] 0,85 0,28 RMS Z [mm] 2,28 0,16 Sollten noch Restsystematiken der Kamera vorhanden sein, würden sich diese möglicherweise in falschen Objektpunktkoordinaten niederschlagen und könnten allein durch die Analyse der Standardabweichungen nicht aufgedeckt werden. Deshalb wurden die berechneten Objektkoordinaten mit den Referenzkoordinaten des Kalibrierraums verglichen. Zur Stärkung der Geometrie wurden für die Berechnung 4 gut im Raum verteilte Passpunkte herangezogen. Aus Tabelle 4 wird deutlich, dass das Mittel aller Abweichungen für alle Koordinatenrichtung ca. 0,5 mm beträgt. Dabei ist allerdings nicht sicher, ob die verbleibenden Abweichungen als mögliches Genauigkeitspotenzial der Rotationszeilenkamera interpretiert werden können, oder ob die Abweichungen auf Unsicherheiten der Referenzkoordinaten zurückzuführen sind. Dies muss durch weitere Testmessungen untersucht werden, wobei es prinzipiell schwierig sein wird, ausreichend genaue Referenzkoordinaten zur Verfügung zu stellen. Tabelle 4: Mittlere Abweichungen berechneter Objektpunkte zu Referenzkoordinaten X 0,58 mm Y 0,44 mm Z 0,36 mm

4.2 Kernliniengeometrie Das entwickelte mathematische Modell wurde weiterhin verwendet, um die Epipolarliniengeometrie für Panoramabilder zu beschreiben. Wie aus Abbildung 6 ersichtlich, handelt es sich eigentlich nicht um Linien sondern vielmehr um Epipolarkurven im Bildraum. b O 1 O 2 K P 1 P 2 P Abb. 6: Kernliniengeometrie für Panoramabilder Die Kernliniengeometrie unterstützt die Suche korrespondierender Punkte und ist für die semi- bzw. vollautomatische Auswertung von Panoramen unabdingbar. Wird zu einem im ersten Panorama gefundenen Punkt der entsprechende homologe Punkt im zweiten Panorama gesucht, kann die Epipolarlinie berechnet und entlang dieser gesucht werden. Im dritten Panorama kann sich der Suchalgorithmus auf den Schnittbereich der Epipolarkurven der ersten beiden Panoramen beschränken. 4.3 Tangentialprojektion Bei einer Tangentialprojektion wird die RGB-Information vom Zylindermantel auf eine an diesen angelegte Tangentialebene projiziert. Das Panoramabild wird damit unter Nutzung des entwickelten geometrischen Modells in eine zentralperspektivische Abbildung umgewandelt und kann schließlich in konventionellen photogrammetrischen Auswerteprogrammen verwendet werden. Jedoch können damit nur Panoramaausschnitte abgebildet werden, deren Winkelbereich deutlich kleiner als 180 ist. Dieses Verfahren kann beispielsweise in der Architektur zur Fassadenaufnahme genutzt werden, was durch die Beispiele in Abbildung 7 demonstriert wird. Abb. 7: Panoramaausschnitt, Tangentialprojektion, Entzerrung auf die Fassadenebene

8 D. Schneider und H.-G. Maas Das auf die Tangentialebene projizierte Panorama wurde zusätzlich noch mittels einer Projektivtransformation auf die Fassadenebene entzerrt. Der Vorteil gegenüber der Verwendung von Flächensensoren besteht hier in der sehr hohen Auflösung und damit der Detailtreue des auszuwertenden Bildes. Das Original des in Abbildung 7 dargestellten Panoramaausschnitts besteht aus ca. 64 Millionen Pixel. 5 Ausblick Die vorgestellten Algorithmen zur photogrammetrischen Auswertung von Panoramabildern wurden in Form von Funktionen programmiert und diese bereits teilweise in Anwender- Software der Fa. fokus GmbH Leipzig integriert. Diese Integration wird in den nächsten Monaten weiter vervollständigt werden, so dass letztendlich eine umfassende Software zur hochgenauen zwei- und dreidimensionalen Verarbeitung von Panoramabildern zur Verfügung stehen wird. Danksagung Die in diesem Beitrag vorgestellten Ergebnisse entstanden im Rahmen des Projektes Terrestrische Rotationszeilen-Weitwinkelkamera für die digitale Nahbereichsphotogrammetrie, das mit Mitteln des Europäischen Fonds für regionale Entwicklung (EFRE) 2000 2006 und mit Mitteln des Freistaates Sachsen gefördert wird. Die Autoren danken den am Projekt beteiligten Firmen KST (Kamera System Technik Dresden GmbH) und der fokus GmbH Leipzig. Besonderer Dank gilt außerdem der Aicon 3D-Systems GmbH für die Bereitstellung des Kalibrierraumes. Literatur Amiri Parian, J. & Grün, A. (2003): A sensor model for panoramic cameras. In: Grün/Kahmen (Eds.): Optical 3-D Measurement Techniques VI, Volume II, S. 130-141 Lisowski, W. & Wiedemann, A. (1998): Auswertung von Bilddaten eines Rotationszeilenscanners. In: Publikationen der DGPF, Nr. 7/1998, S. 183-189 Schneider, D. & Maas, H.-G. (2003): Geometrische Modellierung und Kalibrierung einer hochauflösenden digitalen Rotationszeilenkamera. Photogrammetrie, Laserscanning, Optische 3D-Messtechnik Beiträge der Oldenburger 3D-Tage 2003, S. 57-64. Wichmann Verlag, Heidelberg Schneider, D. & Maas, H.-G. (2003): Geometric modelling and calibration of a high resolution panoramic camera. In: Grün/Kahmen (Eds.): Optical 3-D Measurement Techniques VI, Volume II, S. 122-129 Tecklenburg, W. & Luhmann, T. (2003): Potential of panoramic view generated from highresolution frame images and rotation line scanners. In: Grün/Kahmen (Eds.): Optical 3-D Measurement Techniques VI, Volume II, S. 114-121