UNIFORSCHUNG FORSCHUNGSMAGAZIN DER HELMUT-SCHMIDT-UNIVERSITÄT UNIVERSITÄT DER BUNDESWEHR HAMBURG. 3D-Auswertung von Stereobildern

Größe: px
Ab Seite anzeigen:

Download "UNIFORSCHUNG FORSCHUNGSMAGAZIN DER HELMUT-SCHMIDT-UNIVERSITÄT UNIVERSITÄT DER BUNDESWEHR HAMBURG. 3D-Auswertung von Stereobildern"

Transkript

1 UNIFORSCHUNG FORSCHUNGSMAGAZIN DER HELMUT-SCHMIDT-UNIVERSITÄT UNIVERSITÄT DER BUNDESWEHR HAMBURG 3D-Auswertung von Stereobildern 15. JAHRGANG AUSGABE 2005

2 3D-Auswertung von Stereobildern DIPL.-ING. UDO AHLVERS Kameras liefern zweidimensionale Abbildungen unserer dreidimensionalen Umwelt. In vielen verschiedenen Bereichen ist die weitere Auswertung dieser Bilder von elementarer Bedeutung. Anwendungen finden sich z.b. in der autonomen Navigation, Robotik, Objektüberwachung oder 3D Television (3DTV). Zu einer vollständigen Analyse der aufgenommenen Szene gehört dabei nicht nur eine Auswertung der eigentlichen Bildinhalte, sondern auch die Rekonstruktion von Objektentfernungen für einen realistischen 3D-Eindruck der betrachteten Situation. Dazu werden zwei Kameras verwendet, es entsteht ein sog. Stereobildpaar. Aus dem räumlichen Versatz der beiden Bilder kann jetzt die 3D-Information geschätzt werden. Die so gewonnenen Tiefenkarten können dann sowohl für die Codierung als auch für die spätere 3D-Auswertung und Visualisierung verwendet werden. Optische Grundlagen Bei der Aufnahme mit einer Kamera wird die dreidimensionale Szene auf das zweidimensionale Kamera-Target abgebildet (s. Bild 1). Dieses befindet sich im Abstand f vom Kamerazentrum (Koordinatenursprung) entfernt und wird durch die graue Ebene dargestellt. Aus dem Strahlensatz ergibt sich dafür ein eindeutiger Zusammenhang zwischen Objektkoordinaten X,Y,Z, Bildkoordinaten x,y und Brennweite f [1]. Durch die zweidimensionale Abbildung geht die Tiefeninformation (Z ) der 3D-Szene verloren. Bei bekannten Kameraparametern (f,b) ist die Disparität damit ein eindeutiges Maß für die Objektentfernung. Bild 2 verdeutlicht diesen Zusammenhang. Grundlegende Voraussetzung ist dabei natürlich, dass das Objekt im Sichtbereich beider Kameras liegt. Je nach Entfernung variiert die Größe der Abbildung. In den zugehörigen Kamerabildern ist neben der eigenen Abbildung immer auch das Ergebnis der jeweils anderen Kamera gestrichelt dargestellt. Darin ist die Disparität als horizontaler Versatz gut zu erkennen. UNIV.-PROF. DR.-ING. UDO ZÖLZER PROFESSUR FÜR ALLGEMEI- NE NACHRICHTENTECHNIK Bild 1: Projektionsgeometrie einer Lochkamera. 3D-Objektkoordinaten (X,Y,Z ) werden auf 2D- Bildkoordinaten (x,y ) abgebildet. Zur Rekonstruktion der Tiefeninformation werden zwei Kameras verwendet, die achsparallel mit einem horizontalen Abstand (Basisweite b) angeordnet sind. Dieser Aufbau wird als Stereokamera-System bezeichnet. Aus der zugehörigen Projektionsgeometrie (s. Bild 1) und Anwendung des Strahlensatzes ergibt sich die sog. Disparität d als Verschiebung zwischen korrespondierenden Bildpunkten zu Bild 2: Bilder bei der Verwendung eines Stereokamera- Systems. Die Disparität ist umgekehrt proportional zur Objektentfernung. Kamerakalibrierung Um das menschliche Sehsystem möglichst gut nachbilden zu können, müssen die Kameras kalibriert, d. h. ausgerichtet werden. Ziel der Kalibrierung ist die sog. Standard-Stereo-Geometrie. Darin sind beide Kameras achsparallel ausgerichtet, und es existiert nur ein horizontaler Versatz. Damit liegen korrespondierende Punkte immer in derselben Zeile in beiden Bildern. Dies hat den weiteren Vorteil einer erheblich vereinfachten Rechnung bei der späteren Korrespondenz-Bestimmung [2]. Um das zu erreichen, wird eine kombinierte Hardware- und Software-Kalibrierung der Kameras durchgeführt. Zunächst wird für die Montage eine spezielle Kalibrierschiene (s. Bild 3) verwendet, die vom ZMKE der Helmut-Schmidt-Universität angefertigt wurde. Damit sind folgende Freiheitsgrade möglich: Vertikale Translation (hoch runter) Horizontale Translation (vorne hinten) Horizontale Translation (Veränderung der Basisweite) Drehung (Veränderung der optischen Achse links rechts) 4 UNIFORSCHUNG AUSGABE 2005

3 Bild 3: Hardwareaufbau des Stereokamera- Systems mit Kalibrierschiene. Die Positionierung einer Kamera kann in allen Freiheitsgraden verändert werden. Neigung (Veränderung der optischen Achse oben unten) Kippung (Rotation um die optische Achse). Abschließend sorgt eine software-gestützte Entzerrung ( Rektifikation ) dafür, dass die Kamerabilder in Standard-Stereo-Geometrie vorliegen. Dazu wird unter Verwendung eines Passpunktrahmens die Orientierung der Kameras in einem Referenz-Koordinatensystem bestimmt [2]. Erstellung von Tiefenkarten Kernstück der 3D-Auswertung von Stereobildern ist nun die Bestimmung der Disparität. Wird für jeden Bildpunkt ein Disparitätswert ermittelt, entstehen sog. dichte Disparitäts- oder Tiefenkarten. Die eigentliche Textur der Originalbilder ist darin durch Entfernungsangaben ersetzt worden. Diese Karten sind daher in der Form Je heller, desto näher ist das Objekt; je dunkler, desto weiter entfernt zu interpretieren (siehe Bild 4). Grundsätzlich lassen sich alle Verfahren zur Disparitätsschätzung dahingehend klassifizieren, ob sie die Disparität im Ortsbereich (direkt aus den Intensitäten der Bildpunkte) oder im Frequenzbereich (aus dem zugehörigen Spektren) ermitteln. Im Rahmen dieses Projektes wurde zur Schätzung der Disparität ein Algorithmus entwickelt, der den Versatz zwischen korrespondierenden Bildpunkten aus dem Spektrum der Bilder ermittelt [3]. Bild 5 zeigt das Verfahren als Blockdiagramm. Die Bildausschnitte werden zunächst per FFT (Fast Fourier Transform) in den Frequenzbereich transformiert. Dort wird dann die Phasendifferenz der Bildsignale gebildet. Die Information aus den Amplitudenspektren wird zusätzlich ausgewertet, um lokale Störer zu eliminieren. Die resultierende Disparität ergibt sich dann aus der Steigung der Phasendifferenz. Eine Anwendung dieses Verfahrens auf alle Bildpunkte liefert schließlich die o. g. Tiefenkarte. Bild 4: Original Stereo-Bildpaare und berechnete zugehörige Disparitätskarten. Diese geben die entsprechenden Objektentfernungen in der 3D-Szene wieder. Im Gegensatz zu anderen Verfahren [4], die die Disparität direkt aus den Bilddaten ermitteln, hat der verwendete Ansatz zwei Vorteile: zum einen geringerer Rechenaufwand, da die Bildung der sonst nötigen Korrelationsserien entfällt und zum anderen Ergebnisse mit höherer Genauigkeit ( subpixel accuracy ) [5], UNIFORSCHUNG AUSGABE

4 Bild 5: Verwendeter Algorithmus zur Bestimmung der Disparität (d) in Stereobildern. Bild 6: Stereobild-Codierung unter Verwendung des Disparitätsbildes. Linker Teil: Sendeseite, gestrichelte Linie: Übertragungskanal, rechter Teil: Empfängerseite. was sowohl für konkrete Entfernungsmessung als auch für die folgende Codierung günstig ist. Codierung von Stereobildern Für viele Einsatzgebiete ist eine 3D-Auswertung direkt am Aufnahmeort nicht möglich. Dies kann durch zeitliche Faktoren, verfügbare Rechenleistung oder äußere Umstände bedingt werden. Die Stereobilder werden daher codiert und an ein Zielsystem übertragen, wo dann die abschließende Auswertung erfolgt. Beispiele sind hier u.a. mobile Roboter oder die Objektüberwachung. Da die Bilder von linker und rechter Kamera beide dieselbe Szene (aber eben leicht versetzt) zeigen, ist eine Einzelbild-Codierung (z.b. JPEG) hier nicht optimal. Vielmehr kann die Disparitätskarte für einen effizienten Codierungs-Ansatz genutzt werden, der die Redundanz im Stereobildpaar berücksichtigt ( spatial interframe coding ). Dabei werden nur noch ein Originalbild, die Disparitätskarte und ein sog. Fehlerbild übertragen [6]. Bild 6 zeigt das Prinzip dieser Codierung. Darin bedeuten L, R das Original-Bildpaar und D die errechnete Disparitätskarte. Nach einer Rekonstruktion (RR) des rechten Bildes wird das Fehlerbild (error image, E) ermittelt. Es enthält den Prädiktionsfehler und wird zusammen mit dem Disparitätsbild anstelle des rechten Originalbildes übertragen. Diese Bilddaten werden nun zunächst noch codiert (C). Am Empfänger erfolgt die finale Rekonstruktion (FRR) des rechten Bildes zwecks Wiederherstellung der 3D-Information. Obwohl jetzt insgesamt drei Bilder (L,D,E) zu übertragen sind, ergibt sich ein resultierender Kompressionsgewinn, da Disparitätskarte und Fehlerbild deutlich besser komprimiert werden können als das Originalbild [7]. Hier muss grundsätzlich zwischen verlustbehafteter (z.b. JPEG) und verlustloser Codierung unterschieden werden. Im ersten Fall ergibt sich ein Vorteil von ca. 60 Prozent gegenüber der JPEG- Bild 7: Erreichte Kompressionsgrade (K) für die einzelnen Bildkomponenten bei verlustloser Codierung (3 Motive, 4 Verfahren). basierten Einzelbild-Codierung! Genauso deutlich wird dies bei einem Vergleich verlustloser Codierverfahren (siehe Bild 7). Für drei verschiedene Motive (Tree, Sculpture, Corridor) wurden jeweils vier Verfahren untersucht: Lauflängen-Codierung (Run Length Encoding, RLE) Huffman-Codierung (HC) Arithmetische Codierung (AC) Integer-Codierung mit anschließender Lauflängen- Codierung (IC+RLE). Bei beliebigen Signalinhalten liegen die Kompressionsgrade verlustloser Verfahren typischerweise bei ca. 2. Aufgrund der speziellen Bildinhalte wurden mit diesem Ansatz jedoch Kompressionsgrade von K=15 35 (Disparitätskarte) bzw. K=3 6 (Fehlerbild) erreicht! Daraus ergibt sich eine Reduktion um bis zu 40 Prozent. 3D-Visualisierung Zusätzlich zur Bestimmung der Tiefenkarten ist für die Auswertung von Stereobildern immer auch der subjektive 3D-Eindruck des Betrachters wichtig. Dafür stehen zwei Möglichkeiten zur Auswahl: zum einen die Verwendung einer Shutterbrille und zum anderen die Darstellung auf einem autostereoskopen Display. In beiden Fällen wird aus dem Stereo-Bildpaar zunächst ein sog. Interlaced-Bild konstruiert, indem die Bilder entweder zeilenweise (Shutterbrille) oder spaltenweise (Stereodisplay) verkämmt werden [8]. Bild 8 zeigt das Prinzip. 6 UNIFORSCHUNG AUSGABE 2005

5 Bild 8: Erzeugung eines Interlaced-Bildes durch zeilenweise Verkämmung der Originalbilder. Bei dem im Labor eingesetzten Stereodisplay [9] ist die Benutzung einer speziellen Brille nicht mehr notwendig. Durch ein ins Gehäuse integriertes Prisma werden die Strahlen des LCD-Displays so abgelenkt, dass der Betrachter in einem bestimmten Abstand (ca. 80 cm vom Bildschirm) mit dem linken Auge nur die Anteile des linken Bildes und mit dem rechten Auge nur die Anteile des rechten Bildes sieht. Damit entsteht im menschlichen Gehirn der 3D-Eindruck, so als könne man das dargestellte Objekt greifen. Den verwendeten Laboraufbau zeigt Bild 9. Ausblick Unter Verwendung eines kalibrierten Stereokamera-Aufbaus ist es möglich, Tiefeninformation und Objektentfernungen einer betrachteten Szene zu rekonstruieren. Zentrales Element ist dabei die Schätzung der Disparität, d.h. des Versatzes zwischen korrespondierenden Bildpunkten. Diese Disparitätskarten können sowohl für die Codierung, als auch für die abschließende 3D-Rekonstruktion und Visualisierung eingesetzt werden. Zukünftige Aufgaben stellen sich bei der Erweiterung dieses Ansatzes auf Bildfolgen, also Videos. Die dabei entstehende zeitliche Redundanz aufeinander folgender Bilder kann zur zusätzlichen Verifikation der Ergebnisse genutzt werden. Damit ist dieses Verfahren in vielen realen technischen Anwendungen einsetzbar. Literatur [1] O. FAUGERAS: Three-Dimensional Computer Vision: A Geometric Viewpoint, MIT Press, Cambridge, [2] R. KLETTE, A. KOSCHANS, C. SCHLÜNS: Computer Vision, Springer, [3] U. AHLVERS, U. ZÖLZER, Improvement of Phase- Based Algorithms for Disparity Estimation by Means of Magnitude Information, Proc. IEEE Int. Conf. Image Processing (ICIP 04), Singapore, [4] D. SCHARSTEIN, R. SZELISKI: A Taxonomy and Evaluation of Dense Two-Frame Stereo Correspondence Algorithms, Int. Journal of Computer Vision, pp. 7-42, [5] D. VERNON: Fourier Vision, Kluwer, [6] N. BOULGOURIS, M. STRINTZIS: Embedded Coding of Stereo Images, Proc. IEEE Int. Conf. Image Processing (ICIP 00), Vol.3, pp , Vancouver, Canada, [7] U. AHLVERS, U. ZÖLZER, S. RECHMEIER: FFTbased Disparity Estimation for Stereo Image Coding, Proc. IEEE Int. Conf. Image Processing (ICIP 03), Barcelona, Spain, [8] U. AHLVERS, U. ZÖLZER, G. HEINRICH: Adaptive Coding, Reconstruction and 3D Visualisation of Stereoscopic Image Data, Proc. IASTED Int. Conf. Visualisation, Imaging, and Image Processing (VIIP 04), Marbella, Spain, Bild 9: Arbeitsplatz zur 3D-Visualisierung mittels Stereodisplay. Der 3D- Eindruck entsteht nur bei direkter Betrachtung des Bildschirms. [9] ACT KERN: Company Homepage, UNIFORSCHUNG AUSGABE

Stereo Vision. Projekt zu Grundlagen der Computer Vision. Sommersemester 2008

Stereo Vision. Projekt zu Grundlagen der Computer Vision. Sommersemester 2008 Stereo Vision Projekt zu Grundlagen der Computer Vision Sommersemester 2008 Stereo Vision Computer Vision: Rekonstruktion von Objektoberflächen aus Bildern Stereo Vision: - Gleichzeitige Aufnahme eines

Mehr

Stereo Vision. Projekt zur 3D Computer Vision Wintersemester 05/06

Stereo Vision. Projekt zur 3D Computer Vision Wintersemester 05/06 Stereo Vision Projekt zur 3D Computer Vision Wintersemester 05/06 Stereo Vision 3D Computer Vision: Rekonstruktion von Objektoberflächen aus Bildern Stereo Vision: Gleichzeitige Aufnahme eines Objekts

Mehr

Entwicklung einer robusten Methode zur Berechnung von Stereokorrespondenzen

Entwicklung einer robusten Methode zur Berechnung von Stereokorrespondenzen Entwicklung einer robusten Methode zur Berechnung von Stereokorrespondenzen Seminar - Wintersemester 2010/2011 Fakultät Technik und Informatik Department Informatik Gregory Föll Übersicht Rückblick Stereo

Mehr

Bildverarbeitung: 3D-Geometrie. D. Schlesinger () Bildverarbeitung: 3D-Geometrie 1 / 13

Bildverarbeitung: 3D-Geometrie. D. Schlesinger () Bildverarbeitung: 3D-Geometrie 1 / 13 Bildverarbeitung: 3D-Geometrie D. Schlesinger () Bildverarbeitung: 3D-Geometrie 1 / 13 Lochkamera Modell C Projektionszentrum, Optische Achse, Bildebene, P Hauptpunkt (optische Achse kreuzt die Bildebene),

Mehr

Versuch C: Auflösungsvermögen Einleitung

Versuch C: Auflösungsvermögen Einleitung Versuch C: svermögen Einleitung Das AV wird üblicherweise in Linienpaaren pro mm (Lp/mm) angegeben und ist diejenige Anzahl von Linienpaaren, bei der ein normalsichtiges Auge keinen Kontrastunterschied

Mehr

Modellbasiertes Suchen von Objekten

Modellbasiertes Suchen von Objekten Modellbasiertes Suchen von Objekten Anwendung 1 Vortrag HAW-Hamburg Betreuende Professoren Hosnia Najem Kai von Luck Gunter Klemke Agenda Welches Projekt? Motivation Szenario Technologische Anforderungen

Mehr

'Visual Hull' mit Hilfe von Spiegeln

'Visual Hull' mit Hilfe von Spiegeln 'Visual Hull' mit Hilfe von Spiegeln hwww.dip.ee.uct.ac.za/~kforbes/doublemirror/doublemirror.html Dreidimensionales Computersehen Dr.-Ing. Simon Winkelbach www.rob.cs.tu-bs.de/teaching/courses/cs 1 Zur

Mehr

Stereovision: Grundlagen

Stereovision: Grundlagen Stereovision: Grundlagen Matthias Behnisch mbehnisc@techfak.uni-bielefeld.de Februar 2005 Inhaltsverzeichnis 1 Einleitung 2 2 Räumliches Sehen 2 3 Binokulare Perspektive 4 3.1 Hering Koordinaten.........................

Mehr

Stereo-Matching. Medieninformatik IL. Andreas Unterweger. Vertiefung Medieninformatik Studiengang ITS FH Salzburg. Wintersemester 2014/15

Stereo-Matching. Medieninformatik IL. Andreas Unterweger. Vertiefung Medieninformatik Studiengang ITS FH Salzburg. Wintersemester 2014/15 Stereo-Matching Medieninformatik IL Andreas Unterweger Vertiefung Medieninformatik Studiengang ITS FH Salzburg Wintersemester 2014/15 Andreas Unterweger (FH Salzburg) Stereo-Matching Wintersemester 2014/15

Mehr

Verfahren zur autonomen bildgestützten Navigation

Verfahren zur autonomen bildgestützten Navigation Verfahren zur autonomen bildgestützten Navigation DGLR Workshop, 14. - 15.2.2007 Führungsaspekte unbemannter Luftfahrzeuge: Technologien und die Einbeziehung des Operateurs N. Schweyer, MBDA LFK-Lenkflugkörpersysteme

Mehr

Untersuchung und Modellierung des Rolling-Shutter-Effekts für photogrammetrische Einzel- und Mehrbildauswertungen

Untersuchung und Modellierung des Rolling-Shutter-Effekts für photogrammetrische Einzel- und Mehrbildauswertungen Untersuchung und Modellierung des Rolling-Shutter-Effekts für photogrammetrische Einzel- und Mehrbildauswertungen 16. Oldenburger 3D-Tage 2017 Oldenburg, 2. Februar 2017 Robin Rofallski & Thomas Luhmann

Mehr

Kamerakalibrierung. Messen in Videobildern, Leobots-Projekt Version 1.0. Matthias Jauernig, 03INB, HTWK Leipzig

Kamerakalibrierung. Messen in Videobildern, Leobots-Projekt Version 1.0. Matthias Jauernig, 03INB, HTWK Leipzig Kamerakalibrierung Messen in Videobildern, Leobots-Projekt 2006 Version 1.0 Matthias Jauernig, 03INB, HTWK Leipzig Copyright (c) 2006, Matthias Jauernig Kamerakalibrierung, Matthias Jauernig 3 Begriffe

Mehr

Neues Verfahren zur Roboterzielführung ohne Kalibrierung

Neues Verfahren zur Roboterzielführung ohne Kalibrierung Lernende Roboterführung Roboteraugen werden autonomer, leistungsfähiger und genauer Neues Verfahren zur Roboterzielführung ohne Kalibrierung Unter dem Namen AURA (Adaptive Uncalibrated Robot Automation)

Mehr

Prof. J. Zhang Universität Hamburg. AB Technische Aspekte Multimodaler Systeme. 20. Januar 2004

Prof. J. Zhang Universität Hamburg. AB Technische Aspekte Multimodaler Systeme. 20. Januar 2004 zhang@informatik.uni-hamburg.de Universität Hamburg AB Technische Aspekte Multimodaler Systeme zhang@informatik.uni-hamburg.de Inhaltsverzeichnis 7. Omnidirektionale Sichtsysteme...................454

Mehr

Digitale Bildverarbeitung Einheit 12 3D-Modellierung

Digitale Bildverarbeitung Einheit 12 3D-Modellierung Digitale Bildverarbeitung Einheit 12 3D-Modellierung Lehrauftrag WS 05/06 Fachbereich M+I der FH-Offenburg Dipl.-Math. Bernard Haasdonk Albert-Ludwigs-Universität Freiburg Ziele der Einheit Einen Eindruck

Mehr

Statische Stereoanalyse

Statische Stereoanalyse Statische Stereoanalyse Gliederung: 1. Überblick, Ziel und Ablauf der statischen Stereoanalyse 2. Geometrie eines Stereobildaufnahmesystems 3. Annahmen und Einschränkungen 3.1 Einschränkungen Aufgrund

Mehr

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg Nikos Canterakis Lehrstuhl für Mustererkennung, Universität Freiburg Gliederung 8 Epipolargeometrie Die Fundamentalmatrix Korrelation Schätzung der Fundamentalmatrix Homographie infolge einer Ebene Sonderfälle

Mehr

Parallaktische Entfernungsmessung

Parallaktische Entfernungsmessung Parallaktische Entfernungsmessung U. Backhaus 1 Die geometrische Parallaxe Wenn man an der ausgestreckten Hand einen Gegenstand, z.b. einen Apfel, vor sich hält und die Augen abwechselnd schließt, beobachtet

Mehr

Stereo Vision Anwendungen 2 / Sommersemester 2010 Fakultät Technik und Informatik Department Informatik Gregory Föll

Stereo Vision Anwendungen 2 / Sommersemester 2010 Fakultät Technik und Informatik Department Informatik Gregory Föll Anwendungen 2 / Sommersemester 2010 Fakultät Technik und Informatik Department Informatik Übersicht Rückblick 3D-Bildaufnahme Kamerakalibrierung Triangulation durch Active Vision Korrespondenzproblem /

Mehr

Digitalisierung. analoges Signal PAM. Quantisierung

Digitalisierung. analoges Signal PAM. Quantisierung Digitalisierung U analoges Signal t U PAM t U Quantisierung t Datenreduktion Redundanzreduktion (verlustfrei): mehrfach vorhandene Informationen werden nur einmal übertragen, das Signal ist ohne Verluste

Mehr

Kompressionsverfahren

Kompressionsverfahren Kompressionsverfahren Quelle: Steinmetz, Ralf: Multimedia-Technologie: Einführung und Grundlagen, Springer, Verlag Verlustlose Kompressionsalgorithmen RLC Huffman Adaptive Huffman Kodierung Arithmetische

Mehr

Dreidimensionales Computersehen SS 2016

Dreidimensionales Computersehen SS 2016 Dreidimensionales Computersehen SS 2016 Folien zur Vorlesung Dr.-Ing. Simon Winkelbach www.robotik-bs.de/teaching/courses/cs Dreidimensionales Computersehen Dr.-Ing. Simon Winkelbach http://www.robotik-bs.de/teaching/courses/cs

Mehr

3. Analyse der Kamerabewegung Video - Inhaltsanalyse

3. Analyse der Kamerabewegung Video - Inhaltsanalyse 3. Analyse der Kamerabewegung Video - Inhaltsanalyse Stephan Kopf Bewegungen in Videos Objektbewegungen (object motion) Kameraoperationen bzw. Kamerabewegungen (camera motion) Semantische Informationen

Mehr

Qualitativ: Hier geht es um die Inhalte wie z.b. die Landnutzung Quantitativ: Hierbei geht es um das Messen von Koordinaten

Qualitativ: Hier geht es um die Inhalte wie z.b. die Landnutzung Quantitativ: Hierbei geht es um das Messen von Koordinaten Grundlagen der Photogrammetrie Die Photogrammetrie ist ein Verfahren zur Vermessung von Objekten nach Lage und Form. Dabei werden die Messungen nicht direkt am Objekt, sondern indirekt auf Bildern des

Mehr

Stereovision Omnivision Kantendetektion

Stereovision Omnivision Kantendetektion Sichtsysteme Stereovision Omnivision Kantendetektion Andi Drebes Gliederung des Vortrags 1. Motivation Warum Sichtsysteme? 2. Stereovision Wortherkunft / Bedeutung Klassifizierung Zweikamera Stereovision

Mehr

Projektion. Ebene geometrische Projektionen

Projektion. Ebene geometrische Projektionen Projektion - 1 - Ebene geometrische Projektionen Die ebenen geometrischen Projektionen sind dadurch charakterisiert, daß mit Projektionsstrahlen konstanter Richtung, d.h. entlang von Geraden, auf Ebenen

Mehr

Grundlagen der optischen Geometrievermessung und deren Anwendungen

Grundlagen der optischen Geometrievermessung und deren Anwendungen Grundlagen der optischen Geometrievermessung und deren Anwendungen Christian Gerlach Innovationstag 2010 1 Gliederung: Grundlagen der Photogrammetrie Stand der Technik Industrielle Anwendungen der Photogrammetrie

Mehr

Implementierung des Scan-Matching-Algorithmus MbICP im Fach Mensch-Maschine- Kommunikation/Robotik

Implementierung des Scan-Matching-Algorithmus MbICP im Fach Mensch-Maschine- Kommunikation/Robotik Implementierung des Scan-Matching-Algorithmus MbICP im Fach Mensch-Maschine- Kommunikation/Robotik Betreuer: Dipl.-Inf. (FH) Peter Poschmann Enrico Uhlig, Markus Fischer, Marcus Kupke 26. Jun 2012 1 Gliederung

Mehr

Lineare Funktionen. Aufgabe 1. Sei f R 2 R definiert durch. x 1 + 3x Beweisen Sie ausführlich, dass f linear ist.

Lineare Funktionen. Aufgabe 1. Sei f R 2 R definiert durch. x 1 + 3x Beweisen Sie ausführlich, dass f linear ist. Lineare Funktionen Aufgabe. Sei f R R definiert durch x f = x x + 3x. Beweisen Sie ausführlich, dass f linear ist. Aufgabe. Die Funktionen (nicht erschrecken sind definiert durch + ( (R n R m (R n R m

Mehr

Optimalcodierung. Thema: Optimalcodierung. Ziele

Optimalcodierung. Thema: Optimalcodierung. Ziele Optimalcodierung Ziele Diese rechnerischen und experimentellen Übungen dienen der Vertiefung der Kenntnisse im Bereich der Optimalcodierung, mit der die Zeichen diskreter Quellen codiert werden können.

Mehr

Prof. J. Zhang Universität Hamburg. AB Technische Aspekte Multimodaler Systeme. 13. Januar 2004

Prof. J. Zhang Universität Hamburg. AB Technische Aspekte Multimodaler Systeme. 13. Januar 2004 zhang@informatik.uni-hamburg.de Universität Hamburg AB Technische Aspekte Multimodaler Systeme zhang@informatik.uni-hamburg.de Inhaltsverzeichnis Tsai s RAC-basierte Kamerakalibrierung................374

Mehr

F CT1 Verschiedene Abtastverfahren in der Computertomographie

F CT1 Verschiedene Abtastverfahren in der Computertomographie F CT1 Verschiedene Abtastverfahren in der Computertomographie AB CT1 Prinzip der Computertomographie AB CT1 Prinzip der Computertomographie - Musterlösung Kollimatoren blenden ein etwa bleistiftdickes

Mehr

Deflektometrie Ein Messverfahren für spiegelnde Oberflächen

Deflektometrie Ein Messverfahren für spiegelnde Oberflächen Deflektometrie Ein Messverfahren für spiegelnde Oberflächen Dr. Alexander Zimmermann FORWISS Universität Passau Institut für Softwaresysteme in technischen Anwendungen der Informatik 19. Oktober 2017 Gliederung

Mehr

2D-Punkt-Transformationen

2D-Punkt-Transformationen Zur Erinnerung Drehung eines beliebigen Punktes B um den Winkel θ um den Koordinaten-Ursprung zum Punkt B : x B r cosα y B r sin α [r, α: Hilfsgrößen ] x B r cos(α+θ) r (cosα cosθ sinα sinθ) x B cosθ y

Mehr

geschlossene Schachtel mit einem kleinen Loch

geschlossene Schachtel mit einem kleinen Loch Kameramodellierung Lochkamera Kamerakonstante Kamerazentrum geschlossene Schachtel mit einem kleinen Loch ideale Kamera: Loch hat keine Ausdehnung die Strahlen sind ein Büschel von Geraden Abbildung erfolgt

Mehr

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg,

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg, Nikos Canterakis Lehrstuhl für Mustererkennung, Universität Freiburg, Literatur Richard Hartle and Andrew Zisserman. Multiple View Geometr in computer vision, Cambridge Universit Press, 2 nd Ed., 23. O.D.

Mehr

Institut für Angewandte Optik und Elektronik Fakultät für Informations-, Medien- und Elektrotechnik Fachhochschule Köln

Institut für Angewandte Optik und Elektronik Fakultät für Informations-, Medien- und Elektrotechnik Fachhochschule Köln Institut für Angewandte Optik und Elektronik Fakultät für Informations-, Medien- und Elektrotechnik Fachhochschule Köln Praktikumsanleitung: Holografie Versuch 4: Hologrammkopie 1 Versuchsziel Ziel dieses

Mehr

Fortgeschrittene Bildverarbeitung und Analyse

Fortgeschrittene Bildverarbeitung und Analyse Fortgeschrittene Bildverarbeitung und Analyse Studiengang IEM Inhalt Definition der Bildverarbeitung Verarbeitung-Bearbeitung (Systeme) Grundlagen der Abbildungssysteme Auge, visuelle Wahrnehmung, Kamera,

Mehr

3 Koordinatentransformationen

3 Koordinatentransformationen 8 MATHEMATISCHE GRUNDLAGEN DER COMPUTERGEOMETRIE 3 Koordinatentransformationen Für die Darstellung von dreidimensionalen Objekten wird grundsätlich eine Reihe von Transformationen ausgeführt, die von den

Mehr

Multimediatechnik / Video

Multimediatechnik / Video Multimediatechnik / Video Video-Kompression Zusammenfassung http://www.nanocosmos.de/lietz/mtv 2009 1 Motivation: Video-Kompression Unkomprimierte Datenmengen sind zu groß! TV: 20 MB/s = 72 GB/h (720x576x2x25)

Mehr

Anwendungen im Umfeld von Panoramabildern Multimediatechnik Seminar FS 2008 Eric Lunkenbein

Anwendungen im Umfeld von Panoramabildern Multimediatechnik Seminar FS 2008 Eric Lunkenbein Anwendungen im Umfeld von Panoramabildern 23.04.08 Multimediatechnik Seminar FS 2008 Agenda 1.Hugin 2.Quicktime VR 3.Video Indizierung auf Basis von Mosaikbildern 4.Photosynth 2 Hugin Grafische Benutzeroberfläche

Mehr

3D-Punktkorrelation auf Basis von 2D-Bildern auf einer FPGA-Plattform

3D-Punktkorrelation auf Basis von 2D-Bildern auf einer FPGA-Plattform Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI Entwurfssysteme, Diagnostik und Architektur 3D-Punktkorrelation auf Basis von 2D-Bildern auf einer FPGA-Plattform Verteidigung

Mehr

Fourier Optik. Zeit. Zeit

Fourier Optik. Zeit. Zeit Fourier Optik Beispiel zur Fourier-Zerlegung: diskretes Spektrum von Sinus-Funktionen liefert in einer gewichteten Überlagerung näherungsweise eine Rechteckfunktion Sin t Sin 3t Sin 5t Sin 7t Sin 9t Sin

Mehr

Anwendung und Auswertung von photogrammetrischen Verfahren zur Analyse von Leuchtdichtemessungen

Anwendung und Auswertung von photogrammetrischen Verfahren zur Analyse von Leuchtdichtemessungen Themengebiet: [Messtechnik & Normen] Anwendung und Auswertung von photogrammetrischen Verfahren zur Analyse von Leuchtdichtemessungen Bleicken, J. R. 1 ; Faecks, N. 1 ; Cappitelli, M. 1 ; Prof. Dr. sc.

Mehr

Alexander Schmidt 4D Vision GmbH

Alexander Schmidt 4D Vision GmbH Alexander Schmidt 4D Vision GmbH Inhalt der Präsentation: Vorstellung der Firma Technologie des 4D-Vision Bildschirmsystems Anwendungen des 4D-Vision Bildschirmsystems Datenaufbereitung nach dem 4D-Verfahren

Mehr

SIFT Flow Dense Correspondence across Different Scenes

SIFT Flow Dense Correspondence across Different Scenes Moritz Schmidt SIFT Flow Dense Correspondence across Different Scenes 1 Motivation Bildregistrierung Bilder ähnlicher Szenen in Übereinstimmung bringen Transformation eines Bildes zu Referenzbild Optimierungsproblem

Mehr

3D-Aspekte bei der Bildfusion am Beispiel von IR- und VIS-Daten Referenten: Dipl.-Ing. Torsten Koch PD Dr. Karl-Heinz Franke

3D-Aspekte bei der Bildfusion am Beispiel von IR- und VIS-Daten Referenten: Dipl.-Ing. Torsten Koch PD Dr. Karl-Heinz Franke 3D-Aspekte bei der Bildfusion am Beispiel von IR- und VIS-Daten Referenten: Dipl.-Ing. Torsten Koch PD Dr. Karl-Heinz Franke Bildmaterial mit freundlicher Genehmigung von JenOptik L.O.S. Zielstellung 4

Mehr

Mathematische Grundlagen

Mathematische Grundlagen Kapitel 2 Mathematische Grundlagen In diesem Kapitel werden die mathematischen Grundlagen dargelegt, die für die Darstellung von dreidimensionalen Objekten notwendig sind. 2. 3D-Koordinatensystem Weit

Mehr

2D, 3D Kameratechnik in der Robotik. Jan Fischer

2D, 3D Kameratechnik in der Robotik. Jan Fischer 2D, 3D Kameratechnik in der Robotik Jan Fischer Agenda Firmeninformationen 1x1 der Bildverarbeitung Kompetenzen für erfolgreiches Pick & Place Anwendungsspektrum Kriterien die man bei Pick & Place beachten

Mehr

Diskrete Cosinustransformation (DCT)

Diskrete Cosinustransformation (DCT) Fachbereich Medieninformatik Hochschule Harz Diskrete Cosinustransformation (DCT) Referat Björn Wöldecke 10954 Abgabe: 15.01.2007 Inhaltsverzeichnis Einleitung / Vorwort... 1. Methoden zur Datenreduktion...

Mehr

Hinweise zur Kalibrierung von Kameras mit einer AICON Kalibriertafel

Hinweise zur Kalibrierung von Kameras mit einer AICON Kalibriertafel Hinweise zur Kalibrierung von Kameras mit einer AICON Kalibriertafel AICON 3D Systems GmbH Celler Straße 32 D-38114 Braunschweig Telefon: +49 (0) 5 31 58 000 58 Fax: +49 (0) 5 31 58 000 60 Email: info@aicon.de

Mehr

4. Segmentierung von Objekten Video - Inhaltsanalyse

4. Segmentierung von Objekten Video - Inhaltsanalyse 4. Segmentierung von Objekten Video - Inhaltsanalyse Stephan Kopf Inhalt Vorgehensweise Berechnung der Kamerabewegungen zwischen beliebigen Bildern Transformation eines Bildes Hintergrundbilder / Panoramabilder

Mehr

Erfindung: Multi-Ebenen-Kamera und Multi-Ebenen-Filmkamera

Erfindung: Multi-Ebenen-Kamera und Multi-Ebenen-Filmkamera Erfindung: Multi-Ebenen-Kamera und Multi-Ebenen-Filmkamera 1 Zusammenfassung Die Erfindung betrifft verschiedene Varianten einer Vorrichtung oder einer Kamera zur Erzielung von in mehreren Ebenen scharfen

Mehr

Einführung Augmentierte Bildsynthese

Einführung Augmentierte Bildsynthese Einführung Augmentierte Bildsynthese Rendering Synthetic Objects into Real Scenes Definition Augmentierte Bildsynthese Nahtloses Einfügen virtueller Objekte in eine reale Szene Konsistente Beleuchtung

Mehr

Scene Reconstruction with Multiple View Geometry

Scene Reconstruction with Multiple View Geometry Scene Reconstruction with Multiple View Geometry Anwendungen 2 16.06.2010 Nikolaus Rusitska nikolausrusitska@gmx.de Inhalt Rückblick Techniken Related Work Fazit 1 Rückblick Techniken Related Work Fazit

Mehr

Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg

Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg Image Compression Vorlesung FH-Hagenberg SEM Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz 1 Inhalte Redundanz Channel Encoding Error-Free Compression Hufmann Coding Runlength

Mehr

Navigation anhand natürlicher Landmarken mit Hilfe der Scale Invariant Feature Transform. Thorsten Jost INF-M2 AW1 Sommersemester

Navigation anhand natürlicher Landmarken mit Hilfe der Scale Invariant Feature Transform. Thorsten Jost INF-M2 AW1 Sommersemester Navigation anhand natürlicher Landmarken mit Hilfe der Scale Invariant Feature Transform Thorsten Jost INF-M2 AW1 Sommersemester 2008 Agenda Motivation Feature Detection Beispiele Posenbestimmung in Räumen

Mehr

Beispielhafte Testfragen (auch aus Schülerreferaten, Fragen können redundant sein, keine Audio Kompression berücksichtigt):

Beispielhafte Testfragen (auch aus Schülerreferaten, Fragen können redundant sein, keine Audio Kompression berücksichtigt): Beispielhafte Testfragen (auch aus Schülerreferaten, Fragen können redundant sein, keine Audio Kompression berücksichtigt): Was versteht man unter PCM, DPCM, DM, ADPCM? Skizze! Was versteht man unter PCM

Mehr

Aufgaben zur Einführung in die Physik 1 (Ergebnisse der Übungsaufgaben)

Aufgaben zur Einführung in die Physik 1 (Ergebnisse der Übungsaufgaben) Aufgaben zur Einführung in die Physik 1 (Ergebnisse der Übungsaufgaben) WS 2009/10 1 Die Lochkamera 2. (a) Durch maßstabsgetreue Zeichnung oder durch Rechnung mit Strahlensatz ergibt sich: Die Größe der

Mehr

Othmar Marti Experimentelle Physik Universität Ulm

Othmar Marti Experimentelle Physik Universität Ulm Grundkurs IIIa für Physiker Othmar Marti Experimentelle Physik Universität Ulm Othmar.Marti@Physik.Uni-Ulm.de Vorlesung nach Tipler, Gerthsen, Hecht Skript: http://wwwex.physik.uni-ulm.de/lehre/gk3a-2002

Mehr

Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17

Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17 Computer Vision: 3D-Geometrie D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17 Lochkamera Modell C Projektionszentrum, Optische Achse, Bildebene, P Hauptpunkt (optische Achse kreuzt die Bildebene),

Mehr

Roundwood Tracking using Log End Biometrics

Roundwood Tracking using Log End Biometrics Roundwood Tracking using Log End Biometrics R. Schraml, J. Charwat-Pessler, A. Petutschnigg, K. Entacher, A. Uhl Traceability of logs by means of digital images (TreeBio) 2012-2015 GER FB Computerwissenschaften

Mehr

Stereobasierte Regularisierung des deflektometrischen Rekonstruktionsproblems

Stereobasierte Regularisierung des deflektometrischen Rekonstruktionsproblems Stereobasierte Regularisierung des deflektometrischen Rekonstruktionsproblems Forum Bildverarbeitung 2010 Stefan Werling Regensburg, 3.12.2010 Inhaltsübersicht Deflektometrie: Verfahren zur Gewinnung von

Mehr

Bildregistrierung in der Medizin. Fethi KAYA - Yusuf ÖZBEK

Bildregistrierung in der Medizin. Fethi KAYA - Yusuf ÖZBEK Bildregistrierung in der Medizin Fethi KAYA - Yusuf ÖZBEK 30.05.2011 1 Inhalt 1. Einführung zur Registrierung 2. Registrierungsalgorithmen 3. Transformationen 4. Mutual Information 5. Demo 2 1- Registrierung

Mehr

3D-Sensoren auf PMD-Basis zur Objekterkennung und -verfolgung

3D-Sensoren auf PMD-Basis zur Objekterkennung und -verfolgung 3D-Sensoren auf PMD-Basis zur Objekterkennung und -verfolgung Dipl.-Phys. Hartmut Eigenbrod 10 Jahre Fraunhofer-Allianz Vision Erlangen, 26. Oktober 2007 1 Gliederung Laufzeitkameras und ihre Vor- und

Mehr

Orientierung. HJ Przybilla

Orientierung. HJ Przybilla Orientierung Der Begriff der Orientierung wird in der Photogrammetrie vielfach genutzt. Er beschreibt dabei die geometrischen Zusammenhänge im und um das Messbild. Innere Orientierung Äußere Orientierung

Mehr

Der Einbau im Auto. Stereo: Beispiel Fahrzeug. Einbau im Rückspiegel Erfassung von. Reichweite: bis 30 m

Der Einbau im Auto. Stereo: Beispiel Fahrzeug. Einbau im Rückspiegel Erfassung von. Reichweite: bis 30 m Stereo: Beispiel Fahrzeug Der Einbau im Auto Sichtbereich Sichtbereich Kameras Einbau im Rückspiegel Erfassung von anderen Fahrzeugen (Pkw,Lkw) Zweiradfahrern Fußgängern und Kindern Reichweite: bis 30

Mehr

Stereo. Korrespondenzproblem -> Disparitätenkarte

Stereo. Korrespondenzproblem -> Disparitätenkarte Problem Stereo Leite die 3D Struktur einer Szene von zwei oder mehreren Ansichten von unterschiedlichen Blickwinkeln ab. 2 Unterprobleme: Korrespondenzproblem -> Disparitätenkarte Ähnlichkeit statt Identität

Mehr

Vortragsthema Stereoskopie. Arbeitskreis Digitalfotografie WS2008/2009 bei Prof. Butz. Arbeitskreis Digitalfotografie WS2008/2009.

Vortragsthema Stereoskopie. Arbeitskreis Digitalfotografie WS2008/2009 bei Prof. Butz. Arbeitskreis Digitalfotografie WS2008/2009. Arbeitskreis Digitalfotografie Stereoskopie Begriffserklärung Stereoskopie kommt aus dem griechischen und besteht aus stereo = räumlich und skopein = sehen. Ziel der Stereoskopie ist es, 3-dimensionale

Mehr

Wasserscheiden-Ansätze zur Bildsegmentierung I

Wasserscheiden-Ansätze zur Bildsegmentierung I Seminar Bildsegmentierung und Computer Vision Wasserscheiden-Ansätze zur Bildsegmentierung I Stefan Sugg 19.12.2005 Gliederung 1. Einführung 2. Morphologische Grundlagen 3. Simulation durch Überflutung

Mehr

Dynamically Reparameterized Light Fields

Dynamically Reparameterized Light Fields Dynamically Reparameterized Light ields Aaron Isaksen Leonard McMillan Steven J. Gortler MIT LCS Computer Graphics Group GDV Seminar 2000 Präsentation: Simon Schirm Betreuer: Stephan Würmlin Übersicht

Mehr

Prof. J. Zhang zhang@informatik.uni-hamburg.de. Universität Hamburg. AB Technische Aspekte Multimodaler Systeme. 16. Dezember 2003

Prof. J. Zhang zhang@informatik.uni-hamburg.de. Universität Hamburg. AB Technische Aspekte Multimodaler Systeme. 16. Dezember 2003 zhang@informatik.uni-hamburg.de Universität Hamburg AB Technische Aspekte Multimodaler Systeme zhang@informatik.uni-hamburg.de Inhaltsverzeichnis 5. Sichtsysteme in der Robotik....................307 Industrielle

Mehr

Messungen im Objektkoordinatensystem aus Kamerabildern

Messungen im Objektkoordinatensystem aus Kamerabildern Einbildorientierung Orientierung Ziel der Photogrammetrie Messungen im Objektkoordinatensystem aus Kamerabildern Dazu müssen bekannt sein die Abbildungsgeometrie der Kameras, d.h. die Parameter der inneren

Mehr

Dreidimensionales Computersehen

Dreidimensionales Computersehen X. Jiang, H. Bunke Dreidimensionales Computersehen Gewinnung und Analyse von Tiefenbildern Mit 137 Abbildungen und 3 Tafeln Springer Inhaltsverzeichnis 1 Einleitung 1 1.1 Bildanalyse 1 1.2 Gewinnung und

Mehr

Bildflug - Navigation - HS BO Lab. für Photogrammetrie: Navigation 1

Bildflug - Navigation - HS BO Lab. für Photogrammetrie: Navigation 1 Bildflug - Navigation - HS BO Lab. für Photogrammetrie: Navigation 1 Zielsetzung Direkte Messung der Position und Orientierung des airborne Sensors Notwendige Sensorik: GPS, IMU Zeitstempel: Position/

Mehr

Kartenerstellung und Navigation

Kartenerstellung und Navigation Kartenerstellung und Navigation zur Positionserkennung autonomer Fahrzeuge von Ilona Blanck 27. Mai 2008 im Rahmen der Anwendungen I Vorlesung des Masterstudiums Informatik der Fakultät Technik und Informatik

Mehr

Schärfe und Schärfentiefe bei der e-1

Schärfe und Schärfentiefe bei der e-1 Schärfe und Schärfentiefe bei der e-1 Klaus Schräder Nov 2003 Im August 2002 habe ich einen Artikel veröffentlicht, der sich mit dem Problem der Schärfe und der Schärfentiefe bei den e-10 und e-20 Kameras

Mehr

3D-TV 3-Dimensionales Fernsehen

3D-TV 3-Dimensionales Fernsehen 3D-TV 3-Dimensionales Fernsehen Hinweis: Um allen urheberrechtlichen Problemen aus dem Weg zu gehen, sind soweit wie möglich und bekannt alle nicht vom Autor stammenden Quellen gekennzeichnet. Technik

Mehr

PARTICLE IMAGE VELOCIMETRY. Prinzipieller experimenteller Aufbau (aus einem Prospekt der Fa. La Vision)

PARTICLE IMAGE VELOCIMETRY. Prinzipieller experimenteller Aufbau (aus einem Prospekt der Fa. La Vision) PARTICLE IMAGE VELOCIMETRY Prinzipieller experimenteller Aufbau (aus einem Prospekt der Fa. La Vision) Die Lichtquelle in diesem Falle ein Doppelpuls Neodym:Yag Laser erzeugt zwei sehr starken und sehr

Mehr

Focus of Expansion / optischer Fluss. John Alberts

Focus of Expansion / optischer Fluss. John Alberts Focus of Expansion / optischer Fluss John Alberts 15.1.006 Einordnung 15.1.006 Seminarvortrag von John Alberts Agenda: Begriffsklärung Motivation Horn-Schnuck-Verfahren Projekt aus der Industrie Ausblick

Mehr

Computergrafik 1 Beleuchtung

Computergrafik 1 Beleuchtung Computergrafik 1 Beleuchtung Kai Köchy Sommersemester 2010 Beuth Hochschule für Technik Berlin Überblick Lokale Beleuchtungsmodelle Ambiente Beleuchtung Diffuse Beleuchtung (Lambert) Spiegelnde Beleuchtung

Mehr

Anwendungsbezogenes Tracking

Anwendungsbezogenes Tracking Institut für Computervisualistik Universität Koblenz 4. Juli 2011 Inhaltsverzeichnis 1 Sensorbasiertes Tracking GPS WLan Elektronischer Kompass Inertialsensoren 2 Bildbasiertes Tracking Markerbasiertes

Mehr

Das menschliche Sehsystem besteht aus

Das menschliche Sehsystem besteht aus Stereoskopie Das visuelle System Das menschliche Sehsystem besteht aus zwei Augen die sichtbares Licht aufzeichen (d.h. elektromagnetische Strahlung mit ca. 400-700 nm Wellenlänge) einem vergleichsweise

Mehr

Automatisch-generierte Texturen aus Laserpunktwolken

Automatisch-generierte Texturen aus Laserpunktwolken Automatisch-generierte Texturen aus Laserpunktwolken Sharon Friedrich, Maik Häsner Ruprecht-Karls-Universität Heidelberg Interdisziplinäres Zentrum für wissenschaftliches Rechnen (IWR) Softwarepraktikum

Mehr

Einführung in die Informatik I

Einführung in die Informatik I Einführung in die Informatik I Das Rechnen in Zahlensystemen zur Basis b=2, 8, 10 und 16 Prof. Dr. Nikolaus Wulff Zahlensysteme Neben dem üblichen dezimalen Zahlensystem zur Basis 10 sind in der Informatik

Mehr

Flächen- und Volumenmessung lokaler Objekte in DICOM-Bildern und Bildfolgen

Flächen- und Volumenmessung lokaler Objekte in DICOM-Bildern und Bildfolgen Flächen- und Volumenmessung lokaler Objekte in ICOM-Bildern und Bildfolgen Sergei Hludov, Christoph Meinel und Thomas Engel Institut für Telematik Bahnhofsstr. 30-3, 549 Trier Email: hludov@ti.fhg.de Zusammenfassung.

Mehr

Die Gruppe der affinen Abbildungen A

Die Gruppe der affinen Abbildungen A H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 2b 1 Die Gruppe der affinen Abbildungen A Die Gruppe der affinen Abbildungen entsteht durch Wahl einer beliebigen regulären Matrix

Mehr

Ein Structure and Motion Ansatz zur Umfeldrekonstruktion in komplexen Fahrzeugumgebungen

Ein Structure and Motion Ansatz zur Umfeldrekonstruktion in komplexen Fahrzeugumgebungen Sicherheit durch Fahrerassistenz 2010 Ein Structure and Motion Ansatz zur Umfeldrekonstruktion in komplexen Fahrzeugumgebungen Wojciech Derendarz, Thorsten Graf Volkswagen AG Friedrich M. Wahl TU Braunschweig,

Mehr

Kapitel 1 Optik: Bildkonstruktion. Spiegel P` B P G. Ebener Spiegel: Konstruktion des Bildes von G.

Kapitel 1 Optik: Bildkonstruktion. Spiegel P` B P G. Ebener Spiegel: Konstruktion des Bildes von G. Optik: Bildkonstruktion Spiegel P G P` B X-Achse Ebener Spiegel: g = b g b G = B Konstruktion des Bildes von G. 1. Zeichne Strahl senkrecht von der Pfeilspitze zum Spiegel (Strahl wird in sich selbst reflektiert)

Mehr

Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg

Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg Image Compression Vorlesung FH-Hagenberg SEM Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz 1 Inhalte Redundanz Error-Free Compression Hufmann Coding Runlength Coding Lossy Compression

Mehr

Multimediatechnik / Video

Multimediatechnik / Video Multimediatechnik / Video Codierung, Datenreduktion Quantisierung, Lauflängencodierung DCT, JPEG http://www.nanocosmos.de/lietz/mtv Inhalt Codierung digitaler Signale Datenreduktion (Kompression) Verlustfrei

Mehr

Protokoll. Farben und Spektren. Thomas Altendorfer 9956153

Protokoll. Farben und Spektren. Thomas Altendorfer 9956153 Protokoll Farben und Spektren Thomas Altendorfer 9956153 1 Inhaltsverzeichnis Einleitung Ziele, Vorwissen 3 Theoretische Grundlagen 3-6 Versuche 1.) 3 D Würfel 7 2.) Additive Farbmischung 8 3.) Haus 9

Mehr

DIPLOMARBEIT. im Fachbereich Angewandte Informatik Studienschwerpunkt Medieninformatik. Herrnweg Grebenhain.

DIPLOMARBEIT. im Fachbereich Angewandte Informatik Studienschwerpunkt Medieninformatik. Herrnweg Grebenhain. Analyse, Bewertung und Umsetzung geeigneter Methoden zur Realisierung virtueller und realer Szenen für die stereoskopische Darstellung mittels eines 3D-Projetorensystems DIPLOMARBEIT im Fachbereich Angewandte

Mehr

7.7 Auflösungsvermögen optischer Geräte und des Auges

7.7 Auflösungsvermögen optischer Geräte und des Auges 7.7 Auflösungsvermögen optischer Geräte und des Auges Beim morgendlichen Zeitung lesen kann ein gesundes menschliche Auge die Buchstaben des Textes einer Zeitung in 50cm Entfernung klar und deutlich wahrnehmen

Mehr

Ringvorlesung Einführung in die Geodäsie Photogrammetrie Teil 1: Stereophotogrammetrie

Ringvorlesung Einführung in die Geodäsie Photogrammetrie Teil 1: Stereophotogrammetrie Ringvorlesung Einführung in die Geodäsie Photogrammetrie Teil 1: Stereophotogrammetrie Was ist Photogrammetrie t? Stereoskopisches Sehen und Messen Grundprinzipien Anwendungsbeispiele Prof. Dr. habil.

Mehr