Bildbasierte 3D Punktwolken Grundlagen, Anwendungen und Erfahrungen
|
|
- Lilli Schmitt
- vor 6 Jahren
- Abrufe
Transkript
1 Bildbasierte 3D Punktwolken Grundlagen, Anwendungen und Erfahrungen Heinz Jürgen Przybilla
2 Gliederung Einleitung Grundlagen Structure from Motion (SIFT und RANSAC Algorithmen) Bündelblockausgleichung Dense Image Matching (Dichte Bildzuordnung) Systeme Anwendungen & Erfahrungen Zusammenfassung Parameterisierung Agisoft Photoscan
3 Photogrammetrische Bildaufnahme Terrestrisch Unbekannte Innere Orientierung Äußere Orientierung Objektkoordinaten Räumlicher Bildverband
4 Photogrammetrische Bildaufnahme Luftbild Befliegungsanordnungen im Testfeld Zeche Zollern Nadir normal (REGULAR): dunkelblau Kreuz (CROSS): rot
5 Photogrammetrische Bildaufnahme Unstrukturiert Quelle: Räumlicher Bildverband
6 Photogrammetrische Bildaufnahme Unstrukturiert Quelle: Räumlicher Bildverband
7 Grundlagen Workflow Bilddatenerfassung SIFT Merkmalsextraktion RANSAC Merkmalszuordnung Kollinearitätsgleichung Bildtriangulation Sparse Point Cloud (Stereo ) Bildzuordnung Matching Dense Point Cloud
8 Grundlagen Bilddatenerfassung
9 Grundlagen In der Photogrammetrie wird die 3D Geometrie durch das Erstellen von Bildern desselben Objekts aus verschiedenen Positionen erhalten. Dies macht einen einzigen Punkt auf dem Objekt sichtbar als Pixel in mehreren Bildern. Für jedes Bild kann eine gerade Linie aus dem Kamerazentrum durch das Pixel im Bild gezogen werden. Diese Linien schneiden sich an einem Punkt, der die 3D Position des Objektpunktes darstellt.
10 Grundlagen Bild 1 XYZ Bild 2 Zentralperspektive Kamera1 Kamera2 Kollinearitätsgleichung x =f(iori,äori, OBJ KOORD.) y =f(iori,äori, OBJ KOORD.)
11 Grundlagen Vorausssetzung ist eine bekannte Innere und Äußere Orientierung jedes beteiligten Bildes. Zu diesem Zweck werden so genannte Verknüpfungspunkte verwendet, um alle Bilder miteinander zu verknüpfen. Jeder Verknüpfungspunkte ist ein gut erkennbarer Punkt, der in allen Bildern identifiziert wird, in denen er auftritt. Ausreichende Verknüpfungspunkte erlauben die Rekonstruktion der relativen Position aller Bilder.
12 Grundlagen Zusätzlich sollten bekannte Punkte (Passpunkte / Ground Control Points (GCPs)) mit 3D Koordinaten im übergeordneten System hinzugefügt werden ( Georeferenzierung). Verknüpfungspunkte und GCPs werden in einer Bündelblockausgleichung kombiniert, was zu den 3D Koordinaten (XYZ) aller Verknüpfungspunkte und, noch wichtiger, der Position und Orientierung jedes Bildes führt (IORI, ÄORI).
13 Grundlagen Merkmalsextraktion Bildtriangulation erfordert Verknüpfungspunkte Quelle:
14 Grundlagen Merkmalsextraktion Lösungsansatz
15 SIFT Algorithmus Algorithmus zur Extraktion lokaler Bildmerkmale: Scale Invariant Feature Transformation SIFT ( Massstabsunabhängige Merkmalstransformation ) Wird vorrangig bei der Bildregistrierung/ zuordnung verwendet.
16 SIFT Algorithmus Bilder werden im ersten Schritt mit einem Gauß Filter geglättet, um sie vom Bildrauschen zu bereinigen. Das Bild wird danach in lokale Merkmalspunkte unterteilt, die unempfindlich gegen perspektivische Verzerrung sind. Markant sind Objekte, deren Eigenschaften von ihrem Hintergrund abweichen.
17 SIFT Algorithmus Die extrahierten Merkmale sind unempfindlich gegenüber Koordinatentransformationen wie Translation, Rotation und Skalierung. Sie sind außerdem robust gegen Beleuchtungsvariation, Bildrauschen und geringere geometrische Deformation höherer Ordnung, wie zum Beispiel durch projektive Abbildung verursacht. Quelle: invariant_feature_transform
18 Merkmalspunkte Weiss: Merkmale ohne Korrespondenz Blau: Merkmale mit mindestens einer Korrespondenz
19 RANSAC Algorithmus Für die Zuordnung werden mittels des RANSAC Algorithmus die Daten mehrerer, zufällig ausgewählter Merkmalspunkte (verschiedener Bilder) auf eine Übereinstimmung verglichen. RANSAC RANdom SAmple Consensus (Übereinstimmung mit einer zufälligen Stichprobe) Der Algorithmus ist (im Sinne der Ausgleichungsrechnung) extrem robust.
20 RANSAC Algorithmus Der von Fischler und Bolles vorgeschlagene RANdom SAmple Consensus (RANSAC) Algorithmus ist ein allgemeiner Parameterschätzungsansatz, der entwickelt wurde, um einen großen Anteil an Ausreißern in den Eingangsdaten zu verarbeiten.
21 RANSAC Algorithmus Anders als viele der üblichen robusten Schätztechniken (z. B. M Schätzer), die von der Computer Vision Community aus der Statistikliteratur übernommen wurden, wurde RANSAC in der Computer Vision Community entwickelt.
22 RANSAC Algorithmus RANSAC ist eine Resampling Technik, die Lösungen erzeugt, indem sie die für die Schätzung der zugrundeliegenden Modellparameter erforderlichen Mindestanzahl der Beobachtungen (Datenpunkte) verwendet. RANSAC verwendet also die kleinste Menge und fährt fort dieses Set mit konsistenten Datenpunkte zu vergrößern.
23 RANSAC Algorithmus Dem gegenüber stehen Sampling Techniken, die so viel als möglich Daten nutzen um eine erste Lösung zu erhalten, um danach Ausreißer zu eliminieren. Der Grundalgorithmus ist wie folgt strukturiert:
24 RANSAC Algorithmus 1. Auswahl einer zufällig verteilten, minimalen Anzahl von Punkten, die zur Ermittlung der Modellparameter erforderlich sind. 2. Berechnen der Parameter des Modells. 3. Ermitteln, wie viele Punkte aus dem Satz aller Punkte zu einer vordefinierten Toleranz c passen.
25 RANSAC Algorithmus 4. Wenn der Anteil der Inlier aus der Gesamtanzahl der Punkte im Datensatz einen vordefinierten Schwellwert τ überschreitet, werden die Modellparameter mit allen identifizierten Inliern neu berechnet und die Berechnung beendet. Andernfalls wiederholen der Schritte 1 bis 4 (maximal N mal).
26 RANSAC Algorithmus Merkmalszuordnung Rote Linien: ungültige Zuordnungen Blaue Linien: gültige Verknüpfungen zwischen dem Bildpaar
27 Bündelblockausgleichung Bildtriangulation Unbekannte Innere Orientierung Äußere Orientierung Objektkoordinaten Sparse Point Cloud
28 Resultat der Triangulation Bündeltriangulation Sparse Point Cloud
29 Dense Image Matching (Dichte Bildzuordnung) Um eine dichte Punktwolke zu erhalten, wird für fast jedes Pixel im Bild ein entsprechender Punkt benötigt. Der Merkmals basierte Matching Ansatz ist für diesen Zweck nicht geeignet, da nicht jedes Pixel im Bild einem gut erkennbaren Merkmal in einem anderen Bild entspricht. Viele Pixel repräsentieren z.b. eine graue Oberfläche einer Straße oder eines Pflasters oder eines grünen Musters der Vegetation. Diese Pixel können nicht automatisch mit einer Funktion verknüpft werden und werden daher durch den Merkmals basierten Matching Ansatz nicht erfasst.
30 Dense Image Matching (Dichte Bildzuordnung) Dichte Bildzuordnung nutzt einen alternativen Ansatz, um einen entsprechenden Punkt für fast jedes Pixel im Bild zu erhalten. Anstatt das gesamte Bild nach Merkmalen zu durchsuchen, wird in zwei überlappenden Bildern Zeile für Zeile verglichen. Im Wesentlichen reduziert dies das Problem auf eine viel einfachere eindimensionale Suche.
31 Dense Image Matching (Dichte Bildzuordnung) Dies erfordert einen Bildrektifizierungsschritt, bevor das Matching beginnt. Die Bilder müssen so umgeformt werden, dass jede Zeile von Pixeln in einem Bild genau einer Zeile in dem anderen Bild entspricht, d.h. in technischer Hinsicht sollten die Zeilen der Bilder parallel zur Epipolarlinie sein.
32 Epipolargeometrie Kernebene bei konvergenten Aufnahmen rot: Bildvektoren / blau: Kernlinie
33 Epipolargeometrie Kernebene für den Stereo Normalfall (rot: Bildvektoren) / blau: Kernlinie
34 Dense Image Matching (Dichte Bildzuordnung) Im Falle von Luftbildern, die in langen Flugstreifen erfasst werden, gibt es in der Regel eine gute Korrespondenz zwischen den Zeilen, so dass nur eine kleine Korrektur benötigt wird. Terrestrische und schräge Bilder können jedoch eine erhebliche Anpassung erfordern, um diese Zeile zu Zeile Eigenschaft zu erreichen.
35 Dense Image Matching (Dichte Bildzuordnung) Aus rechnerischer Sicht kann dies mit einer einfachen Perspektivumwandlung erreicht werden. Für das menschliche Auge können die resultierenden Bilder stark verzerrt erscheinen
36 Dense Image Matching (Dichte Bildzuordnung) Quelle: N. Haala / Universität Stuttgart
37 Dense Image Matching (Dichte Bildzuordnung) Bild 1 Bild 2 Aktuelles Such Pixel Aktuelles Such Zeile Pixelzuordnung durch Grauwert-Suche in der zugehörigen Zeile des Nachbarbildes
38 Dense Image Matching (Dichte Bildzuordnung) Der Zeilen weise Ansatz für Bilder ist effizient, aber da jede Zeile vollständig unabhängig behandelt wird, besteht die Gefahr einer Trennung zwischen den Ergebnissen. Dieser Effekt heißt Streifenbildung (streaking). Um diesen Nachteil zu überwinden, wurde der Semi global Matching Ansatz (SGM) entwickelt.
39 Dense Image Matching (Dichte Bildzuordnung) SGM bewertet nicht nur horizontal nacheinander, sondern auch das Bild in 16 verschiedenen Richtungen. Dies ergibt 16 passende Ergebnisse, die dann in einer gewichteten Summe kombiniert werden, um ein endgültiges Ergebnis zu erzielen, das viel weniger Rauschen aufweist. Darüber hinaus kann dieser Ansatz weitere Bilder hinzufügen, die auch über eine Überlappung verfügen und für ein noch besseres Ergebnis sorgen.
40 Dense Image Matching (Dichte Bildzuordnung) Zugehöriges Pixel befindet sich in gleicher Reihe des Epipolarbildes Ergebnis der Zuordnung: Parallaxe, Disparität = Disparitäts/Parallaxenbild repräsentiert alle Parallaxen Eingabe für Triangulierung: Mit den bekannten Orientierungsparametern kann für jedes Pixel die zugehörige 3D-Punktkoordinate berechnet werden 3D Vorwärtsschnitt Quelle: N. Haala / Universität Stuttgart
41 Dense Image Matching (Dichte Bildzuordnung) Photogrammetrische Erfassung der Oberfläche erfolgt mit großer Redundanz: das gleiche Objekt erscheint in mehreren Bilder. Multi Stereo Zuordnung Quelle: N. Haala / Universität Stuttgart
42 Dense Image Matching (Dichte Bildzuordnung) Redundante Messungen werden zur Überprüfung der geometrischen Konsistenz genutzt um Fehlmessungen zu eliminieren und die Genauigkeit der Ergebnisse zu erhöhen. Ergebnis ist endgültige Tiefenkarte oder 3D Punktwolke. Quelle: N. Haala / Universität Stuttgart
43 Dense Image Matching (Dichte Bildzuordnung) Zuordnung jede Pixels des zentralen Basisbildes zu mehreren benachbarten Match Bilder (Multi Stereo Zuordnung). Überbestimmter Vorwärtsschnitt für jedes Pixel des Match Bildes. Quelle: N. Haala / Universität Stuttgart
44 Dense Image Matching Matching Dense Point Cloud
45 Dense Image Matching Matching Dense Point Cloud
46 3D Vermaschung
47 3D Vermaschung
48 Texturierung
49 DIM Systeme Das Angebot an Systemen zum Dense Image Matching ist umfangreich und wächst stetig weiter! Bundler / PMVS 2 (Cornell University) MicMac (IGN Paris) SURE (Uni Stuttgart) Photomodeler Scanner (EOS Systems) 123D Catch (Autodesk) Pix4DMapper (Pix4D) Photoscan (Agisoft)
50 Agisoft Photoscan Ist ein SFM/DIM Tool mit vollständiger grafischer Oberfläche und 3D Viewer Preis: ca (Educational License: 500 ) Rechnerausstattung: ENORM
51 Hardware Anforderungen Quelle:
52 Hardware Anforderungen Quelle:
53 Zeche Zollern (DIM)
54 Zeche Zollern (TLS)
55 Beispiel Deponie 1 Spezielle Topographie Vertikalausdehnung von ca. 35m > starke Variation der Überlappungsverhältnisse 2 Befliegungen 1. Längsüberdeckung 60% Querüberdeckung 60% Flughöhe 100m 2. Längsüberdeckung 60% Querüberdeckung 40% Flughöhe 100m Schrägaufnahmen auf einer Kreisbahn um den Deponiemittelpunkt auf 75m und 100m Höhe
56 Bildorientierung Ca. 110 Fotos (Kamera: Ricoh GXR)
57 Dense Point Cloud Punktewolke mit 30 Millionen Punkten
58 Zusammenfassung Dense Image Matching / Structure from Motion ist für den Geodäten ein reizvolles neues Werkzeug, das seine Wurzeln im Bereich des Computervision hat. Die Technologie bietet im Ergebnis Punktwolken, die nahezu die Eigenschaften der durch TLS / ALS erzeugten Geometriedaten aufweisen, aber deutliche Abhängigkeiten von Objektstruktur und Oberfläche haben.
59 Zusammenfassung Die Nutzung der am Markt verfügbaren Softwaren ist (scheinbar) ohne Vorabkenntnisse möglich Die Grundsätze der Photogrammetrie werden auch durch Dense Image Matching / Structure from Motion nicht außer Kraft gesetzt! Kenntnisse im Bereich der Bildtriangulation und insbesondere der Sensor (Kamera ) Kalibrierung sind zwingend notwendig!
60 Zusammenfassung Die dichte Punktwolke und das Orthofoto sind die sofort verfügbaren Endprodukte. Die Verfügbarkeit vektorieller Daten steht derzeit nicht im Fokus der Entwickler. Objektrepräsentationen erfolgen i.d.r. mittels Dreiecksvermaschung
61 Literatur SIFT Scale Invariant Feature Transformation David G. Lowe. Distinctive Image Features from Scale Invariant Keypoints. Computer Science Department University of British Columbia, Vancouver, B.C., Canada. January 5, 2004 RANSAC Random sample consensus M.A. Fischler and R.C. Bolles. Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography. Communications of the ACM, 24(6): , R. Hartley and A. Zisserman. Multiple View Geometry in Computer Vision. University Press, Cambridge, P. Torr and C. Davidson. IMPSAC: A synthesis of importance sampling and random sample consensus to effect multi scale image matching for small and wide baselines. In European Conference on Computer Vision, pages , P. Torr and A. Zisserman. MLESAC: A new robust estimator with applica tion to estimating image geometry. Computer Vision and Image Understanding, 78(1): , Dense Image Matching (Dichte Bildzuordnung) Hirschmüller, H. (2008): Stereo Processing by Semi Global Matching and Mutual Information. IEEE Transactions on Pattern Analysis and Machine Intelligence, 30 (2), pp K. Wenzel, M. Rothermel, N. Haala & D. Fritsch: SURE The ifp Software for Dense Image Matching. The_ifp_Software_for_Dense_Image_Matching
62 Agisoft Photoscan 1. Final Alignment Abschließende Bildorientierung 17% 2. Camera Position Optimization Optimierung der Kameraorientierung 0% 3. Dense Cloud Generation Erstellung der Dichten Punktwolke 79% 4. Mesh Generation Erstellung der 3D Vermaschung 2% 5. Texture Generation Erstellung des texurierten Modells 2% Verarbeitungszeit unter Verwendung von Standard-Einstellungen (Beispiel)
63 Grundeinstellung für die Verarbeitung Alignment (Bildorientierung) Accuracy (Genauigkeit) High Pair preselection (Paar Vorauswahl) Disabled Key point limit (Obergrenze der Key Points ) Tie point limit (Obergrenze der Verknüpfungspunkte) 4000 Constrain features by mask (Merkmale mittels Maskierung No ausgrenzen) Camera Optimization (Optimierung der Kameraorientierung) Parameters (*) f, cx, cy, k1 k3, p1, p2 (*) f Kamerakonstante; cx, cy Hauptpunktlage; k1-k4 Radialsymmetrische Verzeichung; p1-p4 Tangential aysmmetrische Verzeichnung (Innere Orientierung)
64 Grundeinstellung für die Verarbeitung Dense Point Cloud Generation (Erstellung der Dichten Punktwolke) Quality High Filtering mode Moderate Mesh Generation (Erstellung der 3D Vermaschung) Surface type (Oberflächenart) Height field Source data (Ausgangsdaten) Dense Cloud Interpolation (Interpolation) Enabled Quality (Qualität) High Depth filtering (Tiefenfilterung) Moderate Texture Generation (Erstellung des texturierten Modells) Mapping mode (Kartierungsmodus) Adaptive orthophoto Blending mode (Mischmodus) Mosaic Texture size (Texturgröße) 4,096 x 4,096
65 Grundeinstellung für die Verarbeitung DEM Generation (Erstellung des DHM) Source data (Ausgangsdaten) Interpolation (Interpolation) Orthomosaic Generation (Erstellung des Orthofotos) Channels (Kanäle) Blending mode (Mischmodus) Surface (Oberfläche) Enable color correction (Farbkorrektur verwenden) Dense cloud Enabled 3, uint8 Mosaic Mesh No
66 Primäre Parameter zur Bildorientierung Accuracy (Genauigkeit) Der Parameter "Genauigkeit" definiert die räumliche Auflösung jedes Bildes. Beispielsweise bedeutet die Auswahl eines höheren Wertes für "Genauigkeit" ein Bild mit einer höheren räumlichen Auflösung Highest Upscales image resolution by 4 High (Bildauflösung um den Faktor 4 hochskalieren) Original image resolution (Original Bildauflösung) Medium Downscales image resolution by 4 (Bildauflösung um den Faktor 4 reduzieren) Low Downscales image resolution by 16 (Bildauflösung um den Faktor 16 reduzieren) Lowest Downscales image resolution by 64 (Bildauflösung um den Faktor 64 reduzieren)
67 Primäre Parameter zur Bildorientierung Pair preselection (Paar Vorauswahl) Der Parameter "Paar Vorwahl" ermöglicht die Verwendung der durch das GNSS gemessenen Aufnahmepositionen (genäherte Äußere Orientierung) für die nachfolgende Merkmalszuordnung. Disabled Ground control only (nicht aktiv) Reference (Referenz) Key point limit Key points definieren die maximale Anzahl von Merkmalspunkten, die in jedem Bild identifiziert werden. Tie point limit (nur über Passpunkte /GCP) Airborne control enabled (Nutzung der GNSS Daten) XXXXX Upper threshold of feature points per image (Obergrenze für Merkmalspunkte pro Bild) XXXX Upper threshold of matching points per image (Obergrenze für Verknüpfungspunkte pro Bild)
68 Parameter zur Erstellung der Dichten Punktwolke Quality Ultra High (*) Original image resolution (Originale Bildauflösung) High Downscales image resolution by 4 (Bildauflösung um den Faktor 4 reduzieren) Medium Downscales image resolution by 16 (Bildauflösung um den Faktor 16 reduzieren) Low Downscales image resolution by 64 (Bildauflösung um den Faktor 64 reduzieren) Lowest Downscales image resolution by 256 (Bildauflösung um den Faktor 256 reduzieren) Depth filtering (Tiefenfilterung) Aggressive Filtert derart, dass kleinere Details verloren gehen Moderate Filteransatz liegt im Mittel zwischen aggressive und mild ( ausgeglichen ) Mild Filters Filtert nur wenige Punkte, so dass kleinere Details erhalten bleiben
69 Empfehlung für Verarbeitungsparameter Alignment (Bildorientierung) Resultat aus Serientest Default Accuracy Low High Pair preselection Disabled Disabled Key point limit Tie point limit Constrain features by mask No No
70 Vielen Dank für Ihre Aufmerksamkeit Prof. Dr. Ing. Heinz Jürgen Przybilla Hochschule Bochum Fachbereich Geodäsie Labor für Photogrammetrie Lennershofstr Bochum heinz bochum.de
Scannen ohne Scanner: Bildbasierte 3D Punktwolken Grundlagen, Anwendungen und Erfahrungen
Scannen ohne Scanner: Bildbasierte 3D Punktwolken Grundlagen, Anwendungen und Erfahrungen Heinz Jürgen Przybilla Gliederung Einleitung Grundlagen Dense Image Matching / Structure from Motion Systeme Anwendungen
MehrAuswertung von Bilddaten aus UAV Flügen Von der klassischen Aerotriangulation zum Dense Image. Matching
Auswertung von Bilddaten aus UAV Flügen Von der klassischen Aerotriangulation zum Dense Image Rainer Brechtken Rouven Borchert Heinz Jürgen Przybilla Rene Marcel Roderweiß Matching Gliederung Einleitung
MehrStructure-from-Motion. Christina Mundhenk Leo Sylvio Rüdian Marcel Kliemannel
Structure-from-Motion Christina Mundhenk Leo Sylvio Rüdian Marcel Kliemannel Fahrplan Structure-from Motion Workflow mit SIFT & Bundle Adjustment mit SURE Probleme/ Grenzen Technik Metrik und Vergleich
MehrUnmannedAerial Systems: UFOs für alle (Mess)-Fälle?
UnmannedAerial Systems: UFOs für alle (Mess)-Fälle? Heinz-Jürgen Przybilla Gliederung Einleitung Technische Komponenten der UAV-Systeme Administrative Rahmenbedingungen Auswertung und Produkte Anwendungsbeispiel
MehrUnmanned Aerial Systems im Messeinsatz: Über die Systemkonfiguration zur Qualität des geodätischen Endprodukts
Unmanned Aerial Systems im Messeinsatz: Über die Systemkonfiguration zur Qualität des geodätischen Endprodukts Prof. Dr. Ing. Heinz Jürgen Przybilla Hochschule Bochum Gliederung Historie Systemkomponenten
MehrNavigation anhand natürlicher Landmarken mit Hilfe der Scale Invariant Feature Transform. Thorsten Jost INF-M2 AW1 Sommersemester
Navigation anhand natürlicher Landmarken mit Hilfe der Scale Invariant Feature Transform Thorsten Jost INF-M2 AW1 Sommersemester 2008 Agenda Motivation Feature Detection Beispiele Posenbestimmung in Räumen
MehrInhalte. Methoden und Verfahren zur automatisierten Auswertung Bildtriangulation
Inhalte Methoden und Verfahren zur automatisierten Auswertung Bildtriangulation Grundlagen Blockausgleichung mit unabhängigen Modellen Bündelblockausgleichung HS BO Lab. für Photogrammetrie: Bildtriangulation
MehrSommersemester Prof. Dr. Christoph Kleinn Institut für Waldinventur und Waldwachstum Arbeitsbereich Fernerkundung und Waldinventur
Fernerkundung Grundlagen geometrischer Korrekturen und von resampling Techniken. Verschiebung der Scan-Linien bei Satellitenbildern Die Erdrotation ist einer der wesentlichen Gründe für die geometrischen
MehrPraktischer Einsatz der Drohnenbefliegung in der Vermessung
Praktischer Einsatz der Drohnenbefliegung in der Vermessung Arbeitsablauf und Herausforderungen Vermessungsbüro Käser Ingenieure GbR Geschäftsführer: Helmut Käser und Matthias Käser Mitarbeiter: ca. 40
MehrAktuelle Anwendungen in der Fotogrammetrie
Aktuelle Anwendungen in der Fotogrammetrie SOGI Feierabend Forum, Basel 19.11.2014 / Fabian Huber Folie 1 Agenda KOPA und KOPA Geoservices GmbH Fotogrammetrie heute Plattformen für fotogrammetrische Aufnahmen
Mehr'Visual Hull' mit Hilfe von Spiegeln
'Visual Hull' mit Hilfe von Spiegeln hwww.dip.ee.uct.ac.za/~kforbes/doublemirror/doublemirror.html Dreidimensionales Computersehen Dr.-Ing. Simon Winkelbach www.rob.cs.tu-bs.de/teaching/courses/cs 1 Zur
MehrDense Image Matching mit Schrägluftbildern der Leica RCD30 Oblique Penta
Dense Image Matching mit Schrägluftbildern der Leica RCD30 Oblique Penta MARIANNE DEUBER 1 Zusammenfassung: Für den Vergleich von Dense Image Matching Algorithmen wurde eine Untersuchungssyste-matik erarbeitet
MehrEidgenössische Technische Hochschule Zürich DARCH Institut Denkmalpflege und Bauforschung. IDB Institut für Denkmalpflege und Bauforschung
IDB Institut für Denkmalpflege Kombination von Tachymetrie und Nahbereichsphotogrammetrie zur Modellierung eines verstürzten Giebels in Kalapodi, Griechenland Silke Langenberg, Martin Sauerbier Institut
MehrMethoden und Verfahren zur automatisierten Auswertung
Inhalte Bildtriangulation Grundlagen Blockausgleichung mit unabhängigen Modellen Bündelblockausgleichung Methoden und Verfahren zur automatisierten Auswertung H.-J. Przybilla Bündelblockausgleichung 1
MehrGeodätisches Kolloquium
Geodätisches Kolloquium Projekte der Ingenieurvermessung DVW NRW e.v. Gesellschaft für Geodäsie Geoinformation und Landmanagement Deutscher Dachverband für Geoinformation e.v. Hochschule Bochum DVW VDV
Mehrgeoinformation.net Seite 1 von 18 FernerkundungGeoreferenzierte Bilddaten
geoinformation.net Seite 1 von 18 FernerkundungGeoreferenzierte Bilddaten geoinformation.net Seite 2 von 18 Luftbild Karlsruhe Ausschnitt ca. 1,4 x 1,4 km geoinformation.net Seite 3 von 18 Entzerrung http://www.caf.dlr.de/
MehrUntersuchung zur Genauigkeit der Kamerakalibrierung über Merkmalspunkte in SfM-Werkzeugen
1 Untersuchung zur Genauigkeit der Kamerakalibrierung über Merkmalspunkte in SfM-Werkzeugen Matthias SOOT, Marc SCHULZE und Christian MULSOW Zusammenfassung Im Bereich der Photogrammetrie werden Kameras
MehrLehrveranstaltung Fernerkundung. Mod. 1 p. 1. Typische Schritte in einem Fernerkundungsprojekt. Bildgeometrie. Vorlesungs- und Übungsplan SS 2010
Lehrveranstaltung Fernerkundung Vorlesungs- und Übungsplan 07.04.10 Einführung, Strahlung, Sensoren 14.04.10 Digitale Bilder, Bildstatistik& Kontraststreckung 21.04.10 Bild Verbesserung & Indexe 28.05.10
MehrBildauswertung in UAV
Bildauswertung in UAV Prof. Dr. Nailja Luth Prof. N. Luth Emden 2014-1 OTH Ost-Bayerische Technische Hochschule Amberg-Weiden Prof. N. Luth Emden 2014-2 Prof. Dr.-Ing. N. Luth: Vorlesung Bildverarbeitung
MehrPrinzip. Grundkonzept Zeilenkamera
Zeilenkameras Prinzip Grundkonzept Zeilenkamera Prinzip Sensor einzelne CCD-Zeile, orthogonal zur Flugrichtung angeordnet; oft auch pushbroom scanner Aufnahme System muss so konfiguriert sein, dass unmittelbar
MehrAnwendung einer Monokularen Kamera als Bewegungs-Sensor für Mobile Roboter p.1
Anwendung einer Monokularen Kamera als Bewegungs-Sensor für Mobile Roboter Tobias Pietzsch Anwendung einer Monokularen Kamera als Bewegungs-Sensor für Mobile Roboter p.1 Zielstellung Kamera als Sensor
MehrUAS-gestützte Datenerfassung für Anwendungen in der Landesvermessung
1 Institut für Photogrammetrie ifp UAS-gestützte Datenerfassung für Anwendungen in der Landesvermessung Michael Cramer Hamburg, 11.-12. Juni 2014 Definition Landesvermessung Einführung Die Landesvermessung
MehrRPAS im operationellen Einsatz beim LGL Baden-Württemberg 3D-Dokumentation von Hangrutschungen
1 Institut für Photogrammetrie RPAS im operationellen Einsatz beim LGL Baden-Württemberg 3D-Dokumentation von Hangrutschungen Michael Cramer LGL Forum Gelsenkirchen, 4.-5. Juni 2014 Geportal Baden-Württemberg
MehrSt. Mauritius Niederwenigern
St. Mauritius Niederwenigern Bauaufnahme durch die Hochschule Bochum am 25. April 2013 St. Mauritius wird vermessen Was passiert denn hier? So oder ähnlich lauteten am 25. April 2013 die Fragen von interessierten
MehrBildmerkmalssuche. Seminar Computational Photography. Visual Computing Department of Computer Science
Bildmerkmalssuche Seminar Computational Photography EINFÜHRUNG 2 Einführung Bildmerkmalssuche: sehr wichtiges Thema des künstlichen Sehens Erkennen von Objekten auf dem Bild oder in einer Bildsequenz anhand
MehrAutomatisch-generierte Texturen aus Laserpunktwolken
Automatisch-generierte Texturen aus Laserpunktwolken Sharon Friedrich, Maik Häsner Ruprecht-Karls-Universität Heidelberg Interdisziplinäres Zentrum für wissenschaftliches Rechnen (IWR) Softwarepraktikum
MehrObjektorientierte Bildverarbeitung Methodische Grundlagen
ARC GmbH Objektorientierte Bildverarbeitung Methodische Grundlagen Klaus Steinnocher, Florian Kressler klaus.steinnocher@arcs.ac.at Geschäftsfeld Umweltplanung ARC http://www.arcs.ac.at/s 1 ARC GmbH Einleitung!
Mehr15 Jahre Erfahrung mit Laserscanning in der Praxis
15 Jahre Erfahrung mit Laserscanning in der Praxis TopScan Gesellschaft zur Erfassung topographischer Information mbh Dr. Joachim Lindenberger Düsterbergstr. 5 48432 Rheine Germany info@topscan.de www.topscan.de
Mehrifp Mobile Mapping und Urban Modelling Möglichkeiten der photogrammetrischen Datenerfassung Institut für Photogrammetrie Prof. Dr.
Mobile Mapping Muttenz Institut für Photogrammetrie Mobile Mapping und Urban Modelling Möglichkeiten der photogrammetrischen Datenerfassung Prof. Dr. Norbert Haala Fachtagung Mobile Mapping Muttenz, 19.
MehrEinführung in die medizinische Bildverarbeitung WS 12/13
Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Landmarkenbasierte anhand anatomischer Punkte interaktiv algorithmisch z.b. zur Navigation im OP Markierung von
MehrMedienforensik - Manipulationserkennung. Multimedia Sicherheit, Martin Steinebach
Medienforensik - Manipulationserkennung - Ballistik Image Forensics Forensische Anwendungen im Bildbereich sind mehrfach belegt Optimierung von Bildern, die z.b. mit Überwachungskameras aufgenommen wurden
MehrComputer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg,
Nikos Canterakis Lehrstuhl für Mustererkennung, Universität Freiburg, Literatur Richard Hartle and Andrew Zisserman. Multiple View Geometr in computer vision, Cambridge Universit Press, 2 nd Ed., 23. O.D.
MehrFitting 3D Models to Images
Proseminar "Aufgabenstellungen der Bildanalyse und Mustererkennung" Fitting 3D Models to Images WS 08/09 Gliederung Einleitung Pose Consistency perspective Camera affine/projective Camera Linearkombinationen
MehrQuadrocopters and it s Applications: Overview of State of the Art Techniques
: Overview of State of the Art Techniques Visual Tracking for Robotic Applications Sebastian Brunner Lehrstuhl für Echtzeitsysteme und Robotik Technische Universität München Email: brunnese@in.tum.de Date:
MehrBetrachtung von Verfahren zur Posenbestimmung und Merkmalsexktraktion. Thorsten Jost INF-MA SR Wintersemester 2008/2009 1.
Betrachtung von Verfahren zur Posenbestimmung und Merkmalsexktraktion Thorsten Jost INF-MA SR Wintersemester 2008/2009 1. Dezember 2008 Agenda Motivation Feature Detection SIFT MOPS SURF SLAM Monte Carlo
MehrSeminar. Visual Computing. Poisson Surface Reconstruction. Peter Hagemann Andreas Meyer. Peter Eisert: Visual Computing SS 11.
Poisson Surface Reconstruction Peter Hagemann Andreas Meyer Seminar 1 Peter Eisert: SS 11 Motivation Zur 3D Darstellung von Objekten werden meist Scan-Daten erstellt Erstellung eines Dreieckmodells aus
MehrNEW technologies for a better mountain FORest timber mobilization
NEW technologies for a better mountain FORest timber mobilization UAV in der Forstwirtschaft Methoden und Grenzen Bernadette Sotier BFW - Institut für Naturgefahren Bernadette.Sotier@uibk.ac.at Innsbruck
MehrEVC Repetitorium Blender
EVC Repetitorium Blender Michael Hecher Felix Kreuzer Institute of Computer Graphics and Algorithms Vienna University of Technology INSTITUTE OF COMPUTER GRAPHICS AND ALGORITHMS Filter Transformationen
MehrEinführung in die medizinische Bildverarbeitung WS 12/13
Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Prozess einer räumliche Transformation zu finden um ein Bild auf ein anderes Bild abzubilden Eingabe: Fixed und
MehrVerfahren zur autonomen bildgestützten Navigation
Verfahren zur autonomen bildgestützten Navigation DGLR Workshop, 14. - 15.2.2007 Führungsaspekte unbemannter Luftfahrzeuge: Technologien und die Einbeziehung des Operateurs N. Schweyer, MBDA LFK-Lenkflugkörpersysteme
MehrStereo Vision. Projekt zur 3D Computer Vision Wintersemester 05/06
Stereo Vision Projekt zur 3D Computer Vision Wintersemester 05/06 Stereo Vision 3D Computer Vision: Rekonstruktion von Objektoberflächen aus Bildern Stereo Vision: Gleichzeitige Aufnahme eines Objekts
MehrDirekte Bestimmung von Zylindern aus 3D-Punkten ohne Nutzung von Oberflächennormalen
Direkte Bestimmung von Zylindern aus 3D-Punkten ohne Nutzung von Oberflächennormalen Christian BEDER und Wolfgang FÖRSTNER Zusammenfassung Die automatische Extraktion von Zylindern aus 3D-Punktwolken ist
MehrKamera-Navigation in Punktwolken
Kamera-Navigation in Punktwolken Jan BÖHM 1 Zusammenfasung Dieser Beitrag behandelt eine Methode zur automatischen Bestimmung der äußeren Orientierung für jedes einzelne Bild aus einer Bildsequenz, wobei
MehrCycloramas Nutzen und Mehrwerte für die Stadt Frankfurt am Main
Cycloramas Nutzen und Mehrwerte für die Stadt Frankfurt am Main Inhaltsübersicht Kurzüberblick Unternehmen CycloMedia Dienstleistungen CycloMedia Aufnahmeprinzip Messprinzip Globespotter Integrationen
MehrEin Structure and Motion Ansatz zur Umfeldrekonstruktion in komplexen Fahrzeugumgebungen
Sicherheit durch Fahrerassistenz 2010 Ein Structure and Motion Ansatz zur Umfeldrekonstruktion in komplexen Fahrzeugumgebungen Wojciech Derendarz, Thorsten Graf Volkswagen AG Friedrich M. Wahl TU Braunschweig,
MehrDigitale Bildverarbeitung (DBV)
Digitale Bildverarbeitung (DBV) Prof. Dr. Ing. Heinz Jürgen Przybilla Labor für Photogrammetrie Email: heinz juergen.przybilla@hs bochum.de Tel. 0234 32 10517 Sprechstunde: Montags 13 14 Uhr und nach Vereinbarung
MehrImplizite Modellierung zur Objekterkennung in der Fernerkundung
Implizite Modellierung zur Objekterkennung in der Fernerkundung Mitarbeiterseminar 20.01.2011 (IPF) Fakultät für Bauingenieur-, Geo- und Umweltwissenschaften KIT Universität des Landes Baden-Württemberg
MehrComputer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17
Computer Vision: 3D-Geometrie D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17 Lochkamera Modell C Projektionszentrum, Optische Achse, Bildebene, P Hauptpunkt (optische Achse kreuzt die Bildebene),
MehrSegmentierung und Datenapproximation von Laserscanneraufnahmen mittels statistischer Methoden
Segmentierung und Datenapproximation von Laserscanneraufnahmen mittels statistischer Methoden Ingo Neumann, Jens-André Paffenholz und Nico Lindenthal GEODÄTISCHES INSTITUT HANNOVER Session: Laserscanning
MehrGeometrisches Potential von Schrägbildern aus dem System AOS
Geometrisches Potential von Schrägbildern aus dem System AOS ALBERT WIEDEMANN 1 Zusammenfassung: Vermehrt werden von verschiedenen Herstellern Schrägbildsysteme angeboten. Am Beispiel des Schrägbildystems
MehrBachelorarbeit Untersuchung aktueller Technologien zur Erstellung von 3D-Modellen für die Landschaftsvisualisierung
Bachelorarbeit Untersuchung aktueller Technologien zur Erstellung von 3D-Modellen für die Landschaftsvisualisierung Autor:, 6. Semester Geomatik und Planung Leitung: Dr. Prof. Adrienne Grêt-Regamey Betreuung:
MehrDatenerfassung mit UAS Pilotprojekte am LGL
1 Institut für Photogrammetrie Datenerfassung mit UAS Pilotprojekte am LGL Michael Cramer LGL Forum Haus der Wirtschaft, Stuttgart 13. Mai 2014 2 RPAS Namen & Definitionen Weigand, Ute: UAS für zivile
MehrInhalte. HS BO Lab. für Photogrammetrie: Bildflug 1
Inhalte Bildflug Bildflugplanung Navigation (Einsatzmöglichkeiten von GPS und Inertialsystemen) Zweibildauswertung Grundlagen Stereoskopisches Sehen und Messen Stereoauswertesysteme Orientierungsverfahren
MehrDebayeringverfahren. 19. Mai Thomas Noack, Nikolai Kosjar. SE Computational Photography - Debayeringverfahren
Debayeringverfahren Thomas Noack, Nikolai Kosjar 19. Mai 2010 Was bisher geschah... Reduktion der Herstellungskosten durch Einsatz von nur noch einem CCD-Sensor mit Bayer-Filter Problem: Bayer Image Full
MehrDigitale Bildverarbeitung (DBV)
Digitale Bildverarbeitung (DBV) Prof. Dr. Ing. Heinz Jürgen Przybilla Labor für Photogrammetrie Email: heinz juergen.przybilla@hs bochum.de Tel. 0234 32 10517 Sprechstunde: Montags 13 14 Uhr und nach Vereinbarung
MehrMessungen im Objektkoordinatensystem aus Kamerabildern
Einbildorientierung Orientierung Ziel der Photogrammetrie Messungen im Objektkoordinatensystem aus Kamerabildern Dazu müssen bekannt sein die Abbildungsgeometrie der Kameras, d.h. die Parameter der inneren
MehrSoftwareprojekt Spieleentwicklung
Softwareprojekt Spieleentwicklung Prototyp I (2D) Prototyp II (3D) Softwareprojekt 12.04. 19.04. 26.04. 03.05. 31.05. Meilenstein I 28.06. Meilenstein II Prof. Holger Theisel, Tobias Günther, OvGU Magdeburg
MehrSoftware in der Industriellen Bildverarbeitung
Software in der Industriellen Bildverarbeitung Technologieentwicklung am Beispiel Pattern Matching Dr. Olaf Munkelt MVTec Software GmbH MVTec Software GmbH Firma konzentriert sich auf Building Vision for
MehrInhalte. Photogram. Aufnahmesysteme. HS BO Lab. für Photogrammetrie: Digitalisierung analoger Bilder 1
Inhalte Photogram. Aufnahmesysteme Metrische Kameras (Definition der Inneren Orientierung) Analoge Messkameras Fotografische Aspekte Digitalisierung analoger Bilder Digitale Aufnahmesysteme (Messkameras)
MehrIntegration geometrischer und fotogrammetrischer Information zum Wiederfinden von Bildern
Integration geometrischer und fotogrammetrischer Information zum Wiederfinden von Bildern Björn Burow SE Mustererkennung in Bildern und 3D-Daten Lehrstuhl Graphische Systeme BTU Cottbus Inhaltsübersicht
MehrVermessung und Photogrammetrie mit dem Trimble V10 Multi-Kamera Rover. Martin Köhler
Vermessung und Photogrammetrie mit dem Trimble V10 Multi-Kamera Rover Martin Köhler Inhalt Zielstellung Grundlagen der Photogrammetrie Der V10 Multi-Kamera Rover Konfigurationen in der Feldarbeit Photogrammetrische
Mehr2. Hamburger Anwenderforum Terrestisches Laserscanning 2007. 3D-Spezialvermessung zur Dokumentation komplexer Anlagen
2. Hamburger Anwenderforum Terrestisches Laserscanning 2007 3D-Spezialvermessung zur Dokumentation komplexer Anlagen Dr. Ing. Ralf König ObjektScan GmbH Kopernikusstrasse 2 14482 Potsdam Einsatzbereiche
MehrInhalte. Genauigkeitsaspekte der Luftbildmessung Anwendungen und Produkte der Stereoauswertung Einzelbildauswertung
Inhalte Genauigkeitsaspekte der Luftbildmessung Anwendungen und Produkte der Stereoauswertung Einzelbildauswertung Digitales Orthophoto Flugzeuggetragenes (Airborne) Laserscanning HS BO Lab. für Photogrammetrie:
MehrDigitale Bildverarbeitung Einheit 12 3D-Modellierung
Digitale Bildverarbeitung Einheit 12 3D-Modellierung Lehrauftrag WS 05/06 Fachbereich M+I der FH-Offenburg Dipl.-Math. Bernard Haasdonk Albert-Ludwigs-Universität Freiburg Ziele der Einheit Einen Eindruck
MehrEinzelbildauswertung. Digitales Orthophoto. HS BO Lab. für Photogrammetrie: Digitales Orthophoto 1
Einzelbildauswertung Digitales Orthophoto HS BO Lab. für Photogrammetrie: Digitales Orthophoto 1 Digitales Orthophoto (DOP) Orthophotos sind hochauflösende, verzerrungsfreie, maßstabsgetreue Abbildungen
MehrSuperweitwinkel- und Fisheye-Kameras in photogrammetrischen Anwendungen
Dreiländertagung der DGPF, der OVG und der SGPF in Bern, Schweiz Publikationen der DGPF, Band 25, 2016 Superweitwinkel- und Fisheye-Kameras in photogrammetrischen Anwendungen MUYAN XIAO 1 & MICHAEL CRAMER
MehrWorkflows, Ansprüche und Grenzen der GNSS- Datenerfassung im Feld
Workflows, Ansprüche und Grenzen der GNSS- Datenerfassung im Feld Alexander Fischer Senior Application Engineer Asset Collection & GIS 1 Leica Zeno GIS Agenda Erfassung im Feld VS Erfassung im Office Validierung
MehrProf. J. Zhang zhang@informatik.uni-hamburg.de. Universität Hamburg. AB Technische Aspekte Multimodaler Systeme. 6. Januar 2004
zhang@informatik.uni-hamburg.de Universität Hamburg AB Technische Aspekte Multimodaler Systeme zhang@informatik.uni-hamburg.de Inhaltsverzeichnis Kalibrierung einer Kamera: Grundkonzept...............344
MehrGrundlagen der digitalen Bildverarbeitung / Fortsetzung
Grundlagen der digitalen Bildverarbeitung / Fortsetzung Wir haben bereits zwei Beispiele digitaler Bildfilter gesehen. Es gibt eine große Menge von Filtern mit ganz unterschiedlicher Auswirkung auf das
MehrImplementierung und Evaluierung von Video Feature Tracking auf moderner Grafik Hardware
Implementierung und Evaluierung von Video Feature Tracking auf moderner Diplomarbeit vorgelegt von Sebastian Heymann Betreut von Prof. Dr. Bernd Fröhlich Bauhaus Universität t Dr. Aljoscha Smolic Fraunhofer
MehrApplying Pléiades in the ASAP project HighSens
Applying Pléiades in the ASAP project HighSens Highly versatile, new satellite Sensor applications for the Austrian market and International Development (Contract number: 833435) Dr. Eva Haas, GeoVille
MehrNutzen von Drohnendaten
Nutzen von Drohnendaten Nutzen von Drohnendaten Die allnav ag ist kompletter Lösungsanbieter im Bereich UAS Jürg Pulfer Applikationsingenieur MEB Group allnav als wichtiger Bestandteil der MEB Group Experten
MehrRendering Grundlagen Autodesk Maya. Grundlagen. Version 1.0-2009-04-08. 2009 Ingo Clemens brave rabbit www.braverabbit.de
Rendering Grundlagen Version 1.0-2009-04-08 Allgemeine Unterschiede bei Renderern Scanline Rendering Raytrace Rendering Renderlayer Einsatz von Renderlayern Overrides Material Overrides Layer Presets Batch
MehrElementare Bildverarbeitungsoperationen
1 Elementare Bildverarbeitungsoperationen - Kantenerkennung - 1 Einführung 2 Gradientenverfahren 3 Laplace-Verfahren 4 Canny-Verfahren 5 Literatur 1 Einführung 2 1 Einführung Kantenerkennung basiert auf
MehrOptimierte automatische Kameraorientierung auf Basis projektiver Beziehungen
Fakultät für Geowissenschaften, Geotechnik und Bergbau Institut für Markscheidewesen und Geodäsie Diplomarbeit Optimierte automatische Kameraorientierung auf Basis projektiver Beziehungen David Matthus
MehrBildverbesserung (Image Enhancement)
Prof. Dr. Wolfgang Konen, Thomas Zielke Bildverbesserung (Image Enhancement) WS07 7.1 Konen, Zielke Der Prozess der Bildverbesserung (1) Bildverbesserung wird häufig dafür eingesetzt, die für einen menschlichen
MehrMobile Stereobild basierte 3D Infrastrukturerfassung
Mobile Stereobild basierte 3D Infrastrukturerfassung und verwaltung 4. Hamburger Anwenderforum Terrestrisches Laserscanning 23. Juni 2011, Hamburg Hannes Eugster inovitas AG Mobile Mapping Solutions Gründenstrasse
Mehr3D-Fotografie für die Betrachtung ohne Brille oder Spezialmonitor
3D-Fotografie für die Betrachtung ohne Brille oder Spezialmonitor Stefan.Hahn@3D-Competence.com Spectaris Technologieforum Photokina 2010 Kurzvorstellung In einem deutschen Automobilunternehmen verantwortlich
MehrMarching Cubes - Erstellung von Polygonmodellen aus Voxelgittern
Marching Cubes - Erstellung von Polygonmodellen aus Voxelgittern Matthias Kirschner Advanced Topics in Computer Graphics - WS06/07 Marching Cubes - Erstellung von Polygonmodellen aus Voxelgittern Matthias
MehrEinfluss von Dichteannahmen auf die Modellierung topographischer Effekte
Geodätische Woche 2010 05. - 07. Oktober, Köln Session 2: Schwerefeld und Geoid Einfluss von Dichteannahmen auf die Modellierung topographischer Effekte Thomas Grombein, Kurt Seitz und Bernhard Heck t
MehrAutomatische Verfahren zur Verknüpfung von Punktwolken
Automatische Verfahren zur Verknüpfung von Punktwolken Dr.-Ing. Christian Hesse 16.06.2009 3. Hamburger Anwenderforum Terrestrisches Laserscanning 1 Inhalt Einleitung Ansätze zur automatischen Registrierung
MehrInnovationslabor Semantische Integration von Webdaten
Innovationslabor Semantische Integration von Webdaten Workflow-basierte Datenintegration und Objekt-Matching Dr. Andreas Thor http://dbs.uni-leipzig.de/format Workflow-basierte Datenintegration Ausgangspunkt
MehrDense Image Matching mit Oblique Luftbildaufnahmen Ein systematischer Vergleich verschiedener Lösungen mit Aufnahmen der Leica RCD30 Oblique Penta
Dense Image Matching mit Oblique Luftbildaufnahmen Ein systematischer Vergleich verschiedener Lösungen mit Aufnahmen der Leica RCD30 Oblique Penta STEFAN CAVEGN 1, STEPHAN NEBIKER 1 & MARIANNE DEUBER 1
MehrQualitative Beurteilung photogrammetrischer Aufnahmekonstellationen im Nahbereich
Qualitative Beurteilung photogrammetrischer Aufnahmekonstellationen im Nahbereich Karsten Raguse Manfred Wiggenhagen Inhalt Motivation Übersicht Optische Messkette Bestandteile der Messkette Simulation
MehrMobile Mapping. Eine Gegenüberstellung unterschiedlicher Verfahren zur Erfassung von Straßendaten. Christian Wever TopScan GmbH wever@topscan.
Mobile Mapping Eine Gegenüberstellung unterschiedlicher Verfahren zur Erfassung von Straßendaten Christian Wever TopScan GmbH wever@topscan.de TopScan Gesellschaft zur Erfassung topographischer Information
MehrTracking Technologien für Augmented Reality
Tracking Technologien für Augmented Reality 1 Inhalt Motivation Tracking Methoden Optisch MarkerlessTracking (kleine Wiederholung) Aktiv und Passive Marker Modellbasiertes Markerless Tracking Sensoren
MehrFachhochschule Aachen
Fachhochschule Aachen Campus Jülich Labor für Medizinische Informatik Prof. Dr. W. Hillen MULTI-VIEW-STEREO-PIPELINE ZUR TIEFENREKONSTRUKTION VON PFLANZEN MIT STRUCTURE-FROM-MOTION UND BÜNDELAUSGLEICHUNG
MehrKapitel 4: Schattenberechnung
Kapitel 4: Schattenberechnung 1 Überblick: Schattenberechnung Motivation Schattenvolumen Shadow Maps Projektive Schatten 2 Motivation Wesentlich für die Wahrnehmung einer 3D-Szene Eigentlich ein globaler
MehrDigitale Bildverarbeitung Einheit 12 3D-Rekonstruktion
Digitale Bildverarbeitung Einheit 12 3D-Rekonstruktion Lehrauftrag SS 2008 Fachbereich M+I der FH-Offenburg Dr. Bernard Haasdonk Albert-Ludwigs-Universität Freiburg Ziele der Einheit Einen Eindruck davon
MehrAnalysis of Crash Simulation Data using Spectral Embedding with Histogram Distances
Analysis of Crash Simulation Data using Spectral Embedding with Histogram Distances Luisa Schwartz Universität Bonn Institut für Numerische Simulation Fraunhofer SCAI 25. September 2014 Luisa Schwartz
Mehrgeschlossene Schachtel mit einem kleinen Loch
Kameramodellierung Lochkamera Kamerakonstante Kamerazentrum geschlossene Schachtel mit einem kleinen Loch ideale Kamera: Loch hat keine Ausdehnung die Strahlen sind ein Büschel von Geraden Abbildung erfolgt
MehrDigitale Bildverarbeitung (DBV)
Digitale Bildverarbeitung (DBV) Prof. Dr. Ing. Heinz Jürgen Przybilla Labor für Photogrammetrie Email: heinz juergen.przybilla@hs bochum.de Tel. 0234 32 10517 Sprechstunde: Montags 13 14 Uhr und nach Vereinbarung
MehrBildverarbeitung: Filterung. D. Schlesinger () Bildverarbeitung: Filterung 1 / 17
Bildverarbeitung: Filterung D. Schlesinger () Bildverarbeitung: Filterung 1 / 17 Allgemeines Klassische Anwendung: Entrauschung (Fast) jeder Filter basiert auf einem Modell (Annahme): Signal + Rauschen
MehrObjekterkennung am Beispiel des Viola-Jones-Objektdetektors
Objekterkennung am Beispiel des Viola-Jones-Objektdetektors Medieninformatik IL Andreas Unterweger Vertiefung Medieninformatik Studiengang ITS FH Salzburg Wintersemester 2014/15 Andreas Unterweger (FH
MehrTopologieerkennung von Sensornetzwerken
looz@ira.uka.de Institut für Theoretische Informatik - Algorithmik I 26. Januar 2010 Übersicht Motivation Definitionen Überlegungen Algorithmus Resultate Motivation Definitionen Überlegungen Algorithmus
MehrIntelligente Systeme WS 2015/16
Lehrgebiet Intelligente Systeme WS 2015/16 Andreas Dengel Fragestellungen Automatisierung von intelligentem" Verhalten im Sinn eines Leistungsverstärkers für den Menschen, z.b. Verstehen von Bildern, Sprache
MehrDie vier goldenen Regeln für die Einzugsgebietserstellung und -berechnung im MikeUrban
Die vier goldenen Regeln für die Einzugsgebietserstellung und -berechnung im MikeUrban 1.) Shape-Files dürfen nicht projiziert sein, d.h. wenn *.prj-dateien vorhanden sind, diese bitte löschen. 2.) Einzugsgebiete
MehrDynamically Reparameterized Light Fields
Dynamically Reparameterized Light ields Aaron Isaksen Leonard McMillan Steven J. Gortler MIT LCS Computer Graphics Group GDV Seminar 2000 Präsentation: Simon Schirm Betreuer: Stephan Würmlin Übersicht
MehrR.Wagner, Mathematik in der Astronomie
Mathematik in der Astronomie Roland Wagner Johann Radon Institute for Computational and Applied Mathematics (RICAM) Österreichische Akademie der Wissenschaften (ÖAW) Linz, Austria Linz, 20.Mai 2016 Übersicht
MehrInhalte. HS BO Lab. für Photogrammetrie: Verfahren zur automatisierten Auswertung 1
Inhalte Verfahren zur automatisierten Auswertung Korrespondenzanalyse Bildzuordnungsverfahren Merkmalsextraktion Merkmalsbasierte Zuordnung Interest-Operatoren Flächenbasierte Zuordnung Korrelationsalgorithmen
Mehr