Jun.Prof. Dr. Irmgard Niemeyer I Arbeitsgruppe Photogrammetrie / Geomonitoring Institut für Markscheidewesen und Geodäsie I TU Bergakademie Freiberg Reiche Zeche, Fuchsmühlenweg 9 I 9599 Freiberg Tel./Fax 373 39-359/-36 I irmgard.niemeyer@tu-freiberg.de I www.geomonitoring.tu-freiberg.de Einführung in die Geoinformatik SS 27, Vorlesung Do 9:5-, HUM-5 Helmut Schaeben, Richard Gloaguen, Irmgard Niemeyer
Einführung in die Geoinformatik Vorlesungsplan 5. April 27 Eine leichte Einführung und Begriffserklärung Helmut Schaeben 2 9. April 27 Tesselation, Interpolation Helmut Schaeben 3 3. Mai 27 Digitale Bilddaten Irmgard Niemeyer 4 3. Mai 27 Digitale Bildverarbeitung Irmgard Niemeyer 5 4. Juni 27 BHT: Geomonitoring in the Energy and Mineral Resources Industry Using Remote Sensing Methodologies Irmgard Niemeyer Richard Gloaguen 6 28. Juni 27 Richard Gloaguen 7 2. Juli 27 Richard Gloaguen 2
Grundlagen der digitalen Bildverarbeitung Einführung, Begriffe Band 2 Digitale Bilddaten Band N Bildfusion Bildfilterung Multispektrale Transformationen Klassifizierung Objekt-basierte Bildanalyse Band Multispektraler, N-dimensionaler Merkmalsraum i j n 3
Begriffe Digitale Bildverarbeitung (digital image processing) umfasst ( ) die Methoden der EDV-gestützten Vorverarbeitung, Informationsverstärkung und Informationsextraktion (Mustererkennung) aus digitalen Rasterbildern. In einer simplifizierten Darstellungsweise lässt sich die digitale Bildverarbeitung in drei funktionale Kategorien gliedern:. die Vorverarbeitung (preprocessing) oder Bildrestaurierung (image restauration) 2. die Informationsverstärkung (image enhancement) und 3. die Informationsgewinnung oder extraktion (information extraction) [Lexikon der Kartographie und Geomatik, 2] 4
Begriffe Digitale Bildverarbeitung Die digitale Bildverarbeitung stellt Methoden und Techniken zur Verfügung, um natürliche Bilder zu transformieren, zu modifizieren oder zu codieren. Die Zielrichtung der Bildverarbeitung ist zweigeteilt: Ein Teil beschäftigt sich mit den Möglichkeiten, aus Bildern wieder Bilder zu erstellen, um aus modifizierten Bildern mehr Informationen für die visuellen Bildbearbeitung und Auswertung zu bekommen, während sich der andere Teil damit beschäftigt, Bilder automatisch zu erkennen. Den ersten Teil, aus Bildern wieder Bildern zu erstellen, bezeichnet man als Bildverbesserung oder Bildtransformation, den zweiten Teil, Bilder automatisch zu erkennen oder Bilder automatisch auszuwerten, bezeichnet man als Mustererkennung oder Bildinterpretation. [Abmayr 994] 5
Begriffe Eine kleine Geschichte der digitalen Bildverarbeitung Ursprünge gehen auf medizinische Applikationen zurück (Auswertung von Röntgen- und Körperscanner-Aufnahmen in der Fernerkundung seit den 6er Jahren Analyse der Bilddaten unbemannter planetarer Missionen Gewaltiger Entwicklungsschub durch die neuen digitalen Bilder der LANDSAT-Mission Weitere Impulse durch die Entwicklung immer stärkerer und schnellerer Computer 6
Begriffe Aktuelle Trends der digitalen Bildverarbeitung Integration nichtabbildender Daten der Fernerkundung, v.a. zur Generierung digitaler Geländemodelle der Erdoberfläche, wie beispielsweise Radar-Interferometrie und (flugzeuggestütztes) Laserscanning Verstärkte Nutzung wissensbasierter Bildanalyseverfahren 7
Menschliches und maschinelles Sehen Hell-Dunkel-Wahrnehmung [Abmayr 994] 8
Menschliches und maschinelles Sehen Muster und Objektgrenzen [Abmayr 994] 9
Menschliches und maschinelles Sehen Länge und Fläche [Jähne 22]
Menschliches und maschinelles Sehen Größe von Objekten [Abmayr 994]
Menschliches und maschinelles Sehen Dreidimensionale Objekte [Jähne 22] 2
Menschliches und maschinelles Sehen Das maschinelle Sehen ist ohne das menschliche Sehen undenkbar, denn jedes Bild läst sich nur mit Hilfe des visuellen System des Menschen beurteilen! Die Bildausgabe auf einen Monitor, Drucker u.a. sollte sich deswegen an den Fähigkeiten des menschlichen Sehens orientieren. Bedeutende Entwicklungen beim maschinellen Sehen wurden erst möglich durch das Verständnis der neurophysiologische Vorgänge im menschlichen Auge. Die Leistungsfähigkeit des menschlichen visuellen Systems ist enorm bei der Objekterkennung. Weniger geeignet ist es hingegen für die exakte Bestimmung von Grauwerten, Entfernungen und Flächen. Das menschliche Auge kann nur lediglich 2 bis 3 unterschiedliche Grauwerte wahrnehmen, kann aber leicht eine sehr grosse Anzahl von Farben unterscheiden. Ein digitales Bildverarbeitungssystem vermag einzelne Bildpunkte exakt zu bestimmen, allerdings ist es (noch?) nicht in der Lage, Bilder zu verstehen, wie Menschen es können. 3
4 Digitale Bilddaten: Schwarz-Weiß-Bild ( ) G g y x s =, { }, G = ( ) [ ] y x s B, = ( ) y x, Grauwertmenge {Schwarz,Weiß} Bildmatrix mit L Zeilen und R Spalten Ortskoordinaten des Bildpunktes Grauwert der Ortskoordinate R y L x Schwarz-Weiß-Bild Grauwerte (schwarz), (weiß) 6x6 Rasterung
Digitale Bilddaten: Grauwertbild G={,} G={ 6} G={ 255} G = s {...255 } [ s( x y) ] B =, ( x, y) ( x, y) = g G Grauwertmenge Bildmatrix mit L Zeilen und R Spalten x L y R Ortskoordinaten des Bildpunktes Grauwert der Ortskoordinate 5
Digitale Bilddaten: Rasterung Rasterung eines Grauwertbildes: x, 2x2,4x4 8x8,6x6,32x32 64x64,28x28,256x256 6
Farb- und Multispektralbilder Digitale Bilddaten: Farbbild 7
Digitale Bilddaten: Farbbild Rot Grün Blau R-G-B G = g n {..255 } [ s( x, y n) ] B =, r s ) T ( x y) = ( g, g, g, 2 G, n =,,2 Grauwertmenge dreidimensionale Bildmatrix mit x L y R n =,,2 Bildpunkt in der Position (x,y) Index für Rot, Grün oder Blau 8
Digitale Bilder Digitale Bilddaten: Multispektralbild Falschfarbenkomposits, Southern Carolina 3-2- G = {..255 } Grauwertmenge B = [s( x, y, n)] dreidimensionale Bildmatrix mit x L y R n =..N r s ( x, y ) = ( g, g, g 2)T Bildpunkt in der Position (x,y) g n G, n =..N4-3-2 Kanal- oder Spektralbereichsindex http://landsat.gsfc.nasa.gov/data/browse/ Comparisons/L7_BandComparison.html 7-4-2 9
Digitale Bilddaten: Zeitreihenbild G = {..255 } [ s( x, y, n t) ] B =, r r r [ s( x, y)] = [ g, g.. g T ] r g = ] t g tn G [ g t, g t.. g tn T Grauwertmenge vierdimensionale Bildmatrix mit x L y R n =.. N t =.. T Bildpunkt in der Position (x,y) als Matrix Vektor der N-Kanaligen Grauwerte zum Zeitpunkt t Grauwert bei (x,y) zum Zeitpunkt t im Kanal n 2
Digitale Bilddaten: Bildmatrix Aufbau und Inhalt einer Bildmatrix mit Grauwerten [de Lange 26] 2
Digitale Bilddaten Band 2 Multispektraler, N-dimensionaler Merkmalsraum Band N Band i Bildmatrix X=(x) ijn j i=...i Bildzeilen j=...j Bildspalten n=...n Kanäle n 22
Digitale Bilddaten: Vektoren und Matrizen [Richards & Jia 999] 23
Digitale Bilddaten: Speicherformate A B C 2A 2B 2C A B C 2A 2B 2C A B C 2A 2B 2C band interleaved by pixel (BIP) Header A A A B B BCCC 2A 2A 2A 2B 2B 2B2C 2C 2Ceof band interleaved by line (BIL) HeaderA B C AB CABC 2A 2B2C 2A 2B 2C2A 2B 2Ceof band sequential (BSQ) HeaderA B C 2A2B 2C ABC 2A 2B2C 2A 2B 2C2A 2B 2Ceof 24
Digitale Bilddaten: Histogramm Histogramm der relativen Häufigkeiten von S: p s ( g) = a g M g =,,...,255 (Grauwerte der Grauwertmenge G) a g = Häufigkeit des Auftretens des Grauwertes g in S M = Anzahl der Messwerte Eigenschaft: 255 g = p s ( g) = 25
Digitale Bilddaten: Histogramm Fehlererkennung zu dunkel zu hell kontrastarm 26
Bildfusion Verschmelzung von Bilddaten aus verschiedenen Quellen, um den Informationsgehalt des Bildes zu steigern Zwecke: u.a. Bildverschärfung, Verbesserung der geometrischen Korrektur, Ersetzen fehlender Informationen bzw. schadhafter Daten 27
Bildfusion mittels IHS Transformation Panchromatische Daten höherer Auflösung Neue Intensität Multispektrale Daten geringerer Auflösung Kombinierte Daten Rot Intensität Rot Grün IHS-Transf Transf. Farbton Inverse Transf. Grün Blau Sättigung Blau Prinzip der Kombination multisensoraler Daten mittels IHS-Transformation [verändert nach Albertz 2] 28
Bildfilterung Zwecke: Glättung des Bildes Behebung von technischen Störeinflüssen, Bildrauschen, Kontrastausgleich Schärfung des Bildes, Betonung der lokalen Besonderheiten und Extrema, z.b. Kanten und Konturen [Mather 24] 29
Filterung im Ortsbereich Nutzung eines rechteckigen oder quadratischen Bildausschnitts (Fenster, Maske, Kernel, Filter) der auf die Bildkoordinate (x,y) zentriert wird und dann von Pixel zu Pixel verschoben wird: T[f(x,y)] = w f(x-,y-) + w 2 f(x-,y) + w 3 f(x-,y+) + w 4 f(x,y-) + w 5 (x,y) w 5 f(x,y) + w 6 f(x,y+) + w 7 f(x+, y-) + w 8 f(x+,y) + w 9 f(x+, y+) w w 9 sind Gewichtungsfaktoren, die dem Zentralpixel sowie seinen 8 Nachbarn zugeordnet sind Funktion der Maske wird durch die Koeffizienten bestimmt 3
Multispektrale Transformationen: Vegetationsindizes Das charakteristische spektrale Reflexionsverhalten von photosynthetisch aktiver, grüner Vegetation und die daraus resultierenden spezifischen spektralen Signaturen in mutlispektralen Bilddaten erlauben die Entwicklung von Maßzahlen, mit denen Oberflächen mit lebender Vegetation von unbewachsenen oder mit abgestorbener Vegetation bedeckten Flächen zu unterscheiden. Ratio-Vegetationsindex RVI NIR RVI = R RVI [,255](8bit) NIR= spektrale, reflektierte Strahldichte in einem Aufnahmekanal des nahen Infrarot R= spektrale, reflektierte Strahldichte in einem Aufnahmekanal des roten Spektralbereichs Normalized Difference Vegetation Index NDVI (Höhere Auflösung als RVI) NIR R NIR R NDVI = bzw. NDVI = ( + ) 27.5 NIR + R NIR + R NDVI [,] NDVI [,255](8bit) 3
Multispektrale Transformationen: Vegetationsindizes 3N 2 - Sächsische Schweiz, ASTER-Aufnahme vom 8.5.22 RVI NDVI 32
Multispektrale Transformationen: Hauptkomponententransformation z.b. Reduzierung der Dimensionen vor einer Klassifizierung [Richards 999] Zwei Dimensionen, zwei Klassen Trennung der Klassen mittels der ersten Hauptkomponenten 33
Multispektrale Transformationen: Hauptkomponententransformation Lineare Transformation des Merkmalsraumes, hier für den zweidimensionalen Fall erläutert: x 2 Stichproben aus den Kanälen x und x 2 y 2 y x Ziel: Reduktion der zwei Dimensionen x und x 2 auf eine Dimension Projektion y in Richtung maximaler Streuung der Datenvektoren 34
Multispektrale Transformationen: Hauptkomponententransformation Andomooka, zentrales Australien Landsat MSS, rot. Hauptkomponente Landsat MSS 2, grün 2. Hauptkomponente Landsat MSS 3, IR 3. Hauptkomponente Landsat MSS 4, IR [Richards 999] 4. Hauptkomponente 35
Klassifizierung Klassifizieren = die Grauwerte der Bildpixel durch Klassenlabens ersetzen Pixelvektor [Richards 999] 36
Klassifizierung Zweidimensionaler multispektraler Merkmalsraum Band 2 Band Cluster im zweidimensionalen Raum Zwei mögliche Clustereinteilungen eines zweidimensionalen Datensatzes [Richards 999] 37
Unüberwachte Klassifizierung Clusterverfahren: K-Means [verändert nach Richards 999] 38
Unüberwachte Klassifizierung Untersuchungsgebiet Euskirchen/Bonn: Auschnitt einer TK; Bonn C56 LANDSAT TM5 Szene vom 8.9.997 Euskirchen/Bonn, dargestellt als Falschfarbenkomposit der ersten drei Hauptkomponenten 39
Unüberwachte Klassifizierung K-Means Clustering, 9 Klassen 4
Überwachte Klassifizierung Ausgewählte Landsat MSS-Messungen entlang einer Scan-Linie. Kanäle: blau, 2 grün, 3 rot, 4 nahes Infrarot, 5 thermales Infrarot [Lillesand & Kiefer 994] 4
Überwachte Klassifizierung Arbeitsschritte in der überwachten Klassifizierung [Lillesand & Kiefer 994] 42
Überwachte Klassifizierung Trainingsgebiete im multispektralen Merkmalsraum [Lillesand & Kiefer 994] 43
Überwachte Klassifizierung Verteilung der 94 Trainingsgebiete im Untersuchungsraum, dargestellt auf der ersten Hauptkomponente 44
Überwachte Klassifizierung Maximum-Likelihood Klassifierung 45
Objekt-basierte Bildanalyse Objektlevel 3 hierarchisch Objektlevel 2 [Baatz et al. 2] Objektlevel Pixel Objektlevel Objektlevel 2 Objektlevel 3 46
Objekt-basierte Bildanalyse Das Konzept der objekt-basierten Bildanalyse beruht auf der Annahme, dass semantische Information notwendig ist, um Bilder vollständig zu interpretieren. Diese Information kann nicht von einzelnen Pixeln repräsentiert werden, sondern nur von aussagekräftigen Bildobjekten und ihren wechselseitigen Beziehungen. Multiskalige Segmentation Hierarchisches Netz der Objekte Kontextklassifikation Semantisches Netz, Fuzzy Logik Der größte Unterschied im Vergleich zu pixelbasierten Ansätzen ist, dass ecognition der eigentlichen Klassifikation einen Segmentierungsschritt vorschaltet und in der Folge Bildobjekte anstelle einzelner Pixel analysiert. 47
Objekt-basierte Bildanalyse Image object level (classified) Image object level 2 (unclassified) Image object level 3 (classified) [Baatz et al. 2] 48
Literaturhinweise Albertz, J. (27) Einführung in die Fernerkundung. Grundlagen der Interpretation von Luft- und Satellitenbildern. 3. aktualisierte und neubearbeitete Auflage. Wissenschaftliche Buchgesellschaft, Darmstadt. Bähr, H.-P. und T. Vögtle (Hg.) (25): Digitale Bildverarbeitung. Anwendung in Photogrammetrie, Kartographie und Fernerkundung. 3. neubearbeitete und erweiterte Auflage. Herbert Wichmann, Heidelberg. Gonzalez, R.C. und R.E. Woods (22): Digital Image Processing. 2nd edition. Prentice Hall, Epper Saddle River. Jähne, B. (25): Digitale Bildverarbeitung. 6. überarb. und erweiterte Auflage. Springer, Berlin Heidelberg. Jensen, J. R. (25): Introductory Digital Image Processing: A Remote Sensing Perspective. 3rd edition. Prentice-Hall, Upper Saddle River. Lillesand, T. M. und R. W. Kiefer (23): Remote Sensing and Image Interpretation. 5th edition. John Wiley & Sons, New York. 49
Literaturhinweise Mather, P. M. (24): Computer Processing of Remotely Sensed Images. An Introduction. 2rd edition. John Wiley & Sons, Chichester. Meffert, B. und O. Hochmuth (24): Werkzeuge der Signalverarbeitung. Grundlagen, Anwendungsbeispiele, Übungsaufgaben. Pearson Studium, München Nischwitz, A. und P. Haberäcker (24): Masterkurs Computergrafik und Bildverarbeitung. Vieweg, Wiesbaden. Richards, J. A. und X. Jia (25): Remote Sensing Digital Image Analysis. An Introduction. 4th edition. Springer, Berlin. Schowengerdt, R. A. (26): Remote Sensing: Models and Methods for Image Processing. Academic Press Inc., U.S. Sonka, M., Hlavac, V. und R. Boyle (27): Image Processing, Analysis, and Machine Vision.. Auflage. PWS Publishing, Pacific Grove. Tönnies, K.D. (25): Grundlagen der Bildverarbeitung. Pearson Studium, München. 5