Technische Universität

Größe: px
Ab Seite anzeigen:

Download "Technische Universität"

Transkript

1 Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik IX Grundlagen der Klassifikation Proseminar Grundlagen der Bildverarbeitung Christina Katz Betreuer: Dr. Michael Roth Abgabetermin: 13. April 2006

2 Inhaltsverzeichnis 1 Einleitung 2 2 Merkmale Regionenbasierte Merkmale Formbasierte Merkmale Geometrische Merkmale Kettencode Klassifikationsverfahren Bayes scher Klassifikator A-Priori-Wahrscheinlichkeit und Merkmalsverteilungsfunktion Direkte Schätzung der A-Posteriori-Wahrscheinlichkeit und NN-Klassifikation Lineare Entscheidungsfunktion Klassifikation durch Entscheidungsbäume Clustering-Methoden Agglomeratives Clustering Partitionierendes Clustering Hard c-means (HCM) Fuzzy c-means (FCM) Zusammenfassung 20 Literaturverzeichnis 21 1

3 Kapitel 1 Einleitung Bei der Bildanalyse ist man nicht nur an der Segmentierung eines Bildes, also der Erzeugung von inhaltlich zusammenhängenden Regionen, interessiert, sondern auch an einer Interpretation des Bildes. Eine solche Interpretation kann zum Beispiel darin bestehen, die im Bild gefundenen Segmente anhand von Merkmalen in Klassen einzuteilen. Mit dem menschlichen Auge ist solch eine Interpretation meist einfach, möchte man dies jedoch vom Computer durchführen lassen, benötigt man hierfür Algorithmen und Modelle, welche diesen Interpretationsprozess simulieren können. Diese Arbeit stellt hierfür die wichtigsten Klassifizierungsmethoden vor. Um die Segmente bestimmten Klassen zuordnen zu können, benötigt man für jedes Segment eine Anzahl an charakteristischen Merkmalen. Daher wird zu Beginn der Begriff des Merkmals eingeführt und einige Methoden zur Merkmalsfindung vorgestellt. Hierbei wird im Besonderen auf regionenbasierte und formbasierte Merkmale eingegangen. Ausgehend von einem segmentierten, merkmalsbehafteten Bild wird die merkmalsbasierte Klassifikation erläutert. Hier wird eine Berechnung der A-Posteriori-Wahrscheinlichkeit durch den Satz von Bayes und eine direkte Schätzung durch das Nearest-Neighborhood- Verfahren sowie die Bestimmung der A-Priori-Wahrscheinlichkeit vorgestellt. Clustering ist oft eine Vorstufe der Klassifikation. Durch geeignete Merkmalsfindung kann die Klassifikation durch vorheriges Clustering sehr vereinfacht werden. Hierfür werden einige Clustering-Methoden vorgestellt. 2

4 Kapitel 2 Merkmale Nach DIN ist ein Merkmal eine Eigenschaft zum Erkennen oder zum Unterscheiden von Einheiten. Werden also für jedes Segment eines Bildes Merkmale berechnet, so kann das Bild in verschiedene Klassen unterteilt werden. Hierfür wird ein Modell benötigt, welches für jede Klasse charakteristische Merkmalswerte enthält. Der Klassifikator bestimmt dann, zu welchen Modellmerkmalen die berechneten Segmentmerkmale am ähnlichsten sind und ordnet das jeweilige Segment der entsprechenden Klasse zu. Ein Merkmal ist hierbei ein Skalar, welches ein Segment durch das Segmentinnere (regionenbasiert) oder den Segmentrand (formbasiert) näher beschreibt. Handelt es sich bei dem zu interpretierenden Bild um ein farbiges Bild, so könnte man als Merkmal eines Segments auch dessen Farbe berücksichtigen. Alle Merkmale eines Segments werden dann zu einem M-dimensionalen Merkmalsvektor m = m 1,..., m M zusammengefasst. Die Merkmale aller Segmente spannen einen M- dimensionalen Merkmalsraum auf. Die Merkmale eines bestimmten Segments s werden im Merkmalsraum über den Merkmalsvektor m(s) abgebildet. Die Wahl der Merkmale ist dann besonders gut, wenn die Merkmale der Segmente einer Klasse im Merkmalsraum besonders nah beieinander liegen und die Merkmale der Segmente von verschiedenen Klassen weit voneinander getrennt sind. Die Streuung der erstgenannten Menge wird auch Within-Class-Scatter genannt, die der letztgenannten Between-Class-Scatter. Je größer man die Dimension für den Merkmalsraum wählt, desto größer wird in der Regel der Between-Class-Scatter. Jedoch steigt mit zunehmender Dimension auch der Berechnungsaufwand für die Merkmale, so dass man versucht, möglichst wenige Merkmale mit einem möglichst geringen Within-Class-Scatter zu bestimmen. Existiert eine repräsentative Trainingsmenge T = t 0,..., t T 1 von bereits klassifizierten Segmenten, kann man den Within- und Between-Class-Scatter berechnen. Die Trainingsmenge besteht hierbei aus in Klassen c 0,..., c K 1 segmentierte disjunkte Teilmengen T 0,..., T K 1. Der Within-Class-Scatter S w ist die durchschnittliche Varianz der Merkmale jeder Klasse, 3

5 KAPITEL 2. MERKMALE 4 Abbildung 2.1: Co-Occurrence-Matrizen für verschiedene Gebiete in einem Grauwertbild der Between-Class-Scatter S b ist der durchschnittliche Abstand zwischen den Mittelwerten der Merkmale der einzelnen Klassen: S w = 1 K 1 ( m(s) µ k ) 2 T s T k k=0 S b = 1 K 1 K 2 k=0 K 1 l=0 ( µ k µ l ) 2 mit µ k = 1 T k s T k m(s). Eine mögliche Wahl an Merkmalen könnten zum Beispiel die Anzahl der Löcher eines Segmentes oder dessen Kreisähnlichkeit sein. Möchte man Schrauben von Muttern unterscheiden, würde sich diese Repräsentation anbieten. 2.1 Regionenbasierte Merkmale Dem menschlichen Auge fällt es meist nicht schwer, komplizierte Texturen zu erkennen und voneinander zu unterscheiden. Da hier jedoch oft subjektive Kriterien eine Rolle spielen, muss man bei der quantitativen Beschreibung zu einigen mathematischen Hilfsmitteln greifen. So können zum Beispiel der durchschnittliche Grauwert eines Segments, die Varianz, die Haralick schen Texturmaße aus verschiedenen Co-Occurrence-Matrizen oder die Merkmale aus einer Frequenzraumrepräsentation ein Segment repräsentieren. Abbildung 2.1 zeigt die Co-Occurrence-Matrizen für die Klassen Himmel (1,2,3),

6 KAPITEL 2. MERKMALE 5 Gebäude (4,5,6) und Wasser (7,8,9) eines Grauwertbildes. Man erkennt, dass sich die drei Klassen sehr deutlich voneinander abheben, so dass eine Klassifikation hier gut möglich sein sollte. Die Probleme der regionenbasierten Merkmale sind eine große Redundanz zwischen den Segmenten und eine sehr hohe Dimension des Merkmalsraums (bei einer Abtastung durch 20 x 20 Pixel entsteht ein 400-dimensionaler Merkmalsraum). Zur Dekorrelation der Merkmale kann man eine Trainingsmenge benutzen, indem man zum Beispiel die Hauptachsentransformation oder die independent component analysis auf die Merkmalswerte anwendet und als resultierende Merkmale lediglich die ersten Modi verwendet. Diese Methoden werden an dieser Stelle jedoch nicht weiter behandelt. 2.2 Formbasierte Merkmale Im Gegensatz zu regionenbasierten Merkmalen, welche sich über das Segmentinnere definieren, ist für formbasierte Merkmale der Objektrand von besonderer Relevanz. Da die Anfälligkeit für Fehler durch Artefakte hier meist größer ist als bei regionenbasierten Merkmalen, muss der Objektrand bei komplexeren Formmerkmalen möglichst genau erfasst werden Geometrische Merkmale Um die Fehleranfälligkeit auszugleichen, kann man den Objektrand mit Hilfe von geometrischen Maßen interpretieren. Mögliche geometrische Maße, welche hier in Betracht gezogen werden können, sind zum Beispiel: Flächeninhalt F (s) und Umfang, d. h. die Länge des Randes L(s) des Segments s die Ausdehnung des Segments entlang seiner kürzesten und längsten Achse die Größe des kleinsten, achsenparallelen, umschließenden Rechtecks, der sogenannten Bounding Box (Achtung: dieses Maß ist abhängig von der Orientierung des Segments) die Flächendifferenz zwischen der Segmentfläche und ihrer konvexen Hülle die Kreisähnlichkeit, d. h. (F (s) 4π)/L(s) Abbildung 2.2 zeigt einige einfache Formmerkmale für Segmente. Im linken Teil des Bildes sind der Umfang des Segments und dessen Bounding Box dargestellt, im rechten Teil

7 KAPITEL 2. MERKMALE 6 Abbildung 2.2: Verschiedene einfache Formmerkmale für Segmente sieht man die längsten Diagonalen des Segments und dessen konvexe Hülle. Neben geometrischen Maßen können auch topologische Maße als Formmerkmale interpretiert werden. Dies könnten zum Beispiel die Anzahl der Löcher eines Objekts sein Kettencode Versucht man nur mit oben genannten Formmerkmalen ein Objekt zu beschreiben, ist das nicht immer hinreichend genau zur Unterteilung in verschiedene Objektklassen. Um eine genauere Beschreibung eines Objekts zu erhalten, kann man seine Kontur beschreiben, indem man die Punkte des Objektrandes auf eine Funktion abbildet und deren Eigenschaften berechnet. Die Funktion gibt die Krümmung kr(r) in Abhängigkeit von der Randlänge r wieder. Hierbei wird jedem Pixel des Objektrandes eine Richtungsänderung zugewiesen. Diese Richtungsänderung wird mit Hilfe von Indizes klar gekennzeichnet. Im Falle eines Rasters mit quadratischen Einheiten gäbe es zum Beispiel 8 mögliche Nachfolgepositionen für eine Pixelposition: x Möchte man nun ein Objekt mit Hilfe des Kettencodes beschreiben, bestimmt man einen Startpunkt und verfolgt von diesem aus die Richtungsänderungen, bis man wieder dort angelangt ist. Der Kettencode (0,0)( ) zum Beispiel beschreibt ein Rechteck, dessen rechte untere Ecke den Startpunkt bildet. Vor dem eigentlichen Kettencode

8 KAPITEL 2. MERKMALE 7 Abbildung 2.3: Absoluter und relativer Kettencode wird die Position des Startpunkts angegeben, dadurch wird der Kettencode positionsunabhängig. Im Beispiel wäre das (0,0). Einen orientierungsunabhängigen Kettencode kann man durch eine relative Richtungsänderung anstelle einer absoluten darstellen. Hier werden für das Startpixel Position und Richtung angegeben. Die Richtung wird hier in Vielfachen von 45 indiziert, nach links in positiven, nach rechts in negativen Zahlen. Somit wäre in unserem Beispiel der relative Kettencode (0,0),(1)( ). Ein komplexeres Beispiel zeigt Abbildung 2.3. Die Änderung der Werte des relativen Kettencodes bilden die Funktionswerte der gesuchten Krümmungsfunktion kr(r).

9 Kapitel 3 Klassifikationsverfahren 3.1 Bayes scher Klassifikator Ein Bayes scher Klassifikator (benannt nach Thomas Bayes, englischer Mathematiker und presbyterianischer Pfarrer; * ca in London, 17. April 1761 in Tunbridge Wells) basiert auf der statistischen Entscheidungstheorie. Der Klassifikator berechnet die sogenannte A-Posteriori-Wahrscheinlichkeit P (s = c i m(s)), dass ein Segment s mit den Merkmalen m(s) der Klasse c i angehört. Ist diese Wahrscheinlichkeit gleich 1, heißt das, dass die Fehlerwahrscheinlichkeit dieser Zuordnung bei 0% liegt. Würde der Klassifikator also für jedes Segment genau eine Klasse mit einer Zuordnung von 1 finden, wäre er perfekt. Da dies leider meistens nicht der Fall ist, sollte der Klassifikator die Fehlerquote so weit wie möglich minimieren. Dies geschieht indem für ein Segment diejenige Klasse gewählt wird für die P (s = c i m(s)) > P (s = c j m(s)) i j gilt. Die Entscheidungsgrenze und die Relevanz einer Gewichtung bei einer Klassifikation sind in Abbildung 3.1 dargestellt. Um die A-Posteriori-Wahrscheinlichkeit berechnen zu können, werden die sogenannten A-Priori-Wahrscheinlichkeiten P (s = c i ) und die Merkmalsverteilungsfunktionen als bekannt vorausgesetzt. Auf diese Wahrscheinlichkeiten wird im folgenden Abschnitt näher eingegangen. Der Satz von Bayes, welcher die A-Posteriori-Wahrscheinlichkeiten berechnet, lautet dann wie folgt: P (s = c i m(s)) = P ( m(s) s = c i)p (s = c i ) K 1 k=0 P ( m(s) s = c k). Der Nenner dient hierbei lediglich der Normalisierung, um einen Wert zwischen 0 und 1 (100%) zu erhalten. 8

10 KAPITEL 3. KLASSIFIKATIONSVERFAHREN 9 Abbildung 3.1: Zwei Merkmalsverteilungsfunktionen für zwei Klassen c 1 und c 2 (gestrichelt). Die durchgezogenen Linien sind die mit der A-Priori-Wahrscheinlichkeit gewichteten Merkmalswahrscheinlichkeiten, die Entscheidungsgrenze ist der Schnittpunkt der gewichteten Verteilungen. Es wird sehr klar deutlich, dass eine Minimierung der Fehlklassifizierung erst bei einer gewichteten Verteilung vorgenommen werden kann 3.2 A-Priori-Wahrscheinlichkeit und Merkmalsverteilungsfunktion Da im Normalfall weder die A-Priori-Wahrscheinlichkeit noch eine Merkmalsverteilungsfunktion gegeben ist, müssen diese geschätzt werden. Dies geschieht wieder mit Hilfe einer bereits klassifizierten Trainingsmenge T = T 1 T 2... T K. Jede dieser disjunkten Teilmengen T k besteht aus N(k) Segmenten. Die A-Priori-Wahrscheinlichkeit gibt die Wahrscheinlichkeit der Zuordnung eines Segments s zu einer Klasse c i unabhängig von der Kenntnis der Merkmale für s an. Sie ist oft aufgrund von Vorwissen oder aus der Anwendung heraus bekannt, andernfalls kann man sie aus der Trainingsmenge schätzen. Das Schätzen der Merkmalsverteilungsfunktion ist nicht so einfach. Hier muss für jede Klasse eine M-dimensionale Funktion geschätzt werden. Liegen unkorrelierte Merkmale vor, kann man die Funktion aus dem Histogramm der Merkmalswerte der Segmente einer Klasse c bestimmen. Hierfür wird für jedes Merkmal m i (s) ein Histogramm aufgestellt, aus welchem die Verteilungsfunktion P (m i s = c) geschätzt werden kann. Die Gesamtwahrscheinlichkeit P ( m(s) s = c) berechnet sich dann aus dem Produkt der Einzelwahrscheinlichkeiten. Zur Bestimmung der Histogramme wird die Definitionsmenge der Merkmale in B Intervalle zerlegt. B gibt die Genauigkeit dieser Schätzung an. Als Faustregel gilt für unkorrelierte Merkmale, dass B = N sein sollte, wobei N die Anzahl der Stichproben ist. Liegen jedoch korrelierte Merkmale vor, muss die Gesamtwahrscheinlich-

11 KAPITEL 3. KLASSIFIKATIONSVERFAHREN 10 Abbildung 3.2: Schätzung der Merkmalsverteilung anhand der Blau- und Rotwerte der Pixel zur Klassifikation in Vorder- und Hintergrund eines Bildes. Da hier genug Stichproben (ca Pixel je Klasse) vorliegen, ist eine Schätzung hier gut möglich. Das Histogramm unten links zeigt die Pixelhäufigkeiten an. keit direkt geschätzt werden. Hier liegt ein guter Wert für B bei N 1/(M+1), was schon bei einer kleinen Merkmalsdimension sehr groß werden kann. Ist die Charakteristik einer Verteilung bekannt, vereinfacht dies die Schätzung. Sind die Merkmale zum Beispiel unkorreliert und normalverteilt, so reicht es für jedes Merkmal seinen Erwartungswert und die Varianz zu schätzen. Hat man eine zu geringe Menge an klassifizierten Stichproben vorliegen, kann man der Einfachheit halber annehmen, dass alle Klassen die gleiche A-Priori-Wahrscheinlichkeit haben und dass die Verteilungen für die Merkmalswahrscheinlichkeiten umgekehrt proportional zum Abstand vom Erwartungswert sinken. Somit muss für jede Klasse nur ein durchschnittlicher Merkmalsvektor berechnet werden. Liegt ein unbekanntes Segment vor, wird es der Klasse zugeordnet, deren mittlerer Merkmalsvektor seinem Merkmalsvektor am nächsten liegt. Die Vorteile des Bayes schen Klassifikators liegen darin, dass die Trainingsdaten nur ein-

12 KAPITEL 3. KLASSIFIKATIONSVERFAHREN 11 mal durchlaufen werden müssen und fehlende Daten einfach ignoriert werden können. Nachteile jedoch sind, dass die Merkmale unkorreliert und diskret sein müssen, damit eine effiziente Klassifizierung möglich ist. 3.3 Direkte Schätzung der A-Posteriori- Wahrscheinlichkeit und NN-Klassifikation Möchte man nur ein einzelnes Segment klassifizieren, so ist es zu aufwändig, die A- Posteriori-Wahrscheinlichkeiten für alle Merkmalskombinationen zu berechnen. In diesem Fall ist es, bei gut gewählten Merkmalen, schneller und einfacher, die A-Posteriori- Wahrscheinlichkeit des gegebenen Segments direkt zu schätzen. Dies geschieht mittels der Formel P (s = c i m(s)) {t j t j T i m(t j ) m(s) < ε} {t l t l T m(t l ) m(s) < ε}, wobei s das gegebene Segment mit Merkmalsvektor m(s) ist, für welches die A-Posteriori- Wahrscheinlichkeit geschätzt wird, mit der s der Klasse c i zugeordnet werden kann. T = T 1 T 2... T K ist hierbei wieder eine bereits klassifizierte Trainingsmenge, t eine Stichprobe dieser Trainingsmenge in einem gegebenen Intervall mit Radius ε. Da diese Schätzung jedoch bei einer größeren Umgebung sehr ungenau wird und eventuell sogar eine Gleichverteilung ergibt, ist es sinnvoller die Nächster Nachbar Klassifikation (NN-Klassifikation) zu verwenden. Gegeben ist hier wieder eine bereits klassifizierte Trainingsmenge T und ein zu klassifizierendes Segment s. Die Klasse des zu klassifizierenden Segments s ergibt sich als die Klasse der Stichprobe, deren Merkmalsvektor dem von s am nächsten ist. Gibt es jedoch Ausreißer in der Trainingsmenge, so ist die einfache NN-Klassifikation sehr fehleranfällig. In diesem Fall werden die nächsten k Nachbarn des zu klassifizierenden Segments s betrachtet und das Segment der Klasse zugeordnet, deren Merkmalsvektor am häufigsten am nächsten an dem von s lag. Je größer k gewählt wird, desto genauer wird der Klassifikator und desto mehr nähert er sich dem Bayes schen Klassifikator an. Allerdings sollte k auch nicht zu groß gewählt werden und immer deutlich unter der Anzahl der Stichprobenanzahl liegen. Die Vorteile des NN-Klassifikators liegen darin, dass die Merkmale kontinuierlich und bei geeigneter Metrik korreliert sein dürfen. Nachteile jedoch sind, dass die Trainingsdaten bei jedem Test erneut durchlaufen werden müssen und Merkmalsvektoren mit fehlenden Werten nur bedingt verwendet werden können.

13 KAPITEL 3. KLASSIFIKATIONSVERFAHREN Lineare Entscheidungsfunktion Das Testen der Merkmalsvektoren aller vorhandenen Segmente zur Klassifikation ist meist eine sehr zeitaufwendige Arbeit. Stellt man sich die durch gute Merkmale repräsentierten Segmente in einem Koordinatensystem vor, so stellt man nach einer erfolgreichen Klassifikation fest, dass die einzelnen Klassen durch Grenzen voneinander getrennt sind. Nun kann man versuchen, anstatt eine langwierige Klassifikation zu durchlaufen, gleich die Klassengrenzen zu berechnen. Dies geschieht mithilfe der sogenannten Entscheidungsfunktion (decision boundary), welche aus den Trainingsdaten ermittelt werden kann. Die tatsächliche Grenze zwischen den Klassen ist meist eine aufwendige Funktion, welche sehr komplex ist. Daher berechnet man nur eine Annäherung an diese Grenze, wobei die Wahl einer linearen Entscheidungsfunktion hier die einfachste Art und Weise ist. Hat man eine Klassifikation in zwei Klassen, so lautet die Entscheidungsfunktion für den Merkmalsvektor m(s) folgendermaßen: D( m) = w 0 + w 1 m w K m M. Für alle Segmente s der Klasse c 1 gilt dann D( m(s)) < 0, für alle Segmente der Klasse c 2 gilt D( m(s)) > 0. Existiert eine solche Grenze, so heißt das Klassifizierungsproblem separierbar. Entscheidend bei der Funktion sind die Gewichtungen w 0,..., w K. Diese bestimmt man durch iterative Anpassung. Die Gewichte werden mit Zufallswerten initialisiert, anschließend werden Stichproben aus der bereits klassifizierten Trainingsmenge in die Funktion eingesetzt. Entspricht das Ergebnis der erwarteten Klasse, geschieht nichts, andernfalls wird die Grenze angepasst. Dies geschieht solange bis die Klassen linear separierbar sind oder der Klassifikationsfehler unter eine angegebene Schranke gesunken ist. Existieren mehr als zwei Klassen, so muss eine Entscheidungsfunktion für je zwei Klassen berechnet werden. Je größer die Anzahl der Klassen ist, desto komplizierter wird dieses Verfahren also. Abbildung 3.3 zeigt die Skizze einer Anpassung der linearen Entscheidungsgrenze für zwei Klassen. 3.5 Klassifikation durch Entscheidungsbäume Klassifikatoren wie der NN-Klassifikator oder der Bayes sche Klassifikator betrachten immer alle M Dimensionen der Merkmalswerte gleichzeitig. Je nach Problemstellung ist es jedoch einfacher und sinnvoller, eine hierarchische Struktur in die Klassifikation zu bringen und einzelne Komponenten des Merkmalsvektors einzeln hintereinander zu betrachten. So wird die Anzahl der zur Verfügung stehenden Klassen immer weiter eingeschränkt, bis man schließlich bei der gesuchten Klasse angelangt ist.

14 KAPITEL 3. KLASSIFIKATIONSVERFAHREN 13 Abbildung 3.3: Anpassung einer linearen Entscheidungsgrenze für ein Zwei-Klassen- Problem Abbildung 3.4 verdeutlicht leicht die Vorgehensweise bei der hierarchischen Klassifikation anhand zweier (funktional) äquivalenter Entscheidungsbäume, welche ein Lebewesen als Fisch, Vogel, Mensch, Katze oder Pferd klassifizieren. Ein Segment hat hier einen 2-dimensionalen Merkmalsvektor bestehend aus den Komponenten h > 0, welche die Körpergröße (in Metern) angibt und b {0, 2, 4}, welche die Anzahl der Beine ist. Der hierarchische Klassifikator betrachtet nun nacheinander die beiden Komponenten der Merkmalsvektoren und schränkt so schon im ersten Schritt die Anzahl der möglichen Klassen deutlich ein. Für jedes Problem mit mehr als zwei Merkmalswerten pro Segment gibt es mindestens zwei verschiedene, jedoch funktional äquivalente Entscheidungsbäume. Für welchen Baum man sich entscheidet, hängt von verschiedenen Kriterien ab. Möchte man mit so wenig Vergleichen wie möglich auskommen, so würde man in unserem Beispiel sicher den unteren Baum wählen, weil dieser eine geringere Tiefe als der obere Baum vorweist. Möchte man jedoch im ersten Schritt schon so viele Klassen wie möglich ausschließen, so würde man sich für den oberen Baum entscheiden, weil dieser eine geringere Anzahl an Kindern pro Blatt hat.

15 KAPITEL 3. KLASSIFIKATIONSVERFAHREN 14 b=0 b=2 b=4 Fisch h<=1m h>1m h<=1m h>1m Vogel Mensch Katze Pferd h<=1m h>1m b=0 b=2 b=4 b=0 b=2 b=4 Fisch Vogel Katze Fisch Mensch Pferd Abbildung 3.4: Zwei (funktional) äquivalente Entscheidungsbäume

16 Kapitel 4 Clustering-Methoden Als eine Vorstufe der Klassifikation kann man die Datenmenge clustern. Auch für das Clustern benötigt man repräsentative Merkmale der Segmente. Sind diese Merkmale geeignet gewählt, so dass sich die Segmente einer Klasse im Merkmalsraum an einem bestimmten Ort häufen, erreicht man durch ein Clustering ebenfalls eine Klassifikation. Beim Clustering gilt, ebenso wie bei der Klassifikation, dass bei einer guten Wahl der Merkmale die Segmente innerhalb eines Cluster einen besonders kleinen und zwei Segmente unterschiedlicher Cluster einen besonders großen Abstand zueinander haben sollten. 4.1 Agglomeratives Clustering Das agglomerative Clustering ist eine hierarchische Clusteringmethode. Dargestellt werden die Cluster durch eine Partitionsmenge Γ, welche für jeden Cluster die zu ihm gehörigen Segmente enthält. Zu Beginn des Algorithmus stellt jedes Segment einen einzelnen Cluster dar, also Γ 0 = s 1,..., s n. In jedem Schritt des Algorithmus werden immer die zwei Cluster zu einem größeren Cluster zusammengefasst, welche den geringsten Abstand zueinander besitzen. Dies geschieht solange bis eine angegebene Clusteranzahl erreicht wurde oder der gesamte Datensatz zu einem einzigen Cluster zusammengefasst wurde. Der Abstand kann hierbei durch drei Verschiedene Methoden berechnet werden: Minimalabstand (Single Linkage) d(c a, C b ) = min x C a,y C b x y 15

17 KAPITEL 4. CLUSTERING-METHODEN 16 Abbildung 4.1: Einfaches Beispiel des agglomerativen Clusterings. Es werden so lange Cluster zusammengefügt, bis die erwünschte Anzahl an Clustern erreicht wurde oder der gesamte Datensatz einem einzigen Cluster zugeordnet wurde. Maximalabstand (Complete Linkage) d(c a, C b ) = mittlerer Abstand (Average Linkage) d(c a, C b ) = max x y x C a,y C b 1 C a C b x C a,y C b x y Abbildung 4.1 verdeutlicht das agglomerative Clustering exemplarisch an einem Beispiel. Eine andere Alternative des agglomerativen Clustering, auf die hier jedoch nicht näher eingegangen wird ist das sogenannte divisive Clustering, bei welchem in der Initialisierung alle Segmente einem Cluster zugeordnet werden. Bei diesem Algorithmus werden die Cluster dann durch Dichteschätzer sukzessive aufgeteilt, bis die gewünschte Anzahl an Clustern vorhanden ist oder alle Segmente einen einzelnen Cluster darstellen.

18 KAPITEL 4. CLUSTERING-METHODEN Partitionierendes Clustering Beim partitionierenden Clustering wird für eine gegebene Anzahl an Clustern die Zugehörigkeit der einzelnen Segmente zu den Clustern berechnet und optimiert. Die zwei bedeutendsten Algorithmen des partitionierenden Clusterings sind das hard c-means (HCM) und das fuzzy c-means (FCM), welche in den nächsten beiden Abschnitten näher betrachtet werden Hard c-means (HCM) Um zu bestimmen, welche Segmente welchen Clustern angehören, benötigt man eine Partitionsmatrix U, welche für jedes Segment s angibt, zu welchem der c Cluster dieses zugeordnet wird. Die Matrix U besteht aus den Elementen { 1, fallss k C i u ik = 0, fallss k / C i. Da jedes Cluster immer mindestens ein Element besitzt und alle Cluster disjunkt sind, gilt für die Partitionsmatrix n u ik > 0, i = 1,..., c und k=1 c u ik = 1, k = 1,..., n. Zusätzlich zur Partitionsmatrix U existiert in HCM ein Vektor i=1 V = v 1,..., v c, welcher die Prototypen der Cluster, das heißt die Clusterzentren, enthält. Die Zuordnung der Segmente zu den c Clustern kann zum Beispiel über die bereits in Abschnitt 3.3 vorgestellte Nearest-Neighbor-Regel erfolgen, das heißt s k gehört genau dann zu Cluster k, wenn s k v i = min j=1,...,c s k v j. Die Berechnung der Clusterzugehörigkeiten erfolgt durch alternierende Optimierung, das heißt es werden abwechselnd U und V neu bestimmt. Die Neubestimmung der Clusterzentren entspricht hier einer Berechnung der Schwerpunkte aller Punkte jedes Clusters, die Neubestimmung der Zugehörigkeiten kann, wie oben bereits beschrieben, durch die Nearest-Neighbor-Regel erfolgen. Als Kostenfunktion wird die Summe der quadratischen

19 KAPITEL 4. CLUSTERING-METHODEN 18 Abstände zwischen den Clusterzentren und den zugehörigen Segmenten minimiert. Zu Beginn des Algorithmus werden die Clusterzentren V zunächst zufällig initialisiert und nach jeder Neuberechnung von U und V jeweils geprüft, ob die Änderungen in V unterhalb einer Abbruchgrenze ɛ liegen. Ist dies der Fall oder die maximale Zahl an Iterationen wurde erreicht, so stoppt der Algorithmus. In Abbildung 4.2 wird an einem kleinen Beispiel das Verfahren der alternierenden Optimierung für c-means-clustering erläutert Fuzzy c-means (FCM) Im Prinzip sind HCM und FCM vom Algorithmus her gleich. Es gibt jedoch zwei entscheidende Unterschiede der beiden Verfahren, auf welche hier näher eingegangen wird. Ein wichtiger Unterschied zwischen HCM und FCM ist der, dass beim FCM anstatt harten Zugehörigkeiten, das heißt 0 oder 1, unscharfe Zugehörigkeiten der Segmente zu den Clustern betrachtet werden. Durch die Partitionsmatrix wird nun angegeben, zu welchem Grad ein Segment s k einem Cluster C i angehört. Die Werte einer solchen kontinuierlichen Partitionsmatrix sind = 0, fallss k / C i u ik = 1, fallss k C i (0, 1), sonst. Außerdem gehen in die Berechnung der Kostenfunktion und die Bestimmung von U und V ein Parameter m (1, ) ein, welcher angibt, wie große die Unschärfe der Cluster sein soll. Wählt man m = 1, so geht FCM in HCM über. Ein häufig verwendeter Wert ist m = 2.

20 KAPITEL 4. CLUSTERING-METHODEN 19 Abbildung 4.2: Beispiel des c-means-clusterings mit 2 Clusterzentren. Zu Beginn werden zufällig zwei Clusterzentren initialisiert und in einer alternierenden Optimierung solange neu zugeordnet bis eine Abbruchgrenze ɛ oder die maximale Zahl an Iterationen erreicht wurde.

21 Kapitel 5 Zusammenfassung In dieser Arbeit wurde der wesentliche Prozess der Klassifikation an einigen Methoden von der Merkmalsfindung über die Klassifikation bis hin zu der Vorstufe des Clusterings vorgestellt. Um eine Klassifikation durchführen zu können, benötigt man repräsentative Merkmale für die einzelnen Segmente. Hierfür wurde der Begriff des Merkmals eingeführt und im Speziellen auf regionen- und formbasierte Merkmale eingegangen. Bei der Klassifikation werden die vorhandenen Daten mit einem Modell verglichen und anhand der Resultate eine Zuordnung durchgeführt. Für solch eine Zuordnung wurden vier wesentliche Verfahren der Klassifikation eingeführt. Neben dem Bayes schen Klassifikator, der direkten Schätzung einer Klassifikation und einer Approximation der Grenzen zwischen verschiedenen Klassen wurde eine hierarchische Methode mit Hilfe von Entscheidungsbäumen vorgestellt. Das Clustering, eine mögliche Vorstufe der Klassifikation, bestimmt Häufungen von Segmenten im Merkmalsraum. Mit den geeigneten Merkmalen kann diese sogar eine Klassifikation ersetzen. Es wurden zwei Typen, das agglomerative und das partitionierende Clustering, vorgestellt. 20

22 Literaturverzeichnis [Run00] Thomas A. Runkler. Information Mining. Vieweg Verlagsgesellschaft, [Tö05] Klaus D. Tönnies. Grundlagen der Bildverarbeitung. Pearson Studium,

5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften

5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften 5. Clusteranalyse Vorbemerkungen 5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer

Mehr

5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften

5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften 5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer Clusterstruktur kennen, verschiedene

Mehr

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle Mustererkennung Unüberwachtes Lernen R. Neubecker, WS 01 / 01 Übersicht (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren 1 Lernen Überwachtes Lernen Zum Training des Klassifikators

Mehr

Graphische Datenverarbeitung und Bildverarbeitung

Graphische Datenverarbeitung und Bildverarbeitung Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Merkmale und Klassifikation Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 1 Einordnung in die Inhalte der

Mehr

Klassifikation von Daten Einleitung

Klassifikation von Daten Einleitung Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung

Mehr

2D Graphik: Klassifikation

2D Graphik: Klassifikation LMU München Medieninformatik Butz/Hilliges 2D Graphics WS2005 20.01.2006 Folie 1 2D Graphik: Klassifikation Vorlesung 2D Graphik Andreas Butz, Otmar Hilliges Freitag, 20. Januar 2006 LMU München Medieninformatik

Mehr

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3 Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Methoden zur Cluster - Analyse

Methoden zur Cluster - Analyse Kapitel 4 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics

Mehr

Computergrafik 2: Klassifikation

Computergrafik 2: Klassifikation Computergrafik 2: Klassifikation Prof. Dr. Michael Rohs, Dipl.-Inform. Sven Kratz michael.rohs@ifi.lmu.de MHCI Lab, LMU München Folien teilweise von Andreas Butz, sowie von Klaus D. Tönnies (Grundlagen

Mehr

4.Tutorium Multivariate Verfahren

4.Tutorium Multivariate Verfahren 4.Tutorium Multivariate Verfahren - Clusteranalyse - Hannah Busen: 01.06.2015 und 08.06.2015 Nicole Schüller: 02.06.2015 und 09.06.2015 Institut für Statistik, LMU München 1 / 17 Gliederung 1 Idee der

Mehr

Principal Component Analysis (PCA)

Principal Component Analysis (PCA) Principal Component Analysis (PCA) Motivation: Klassifikation mit der PCA Berechnung der Hauptkomponenten Theoretische Hintergründe Anwendungsbeispiel: Klassifikation von Gesichtern Weiterführende Bemerkungen

Mehr

Klassifikation und Ähnlichkeitssuche

Klassifikation und Ähnlichkeitssuche Klassifikation und Ähnlichkeitssuche Vorlesung XIII Allgemeines Ziel Rationale Zusammenfassung von Molekülen in Gruppen auf der Basis bestimmter Eigenschaften Auswahl von repräsentativen Molekülen Strukturell

Mehr

Clustering 2010/06/11 Sebastian Koch 1

Clustering 2010/06/11 Sebastian Koch 1 Clustering 2010/06/11 1 Motivation Quelle: http://www.ha-w.de/media/schulung01.jpg 2010/06/11 2 Was ist Clustering Idee: Gruppierung von Objekten so, dass: Innerhalb einer Gruppe sollen die Objekte möglichst

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten

Mehr

Bild-Erkennung & -Interpretation

Bild-Erkennung & -Interpretation Kapitel I Bild-Erkennung & -Interpretation FH Aachen / Jülich, FB 9 Prof. Dr. rer.nat. Walter Hillen (Dig Img I) 1 Einführung Schritte zur Bilderkennung und Interpretation: Bild-Erfassung Vorverarbeitung

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung

Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung R. Brinkmann http://brinkmann-du.de Seite 5.05.0 Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung Erwartungswert binomialverteilter Zufallsgrößen Wird ein Bernoulli- Versuch, bei

Mehr

Numerisches Programmieren, Übungen

Numerisches Programmieren, Übungen Technische Universität München SS 2012 Institut für Informatik Prof. Dr. Thomas Huckle Dipl.-Inf. Christoph Riesinger Dipl.-Math. Alexander Breuer Dr.-Ing. Markus Kowarschik Numerisches Programmieren,

Mehr

EFME Aufsätze ( Wörter) Der Aufbau von Entscheidungsbäumen...1

EFME Aufsätze ( Wörter) Der Aufbau von Entscheidungsbäumen...1 EFME Aufsätze (150 200 Wörter) Der Aufbau von Entscheidungsbäumen...1 PCA in der Gesichtserkennung... 2 Bias, Varianz und Generalisierungsfähigkeit... 3 Parametrische und nicht-parametrische Lernverfahren:

Mehr

Multivariate Verfahren

Multivariate Verfahren Multivariate Verfahren Lineare Regression Zweck: Vorhersage x Dimensionsreduktion x x Klassifizierung x x Hauptkomponentenanalyse Korrespondenzanalyse Clusteranalyse Diskriminanzanalyse Eigenschaften:

Mehr

Vorlesung Digitale Bildverarbeitung Sommersemester 2013

Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben (Marc Schlipsing) Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches

Mehr

10.5 Maximum-Likelihood Klassifikation (I)

10.5 Maximum-Likelihood Klassifikation (I) Klassifikation (I) Idee Für die Klassifikation sind wir interessiert an den bedingten Wahrscheinlichkeiten p(c i (x,y) D(x,y)). y Wenn man diese bedingten Wahrscheinlichkeiten kennt, dann ordnet man einem

Mehr

Was bisher geschah. Definition digitaler Bilder B : pos col Bildanalyse, statistische Merkmale Signale im Orts- und Frequenzraum Bildbearbeitung durch

Was bisher geschah. Definition digitaler Bilder B : pos col Bildanalyse, statistische Merkmale Signale im Orts- und Frequenzraum Bildbearbeitung durch Was bisher geschah Definition digitaler Bilder B : pos col Bildanalyse, statistische Merkmale Signale im Orts- und Frequenzraum Bildbearbeitung durch Punktoperationen (Farbtransformation) f : col1 col

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Hauptseminar KDD SS 2002

Hauptseminar KDD SS 2002 Hauptseminar KDD SS 2002 Prof. Dr. Hans-Peter Kriegel Eshref Januzaj Karin Kailing Peer Kröger Matthias Schubert Session: Clustering HS KDD, Ludwig-Maximilians-Universität München, SS 2002 1 Inhalt Einleitung

Mehr

VII Unüberwachte Data-Mining-Verfahren

VII Unüberwachte Data-Mining-Verfahren VII Unüberwachte Data-Mining-Verfahren Clusteranalyse Assoziationsregeln Generalisierte Assoziationsregeln mit Taxonomien Formale Begriffsanalyse Self Organizing Maps Institut AIFB, 00. Alle Rechte vorbehalten.

Mehr

Parallele Algorithmen in der Bildverarbeitung

Parallele Algorithmen in der Bildverarbeitung Seminar über Algorithmen - SoSe 2009 Parallele Algorithmen in der Bildverarbeitung von Christopher Keiner 1 Allgemeines 1.1 Einleitung Parallele Algorithmen gewinnen immer stärker an Bedeutung. Es existieren

Mehr

Nichtlineare Klassifikatoren

Nichtlineare Klassifikatoren Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Projektgruppe. Clustering und Fingerprinting zur Erkennung von Ähnlichkeiten

Projektgruppe. Clustering und Fingerprinting zur Erkennung von Ähnlichkeiten Projektgruppe Jennifer Post Clustering und Fingerprinting zur Erkennung von Ähnlichkeiten 2. Juni 2010 Motivation Immer mehr Internet-Seiten Immer mehr digitale Texte Viele Inhalte ähnlich oder gleich

Mehr

Clustering. Herbert Stoyan Stefan Mandl. 18. Dezember 2003

Clustering. Herbert Stoyan Stefan Mandl. 18. Dezember 2003 Clustering Herbert Stoyan Stefan Mandl 18. Dezember 2003 Einleitung Clustering ist eine wichtige nicht-überwachte Lernmethode Andwenungen Marketing: Finde Gruppen von Kunden mit gleichem Kaufverhalten,

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Data Mining und Maschinelles Lernen

Data Mining und Maschinelles Lernen Data Mining und Maschinelles Lernen Wintersemester 2015/16 Musterlösung für das 7. Übungsblatt Aufgabe 1 Evaluierungsmethoden Ein Datenset enthält 2 n Beispiele, wobei genau n Beispiele positiv sind und

Mehr

4. Segmentierung von Objekten Video - Inhaltsanalyse

4. Segmentierung von Objekten Video - Inhaltsanalyse 4. Segmentierung von Objekten Video - Inhaltsanalyse Stephan Kopf Inhalt Vorgehensweise Berechnung der Kamerabewegungen zwischen beliebigen Bildern Transformation eines Bildes Hintergrundbilder / Panoramabilder

Mehr

Kapitel 4: Data Mining DATABASE SYSTEMS GROUP. Überblick. 4.1 Einleitung. 4.2 Clustering. 4.3 Klassifikation

Kapitel 4: Data Mining DATABASE SYSTEMS GROUP. Überblick. 4.1 Einleitung. 4.2 Clustering. 4.3 Klassifikation Überblick 4.1 Einleitung 4.2 Clustering 4.3 Klassifikation 1 Klassifikationsproblem Gegeben: eine Menge O D von Objekten o = (o 1,..., o d ) O mit Attributen A i, 1 i d eine Menge von Klassen C = {c 1,...,c

Mehr

Clusteranalyse: Gauß sche Mischmodelle

Clusteranalyse: Gauß sche Mischmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet

Mehr

Übersicht der Vorlesung

Übersicht der Vorlesung Übersicht der Vorlesung 1. Einführung 2. Bildverarbeitung 3. orphologische Operationen 4. Bildsegmentierung 5. erkmale von Objekten 6. Klassifikation 7. Dreidimensionale Bildinterpretation 8. Bewegungsanalyse

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes- Entscheidungsfunktionen

Mehr

Grundlagen der Bildverarbeitung Klaus D. Tönnies

Grundlagen der Bildverarbeitung Klaus D. Tönnies Grundlagen der Bildverarbeitung Klaus D. Tönnies ein Imprint von Pearson Education München Boston San Francisco Harlow, England Don Mills, Ontario Sydney Mexico City Madrid Amsterdam Inhaltsverzeichnis

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

p = h n (K)= Juli vl smart vp qk notebook Praktische Lösung des Problems: mit den Werten

p = h n (K)= Juli vl smart vp qk notebook Praktische Lösung des Problems: mit den Werten I. Eigenschaften von Schätzfunktionen Wir wollen den unbekannten Anteil p von Autos ermitteln, die mit Katalysator fahren. Mathematisch können wir das Problem wie folgt beschreiben: Sei X der Autotyp eines

Mehr

Übersicht der Vorlesung

Übersicht der Vorlesung Übersicht der Vorlesung. Einführung. Bildverarbeitung. Morphologische Operationen 4. Bildsegmentierung 5. Merkmale von Objekten 6. Klassifikation 7. Dreidimensionale Bildinterpretation 8. Bewegungsanalyse

Mehr

Pareto optimale lineare Klassifikation

Pareto optimale lineare Klassifikation Seminar aus Maschinellem Lernen Pareto optimale lineare Klassifikation Vesselina Poulkova Betreuer: Eneldo Loza Mencía Gliederung 1. Einleitung 2. Pareto optimale lineare Klassifizierer 3. Generelle Voraussetzung

Mehr

Übungen zur Vorlesung Grundlagen der Bilderzeugung und Bildanalyse (Mustererkennung) WS 05/06. Musterlösung 11

Übungen zur Vorlesung Grundlagen der Bilderzeugung und Bildanalyse (Mustererkennung) WS 05/06. Musterlösung 11 ALBERT-LUDWIGS-UNIVERSITÄT FREIBURG INSTITUT FÜR INFORMATIK Lehrstuhl für Mustererkennung und Bildverarbeitung Prof. Dr.-Ing. Hans Burkhardt Georges-Köhler-Allee Geb. 05, Zi 0-09 D-790 Freiburg Tel. 076-03

Mehr

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir

Mehr

Kapitel 2. Mittelwerte

Kapitel 2. Mittelwerte Kapitel 2. Mittelwerte Im Zusammenhang mit dem Begriff der Verteilung, der im ersten Kapitel eingeführt wurde, taucht häufig die Frage auf, wie man die vorliegenden Daten durch eine geeignete Größe repräsentieren

Mehr

Unüberwachtes Lernen

Unüberwachtes Lernen Unüberwachtes Lernen Mustererkennung und Klassifikation, Vorlesung No. 12 M. O. Franz 17.01.2008 Übersicht 1 Hauptkomponentenanalyse 2 Nichtlineare Hauptkomponentenanalyse 3 K-Means-Clustering Übersicht

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

k-nächste-nachbarn-schätzung

k-nächste-nachbarn-schätzung k-nächste-nachbarn-schätzung Mustererkennung und Klassifikation, Vorlesung No. 7 1 M. O. Franz 29.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Mustererkennung. Bayes-Klassifikator. R. Neubecker, WS 2016 / Bayes-Klassifikator

Mustererkennung. Bayes-Klassifikator. R. Neubecker, WS 2016 / Bayes-Klassifikator Mustererkennung Bayes-Klassifikator R. Neubecker, WS 2016 / 2017 Bayes-Klassifikator 2 Kontext Ziel: Optimaler Klassifikator ( = minimaler Klassifikationsfehler), basierend auf Wahrscheinlichkeitsverteilungen

Mehr

Statistische Tests (Signifikanztests)

Statistische Tests (Signifikanztests) Statistische Tests (Signifikanztests) [testing statistical hypothesis] Prüfen und Bewerten von Hypothesen (Annahmen, Vermutungen) über die Verteilungen von Merkmalen in einer Grundgesamtheit (Population)

Mehr

2. Datenvorverarbeitung

2. Datenvorverarbeitung Kurzreferat Das Ziel beim Clustering ist es möglichst gleich Datensätze zu finden und diese in Gruppen, sogenannte Cluster zu untergliedern. In dieser Dokumentation werden die Methoden k-means und Fuzzy

Mehr

Lineare Klassifikationsmethoden

Lineare Klassifikationsmethoden Verena Krieg Fakultät für Mathematik und Wirtschaftswissenschaften 08. Mai 2007 Inhaltsverzeichnis 1. Einführung 2. Lineare Regression 3. Lineare Diskriminanzanalyse 4. Logistische Regression 4.1 Berechnung

Mehr

SBP Mathe Aufbaukurs 1 # 0 by Clifford Wolf. SBP Mathe Aufbaukurs 1

SBP Mathe Aufbaukurs 1 # 0 by Clifford Wolf. SBP Mathe Aufbaukurs 1 SBP Mathe Aufbaukurs 1 # 0 by Clifford Wolf SBP Mathe Aufbaukurs 1 # 0 Antwort Diese Lernkarten sind sorgfältig erstellt worden, erheben aber weder Anspruch auf Richtigkeit noch auf Vollständigkeit. Das

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

1 Einleitung. 2 Clustering

1 Einleitung. 2 Clustering Lernende Vektorquantisierung (LVQ) und K-Means-Clustering David Bouchain Proseminar Neuronale Netze Kurs-Nr.: CS4400 ISI WS 2004/05 david@bouchain.de 1 Einleitung Im Folgenden soll zum einen ein Überblick

Mehr

D-MATH, D-PHYS, D-CHAB Analysis I HS 2017 Prof. Manfred Einsiedler. Lösung 4

D-MATH, D-PHYS, D-CHAB Analysis I HS 2017 Prof. Manfred Einsiedler. Lösung 4 D-MATH, D-PHYS, D-CHAB Analysis I HS 017 Prof. Manfred Einsiedler Lösung 4 Hinweise 1. Zeigen Sie, dass inf X die kleinste obere Schranke von X ist.. Dass z 1, z Lösungen sind, kann man durch Einsetzen

Mehr

Statistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg

Statistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg Statistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg Prof. Markus Schumacher, Dr. Stan Lai Physikalisches Institut Westbau 2 OG Markus.Schumacher@physik.uni-freiburg.de

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:

Mehr

Andere Methoden zur Klassikation und Objekterkennung

Andere Methoden zur Klassikation und Objekterkennung Andere Methoden zur Klassikation und Objekterkennung Heike Zierau 05. Juni 2007 1. Einführung 2. Prototypmethoden K-means Clustering Gaussian Mixture Gaussian Mixture vs. K-means Clustering 3. nächste-nachbarn

Mehr

Geometrie 2. Julian Fischer Julian Fischer Geometrie / 30

Geometrie 2. Julian Fischer Julian Fischer Geometrie / 30 Geometrie 2 Julian Fischer 6.7.2009 Julian Fischer Geometrie 2 6.7.2009 1 / 30 Themen 1 Bereichssuche und kd-bäume 1 Bereichssuche 2 kd-bäume 2 Divide and Conquer 1 Closest pair 2 Beispiel: Points (IOI

Mehr

Support Vector Machines (SVM)

Support Vector Machines (SVM) Universität Ulm 12. Juni 2007 Inhalt 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor-

Mehr

Zusatzmaterialien Funktionen von R. Brinkmann

Zusatzmaterialien Funktionen von R. Brinkmann Zusatzmaterialien Funktionen von R. Brinkmann http://brinkmann-du.de 6..0 Ausführliche Lösungen Kapitel. U U Finden Sie weitere Beispiele für solche Abhängigkeiten. Die Leistung eines Verbrennungsmotors

Mehr

... Text Clustern. Clustern. Einführung Clustern. Einführung Clustern

... Text Clustern. Clustern. Einführung Clustern. Einführung Clustern Clustern Tet Clustern Teile nicht kategorisierte Beispiele in disjunkte Untermengen, so genannte Cluster, ein, so daß: Beispiele innerhalb eines Clusters sich sehr ähnlich Beispiele in verschiedenen Clustern

Mehr

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung 11. Vorlesung Jochen Köhler 10.05.011 1 Inhalt der heutigen Vorlesung Zusammenfassung Parameterschätzung Übersicht über Schätzung und Modellbildung Modellevaluation

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Statistisches Testen

Statistisches Testen Statistisches Testen Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Differenzen Anteilswert Chi-Quadrat Tests Gleichheit von Varianzen Prinzip des Statistischen Tests Konfidenzintervall

Mehr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

unabhängigen Variablen Eine Funktion dient der Beschreibung von Zusammenhängen zwischen mehreren verschiedenen Faktoren.

unabhängigen Variablen Eine Funktion dient der Beschreibung von Zusammenhängen zwischen mehreren verschiedenen Faktoren. Funktionsbegriff 2.1 2 Funktionen mit einer unabhängigen Variablen 2.1 Funktionsbegriff Eine Funktion dient der Beschreibung von Zusammenhängen zwischen mehreren verschiedenen Faktoren. In den Wirtschaftswissenschaften

Mehr

Computer Vision: Segmentierung I

Computer Vision: Segmentierung I Computer Vision: Segmentierung I D. Schlesinger TUD/INF/KI/IS Der Plan: D. Schlesinger () CV: Segmentierung I 1 / 13 Segmentierung Man hat das... Man braucht das. D. Schlesinger () CV: Segmentierung I

Mehr

Statistik für Ingenieure Vorlesung 3

Statistik für Ingenieure Vorlesung 3 Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind

Mehr

Lage- und Streuungsparameter

Lage- und Streuungsparameter Lage- und Streuungsparameter Beziehen sich auf die Verteilung der Ausprägungen von intervall- und ratio-skalierten Variablen Versuchen, diese Verteilung durch Zahlen zu beschreiben, statt sie graphisch

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2008/2009 Musterlösung für das 7. Übungsblatt Aufgabe 1: Evaluierung und Kosten Gegeben sei ein Datensatz mit 300 Beispielen, davon 2 /3 positiv

Mehr

Klassifikation durch direkten Vergleich (Matching)

Klassifikation durch direkten Vergleich (Matching) Klassifikation durch direkten Vergleich (Matching) Eine triviale Lösung für die Klassifikation ergibt sich durch direkten Vergleich des unbekannten Musters in allen Erscheinungsformen der Äquivalenzklasse

Mehr

Lösungshinweise zur Klausur. Mathematik für Informatiker III. (Dr. Frank Hoffmann) 18. Februar 2008

Lösungshinweise zur Klausur. Mathematik für Informatiker III. (Dr. Frank Hoffmann) 18. Februar 2008 Lösungshinweise zur Klausur Mathematik für Informatiker III (Dr. Frank Hoffmann) 8. Februar 8 Aufgabe Algebraisches I /6++ (a) Rechnen Sie zunächst nach, dass die Menge B = {,, von Vektoren eine Basis

Mehr

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte

Mehr

Segmentierung. Inhalt. Segmentierung

Segmentierung. Inhalt. Segmentierung Segmentierung Inhalt Segmentierung Definition der Segmentierung Kantenbasierte Segmentierung Regionenbasierte Segmentierung Globaler Schwellenwert (threshold) Adaptiver Schwellenwert Region Growing Segmentierung

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Überblick Bessere Modelle, die nicht nur den Mittelwert von Referenzvektoren sondern auch deren Varianz berücksichtigen Weniger Fehlklassifikationen Mahalanobis Abstand Besseres Abstandsmaß basierend

Mehr

Wenn PCA in der Gesichtserkennung eingesetzt wird heißen die Eigenvektoren oft: Eigenfaces

Wenn PCA in der Gesichtserkennung eingesetzt wird heißen die Eigenvektoren oft: Eigenfaces EFME-Zusammenfassusng WS11 Kurze Fragen: Wenn PCA in der Gesichtserkennung eingesetzt wird heißen die Eigenvektoren oft: Eigenfaces Unter welcher Bedingung konvergiert der Online Perceptron Algorithmus?

Mehr

Stichprobenverteilung bei unterschiedlichen Auswahlsätzen

Stichprobenverteilung bei unterschiedlichen Auswahlsätzen Stichprobenverteilung bei unterschiedlichen Auswahlsätzen Begleitende Unterlagen zur Übung Induktive Statistik Michael Westermann Universität Essen Inhaltsverzeichnis 1 Einleitung.......................................................

Mehr

NICHTRESTRINGIERTE OPTIMIERUNG

NICHTRESTRINGIERTE OPTIMIERUNG 3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene

Mehr

T-Test für unabhängige Stichproben

T-Test für unabhängige Stichproben T-Test für unabhängige Stichproben Wir gehen von folgendem Beispiel aus: Wir erheben zwei Zufallstichproben, wobei nur die Probanden der einen Stichprobe einer speziellen experimentellen Behandlung (etwa

Mehr

SCHRIFTLICHE ABITURPRÜFUNG 2009 Mathematik (Leistungskursniveau) Arbeitszeit: 300 Minuten

SCHRIFTLICHE ABITURPRÜFUNG 2009 Mathematik (Leistungskursniveau) Arbeitszeit: 300 Minuten Mathematik (Leistungskursniveau) Arbeitszeit: 300 Minuten Es sind die drei Pflichtaufgaben und eine Wahlpflichtaufgabe zu lösen. Der Prüfling entscheidet sich für eine Wahlpflichtaufgabe. Die zur Bewertung

Mehr

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI Lösungen zu Übungsblatt 9 Höhere Mathematik/Stochastik Anpassung von Verteilungen Zu Aufgabe ) a) Zeichnen des Histogranmmes: Um das Histogramm zu zeichnen, benötigen wir die Höhe der Balken. Die Höhe

Mehr

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Statistik III. Walter Zucchini Fred Böker Andreas Stadie Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................

Mehr

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit

Mehr

Folgen und Reihen. 1 Konvergenz

Folgen und Reihen. 1 Konvergenz Folgen und Reihen Man betrachte viele Zahlen hintereinander geschrieben. Solche Folgen von Zahlen können durch nummeriert werden. Es entsteht eine Zuordnung der natürlichen Zahlen zu den Gliedern der Folge.

Mehr

Grundlagen der Bildverarbeitung

Grundlagen der Bildverarbeitung Grundlagen der Bildverarbeitung Inhaltsverzeichnis Vorwort 9 Kapitel 1 Einführung 13 1.1 Anwendungen der digitalen Bildverarbeitung 16 1.2 Algorithmische Verarbeitung von Bildinformation 17 1.3 Zu diesem

Mehr

1.1 Graphische Darstellung von Messdaten und unterschiedliche Mittelwerte. D. Horstmann: Oktober

1.1 Graphische Darstellung von Messdaten und unterschiedliche Mittelwerte. D. Horstmann: Oktober 1.1 Graphische Darstellung von Messdaten und unterschiedliche Mittelwerte D. Horstmann: Oktober 2014 4 Graphische Darstellung von Daten und unterschiedliche Mittelwerte Eine Umfrage nach der Körpergröße

Mehr

Winter 2011/ Projekt kd- Trees. achsenparallelen Farbwürfel angeordnet. Die beiden schwarz- weiß- Ecken verbindet eine Graulinie.

Winter 2011/ Projekt kd- Trees. achsenparallelen Farbwürfel angeordnet. Die beiden schwarz- weiß- Ecken verbindet eine Graulinie. Praktikum Algorithmik Prof. Dr. Heiner Klocke Winter 2011/2012 12.11.2011 1. Erläuterung des Umfeldes Projekt kd- Trees Bei der Bildanalyse sollen Farbpunkte eines Bildes klassifiziert werden. Die Farbe

Mehr

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent

Mehr

Einführung in die linearen Funktionen. Autor: Benedikt Menne

Einführung in die linearen Funktionen. Autor: Benedikt Menne Einführung in die linearen Funktionen Autor: Benedikt Menne Inhaltsverzeichnis Vorwort... 3 Allgemeine Definition... 3 3 Bestimmung der Steigung einer linearen Funktion... 4 3. Bestimmung der Steigung

Mehr