Digitale Bildverarbeitung Einheit 11 Klassifikation



Ähnliche Dokumente
Ein Vergleich von Methoden für Multi-klassen Support Vector Maschinen

One-class Support Vector Machines

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

Übungen zur Vorlesung Grundlagen der Bilderzeugung und Bildanalyse (Mustererkennung) WS 04/05. Musterlösung 9

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke

Vorbereitungsaufgaben

Einführung in. Logische Schaltungen

Elementare Bildverarbeitungsoperationen

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:

Erfahrungen mit Hartz IV- Empfängern

Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR)

Digitale Bildverarbeitung Einheit 12 3D-Rekonstruktion

mobilepoi 0.91 Demo Version Anleitung Das Software Studio Christian Efinger Erstellt am 21. Oktober 2005

Konzepte der Informatik

WS 2009/10. Diskrete Strukturen

Primzahlen und RSA-Verschlüsselung

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel

1 Mathematische Grundlagen

08. übung. Illustrator. medienwerkstatt // seite 1

V 2 B, C, D Drinks. Möglicher Lösungsweg a) Gleichungssystem: 300x y = x + 500y = 597,5 2x3 Matrix: Energydrink 0,7 Mineralwasser 0,775,

Binär Codierte Dezimalzahlen (BCD-Code)

Ohne Fehler geht es nicht Doch wie viele Fehler sind erlaubt?

1 topologisches Sortieren

Künstliches binäres Neuron

Prozentrechnung. Wir können nun eine Formel für die Berechnung des Prozentwertes aufstellen:

Darstellungsformen einer Funktion

Gussnummern-Lesesystem

Kapitel 1: Einführung. Was ist Informatik? Begriff und Grundprobleme der Informatik. Abschnitt 1.1 in Küchlin/Weber: Einführung in die Informatik

Die Invaliden-Versicherung ändert sich

Eine Logikschaltung zur Addition zweier Zahlen

Grundlagen der Informatik

Der Kalender im ipad

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen

TEXTKLASSIFIKATION. WS 2011/12 Computerlinguistik I Deasy Sukarya & Tania Bellini

Tutorial Speichern. Jacqueline Roos - Riedstrasse 14, 8908 Hedingen, jroos@hispeed.ch -

Zeichen bei Zahlen entschlüsseln

Anleitung über den Umgang mit Schildern

Fachdidaktik der Informatik Jörg Depner, Kathrin Gaißer

HTML5. Wie funktioniert HTML5? Tags: Attribute:

Second Steps in eport 2.0 So ordern Sie Credits und Berichte

Proxy. Krishna Tateneni Übersetzer: Stefan Winter

Formelsammlung zur Kreisgleichung

ACDSee Pro 2. ACDSee Pro 2 Tutorials: Übertragung von Fotos (+ Datenbank) auf einen anderen Computer. Über Metadaten und die Datenbank

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Eva Douma: Die Vorteile und Nachteile der Ökonomisierung in der Sozialen Arbeit

Wie optimiert man die Werbungserkennung von Ad- Detective?

Grundlagen der Künstlichen Intelligenz

Computer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10

Von Bits, Bytes und Raid

Installation OMNIKEY 3121 USB

Bilder Schärfen und Rauschen entfernen

Informationssysteme Gleitkommazahlen nach dem IEEE-Standard 754. Berechnung von Gleitkommazahlen aus Dezimalzahlen. HSLU T&A Informatik HS10

Informatik 2 Labor 2 Programmieren in MATLAB Georg Richter

Office 2007 Umsteiger Präsentationen für unterwegs vorbereiten

Binäre Bäume. 1. Allgemeines. 2. Funktionsweise. 2.1 Eintragen

Klassenarbeit zu linearen Gleichungssystemen

.htaccess HOWTO. zum Schutz von Dateien und Verzeichnissen mittels Passwortabfrage

Anleitung für Kunden zum Umgang mit verschlüsselten s von der LASA Brandenburg GmbH

Aus Knoten und Kanten, die Bezeichnungen haben können. Ein Graph, bei dem die Kanten Richtungen haben.

Nicht über uns ohne uns

.procmailrc HOWTO. zur Mailfilterung und Verteilung. Stand:

1. License Borrowing Verfahren

OECD Programme for International Student Assessment PISA Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland

Anleitung Redmine. Inhalt. Seite 1 von 11. Anleitung Redmine

Nutzung von GiS BasePac 8 im Netzwerk

Whitepaper. Produkt: combit Relationship Manager 7. combit Relationship Manager -rückläufer Script. combit GmbH Untere Laube Konstanz

Fassade. Objektbasiertes Strukturmuster. C. Restorff & M. Rohlfing

Albert HAYR Linux, IT and Open Source Expert and Solution Architect. Open Source professionell einsetzen

e-books aus der EBL-Datenbank

Abschlussprüfung Realschule Bayern II / III: 2009 Haupttermin B 1.0 B 1.1

Suche schlecht beschriftete Bilder mit Eigenen Abfragen

BITte ein BIT. Vom Bit zum Binärsystem. A Bit Of Magic. 1. Welche Werte kann ein Bit annehmen? 2. Wie viele Zustände können Sie mit 2 Bit darstellen?

Family Safety (Kinderschutz) einrichten unter Windows 8

Inhalt. Allgemeine Einführung. Argumentationsvermögen. Räumliches Vorstellungsvermögen. Begabungen und Fähigkeiten messen

Theoretische Grundlagen der Informatik WS 09/10

Ein Scan basierter Seitenangriff auf DES

Was man mit dem Computer alles machen kann

Terminabgleich mit Mobiltelefonen

11 Tabellen als Inhaltselement (ohne RichTextEditor)

Rekursionen. Georg Anegg 25. November Methoden und Techniken an Beispielen erklärt

Erstellen einer GoTalk-Auflage

Anlegen eines DLRG Accounts

Edulu-Mail im Mail-Client einrichten (MS Outlook, Apple Mail, iphone)

Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining

Semestralklausur zur Vorlesung. Web Mining. Prof. J. Fürnkranz Technische Universität Darmstadt Sommersemester 2004 Termin:

Situa?onsbeschreibung aus Sicht einer Gemeinde

6.2 Scan-Konvertierung (Scan Conversion)

AGROPLUS Buchhaltung. Daten-Server und Sicherheitskopie. Version vom b

Stellen Sie bitte den Cursor in die Spalte B2 und rufen die Funktion Sverweis auf. Es öffnet sich folgendes Dialogfenster

Layoutmodelle. Steffen Schwientek Große Klostergasse Friedberg schwientek@web.de Web :schlaukopp.org

PowerPoint vertonen. by H.Schönbauer 1

Grundbegriffe der Informatik

Lernende Suchmaschinen

Erstellen einer Collage. Zuerst ein leeres Dokument erzeugen, auf dem alle anderen Bilder zusammengefügt werden sollen (über [Datei] > [Neu])

Excel Fortgeschrittene Techniken. Peter Wies. 1. Ausgabe, März 2013 EX2013F

SWE12 Übungen Software-Engineering

Facharbeit Informatik. Thema:

Transkript:

Digitale Bildverarbeitung Einheit 11 Klassifikation Lehrauftrag WS 06/07 Fachbereich M+I der FH-Offenburg Dr. Bernard Haasdonk Albert-Ludwigs-Universität Freiburg Ziele der Einheit Verstehen, dass basierend auf einer Repräsentation von Objekten durch Merkmalsvektoren mächtige Operationen möglich sind, z.b. die Klassifikation Grundlegende Begriffe wie Klassifikator, Klassenlabel, Trainingsdaten, Klassifikationsgebiete oder Entscheidungsgrenze werden eingeführt Die wichtigsten einfachen Klassifikatortypen und einige Anwendungen werden präsentiert: Grenzen und Möglichkeiten Allgemein wird lediglich ein Eindruck des Gebiets der "Klassifikation" vermittelt, da dieses sehr schnell sehr technisch wird. Darstellung ist mehr anschaulich, enthält (fast) keine Formeln, soll das Gebiet "schmackhaft" machen 9.11.2006 B. Haasdonk, Digitale Bildverarbeitung, FH Offenburg WS 06/07, Einheit 11 2 1

Motivation Ein wichtiger Verarbeitungsschritt ist die Erkennung von einem Gesamtobjekt, was der Mensch prima beherrscht. Hund Katze Maus Die Frage der maschinellen Klassifikation wird auf dem Gebiet des Klassifikatorentwurfs behandelt Klassifikatorentwurf ist wie die Merkmalsextraktion ein wichtiges Teilgebiet der Mustererkennung Erkennung kann man als eine Art Intelligente Leistung oder Handlung sehen. Entsprechend machen auch die Felder der Künstlichen Intelligenz, des Maschinellen Lernens und des Datamining und Information Retrieval sich diese Techniken zunutze 9.11.2006 B. Haasdonk, Digitale Bildverarbeitung, FH Offenburg WS 06/07, Einheit 11 3 Grundbegriffe Klassifikationsproblem anschaulich: Gegeben eine Menge von Objekten, die zu bekannten Kategorien gehören, den sogenannten Klassen D.h. zu jedem Objekt ist eine Klassenzugehörigkeit, oder ein sogenanntes Label bekannt Objekte: Buchstaben Label: = L = S = L = S = S Aufgabe: Finde einen Weg oder Verfahren, zukünftige Objekte ohne Label möglichst gut einer Klasse zuzuordnen. =? =? Dies heißt Klassifikation der neuen Objekte Die Zuordnungsvorschrift heißt Klassifikator 9.11.2006 B. Haasdonk, Digitale Bildverarbeitung, FH Offenburg WS 06/07, Einheit 11 4 2

Grundbegriffe Klassifikation im Merkmalsraum: Die Wirkung eines Klassifikators läßt sich schön im Merkmalsraum darstellen Der Klassifikator entscheidet für jedes Objekt, das heißt für jeden Merkmalsvektor eine Klasse. Klassifikator: Klasse L falls Ecken<=7, sonst S : Diese Entscheidungen kann man grafisch durch Klassengebiete und Entscheidungsgrenzen zusammenfassen = L = S Merkmalsraum Rot-Mittelwert 6 8 Das Aufstellen der Klassifikationsvorschrift basiert oft auf die gegebenen Daten. Daher heißt dies auch Training des Klassifikators und die Daten heißen Trainingsdaten. Der Trainingsfehler ist ein Gütemaß eines Klassifikators ist (es gibt bessere!) = L = S Hier Trainingsfehler = 0 9.11.2006 B. Haasdonk, Digitale Bildverarbeitung, FH Offenburg WS 06/07, Einheit 11 5 1 0 0 12 Ecken Nearest-Neighbour-Klassifikation Der Nächste-Nachbar (NN) Klassifikator Training: nicht notwendig einfach speichern der Trainingspunkte Klassifikation: Der nächste Nachbar des zu klassifizierenden Punktes unter den Trainingspunkten wird gesucht Dessen Klasse wird als Klassenzuordnung gewählt. Klassifikationsgebiete: Sind begrenzt durch Mittelsenkrechten zwischen Trainingspunkten Vorteile: Durch die nichtlineare Entscheidungsgrenze können sehr komplexe Probleme gelöst werden Einfachheit: das Prinzip ist auf dieser einzelnen Folie erklärbar! Nachteile: Leidet unter Überanpassung, sogenanntes Overfitting, d.h. sogar Rausch-Punkte werden korrekt klassifiziert. Klassifikationszeit und Speicheraufwand sind sehr hoch 9.11.2006 B. Haasdonk, Digitale Bildverarbeitung, FH Offenburg WS 06/07, Einheit 11 6 3

Nearest Mean Klassifikation Training: Bestimmen der beiden Klassenmitten (Schwerpunkte) Klassifikation: Abstand des neuen Punktes zu den Klassenmitten berechnen Das Label der nächsten Klassenmitte wird als Klassenlabel gewählt. Klassifikationsgebiete Sind Halbebenen, die durch die Mittelsenkrechte der beiden Klassenmitten getrennt sind Nachteil: Ist ein linearer Klassifikator (bei einem Zweiklassenproblem): Komplizierte verschachtelte Probleme, können nicht gelöst werden. Vorteil: Kein Overfitting Sehr schnelle Klassifikation: Egal wieviele Trainingspunkte vorhanden sind, die Klassifikation besteht aus Berechnung von zwei Abständen. 9.11.2006 B. Haasdonk, Digitale Bildverarbeitung, FH Offenburg WS 06/07, Einheit 11 7 Fortgeschrittene Klassifikator-Arten K-Nächste-Nachbar Klassifikator Weiterentwiklung des NN-Klassifikators Polynomklassifikator [64]: Statt einer linearen Grenzlinie gibt es quadratische Kurven: Kreise, Ellipsen, Hyperbeln Sehr wirkungsvoll in der Praxis: Neuronale Netze [63], Support-Vektor-Maschinen [61, 62] Typisch für fortgeschrittene Klassifikatoren Nichtlinearität: Voraussetzung für komplexe Probleme Anpassbarkeit der Komplexität der Grenzlinie durch einfache Parameter, d.h. Abwägen von Overfitting und Underfitting Underfitting Gut! Overfitting Steigende Komplexität der Entscheidungsgrenze Kombination von Klassifikatoren für verschiedene Zwecke: Verbesserung der Klassifikation, Objekterkennung durch Teilerkennung, Multiklassen-Klassifikation 9.11.2006 B. Haasdonk, Digitale Bildverarbeitung, FH Offenburg WS 06/07, Einheit 11 8 4

Multiklassen-Klassifikation Bisher: Zwei Klassen erfordern einen sogenannten binären Klassifikator Bei einer Aufgabe mit mehr als zwei Klassen braucht man einen Multiklassen-Klassifikator Einige Ansätze funktionieren natürlich in diesem Fall, z.b. Nächste Nachbar Binäre Klassifikatoren können durch Kombination für ein Multiklassen-Problem verwendet werden Gerichtete Graphen: 1/4 1/3 2/ 4 1/2 2/3 3/ 4 1 2 3 4 Für jede Zweiklassen-Kombination wird ein binärer Klassifikator trainiert Diese werden in einem Graphen angeordnet Bei der Klassifikation wird ein Pfad im Graph abgelaufen Die unterste Ebene liefert die endgültige Klassenentscheidung 9.11.2006 B. Haasdonk, Digitale Bildverarbeitung, FH Offenburg WS 06/07, Einheit 11 9 Objektdetektion Abgrenzung von Objektklassifikation Bei Objektdetektion lautet die Aufgabe, dass ein bestimmter Objekttyp lokalisiert werden soll, z.b. Verkehrsschilder Es können mehrere Objekte in einem Bild vorhanden sein. Typische (teure) Vorgehensweise: Es wird ein sehr schneller Klassifikator verwendet, der ein Objekt vom Hintergrund unterscheiden kann. Ein Suchfenster wird in allen Positionen und in allen Größen über das Suchbild geschoben (A). In jeder dieser zahlreichen überlappenden Positionen wird der Inhalt auf Hintergrund oder Objekt klassifiziert, Ergebnis ist (B). Eventuelle überlappende erkannte Bereiche werden verschmolzen (C) (A) (B) (C) [58] 9.11.2006 B. Haasdonk, Digitale Bildverarbeitung, FH Offenburg WS 06/07, Einheit 11 10 5

Anwendungen Webcam-Objekterkennung Livebild Durch Subtraktion des Hintergrundes, Schwellwertbildung, Rausch-Filterung werden die Bilder segmentiert. Jedes Segment wird als Merkmalsvektor repräsentiert, der aus zusammenfügen von rot, grün und blau-histogramm entsteht (jeweils 8 Stufen) Als Trainingsmenge werden Bilder von Objekten mit fester Kategorie gespeichert Im Live-Bild wird der Nächste-Nachbar Klassifikator angewandt, um die beste Kategorie zu bestimmen (siehe Webseite für MATLAB-Programm-Code) Nächste-Nachbar Klassifikator Hand: CD: Spielzeug: Zapfen: Vorhersage Hand 9.11.2006 B. Haasdonk, Digitale Bildverarbeitung, FH Offenburg WS 06/07, Einheit 11 11 Maschinelle Schrifterkennung Benchmarkdatensatz der USPS-Ziffern: 7191 Training-, 2007 Testbeispiele von handgeschriebenen Ziffern in Form von 16x16 Graubildern. Beispiele: Wird verwendet um neue Klassifikatoren zu testen Klassifikationsfehlerraten aus der Literatur [59] zeigen, dass die heute erwähnten Verfahren tatsächlich sehr gut sind. Neuronales Netz Support-Vektor-Maschine k-nächster-nachbar Klassifikator 9.11.2006 B. Haasdonk, Digitale Bildverarbeitung, FH Offenburg WS 06/07, Einheit 11 12 6

Maschinelle Schrifterkennung Blockschrift, Handschrift kann erkannt werden, ist bereits vielseitig im Einsatz: PDA mit Stifteingabe, Scanner mit Texterkennungsfunktion Beispiel dafür was (noch) nicht möglich ist: Verzerrte überlagerte Schrift Anwendung bei Internet Zugangskontrollen: Captchas Der Benutzer bekommt auf einer Webseite ein Bild vorgesetzt, muss die enthaltene Wörter erkennen und in Textform eingeben Ziel: Zugriff/Einloggen von automatisierten Skripten verhindern http://www.captcha.net/ 9.11.2006 B. Haasdonk, Digitale Bildverarbeitung, FH Offenburg WS 06/07, Einheit 11 13 Maschinelle Gesichtsdetektion Beispiel dafür, was möglich ist: Gesichtsdetektion: Personenunspezifische Ortung von Gesichtern (im Gegensatz zu Gesichtserkennung, d.h. Identifikation von Individuen) Demo basierend auf Support-Vektor-Maschinen (SVM) Echtzeit, verschiedene Skalierungen, personenunabhängig, robust Hardware-Voraussetzung: Windows-PC und Webcam Einstellung der Entscheidungsschwelle durch Mausrad Download und weitere Informationen in [60] bzw. unter www.kyb.mpg.de/bs/people/kienzle/facedemo/facedemo.htm 9.11.2006 B. Haasdonk, Digitale Bildverarbeitung, FH Offenburg WS 06/07, Einheit 11 14 7

Zusammenfassung Basierend auf der Merkmalsextraktion sind komplexere Operationen möglich, z.b. können Objekte klassifiziert werden Klassifikatoren unterteilen den Merkmalsraum in Gebiete, die den verschiedenen Klassen gehören. Die Klassifikationsgebiete sind durch eine Entscheidungsgrenze getrennt Klassifikatoren unterscheiden sich in verschiedenen Aspekten wie Linearität, Nichtlinearität, Aufwand für Training und Test, etc. Einige anschauliche Vertreter sind der nearest neighbour und der nearest mean Klassifikator Aus Zweiklassen-Klassifikatoren können durch Kombination größere Aufgaben gelöst werden, z.b. Multiklassen-Probleme oder Detektion von Objekten in Bildern Wichtige Anwendungsfelder für Klassifikatoren sind Zeichenerkennung, Objekterkennung, Gesichtsdetektion, etc. 9.11.2006 B. Haasdonk, Digitale Bildverarbeitung, FH Offenburg WS 06/07, Einheit 11 15 Referenzen Weiterführende Literatur [53] R.O. Duda, P.E. hart und D.G. Stork: Pattern Classification. Wiley Interscience, 2nd edition, 2001. [54] S. Theodoridis und K. Koutroumbas: Pattern Recognition, Academic Press Inc.(London) Ltd, 2nd edition, 2003. [61] B. Schölkopf and A. J. Smola. Learning with Kernels: Support Vector Machines, Regularization, Optimization and Beyond. MIT Press, 2002. [63] C. Bishop. Neural Networks for Pattern Recognition, Oxford University Press, 1996. [62] J. Shawe-Taylor and N. Cristianini. Kernel Methods for Pattern Analysis. Cambridge University Press, 2004. [64] J. Schürmann. Pattern classification: a unified view of statistical and neural approaches, John Wiley & Sons, Inc, 1996. [60] W. Kienzle, G.H. Bakir, M.O. Franz and B. Schölkopf: Face Detection - Efficient and Rank Deficient. Advances in Neural Information Processing Systems 17, 673-680. MIT Press, 2005. [56] H. Burkhardt und B. Haasdonk: Mustererkennung WS 02/03, ein multimedialer Grundlagenkurs im Hauptstudium Informatik. Institut für Informatik, Universität Freiburg, 2003. (CDs werden verkauft), Online unter http://lmb.informatik.unifreiburg.de/lectures/mustererkennung/ws0304/material.html Bildreferenzen [58] Siemens VDO, http://www.siemensvdo.com/topics/adas/traffic-sign-recognition/ [59] Haasdonk, B., Keysers, D., Tangent Distance Kernels for Support Vector Machines. ICPR 2002, International Conference on Pattern Recognition, 2002. 9.11.2006 B. Haasdonk, Digitale Bildverarbeitung, FH Offenburg WS 06/07, Einheit 11 16 8