Modellierung mit künstlicher Intelligenz

Ähnliche Dokumente
Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern

Vorlesung Digitale Bildverarbeitung Sommersemester 2013

Inhalt. Einleitung... XIII

Konzepte der AI Neuronale Netze

Universelles integriertes geophysikalisches Mess- und Auswerteinstrumentarium zur Charakterisierung von Problemzonen im Salinar

Hannah Wester Juan Jose Gonzalez

Einsatz von DV-Verfahren der künstlichen Intelligenz zur flächenhaften Darstellung von Schadstoffgehalten in Siedlungsgebieten

Neuronale Netze. Christian Böhm.

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke

Nutzung maschinellen Lernens zur Extraktion von Paragraphen aus PDF-Dokumenten

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Gefühl*** vorher / nachher. Situation* Essen (was und wie viel?) Ess- Motiv** Tag Datum Frühstück Zeit: Allgemeines Befinden

Wissensentdeckung in Datenbanken

Machine Learning. Kurzeinführung Erfahrungen in GIS

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Mustererkennung und Klassifikation

Künstliche Neuronale Netze

Neuronale Netze Aufgaben 3

Wissensentdeckung in Datenbanken

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006

Inhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume

Globale und Individuelle Schmerz-Klassifikatoren auf Basis relationaler Mimikdaten

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Institut für angewandte Datenanalyse GmbH

Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung , Dr.-Ing. Steffen Herbort, A.R.T. GmbH

Künstliche Neuronale Netze

Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff

RL und Funktionsapproximation

Wissensentdeckung in Datenbanken

Pareto optimale lineare Klassifikation

EFME Aufsätze ( Wörter) Der Aufbau von Entscheidungsbäumen...1

Optimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp

Entscheidungsbäume. Minh-Khanh Do Erlangen,

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Intelligente Algorithmen Einführung in die Technologie

Logistische Regression

Projekt Maschinelles Lernen WS 06/07

Supervised & Unsupervised Machine Learning

KNN-Methode zur Einschätzung von Veränderungen des Salzgehaltes in Ästuaren

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens

Neuronale Netze. Anna Wallner. 15. Mai 2007

Motivation. Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus

Predictive Analytics. Warum datenbasierte Vorhersagen kein Hexenwerk sind. ASQF Automation Day Dr. Stefano Signoriello

Wissensentdeckung in Datenbanken

Elementare Regressionsrechnung

Lineare Klassifikatoren. Volker Tresp

Georadarerkundung und Komplexauswertung im Salinar

Neural Networks: Architectures and Applications for NLP

Einführung in das Maschinelle Lernen I

Kap. 3: Exakte Lösungsverfahren für NPschwierige. Optimierungsprobleme VO Algorithm Engineering

6.2 Feed-Forward Netze

Data Mining und maschinelles Lernen

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

MERKMALSAUSWAHL ZUR OPTIMIERUNG VON PROGNOSEPROZESSEN

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

Schriftlicher Test Teilklausur 2

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Einführung in Data Science

2. Optimierungsprobleme 6

Text Mining 4. Seminar Klassifikation

3.3 Nächste-Nachbarn-Klassifikatoren

Semester-Fahrplan 1 / 26

Nichtlineare Klassifikatoren

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Support Vector Machines, Kernels

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Was sind Neuronale Netze?

Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel

Prozessoptimierung mit statistischen Verfahren

Das Suchproblem. Gegeben Menge von Datensätzen. Beispiele Telefonverzeichnis, Wörterbuch, Symboltabelle

Das Suchproblem 4. Suchen Das Auswahlproblem Suche in Array

Klassifikation und Ähnlichkeitssuche


Mann-Whitney-U-Test: Tiefenstufen

Lineare Klassifikationsmethoden

Objekt Attributwerte Klassifizierung X Y

Adaptive Systeme. Einführung. Grundlagen. Modellierung. Prof. Rüdiger Brause WS Organisation. Einführung in adaptive Systeme B-AS-1, M-AS-1

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004

Reinforcement Learning

MACHINE VISION KLASSIFIKATOREN VORTEILE UND HERAUSFORDERUNGEN AUSGEWÄHLTER METHODEN

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Learning Phrase Representations using RNN Encoder Decoder for Statistical Machine Translation. Yupeng Guo

Ringvorlesung Bildverarbeitung

Klassische Klassifikationsalgorithmen

Entscheidungsbäume aus großen Datenbanken: SLIQ

Sie können Ihre Übungsblätter vorne in den Abgabe -Karton legen

Kann SAS Ihre Handschrift lesen? Machine Learning am Beispiel von Stacked Denoising Autoencoders

INTELLIGENTE DATENANALYSE IN MATLAB. Überwachtes Lernen: Entscheidungsbäume

Bewegungsplanung für den vierbeinigen Roboter AMEE. Björn Bettzüche

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Vorlesung Maschinelles Lernen

Data Mining - Wiederholung

Kamerabasierte Erkennung von Fußgängern in urbanen Verkehrsszenen

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Vorlesung Maschinelles Lernen

Transkript:

Samuel Kost kosts@mailbox.tu-freiberg.de Institut für Numerische Mathematik und Optimierung Modellierung mit künstlicher Intelligenz Ein Überblick über existierende Methoden des maschinellen Lernens 13. Sächsisches GIS-Forum, Dresden, 27.01.2016

Was versteht man unter maschinellem Lernen? Maschinelles Lernen Klassifizierung Clustern Regression 2 2

Vorbemerkungen Instanz Merkmale (198,98) (179,74) 3

Vorbemerkungen Instanz Merkmale (198,98) (179,74,120,80,125,75,115,65) Auswahl der Merkmale sollte wenn möglich sorgfältig per Hand durchgeführt werden Es gilt die Regel: Nonsense als Input Nonsense als Output 4

k-nearest Neighbors Gewicht 110 Kg Wo liegt die Schwierigkeit? 185 cm Größe 5

Support Vector Machine (SVM) Gewicht Klassifizierer 110 Kg 185 cm Größe 6

Support Vector Machine (SVM) Gewicht Stützvektoren 110 Kg Maximaler Klassifizierer 185 cm Größe 7

Support Vector Machine (SVM) Wann sollte SVM verwendet werden? Bei ungleichen Klassengrößen (Bei nur nichtlinear trennbaren Klassen) Bei hochdimensionalen Daten Wenn hohe Genauigkeit notwendig ist Wenn nicht zu viele Instanzen vorhanden sind (<10 6 ) Falls die Daten eine geometrische Interpretation haben 8

Logistische Regression Klassifizierungsmethode, keine Regression! Es gilt folgender Zusammenhang: p(gut in Basketball) p(schlecht in Basketball) ~ C 1 Größe + C 2 Gewicht 9

Logistische Regression Klassifizierungsmethode, keine Regression! Es gilt folgender Zusammenhang: log p(gut in Basketball) p(schlecht in Basketball) = C 1 Größe + C 2 Gewicht Die zu lösende Aufgabe ist das Lernen der Koeffizienten C C 1 wäre hier positiv, C 2 wäre negativ Mathematische Interpretation der Aufgabe: Finden des globalen Minimums einer nichtlinearen Funktion 10

Logistische Regression Wann sollte Logistische Regression verwendet werden? Falls Wahrscheinlichkeiten eine Rolle spielen Vorkenntnisse sind leicht in das Modell zu integrieren Falls die Anzahl der Merkmale nicht zu groß ist Statistische Größen verfügbar für Wichtung der Merkmale Sehr gute Interpretierbarkeit Wenn die Trainingsgeschwindigkeit eine Rolle spielt Logistische Regression trainiert sehr schnell Wenn keine sehr hohe Genauigkeit benötigt wird Wenn Klassen linear trennbar sind 11

Künstliche Neuronale Netze Verallgemeinerung von Logistischer Regression Input Hidden Layer Output Aktivierungsfunktion der Summe gewichteter Outputs Gewicht als Input für neue Schicht Training heißt einstellen der Gewichte an den Kanten Größe Mathematisch: Finden eines Kantengewichte Minimums einer nichtlinearen Funktion (viele lokale Minima) 12

Künstliche Neuronale Netze Wann sollten Neuronale Netze verwendet werden? Falls keine statistischen Kenngrößen benötigt werden Wenn die Trainingsgeschwindigkeit keine Rolle spielt Training gewöhnlich sehr langsam und aufwendig Wenn eine hohe Genauigkeit benötigt wird Wenn Klassen nichtlinear trennbar sind Für alle möglichen Problemklassen einsetzbar 13

Random Forest Entscheidungsbaum Größe > 185 cm Ja Nein Gewicht < 110 Kg negativ Ja Nein positiv negativ 14

Random Forest Forest besteht aus vielen flachen Entscheidungsbäumen Alle werden auf neue Daten angewendet Ein Entscheidungsmechanismus wird für Ergebnis verwendet Verstärkte Entscheidungsbäume Entscheidungsbäume werden iterativ aufgebaut Neue Bäume für Fälle die bisher noch nicht im aktuellen Random Forest betrachtet wurde Sehr starke Methode Aktuell state-of-the-art bei der Websuche 15

Random Forest Wann sollte Random Forest verwendet werden? Wenn die Klassen ausgeglichen sind Bei 10 positiven und 1M negativen Instanzen werden alle Bäume für negativ stimmen Bei sehr vielen Klassen Man kann so viele Klassen wie Blätter in den Bäumen haben Bei hochdimensionalen Daten Z.B. Textklassifizierung 16

Beispieldatensatz: Goldvorkommen in Ghana Potentielle Einflussfaktoren / Merkmale Geophysikalische Befliegung Geologie und Tektonik Magnetik Kalium Thorium 17

Beispieldatensatz: Goldvorkommen in Ghana Datensatz mit 17 Merkmalen binär und kontinuierlich Fast 1 Mio. Instanzen ( 99,5% negativ) Verfahren Zeit in Sekunden Präzision (AUCscore) Neuronale Netze 451 0.84 Logistische Regression 2 0.78 Random Forest (100) 884 0.87 Support Vector Machine 11563 0.64 18

Weitere Anwendungsbeispiele Erosionserscheinungen Hangbewegungen Manganknollen Belegungsdichte Kohlefeuer in China Befall von Wäldern durch Borkenkäfer Regionalisierung von Schadstoffen Lagerstätten versch. Genese Brutplätze von Vogelarten Geochemischer Atlas (Regionalisierung von Punktdaten) Schadstoffe in Siedlungsgebieten Stabilität von Kippen stillgelegter Tagebaue 19