Moderne Methoden der KI: Maschinelles Lernen

Größe: px
Ab Seite anzeigen:

Download "Moderne Methoden der KI: Maschinelles Lernen"

Transkript

1 Moderne Methoden der KI: Maschinelles Lernen Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung Sommer-Semester 2010 Grundlagen Definitionen Grundbegriffe Lernsysteme Generalisierung

2 Maschinelles Lernen Lernen: Grundbegriffe Lernsysteme Konzept-Lernen Entscheidungsbäume Fallbasiertes Schließen Reinforcement-Lernen Mitchell: Machine Learning. Lenz et al: Case-Based Reasoning Technology, From Foundations to Applications. Quinlan: C4.5: Programs for Machine Learning. Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 2

3 Definitionen: Was ist Lernen? Wikipedia, Juni 2010 Unter Lernen versteht man den absichtlichen (intentionales Lernen) und den beiläufigen (inzidentelles und implizites Lernen), individuellen oder kollektiven Erwerb von geistigen, körperlichen, sozialen Kenntnissen, Fähigkeiten und Fertigkeiten. Aus lernpsychologischer Sicht wird Lernen als ein Prozess der relativ stabilen Veränderung des Verhaltens, Denkens oder Fühlens aufgrund von Erfahrung oder neu gewonnenen Einsichten und des Verständnisses (verarbeiteter Wahrnehmung der Umwelt oder Bewusstwerdung eigener Regungen) aufgefasst. Die Fähigkeit zu lernen ist für Mensch und Tier eine Grundvoraussetzung dafür, sich den Gegebenheiten des Lebens und der Umwelt anpassen zu können, darin sinnvoll zu agieren und sie gegebenenfalls im eigenen Interesse zu verändern. So ist für den Menschen die Fähigkeit zu lernen auch eine Voraussetzung für Bildung, also ein reflektiertes Verhältnis zu sich, zu den anderen und zur Welt. Die Resultate des Lernprozesses sind nicht immer von den Lernenden in Worte fassbar (implizites Wissen) oder eindeutig messbar. Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 3

4 Definitionen: Was ist Lernen? Definition nach Metzler Philosophie Lexikon : Jede Form von Leistungssteigerung, die durch gezielte Anstrengung erreicht wurde. bzw. als psycholog. Sicht : Jede Verhaltensänderung, die sich auf Erfahrung, Übung oder Beobachtung zurückführen läßt Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 4

5 Was wird verändert - 2 Varianten (nach Metzler ) (1) Stimulus-Response-Verhalten (Assoziationen) klassische Konditionierung: Kopplung an bestehendes Verhalten: Pawlowscher Hund operante Konditionierung: spontane Reaktion bewerten: verstärken/abschwächen (2) (Kognitive) Repräsentationen ändern Fähigkeiten Umweltmodell Problemlösungsstrategien Motive Gefühle... Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 5

6 Definitionen: Was ist Lernen? Definition nach Meyers Großes Taschenlexikon (1992) : Durch Erfahrung entstandene, relativ überdauernde Verhaltensänderung bzw. -möglichkeiten. (Prozess), der bestimmte Organismen, jedoch auch technische Anlagen (z.b. Automaten) befähigt, auf Grund früherer Erfahrungen und durch organ. Eingliederung weiterer Erfahrungen situationsangemessen zu reagieren. Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 6

7 Formen des Lernens (nach Meyer ) Einsichtiges Lernen (Bewusstsein erforderlich) Dressur Versuch und Irrtum Menschl. Lernen ist eine überwiegend einsichtige, aktive, sozial vermittelte Aneignung von Kenntnissen und Fertigkeiten, Überzeugungen und Verhaltensweisen. Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 7

8 Formen des Lernens (nach Meyer ) 4 Phasen menschl. Lernens: Vorbereitung (Wahrnehmung) Aneignung (Assoziation als Verknüpfungsprozeß) Speicherung (Kodierung, Gedächtnis) Erinnerung (Dekodierung, Reaktion) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 8

9 Arten/Strukturen des Lernens (nach Meyer ) Wahrnehmungslernen (Gehörschulung) motorisches Lernen (Schwimmen) verbales Lernen (Vokabeln) kognitives Lernen (Begriffe, Regeln) soziales Lernen (soziales Verhalten) Signal-Lernen, Verstärkungslernen Imitationslernen Begriffs-/Konzeptlernen Strukturierung Problemlösen Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 9

10 Voraussetzungen für Lernbarkeit Gleiches Verhalten in gleicher Situation erfolgreich Allgemeiner: Ähnliches Verhalten in ähnlicher Situation erfolgreich Möglichkeit zur Verallgemeinerung: Allgemeine Gültigkeit des an Beispielen Gelernten (im entsprechenden Bereich) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 10

11 Aufgabe Setzen Sie die Zahlenreihe fort: 1, 2, 4,... Fragen: Was wurde gelernt? Warum gerade das? Allgemeine Gültigkeit des an Beispielen Gelernten? Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 11

12 Maschinelles Lernen Funktion f : O W W f(x) O x Beispielwerte bekannt allgemeine Berechnung unbekannt/zu komplex x? f(x) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 12

13 Maschinelles Lernen Alternativen ( Hypothesen ) für Berechnung von f x f(x) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 13

14 Maschinelles Lernen Test/Konstruktion von Hypothesen anhand von Beispielen ( Trainingsmenge ) x f(x) Bewertung der Hypothesen bzgl. der Beispiele Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 14

15 Maschinelles Lernen Ziel: Korrekte/Beste Hypothese finden (Suchproblem/Optimierungsproblem) x f(x) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 15

16 Maschinelles Lernen Korrekte/Beste Hypothese finden Methode: Beispiele ( Erfahrungen ) verallgemeinern Fehler minimieren Verallgemeinerung = Annahmen über Funktionswerte für alle (auch nicht gesehene!) Werte x f(x) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 16

17 Maschinelles Lernen Bezug zu: Statistik, Optimierung, KI, Kognition, Information, Komplexität, Regelung/Steuerung, Robotik, Philosophie, Psychologie, Biologie,... Verfahren: Konzeptlernen, Entscheidungsbäume, Regeln, Fallbasiertes Schließen, Neuronale Netze, Bayessches Lernen, Genetische/Evolutionäre Algorithmen, Verstärkungslernen (Reinforcement L.),... Anwendungen: Spracherkennung, Schrifterkennung, Kreditkartenmissbrauch, Data Mining, Profiling, Scheduling, Sensorik und Aktorik von Robotern,... Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 17

18 Grundbegriffe 1 Individuelles Lernen Programm, Roboter (Ergebnis übertragbar: kopieren) Gruppe/Organisation Individuelles Lernen innerhalb Gruppe Struktur, Beziehungen der Gruppe verändern Neue Individuen (Evolution) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 18

19 Grundbegriffe 2: Vorgaben Beispiele (Lernmenge, Trainings- und Testdaten) Bewertung/Credit Assignment Problem/Optimierung: Was ist korrekt/besser (Klassenzugehörigkeit, Fitness, Reward, ) Woher kommt Bewertung Lehrer (supervised) Ohne Lehrer (unsupervised) Verallgemeinerung (Generalisierung) Verhalten auf nicht präsentierten Beispielen (evtl. implizit) Grundstrukturen Repräsentationen: Hypothesen Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 19

20 Definition: Maschinelles Lernen Definition von Tom M. Mitchell Machine Learning : A Computer Program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as measured by P, improves with experience E. T: Menge von Aufgaben t E: Beispiele d bzgl. T P: globale Leistungsfähigkeit (Gütemaß) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 20

21 Beispiel: Klassifikation Menge O von Objekten o mit jeweils n Merkmalen m(o) = [m 1,...,m n ] M Klasseneinteilung von O: K = K 1,...,K k Klasse von o: K(o) n=2 K 1 X o K 2 K 3 K(o)= K 1 Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 21

22 Beispiel: Klassifikation T: Menge von Aufgaben t Klassifikator gesucht: κ: M K Aufgabe t : Klassifikation κ(m(o)) für jeweils ein Objekt o Bewertung: Klassifikation korrekt, falls κ(m(o))=k(o) X E: Beispiele bzgl. T Paare: Aufgabe m(o) /Lösung K(o) K 1 X X X X X X X X X X K 2 X X X K 3 X P: globales Korrektheitsmaß des Klassifikators κ z.b. Anzahl korrekter Klassifikationen / Gesamtzahl Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 22

23 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Lernverfahren Auswahl aus Möglichkeiten bzgl. Aufgabenmenge T Gütemaß P Erfahrung E (woraus lernt System): Information Navigation Verteilung Verfahren (was soll System lernen: Funktion) Inhaltlich (z.b. Schrifterkennung) formale Repräsentation (z.b. Neuronales Netz) Algorithmus (wie sollen Systeme lernen) z.b. Backpropagation Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 23

24 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Test-Beispiele d Erfahrung E Information Navigation Verteilung Trainings- Beispiele d Lern-Verfahren: Konstruiere bestes V aus einer Menge von Hypothesen Verfahren V inhaltlich formal Lernverfahren Aufgabe t Verfahren V für alle t T Lösung V(t) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 24

25 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Lernverfahren t : individuelle Aufgabe aus Menge T V(t) : Lösung von t gemäß Verfahren V b(v(t)): Bewertung von V(t) (optimale Lösung: V*(t) Verfahren V* ist i.a. unbekannt oder zu aufwändig) Lernproblem als Konstruktions-/Optimierungs-/Suchproblem für ein Verfahren V, anwendbar für alle t T, das im Sinne von P möglichst optimal arbeitet (Approximation von V*) Gütemaß P : z.b. wieviele Aufgaben t werden durch V wie gut gelöst Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 25

26 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Beschränkung des Suchraumes: Umfang der Aufgabenmenge T Strukturierung der Aufgaben t T (Feintuning in grob entwickelter Struktur) Merkmale auswählen, z.b. gemäß a) Reduktion von Merkmalen (Redundanz) b) Reduktion von Merkmalen (Transformation) c) Wichtigkeit, Skalierung a b c Lernverfahren Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 26

27 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Beispiele für Auswahl von Merkmalen: - Hauptkomponenten-Analyse (Principal Component Analysis, PCA) Richtungen maximaler Information (Varianz) - Analyse von Dokumentensammlungen: Schlüsselwörter (Lexika erstellen) Kookkurenzen - Bestimmung charakteristischer Features in Bildern (möglichst unabhängig von Skalierung und Rotation) SIFT (Scale Invariant Feature Transform) SURF (Speeded Up Robust Features ) Lernverfahren Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 27

28 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Lernverfahren Information: Beispiele, Fälle [t,l,b] t: Aufgabe, l: Lösung, b: Bewertung nur positive Beispiele [ t,l,+ ] ( gelöste Fälle ) bewertete Beispiele: [ t,l,b ] direct feedback für Bewertung b als Bestandteil des Falles als unmittelbare Antwort durch Lehrer (supervised learning) indirect feedback für Bewertung b als spätere Antwort auf mehrere Entscheidungen Credit Assignment Problem Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 28

29 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Navigation, Auswahl vorgegebene Fälle zufällige Präsentation gezielte Auswahl des Lerners Verteilung: Wie repräsentativ sind Fälle insgesamt bzgl. späterer Anwendung Lernverfahren Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 29

30 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Lernverfahren Lösungen (Wertebereich von V ), z.b.: konkreter Lösungsvorschlag Nützlichkeiten alternativer Lösungen Start mit intuitiver Anfangsnützlichkeit Ziel: Verbesserung durch Lernen: Approximation des optimalen Verfahrens V* formale (variierbare) Berechnung von V Auswahl von Merkmalen m i für Aufgaben t (Definitionsbereich von V) parametrisierte Berechnungsvorschrift z.b. gewichtete Summe: V(t) = w 1 m 1 + w 2 m w m m m (Variation der Parameter w i beim Lernen) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 30

31 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Lernverfahren Anpassung der Berechnungsvorschrift für V, so dass V die Trainingsbeispiele möglichst gut annähert Anpassung: Parametervariation Übergang zu einer neuen Hypothese Konstruktion einer neuen Hypothese Maß für Annäherung: Übereinstimmung auf Trainings-/Testdaten Fehlerminimierung bzgl. Trainings-/Testdaten Übereinstimmung mit Vorwissen Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 31

32 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Lernverfahren Lernsystem als Suchsystem Zustände: Hypothesen für Zielfunktion, z.b.: numerische Funktionen Klassifikatoren Neuronale Netze Entscheidungsbäume Regelsysteme Operatoren: Übergang zu neuer Hypothese anhand von Trainingsbeispielen Zielzustand: korrekte/optimale Hypothese (Approximation der Zielfunktion) Lernverfahren als Suchverfahren Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 32

33 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Lernverfahren Lernsystem als Optimierungssystem Bewertung von Hypothesen: Gute Hypothese erhält hohe Bewertung Fitness Rewards Optimum: alle Aufgaben t T werden gelöst (Gütemaß P) Lernschritte: neue Hypothese mit verbesseter Bewertung Lernverfahren als Optimierungsverfahren Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 33

34 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Lernverfahren iteriertes Vorgehen Testbeispiele zur Evaluierung Abbruchkriterien Ein Schema für ein iteriertes Vorgehen Schritt i : 1) Aufgabe t erzeugen 2) Lösungsvorschlag V i-1 (t) mit Verfahren V i-1 berechnen, 3) Bewertung b(v i-1 (t)) (z.b. durch Lehrer) 4) mit Beispiel [ t, V i-1 (t), b(v i-1 (t)) ] neues Verfahren V i erzeugen. Weiter bei Schritt i+1. Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 34

35 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Lernverfahren Generalisierung: Das Verfahren V wird nur anhand der Trainingsbeispiele optimiert (und anhand von Testbeispielen evaluiert). Ziel ist ein optimales Verfahren für alle Aufgaben t. Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 35

36 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Lernverfahren Güte des Lernsystems abhängig von allen Design-Entscheidungen sowie folgender Hintergrundannahme: Die nicht betrachteten Aufgaben t verhalten sich irgendwie ähnlich wie die bei der Konstruktion verwendeten Aufgaben. Problem: Beachten der zur Generalisierung getroffenen Annahmen (Ähnlichkeit, inductive bias,...). Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 36

37 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Aktuelle Beispiele: Robotersteuerung Textklassifikation Bildklassifikation Suchmaschinen Bioinformatik Lernverfahren Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 37

38 Verallgemeinerung (Generalisierung) Werte für nicht präsentierte Beispiele? Grundsätzlich: Jeder Wert möglich. Beispiel: Boolesche Funktionen Trainingsdaten: f(w,f) = F f(w,w) = W Testdaten: f(f,w) = F Welchen Wert hat f(f,f)? Beispiel: lineare Funktionen im R n : f(x 1,,x n )= a 0 + a 1 x 1 + +a n x n Durch n+1 linear unabhängige Beispiele ist f vollständig bestimmt. Beispiel: Lineare Klassifizierung lässt viel Möglichkeiten für Trennebene Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 38

39 Verallgemeinerung (Generalisierung) Auswahl aus den möglichen Hypothesen durch zusätzliche Annahmen (Inductive Bias), z.b.: - Restriction Bias: Hypothesenmenge beschränkt - Preference Bias: Bevorzugte Hypothesen Oftmals komplexere Annahmen. Die zusätzlichen Annahmen sind oft implizit, z.b. Ähnlichkeit Stetigkeit Sie sind oft Teil des Lernverfahrens, z.b. Entscheidungsbäume Neuronale Netze Approximationsverfahren Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 39

40 Approximationsverfahren Funktionen mit kontinuierlichen Definitionsbereichen: Nur endlich viele Beispiele. Hypothesen aus Kombinationen der Beispiele (Stützpunkte) Hypothesen durch Kombination spezieller Funktionen, z.b. Polynome (Taylor-Reihen) Harmonische Funktionen (Fourier-Reihen) Gauß-Funktionen Klassifikation: Wo ist optimale Klassengrenze (vgl. SVM) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 40

41 Approximationsverfahren Diskretisierung kontinuierlicher Definitionsbereiche: Aufteilung in Gridzellen bzw. Bezug auf Stützpunkte stückweise lineare Fkt.: Treppenfunktion stückweise polynomiale Fkt.: Splines Interpolation über Nachbarzellen, z.b. Linearkombinationen Radial Basis Functions (RBF) Approximation bestimmt über Wert neuer Beispiele (ind. bias) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 41

42 Radial Basis Functions (RBF) Kernfunktion : K c (x) := K( x-c ) Wert hängt nur vom Abstand zum Zentrum c ab ( Ähnlichkeit zu einem Beispiel oder Stützpunkt c) z.b. als Gauß-Funktion K c (x) = exp( - ( x-c 2 /2σ 2 ) ) Approximation einer Funktion f durch gewichtete Linearkombination: f(x) = w 0 + i=1,..k w i K i ( x-c i ) Lernverfahren: K i, (d.h. c i, σ i ) und Gewichte w i lernen RBF Network: Lernverfahren Neuronaler Netze anwenden. Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 42

43 Verallgemeinerung (Generalisierung) Rechtfertigung der Zusatzannahmen? Annahmen über Realität, z.b. Ähnlichkeit Stetigkeit Einfachheit (Ockhams Razor) Fehlerbetrachtung: auf Trainingsdaten auf zusätzlichen Testdaten Statistische Verfahren Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 43

44 Überanpassung (Overfitting) Schlechte Generalisierung wenn Hypothese zu genau der Trainingsmenge entspricht z.b. bei Fehlerhaften Trainingsdaten Ungeeigneten Merkmalen Einfache Hypothesen bevorzugen (Ockhams Rasor) Korrektur mit zusätzlichen Testdaten Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 44

45 Fehlerbetrachtung/Optimierung Mögliches Problem: Keine Hypothese kann Trainingsmenge korrekt darstellen Mögliche Ursachen: 1) Beschränkung des Hypothesenraumes zu stark Beispiel: Nicht-lineare Funktion f durch lineare Funktion g approximieren: f(x 1,,x n ) g(x 1,,x n ) = a 0 + a 1 x 1 +.+a n x n 2) Trainingsdaten inkonsistent (verrauscht) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 45

46 Fehlerbetrachtung/Optimierung Hypothese h so wählen, dass Fehlermaß f-h minimiert wird Optimierung der Fehler bzgl. Trainingsmenge Testmenge Generalisierung Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 46

47 Fehlerbetrachtung/Optimierung Beispiel: Verrauschte Trainingsdaten bei Klassifizierung Realität liefert verrauschte Klassifizierung von Objekt x, Wahrscheinlichkeit P([x,1])= p >0.5 P([x,0])= 1-p < 0.5 Betrachten Hypothese mit Zuordnung h(x)=1 mit Wkt. q, h(x)=0 mit Wkt. 1-q Fehler bei falscher Zuordnung von 0 zu 1, Wkt.: q(1-p) Fehler bei falscher Zuordnung von 1 zu 0, Wkt.: p(1-q) Wkt. Für Fehler insgesamt: e= p+q -2 pq = p + (1-2p)q Minimum bei q=0 für p<0.5 bzw. q=1 für p>0.5 Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 47

48 Probleme im Maschinellen Lernen Mit welchen Algorithmen kann die Zielfunktion am besten aus speziellen Beispielen (Trainingsmenge) gelernt werden? Wie kann die Qualität des gelernten Funktion evaluiert werden (Abbruchbedingung, Anforderungen an Trainingsmenge)? Wie kann Vorwissen benutzt werden? Wie sollen die Trainingsbeispiele präsentiert werden (Reihenfolge, Korrektheit)? Wie kann das Lernen vereinfacht werden (Reduktion von Komplexität, Veränderung der Darstellung)? Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 48

49 ZUSAMMENFASSUNG Lernen ist eine wesentliche Eigenschaft von Organismen. Lernen spielt in vielen Disziplinen eine Rolle. Maschinelles Lernen ist vielseitig einsetzbar, speziell für unbekannte/ schwer beschreibbare/ schwer berechenbare Probleme. Lernen kann als Suche (nach der besten Hypothese) betrachtet werden. Lernen kann als Optimierungsproblem betrachtet werden. Das Training erfolgt mittels ausgewählter Beispieldaten. Durch Generalisierung sollen auch nicht trainierte Aufgaben gelöst werden können. Ein Lernproblem umfasst genau spezifizierte Aufgaben, ein Gütemaß und Trainingsbeispiele. Die Spezifikation eines Lernsystems umfasst viele Entwurfsentscheidungen. Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 49

Maschinelles Lernen. Moderne Methoden der KI: Maschinelles Lernen. Definitionen: Was ist Lernen? Definitionen: Was ist Lernen? 1.

Maschinelles Lernen. Moderne Methoden der KI: Maschinelles Lernen. Definitionen: Was ist Lernen? Definitionen: Was ist Lernen? 1. Moderne Methoden der KI: Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung Sommer-Semester 2007 1. Einführung: Definitionen Grundbegriffe Lernsysteme Lernen: Grundbegriffe Lernsysteme Konzept-Lernen Entscheidungsbäume

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung Sommer-Semester 2009 1. Einführung: Definitionen Grundbegriffe Lernsysteme Maschinelles Lernen Lernen: Grundbegriffe

Mehr

1. Lernen von Konzepten

1. Lernen von Konzepten 1. Lernen von Konzepten Definition des Lernens 1. Lernen von Konzepten Lernziele: Definitionen des maschinellen Lernens kennen, Klassifikationen des maschinellen Lernens kennen, Das Prinzip des induktiven

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume

Mehr

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen Kapitel ML: I I. Einführung Beispiele für Lernaufgaben Spezifikation von Lernproblemen ML: I-8 Introduction c STEIN/LETTMANN 2005-2010 Beispiele für Lernaufgaben Autoeinkaufsberater Welche Kriterien liegen

Mehr

Kapitel LF: I. Beispiele für Lernaufgaben. Beispiele für Lernaufgaben. LF: I Introduction c STEIN

Kapitel LF: I. Beispiele für Lernaufgaben. Beispiele für Lernaufgaben. LF: I Introduction c STEIN Kapitel LF: I I. Einführung in das Maschinelle Lernen Bemerkungen: Dieses Kapitel orientiert sich an dem Buch Machine Learning von Tom Mitchell. http://www.cs.cmu.edu/ tom/mlbook.html 1 Autoeinkaufsberater?

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

Neuronale Netze (Konnektionismus)

Neuronale Netze (Konnektionismus) Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Daniel Göhring Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 19.12.2013 Allgemeine Problemstellung

Mehr

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002)

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) 3. Entscheidungsbäume Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) (aus Wilhelm 2001) Beispiel: (aus Böhm 2003) Wann sind Entscheidungsbäume

Mehr

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil

Mehr

RL und Funktionsapproximation

RL und Funktionsapproximation RL und Funktionsapproximation Bisher sind haben wir die Funktionen V oder Q als Tabellen gespeichert. Im Allgemeinen sind die Zustandsräume und die Zahl der möglichen Aktionen sehr groß. Deshalb besteht

Mehr

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze. Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Grundlagen des Maschinellen Lernens Kap. 1: Einleitung

Grundlagen des Maschinellen Lernens Kap. 1: Einleitung Gliederung der Vorlesung 1. Einleitung Einführende Beispiele Grundszenario des induktiven Lernens 2. Induktives Lernen von formalen Sprachen Patterns & Patternsprachen Lernproblem und Lösung Szenario des

Mehr

Mustererkennung und Klassifikation

Mustererkennung und Klassifikation Mustererkennung und Klassifikation WS 2007/2008 Fakultät Informatik Technische Informatik Prof. Dr. Matthias Franz mfranz@htwg-konstanz.de www-home.htwg-konstanz.de/~mfranz/heim.html Grundlagen Überblick

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)

Mehr

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte

Mehr

Neuronale Netze Aufgaben 3

Neuronale Netze Aufgaben 3 Neuronale Netze Aufgaben 3 martin.loesch@kit.edu (0721) 608 45944 MLNN IN FLOOD3 2 Multi Layer Neural Network (MLNN) Netzaufbau: mehrere versteckte (innere) Schichten Lernverfahren: Backpropagation-Algorithmus

Mehr

Übersicht. Allgemeines Modell lernender Agenten. Lernende Agenten (1) Lernende Agenten (2)

Übersicht. Allgemeines Modell lernender Agenten. Lernende Agenten (1) Lernende Agenten (2) Übersicht Allgemeines Modell lernender Agenten I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen

Mehr

Data Mining - Wiederholung

Data Mining - Wiederholung Data Mining - Wiederholung Norbert Fuhr 18. Januar 2006 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)

Mehr

Inhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume

Inhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume 4. Klassifikation Inhalt 4.1 Motivation 4.2 Evaluation 4.3 Logistische Regression 4.4 k-nächste Nachbarn 4.5 Naïve Bayes 4.6 Entscheidungsbäume 4.7 Support Vector Machines 4.8 Neuronale Netze 4.9 Ensemble-Methoden

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Teil 12 Bernhard Nessler Institut für Grundlagen der Informationsverabeitung TU Graz SS 2007 Übersicht 1 Maschinelles Lernen Definition Lernen 2 agnostic -learning Definition

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.

Mehr

Decision Tree Learning

Decision Tree Learning Decision Tree Learning Computational Linguistics Universität des Saarlandes Sommersemester 2011 28.04.2011 Entscheidungsbäume Repräsentation von Regeln als Entscheidungsbaum (1) Wann spielt Max Tennis?

Mehr

Lernen mit Queries. Hans Kleine Büning Institut für Informatik, Universität Paderborn Paderborn (Germany),

Lernen mit Queries. Hans Kleine Büning Institut für Informatik, Universität Paderborn Paderborn (Germany), Lernen mit Queries Hans Kleine Büning Institut für Informatik, Universität Paderborn 33095 Paderborn (Germany), E-mail: kbcsl @upb.de November 2007 1 Einführung In diesem Abschnitt beschreiben wir kurz,

Mehr

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) 29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein

Mehr

Konzepte der AI Neuronale Netze

Konzepte der AI Neuronale Netze Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale

Mehr

Einführung in Support Vector Machines (SVMs)

Einführung in Support Vector Machines (SVMs) Einführung in (SVM) Januar 31, 2011 Einführung in (SVMs) Table of contents Motivation Einführung in (SVMs) Outline Motivation Vektorrepräsentation Klassifikation Motivation Einführung in (SVMs) Vektorrepräsentation

Mehr

Pareto optimale lineare Klassifikation

Pareto optimale lineare Klassifikation Seminar aus Maschinellem Lernen Pareto optimale lineare Klassifikation Vesselina Poulkova Betreuer: Eneldo Loza Mencía Gliederung 1. Einleitung 2. Pareto optimale lineare Klassifizierer 3. Generelle Voraussetzung

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

5 Interpolation und Approximation

5 Interpolation und Approximation 5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)

Mehr

Wie können Computer lernen?

Wie können Computer lernen? Wie können Computer lernen? Ringvorlesung Perspektiven der Informatik, 18.2.2008 Prof. Jun. Matthias Hein Department of Computer Science, Saarland University, Saarbrücken, Germany Inferenz I Wie lernen

Mehr

Information und Produktion. Rolland Brunec Seminar Wissen

Information und Produktion. Rolland Brunec Seminar Wissen Information und Produktion Rolland Brunec Seminar Wissen Einführung Informationssystem Einfluss des Internets auf Organisation Wissens-Ko-Produktion Informationssystem (IS) Soziotechnisches System Dient

Mehr

Inhaltsverzeichnis. 4 Statistik Einleitung Wahrscheinlichkeit Verteilungen Grundbegriffe 98

Inhaltsverzeichnis. 4 Statistik Einleitung Wahrscheinlichkeit Verteilungen Grundbegriffe 98 Inhaltsverzeichnis 1 Datenbehandlung und Programmierung 11 1.1 Information 11 1.2 Codierung 13 1.3 Informationsübertragung 17 1.4 Analogsignale - Abtasttheorem 18 1.5 Repräsentation numerischer Daten 20

Mehr

Konzepte der AI: Maschinelles Lernen

Konzepte der AI: Maschinelles Lernen Konzepte der AI: Maschinelles Lernen Nysret Musliu, Wolfgang Slany Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme, TU-Wien Übersicht Was ist Lernen? Wozu maschinelles

Mehr

Kapitel 2.1: Die stochastische Sicht auf Signale Georg Dorffner 67

Kapitel 2.1: Die stochastische Sicht auf Signale Georg Dorffner 67 Kapitel 2.1: Die stochastische Sicht auf Signale 215 Georg Dorffner 67 Stochastische Prozesse Stochastische Prozesse sind von Zufall geprägte Zeitreihen x n f x, n 1 xn2,... n vorhersagbarer Teil, Signal

Mehr

Kapitel V. V. Ensemble Methods. Einführung Bagging Boosting Cascading

Kapitel V. V. Ensemble Methods. Einführung Bagging Boosting Cascading Kapitel V V. Ensemble Methods Einführung Bagging Boosting Cascading V-1 Ensemble Methods c Lettmann 2005 Einführung Bewertung der Generalisierungsfähigkeit von Klassifikatoren R (c) wahre Missklassifikationsrate

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten

Mehr

Data Mining und Statistik: Gemeinsamkeiten und Unterschiede. Daniel Meschenmoser

Data Mining und Statistik: Gemeinsamkeiten und Unterschiede. Daniel Meschenmoser Data Mining und Statistik: Gemeinsamkeiten und Unterschiede Daniel Meschenmoser Übersicht Gemeinsamkeiten von Data Mining und Statistik Unterschiede zwischen Data Mining und Statistik Assoziationsregeln

Mehr

Data Mining Anwendungen und Techniken

Data Mining Anwendungen und Techniken Data Mining Anwendungen und Techniken Knut Hinkelmann DFKI GmbH Entdecken von Wissen in banken Wissen Unternehmen sammeln ungeheure mengen enthalten wettbewerbsrelevantes Wissen Ziel: Entdecken dieses

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Data Mining auf Datenströmen Andreas M. Weiner

Data Mining auf Datenströmen Andreas M. Weiner Technische Universität Kaiserslautern Fachbereich Informatik Lehrgebiet Datenverwaltungssysteme Integriertes Seminar Datenbanken und Informationssysteme Sommersemester 2005 Thema: Data Streams Andreas

Mehr

Einführung. Einführung in die Methoden der Künstlichen Intelligenz. Maschinelles Lernen. Lernen und Agenten. Beispiele

Einführung. Einführung in die Methoden der Künstlichen Intelligenz. Maschinelles Lernen. Lernen und Agenten. Beispiele Einführung Einführung in die Methoden der Künstlichen Intelligenz Maschinelles Lernen Dr. David Sabel WS 2012/13 Direkte Programmierung eines intelligenten Agenten nicht möglich (bisher) Daher benötigt:

Mehr

Funktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen

Funktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen 5. Klassifikation 5.6 Support Vector Maschines (SVM) übernommen von Stefan Rüping, Katharina Morik, Universität Dortmund Vorlesung Maschinelles Lernen und Data Mining, WS 2002/03 und Katharina Morik, Claus

Mehr

Kapitel 5: Ensemble Techniken

Kapitel 5: Ensemble Techniken Ludwig Maximilians Universität München Institut für Informatik Lehr- und Forschungseinheit für Datenbanksysteme Skript zur Vorlesung Knowledge Discovery in Databases II im Sommersemester 2009 Kapitel 5:

Mehr

Principal Component Analysis (PCA)

Principal Component Analysis (PCA) Principal Component Analysis (PCA) Motivation: Klassifikation mit der PCA Berechnung der Hauptkomponenten Theoretische Hintergründe Anwendungsbeispiel: Klassifikation von Gesichtern Weiterführende Bemerkungen

Mehr

Einführung in das Maschinelle Lernen I

Einführung in das Maschinelle Lernen I Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL

Mehr

Grundlagen Neuronaler Netze

Grundlagen Neuronaler Netze Grundlagen Neuronaler Netze Neuronen, Aktivierung, Output, Netzstruktur, Lernziele, Training, Grundstruktur Der Begriff neuronales Netz(-werk) steht immer für künstliche neuronale Netzwerke, wenn nicht

Mehr

3.3 Nächste-Nachbarn-Klassifikatoren

3.3 Nächste-Nachbarn-Klassifikatoren 3.3 Nächste-Nachbarn-Klassifikatoren Schrauben Nägel Klammern Neues Objekt Instanzbasiertes Lernen (instance based learning) Einfachster Nächste-Nachbar-Klassifikator: Zuordnung zu der Klasse des nächsten

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Die Datenmatrix für Überwachtes Lernen

Die Datenmatrix für Überwachtes Lernen Die Datenmatrix für Überwachtes Lernen X j j-te Eingangsvariable X = (X 0,..., X M 1 ) T Vektor von Eingangsvariablen M Anzahl der Eingangsvariablen N Anzahl der Datenpunkte Y Ausgangsvariable x i = (x

Mehr

Entscheidungsbäume aus großen Datenbanken: SLIQ

Entscheidungsbäume aus großen Datenbanken: SLIQ Entscheidungsbäume aus großen Datenbanken: SLIQ C4.5 iteriert häufig über die Trainingsmenge Wie häufig? Wenn die Trainingsmenge nicht in den Hauptspeicher passt, wird das Swapping unpraktikabel! SLIQ:

Mehr

Ergänzungsfach Sport Pete Moor Gymnasium Biel-Seeland Wahrnehmen-Entscheiden-Handeln 1. Lernen im Sport

Ergänzungsfach Sport Pete Moor Gymnasium Biel-Seeland Wahrnehmen-Entscheiden-Handeln 1. Lernen im Sport Lernen im Sport Was haben Sie heute gelernt? Wo steht das Netz? 2 Was haben Sie gelernt? Sehr gut! Bravo! Sie haben gelernt! Was ist bei Ihnen passiert resp. wie würden Sie Lernen definieren? 3 Lernen

Mehr

3. Das Reinforcement Lernproblem

3. Das Reinforcement Lernproblem 3. Das Reinforcement Lernproblem 1. Agierender Agent in der Umgebung 2. Discounted Rewards 3. Markov Eigenschaft des Zustandssignals 4. Markov sche Entscheidung 5. Werte-Funktionen und Bellman sche Optimalität

Mehr

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen 6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1

Mehr

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3 Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................

Mehr

4. Lernen von Entscheidungsbäumen

4. Lernen von Entscheidungsbäumen 4. Lernen von Entscheidungsbäumen Entscheidungsbäume 4. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Genetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008

Genetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008 Genetische Algorithmen Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 8. Juli 2008 Inhalt Einführung Algorithmus Erweiterungen alternative Evolutions- und Lernmodelle Inhalt 1 Einführung

Mehr

Neuronale Netze. Christian Böhm.

Neuronale Netze. Christian Böhm. Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Gliederung Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung.6.015 1 von 33 von 33 Ausgangspunkt: Funktionsapproximation Aufteilen der

Mehr

, Data Mining, 2 VO Sommersemester 2008

, Data Mining, 2 VO Sommersemester 2008 Evaluation 188.646, Data Mining, 2 VO Sommersemester 2008 Dieter Merkl e-commerce Arbeitsgruppe Institut für Softwaretechnik und Interaktive Systeme Technische Universität Wien www.ec.tuwien.ac.at/~dieter/

Mehr

Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme

Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume von Lars-Peter Meyer im Seminar Methoden wissensbasierter Systeme bei Prof. Brewka im WS 2007/08 Übersicht Überblick maschinelles Lernen

Mehr

Methoden zur Cluster - Analyse

Methoden zur Cluster - Analyse Kapitel 4 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics

Mehr

Klassifikation und Ähnlichkeitssuche

Klassifikation und Ähnlichkeitssuche Klassifikation und Ähnlichkeitssuche Vorlesung XIII Allgemeines Ziel Rationale Zusammenfassung von Molekülen in Gruppen auf der Basis bestimmter Eigenschaften Auswahl von repräsentativen Molekülen Strukturell

Mehr

Einführung in die Lernpsychologie

Einführung in die Lernpsychologie Dr. Andreas Eickhorst Pädagogische Psychologie Einführung in die Lernpsychologie 1. Was ist Lernen? Gliederung 2. Reflexe, Instinkte und Reifung 3. Neurologische Grundlagen 4. Formen des Lernens Was ist

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2.

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2. MATHEMATISCHES INSTITUT PROF. DR. ACHIM SCHÄDLE 9.8.7 KLAUSUR zur Numerik I mit Lösungen Aufgabe : ( Punkte) [ wahr falsch ]. Die maximale Ordnung einer s-stufigen Quadraturformel ist s. [ ]. Der Clenshaw

Mehr

Die Maximum-Likelihood-Methode

Die Maximum-Likelihood-Methode Vorlesung: Computergestützte Datenauswertung Die Maximum-Likelihood-Methode Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft

Mehr

Validation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation

Validation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation Validation Oktober, 2013 1 von 20 Validation Lernziele Konzepte des maschinellen Lernens Validierungsdaten Model Selection Kreuz-Validierung (Cross Validation) 2 von 20 Validation Outline 1 Validation

Mehr

Ideen und Konzepte der Informatik. Maschinelles Lernen. Kurt Mehlhorn

Ideen und Konzepte der Informatik. Maschinelles Lernen. Kurt Mehlhorn Ideen und Konzepte der Informatik Maschinelles Lernen Kurt Mehlhorn Übersicht Lernen: Begriff Beispiele für den Stand der Kunst Spamerkennung Handschriftenerkennung mit und ohne Trainingsdaten Gesichts-

Mehr

Softwareprojektpraktikum Maschinelle Übersetzung

Softwareprojektpraktikum Maschinelle Übersetzung Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl max.bleu@i6.informatik.rwth-aachen.de Vorbesprechung 5. Aufgabe 22. Juni 2017 Human Language Technology

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Bachelorarbeit Erkennung von Fließtext in PDF-Dokumenten

Bachelorarbeit Erkennung von Fließtext in PDF-Dokumenten Bachelorarbeit Erkennung von Fließtext in PDF-Dokumenten 16.08.2016 David Spisla Albert Ludwigs Universität Freiburg Technische Fakultät Institut für Informatik Gliederung Motivation Schwierigkeiten bei

Mehr

6. Polynom-Interpolation

6. Polynom-Interpolation 6. Polynom-Interpolation 1 6.1. Klassische Polynom-Interpolation 2 6.2. Lösung mit Hilfe Lagrange scher Basisfunktionen 3 6.3. Lösung mit Hilfe Newton scher Basisfunktionen 4 6.4. Fehlerabschätzung für

Mehr

Probleme aus NP und die polynomielle Reduktion

Probleme aus NP und die polynomielle Reduktion Probleme aus NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 15. Dezember 2009 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit

Mehr

Samuel's Checkers Program

Samuel's Checkers Program Samuel's Checkers Program Seminar: Knowledge Engineering und Lernen in Spielen 29.06.2004 Ge Hyun Nam Überblick Einleitung Basis Dame-Programm Maschinelles Lernen Auswendiglernen Verallgemeinerndes Lernen

Mehr

Reinforcement Learning

Reinforcement Learning Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement Learning Uwe Dick Inhalt Problemstellungen Beispiele Markov Decision Processes Planen vollständige MDPs Lernen unbekannte

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend

Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend oder eindeutig, wenn keine alternativen Interpretationsmöglichkeiten

Mehr

Vorlesung: Künstliche Intelligenz

Vorlesung: Künstliche Intelligenz Vorlesung: Künstliche Intelligenz - KI heute, KI morgen, KI übermorgen- D P LS G ML ES S ST SA NN ME O EA SV Künstliche Intelligenz Miao Wang 1 Inhaltliche Planung für die Vorlesung 1) Definition und Geschichte

Mehr

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134 Training von RBF-Netzen Rudolf Kruse Neuronale Netze 34 Radiale-Basisfunktionen-Netze: Initialisierung SeiL fixed ={l,...,l m } eine feste Lernaufgabe, bestehend ausmtrainingsbeispielenl=ı l,o l. Einfaches

Mehr

5. Numerische Differentiation. und Integration

5. Numerische Differentiation. und Integration 5. Numerische Differentiation und Integration 1 Numerische Differentiation Problemstellung: Gegeben ist eine differenzierbare Funktion f : [a,b] R und x (a,b). Gesucht sind Näherungen für die Ableitungen

Mehr

Algorithmische Methoden für schwere Optimierungsprobleme

Algorithmische Methoden für schwere Optimierungsprobleme Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 2.6.2015 1 von 33 Gliederung 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung 2 von 33 Ausgangspunkt: Funktionsapproximation Die bisher

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs

Mehr

Innere-Punkt-Methoden

Innere-Punkt-Methoden Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction

Mehr

k-nächste-nachbarn-schätzung

k-nächste-nachbarn-schätzung k-nächste-nachbarn-schätzung Mustererkennung und Klassifikation, Vorlesung No. 7 1 M. O. Franz 29.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Statistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II

Statistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II Statistik II Lineare Regressionsrechnung Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II - 09.06.2006 1 Mit der Kovarianz und dem Korrelationskoeffizienten können wir den statistischen

Mehr

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining.

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining. Personalisierung Personalisierung Thomas Mandl Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung Klassifikation Die Nutzer werden in vorab bestimmte Klassen/Nutzerprofilen

Mehr

Teil 5. Maschinelles Lernen

Teil 5. Maschinelles Lernen Teil 5 Maschinelles Lernen Definitionen und Abgrenzungen Was ist Lernen? Zentrale Fähigkeit von intelligenten Systemen in Natur und KI Zielgerichtete Veränderung von Wissen und/oder Verhaltensweisen durch

Mehr

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer Organisation Vorlesung/Übung, praktische

Mehr

Darstellung von Kurven und Flächen

Darstellung von Kurven und Flächen Darstellung von Kurven und Flächen Technische Universität Dresden Fakultät Informatik Institut für Software- und Multimediatechnik Dozent: Dr. Mascolous Referent: Gliederung / Einleitung 1 / 25 1. Kurven

Mehr

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir

Mehr

Vorlesung. Data und Web Mining. Kurzinformation zur. Univ.-Prof. Dr. Ralph Bergmann. Lehrstuhl für Wirtschaftsinformatik II

Vorlesung. Data und Web Mining. Kurzinformation zur. Univ.-Prof. Dr. Ralph Bergmann.  Lehrstuhl für Wirtschaftsinformatik II Kurzinformation zur Vorlesung Data und Web Mining Univ.-Prof. Dr. Ralph Bergmann www.wi2.uni-trier.de - I - 1 - Die Ausgangssituation (1) Unternehmen und Organisationen haben enorme Datenmengen angesammelt

Mehr

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze? Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic

Mehr

Die Klasse NP und die polynomielle Reduktion

Die Klasse NP und die polynomielle Reduktion Die Klasse NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen Dezember 2011 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit

Mehr