Moderne Methoden der KI: Maschinelles Lernen
|
|
- Lisa Lorenz
- vor 7 Jahren
- Abrufe
Transkript
1 Moderne Methoden der KI: Maschinelles Lernen Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung Sommer-Semester 2010 Grundlagen Definitionen Grundbegriffe Lernsysteme Generalisierung
2 Maschinelles Lernen Lernen: Grundbegriffe Lernsysteme Konzept-Lernen Entscheidungsbäume Fallbasiertes Schließen Reinforcement-Lernen Mitchell: Machine Learning. Lenz et al: Case-Based Reasoning Technology, From Foundations to Applications. Quinlan: C4.5: Programs for Machine Learning. Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 2
3 Definitionen: Was ist Lernen? Wikipedia, Juni 2010 Unter Lernen versteht man den absichtlichen (intentionales Lernen) und den beiläufigen (inzidentelles und implizites Lernen), individuellen oder kollektiven Erwerb von geistigen, körperlichen, sozialen Kenntnissen, Fähigkeiten und Fertigkeiten. Aus lernpsychologischer Sicht wird Lernen als ein Prozess der relativ stabilen Veränderung des Verhaltens, Denkens oder Fühlens aufgrund von Erfahrung oder neu gewonnenen Einsichten und des Verständnisses (verarbeiteter Wahrnehmung der Umwelt oder Bewusstwerdung eigener Regungen) aufgefasst. Die Fähigkeit zu lernen ist für Mensch und Tier eine Grundvoraussetzung dafür, sich den Gegebenheiten des Lebens und der Umwelt anpassen zu können, darin sinnvoll zu agieren und sie gegebenenfalls im eigenen Interesse zu verändern. So ist für den Menschen die Fähigkeit zu lernen auch eine Voraussetzung für Bildung, also ein reflektiertes Verhältnis zu sich, zu den anderen und zur Welt. Die Resultate des Lernprozesses sind nicht immer von den Lernenden in Worte fassbar (implizites Wissen) oder eindeutig messbar. Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 3
4 Definitionen: Was ist Lernen? Definition nach Metzler Philosophie Lexikon : Jede Form von Leistungssteigerung, die durch gezielte Anstrengung erreicht wurde. bzw. als psycholog. Sicht : Jede Verhaltensänderung, die sich auf Erfahrung, Übung oder Beobachtung zurückführen läßt Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 4
5 Was wird verändert - 2 Varianten (nach Metzler ) (1) Stimulus-Response-Verhalten (Assoziationen) klassische Konditionierung: Kopplung an bestehendes Verhalten: Pawlowscher Hund operante Konditionierung: spontane Reaktion bewerten: verstärken/abschwächen (2) (Kognitive) Repräsentationen ändern Fähigkeiten Umweltmodell Problemlösungsstrategien Motive Gefühle... Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 5
6 Definitionen: Was ist Lernen? Definition nach Meyers Großes Taschenlexikon (1992) : Durch Erfahrung entstandene, relativ überdauernde Verhaltensänderung bzw. -möglichkeiten. (Prozess), der bestimmte Organismen, jedoch auch technische Anlagen (z.b. Automaten) befähigt, auf Grund früherer Erfahrungen und durch organ. Eingliederung weiterer Erfahrungen situationsangemessen zu reagieren. Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 6
7 Formen des Lernens (nach Meyer ) Einsichtiges Lernen (Bewusstsein erforderlich) Dressur Versuch und Irrtum Menschl. Lernen ist eine überwiegend einsichtige, aktive, sozial vermittelte Aneignung von Kenntnissen und Fertigkeiten, Überzeugungen und Verhaltensweisen. Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 7
8 Formen des Lernens (nach Meyer ) 4 Phasen menschl. Lernens: Vorbereitung (Wahrnehmung) Aneignung (Assoziation als Verknüpfungsprozeß) Speicherung (Kodierung, Gedächtnis) Erinnerung (Dekodierung, Reaktion) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 8
9 Arten/Strukturen des Lernens (nach Meyer ) Wahrnehmungslernen (Gehörschulung) motorisches Lernen (Schwimmen) verbales Lernen (Vokabeln) kognitives Lernen (Begriffe, Regeln) soziales Lernen (soziales Verhalten) Signal-Lernen, Verstärkungslernen Imitationslernen Begriffs-/Konzeptlernen Strukturierung Problemlösen Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 9
10 Voraussetzungen für Lernbarkeit Gleiches Verhalten in gleicher Situation erfolgreich Allgemeiner: Ähnliches Verhalten in ähnlicher Situation erfolgreich Möglichkeit zur Verallgemeinerung: Allgemeine Gültigkeit des an Beispielen Gelernten (im entsprechenden Bereich) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 10
11 Aufgabe Setzen Sie die Zahlenreihe fort: 1, 2, 4,... Fragen: Was wurde gelernt? Warum gerade das? Allgemeine Gültigkeit des an Beispielen Gelernten? Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 11
12 Maschinelles Lernen Funktion f : O W W f(x) O x Beispielwerte bekannt allgemeine Berechnung unbekannt/zu komplex x? f(x) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 12
13 Maschinelles Lernen Alternativen ( Hypothesen ) für Berechnung von f x f(x) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 13
14 Maschinelles Lernen Test/Konstruktion von Hypothesen anhand von Beispielen ( Trainingsmenge ) x f(x) Bewertung der Hypothesen bzgl. der Beispiele Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 14
15 Maschinelles Lernen Ziel: Korrekte/Beste Hypothese finden (Suchproblem/Optimierungsproblem) x f(x) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 15
16 Maschinelles Lernen Korrekte/Beste Hypothese finden Methode: Beispiele ( Erfahrungen ) verallgemeinern Fehler minimieren Verallgemeinerung = Annahmen über Funktionswerte für alle (auch nicht gesehene!) Werte x f(x) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 16
17 Maschinelles Lernen Bezug zu: Statistik, Optimierung, KI, Kognition, Information, Komplexität, Regelung/Steuerung, Robotik, Philosophie, Psychologie, Biologie,... Verfahren: Konzeptlernen, Entscheidungsbäume, Regeln, Fallbasiertes Schließen, Neuronale Netze, Bayessches Lernen, Genetische/Evolutionäre Algorithmen, Verstärkungslernen (Reinforcement L.),... Anwendungen: Spracherkennung, Schrifterkennung, Kreditkartenmissbrauch, Data Mining, Profiling, Scheduling, Sensorik und Aktorik von Robotern,... Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 17
18 Grundbegriffe 1 Individuelles Lernen Programm, Roboter (Ergebnis übertragbar: kopieren) Gruppe/Organisation Individuelles Lernen innerhalb Gruppe Struktur, Beziehungen der Gruppe verändern Neue Individuen (Evolution) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 18
19 Grundbegriffe 2: Vorgaben Beispiele (Lernmenge, Trainings- und Testdaten) Bewertung/Credit Assignment Problem/Optimierung: Was ist korrekt/besser (Klassenzugehörigkeit, Fitness, Reward, ) Woher kommt Bewertung Lehrer (supervised) Ohne Lehrer (unsupervised) Verallgemeinerung (Generalisierung) Verhalten auf nicht präsentierten Beispielen (evtl. implizit) Grundstrukturen Repräsentationen: Hypothesen Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 19
20 Definition: Maschinelles Lernen Definition von Tom M. Mitchell Machine Learning : A Computer Program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as measured by P, improves with experience E. T: Menge von Aufgaben t E: Beispiele d bzgl. T P: globale Leistungsfähigkeit (Gütemaß) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 20
21 Beispiel: Klassifikation Menge O von Objekten o mit jeweils n Merkmalen m(o) = [m 1,...,m n ] M Klasseneinteilung von O: K = K 1,...,K k Klasse von o: K(o) n=2 K 1 X o K 2 K 3 K(o)= K 1 Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 21
22 Beispiel: Klassifikation T: Menge von Aufgaben t Klassifikator gesucht: κ: M K Aufgabe t : Klassifikation κ(m(o)) für jeweils ein Objekt o Bewertung: Klassifikation korrekt, falls κ(m(o))=k(o) X E: Beispiele bzgl. T Paare: Aufgabe m(o) /Lösung K(o) K 1 X X X X X X X X X X K 2 X X X K 3 X P: globales Korrektheitsmaß des Klassifikators κ z.b. Anzahl korrekter Klassifikationen / Gesamtzahl Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 22
23 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Lernverfahren Auswahl aus Möglichkeiten bzgl. Aufgabenmenge T Gütemaß P Erfahrung E (woraus lernt System): Information Navigation Verteilung Verfahren (was soll System lernen: Funktion) Inhaltlich (z.b. Schrifterkennung) formale Repräsentation (z.b. Neuronales Netz) Algorithmus (wie sollen Systeme lernen) z.b. Backpropagation Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 23
24 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Test-Beispiele d Erfahrung E Information Navigation Verteilung Trainings- Beispiele d Lern-Verfahren: Konstruiere bestes V aus einer Menge von Hypothesen Verfahren V inhaltlich formal Lernverfahren Aufgabe t Verfahren V für alle t T Lösung V(t) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 24
25 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Lernverfahren t : individuelle Aufgabe aus Menge T V(t) : Lösung von t gemäß Verfahren V b(v(t)): Bewertung von V(t) (optimale Lösung: V*(t) Verfahren V* ist i.a. unbekannt oder zu aufwändig) Lernproblem als Konstruktions-/Optimierungs-/Suchproblem für ein Verfahren V, anwendbar für alle t T, das im Sinne von P möglichst optimal arbeitet (Approximation von V*) Gütemaß P : z.b. wieviele Aufgaben t werden durch V wie gut gelöst Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 25
26 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Beschränkung des Suchraumes: Umfang der Aufgabenmenge T Strukturierung der Aufgaben t T (Feintuning in grob entwickelter Struktur) Merkmale auswählen, z.b. gemäß a) Reduktion von Merkmalen (Redundanz) b) Reduktion von Merkmalen (Transformation) c) Wichtigkeit, Skalierung a b c Lernverfahren Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 26
27 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Beispiele für Auswahl von Merkmalen: - Hauptkomponenten-Analyse (Principal Component Analysis, PCA) Richtungen maximaler Information (Varianz) - Analyse von Dokumentensammlungen: Schlüsselwörter (Lexika erstellen) Kookkurenzen - Bestimmung charakteristischer Features in Bildern (möglichst unabhängig von Skalierung und Rotation) SIFT (Scale Invariant Feature Transform) SURF (Speeded Up Robust Features ) Lernverfahren Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 27
28 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Lernverfahren Information: Beispiele, Fälle [t,l,b] t: Aufgabe, l: Lösung, b: Bewertung nur positive Beispiele [ t,l,+ ] ( gelöste Fälle ) bewertete Beispiele: [ t,l,b ] direct feedback für Bewertung b als Bestandteil des Falles als unmittelbare Antwort durch Lehrer (supervised learning) indirect feedback für Bewertung b als spätere Antwort auf mehrere Entscheidungen Credit Assignment Problem Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 28
29 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Navigation, Auswahl vorgegebene Fälle zufällige Präsentation gezielte Auswahl des Lerners Verteilung: Wie repräsentativ sind Fälle insgesamt bzgl. späterer Anwendung Lernverfahren Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 29
30 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Lernverfahren Lösungen (Wertebereich von V ), z.b.: konkreter Lösungsvorschlag Nützlichkeiten alternativer Lösungen Start mit intuitiver Anfangsnützlichkeit Ziel: Verbesserung durch Lernen: Approximation des optimalen Verfahrens V* formale (variierbare) Berechnung von V Auswahl von Merkmalen m i für Aufgaben t (Definitionsbereich von V) parametrisierte Berechnungsvorschrift z.b. gewichtete Summe: V(t) = w 1 m 1 + w 2 m w m m m (Variation der Parameter w i beim Lernen) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 30
31 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Lernverfahren Anpassung der Berechnungsvorschrift für V, so dass V die Trainingsbeispiele möglichst gut annähert Anpassung: Parametervariation Übergang zu einer neuen Hypothese Konstruktion einer neuen Hypothese Maß für Annäherung: Übereinstimmung auf Trainings-/Testdaten Fehlerminimierung bzgl. Trainings-/Testdaten Übereinstimmung mit Vorwissen Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 31
32 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Lernverfahren Lernsystem als Suchsystem Zustände: Hypothesen für Zielfunktion, z.b.: numerische Funktionen Klassifikatoren Neuronale Netze Entscheidungsbäume Regelsysteme Operatoren: Übergang zu neuer Hypothese anhand von Trainingsbeispielen Zielzustand: korrekte/optimale Hypothese (Approximation der Zielfunktion) Lernverfahren als Suchverfahren Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 32
33 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Lernverfahren Lernsystem als Optimierungssystem Bewertung von Hypothesen: Gute Hypothese erhält hohe Bewertung Fitness Rewards Optimum: alle Aufgaben t T werden gelöst (Gütemaß P) Lernschritte: neue Hypothese mit verbesseter Bewertung Lernverfahren als Optimierungsverfahren Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 33
34 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Lernverfahren iteriertes Vorgehen Testbeispiele zur Evaluierung Abbruchkriterien Ein Schema für ein iteriertes Vorgehen Schritt i : 1) Aufgabe t erzeugen 2) Lösungsvorschlag V i-1 (t) mit Verfahren V i-1 berechnen, 3) Bewertung b(v i-1 (t)) (z.b. durch Lehrer) 4) mit Beispiel [ t, V i-1 (t), b(v i-1 (t)) ] neues Verfahren V i erzeugen. Weiter bei Schritt i+1. Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 34
35 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Lernverfahren Generalisierung: Das Verfahren V wird nur anhand der Trainingsbeispiele optimiert (und anhand von Testbeispielen evaluiert). Ziel ist ein optimales Verfahren für alle Aufgaben t. Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 35
36 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Lernverfahren Güte des Lernsystems abhängig von allen Design-Entscheidungen sowie folgender Hintergrundannahme: Die nicht betrachteten Aufgaben t verhalten sich irgendwie ähnlich wie die bei der Konstruktion verwendeten Aufgaben. Problem: Beachten der zur Generalisierung getroffenen Annahmen (Ähnlichkeit, inductive bias,...). Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 36
37 Spezifikation eines Lernsystems Aufgaben T Gütemaß P Erfahrung E Information Navigation Verteilung Verfahren V inhaltlich formal Aktuelle Beispiele: Robotersteuerung Textklassifikation Bildklassifikation Suchmaschinen Bioinformatik Lernverfahren Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 37
38 Verallgemeinerung (Generalisierung) Werte für nicht präsentierte Beispiele? Grundsätzlich: Jeder Wert möglich. Beispiel: Boolesche Funktionen Trainingsdaten: f(w,f) = F f(w,w) = W Testdaten: f(f,w) = F Welchen Wert hat f(f,f)? Beispiel: lineare Funktionen im R n : f(x 1,,x n )= a 0 + a 1 x 1 + +a n x n Durch n+1 linear unabhängige Beispiele ist f vollständig bestimmt. Beispiel: Lineare Klassifizierung lässt viel Möglichkeiten für Trennebene Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 38
39 Verallgemeinerung (Generalisierung) Auswahl aus den möglichen Hypothesen durch zusätzliche Annahmen (Inductive Bias), z.b.: - Restriction Bias: Hypothesenmenge beschränkt - Preference Bias: Bevorzugte Hypothesen Oftmals komplexere Annahmen. Die zusätzlichen Annahmen sind oft implizit, z.b. Ähnlichkeit Stetigkeit Sie sind oft Teil des Lernverfahrens, z.b. Entscheidungsbäume Neuronale Netze Approximationsverfahren Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 39
40 Approximationsverfahren Funktionen mit kontinuierlichen Definitionsbereichen: Nur endlich viele Beispiele. Hypothesen aus Kombinationen der Beispiele (Stützpunkte) Hypothesen durch Kombination spezieller Funktionen, z.b. Polynome (Taylor-Reihen) Harmonische Funktionen (Fourier-Reihen) Gauß-Funktionen Klassifikation: Wo ist optimale Klassengrenze (vgl. SVM) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 40
41 Approximationsverfahren Diskretisierung kontinuierlicher Definitionsbereiche: Aufteilung in Gridzellen bzw. Bezug auf Stützpunkte stückweise lineare Fkt.: Treppenfunktion stückweise polynomiale Fkt.: Splines Interpolation über Nachbarzellen, z.b. Linearkombinationen Radial Basis Functions (RBF) Approximation bestimmt über Wert neuer Beispiele (ind. bias) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 41
42 Radial Basis Functions (RBF) Kernfunktion : K c (x) := K( x-c ) Wert hängt nur vom Abstand zum Zentrum c ab ( Ähnlichkeit zu einem Beispiel oder Stützpunkt c) z.b. als Gauß-Funktion K c (x) = exp( - ( x-c 2 /2σ 2 ) ) Approximation einer Funktion f durch gewichtete Linearkombination: f(x) = w 0 + i=1,..k w i K i ( x-c i ) Lernverfahren: K i, (d.h. c i, σ i ) und Gewichte w i lernen RBF Network: Lernverfahren Neuronaler Netze anwenden. Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 42
43 Verallgemeinerung (Generalisierung) Rechtfertigung der Zusatzannahmen? Annahmen über Realität, z.b. Ähnlichkeit Stetigkeit Einfachheit (Ockhams Razor) Fehlerbetrachtung: auf Trainingsdaten auf zusätzlichen Testdaten Statistische Verfahren Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 43
44 Überanpassung (Overfitting) Schlechte Generalisierung wenn Hypothese zu genau der Trainingsmenge entspricht z.b. bei Fehlerhaften Trainingsdaten Ungeeigneten Merkmalen Einfache Hypothesen bevorzugen (Ockhams Rasor) Korrektur mit zusätzlichen Testdaten Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 44
45 Fehlerbetrachtung/Optimierung Mögliches Problem: Keine Hypothese kann Trainingsmenge korrekt darstellen Mögliche Ursachen: 1) Beschränkung des Hypothesenraumes zu stark Beispiel: Nicht-lineare Funktion f durch lineare Funktion g approximieren: f(x 1,,x n ) g(x 1,,x n ) = a 0 + a 1 x 1 +.+a n x n 2) Trainingsdaten inkonsistent (verrauscht) Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 45
46 Fehlerbetrachtung/Optimierung Hypothese h so wählen, dass Fehlermaß f-h minimiert wird Optimierung der Fehler bzgl. Trainingsmenge Testmenge Generalisierung Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 46
47 Fehlerbetrachtung/Optimierung Beispiel: Verrauschte Trainingsdaten bei Klassifizierung Realität liefert verrauschte Klassifizierung von Objekt x, Wahrscheinlichkeit P([x,1])= p >0.5 P([x,0])= 1-p < 0.5 Betrachten Hypothese mit Zuordnung h(x)=1 mit Wkt. q, h(x)=0 mit Wkt. 1-q Fehler bei falscher Zuordnung von 0 zu 1, Wkt.: q(1-p) Fehler bei falscher Zuordnung von 1 zu 0, Wkt.: p(1-q) Wkt. Für Fehler insgesamt: e= p+q -2 pq = p + (1-2p)q Minimum bei q=0 für p<0.5 bzw. q=1 für p>0.5 Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 47
48 Probleme im Maschinellen Lernen Mit welchen Algorithmen kann die Zielfunktion am besten aus speziellen Beispielen (Trainingsmenge) gelernt werden? Wie kann die Qualität des gelernten Funktion evaluiert werden (Abbruchbedingung, Anforderungen an Trainingsmenge)? Wie kann Vorwissen benutzt werden? Wie sollen die Trainingsbeispiele präsentiert werden (Reihenfolge, Korrektheit)? Wie kann das Lernen vereinfacht werden (Reduktion von Komplexität, Veränderung der Darstellung)? Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 48
49 ZUSAMMENFASSUNG Lernen ist eine wesentliche Eigenschaft von Organismen. Lernen spielt in vielen Disziplinen eine Rolle. Maschinelles Lernen ist vielseitig einsetzbar, speziell für unbekannte/ schwer beschreibbare/ schwer berechenbare Probleme. Lernen kann als Suche (nach der besten Hypothese) betrachtet werden. Lernen kann als Optimierungsproblem betrachtet werden. Das Training erfolgt mittels ausgewählter Beispieldaten. Durch Generalisierung sollen auch nicht trainierte Aufgaben gelöst werden können. Ein Lernproblem umfasst genau spezifizierte Aufgaben, ein Gütemaß und Trainingsbeispiele. Die Spezifikation eines Lernsystems umfasst viele Entwurfsentscheidungen. Sommer-Semester 2010 MMKI: Maschinelles Lernen, Einführung 49
Maschinelles Lernen. Moderne Methoden der KI: Maschinelles Lernen. Definitionen: Was ist Lernen? Definitionen: Was ist Lernen? 1.
Moderne Methoden der KI: Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung Sommer-Semester 2007 1. Einführung: Definitionen Grundbegriffe Lernsysteme Lernen: Grundbegriffe Lernsysteme Konzept-Lernen Entscheidungsbäume
MehrModerne Methoden der KI: Maschinelles Lernen
Moderne Methoden der KI: Maschinelles Lernen Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung Sommer-Semester 2009 1. Einführung: Definitionen Grundbegriffe Lernsysteme Maschinelles Lernen Lernen: Grundbegriffe
Mehr1. Lernen von Konzepten
1. Lernen von Konzepten Definition des Lernens 1. Lernen von Konzepten Lernziele: Definitionen des maschinellen Lernens kennen, Klassifikationen des maschinellen Lernens kennen, Das Prinzip des induktiven
MehrModerne Methoden der KI: Maschinelles Lernen
Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume
MehrKapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen
Kapitel ML: I I. Einführung Beispiele für Lernaufgaben Spezifikation von Lernproblemen ML: I-8 Introduction c STEIN/LETTMANN 2005-2010 Beispiele für Lernaufgaben Autoeinkaufsberater Welche Kriterien liegen
MehrKapitel LF: I. Beispiele für Lernaufgaben. Beispiele für Lernaufgaben. LF: I Introduction c STEIN
Kapitel LF: I I. Einführung in das Maschinelle Lernen Bemerkungen: Dieses Kapitel orientiert sich an dem Buch Machine Learning von Tom Mitchell. http://www.cs.cmu.edu/ tom/mlbook.html 1 Autoeinkaufsberater?
MehrReinforcement Learning
Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied
MehrNeuronale Netze (Konnektionismus)
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Daniel Göhring Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung
MehrSeminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens
Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 19.12.2013 Allgemeine Problemstellung
Mehr3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002)
3. Entscheidungsbäume Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) (aus Wilhelm 2001) Beispiel: (aus Böhm 2003) Wann sind Entscheidungsbäume
MehrTextmining Klassifikation von Texten Teil 2: Im Vektorraummodell
Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil
MehrRL und Funktionsapproximation
RL und Funktionsapproximation Bisher sind haben wir die Funktionen V oder Q als Tabellen gespeichert. Im Allgemeinen sind die Zustandsräume und die Zahl der möglichen Aktionen sehr groß. Deshalb besteht
MehrNeuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung
MehrNeuronale Netze. Anna Wallner. 15. Mai 2007
5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente
MehrGrundlagen des Maschinellen Lernens Kap. 1: Einleitung
Gliederung der Vorlesung 1. Einleitung Einführende Beispiele Grundszenario des induktiven Lernens 2. Induktives Lernen von formalen Sprachen Patterns & Patternsprachen Lernproblem und Lösung Szenario des
MehrMustererkennung und Klassifikation
Mustererkennung und Klassifikation WS 2007/2008 Fakultät Informatik Technische Informatik Prof. Dr. Matthias Franz mfranz@htwg-konstanz.de www-home.htwg-konstanz.de/~mfranz/heim.html Grundlagen Überblick
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)
MehrDatenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität
Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte
MehrNeuronale Netze Aufgaben 3
Neuronale Netze Aufgaben 3 martin.loesch@kit.edu (0721) 608 45944 MLNN IN FLOOD3 2 Multi Layer Neural Network (MLNN) Netzaufbau: mehrere versteckte (innere) Schichten Lernverfahren: Backpropagation-Algorithmus
MehrÜbersicht. Allgemeines Modell lernender Agenten. Lernende Agenten (1) Lernende Agenten (2)
Übersicht Allgemeines Modell lernender Agenten I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen
MehrData Mining - Wiederholung
Data Mining - Wiederholung Norbert Fuhr 18. Januar 2006 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)
MehrInhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume
4. Klassifikation Inhalt 4.1 Motivation 4.2 Evaluation 4.3 Logistische Regression 4.4 k-nächste Nachbarn 4.5 Naïve Bayes 4.6 Entscheidungsbäume 4.7 Support Vector Machines 4.8 Neuronale Netze 4.9 Ensemble-Methoden
MehrTheoretische Informatik 1
Theoretische Informatik 1 Teil 12 Bernhard Nessler Institut für Grundlagen der Informationsverabeitung TU Graz SS 2007 Übersicht 1 Maschinelles Lernen Definition Lernen 2 agnostic -learning Definition
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.
MehrDecision Tree Learning
Decision Tree Learning Computational Linguistics Universität des Saarlandes Sommersemester 2011 28.04.2011 Entscheidungsbäume Repräsentation von Regeln als Entscheidungsbaum (1) Wann spielt Max Tennis?
MehrLernen mit Queries. Hans Kleine Büning Institut für Informatik, Universität Paderborn Paderborn (Germany),
Lernen mit Queries Hans Kleine Büning Institut für Informatik, Universität Paderborn 33095 Paderborn (Germany), E-mail: kbcsl @upb.de November 2007 1 Einführung In diesem Abschnitt beschreiben wir kurz,
MehrNeuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)
29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein
MehrKonzepte der AI Neuronale Netze
Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale
MehrEinführung in Support Vector Machines (SVMs)
Einführung in (SVM) Januar 31, 2011 Einführung in (SVMs) Table of contents Motivation Einführung in (SVMs) Outline Motivation Vektorrepräsentation Klassifikation Motivation Einführung in (SVMs) Vektorrepräsentation
MehrPareto optimale lineare Klassifikation
Seminar aus Maschinellem Lernen Pareto optimale lineare Klassifikation Vesselina Poulkova Betreuer: Eneldo Loza Mencía Gliederung 1. Einleitung 2. Pareto optimale lineare Klassifizierer 3. Generelle Voraussetzung
Mehr(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.
(hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild
Mehr5 Interpolation und Approximation
5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)
MehrWie können Computer lernen?
Wie können Computer lernen? Ringvorlesung Perspektiven der Informatik, 18.2.2008 Prof. Jun. Matthias Hein Department of Computer Science, Saarland University, Saarbrücken, Germany Inferenz I Wie lernen
MehrInformation und Produktion. Rolland Brunec Seminar Wissen
Information und Produktion Rolland Brunec Seminar Wissen Einführung Informationssystem Einfluss des Internets auf Organisation Wissens-Ko-Produktion Informationssystem (IS) Soziotechnisches System Dient
MehrInhaltsverzeichnis. 4 Statistik Einleitung Wahrscheinlichkeit Verteilungen Grundbegriffe 98
Inhaltsverzeichnis 1 Datenbehandlung und Programmierung 11 1.1 Information 11 1.2 Codierung 13 1.3 Informationsübertragung 17 1.4 Analogsignale - Abtasttheorem 18 1.5 Repräsentation numerischer Daten 20
MehrKonzepte der AI: Maschinelles Lernen
Konzepte der AI: Maschinelles Lernen Nysret Musliu, Wolfgang Slany Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme, TU-Wien Übersicht Was ist Lernen? Wozu maschinelles
MehrKapitel 2.1: Die stochastische Sicht auf Signale Georg Dorffner 67
Kapitel 2.1: Die stochastische Sicht auf Signale 215 Georg Dorffner 67 Stochastische Prozesse Stochastische Prozesse sind von Zufall geprägte Zeitreihen x n f x, n 1 xn2,... n vorhersagbarer Teil, Signal
MehrKapitel V. V. Ensemble Methods. Einführung Bagging Boosting Cascading
Kapitel V V. Ensemble Methods Einführung Bagging Boosting Cascading V-1 Ensemble Methods c Lettmann 2005 Einführung Bewertung der Generalisierungsfähigkeit von Klassifikatoren R (c) wahre Missklassifikationsrate
MehrMathematische Grundlagen III
Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten
MehrData Mining und Statistik: Gemeinsamkeiten und Unterschiede. Daniel Meschenmoser
Data Mining und Statistik: Gemeinsamkeiten und Unterschiede Daniel Meschenmoser Übersicht Gemeinsamkeiten von Data Mining und Statistik Unterschiede zwischen Data Mining und Statistik Assoziationsregeln
MehrData Mining Anwendungen und Techniken
Data Mining Anwendungen und Techniken Knut Hinkelmann DFKI GmbH Entdecken von Wissen in banken Wissen Unternehmen sammeln ungeheure mengen enthalten wettbewerbsrelevantes Wissen Ziel: Entdecken dieses
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
MehrData Mining auf Datenströmen Andreas M. Weiner
Technische Universität Kaiserslautern Fachbereich Informatik Lehrgebiet Datenverwaltungssysteme Integriertes Seminar Datenbanken und Informationssysteme Sommersemester 2005 Thema: Data Streams Andreas
MehrEinführung. Einführung in die Methoden der Künstlichen Intelligenz. Maschinelles Lernen. Lernen und Agenten. Beispiele
Einführung Einführung in die Methoden der Künstlichen Intelligenz Maschinelles Lernen Dr. David Sabel WS 2012/13 Direkte Programmierung eines intelligenten Agenten nicht möglich (bisher) Daher benötigt:
MehrFunktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen
5. Klassifikation 5.6 Support Vector Maschines (SVM) übernommen von Stefan Rüping, Katharina Morik, Universität Dortmund Vorlesung Maschinelles Lernen und Data Mining, WS 2002/03 und Katharina Morik, Claus
MehrKapitel 5: Ensemble Techniken
Ludwig Maximilians Universität München Institut für Informatik Lehr- und Forschungseinheit für Datenbanksysteme Skript zur Vorlesung Knowledge Discovery in Databases II im Sommersemester 2009 Kapitel 5:
MehrPrincipal Component Analysis (PCA)
Principal Component Analysis (PCA) Motivation: Klassifikation mit der PCA Berechnung der Hauptkomponenten Theoretische Hintergründe Anwendungsbeispiel: Klassifikation von Gesichtern Weiterführende Bemerkungen
MehrEinführung in das Maschinelle Lernen I
Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL
MehrGrundlagen Neuronaler Netze
Grundlagen Neuronaler Netze Neuronen, Aktivierung, Output, Netzstruktur, Lernziele, Training, Grundstruktur Der Begriff neuronales Netz(-werk) steht immer für künstliche neuronale Netzwerke, wenn nicht
Mehr3.3 Nächste-Nachbarn-Klassifikatoren
3.3 Nächste-Nachbarn-Klassifikatoren Schrauben Nägel Klammern Neues Objekt Instanzbasiertes Lernen (instance based learning) Einfachster Nächste-Nachbar-Klassifikator: Zuordnung zu der Klasse des nächsten
MehrComputational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
MehrDie Datenmatrix für Überwachtes Lernen
Die Datenmatrix für Überwachtes Lernen X j j-te Eingangsvariable X = (X 0,..., X M 1 ) T Vektor von Eingangsvariablen M Anzahl der Eingangsvariablen N Anzahl der Datenpunkte Y Ausgangsvariable x i = (x
MehrEntscheidungsbäume aus großen Datenbanken: SLIQ
Entscheidungsbäume aus großen Datenbanken: SLIQ C4.5 iteriert häufig über die Trainingsmenge Wie häufig? Wenn die Trainingsmenge nicht in den Hauptspeicher passt, wird das Swapping unpraktikabel! SLIQ:
MehrErgänzungsfach Sport Pete Moor Gymnasium Biel-Seeland Wahrnehmen-Entscheiden-Handeln 1. Lernen im Sport
Lernen im Sport Was haben Sie heute gelernt? Wo steht das Netz? 2 Was haben Sie gelernt? Sehr gut! Bravo! Sie haben gelernt! Was ist bei Ihnen passiert resp. wie würden Sie Lernen definieren? 3 Lernen
Mehr3. Das Reinforcement Lernproblem
3. Das Reinforcement Lernproblem 1. Agierender Agent in der Umgebung 2. Discounted Rewards 3. Markov Eigenschaft des Zustandssignals 4. Markov sche Entscheidung 5. Werte-Funktionen und Bellman sche Optimalität
Mehr6.4 Neuronale Netze zur Verarbeitung von Zeitreihen
6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1
Mehr1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3
Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................
Mehr4. Lernen von Entscheidungsbäumen
4. Lernen von Entscheidungsbäumen Entscheidungsbäume 4. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse
MehrGenetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008
Genetische Algorithmen Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 8. Juli 2008 Inhalt Einführung Algorithmus Erweiterungen alternative Evolutions- und Lernmodelle Inhalt 1 Einführung
MehrNeuronale Netze. Christian Böhm.
Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch
MehrVorlesung Wissensentdeckung
Gliederung Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung.6.015 1 von 33 von 33 Ausgangspunkt: Funktionsapproximation Aufteilen der
Mehr, Data Mining, 2 VO Sommersemester 2008
Evaluation 188.646, Data Mining, 2 VO Sommersemester 2008 Dieter Merkl e-commerce Arbeitsgruppe Institut für Softwaretechnik und Interaktive Systeme Technische Universität Wien www.ec.tuwien.ac.at/~dieter/
MehrSeminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme
Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume von Lars-Peter Meyer im Seminar Methoden wissensbasierter Systeme bei Prof. Brewka im WS 2007/08 Übersicht Überblick maschinelles Lernen
MehrMethoden zur Cluster - Analyse
Kapitel 4 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics
MehrKlassifikation und Ähnlichkeitssuche
Klassifikation und Ähnlichkeitssuche Vorlesung XIII Allgemeines Ziel Rationale Zusammenfassung von Molekülen in Gruppen auf der Basis bestimmter Eigenschaften Auswahl von repräsentativen Molekülen Strukturell
MehrEinführung in die Lernpsychologie
Dr. Andreas Eickhorst Pädagogische Psychologie Einführung in die Lernpsychologie 1. Was ist Lernen? Gliederung 2. Reflexe, Instinkte und Reifung 3. Neurologische Grundlagen 4. Formen des Lernens Was ist
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale
MehrKLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2.
MATHEMATISCHES INSTITUT PROF. DR. ACHIM SCHÄDLE 9.8.7 KLAUSUR zur Numerik I mit Lösungen Aufgabe : ( Punkte) [ wahr falsch ]. Die maximale Ordnung einer s-stufigen Quadraturformel ist s. [ ]. Der Clenshaw
MehrDie Maximum-Likelihood-Methode
Vorlesung: Computergestützte Datenauswertung Die Maximum-Likelihood-Methode Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft
MehrValidation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation
Validation Oktober, 2013 1 von 20 Validation Lernziele Konzepte des maschinellen Lernens Validierungsdaten Model Selection Kreuz-Validierung (Cross Validation) 2 von 20 Validation Outline 1 Validation
MehrIdeen und Konzepte der Informatik. Maschinelles Lernen. Kurt Mehlhorn
Ideen und Konzepte der Informatik Maschinelles Lernen Kurt Mehlhorn Übersicht Lernen: Begriff Beispiele für den Stand der Kunst Spamerkennung Handschriftenerkennung mit und ohne Trainingsdaten Gesichts-
MehrSoftwareprojektpraktikum Maschinelle Übersetzung
Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl max.bleu@i6.informatik.rwth-aachen.de Vorbesprechung 5. Aufgabe 22. Juni 2017 Human Language Technology
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrBachelorarbeit Erkennung von Fließtext in PDF-Dokumenten
Bachelorarbeit Erkennung von Fließtext in PDF-Dokumenten 16.08.2016 David Spisla Albert Ludwigs Universität Freiburg Technische Fakultät Institut für Informatik Gliederung Motivation Schwierigkeiten bei
Mehr6. Polynom-Interpolation
6. Polynom-Interpolation 1 6.1. Klassische Polynom-Interpolation 2 6.2. Lösung mit Hilfe Lagrange scher Basisfunktionen 3 6.3. Lösung mit Hilfe Newton scher Basisfunktionen 4 6.4. Fehlerabschätzung für
MehrProbleme aus NP und die polynomielle Reduktion
Probleme aus NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 15. Dezember 2009 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit
MehrSamuel's Checkers Program
Samuel's Checkers Program Seminar: Knowledge Engineering und Lernen in Spielen 29.06.2004 Ge Hyun Nam Überblick Einleitung Basis Dame-Programm Maschinelles Lernen Auswendiglernen Verallgemeinerndes Lernen
MehrReinforcement Learning
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement Learning Uwe Dick Inhalt Problemstellungen Beispiele Markov Decision Processes Planen vollständige MDPs Lernen unbekannte
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial
MehrStandardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend
Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend oder eindeutig, wenn keine alternativen Interpretationsmöglichkeiten
MehrVorlesung: Künstliche Intelligenz
Vorlesung: Künstliche Intelligenz - KI heute, KI morgen, KI übermorgen- D P LS G ML ES S ST SA NN ME O EA SV Künstliche Intelligenz Miao Wang 1 Inhaltliche Planung für die Vorlesung 1) Definition und Geschichte
MehrTraining von RBF-Netzen. Rudolf Kruse Neuronale Netze 134
Training von RBF-Netzen Rudolf Kruse Neuronale Netze 34 Radiale-Basisfunktionen-Netze: Initialisierung SeiL fixed ={l,...,l m } eine feste Lernaufgabe, bestehend ausmtrainingsbeispielenl=ı l,o l. Einfaches
Mehr5. Numerische Differentiation. und Integration
5. Numerische Differentiation und Integration 1 Numerische Differentiation Problemstellung: Gegeben ist eine differenzierbare Funktion f : [a,b] R und x (a,b). Gesucht sind Näherungen für die Ableitungen
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 2.6.2015 1 von 33 Gliederung 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung 2 von 33 Ausgangspunkt: Funktionsapproximation Die bisher
MehrTheoretische Informatik 1
Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs
MehrInnere-Punkt-Methoden
Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction
Mehrk-nächste-nachbarn-schätzung
k-nächste-nachbarn-schätzung Mustererkennung und Klassifikation, Vorlesung No. 7 1 M. O. Franz 29.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrStatistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II
Statistik II Lineare Regressionsrechnung Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II - 09.06.2006 1 Mit der Kovarianz und dem Korrelationskoeffizienten können wir den statistischen
MehrPersonalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining.
Personalisierung Personalisierung Thomas Mandl Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung Klassifikation Die Nutzer werden in vorab bestimmte Klassen/Nutzerprofilen
MehrTeil 5. Maschinelles Lernen
Teil 5 Maschinelles Lernen Definitionen und Abgrenzungen Was ist Lernen? Zentrale Fähigkeit von intelligenten Systemen in Natur und KI Zielgerichtete Veränderung von Wissen und/oder Verhaltensweisen durch
MehrAndreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg
Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer Organisation Vorlesung/Übung, praktische
MehrDarstellung von Kurven und Flächen
Darstellung von Kurven und Flächen Technische Universität Dresden Fakultät Informatik Institut für Software- und Multimediatechnik Dozent: Dr. Mascolous Referent: Gliederung / Einleitung 1 / 25 1. Kurven
MehrKonfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert
Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir
MehrVorlesung. Data und Web Mining. Kurzinformation zur. Univ.-Prof. Dr. Ralph Bergmann. Lehrstuhl für Wirtschaftsinformatik II
Kurzinformation zur Vorlesung Data und Web Mining Univ.-Prof. Dr. Ralph Bergmann www.wi2.uni-trier.de - I - 1 - Die Ausgangssituation (1) Unternehmen und Organisationen haben enorme Datenmengen angesammelt
MehrDatenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?
Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic
MehrDie Klasse NP und die polynomielle Reduktion
Die Klasse NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen Dezember 2011 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit
Mehr