Einführung in die Künstliche Intelligenz
|
|
- Annegret Flater
- vor 5 Jahren
- Abrufe
Transkript
1 Einführung in die Künstliche Intelligenz Kapitel 6: Maschinelles Lernen Teil 1 Prof. Dr. Johannes Maucher HdM MIB Version Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 1 / 43 Version / 43
2 Document History Version Date Changes Nr Folien zur Kreuzvalidierung und Weka-Übung hinzugefügt Vollständige Überarbeitung: Enthält jetzt nur noch Einführung und Kategorisierung, jedoch keine Algorithmen Neues Einführungskapitel: Dialoge anstelle Agentenfolien. Prinzip (un)überwachtes Lernen deutlich komprimiert Minimale Anpassungen für SS Anpassungen für WS 13/ Anpassungen im Kapitel Modellauswahl Dialoge zur Einführung entfernt: Anwendungsspez. Kategorisierung eingefügt Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 2 / 43 Version / 43
3 Übersicht Kapitel Maschinelles Lernen (1) 1 Was ist Machine Learning Definitionen 2 Benachbarte Wissenschaften 3 Übersicht Schemen Unüberwachtes Lernen Reinforcement Learning 4 Was wird gelernt? Regression Klassifikation Assoziation 5 Wie wird gelernt? Unüberwachtes Lernen 6 Modellauswahl und Bewertung Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 3 / 43 Version / 43
4 Was ist Machine Learning Definitionen Definitionen Eine mögliche Definition (J. Maucher) Maschinelles Lernen behandelt Verfahren Computer so zu programmieren, dass diese nicht nur einen Datenstrom nach einem fest vorgegebenen Ablauf verarbeiten, sondern aus den zur Verfügung stehenden Daten lernen und daraus ihr Verarbeitungsmodell ständig hinsichtlich der Erfüllung eines vorgegebenen Leistungskriteriums optimieren. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 4 / 43 Version / 43
5 Was ist Machine Learning Definitionen Definitionen Eine mögliche Definition (J. Maucher) Maschinelles Lernen behandelt Verfahren Computer so zu programmieren, dass diese nicht nur einen Datenstrom nach einem fest vorgegebenen Ablauf verarbeiten, sondern aus den zur Verfügung stehenden Daten lernen und daraus ihr Verarbeitungsmodell ständig hinsichtlich der Erfüllung eines vorgegebenen Leistungskriteriums optimieren. Eine etwas formellere Definition (Tom Mitchell [TM06]) Well-posed Learning Problem: A computer is said to learn from experience E with respect to some task T and some performance measure P, if its performance on T, as measured by P, improves with experience E. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 4 / 43 Version / 43
6 Benachbarte Wissenschaften Grundlagen- und verwandte Wissenschaften Statistik: Wesentliches Prinzip des Maschinellen Lernens ist die Induktion: Also aus Beispielen einer Stichprobe einen allgemeinen Zusammenhang ableiten. Der allgemeine Zusammenhang wird häufig in Form von Verteilfunktionen und Statistiken beschrieben. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 5 / 43 Version / 43
7 Benachbarte Wissenschaften Grundlagen- und verwandte Wissenschaften Statistik: Wesentliches Prinzip des Maschinellen Lernens ist die Induktion: Also aus Beispielen einer Stichprobe einen allgemeinen Zusammenhang ableiten. Der allgemeine Zusammenhang wird häufig in Form von Verteilfunktionen und Statistiken beschrieben. Ausserdem: die Zuverlässigkeit der gefundenen Regel wahrscheinlichkeitstheoretisch beschreiben. Informatik: Effiziente Programmierung von Algorithmen und Datenstrukturen Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 5 / 43 Version / 43
8 Übersicht Was maschinell gelernte Modelle leisten können (1) Erkennung (im Sinne vordefinierter Klassen), z.b. Objekterkennung (Gesichter, Fußgänger, Verkehrsschilder, Handschrift,...) Spracherkennung, Textklassifikation, Stimmungserkennung,... Verhaltenserkennung: Alarmerkennung, Userverhalten auf Webseiten,... Kreditwürdigkeitsklassifikation... Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 6 / 43 Version / 43
9 Übersicht Was maschinell gelernte Modelle leisten können (1) Erkennung (im Sinne vordefinierter Klassen), z.b. Objekterkennung (Gesichter, Fußgänger, Verkehrsschilder, Handschrift,...) Spracherkennung, Textklassifikation, Stimmungserkennung,... Verhaltenserkennung: Alarmerkennung, Userverhalten auf Webseiten,... Kreditwürdigkeitsklassifikation... Vorhersagen, z.b. Wettervorhersage Aktienkursvorhersage Verhaltensvorhersage (z.b. Kaufverhalten) Krankheitsvorhersage... Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 6 / 43 Version / 43
10 Übersicht Was maschinell gelernte Modelle leisten können (2) Schätzung nicht messbarer Größen aus messbaren Größen, z.b. Indikation von Krankheiten aus z.b. Herzratenvariabilität, EEG, Blutdruck, Blutwerten,.. Körperfettschätzung (siehe Einführungsbeispiel) Aus gekauften Artikeln oder Klicks auf Interesse schließen... Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 7 / 43 Version / 43
11 Übersicht Was maschinell gelernte Modelle leisten können (2) Schätzung nicht messbarer Größen aus messbaren Größen, z.b. Indikation von Krankheiten aus z.b. Herzratenvariabilität, EEG, Blutdruck, Blutwerten,.. Körperfettschätzung (siehe Einführungsbeispiel) Aus gekauften Artikeln oder Klicks auf Interesse schließen... Optimierungen, z.b. Erlernen und optimieren von Bewegungen (Robotik) Game AI (Verhalten des KI Agenten hinsichtlich unterschiedlicher Kriterien optimieren) Optimierung der Motoransteuerung hinsichtlich CO 2 -Ausstoss, Verbrauch,... Verlustbehaftete Codierung Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 7 / 43 Version / 43
12 Übersicht Was maschinell gelernte Modelle leisten können (2) Schätzung nicht messbarer Größen aus messbaren Größen, z.b. Indikation von Krankheiten aus z.b. Herzratenvariabilität, EEG, Blutdruck, Blutwerten,.. Körperfettschätzung (siehe Einführungsbeispiel) Aus gekauften Artikeln oder Klicks auf Interesse schließen... Optimierungen, z.b. Erlernen und optimieren von Bewegungen (Robotik) Game AI (Verhalten des KI Agenten hinsichtlich unterschiedlicher Kriterien optimieren) Optimierung der Motoransteuerung hinsichtlich CO 2 -Ausstoss, Verbrauch,... Verlustbehaftete Codierung Mustererkennung (ohne vordefinierte Klassen), Erkennung ähnlicher Instanzen bzw. Ähnlichkeitscluster Erkennung auffälliger Instanzen (z.b. Intrusion Detection)... Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 7 / 43 Version / 43
13 Übersicht Kategorisierung Übersicht Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 8 / 43 Version / 43
14 Übersicht Schemen Allgemeines Schema für Ablauf lernfähiger Systeme Trainingsdaten enthalten Eingabe und zugehörige Sollausgabe Unüberwachtes Lernen Trainingsdaten enthalten nur Eingabe Klassifikation Ausgabe r ist diskreter (Klassenindex) Skalar oder Vektor Regression Ausgabe r ist numerischer Skalar oder Vektor Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 9 / 43 Version / 43
15 Übersicht Schemen Datenstrukturen Struktur der Eingabedaten und der Trainingsdaten für unüberwachtes Lernen: Merkmal 1 Merkmal 2 Merkmal K Instanz 1 x 1,1 x 1,2 x 1,K Instanz 2 x 2,1 x 2,2 x 2,K : : : : : Instanz N x N,1 x N,2 x N,K Struktur Trainingsdaten für überwachtes Lernen: Merkmal 1 Merkmal 2 Merkmal K Sollausgabe Instanz 1 x 1,1 x 1,2 x 1,K r 1 Instanz 2 x 2,1 x 2,2 x 2,K r 2 : : : : : : Instanz N x N,1 x N,2 x N,K r N Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 10 / 43 Version / 43
16 Übersicht : Training Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 11 / 43 Version / 43
17 Übersicht : Anwendung des gelernten Modells Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 12 / 43 Version / 43
18 Übersicht Probleme/Herausforderungen im Überwachten Lernen Annotation (Labeling) der Trainingseingaben ist teuer Anzahl der benötigten Trainingsdaten nimmt mit der Komplexität des zu lernenden Modells stark zu. Overfitting: Wenn das Modell zu stark an die Trainingsdaten angepasst ist und nicht gut generalisiert. Um eine gute Generalisierung zu erreichen, müssen viele Trainingsdaten verwendet werden, die möglichst alle in-class Varianzen abdecken. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 13 / 43 Version / 43
19 Übersicht Unüberwachtes Lernen Unüberwachtes Lernen: Training Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 14 / 43 Version / 43
20 Übersicht Unüberwachtes Lernen Unüberwachtes Lernen: Anwendung des gelernten Modells Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 15 / 43 Version / 43
21 Übersicht Unüberwachtes Lernen Probleme/Herausforderungen im Unüberwachten Lernen Klassenzugehörigkeit der Trainingselemente ist nicht bekannt (wie im überwachten Lernen) sondern muss erlernt werden. Wie wird Ähnlichkeit gemessen? Wie werden die Modelle und die entsprechenden Algorithmen evaluiert? Ein Vorteil gegenüber dem überwachten Lernen ist, dass die Erstellung einer großen Menge von Trainingsdaten einfacher ist. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 16 / 43 Version / 43
22 Übersicht Reinforcement Learning Reinforcement Learning: Lernen durch Belohnung Training: Nach einer Sequenz von Aktionen erhält man entweder positiven or negativen Feedback (Belohnung oder Strafe). Gelerntes Wissen: Wie muss ich mich verhalten (Aktionssequenz) um ein bestimmtes Ziel (eine bestimmte Belohnung) zu erreichen. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 17 / 43 Version / 43
23 Übersicht Reinforcement Learning Probleme/Herausforderungen im Reinforcement Learning Benötigt i.d.r. hohe Anzahl von Iterationen (d.h. viel Zeit) für den Lernprozess. Während des Lernens erhalten alle Aktionen innerhalb einer Sequenz den gleichen Feedback. Der Tatsache, dass einzelne Aktionen gut, andere weniger gut sind wird nicht Rechnung getragen. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 18 / 43 Version / 43
24 Was wird gelernt? Regression Erlernen eines Funktionsverlaufs Gelernt wird Funktionsverlauf Zielfunktion hat numerischen Wertebereich Zielfunktion ist rein deterministisch: Interpolation Zielfunktion setzt sich aus deterministischem Anteil und zufälligen Anteil zusammen: Regression Feedback-Kategorie:, Bestärkendes Lernen Anwendungen: Berechnung von Vorhersagen Robotik: Ausgabe (Bewegung) ist Funktion der Eingabe (Daten von den Sensoren) Algorithmen: Neuronales Netz, SVM u.v.m. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 19 / 43 Version / 43
25 Was wird gelernt? Klassifikation Erlernen einer Klassifizierung Gelernt wird Klassenzuordnung (Klassengrenzen) von Eingabedaten Zielfunktion hat diskreten Wertebereich Ähnliche Eingabeelemente werden gleicher Klasse zugeteilt Alle Eingabeelemente einer Klasse haben die selbe Ausgabe Feedback-Kategorie:, Bestärkendes Lernen Anwendungen: Berechnung von Vorhersagen, z.b. Creditscoring Mustererkennung Algorithmen: Neuronales Netz, Hopfield-Netz, SVM, Entscheidungsbaum, Bayes-Netz, u.v.m. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 20 / 43 Version / 43
26 Was wird gelernt? Assoziation Erlernen von Assoziationen zwischen Instanzen (Clusteranalyse) Gelernt wird Ähnlichkeit (Korrelation) zwischen Eingabedatensätzen Ähnliche Elemente werden in Cluster zusammengefasst Feedback-Kategorie: Unüberwachtes Lernen Anwendungen: Kundenananalyse Nichtlineare Vektorquantisierung / Farbraumkompression Algorithmen: k-means Clustering Hierarchisches Clustering Self-Organizing Maps (SOM) Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 21 / 43 Version / 43
27 Was wird gelernt? Assoziation Erlernen von Assoziationen zwischen Merkmalen Gelernt wird Ähnlichkeit (Beziehung) zwischen Merkmalen Gelerntes Wissen wird in Form von Logischen Beziehungen, z.b. Kunden die Wein kaufen, kaufen auch Käse Bedingten Wahscheinlichkeiten, z.b.: P(K W ) gibt an wie groß die Wahrscheinlichkeit ist, dass ein Kunde der Wein kauft auch Käse kauft. Feedback-Kategorie: Unüberwachtes Lernen Aus den Trainingsdaten werden Beziehungen zwischen in den Trainingsdaten vorhandenen Merkmalen gelernt (Induktion) Im Betrieb werden die gelernten Regeln dann auf Instanzen angewandt, die nicht alle Merkmale enthalten. Auf die nicht-vorhandenen Merkmale wird mithilfe der gelernten Regel geschlossen (Deduktion) Die gelernte Regel kann auch ein erkanntes Muster und damit neues Wissen repräsentieren (Beispiel: Kraftstoffdatenanalyse für Bosch) Anwendungen: Warenkorbanalyse Diagnosesysteme Algorithmen: z.b. A-Priori Algorithmus Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 22 / 43 Version / 43
28 Wie wird gelernt? Induktion: Aus einer gegebenen Menge von Beispielen (Trainingsdaten) einen allgemeinen Zusammenhang in Form einer Regel oder Funktion herleiten. Trainingsdaten: Vorliegende Menge (Trainingsmenge) { } T = (x 1, r 1 ),..., (x N, r N ) von N Wertepaaren (=Instanzen), wobei mit x p die Eingabewerte und mit r p die zugehörigen Ausgabewerte bezeichnet werden. Hypothese (h): Eine Regel oder Funktion, welche Abbildung von Eingabewerten in Ausgabewerte approximiert. Konsistent ist die gefundene Hypothese h, wenn sie mit allen gegebenen Beispielen des Trainingsset übereinstimmt, d.h. h(x p ) = r p p {1... N} Verallgemeinerung: Die Hypothese h ist dann gut, wenn sie für unbekannte Eingabewerte (nicht aus der Trainingsmenge) die passende Ausgabe voraussagt. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 23 / 43 Version / 43
29 Wie wird gelernt? Beispiel 1: Klassifizierung Aufgabe: Bank möchte Kreditwürdigkeit der potentiellen Kunden voraussagen. Abhängig von den Eingabewerten vorhandenes Eigenkapital K monatliches Einkommen I unterteilt die Bank zunächst in folgende 2 Klassen: Kunden für die vor Gewährung oder Ablehnung des Kredits Schufa-Daten eingeholt werden müssen: Ausgabewert S =. Kunden für die eine Einholung der Schufa-Daten nicht erforderlich ist S =. Die Klassenzugehörigkeit ist der Ausgabewert. Trainingsdaten T = {((K, I) p, S p )}, p 1, aus der bisherigen Erfahrung Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 24 / 43 Version / 43
30 Wie wird gelernt? Beispiel 1: Klassifizierung Lernaufgabe: Mithilfe der Trainingsdatenmenge soll eine allgemein gültige Regel h erlernt werden, mit der aus jedem Eingabewertpaar (K, I) j auf die Klassenzugehörigkeit (S j = oder S j = ) geschlossen werden kann. Modellbildung: 1 Experte legt die Hypothesenklasse H fest. Z.B. Klasse aller Rechtecke. 2 Der Lernalgorithmus soll die beste Hypothese h H finden. Also die Grenzen des Rechtecks, welches die Klasse C möglichst gut approximiert. Alle Rechtecke, die den grünen Bereich enthalten und nicht über den gelben Bereich hinaus gehen entsprechen konsistenten Hypothesen. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 25 / 43 Version / 43
31 Wie wird gelernt? Beispiel 1: Klassifizierung Empirischer Fehler: E(h T ) = N { 1 falls h(x p ) r p σ p mit σ p = 0 falls h(x p ) = r p p=1 Mißt die Anzahl der Fälle in denen die Hypothese nicht konsistent zu den Traniningsdaten ist. Ist also nur im Fall nicht-konsistenter Hypothesen > 0 Beispiel: Um einen Tainingsdatensatz (rot hinterlegt) erweiterte Trainingsdatenmenge Neuer Trainingsdatensatz stellt Ausreisser dar. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 26 / 43 Version / 43
32 Wie wird gelernt? Beispiel 1: Klassifizierung Rauschen: Rauschen verursacht Anomalien wie der Ausreisser im obigen Beispiel. Mögliche Ursachen für verrauschte Datensätze: Ungenauigkeit bei der Aufzeichnung der Eingabeattribute Fehlzuordnungen beim Erstellen der Trainingsdaten, d.h. Eingabeattribute werden falscher Klasse zugeordnet. Verborgene (latente) Attribute, die in der Modellierung nicht berücksichtigt wurden aber durchaus Einfluss auf die Ausgabe haben. Effekt solcher nicht-berücksichtigter Attribute wird i.d.r. als Rauschen modelliert. Hypothesenauswahl: Insbesondere bei der Annahme von Rauschen sind meist weniger komplexe Hypothesen günstiger. Diese weisen zwar einen höheren empirischen Fehler aus generalisieren i.d.r. besser sind einfacher zu handhaben. Siehe Abschnitt Modellauswahl Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 27 / 43 Version / 43
33 Wie wird gelernt? Klassifizierung mit mehr als 2 Klassen Bisher: Klassifizierung in 2 Klassen Kunden für die Schufa-Daten eingeholt werden müssen: S = Kunden für die keine Schufa-Daten eingeholt werden müssen S = Hierfür ist es ausreichend eine Hypothese zu lernen, welche approximativ die Grenze zwischen den beiden Klassen festlegt Jetzt: Unterteilung in > 2 Klassen Kunden für die Schufa-Daten eingeholt werden müssen Kunden für die keine Schufa-Daten eingeholt werden müssen, weil sie aufgrund ihrer Eingabedaten sicher abgelehnt werden können. Kunden für die keine Schufa-Daten eingeholt werden müssen, weil sie aufgrund ihrer Eingabedaten sicher angenommen werden können. Im Fall von K > 2 Klassen müssen > 1 Hypothesen gelernt werden. Jede Hypothese definiert approximativ die Grenzen einer Klasse. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 28 / 43 Version / 43
34 Wie wird gelernt? Beispiel 2: Regression Klassifikation: (Beispiel 1) - Ziel ist die Zuordnung von Eingabewerten zu Klassen. Gelernt wird eine Approximation der Klassengrenzen. Regression: (Beispiel 2) - Ziel ist die Bestimmung eines Funktionswertes für eine gegebene Menge von Eingabeattributen. Gelernt wird eine Approximation der Funktion. Der Begriff Regression bezieht sich auf den Fall, dass die Abbildung von Eingabewerten in den Funktionswert nicht rein deterministisch ist (y = f (x) + n) mit Zufallsvariable n. Von Interpolation spricht man, wenn der Zusammenhang rein deterministisch ist (y = f (x)). Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 29 / 43 Version / 43
35 Wie wird gelernt? Beispiel 2: Regression Aufgabe: Klimaforschungsinstitut möchte den zeitlichen Verlauf des Meerespegelanstiegs berechnen. Trainingsdaten: Gemessener Meerespegel y p in 6 aufeinanderfolgenden Jahren t p : T = {(t p, y p )}, p 1, y vs. x 1.2 sea level increas (cm) Year Lernaufgabe: Mithilfe der Trainingsdatenmenge soll eine Funktion g(t) erlernt werden, mit welcher der Meerespegelanstieg y als Funktion der Zeit t vorausgesagt werden kann. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 30 / 43 Version / 43
36 Wie wird gelernt? Beispiel 2: Regression Modellbildung: 1 Experte legt die Hypothesenklasse H fest. Z.B. Klasse aller Linearen Funktionen: y = g 0 + g 1 t Quadratischen Polynome: y = g 0 + g 1 t + g 2 t 2 Polynome vom Grad 5: y = g 0 + g 1 t + + g 5 t 5 2 Der Lernalgorithmus soll die beste Hypothese finden. Also die besten Polynomkoeffizienten g i innerhalb der gewählten Hypothesenklasse y vs. x 1.2 sea level increas (cm) Year Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 31 / 43 Version / 43
37 Wie wird gelernt? Beispiel 2: Regression Modellbildung: 1 Experte legt die Hypothesenklasse H fest. Z.B. Klasse aller Linearen Funktionen: y = g 0 + g 1 t Quadratischen Polynome: y = g 0 + g 1 t + g 2 t 2 Polynome vom Grad 5: y = g 0 + g 1 t + + g 5 t 5 2 Der Lernalgorithmus soll die beste Hypothese finden. Also die besten Polynomkoeffizienten g i innerhalb der gewählten Hypothesenklasse y vs. x vs. fit sea level increase (cm) Year Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 31 / 43 Version / 43
38 Wie wird gelernt? Beispiel 2: Regression Modellbildung: 1 Experte legt die Hypothesenklasse H fest. Z.B. Klasse aller Linearen Funktionen: y = g 0 + g 1 t Quadratischen Polynome: y = g 0 + g 1 t + g 2 t 2 Polynome vom Grad 5: y = g 0 + g 1 t + + g 5 t 5 2 Der Lernalgorithmus soll die beste Hypothese finden. Also die besten Polynomkoeffizienten g i innerhalb der gewählten Hypothesenklasse measured y vs. x linear vs. fit 1 quadratic sea level increase (cm) Year Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 31 / 43 Version / 43
39 Wie wird gelernt? Beispiel 2: Regression Modellbildung: 1 Experte legt die Hypothesenklasse H fest. Z.B. Klasse aller Linearen Funktionen: y = g 0 + g 1 t Quadratischen Polynome: y = g 0 + g 1 t + g 2 t 2 Polynome vom Grad 5: y = g 0 + g 1 t + + g 5 t 5 2 Der Lernalgorithmus soll die beste Hypothese finden. Also die besten Polynomkoeffizienten g i innerhalb der gewählten Hypothesenklasse measured measured y vs. x linear vs. linear fit 1 quadratic quadratic degree 5 sea level increase (cm) Year Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 31 / 43 Version / 43
40 Wie wird gelernt? Beispiel 2: Regression Modellbildung: 1 Experte legt die Hypothesenklasse H fest. Z.B. Klasse aller Linearen Funktionen: y = g 0 + g 1 t Quadratischen Polynome: y = g 0 + g 1 t + g 2 t 2 Polynome vom Grad 5: y = g 0 + g 1 t + + g 5 t 5 2 Der Lernalgorithmus soll die beste Hypothese finden. Also die besten Polynomkoeffizienten g i innerhalb der gewählten Hypothesenklasse measured measured y vs. x linear vs. linear fit 1 quadratic quadratic degree 5 sea level increase (cm) Year Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 31 / 43 Version / 43
41 Wie wird gelernt? Beispiel 2: Regression Modellbildung: 1 Experte legt die Hypothesenklasse H fest. Z.B. Klasse aller Linearen Funktionen: y = g 0 + g 1 t Quadratischen Polynome: y = g 0 + g 1 t + g 2 t 2 Polynome vom Grad 5: y = g 0 + g 1 t + + g 5 t 5 2 Der Lernalgorithmus soll die beste Hypothese finden. Also die besten Polynomkoeffizienten g i innerhalb der gewählten Hypothesenklasse measured measured y vs. x linear vs. linear fit 1 quadratic quadratic degree 5 sea level increase (cm) Year Konsistent zur Trainingsmenge ist das Polynom 5. Grades. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 31 / 43 Version / 43
42 Wie wird gelernt? Beispiel 2: Regression Generalisierung: Empirischer Fehler: Je höher der Grad des Polynoms umso geringer kann der empirische Fehler sein. Für N Punkte läßt sich mit der Polynominterpolation immer ein Polynom vom Grad N 1 finden, dessen Graph alle N Punkte enthält. Dann ist der empirische Fehler = 0. Polynome hohen Grades sind aber eventuell zu speziell auf die Trainingsdatenmenge angepasst (Overfitting) und generalisieren schlecht. E(g T ) = 1 N N ( y p g(t p ) ) 2 p=1 Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 32 / 43 Version / 43
43 Wie wird gelernt? Unüberwachtes Lernen Unüberwachtes Lernen Im Gegensatz zum überwachten Lernen stehen beim unüberwachten Lernen nur Eingabedaten zur Verfügung. Aufgabe des unüberwachten Lernens ist das Auffinden von Regelmäßigkeiten oder Ähnlichkeiten zwischen Instanzen (Clusteranalyse), oder Merkmalen (Assoziationsanalyse) Mit unüberwachten Lernverfahren lassen sich auch Daten in hochdimensionalen Eingaberäumen in niedrigdimensionale Räume transformieren. Angewandt zum Zwecke der Feature Extraction oder Visualisierung. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 33 / 43 Version / 43
44 Wie wird gelernt? Unüberwachtes Lernen Anwendung des unüberwachtes Lernens: Clusteranalyse Instanzen, die sich durch ähnliche Eingabewerte auszeichnen, werden zu Clustern zusammengefasst. In bisher behandelten Klassifikationsaufgaben war Klassenzugehörigkeit der Trainings-Eingabedaten vorgegeben. Im Fall des unüberwachten Lernens muss diese Klassenzugehörigkeit der Trainingselemente gelernt werden. Auch die Schätzung einer Wahrscheinlichkeitsdichteverteilung einer Variablen aus einer gegebenen Menge (Trainingsmenge) von Variablenwerten kann Ziel dieser Lernkategorie sein Density Estimation (aus der Statistik) Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 34 / 43 Version / 43
45 Wie wird gelernt? Unüberwachtes Lernen Beispiel für Clustering von Instanzen mit 2 Merkmalen Mögliches Resultat eines k-means Clustering mit k = 4. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 35 / 43 Version / 43
46 Wie wird gelernt? Unüberwachtes Lernen Beispiel Clustering von Dokumenten Welche der folgenden Texte sind sich am Ähnlichsten? 1 Der Papst schreibt von Reue, von Schande und entschuldigt sich bei den Opfern - doch das reicht vielen Iren nicht: Sie kritisieren Benedikts Hirtenbrief zum Missbrauchsskandal als Versuch der Vertuschung. Pop-Sängerin Sinead O Connor wirft dem Vatikan vor, er wolle sich aus der Affäre ziehen 2 Die Erschütterung und die Scham des Papstes in seinem Brief an Irlands Katholiken sind echt. Doch er macht die Liberalisierung der Kirche für die Missbrauchsfälle verantwortlich. Das ist Unsinn. Zu den wahren Ursachen der Krise schweigt er leider. 3 Die schwarz-gelbe Koalition wackelt, die Wähler liebäugeln mit Rot-Grün: Jürgen Rüttgers kämpft in Nordrhein-Westfalen um seine Regierungsmehrheit - und seine politische Karriere. Um wieder in die Offensive zu kommen, geht der Ministerpräsident nun auf Distanz zur Krisenkoalition in Berlin. 4 Rückschlag im Titelrennen: Der FC Bayern hat durch zwei Gegentore in der Schlussphase bei Eintracht Frankfurt verloren - und könnte damit an diesem Spieltag die Tabellenführung verlieren. Werder Bremen gewann gegen den VfL Bochum, Freiburg setzte sich gegen Mainz durch. 5 Werder Bremen macht hinten Fehler und liefert vorne ein Spektakel, Bayern verliert in letzter Minute in Frankfurt und Leverkusen erlebt in Dortmund zwei völlig unterschiedliche Halbzeiten. Lange sah es in Frankfurt beim Gastspiel der Bayern nach einem typisch minimalistischen Münchner Sieg aus, doch dann drehte die Eintracht in einer verrückten Schlussphase das Spiel und gewann mit 2:1 6 Auf dem Landesparteitag in Münster versucht Ministerpräsident Rüttgers, die von der Affäre gebeutelte CDU in NRW mitzureißen - mit Hilfe der Kanzlerin und schrillen Warnungen vor der Opposition. CDU-Chefin Angela Merkel wirft am Samstag einiges in die Waagschale, um den nordrhein-westfälischen Parteifreunden Mut und Kampfkraft für den Landtagswahlkampf einzuhauchen. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 36 / 43 Version / 43
47 Wie wird gelernt? Unüberwachtes Lernen Beispiel: Hierarchisches Clustering von Dokumenten Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 37 / 43 Version / 43
48 Wie wird gelernt? Unüberwachtes Lernen Clusteranalyse Anwendungen Allgemeine Kategorisierungsaufgaben z.b. Kategorisierung von Kunden- oder Produktgruppen Mustererkennung, z.b. in der Bildverarbeitung: Pixel mit ähnlichen Farbwerten werden zu Regionen (Clustern) zusammengefasst Nichtlineare Vektorquantisierung wie sie z.b. in nahezu allen modernen Sprachcodecs eingesetzt wird Farbquantisierung Clustering von Suchergebnissen, z.b. Bioinformatik, z.b. für die Kategorisierung von Genen Bildung von Communities in Social Networks Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 38 / 43 Version / 43
49 Modellauswahl und Bewertung Problem: Overfitting Generalisierung: Zu Trainingsdaten konsistente Hypothese h ist immer nur Approximation der wahren aber unbekannten Klasse C. Problem: Liefert h auch zuverlässige Voraussagen für nicht in der Trainingsmenge enthaltene Eingabewerte? Die Qualität mit der ein trainiertes Modell die richtigen Ausgaben für nicht in der Trainingsmenge enthaltene Eingabedaten vorhersagt nennt man Generalisierung Nicht-konsistente Hypothesen können manchmal besser generalisieren (im Fall von Ausreissern). Overfitting: Wenn die Hypothese h zu speziell an die Trainingsdatenmenge angepasst ist. Je spezieller die Hypothese umso komplexer ist i.d.r. auch ihre Beschreibung. Underfitting: Wenn die gelernte Hypothese zu einfach im Vergleich zur unbekannten wahren Regel ist. Dies kann dann u.a. durch den Einbezug einer zu geringen Trainingsdatenmenge verursacht werden. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 39 / 43 Version / 43
50 Modellauswahl und Bewertung Training und Validierung Training: Mit den Trainingsdaten werden mögliche Hypothesen in verschiedenen Hypothesenräumen mit verschiedenen Lernalgorithmen berechnet Validierung: (=Test) 1 Auf jede der berechneten Hypothesen (=Modelle) werden die Validierungsdaten angewandt und die Fehlerrate bezüglich der Validierungsdaten berechnet. Validierungsdaten sind bekannte (Eingabe/Ausgabe)-Paare, die nicht Teil der Trainingsdatenmenge sind. Auswahl des Lernalgorithmus und Hypothesenraums, welcher die niedrigste Fehlerrate in den Validierungsdaten ergab. Menge aller möglichen (Eingabe/Ausgabe)-Paare 1 In dieser Vorlesung werden die Begriffe Validierung und Test gleichbedeutend benutzt Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 40 / 43 Version / 43
51 Modellauswahl und Bewertung Training und Validierung Training: Mit den Trainingsdaten werden mögliche Hypothesen in verschiedenen Hypothesenräumen mit verschiedenen Lernalgorithmen berechnet Validierung: (=Test) 1 Auf jede der berechneten Hypothesen (=Modelle) werden die Validierungsdaten angewandt und die Fehlerrate bezüglich der Validierungsdaten berechnet. Validierungsdaten sind bekannte (Eingabe/Ausgabe)-Paare, die nicht Teil der Trainingsdatenmenge sind. Auswahl des Lernalgorithmus und Hypothesenraums, welcher die niedrigste Fehlerrate in den Validierungsdaten ergab. Menge aller möglichen (Eingabe/Ausgabe)-Paare Menge aller bekannten (Eingabe/Ausgabe)-Paare 1 In dieser Vorlesung werden die Begriffe Validierung und Test gleichbedeutend benutzt Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 40 / 43 Version / 43
52 Modellauswahl und Bewertung Training und Validierung Training: Mit den Trainingsdaten werden mögliche Hypothesen in verschiedenen Hypothesenräumen mit verschiedenen Lernalgorithmen berechnet Validierung: (=Test) 1 Auf jede der berechneten Hypothesen (=Modelle) werden die Validierungsdaten angewandt und die Fehlerrate bezüglich der Validierungsdaten berechnet. Validierungsdaten sind bekannte (Eingabe/Ausgabe)-Paare, die nicht Teil der Trainingsdatenmenge sind. Auswahl des Lernalgorithmus und Hypothesenraums, welcher die niedrigste Fehlerrate in den Validierungsdaten ergab. Menge aller möglichen (Eingabe/Ausgabe)-Paare Menge aller bekannten (Eingabe/Ausgabe)-Paare Trainingsdaten: Für die Berechnung möglicher Hypothesen 1 In dieser Vorlesung werden die Begriffe Validierung und Test gleichbedeutend benutzt Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 40 / 43 Version / 43
53 Modellauswahl und Bewertung Training und Validierung Training: Mit den Trainingsdaten werden mögliche Hypothesen in verschiedenen Hypothesenräumen mit verschiedenen Lernalgorithmen berechnet Validierung: (=Test) 1 Auf jede der berechneten Hypothesen (=Modelle) werden die Validierungsdaten angewandt und die Fehlerrate bezüglich der Validierungsdaten berechnet. Validierungsdaten sind bekannte (Eingabe/Ausgabe)-Paare, die nicht Teil der Trainingsdatenmenge sind. Auswahl des Lernalgorithmus und Hypothesenraums, welcher die niedrigste Fehlerrate in den Validierungsdaten ergab. Menge aller möglichen (Eingabe/Ausgabe)-Paare Menge aller bekannten (Eingabe/Ausgabe)-Paare Trainingsdaten: Validierungsdaten: Für die Berechnung Für die Auswahl der besten möglicher Hypothesen Hypothese 1 In dieser Vorlesung werden die Begriffe Validierung und Test gleichbedeutend benutzt Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 40 / 43 Version / 43
54 Modellauswahl und Bewertung Einfache Validierung mit disjunkten Trainings- und Testdatensätzen Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 41 / 43 Version / 43
55 Modellauswahl und Bewertung Kreuzvalidierung für die Modellbewertung und Auswahl Problem: Meist ist die Menge verfügbarer (Eingabe/Ausgabe)-Paare klein, sodass eine disjunkte Unterteilung in Teilmengen ausreichender Größe nicht möglich ist. Lösung: Kreuzvalidierung Auswahl des Lernalgorithmus und des Hypothesenraums, welcher mit der Kreuzvalidierung geringste Fehlerrate ergibt. Nach der Auswahl wird für das Training die gesamte Menge verfügbarer (Eingabe/Ausgabe)-Paare benutzt. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 42 / 43 Version / 43
56 Referenzen Ethem Alpaydin Maschinelles Lernen; deutschsprachige Ausgabe erschienen im Oldenbourg Verlag, München 2008 Tom Mitchell Machine Learning; McGraw Hill International Editions, 1997 Toby Segaran Programming Collective Intelligence; O Reilly Verlag, August 2007 Tom Mitchell The Discipline of Machine Learning; tom/pubs/machinelearning.pdf S. Russell, P. Norvig Künstliche Intelligenz; Ein moderner Ansatz Pearson Studium 2004 (Deutsche Ausgabe) W. Ertel Grundkurs Künstliche Intelligenz; Eine praxisorientierte Einführung Vieweg Verlag 2008 G. Görz, C.-R. Rollinger, J. Schneeberger Handbuch der künstlichen Intelligenz Oldenbourg Verlag, 4. Auflage, 2003 Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 43 / 43 Version / 43
1. Lernen von Konzepten
1. Lernen von Konzepten Definition des Lernens 1. Lernen von Konzepten Lernziele: Definitionen des maschinellen Lernens kennen, Klassifikationen des maschinellen Lernens kennen, Das Prinzip des induktiven
MehrMaschinelles Lernen SS 2005
1 Maschinelles Lernen SS 2005 Jianwei Zhang AB TAMS FB Informatik Universität Hamburg Büro: F308 Tel.: 2430 E-mail: zhang Web: http://tams-www.informatik.uni-hamburg.de/ Sprechstunde: Do. 15:00-16:00 2
MehrVorlesung Digitale Bildverarbeitung Sommersemester 2013
Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben (Marc Schlipsing) Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches
MehrKapitel LF: I. Beispiele für Lernaufgaben. Beispiele für Lernaufgaben. LF: I Introduction c STEIN
Kapitel LF: I I. Einführung in das Maschinelle Lernen Bemerkungen: Dieses Kapitel orientiert sich an dem Buch Machine Learning von Tom Mitchell. http://www.cs.cmu.edu/ tom/mlbook.html 1 Autoeinkaufsberater?
MehrKapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen
Kapitel ML: I I. Einführung Beispiele für Lernaufgaben Spezifikation von Lernproblemen ML: I-8 Introduction c STEIN/LETTMANN 2005-2010 Beispiele für Lernaufgaben Autoeinkaufsberater Welche Kriterien liegen
MehrMaschinelles Lernen II
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen II Niels Landwehr Organisation Vorlesung/Übung 4 SWS. Ort: 3.01.2.31. Termin: Vorlesung: Dienstag, 10:00-11:30.
MehrSeminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens
Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 19.12.2013 Allgemeine Problemstellung
MehrMustererkennung und Klassifikation
Mustererkennung und Klassifikation WS 2007/2008 Fakultät Informatik Technische Informatik Prof. Dr. Matthias Franz mfranz@htwg-konstanz.de www-home.htwg-konstanz.de/~mfranz/heim.html Grundlagen Überblick
MehrTheoretische Informatik 1
Theoretische Informatik 1 Teil 12 Bernhard Nessler Institut für Grundlagen der Informationsverabeitung TU Graz SS 2007 Übersicht 1 Maschinelles Lernen Definition Lernen 2 agnostic -learning Definition
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen
Universität Potsdam Institut für Informatik Lehrstuhl Niels Landwehr, Silvia Makowski, Christoph Sawade, Tobias Scheffer Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Übung: Di 10:00-11:30
MehrWie können Computer lernen?
Wie können Computer lernen? Ringvorlesung Perspektiven der Informatik, 18.2.2008 Prof. Jun. Matthias Hein Department of Computer Science, Saarland University, Saarbrücken, Germany Inferenz I Wie lernen
MehrData Mining - Wiederholung
Data Mining - Wiederholung Norbert Fuhr 18. Januar 2006 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)
MehrVorlesung. Data und Web Mining. Kurzinformation zur. Univ.-Prof. Dr. Ralph Bergmann. Lehrstuhl für Wirtschaftsinformatik II
Kurzinformation zur Vorlesung Data und Web Mining Univ.-Prof. Dr. Ralph Bergmann www.wi2.uni-trier.de - I - 1 - Die Ausgangssituation (1) Unternehmen und Organisationen haben enorme Datenmengen angesammelt
MehrKonzepte der AI: Maschinelles Lernen
Konzepte der AI: Maschinelles Lernen Nysret Musliu, Wolfgang Slany Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme, TU-Wien Übersicht Was ist Lernen? Wozu maschinelles
MehrMethoden zur Cluster - Analyse
Kapitel 4 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
MehrModerne Methoden der KI: Maschinelles Lernen
Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Sommer-Semester 2008 Konzept-Lernen Konzept-Lernen Lernen als Suche Inductive Bias Konzept-Lernen: Problemstellung Ausgangspunkt:
MehrMathematische Grundlagen III
Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten
MehrHypothesenbewertungen: Übersicht
Hypothesenbewertungen: Übersicht Wie kann man Fehler einer Hypothese abschätzen? Wie kann man einschätzen, ob ein Algorithmus besser ist als ein anderer? Trainingsfehler, wirklicher Fehler Kreuzvalidierung
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer Organisation Vorlesung/Übung, praktische
MehrEinführung i.d. Wissensverarbeitung
Einführung in die Wissensverarbeitung 2 VO 708.560 + 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für Grundlagen der
MehrDatenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität
Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Dominik Lahmann Tobias Scheffer Überblick Hypothesenbewertung, Risikoschätzung
MehrMustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle
Mustererkennung Unüberwachtes Lernen R. Neubecker, WS 01 / 01 Übersicht (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren 1 Lernen Überwachtes Lernen Zum Training des Klassifikators
MehrKünstliche Intelligenz Maschinelles Lernen
Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen Unüberwachtes
MehrTextmining Klassifikation von Texten Teil 2: Im Vektorraummodell
Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil
MehrModerne Methoden der KI: Maschinelles Lernen
Moderne Methoden der KI: Maschinelles Lernen Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung Sommer-Semester 2009 1. Einführung: Definitionen Grundbegriffe Lernsysteme Maschinelles Lernen Lernen: Grundbegriffe
Mehr8. Reinforcement Learning
8. Reinforcement Learning Einführung 8. Reinforcement Learning Wie können Agenten ohne Trainingsbeispiele lernen? Auch kennt der Agent zu Beginn nicht die Auswirkungen seiner Handlungen. Stattdessen erhält
MehrBachelorarbeit Erkennung von Fließtext in PDF-Dokumenten
Bachelorarbeit Erkennung von Fließtext in PDF-Dokumenten 16.08.2016 David Spisla Albert Ludwigs Universität Freiburg Technische Fakultät Institut für Informatik Gliederung Motivation Schwierigkeiten bei
MehrKünstliche Intelligenz Maschinelles Lernen
Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen
MehrLernen mit Queries. Hans Kleine Büning Institut für Informatik, Universität Paderborn Paderborn (Germany),
Lernen mit Queries Hans Kleine Büning Institut für Informatik, Universität Paderborn 33095 Paderborn (Germany), E-mail: kbcsl @upb.de November 2007 1 Einführung In diesem Abschnitt beschreiben wir kurz,
MehrFunktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen
5. Klassifikation 5.6 Support Vector Maschines (SVM) übernommen von Stefan Rüping, Katharina Morik, Universität Dortmund Vorlesung Maschinelles Lernen und Data Mining, WS 2002/03 und Katharina Morik, Claus
Mehr1 Einleitung. 2 Clustering
Lernende Vektorquantisierung (LVQ) und K-Means-Clustering David Bouchain Proseminar Neuronale Netze Kurs-Nr.: CS4400 ISI WS 2004/05 david@bouchain.de 1 Einleitung Im Folgenden soll zum einen ein Überblick
MehrSupport Vector Machines, Kernels
Support Vector Machines, Kernels Katja Kunze 13.01.04 19.03.2004 1 Inhalt: Grundlagen/Allgemeines Lineare Trennung/Separation - Maximum Margin Hyperplane - Soft Margin SVM Kernels Praktische Anwendungen
MehrÜbersicht. Definition Daten Problemklassen Fehlerfunktionen
Übersicht 1 Maschinelle Lernverfahren Definition Daten Problemklassen Fehlerfunktionen 2 Entwickeln von maschinellen Lernverfahren Aufteilung der Daten Underfitting und Overfitting Erkennen Regularisierung
MehrNeuronale Netze. Christian Böhm.
Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch
MehrReinforcement Learning
Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Modellevaluierung. Niels Landwehr
Universität Potsdam Institut für Informatik ehrstuhl Maschinelles ernen Modellevaluierung Niels andwehr ernen und Vorhersage Klassifikation, Regression: ernproblem Eingabe: Trainingsdaten Ausgabe: Modell
MehrGrundlagen 1: Modelle & Mengen
Michael Wand Institut für Informatik. Angewandte Mathematik am Rechner 1 SOMMERSEMESTER 2017 > Kapitel 2 Grundlagen 1: Modelle & Mengen 2.1 Modelle Grundlagen der Modellierung
MehrNaive Bayes für Regressionsprobleme
Naive Bayes für Regressionsprobleme Vorhersage numerischer Werte mit dem Naive Bayes Algorithmus Nils Knappmeier Fachgebiet Knowledge Engineering Fachbereich Informatik Technische Universität Darmstadt
MehrModerne Methoden der KI: Maschinelles Lernen
Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen. Tobias Scheffer Michael Brückner
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Tobias Scheffer Michael Brückner Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Übung: Mo 10:00-11:30
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)
MehrData Mining auf Datenströmen Andreas M. Weiner
Technische Universität Kaiserslautern Fachbereich Informatik Lehrgebiet Datenverwaltungssysteme Integriertes Seminar Datenbanken und Informationssysteme Sommersemester 2005 Thema: Data Streams Andreas
MehrINTELLIGENTE DATENANALYSE IN MATLAB
INTELLIGENTE DATENANALYSE IN MATLAB Überwachtes Lernen: Entscheidungsbäume Literatur Stuart Russell und Peter Norvig: Artificial i Intelligence. Andrew W. Moore: http://www.autonlab.org/tutorials. 2 Überblick
MehrVorlesung: Künstliche Intelligenz
Vorlesung: Künstliche Intelligenz - KI heute, KI morgen, KI übermorgen- D P LS G ML ES S ST SA NN ME O EA SV Künstliche Intelligenz Miao Wang 1 Inhaltliche Planung für die Vorlesung 1) Definition und Geschichte
MehrPolynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen
Rückblick Polynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen Ridge Regression vermeidet Überanpassung, indem einfachere Modelle mit
MehrInhaltliche Planung für die Vorlesung
Vorlesung: Künstliche Intelligenz - Mustererkennung - P LS ES S ST ME Künstliche Intelligenz Miao Wang 1 Inhaltliche Planung für die Vorlesung 1) Definition und Geschichte der KI, PROLOG 2) Expertensysteme
MehrEinführung in das Maschinelle Lernen I
Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL
MehrNeuronale Netze. Anna Wallner. 15. Mai 2007
5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente
MehrPareto optimale lineare Klassifikation
Seminar aus Maschinellem Lernen Pareto optimale lineare Klassifikation Vesselina Poulkova Betreuer: Eneldo Loza Mencía Gliederung 1. Einleitung 2. Pareto optimale lineare Klassifizierer 3. Generelle Voraussetzung
MehrDokument Klassifikation. Thomas Uhrig: Data-Mining SS10
Agenda: 1: Klassifizierung allgemein 2: der naive Bayes-Klassifizierer 3: Beispiel 4: Probleme 5: Fazit 6: Quellen 1: Klassifizierung allgemein: 1: Klassifizierung allgemein: - Einordnung von Objekten
Mehr6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)
6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden
MehrAnalytics Entscheidungsbäume
Analytics Entscheidungsbäume Professional IT Master Prof. Dr. Ingo Claßen Hochschule für Technik und Wirtschaft Berlin Regression Klassifikation Quellen Regression Beispiel Baseball-Gehälter Gehalt: gering
MehrUnüberwachtes Lernen
Unüberwachtes Lernen Mustererkennung und Klassifikation, Vorlesung No. 12 M. O. Franz 17.01.2008 Übersicht 1 Hauptkomponentenanalyse 2 Nichtlineare Hauptkomponentenanalyse 3 K-Means-Clustering Übersicht
MehrMaschinelles Lernen. Moderne Methoden der KI: Maschinelles Lernen. Definitionen: Was ist Lernen? Definitionen: Was ist Lernen? 1.
Moderne Methoden der KI: Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung Sommer-Semester 2007 1. Einführung: Definitionen Grundbegriffe Lernsysteme Lernen: Grundbegriffe Lernsysteme Konzept-Lernen Entscheidungsbäume
MehrGrundlagen Neuronaler Netze
Grundlagen Neuronaler Netze Neuronen, Aktivierung, Output, Netzstruktur, Lernziele, Training, Grundstruktur Der Begriff neuronales Netz(-werk) steht immer für künstliche neuronale Netzwerke, wenn nicht
Mehr5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften
5. Clusteranalyse Vorbemerkungen 5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer
MehrHannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
MehrÜberblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes- Entscheidungsfunktionen
MehrVorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke
Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,
MehrWas sind Neuronale Netze?
Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk
MehrKapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem
MehrComputerlinguistische Textanalyse
Computerlinguistische Textanalyse 10. Sitzung 06.01.2014 Einführung in die Textklassifikation Franz Matthies Lehrstuhl für Computerlinguistik Institut für Germanistische Sprachwissenschaft Friedrich-Schiller
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.
MehrVorwort zur dritten Auflage
Vorwort zur dritten Auflage In Kap. 8 gibt es nun zwei neue Abschnitte. Das wichtige Thema Kreuzvalidierung erhält in Abschn. 8.5 endlich den verdienten Raum. In Abschn. 8.8 über One-Class-Learning werden
MehrValidation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation
Validation Oktober, 2013 1 von 20 Validation Lernziele Konzepte des maschinellen Lernens Validierungsdaten Model Selection Kreuz-Validierung (Cross Validation) 2 von 20 Validation Outline 1 Validation
MehrMaschinelles Lernen: Symbolische Ansätze
Semestralklausur zur Vorlesung Maschinelles Lernen: Symbolische Ansätze Prof. J. Fürnkranz / Dr. G. Grieser Technische Universität Darmstadt Wintersemester 2005/06 Termin: 23. 2. 2006 Name: Vorname: Matrikelnummer:
MehrVisualizing Similarities in Music
who is who 1 Visualizing Similarities in Music Projekt MusicMiner unter der Leitung von: MSc. Fabian Mörchen Prof. Dr. Alfred Ultsch Databionics Research Group Philipps-Universität Marburg who is who 2
Mehr1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3
Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................
MehrData Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt
Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt 18. November 2015 1 Aufgabe 1: Version Space, Generalisierung und Spezialisierung (1) Gegeben sei folgende
Mehr2. Datenvorverarbeitung
Kurzreferat Das Ziel beim Clustering ist es möglichst gleich Datensätze zu finden und diese in Gruppen, sogenannte Cluster zu untergliedern. In dieser Dokumentation werden die Methoden k-means und Fuzzy
MehrEine zweidimensionale Stichprobe
Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,
MehrBayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities)
Bayes-Netze Claudio Fischer 20.06.2013 Text- und Datamining (AG Digital Humanities) Agenda Wiederholung Wahrscheinlichkeitstheorie Beispiel Motivation Bayes-Netze Inferenz exakt Inferenz annäherend Belief
MehrClassification and Regression Trees. Markus Müller
Classification and Regression Trees Markus Müller Gliederung Lernen Entscheidungsbäume Induktives Lernen von Bäumen ID3 Algorithmus Einfluß der Beispielmenge auf den Baum Möglichkeiten zur Verbesserung
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2014/2015 Musterlösung für das 3. Übungsblatt Aufgabe 1: Version Space, Generalisierung und Spezialisierung Gegeben sei folgende Hierarchie von Begriffen:
MehrMaschinelles Lernen I Einführung. Uwe Reichel IPS, LMU München 22. April 2008
Maschinelles Lernen I Einführung Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 22. April 2008 Inhalt Einführung Lernen Maschinelle Lernverfahren im Überblick Phonetische Anwendungsbeispiele
MehrWahrscheinlichkeitsrechnung und Statistik. 8. Vorlesung
Wahrscheinlichkeitsrechnung und Statistik 8. Vorlesung - 208 ) Monte Carlo Methode für numerische Integration Sei g : [0, ] R stetige Funktion; man möchte numerisch approximieren mit Hilfe von Zufallszahlen:
MehrPraktikum Simulationstechnik Rene Schneider, Benjamin Zaiser
Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser 11.11.2008 CSM Master: Praktikum Simulationstechnik, rs034, bz003 2 Befehlsübersicht Begriffsdefinition / Neuronale Netze: / / 11.11.2008 CSM
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Einführung 5.4.2011 Gliederung 1 Modellbildung und Evaluation 2 Verlaufsmodell der Wissensentdeckung 3 Einführung in das Werkzeug RapidMiner Problem Wir haben nur eine endliche
MehrKlassifikation und Ähnlichkeitssuche
Klassifikation und Ähnlichkeitssuche Vorlesung XIII Allgemeines Ziel Rationale Zusammenfassung von Molekülen in Gruppen auf der Basis bestimmter Eigenschaften Auswahl von repräsentativen Molekülen Strukturell
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrÜbersicht. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 1
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische
Mehr5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften
5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer Clusterstruktur kennen, verschiedene
MehrTrim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, :34 P.M. Page 11. Über die Übersetzerin 9. Einleitung 19
Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, 2016 6:34 P.M. Page 11 Inhaltsverzeichnis Über die Übersetzerin 9 Einleitung 19 Was Sie hier finden werden 19 Wie dieses Arbeitsbuch aufgebaut ist
MehrKlassifikation von Signifikanztests
Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen
MehrProf. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006
Empirische Softwaretechnik Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 1 Experiment zur Vererbungstiefe Softwaretechnik: die Vererbungstiefe ist kein guter Schätzer für den Wartungsaufwand
MehrKonzepte der AI Neuronale Netze
Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale
MehrErstes Mathe-Tutorium am Themen können gewählt werden unter:
Mathe-Tutorium Erstes Mathe-Tutorium am 07.05. Themen können gewählt werden unter: https://docs.google.com/forms/d/1lyfgke7skvql cgzspjt4mkirnrgnrfpkkn3j2vqos/iewform 1 Uniersität Potsdam Institut für
MehrStatistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe
Kapitel 4 Statistische Tests 4.1 Grundbegriffe Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe X 1,..., X n. Wir wollen nun die Beobachtung der X 1,...,
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrGrundlagen 1: Modelle & Mengen
Angewandte Mathematik am Rechner 1 SOMMERSEMESTER 2018 > b c a de set S Kapitel 2 Grundlagen 1: Modelle & Mengen Frank Fischer Institut für Informatik frank.fscher@uni-mainz.de
MehrData Mining - Wiederholung
Data Mining - Wiederholung Norbert Fuhr 9. Juni 2008 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2008/2009 Musterlösung für das 3. Übungsblatt Aufgabe 1: Version Space, Generalisierung und Spezialisierung Gegeben sei folgende Hierarchie von Begriffen:
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Überwachtes Lernen: Entscheidungsbäume
INTELLIGENTE DATENANALYSE IN MATLAB Überwachtes Lernen: Entscheidungsbäume Literatur Stuart Russell und Peter Norvig: Artificial Intelligence. Andrew W. Moore: http://www.autonlab.org/tutorials. 2 Überblick
MehrTaktilsensorbasierte Steuerung von Roboterarmen zur Erstellung einer Haptischen Datenbank
Taktilsensorbasierte Steuerung von Roboterarmen zur Erstellung einer Haptischen Datenbank Matthias Schöpfer 1 Gunther Heidemann 2 Helge Ritter 1 1 {mschoepf,helge}@techfak.uni-bielefeld.de Technische Fakultät
MehrRegression und Korrelation
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen
MehrInhalt. I Einführung. Kapitel 1 Konzept des Buches Kapitel 2 Messen in der Psychologie... 27
Inhalt I Einführung Kapitel 1 Konzept des Buches........................................ 15 Kapitel 2 Messen in der Psychologie.................................. 27 2.1 Arten von psychologischen Messungen....................
Mehr