Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen

Größe: px
Ab Seite anzeigen:

Download "Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen"

Transkript

1 Kapitel ML: I I. Einführung Beispiele für Lernaufgaben Spezifikation von Lernproblemen ML: I-8 Introduction c STEIN/LETTMANN

2 Beispiele für Lernaufgaben Autoeinkaufsberater Welche Kriterien liegen einer Entscheidung zugrunde? ML: I-9 Introduction c STEIN/LETTMANN

3 Beispiele für Lernaufgaben Risikoanalyse bei Kreditvergabe Kunde 1 Hausbesitzer ja Einkommen (p.a.) EUR Tilgung (p.m.) EUR Kreditlaufzeit 7 Jahre SCHUFA-Eintrag nein Alter 37 verheiratet ja Kunde n Hausbesitzer nein Einkommen (p.a.) EUR Tilgung (p.m.) EUR Kreditlaufzeit 8 Jahre SCHUFA-Eintrag nein Alter? verheiratet nein... ML: I-10 Introduction c STEIN/LETTMANN

4 Beispiele für Lernaufgaben Risikoanalyse bei Kreditvergabe Kunde 1 Hausbesitzer ja Einkommen (p.a.) EUR Tilgung (p.m.) EUR Kreditlaufzeit 7 Jahre SCHUFA-Eintrag nein Alter 37 verheiratet ja Kunde n Hausbesitzer nein Einkommen (p.a.) EUR Tilgung (p.m.) EUR Kreditlaufzeit 8 Jahre SCHUFA-Eintrag nein Alter? verheiratet nein... Gelernte Regeln: IF THEN IF THEN (Einkommen> AND Kreditlaufzeit<3) OR Hausbesitzer=ja Kreditvergabe=ja SCHUFA-Eintrag=ja OR (Einkommen<20.000) AND Tilgung>800) Kreditvergabe=nein ML: I-11 Introduction c STEIN/LETTMANN

5 Beispiele für Lernaufgaben Bildanalyse ML: I-12 Introduction c STEIN/LETTMANN

6 Beispiele für Lernaufgaben Bildanalyse Sharp Left Straight Ahead Sharp Right 30 Output Units 4 Hidden Units 30x32 Sensor Input Retina ML: I-13 Introduction c STEIN/LETTMANN

7 Definition 1 (Maschinelles Lernen, Machine Learning [Mitchell 1997]) A computer program is said to learn from experience (Erfahrung) with respect to some class of tasks (Aufgaben) and a performance measure (Gütemaß), if its performance at the tasks improves with the experience. ML: I-14 Introduction c STEIN/LETTMANN

8 Bemerkungen: Beispiel Schach. Aufgabe = Schachspielen Gütemaß = Anteil gewonnener Spiele bei einer Weltmeisterschaft Erfahrung = Möglichkeit, gegen sich selbst zu spielen Beispiel Schrifterkennung. Aufgabe = Isolation und Klassifikation handgeschriebener Worte in Bitmaps Gütemaß = Anteil korrekt klassifizierter Worte Erfahrung = Kollektion mit korrekt klassifizierten, handgeschriebenen Worten ML: I-15 Introduction c STEIN/LETTMANN

9 Lernparadigmen 1. Überwachtes Lernen (Supervised Learning) Gelernt werden soll eine Funktion aus gegebenen Paaren von Ein- und Ausgaben. Wichtiges Teilgebiet des überwachten Lernens ist die automatische Klassifikation. Beispiel: Handschrifterkennung 2. Unüberwachtes Lernen (Unsupervised Learning) Ziel ist das Erkennen von Strukturen in Daten. Hierzu gehört die automatische Einteilung in Kategorien (Clustering), Optimierung von Modellparametern (Expectation Maximization), oder die Übersetzung der beobachteten Daten in eine einfachere Repräsentation (Faktoranalyse). 3. Bekräftigungslernen (Reinforcement Learning) Ziel ist das Erlernen bzw. Anpassen oder Optimieren einer Verhaltensstrategie durch Feedback aus der Umwelt unter dem Prinzip der Nutzenmaximierung. Beispiel: Agenten in einer virtuellen Welt ML: I-16 Introduction c STEIN/LETTMANN

10 Lernparadigmen 1. Überwachtes Lernen (Supervised Learning) Gelernt werden soll eine Funktion aus gegebenen Paaren von Ein- und Ausgaben. Wichtiges Teilgebiet des überwachten Lernens ist die automatische Klassifikation. Beispiel: Handschrifterkennung 2. Unüberwachtes Lernen (Unsupervised Learning) Ziel ist das Erkennen von Strukturen in Daten. Hierzu gehört die automatische Einteilung in Kategorien (Clustering), Optimierung von Modellparametern (Expectation Maximization), oder die Übersetzung der beobachteten Daten in eine einfachere Repräsentation (Faktoranalyse). 3. Bekräftigungslernen (Reinforcement Learning) Ziel ist das Erlernen bzw. Anpassen oder Optimieren einer Verhaltensstrategie durch Feedback aus der Umwelt unter dem Prinzip der Nutzenmaximierung. Beispiel: Agenten in einer virtuellen Welt ML: I-17 Introduction c STEIN/LETTMANN

11 Beispiel Schach: Art der Erfahrung 1. Feedback direkt: Zu einer Brettkonfiguration ist der beste Zug gegeben. indirekt: Es gibt nur das Resultat eine ganzen Serie von Zügen, am Ende eines Spiels. ML: I-18 Introduction c STEIN/LETTMANN

12 Beispiel Schach: Art der Erfahrung 1. Feedback direkt: Zu einer Brettkonfiguration ist der beste Zug gegeben. indirekt: Es gibt nur das Resultat eine ganzen Serie von Zügen, am Ende eines Spiels. 2. Reihenfolge der Beispiele Ein Lehrer präsentiert dem Lernenden wichtige Beispiele einschließlich deren Lösung. Der Lernende wählt die Beispiele selbst aus; z. B. Brettkonfiguration, für die er keinen passenden Zug kennt. ML: I-19 Introduction c STEIN/LETTMANN

13 Beispiel Schach: Art der Erfahrung 1. Feedback direkt: Zu einer Brettkonfiguration ist der beste Zug gegeben. indirekt: Es gibt nur das Resultat eine ganzen Serie von Zügen, am Ende eines Spiels. 2. Reihenfolge der Beispiele Ein Lehrer präsentiert dem Lernenden wichtige Beispiele einschließlich deren Lösung. Der Lernende wählt die Beispiele selbst aus; z. B. Brettkonfiguration, für die er keinen passenden Zug kennt. 3. Relevanz hinsichtlich des Gütemaßes Wieviel lässt sich aufgrund der Erfahrung lernen, um in der realen Situation zu bestehen? Allein durch Spielen gegen sich selbst kann man bei Schach nicht auf Weltmeisterniveau kommen. ML: I-20 Introduction c STEIN/LETTMANN

14 Spezifikation von Klassifikationsproblemen Situation in der realen Welt: O ist ein Menge von Objekten. C ist eine Menge von Klassen. γ : O C ist der ideale Klassifikator für O. ML: I-24 Introduction c STEIN/LETTMANN

15 Spezifikation von Klassifikationsproblemen Situation in der realen Welt: O ist ein Menge von Objekten. C ist eine Menge von Klassen. γ : O C ist der ideale Klassifikator für O. Klassifikation: Feststellung der Klasse γ(o) C für gegebene o O. Ansatz zur Automatisierung: 1. Auswahl einer Menge von realen Beispielen der Form (o, γ(o)). 2. Abstraktion der Objekte o O zu Merkmalsvektoren x = α(o). 3. Berechnung von Beispielen (x, c(x)) mit x = α(o), c(x) definiert als γ(o). 4. Mathematische Formulierung des Zusammenhangs zwischen x und c(x). ML: I-25 Introduction c STEIN/LETTMANN

16 Spezifikation von Klassifikationsproblemen Situation im Modell: X ist ein Instanzenraum (Merkmalsraum) über endlich vielen Merkmalen. C ist eine Menge von Klassen. c : X C ist der ideale Klassifikator für X. D = {(x 1,c(x 1 )),...,(x n,c(x n ))} X C ist eine Menge von Beispielen. ML: I-26 Introduction c STEIN/LETTMANN

17 Spezifikation von Klassifikationsproblemen Situation im Modell: X ist ein Instanzenraum (Merkmalsraum) über endlich vielen Merkmalen. C ist eine Menge von Klassen. c : X C ist der ideale Klassifikator für X. D = {(x 1,c(x 1 )),...,(x n,c(x n ))} X C ist eine Menge von Beispielen. Maschinelles Lernproblem: Bestimmung eines Klassifikators y : X C auf Basis von D, d.h., Approximation des idealen Klassifikator c durch y. Herangehensweise: Statistik, Theorie und Algorithmen des Maschinellen Lernens. ML: I-27 Introduction c STEIN/LETTMANN

18 Spezifikation von Klassifikationsproblemen Objekte O γ Klassen C α X Merkmalsraum c y Abbildungen: γ. idealer Klassifikator auf den realen Objekten α. Modellbildungsfunktion c. idealer Klassifikator auf dem Merkmalsraum y. Approximationsfunktion für c ML: I-28 Introduction c STEIN/LETTMANN

19 Bemerkungen: Der Merkmalsraum X enthält die gemäß unserer Vorstellung (= unseres Modells) berechneten Darstellungen x 1,x 2,... der realen Objekte o 1,o 2,... Die Modellbildungsfunktion α bestimmt die Abstraktion / Darstellungstreue / Exaktheit / Qualität / Vereinfachung bei der Berechnung von x als x = α(o). Auch wenn α ein Objekt o O nur eingeschränkt als x = α(o) erfassen kann, so ist c(x) als ideale Zielfunktion zu verstehen, weil c(x) als γ(o) definiert ist und somit der Wirklichkeit entspricht. D.h., c und γ unterscheiden sich zwar im Eingaberaum, nicht aber in der Klassifikation. y ist eine Approximationsfunktion für c. Entscheidungsprobleme sind Klassifikationsprobleme mit genau zwei Klassen. Das Halteproblem für Turingmaschinen ist ein unentscheidbares Klassifikationsproblem. ML: I-29 Introduction c STEIN/LETTMANN

20 LMS-Algorithmus zur Bestimmung von y Algorithm: LMS Least Mean Square Input: D Beispiele der Form (x, c(x)) mit c(x) als Zielfunktionswert für x. η Lernrate; eine positive kleine Konstante. Internal: y(d) Menge der y(x) für die Vektoren x aus D. Output: w Gewichtsvektor. LMS(D, η) 1. initialize_random_weights((w 0,w 1,...,w p )) 2. REPEAT 3. (x, c(x)) = random_select(d) 4. y(x) = w 0 +w 1 x w p x p 5. error = c(x) y(x) 6. FOR i = 1 TO p DO 7. w i = η error x i 8. w i = w i + w i 9. ENDDO 10. UNTIL(convergence(D, y(d))) 11. return((w 0,w 1,...,w p )) ML: I-30 Introduction c STEIN/LETTMANN

21 Aufbau von lernenden Systemen [vgl. p.12, Mitchell 1997] compute_performance() Chess program Solution trace Moves, γ ML: I-31 Introduction c STEIN/LETTMANN

22 Aufbau von lernenden Systemen [vgl. p.12, Mitchell 1997] compute_performance() Chess program Solution trace Moves, γ evaluation() Move analysis accept improve Training examples <x 1, c(x 1 )>,..., <x n, c(x n )> ML: I-32 Introduction c STEIN/LETTMANN

23 Aufbau von lernenden Systemen [vgl. p.12, Mitchell 1997] compute_performance() Chess program Solution trace Moves, γ evaluation() Move analysis accept improve Training examples <x 1, c(x 1 )>,..., <x n, c(x n )> Hypothesis w 1,..., w 6 generalize() LMS algorithm ML: I-33 Introduction c STEIN/LETTMANN

24 Aufbau von lernenden Systemen [vgl. p.12, Mitchell 1997] compute_performance() Chess program Solution trace Moves, γ evaluation() Move analysis accept improve Training examples <x 1, c(x 1 )>,..., <x n, c(x n )> Problem Chess board problem generation() Hypothesis w 1,..., w 6 generalize() LMS algorithm Design-Entscheidungen (u.a.): 1. Art der Lernerfahrung 2. Form der idealen Zielfunktion γ 3. Komplexität der Modellbildungsfunktion α : O X 4. Lernalgorithmus zur Bestimmung eines Klassifikators y ML: I-34 Introduction c STEIN/LETTMANN

25 Fragestellungen Welche Algorithmen sind zur Funktionsapproximation geeignet? Wie sehen Gütemaße zur Beurteilung der Genauigkeit aus? Wie beeinflusst die Anzahl der Beispiele die Genauigkeit? Wie beeinflussen verrauschte Daten die Genauigkeit? Wo sind die theoretischen Grenzen der Lernbarkeit? Wie lässt sich Vorwissen in Lernverfahren integrieren? Was kann man bei biologischen Systemen abschauen? ML: I-35 Introduction c STEIN/LETTMANN

Kapitel LF: I. Beispiele für Lernaufgaben. Beispiele für Lernaufgaben. LF: I Introduction c STEIN

Kapitel LF: I. Beispiele für Lernaufgaben. Beispiele für Lernaufgaben. LF: I Introduction c STEIN Kapitel LF: I I. Einführung in das Maschinelle Lernen Bemerkungen: Dieses Kapitel orientiert sich an dem Buch Machine Learning von Tom Mitchell. http://www.cs.cmu.edu/ tom/mlbook.html 1 Autoeinkaufsberater?

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung Sommer-Semester 2009 1. Einführung: Definitionen Grundbegriffe Lernsysteme Maschinelles Lernen Lernen: Grundbegriffe

Mehr

1. Lernen von Konzepten

1. Lernen von Konzepten 1. Lernen von Konzepten Definition des Lernens 1. Lernen von Konzepten Lernziele: Definitionen des maschinellen Lernens kennen, Klassifikationen des maschinellen Lernens kennen, Das Prinzip des induktiven

Mehr

Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens

Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 17.04.2015 Entscheidungsprobleme beim Textmining

Mehr

Einführung in das Maschinelle Lernen I

Einführung in das Maschinelle Lernen I Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL

Mehr

Konzepte der AI: Maschinelles Lernen

Konzepte der AI: Maschinelles Lernen Konzepte der AI: Maschinelles Lernen Nysret Musliu, Wolfgang Slany Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme, TU-Wien Übersicht Was ist Lernen? Wozu maschinelles

Mehr

Maschinelles Lernen. Moderne Methoden der KI: Maschinelles Lernen. Definitionen: Was ist Lernen? Definitionen: Was ist Lernen? 1.

Maschinelles Lernen. Moderne Methoden der KI: Maschinelles Lernen. Definitionen: Was ist Lernen? Definitionen: Was ist Lernen? 1. Moderne Methoden der KI: Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung Sommer-Semester 2007 1. Einführung: Definitionen Grundbegriffe Lernsysteme Lernen: Grundbegriffe Lernsysteme Konzept-Lernen Entscheidungsbäume

Mehr

Kapitel MK:IV. IV. Modellieren mit Constraints

Kapitel MK:IV. IV. Modellieren mit Constraints Kapitel MK:IV IV. Modellieren mit Constraints Einführung und frühe Systeme Konsistenz I Binarization Generate-and-Test Backtracking-basierte Verfahren Konsistenz II Konsistenzanalyse Weitere Analyseverfahren

Mehr

Kapitel ML:XII. XII. Other Unsupervised Learning. Nearest Neighbor Strategies. Self Organizing Maps Neural Gas. Association Analysis Rule Mining

Kapitel ML:XII. XII. Other Unsupervised Learning. Nearest Neighbor Strategies. Self Organizing Maps Neural Gas. Association Analysis Rule Mining Kapitel ML:XII XII. Other Unsupervised Learning Nearest Neighbor Strategies Self Organizing Maps Neural Gas Association Analysis Rule Mining Reinforcement Learning ML:XII-1 Unsupervised Others LETTMANN

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

2. Lernen von Entscheidungsbäumen

2. Lernen von Entscheidungsbäumen 2. Lernen von Entscheidungsbäumen Entscheidungsbäume 2. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Entwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion

Entwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion Entwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion Vortrag Seminararbeit David Pogorzelski Aachen, 22.01.2015 Agenda 1 2 3 4 5 Ziel der

Mehr

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung

Mehr

Bioinformatik I (Einführung)

Bioinformatik I (Einführung) Kay Diederichs, Sommersemester 2015 Bioinformatik I (Einführung) Algorithmen Sequenzen Strukturen PDFs unter http://strucbio.biologie.unikonstanz.de/~dikay/bioinformatik/ Klausur: Fr 17.7. 10:00-11:00

Mehr

Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme

Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume von Lars-Peter Meyer im Seminar Methoden wissensbasierter Systeme bei Prof. Brewka im WS 2007/08 Übersicht Überblick maschinelles Lernen

Mehr

EXTRAKTION UND KLASSIFIKATION VON BEWERTETEN PRODUKTFEATURES AUF WEBSEITEN

EXTRAKTION UND KLASSIFIKATION VON BEWERTETEN PRODUKTFEATURES AUF WEBSEITEN EXTRAKTION UND KLASSIFIKATION VON BEWERTETEN PRODUKTFEATURES AUF WEBSEITEN T-SYSTEMS MULTIMEDIA SOLUTIONS GMBH, 16. FEBRUAR 2012 1. Schlüsselworte Semantic Web, Opinion Mining, Sentiment Analysis, Stimmungsanalyse,

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

Kybernetik Einführung

Kybernetik Einführung Kybernetik Einführung Mohamed Oubbati Institut für Neuroinformatik Tel.: (+49) 731 / 50 24153 mohamed.oubbati@uni-ulm.de 24. 04. 2012 Einführung Was ist Kybernetik? Der Begriff Kybernetik wurde im 1948

Mehr

Reinforcement Learning

Reinforcement Learning Effiziente Darstellung von Daten Reinforcement Learning 02. Juli 2004 Jan Schlößin Einordnung Was ist Reinforcement Learning? Einführung - Prinzip der Agent Eigenschaften das Ziel Q-Learning warum Q-Learning

Mehr

Optimierendes Lernen (Reinforcement Learning) - Adaptive Verfahren für dynamische Optimierungsprobleme. VE 1: Einführung

Optimierendes Lernen (Reinforcement Learning) - Adaptive Verfahren für dynamische Optimierungsprobleme. VE 1: Einführung Optimierendes Lernen (Reinforcement Learning) - Adaptive Verfahren für dynamische Optimierungsprobleme VE 1: Einführung Prof. Dr. Martin Riedmiller Machine Learning Lab Albert-Ludwigs-Universitaet Freiburg

Mehr

Einsatz von Reinforcement Learning in der Modellfahrzeugnavigation

Einsatz von Reinforcement Learning in der Modellfahrzeugnavigation Einsatz von Reinforcement Learning in der Modellfahrzeugnavigation von Manuel Trittel Informatik HAW Hamburg Vortrag im Rahmen der Veranstaltung AW1 im Masterstudiengang, 02.12.2008 der Anwendung Themeneinordnung

Mehr

Inhaltliche Planung für die Vorlesung

Inhaltliche Planung für die Vorlesung Vorlesung: Künstliche Intelligenz - Mustererkennung - P LS ES S ST ME Künstliche Intelligenz Miao Wang 1 Inhaltliche Planung für die Vorlesung 1) Definition und Geschichte der KI, PROLOG 2) Expertensysteme

Mehr

Grundlagen des Maschinellen Lernens Kap. 4: Lernmodelle Teil II

Grundlagen des Maschinellen Lernens Kap. 4: Lernmodelle Teil II 1. Motivation 2. Lernmodelle Teil I 2.1. Lernen im Limes 2.2. Fallstudie: Lernen von Patternsprachen 3. Lernverfahren in anderen Domänen 3.1. Automatensynthese 3.2. Entscheidungsbäume 3.3. Entscheidungsbäume

Mehr

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen 5.1 Lernen mit Entscheidungsbäumen Falls zum Beispiel A = {gelb, rot, blau} R 2 und B = {0, 1}, so definiert der folgende Entscheidungsbaum eine Hypothese H : A B (wobei der Attributvektor aus A mit x

Mehr

Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart

Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart Institut für maschinelle Sprachverarbeitung Universität Stuttgart schmid@ims.uni-stuttgart.de Die Folien basieren teilweise auf Folien von Mark Johnson. Koordinationen Problem: PCFGs können nicht alle

Mehr

Fuzzy Logik und Genetische Algorithmen für adaptive Prozesskontrolle

Fuzzy Logik und Genetische Algorithmen für adaptive Prozesskontrolle Fuzzy Logik und Genetische Algorithmen für adaptive Prozesskontrolle Umgang mit unsicherem Wissen VAK 03-711.08 Oliver Ahlbrecht 8. Dezember 2005 Struktur 1. Einleitung 2. Beispiel Cart-Pole 3. Warum Hybride

Mehr

Informatik und Informationstechnik (IT)

Informatik und Informationstechnik (IT) Informatik und Informationstechnik (IT) Abgrenzung Zusammenspiel Übersicht Informatik als akademische Disziplin Informations- und Softwaretechnik Das Berufsbild des Informatikers in der Bibliothekswelt

Mehr

Prof. Dr. Udo Hahn. Seminar im Modul M-GSW-09 WiSe 2015/2016

Prof. Dr. Udo Hahn. Seminar im Modul M-GSW-09 WiSe 2015/2016 Seminar im Modul M-GSW-09 WiSe 2015/2016 Prof. Dr. Udo Hahn Lehrstuhl für Angewandte Germanistische Sprachwissenschaft / Computerlinguistik Institut für Germanistische Sprachwissenschaft Friedrich-Schiller-Universität

Mehr

Daten haben wir reichlich! 25.04.14 The unbelievable Machine Company 1

Daten haben wir reichlich! 25.04.14 The unbelievable Machine Company 1 Daten haben wir reichlich! 25.04.14 The unbelievable Machine Company 1 2.800.000.000.000.000.000.000 Bytes Daten im Jahr 2012* * Wenn jedes Byte einem Buchstaben entspricht und wir 1000 Buchstaben auf

Mehr

Automatische Mustererkennung

Automatische Mustererkennung Automatische Mustererkennung Eine Einführung Eine Präsentation von Valentin Kraft Im Modul Digitale Bildverarbeitung Prof. Vogel FH Düsseldorf WS 12/13 Gliederung Anwendungsgebiete / Definition Ziele Zentrales

Mehr

Behavioral Targeting und selbstlernende Kampagnen. Aktuelle Herausforderungen für Data Mining. Dr. Alexander K. Seewald

Behavioral Targeting und selbstlernende Kampagnen. Aktuelle Herausforderungen für Data Mining. Dr. Alexander K. Seewald Behavioral Targeting und selbstlernende Kampagnen Aktuelle Herausforderungen für Data Mining Dr. Alexander K. Seewald Behavioral Targeting Kognitive Neurowissenschaften Verhalten aussagekräftiger als Erklärung

Mehr

Data Mining mit RapidMiner

Data Mining mit RapidMiner Motivation Data Mining mit RapidMiner CRISP: DM-Prozess besteht aus unterschiedlichen Teilaufgaben Datenvorverarbeitung spielt wichtige Rolle im DM-Prozess Systematische Evaluationen erfordern flexible

Mehr

PROSEMINAR ONLINE ALGORITHMEN

PROSEMINAR ONLINE ALGORITHMEN PROSEMINAR ONLINE ALGORITHMEN im Wintersemester 2000/2001 Prof. Dr. Rolf Klein, Dr. Elmar Langetepe, Dipl. Inform. Thomas Kamphans (Betreuer) Vortrag vom 15.11.2000 von Jan Schmitt Thema : Finden eines

Mehr

OPERATIONS-RESEARCH (OR)

OPERATIONS-RESEARCH (OR) OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:

Mehr

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Unüberwachtes Lernen: Adaptive Vektor Quantisierung und Kohonen Netze Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überwachtes Lernen Alle bis lang betrachteten Netzwerke

Mehr

Grundlagen der Künstlichen Intelligenz

Grundlagen der Künstlichen Intelligenz Grundlagen der Künstlichen Intelligenz 39. Brettspiele: Alpha-Beta-Suche und Ausblick Malte Helmert Universität Basel 23. Mai 2014 Brettspiele: Überblick Kapitelüberblick: 38. Einführung und Minimax-Suche

Mehr

Teil 2.2: Lernen formaler Sprachen: Hypothesenräume

Teil 2.2: Lernen formaler Sprachen: Hypothesenräume Theorie des Algorithmischen Lernens Sommersemester 2006 Teil 2.2: Lernen formaler Sprachen: Hypothesenräume Version 1.1 Gliederung der LV Teil 1: Motivation 1. Was ist Lernen 2. Das Szenario der Induktiven

Mehr

8: Zufallsorakel. Wir suchen: Einfache mathematische Abstraktion für Hashfunktionen

8: Zufallsorakel. Wir suchen: Einfache mathematische Abstraktion für Hashfunktionen Stefan Lucks 8: Zufallsorakel 139 Kryptogr. Hashfunkt. (WS 08/09) 8: Zufallsorakel Unser Problem: Exakte Eigenschaften von effizienten Hashfunktionen nur schwer erfassbar (z.b. MD5, Tiger, RipeMD, SHA-1,...)

Mehr

Theoretische Grundlagen des Software Engineering

Theoretische Grundlagen des Software Engineering Theoretische Grundlagen des Software Engineering 7: Einführung Aussagenlogik schulz@eprover.org Logisches Schließen 2 gold +1000, 1 per step, Beispiel: Jage den Wumpus Performance measure death 1000 10

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

Kapitel 11* Grundlagen ME. Aufbau eines ME-Systems Entwicklung eines ME-Systems. Kapitel11* Grundlagen ME p.1/12

Kapitel 11* Grundlagen ME. Aufbau eines ME-Systems Entwicklung eines ME-Systems. Kapitel11* Grundlagen ME p.1/12 Kapitel 11* Kapitel11* Grundlagen ME p.1/12 Grundlagen ME Aufbau eines ME-Systems Entwicklung eines ME-Systems Kapitel11* Grundlagen ME p.2/12 Aufbau eines ME-Systems (1) on line Phase digitalisiertes

Mehr

Titration einer Säure mit einer Base

Titration einer Säure mit einer Base Titration einer Säure mit einer Base Peter Bützer Inhalt 1 Einleitung... 1 2 Modellannahmen (Systemdynamik)... 2 3 Simulationsdiagramm (Typ 1)... 2 4 Dokumentation (Gleichungen, Parameter)... 3 5 Simulation...

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

Seminar Text- und Datamining Datamining-Grundlagen

Seminar Text- und Datamining Datamining-Grundlagen Seminar Text- und Datamining Datamining-Grundlagen Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 23.05.2013 Gliederung 1 Klassifikationsprobleme 2 Evaluation

Mehr

Künstliche Intelligenz Unsicherheit. Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln

Künstliche Intelligenz Unsicherheit. Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Künstliche Intelligenz Unsicherheit Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Rückblick Agent in der Wumpuswelt konnte Entscheidungen

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

Sentiment Analysis (SA) Robert Bärhold & Mario Sänger Text Analytics WS 2012/13 Prof. Leser

Sentiment Analysis (SA) Robert Bärhold & Mario Sänger Text Analytics WS 2012/13 Prof. Leser Sentiment Analysis (SA) Robert Bärhold & Mario Sänger Text Analytics WS 2012/13 Prof. Leser Gliederung Einleitung Problemstellungen Ansätze & Herangehensweisen Anwendungsbeispiele Zusammenfassung 2 Gliederung

Mehr

1 Part-of-Speech Tagging

1 Part-of-Speech Tagging 2. Übung zur Vorlesung NLP Analyse des Wissensrohstoes Text im Sommersemester 2008 Dr. Andreas Hotho, Dipl.-Inform. Dominik Benz, Wi.-Inf. Beate Krause 28. Mai 2008 1 Part-of-Speech Tagging 1.1 Grundlagen

Mehr

Data Mining Anwendungen und Techniken

Data Mining Anwendungen und Techniken Data Mining Anwendungen und Techniken Knut Hinkelmann DFKI GmbH Entdecken von Wissen in banken Wissen Unternehmen sammeln ungeheure mengen enthalten wettbewerbsrelevantes Wissen Ziel: Entdecken dieses

Mehr

4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum

4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum 4. Lernen von Entscheidungsbäumen Klassifikation mit Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch /Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden.

Mehr

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische

Mehr

Überblick: Entscheidungstheoretische Konzepte Seminar Online-Optimierung Diana Balbus

Überblick: Entscheidungstheoretische Konzepte Seminar Online-Optimierung Diana Balbus Überblick: Entscheidungstheoretische Konzepte Seminar Online-Optimierung Diana Balbus Einleitung Ein Online-Algorithmus muss Ausgaben berechnen, ohne zukünftige Eingaben zu kennen. Für die Bewertung von

Mehr

Konzepte der AI. Maschinelles Lernen

Konzepte der AI. Maschinelles Lernen Konzepte der AI Maschinelles Lernen http://www.dbai.tuwien.ac.at/education/aikonzepte/ Wolfgang Slany Institut für Informationssysteme, Technische Universität Wien mailto: wsi@dbai.tuwien.ac.at, http://www.dbai.tuwien.ac.at/staff/slany/

Mehr

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Dr. Abebe Geletu Ilmenau University of Technology Department of Simulation and Optimal Processes

Mehr

Temporal Difference Learning

Temporal Difference Learning Temporal Difference Learning Das Temporal Difference (TD) Lernen ist eine bedeutende Entwicklung im Reinforcement Lernen. Im TD Lernen werden Ideen der Monte Carlo (MC) und dynamische Programmierung (DP)

Mehr

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining.

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining. Personalisierung Personalisierung Thomas Mandl Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung Klassifikation Die Nutzer werden in vorab bestimmte Klassen/Nutzerprofilen

Mehr

Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt

Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt 18. November 2015 1 Aufgabe 1: Version Space, Generalisierung und Spezialisierung (1) Gegeben sei folgende

Mehr

Ideen der Informatik. Maschinelles Lernen. Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik

Ideen der Informatik. Maschinelles Lernen. Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik Ideen der Informatik Maschinelles Lernen Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik Übersicht Lernen: Begriff Beispiele für den Stand der Kunst Spamerkennung Handschriftenerkennung

Mehr

Adaptives maschinelles Lernen

Adaptives maschinelles Lernen Vortrag: Adaptives maschinelles Lernen Eric Winter Universität Koblenz-Landau Fachbereich Informatik - Institut für Softwaretechnik Seminar Software-Adaptivität - Sommersemester 2011 ericwinter@uni-koblenz.de

Mehr

Vorbereitungsaufgaben

Vorbereitungsaufgaben Praktikum Bildverarbeitung / Bildinformationstechnik Versuch BV 4 / BIT 3: Mustererkennung Paddy Gadegast, CV00, 160967 Alexander Opel, CV00, 16075 Gruppe 3 Otto-von-Guericke Universität Magdeburg Fakultät

Mehr

Entwicklung einer KI für Skat. Hauptseminar Erwin Lang

Entwicklung einer KI für Skat. Hauptseminar Erwin Lang Entwicklung einer KI für Skat Hauptseminar Erwin Lang Inhalt Skat Forschung Eigene Arbeit Risikoanalyse Skat Entwickelte sich Anfang des 19. Jahrhunderts Kartenspiel mit Blatt aus 32 Karten 3 Spieler Trick-taking

Mehr

1. GEGENSTAND UND GRUNDBEGRIFFE DER STATISTIK

1. GEGENSTAND UND GRUNDBEGRIFFE DER STATISTIK 1 1. GEGENSTAND UND GRUNDBEGRIFFE DER STATISTIK 1.1 Gegenstand der Statistik Die Statistik stellt ein Instrumentarium bereit, um Informationen über die Realität oder Wirklichkeit verfügbar zu machen. Definition

Mehr

Automatische Erkennung von Objekten in 3D Millimeterwellen Bilddaten für den QPS Sicherheitsscanner

Automatische Erkennung von Objekten in 3D Millimeterwellen Bilddaten für den QPS Sicherheitsscanner 2. Fachseminar Mikrowellen- und Terahertz-Prüftechnik in der Praxis Vortrag 3 Automatische Erkennung von Objekten in 3D Millimeterwellen Bilddaten für den QPS Sicherheitsscanner Athanasios KARAMALIS 1,

Mehr

Textmining Klassifikation von Texten Teil 1: Naive Bayes

Textmining Klassifikation von Texten Teil 1: Naive Bayes Textmining Klassifikation von Texten Teil 1: Naive Bayes Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten 1: Naive

Mehr

weitere Modelle und Methoden

weitere Modelle und Methoden weitere Modelle und Methoden LVQ-Netze, competetive learning, counterpropagation, motorische karten, adaptive resonance theory LVQ Struktur Lernende Vektor-Quantisierung Input-Raum mit Distanz-Funktion

Mehr

Theoretische Informatik

Theoretische Informatik Theoretische Informatik Wintersemester 2016/2017 2V, Mittwoch, 12:00-13:30 Uhr, F303 2Ü, Dienstag, 12:00-13:30 Uhr, BE08 2Ü, Dienstag, 15:00-16:30 Uhr, B212 2Ü, Mittwoch, 8:30-10:00 Uhr, B312 Fachprüfung:

Mehr

Klausur zu Methoden der Statistik I (mit Kurzlösung) Wintersemester 2007/2008. Aufgabe 1

Klausur zu Methoden der Statistik I (mit Kurzlösung) Wintersemester 2007/2008. Aufgabe 1 Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik I (mit Kurzlösung) Wintersemester 2007/2008 Aufgabe 1 Ihnen liegt

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

DLP. Adolphe Kankeu Tamghe papibobo@informatik.uni-bremen.de ALZAGK SEMINAR. Bremen, den 18. Januar 2011. Fachbereich Mathematik und Informatik 1 / 27

DLP. Adolphe Kankeu Tamghe papibobo@informatik.uni-bremen.de ALZAGK SEMINAR. Bremen, den 18. Januar 2011. Fachbereich Mathematik und Informatik 1 / 27 DLP Adolphe Kankeu Tamghe papibobo@informatik.uni-bremen.de Fachbereich Mathematik und Informatik ALZAGK SEMINAR Bremen, den 18. Januar 2011 1 / 27 Inhaltsverzeichnis 1 Der diskrete Logarithmus Definition

Mehr

Grundlagen der Künstlichen Intelligenz

Grundlagen der Künstlichen Intelligenz Grundlagen der Künstlichen Intelligenz 22. Constraint-Satisfaction-Probleme: Kantenkonsistenz Malte Helmert Universität Basel 14. April 2014 Constraint-Satisfaction-Probleme: Überblick Kapitelüberblick

Mehr

ML-Werkzeuge und ihre Anwendung

ML-Werkzeuge und ihre Anwendung Kleine Einführung: und ihre Anwendung martin.loesch@kit.edu (0721) 608 45944 Motivation Einsatz von maschinellem Lernen erfordert durchdachtes Vorgehen Programmieren grundlegender Verfahren aufwändig fehlerträchtig

Mehr

Algorithmen II Vorlesung am 15.11.2012

Algorithmen II Vorlesung am 15.11.2012 Algorithmen II Vorlesung am 15.11.2012 Kreisbasen, Matroide & Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales

Mehr

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 19.12.2013 Allgemeine Problemstellung

Mehr

Man kann zeigen (durch Einsetzen: s. Aufgabenblatt, Aufgabe 3a): Die Lösungsgesamtheit von (**) ist also in diesem Fall

Man kann zeigen (durch Einsetzen: s. Aufgabenblatt, Aufgabe 3a): Die Lösungsgesamtheit von (**) ist also in diesem Fall 4. Lösung einer Differentialgleichung. Ordnung mit konstanten Koeffizienten a) Homogene Differentialgleichungen y'' + a y' + b y = 0 (**) Ansatz: y = e µx, also y' = µ e µx und y'' = µ e µx eingesetzt

Mehr

Von der Untersuchungsfrage zu statistischen Hypothesen, und wie war das nochmal mit dem α- und

Von der Untersuchungsfrage zu statistischen Hypothesen, und wie war das nochmal mit dem α- und Von der Untersuchungsfrage zu statistischen Hypothesen, und wie war das nochmal mit dem α- und β-fehler? Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de

Mehr

Guten Morgen und Willkommen zur Saalübung!

Guten Morgen und Willkommen zur Saalübung! Guten Morgen und Willkommen zur Saalübung! 1 Wie gewinnt man ein Spiel? Was ist ein Spiel? 2 Verschiedene Spiele Schach, Tic-Tac-Toe, Go Memory Backgammon Poker Nim, Käsekästchen... 3 Einschränkungen Zwei

Mehr

Die Zukunft des beruflichen Lernens in Ausbildung und Hochschule

Die Zukunft des beruflichen Lernens in Ausbildung und Hochschule Die Zukunft des beruflichen Lernens in Ausbildung und Hochschule Flankierende Aspekte zum Vortrag von Dr. Bernd Kassebaum (Anlässlich Forum Berufsbildung am 17.6.2014) Um eine Antwort auf den Umsteuerungsprozess

Mehr

Proseminar: Geschichte des Computers Schachprogrammierung Die Digitale Revolution

Proseminar: Geschichte des Computers Schachprogrammierung Die Digitale Revolution Die Digitale Revolution Internet 3D-Drucker Quants Singularität 27.02.14 Johannes Polster Das Spiel der Könige Sehr altes Spiel: Entstehung vor 1500 Jahren Weltberühmt Strategisches Spiel Kein Glück, Intelligenz,

Mehr

Machine Learning - Maschinen besser als das menschliche Gehirn?

Machine Learning - Maschinen besser als das menschliche Gehirn? Machine Learning - Maschinen besser als das menschliche Gehirn? Seminar Big Data Science Tobias Stähle 23. Mai 2014 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der

Mehr

Mächtigkeit von WHILE-Programmen

Mächtigkeit von WHILE-Programmen Mächtigkeit von WHILE-Programmen Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 26. November 2009 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit

Mehr

Clusteranalyse: Gauß sche Mischmodelle

Clusteranalyse: Gauß sche Mischmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Fachhochschule Köln. Konzepte des maschinellen Lernens. Ausarbeitung. Florian Keller

Fachhochschule Köln. Konzepte des maschinellen Lernens. Ausarbeitung. Florian Keller Fachhochschule Köln 07 Fakultät für Informations-, Medien-, und Elektrotechnik Institut für Nachrichtentechnik Studiengang Master Technische Informatik Konzepte des maschinellen Lernens Ausarbeitung vorgelegt

Mehr

Kapitel MK:IV. IV. Modellieren mit Constraints

Kapitel MK:IV. IV. Modellieren mit Constraints Kapitel MK:IV IV. Modellieren mit Constraints Einführung und frühe Systeme Konsistenz I Binarization Generate-and-Test Backtracking-basierte Verfahren Konsistenz II Konsistenzanalyse Weitere Analyseverfahren

Mehr

Formale Methoden: Ein Überblick

Formale Methoden: Ein Überblick Formale Methoden, Heinrich Rust, Lehrstuhl für Software-Systemtechnik, BTU Cottbus, 2004-09-16, p. 1 Formale Methoden: Ein Überblick Heinrich Rust Lehrstuhl für Software-Systemtechnik BTU Cottbus 2004-09-16

Mehr

Einführung in die Finite Element Methode Projekt 2

Einführung in die Finite Element Methode Projekt 2 Einführung in die Finite Element Methode Projekt 2 Juri Schmelzer und Fred Brockstedt 17.7.2014 Juri Schmelzer und Fred Brockstedt Einführung in die Finite Element Methode Projekt 2 17.7.2014 1 / 29 Project

Mehr

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil

Mehr

R ist freie Software und kann von der Website. www.r-project.org

R ist freie Software und kann von der Website. www.r-project.org R R ist freie Software und kann von der Website heruntergeladen werden. www.r-project.org Nach dem Herunterladen und der Installation von R kann man R durch Doppelklicken auf das R-Symbol starten. R wird

Mehr

Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr.

Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Neuronale Netze Maschinelles Lernen Michael Baumann Universität Paderborn Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Kleine Büning WS 2011/2012 Was ist ein neuronales Netz? eigentlich: künstliches

Mehr

Computational Intelligence I Künstliche Neuronale Netze

Computational Intelligence I Künstliche Neuronale Netze Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.

Mehr

Folge 19 - Bäume. 19.1 Binärbäume - Allgemeines. Grundlagen: Ulrich Helmich: Informatik 2 mit BlueJ - Ein Kurs für die Stufe 12

Folge 19 - Bäume. 19.1 Binärbäume - Allgemeines. Grundlagen: Ulrich Helmich: Informatik 2 mit BlueJ - Ein Kurs für die Stufe 12 Grundlagen: Folge 19 - Bäume 19.1 Binärbäume - Allgemeines Unter Bäumen versteht man in der Informatik Datenstrukturen, bei denen jedes Element mindestens zwei Nachfolger hat. Bereits in der Folge 17 haben

Mehr

Maschinelles Lernen Entscheidungsbäume

Maschinelles Lernen Entscheidungsbäume Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Paul Prasse Entscheidungsbäume Eine von vielen Anwendungen: Kreditrisiken Kredit - Sicherheiten

Mehr

Einführung. Kapitel 1. Peter Becker (H-BRS) Operations Research I Sommersemester 2015 14 / 298

Einführung. Kapitel 1. Peter Becker (H-BRS) Operations Research I Sommersemester 2015 14 / 298 Kapitel 1 Einführung Peter Becker (H-BRS) Operations Research I Sommersemester 2015 14 / 298 Inhalt Inhalt 1 Einführung Was ist Operations Research? Planungsprozess im OR Peter Becker (H-BRS) Operations

Mehr

Projekt 7. Machine Learning. (Matthias Bethge) 7.1 Overtüre

Projekt 7. Machine Learning. (Matthias Bethge) 7.1 Overtüre Projekt 7 Machine Learning Matthias Bethge) 7. Overtüre Alles messen, was messbar ist - und messbar machen, was noch nicht messbar ist. Galileo Galilei 564-642) Ziel der quantitativen Wissenschaft ist

Mehr

Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining

Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining Ausgangssituation Kaizen Data Mining ISO 9001 Wenn andere Methoden an ihre Grenzen stoßen Es gibt unzählige Methoden, die Abläufe

Mehr

Analyse von Ausgangsbedingungen

Analyse von Ausgangsbedingungen Analyse von Ausgangsbedingungen Dr. Cornelia Schoor Workshop Systematisches Instruktionsdesign TU Dresden 09.07.2010 Wie geht man bei der Entwicklung digitaler Lehrmaterialien vor? ANALYSE PLANUNG Bestimmung

Mehr

RUPRECHTS-KARLS-UNIVERSITÄT HEIDELBERG

RUPRECHTS-KARLS-UNIVERSITÄT HEIDELBERG Die Poisson-Verteilung Jianmin Lu RUPRECHTS-KARLS-UNIVERSITÄT HEIDELBERG Ausarbeitung zum Vortrag im Seminar Stochastik (Wintersemester 2008/09, Leitung PD Dr. Gudrun Thäter) Zusammenfassung: In der Wahrscheinlichkeitstheorie

Mehr

Logik für Informatiker

Logik für Informatiker Vorlesung Logik für Informatiker 3. Aussagenlogik Einführung: Logisches Schließen im Allgemeinen Bernhard Beckert Universität Koblenz-Landau Sommersemester 2006 Logik für Informatiker, SS 06 p.1 Beispiel:

Mehr