Lineare Regression. Christian Herta. Oktober, Problemstellung Kostenfunktion Gradientenabstiegsverfahren

Größe: px
Ab Seite anzeigen:

Download "Lineare Regression. Christian Herta. Oktober, Problemstellung Kostenfunktion Gradientenabstiegsverfahren"

Transkript

1 Lineare Regression Christian Herta Oktober, von 33 Christian Herta Lineare Regression

2 Lernziele Lineare Regression Konzepte des Maschinellen Lernens: Lernen mittels Trainingsmenge Kostenfunktion (cost function) Gradientenabstiegsverfahren (gradient descent) 2 von 33 Christian Herta Lineare Regression

3 Outline 1 Problemstellung 2 Kostenfunktion 3 Gradientenabstiegsverfahren 3 von 33 Christian Herta Lineare Regression

4 Lineare Regression Überwachtes Lernen (supervised learning): m-beobachtungen: {x (i) } mit Zielwerten {y (i) } Ziel: Vorhersage eines Wertes y für einen neuen Wert für x. Lineares Modell Wie sieht die Geradengleichung aus? 4 von 33 Christian Herta Lineare Regression

5 Lineare Regression Überwachtes Lernen (supervised learning): m-beobachtungen: {x (i) } mit Zielwerten {y (i) } Ziel: Vorhersage eines Wertes y für einen neuen Wert für x. Lineares Modell Parameter): h Θ (x) = Θ 0 + Θ 1 x (zwei 4 von 33 Christian Herta Lineare Regression

6 Lineare Regression Idee: Finde eine Gerade h Θ (x), die möglichst nahe zu den Datenpunkten ist. 5 von 33 Christian Herta Lineare Regression

7 Trainingsmenge Notation: m: Anzahl der Trainingsbeispiele x: Inputvariable y: Outputvariable (x, y): ein Trainingsbeispiel (x (i), y (i) ): ite-trainingsbeispiel Beispieldatensatz: Hg-PCV haemoglobin packed cell level / g/dl (x) volume (y) von 33 Christian Herta Lineare Regression

8 Übersicht: Trainingsverfahren Modell h Θ (x) Bestimmen der Modellparameter Θ mittels Lernen aus den Daten (Trainingsmenge) Funktion h Θ : Hypothese 7 von 33 Christian Herta Lineare Regression

9 Lineare Regression mit einer Variable (Univariate Lineare Regression) Warum der Name Lineare Regression mit einer Variable? Eine Variable: x Hypothese h Θ (x) = Θ 0 + Θ 1 x Hypothese ist linear bezüglich der Variable x Hypothese ist linear bezüglich der anpassbaren Parameter Θ 0, Θ 1. Vorhersage einer Flieÿkomma-Zahl mittels der Hypothese: Regression 8 von 33 Christian Herta Lineare Regression

10 Outline 1 Problemstellung 2 Kostenfunktion 3 Gradientenabstiegsverfahren 9 von 33 Christian Herta Lineare Regression

11 Kostenfunktion (cost fuction) Ausgangspunkt Hypothese hθ(x) = Θ 0 + Θ 1 x Trainingsmenge D (Paare (x, y) ) Ziel: Bestimmen der Modellparameter Θ = {Θ 0, Θ 1 } mittels Lernen aus den Daten (Trainingsmenge) Kostenfunktion ((squared error) cost function): J D (Θ) = 1 2m m (h Θ (x (i) ) y (i) ) 2 i=1 Ziel: Minimieren der Kosten(funktion) minimize θ J(Θ) 10 von 33 Christian Herta Lineare Regression

12 Kostenfunktion (cost fuction) Beachte Kostenfuntion J(Θ) ist eine Funktion von Θ. Hypothese h Θ (x) ist eine Funktion von x mit festen Parametern Θ. Erläuterung beider Funktionen an der Tafel am einfachen Beispiel hθ 1 (x) = Θ 1 x und 3 Trainingsbeispiele, für die eine Hypothese (nur hier: J Θ min 1 = 0) gefunden werden kann. 11 von 33 Christian Herta Lineare Regression

13 Beipiel: Kostenfunktion und Hypothese Datenerzeugung: y(x) = x + N(µ = 0, σ = 2.5) (N: Normalverteilung) Hypothese: h(x) = Θ 1 x 12 von 33 Christian Herta Lineare Regression

14 Problemstellung mit zwei Parametern Hypothese: h Θ (x) = Θ 0 + Θ 1 x zwei Parameter: Θ 0, Θ 1 Kostenfunktion: J(Θ 0, Θ 1 ) = 1 2m m i=1 (h Θ(x (i) ) y (i) ) 2 Darstellung von J(Θ 0, Θ 1 ) in drei Dimensionen: Θ 0, Θ 1, J 13 von 33 Christian Herta Lineare Regression

15 Contour Plot 14 von 33 Christian Herta Lineare Regression

16 Datenraum und Parameterraum 15 von 33 Christian Herta Lineare Regression

17 Kostenfunktion - Übersicht Kosten sind eine Funktion der Parameter Ziel ist es die Kosten zu minimieren, um gute Parameter zu nden. Konzept der Kostenfunktion auch für andere Arten von Modellfunktionen, wie Neuronale Netze und K-Means Clustering 16 von 33 Christian Herta Lineare Regression

18 Outline 1 Problemstellung 2 Kostenfunktion 3 Gradientenabstiegsverfahren 17 von 33 Christian Herta Lineare Regression

19 Problemstellung Hypothese: h Θ (x) = Θ 0 + Θ 1 x Parameter: Θ 0, Θ 1 Kostenfunktion: J(Θ 0, Θ 1 ) = 1 m 2m i=1 (h Θ(x (i) ) y (i) ) 2 Ziel: minimize Θ J(Θ) 18 von 33 Christian Herta Lineare Regression

20 Gradientenabstieg Ziel: Minimieren der Kosten(funktion) minimize θ J(Θ) 1 Starte mit speziellen Werten für Θ. Bei univariater linearer Regression: Θ = {Θ 0, Θ 1 } 2 Verändere die Werte für Θ so, sodass J(Θ) kleiner wird. Wiederhole Schritt 2 solange, bis ein Minimum erreicht ist. 19 von 33 Christian Herta Lineare Regression

21 Gradientenabstiegsverfahren Ziel: Minimieren der Kosten(funktion) minimize θ J(Θ) 1 Starte mit speziellen Werten für Θ 0, Θ 1 2 Bestimme den Gradienten (partiellen Ableitungen), um neue Θ 0, Θ 1 Werte in der Umgebung der alten Θ-Werte mit folgender Update Rule zu nden: Θ neu j Θ alt j mit α : Lernrate (learning rate) α Θ j J(Θ alt ) 3 Gehe zu 2 bis ein Stopp Kriterium (stopping condition) erfüllt ist, wie z.b. nur noch marginale Änderung der Kosten. 20 von 33 Christian Herta Lineare Regression

22 Gleichzeitiges Update aller Parameter Beachte bei der Implementierung: Gleichzeitiges Update aller Parameter temp0 Θ 0 α Θ 0 J(Θ 0, Θ 1 ) temp1 Θ 1 α Θ 1 J(Θ 0, Θ 1 ) Θ 0 temp0 Θ 1 temp1 21 von 33 Christian Herta Lineare Regression

23 Berechung der Gradienten Rechenübung 22 von 33 Christian Herta Lineare Regression

24 Gradientenabstiegsverfahren für lineare Regression: Θ 0 Θ 0 Θ 0 α Θ 0 J(Θ) Θ 0 J(Θ) = Θ 0 1 2m m (h Θ (x (i) ) y (i) ) 2 i=1 = 1 m (Θ 0 + Θ 1 x (i) y (i) ) 2 Θ 0 2m i=1 = 1 m (Θ 0 + Θ 1 x (i) y (i) ) m i=1 23 von 33 Christian Herta Lineare Regression

25 Gradientenabstiegsverfahren für lineare Regression: Θ 1 Θ 1 Θ 1 α Θ 1 J(Θ) Θ 1 J(Θ) = Θ 1 1 2m m (h Θ (x (i) ) y (i) ) 2 i=1 = 1 m (Θ 0 + Θ 1 x (i) y (i) ) 2 Θ 1 2m i=1 = 1 m (Θ 0 + Θ 1 x (i) y (i) ) x (i) m i=1 24 von 33 Christian Herta Lineare Regression

26 Schrittweite Schrittweite hängt von zwei Faktoren ab: Gröÿe des Gradienten Θ i J(Θ) Lernrate α > 0 (Hyperparameter) α muss richtig gewählt werden (mehr hierzu später). 25 von 33 Christian Herta Lineare Regression

27 26 von 33 Beispieldatensatz: Christian Herta Lineare Hg-PCV Regression Annäherungen der Gerade mit den Iterationen Startwert für Θ = (1., 1.)

28 27 von 33 Beispieldatensatz: Christian Herta Lineare Hg-PCV Regression Annäherungen der Gerade mit den Iterationen Startwert für Θ = (1., 1.)

29 Warum ist das Lernen so langsam? (negative) Gradient zeigt (meist) weg vom Minimum! Zig-Zag Bewegung im Parameterraum oder sehr kleines α 28 von 33 Christian Herta Lineare Regression

30 Kostenfunktion bei umskalierten x-werte Lösung: Feature Scaling - Erklärung später im Kurs Beachte: Der Gradient zeigt direkt zum Minimum! Beispieldatensatz: Hg-PCV 29 von 33 Christian Herta Lineare Regression

31 Kostenfunktion bei umskalierten x-werte Erklärung an einfachem Beispiel: x-werte der grünen Daten sind mit Faktor 2 multipliziert. 30 von 33 Christian Herta Lineare Regression

32 Batch, Mini-Batch und Online Learning Batch-Learning: Verwende alle Trainingsdaten für einen Optimierungsschritt Mini-Batch Learning: Verwende einen (kleinen) Teil der Traingsdaten für einen Optimierungsschritt Online Learning: Verwende nur ein Trainingsdatum pro Schritt typischerweise Auswahl per Zufall (Stochastic Gradient Descent) 31 von 33 Christian Herta Lineare Regression

33 Literaturangabe Andrew Ng: Machine Learning. Openclassroom Stanford University, 2013 Weiterführende Literatur: C. Bishop: Pattern recognition and Machine Learning, Springer Verlag von 33 Christian Herta Lineare Regression

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische

Mehr

Einführung in neuronale Netze

Einführung in neuronale Netze Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze

Mehr

Verwendung von LS-OPT zur Generierung von Materialkarten am Beispiel von Schaumwerkstoffen

Verwendung von LS-OPT zur Generierung von Materialkarten am Beispiel von Schaumwerkstoffen Verwendung von LS-OPT zur Generierung von Materialkarten am Beispiel von Schaumwerkstoffen Katharina Witowski (DYNAmore GmbH) Peter Reithofer (4a engineering GmbH) Übersicht Problemstellung Parameteridentifikation

Mehr

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

Kapitel LF: IV. IV. Neuronale Netze

Kapitel LF: IV. IV. Neuronale Netze Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas LF: IV-39 Machine Learning c

Mehr

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1 Inhaltsverzeichnis Regressionsanalyse... 2 Lernhinweise... 2 Einführung... 2 Theorie (1-8)... 2 1. Allgemeine Beziehungen... 3 2. 'Best Fit'... 3 3. 'Ordinary Least Squares'... 4 4. Formel der Regressionskoeffizienten...

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume

Mehr

Proseminar - Data Mining

Proseminar - Data Mining Proseminar - Data Mining SCCS, Fakultät für Informatik Technische Universität München SS 2012, SS 2012 1 Data Mining Pipeline Planung Aufbereitung Modellbildung Auswertung Wir wollen nützliches Wissen

Mehr

Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06

Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06 Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas 39 Multilayer-Perzeptrons und

Mehr

Proseminar - Data Mining

Proseminar - Data Mining Proseminar - Data Mining SCCS, Fakultät für Informatik Technische Universität München SS 2014, SS 2014 1 Data Mining: Beispiele (1) Hausnummererkennung (Klassifikation) Source: http://arxiv.org/abs/1312.6082,

Mehr

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1 Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten

Mehr

Fortgeschrittene Computerintensive Methoden

Fortgeschrittene Computerintensive Methoden Fortgeschrittene Computerintensive Methoden Einheit 8: Gradient Boosting (basierend auf einer VL-Einheit von B. Bischl in Dortmund) Bernd Bischl Matthias Schmid, Manuel Eugster, Bettina Grün, Friedrich

Mehr

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining.

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining. Motivation Themenblock: Klassifikation Praktikum: Data Warehousing und Data Mining Ziel Item hat mehrere Attribute Anhand von n Attributen wird (n+)-tes vorhergesagt. Zusätzliches Attribut erst später

Mehr

Exploration und Klassifikation von BigData

Exploration und Klassifikation von BigData Exploration und Klassifikation von BigData Inhalt Einführung Daten Data Mining: Vorbereitungen Clustering Konvexe Hülle Fragen Google: Riesige Datenmengen (2009: Prozessieren von 24 Petabytes pro Tag)

Mehr

Data Mining und maschinelles Lernen

Data Mining und maschinelles Lernen Data Mining und maschinelles Lernen Einführung und Anwendung mit WEKA Caren Brinckmann 16. August 2000 http://www.coli.uni-sb.de/~cabr/vortraege/ml.pdf http://www.cs.waikato.ac.nz/ml/weka/ Inhalt Einführung:

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

Künstliche Neuronale Netze und Data Mining

Künstliche Neuronale Netze und Data Mining Künstliche Neuronale Netze und Data Mining Catherine Janson, icasus GmbH Heidelberg Abstract Der Begriff "künstliche Neuronale Netze" fasst Methoden der Informationstechnik zusammen, deren Entwicklung

Mehr

Vorhersage von Energieverbrauch

Vorhersage von Energieverbrauch HOCHSCHULE KONSTANZ TECHNIK, WIRTSCHAFT UND GESTALTUNG Fakultät Informatik Vorhersage von Energieverbrauch Ausarbeitung im Fach Neuronale Netze Prof. Dr. Oliver Bittel Sommersemester 2008 von Max Nagl

Mehr

Neuronale Netze (Konnektionismus)

Neuronale Netze (Konnektionismus) Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen, Einsatz z.b. für Klassifizierungsaufgaben

Mehr

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung

Mehr

Unsupervised Kernel Regression

Unsupervised Kernel Regression 9. Mai 26 Inhalt Nichtlineare Dimensionsreduktion mittels UKR (Unüberwachte KernRegression, 25) Anknüpfungspunkte Datamining I: PCA + Hauptkurven Benötigte Zutaten Klassische Kernregression Kerndichteschätzung

Mehr

Optimierendes Lernen (Reinforcement Learning) - Adaptive Verfahren für dynamische Optimierungsprobleme. VE 1: Einführung

Optimierendes Lernen (Reinforcement Learning) - Adaptive Verfahren für dynamische Optimierungsprobleme. VE 1: Einführung Optimierendes Lernen (Reinforcement Learning) - Adaptive Verfahren für dynamische Optimierungsprobleme VE 1: Einführung Prof. Dr. Martin Riedmiller Machine Learning Lab Albert-Ludwigs-Universitaet Freiburg

Mehr

Extrema von Funktionen in zwei Variablen

Extrema von Funktionen in zwei Variablen Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Extrema von Funktionen in zwei Variablen Literatur: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen,

Mehr

Skriptum zum ersten Teil der Einführung in die Wissensverarbeitung

Skriptum zum ersten Teil der Einführung in die Wissensverarbeitung Skriptum zum ersten Teil der Einführung in die Wissensverarbeitung Prof. Dr. Wolfgang Maass Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 5. März 2008 Achtung: Dies Skriptum

Mehr

Quantitative Methoden der Bildungsforschung

Quantitative Methoden der Bildungsforschung Glieung Wieholung Korrelationen Grundlagen lineare Regression Lineare Regression in SPSS Übung Wieholung Korrelationen Standardisiertes Zusammenhangsmaß (unstandardisiert: Kovarianz) linearer Zusammenhang

Mehr

Nichtlineare Optimierungsprobleme mit Komplexität

Nichtlineare Optimierungsprobleme mit Komplexität Definition eines Nichtlinearen Optimierungsproblemes (NLP) min f (x) bzw. min f (x) s.d. x S x S wobei die zulässige Menge S R n typischerweise definiert ist durch S {x R n : h(x) =, c(x) } für Gleichungs-

Mehr

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen Kapitel ML: I I. Einführung Beispiele für Lernaufgaben Spezifikation von Lernproblemen ML: I-8 Introduction c STEIN/LETTMANN 2005-2010 Beispiele für Lernaufgaben Autoeinkaufsberater Welche Kriterien liegen

Mehr

Schätzen der Fehlerzahl. in Software-Dokumenten. Dr. Frank Padberg Universität Karlsruhe Mai 2003

Schätzen der Fehlerzahl. in Software-Dokumenten. Dr. Frank Padberg Universität Karlsruhe Mai 2003 Schätzen der Fehlerzahl in Software-Dokumenten Dr. Frank Padberg Universität Karlsruhe Mai 2003 Motivation beim Testen oder bei Inspektionen werden nicht alle Fehler gefunden Anzahl der unentdeckten Fehler

Mehr

Workshop Aktuelle Entwicklungen bei der Auswertung von Fernerkundungsdaten für forstliche Aufgabenstellungen

Workshop Aktuelle Entwicklungen bei der Auswertung von Fernerkundungsdaten für forstliche Aufgabenstellungen Workshop Aktuelle Entwicklungen bei der Auswertung von Fernerkundungsdaten für forstliche Aufgabenstellungen Schätzung von Holzvorräten und Baumartenanteilen mittels Wahrscheinlichkeitsmodellen Haruth

Mehr

12. Bivariate Datenanalyse. In den Kapiteln 4-11 wurden univariate Daten betrachtet:

12. Bivariate Datenanalyse. In den Kapiteln 4-11 wurden univariate Daten betrachtet: 12. Bivariate Datenanalyse Während einer nur Zahlen im Kopf hat, kann er nicht auf den Kausalzusammenhang kommen Anonymus In den Kapiteln 4-11 wurden univariate Daten betrachtet: Von univariaten Daten

Mehr

Big Data als neuer Partner von Six Sigma Optimierung der diskreten Produktion

Big Data als neuer Partner von Six Sigma Optimierung der diskreten Produktion Big Data als neuer Partner von Six Sigma Optimierung der diskreten Produktion Frank Effenberger, Marco Fischer, 22.06.2015, München Agenda Firmenpräsentation Einführung Anwendungsfall Fazit Zahlen und

Mehr

Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien

Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien Katharina Witowski katharina.witowski@dynamore.de Übersicht Beispiel Allgemeines zum LS-OPT Viewer Visualisierung von Simulationsergebnissen

Mehr

Visualisierung hochdimensionaler Daten. Hauptseminar SS11 Michael Kircher

Visualisierung hochdimensionaler Daten. Hauptseminar SS11 Michael Kircher Hauptseminar SS11 Inhalt Einführung zu hochdimensionalen Daten Visualisierungsmöglichkeiten dimensionale Teilmengen dimensionale Schachtelung Achsenumgestaltung Algorithmen zur Dimensionsreduktion Zusammenfassung

Mehr

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining.

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining. Personalisierung Personalisierung Thomas Mandl Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung Klassifikation Die Nutzer werden in vorab bestimmte Klassen/Nutzerprofilen

Mehr

Was wollen wir mit den statistischen Methoden erreichen?

Was wollen wir mit den statistischen Methoden erreichen? Was wollen wir mit den statistischen Methoden erreichen? Lösung betrieblicher Probleme: enkung der Kosten, Erhöhung der Fähigkeiten durch statistische Prozessanalyse und Prozessverbesserung, Qualifizierung

Mehr

0 Einführung: Was ist Statistik

0 Einführung: Was ist Statistik 0 Einführung: Was ist Statistik 1 Datenerhebung und Messung 2 Univariate deskriptive Statistik 3 Multivariate Statistik 4 Regression 5 Ergänzungen Explorative Datenanalyse EDA Auffinden von Strukturen

Mehr

2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht

2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht 2.5.2 Selbstorganisierte Karten: das Modell von Kohonen Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht zwischen den einzelnen Neuronen gibt, spielt deren räumliche Anordnung keine

Mehr

Mathematik 1 für Wirtschaftsinformatik

Mathematik 1 für Wirtschaftsinformatik Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration

Mehr

Data-Mining: Ausgewählte Verfahren und Werkzeuge

Data-Mining: Ausgewählte Verfahren und Werkzeuge Fakultät Informatik Institut für Angewandte Informatik Lehrstuhl Technische Informationssysteme Data-Mining: Ausgewählte Verfahren und Vortragender: Jia Mu Betreuer: Dipl.-Inf. Denis Stein Dresden, den

Mehr

Methoden der Datenanalyse AI-basierte Decision Support Systeme WS 2006/07

Methoden der Datenanalyse AI-basierte Decision Support Systeme WS 2006/07 Regression Trees Methoden der Datenanalyse AI-basierte Decision Support Systeme WS 2006/07 Ao.Univ.Prof. Dr. Marcus Hudec marcus.hudec@univie.ac.at Institut für Scientific Computing, Universität Wien 2

Mehr

Maschinelles Lernen Entscheidungsbäume

Maschinelles Lernen Entscheidungsbäume Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Paul Prasse Entscheidungsbäume Eine von vielen Anwendungen: Kreditrisiken Kredit - Sicherheiten

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung Sommer-Semester 2009 1. Einführung: Definitionen Grundbegriffe Lernsysteme Maschinelles Lernen Lernen: Grundbegriffe

Mehr

Visualisierung von Bag-of-Visual-Words-Vektoren für die Visual Concept Detection

Visualisierung von Bag-of-Visual-Words-Vektoren für die Visual Concept Detection Masterarbeit Visualisierung von Bag-of-Visual-Words-Vektoren für die Visual Concept Detection Peter Retzla peter.retzlaff@student.hpi.uni-potsdam.de Eingereicht am 17. März 2014 Betreuung: Christian Hentschel,

Mehr

Digitale Bildverarbeitung Einheit 11 Klassifikation

Digitale Bildverarbeitung Einheit 11 Klassifikation Digitale Bildverarbeitung Einheit 11 Klassifikation Lehrauftrag WS 06/07 Fachbereich M+I der FH-Offenburg Dr. Bernard Haasdonk Albert-Ludwigs-Universität Freiburg Ziele der Einheit Verstehen, dass basierend

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

Reinforcement Learning 2

Reinforcement Learning 2 Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement Learning 2 Uwe Dick Inhalt Erinnerung: Bellman-Gleichungen, Bellman-Operatoren Policy Iteration Sehr große oder kontinuierliche

Mehr

MS SQL Server 2012 (4)

MS SQL Server 2012 (4) MS SQL Server 2012 (4) Data Mining, Analyse und multivariate Verfahren Marco Skulschus Jan Tittel Marcus Wiederstein Webseite zum Buch: http://vvwvv.comelio-medien.com/buch-kataiog/ms sql_server/ms sql

Mehr

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim (künstliche) Neuronale Netze (c) Till Hänisch 2003,2015, DHBW Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Aufbau des Gehirns Säugetiergehirn,

Mehr

Prof. Dr. Udo Hahn. Seminar im Modul M-GSW-09 WiSe 2015/2016

Prof. Dr. Udo Hahn. Seminar im Modul M-GSW-09 WiSe 2015/2016 Seminar im Modul M-GSW-09 WiSe 2015/2016 Prof. Dr. Udo Hahn Lehrstuhl für Angewandte Germanistische Sprachwissenschaft / Computerlinguistik Institut für Germanistische Sprachwissenschaft Friedrich-Schiller-Universität

Mehr

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg Universität Regensburg Wintersemester 2012/13 1 Einführung Anwendungen Finanzwirtschaft: maximale Gewinnrate unter Beschränkungen an das Risiko; Portfolio von Investments Produktion: maximiere Gewinn bei

Mehr

SAP Predictive Challenge - Lösung. DI Walter Müllner, Dr. Ingo Peter, Markus Tempel 22. April 2015

SAP Predictive Challenge - Lösung. DI Walter Müllner, Dr. Ingo Peter, Markus Tempel 22. April 2015 SAP Predictive Challenge - Lösung DI Walter Müllner, Dr. Ingo Peter, Markus Tempel 22. April 2015 Teil II - Lösung Teil II-1: Fachbereich (automated mode) Teil II-2: Experte (PAL HANA) Teil II-3: Vergleich

Mehr

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,

Mehr

(Lineare) stochastische Optimierung

(Lineare) stochastische Optimierung (Lineare) stochastische Optimierung Bsp: Aus zwei Sorten Rohöl wird Benzin und Heizöl erzeugt. Die Produktivität sowie der Mindestbedarf (pro Woche) und die Kosten sind in folgender Tabelle angegeben:

Mehr

Optimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli 2010. Fachbereich für Mathematik und Statistik Universität Konstanz

Optimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli 2010. Fachbereich für Mathematik und Statistik Universität Konstanz Optimale Steuerung Kevin Sieg Fachbereich für Mathematik und Statistik Universität Konstanz 14. Juli 2010 1 / 29 Aufgabenstellung 1 Aufgabenstellung Aufgabenstellung 2 Die zusammengesetzte Trapezregel

Mehr

Ideen der Informatik. Maschinelles Lernen. Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik

Ideen der Informatik. Maschinelles Lernen. Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik Ideen der Informatik Maschinelles Lernen Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik Übersicht Lernen: Begriff Beispiele für den Stand der Kunst Spamerkennung Handschriftenerkennung

Mehr

Übungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014

Übungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014 Übungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014 Aufgabe 1. Data Mining a) Mit welchen Aufgabenstellungen befasst sich Data Mining? b) Was versteht man unter Transparenz einer Wissensrepräsentation?

Mehr

MythMiner. Ein Empfehlungssystem für Fernsehprogramme auf Basis von RapidMiner. Balázs Bárány. Linuxwochen Wien, 7. 5. 2011

MythMiner. Ein Empfehlungssystem für Fernsehprogramme auf Basis von RapidMiner. Balázs Bárány. Linuxwochen Wien, 7. 5. 2011 Voraussetzungen für Data Mining und Text Mining Schluÿ Ein Empfehlungssystem für Fernsehprogramme auf Basis von RapidMiner Linuxwochen Wien, 7. 5. 2011 Voraussetzungen für Data Mining und Text Mining Schluÿ

Mehr

ML-Werkzeuge und ihre Anwendung

ML-Werkzeuge und ihre Anwendung Kleine Einführung: und ihre Anwendung martin.loesch@kit.edu (0721) 608 45944 Motivation Einsatz von maschinellem Lernen erfordert durchdachtes Vorgehen Programmieren grundlegender Verfahren aufwändig fehlerträchtig

Mehr

Kernel, Perceptron, Regression. Erich Schubert, Arthur Zimek. 2014-07-20 KDD Übung

Kernel, Perceptron, Regression. Erich Schubert, Arthur Zimek. 2014-07-20 KDD Übung Kernel, Perceptron, Regression Erich Schubert, Arthur Zimek Ludwig-Maximilians-Universität München 2014-07-20 KDD Übung Kernel-Fukctionen Kernel kann mehrdeutig sein! Unterscheidet zwischen: Kernel function

Mehr

3. Die GUI-Tools der Fuzzy-Logic-Toolbox

3. Die GUI-Tools der Fuzzy-Logic-Toolbox -20-3. Die GUI-Tools der Fuzzy-Logic-Toolbox Im folgenden sollen die wichtigsten Komponenten, die Graphical user interface (GUI-) tools, zum Erstellen von Fuzzy-Produktionsregelsystemen (fuzzy inference

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel

Mehr

Data Mining Anwendungen und Techniken

Data Mining Anwendungen und Techniken Data Mining Anwendungen und Techniken Knut Hinkelmann DFKI GmbH Entdecken von Wissen in banken Wissen Unternehmen sammeln ungeheure mengen enthalten wettbewerbsrelevantes Wissen Ziel: Entdecken dieses

Mehr

Artificial Life und Multiagentensysteme

Artificial Life und Multiagentensysteme Vortrag im Rahmen des Seminars: Artificial Life und Multiagentensysteme Prof. Dr. Winfried Kurth Sommersemester 2003 Prognose von Zeitreihen mit GA/GP Mathias Radicke, Informatikstudent, 10. Semester Gliederung

Mehr

Einführung in Statistik und Messwertanalyse für Physiker

Einführung in Statistik und Messwertanalyse für Physiker Gerhard Böhm, Günter Zech Einführung in Statistik und Messwertanalyse für Physiker SUB Göttingen 7 219 110 697 2006 A 12486 Verlag Deutsches Elektronen-Synchrotron Inhalt sverzeichnis 1 Einführung 1 1.1

Mehr

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen 5.1 Lernen mit Entscheidungsbäumen Falls zum Beispiel A = {gelb, rot, blau} R 2 und B = {0, 1}, so definiert der folgende Entscheidungsbaum eine Hypothese H : A B (wobei der Attributvektor aus A mit x

Mehr

Algorithms for Regression and Classification

Algorithms for Regression and Classification Fakultät für Informatik Effiziente Algorithmen und Komplexitätstheorie Algorithms for Regression and Classification Robust Regression and Genetic Association Studies Robin Nunkesser Fakultät für Informatik

Mehr

Lernende Suchmaschinen

Lernende Suchmaschinen Lernende Suchmaschinen Qingchui Zhu PG 520 - Intelligence Service (WiSe 07 / SoSe 08) Verzeichnis 1 Einleitung Problemstellung und Zielsetzung 2 Was ist eine lernende Suchmaschine? Begriffsdefinition 3

Mehr

Proseminar - Data Mining

Proseminar - Data Mining Vorbesprechung Proseminar - Data Mining SCCS, Fakultät für Informatik Technische Universität München SS 2015 Vorbesprechung, SS 2015 1 Data Mining: Beispiele (1) Hausnummererkennung (Klassifikation) Source:

Mehr

Vortrag zum Paper Results of the Active Learning Challenge von Guyon, et. al. Sören Schmidt Fachgebiet Knowledge Engineering

Vortrag zum Paper Results of the Active Learning Challenge von Guyon, et. al. Sören Schmidt Fachgebiet Knowledge Engineering Vortrag zum Paper Results of the Active Learning Challenge von Guyon, et. al. Sören Schmidt Fachgebiet Knowledge Engineering 11.12.2012 Vortrag zum Paper Results of the Active Learning Challenge von Isabelle

Mehr

Automatisches Lernen von Regeln zur quellseitigen Umordnung

Automatisches Lernen von Regeln zur quellseitigen Umordnung Automatisches Lernen von Regeln zur quellseitigen Umordnung E I N A N S AT Z V O N D M I T R I Y G E N Z E L Duwaraka Murugadas Fortgeschrittene Methoden der statistischen maschinellen Übersetzung (Miriam

Mehr

Algorithmische Modelle als neues Paradigma

Algorithmische Modelle als neues Paradigma Algorithmische Modelle als neues Paradigma Axel Schwer Seminar über Philosophische Grundlagen der Statistik, WS 2010/11 Betreuer: Prof. Dr. Thomas Augustin München, den 28. Januar 2011 1 / 29 LEO BREIMAN

Mehr

2. Lernen von Entscheidungsbäumen

2. Lernen von Entscheidungsbäumen 2. Lernen von Entscheidungsbäumen Entscheidungsbäume 2. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Property-Driven Product Development/Design

Property-Driven Product Development/Design Seminar Virtual Engineering Property-Driven Product Development/Design Christoph Semkat Gliederung 1. Grundlagen Rechnerunterstützung Prozess der Produktentwicklung 2. Konzept Property-Driven

Mehr

Rating. { 0 = kein Ausfall des Kreditnehmers i

Rating. { 0 = kein Ausfall des Kreditnehmers i Jörg Lemm Vorlesung Finanzmathematik, WS 06/07 Universität Münster 25.1.2007, 1.2.2007, 8.2.2007 Rating Ratingverfahren versuchen, die Wahrscheinlichkeit dafür zu schätzen, dass ein Kreditnehmer seinen

Mehr

Technische Universität. Fakultät für Informatik

Technische Universität. Fakultät für Informatik Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Betreuer: Dr. Florian

Mehr

Klausur zur Vorlesung Methoden der empirischen Kapitalmarktforschung

Klausur zur Vorlesung Methoden der empirischen Kapitalmarktforschung Universität Augsburg Wirtschaftswissenschaftliche Fakultät Lehrstuhl für Finanz und Bankwirtschaft Matrikelnummer Klausur zur Vorlesung Methoden der empirischen Kapitalmarktforschung Prof. Dr. Marco Wilkens

Mehr

Allgemeine Regressionsanalyse. Kovariablen / Prädiktoren / unabhängige Variablen X j R d, evtl. deterministisch

Allgemeine Regressionsanalyse. Kovariablen / Prädiktoren / unabhängige Variablen X j R d, evtl. deterministisch Prof. Dr. J. Franke Statistik II für Wirtschaftswissenschaftler 9.1 Allgemeine Regressionsanalyse Daten (X j, Y j ), j = 1,..., N unabhängig Kovariablen / Prädiktoren / unabhängige Variablen X j R d, evtl.

Mehr

IBM SPSS Neural Networks

IBM SPSS Neural Networks IBM SPSS Neural Networks Neue Tools für die Erstellung von Vorhersagemodellen Highlights Untersuchen subtiler oder verdeckter Muster in den Daten Erstellen leistungsfähigerer Modelle Keine Programmierung

Mehr

Transformation und Darstellung funktionaler Daten

Transformation und Darstellung funktionaler Daten Transformation und Darstellung funktionaler Daten Seminar - Statistik funktionaler Daten Jakob Bossek Fakultät für Statistik 7. Mai 2012 Übersicht Einleitung Einordnung im Seminar Motivation am Beispiel

Mehr

MICRON Bedienungsanleitung

MICRON Bedienungsanleitung MICRON Bedienungsanleitung Version 2.1 Revision 110603 1 Inhaltsverzeichnis Einführung... 3 Bedienung... 4 LED- Funktionen... 5 Layout öffnen... 7 Layout auf anderen MICRON übertragen... 7 Layout drucken...

Mehr

Datamining-Cup 2012 - TeamFK i. Datamining-Cup 2012 - TeamFK

Datamining-Cup 2012 - TeamFK i. Datamining-Cup 2012 - TeamFK i Datamining-Cup 2012 - TeamFK ii Inhaltsverzeichnis 1 Programme und Datenvorverarbeitung 1 2 Vorbetrachtung der Daten 2 2.1 Zeitintervalle..................................................... 2 2.2 Mittelwert

Mehr

Adaptive Behavior from Fixed Weight Networks

Adaptive Behavior from Fixed Weight Networks Adaptive Behavior from Fixed Weight Networks Jonas Zilles, 11. Juni 007 Betreuer: Dr. Mohamed Oubbati 1 Inhaltsverzichnis 1. Abstrakt Seite 3. Einführung Seite 3 3. Problem. Seite 5 3.1. Training. Seite

Mehr

GMDS-Tagung 2006 Bioinformatik 1. Assessing the stability of unsupervised learning results in small-sample-size problems

GMDS-Tagung 2006 Bioinformatik 1. Assessing the stability of unsupervised learning results in small-sample-size problems GMDS-Tagung 2006 Bioinformatik 1 Assessing the stability of unsupervised learning results in small-sample-size problems Ulrich Möller Email: Ulrich.Moeller@hki-jena.de Leibniz Institute for Natural Product

Mehr

Ist Angriff besser als Verteidigung? Der richtige Weg für IT-Sicherheitsausbildung

Ist Angriff besser als Verteidigung? Der richtige Weg für IT-Sicherheitsausbildung Ist Angriff besser als Verteidigung? Der richtige Weg für IT-Sicherheitsausbildung Martin Mink Universität Mannheim 10. Deutscher IT-Sicherheitskongress des BSI Bonn, 23. Mai 2007 Vorstellung Lehrstuhl

Mehr

Projekt 7. Machine Learning. (Matthias Bethge) 7.1 Overtüre

Projekt 7. Machine Learning. (Matthias Bethge) 7.1 Overtüre Projekt 7 Machine Learning Matthias Bethge) 7. Overtüre Alles messen, was messbar ist - und messbar machen, was noch nicht messbar ist. Galileo Galilei 564-642) Ziel der quantitativen Wissenschaft ist

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Entscheidungsbäume

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Entscheidungsbäume Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Entscheidungsbäume Christoph Sawade/Niels Landwehr Jules Rasetaharison, Tobias Scheffer Entscheidungsbäume Eine von vielen Anwendungen:

Mehr

Tutorial 2: Simulationen

Tutorial 2: Simulationen Tutorial 2: Simulationen Andrea Wiencierz Institut für Statistik, LMU München Andrea.Wiencierz@stat.uni-muenchen.de Abschlussarbeiten-Kolloquium, AG Augustin A. Wiencierz (LMU Munich) Literature & LATEX

Mehr

Realtime Human Body Tracking

Realtime Human Body Tracking Realtime Human Body Tracking Vortrag im Rahmen des Seminars Ausgewählte Themen zu Bildverstehen und Mustererkennung Lehrstuhl: Professor Dr. X. Jiang Referenten: Dipl.-Math. Kai Rothaus Dipl.-Inform. Steffen

Mehr

Data Mining Standards am Beispiel von PMML. Data Mining Standards am Beispiel von PMML

Data Mining Standards am Beispiel von PMML. Data Mining Standards am Beispiel von PMML Data Mining Standards am Beispiel von PMML Allgemeine Definitionen im Data Mining Data Mining (DM) Ein Prozess, um interessante neue Muster, Korrelationen und Trends in großen Datenbeständen zu entdecken,

Mehr

Einführung in die Fuzzy Logic

Einführung in die Fuzzy Logic Einführung in die Fuzzy Logic Entwickelt von L. Zadeh in den 60er Jahren Benutzt unscharfe (fuzzy) Begriffe und linguistische Variablen Im Gegensatz zur Booleschen Logik {0,} wird das ganze Intervall [0,]

Mehr

Data Mining und Statistik: Gemeinsamkeiten und Unterschiede

Data Mining und Statistik: Gemeinsamkeiten und Unterschiede Universität Ulm Seminararbeit zum Thema Data Mining und Statistik: Gemeinsamkeiten und Unterschiede vorgelegt von: Daniel Meschenmoser betreut von: Dr. Tomas Hrycej Dr. Matthias Grabert Ulm, im Februar

Mehr

GEOPROCESSING UND MODELBUILDER

GEOPROCESSING UND MODELBUILDER GEOPROCESSING UND MODELBUILDER RÄUMLICHE ANALYSEFUNKTIONEN UND DATENMODELLIERUNG IN ARCGIS MIT TOOLBOX UND MODELBUILDER. EINFÜHRUNG INS PYTHON-SCRIPTING IN ARCGIS DAUER: 2 Tage ÜBERSICHT In dieser Schulung

Mehr

Text Mining 4. Seminar Klassifikation

Text Mining 4. Seminar Klassifikation Text Mining 4. Seminar Klassifikation Stefan Bordag 1. Klassifikation Stringklassifikation (männliche-weibliche Vornamen) Dokument klassifikation Bayesian Neuronal network (Decision tree) (Rule learner)

Mehr

Statistische Versuchsplanung - zuverlässiger und schneller zu Ergebnissen" Dr. Uwe Waschatz

Statistische Versuchsplanung - zuverlässiger und schneller zu Ergebnissen Dr. Uwe Waschatz Statistische Versuchsplanung - zuverlässiger und schneller zu Ergebnissen" Dr. Uwe Waschatz Inhalt Problembeschreibung Multiple lineare Regressionsanalyse Statistische Versuchsplanung / Design of Experiments

Mehr

Übungen aus den numerischen Methoden der Astronomie SS 2011

Übungen aus den numerischen Methoden der Astronomie SS 2011 Übungen aus den numerischen Methoden der Astronomie SS 2011 1. Fermat Teil I : Berechnen Sie die Fläche eines rechtwinkeligen Dreiecks mit Hilfe des pythagoräischen Lehrsatzes. Die beiden Katheten sollen

Mehr

Angewandte Statistik und Datenanalyse

Angewandte Statistik und Datenanalyse Emmerich Kneringer Angewandte Statistik und Datenanalyse WS 2010 704.025 Brauchbar fürs F-Praktikum 1 home page: physik.uibk.ac.at/fp1 Vortrag: Mo 4. Okt. 2010 14 30-17 00 RR 15 Übersicht Einführendes

Mehr

PPC und Data Mining. Seminar aus Informatik LV-911.039. Michael Brugger. Fachbereich der Angewandten Informatik Universität Salzburg. 28.

PPC und Data Mining. Seminar aus Informatik LV-911.039. Michael Brugger. Fachbereich der Angewandten Informatik Universität Salzburg. 28. PPC und Data Mining Seminar aus Informatik LV-911.039 Michael Brugger Fachbereich der Angewandten Informatik Universität Salzburg 28. Mai 2010 M. Brugger () PPC und Data Mining 28. Mai 2010 1 / 14 Inhalt

Mehr

Textmining Klassifikation von Texten Teil 1: Naive Bayes

Textmining Klassifikation von Texten Teil 1: Naive Bayes Textmining Klassifikation von Texten Teil 1: Naive Bayes Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten 1: Naive

Mehr