Seminar Text- und Datamining Datamining-Grundlagen

Größe: px
Ab Seite anzeigen:

Download "Seminar Text- und Datamining Datamining-Grundlagen"

Transkript

1 Seminar Text- und Datamining Datamining-Grundlagen Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg

2 Gliederung 1 Klassifikationsprobleme 2 Evaluation 3 Entscheidungsstrategien Naive-Bayes-Klassifikation

3 Gliederung 1 Klassifikationsprobleme 2 Evaluation 3 Entscheidungsstrategien Naive-Bayes-Klassifikation

4 4 / 20 Datamining-Grundlagen Seminar Text- und Datamining SoSe 2013 Klassifikationsprobleme Klassifikationsproblem Problemstellung: Objekt einer Klasse zuordnen (z.b. Frucht einer Obstsorte) Gegeben: endliche Menge von Merkmalen eines Objekts (z.b. Farbe, Größe, Gewicht) Merkmale können verschiedene Ausprägungen haben endlich viele verschiedene Ausprägungen (nominal) (z.b. Farbe = rot, grün, blau, gelb, orange) unendlich viele verschiedene Ausprägungen (numerisch) (z.b. Größe = Größenabgabe in cm) Gesucht: Klasse, zu der das Objekt gehört Anzahl Klassen ist endlich (z.b. Apfel, Birne, Banane, Orange)

5 Datamining-Grundlagen Seminar Text- und Datamining SoSe 2013 Klassifikationsprobleme Klassifikationsproblem (Beispiel) Ausgangslage: Datensatz mit tausenden Patientendaten Auszug aus den Daten: Geschlecht BRCA-Gen Händigkeit Brustkrebs m normal rechtshändig nein w normal rechtshändig nein w mutiert beidhändig nein w mutiert rechtshändig ja w normal linkshändig ja w normal rechtshändig nein w normal rechtshändig nein m mutiert linkshändig ja m mutiert linkshändig ja w normal rechtshändig ja m normal rechtshändig nein... Fragestellung: Wie kann ich aus Geschlecht, BRCA-Gen und Händigkeit Brustkrebs-Erkrankung vorhersagen?. 5 / 20

6 6 / 20 Datamining-Grundlagen Seminar Text- und Datamining SoSe 2013 Klassifikationsprobleme Klassifikationsproblem als Funktion Gesucht ist also eine Funktion {m, w} {normal, mutiert} {rechts-, links-, beidhändig} {ja, nein} Vorschläge für Klassifikationsfunktionen: def klassifikator1(geschlecht, brca, haendigkeit): return False def klassifikator2(geschlecht, brca, haendigkeit): return True if geschlecht=="w" else False def klassifikator3(geschlecht, brca, haendigkeit): return True if geschlecht=="w" and brca=="mutiert" else False def klassifikator4(geschlecht, brca, haendigkeit): # Merkmalskombination in Datensatz nachschlagen Frage: Welcher ist der beste Klassifikator?

7 Gliederung 1 Klassifikationsprobleme 2 Evaluation 3 Entscheidungsstrategien Naive-Bayes-Klassifikation

8 8 / 20 Datamining-Grundlagen Seminar Text- und Datamining SoSe 2013 Evaluation Evaluationsmethodik Evaluation der Klassifikatoren notwendig Klassifikatoren werden (üblicherweise) trainiert Auswendiglernen des Datensatzes unerwünscht Aufteilen in Trainings- und Testdatensatz (z.b. 80/20) Generalisieren: Klassifikator soll von den Trainingsdaten verallgemeinern Overfitting: Klassifikator lernt Trainingsdaten auswendig und kann auf neue/unbekannte Daten (Testdaten) nur schlecht reagieren Evaluation der Klassifikatoren auf dem Testdatensatz ( = Vergleich der Klassifikatorentscheidungen mit der Angabe zu Brustkrebs im Testdatensatz)

9 Datamining-Grundlagen Seminar Text- und Datamining SoSe 2013 Evaluation Evaluationsfunktionen Mögliche Evaluationsergebnisse: Datensatz: Krebs Datensatz: kein Krebs Klassifikator: Krebs true positive (TP) false positive (FP) Klassifikator: kein Krebs false negative (FN) true negative (TN) Für gesamten Testdatensatz aufsummieren: #TP, #FP, #FN, #TN Evaluationsfunktion berechnet daraus eine Zahl zwischen 0 und 1. Accuracy: Wie viele der Entscheidungen sind korrekt? Accuracy = #TP + #TN Test set = #TP + #TN #TP + #FP + #FN + #TN Precision: Wie viele der Diagnosen sind auch tatsächlich Krebs? Precision = #TP #TP + #FP Recall: Wie viele der Krebserkrankungen sind erkannt worden? Recall = #TP #TP + #FN 9 / 20

10 10 / 20 Datamining-Grundlagen Seminar Text- und Datamining SoSe 2013 Evaluation Evaluationsfunktionen (fort.) Mehrere Evaluationsfunktionen sollten anwendungsabhängig gewichtet werden, z.b. mittels F-Score. F-Score: Kompromiss zwischen Precision und Recall F-Score = 2 Precision Recall Precision + Recall

11 Gliederung 1 Klassifikationsprobleme 2 Evaluation 3 Entscheidungsstrategien Naive-Bayes-Klassifikation

12 Gliederung 1 Klassifikationsprobleme 2 Evaluation 3 Entscheidungsstrategien Naive-Bayes-Klassifikation

13 Datamining-Grundlagen Seminar Text- und Datamining SoSe 2013 Entscheidungsstrategien Welche Entscheidungsstrategie ist optimal? Im Folgenden: alle Fehler sind gleich teuer Gegeben: n mögliche Klassen: K = {k 1, k 2, k n } Konkrete Beobachtung der m Merkmale: X = x 1, x 2, x m Ziel: So oft wie möglich richtig zu liegen Immer richtig zu liegen ist i.d.r. nicht möglich. Grund: mehrdeutige Beobachtungen: Geschlecht BRCA-Gen Händigkeit Brustkrebs w normal rechtshändig nein w normal rechtshändig ja Also: Minimiere den Erwartungswert der Fehlentscheidungen E(F ) = X P(ˆk, X) Optimale Strategie minimiert Fehlentscheidungsrisiko für jede einzelne Entscheidung! 13 / 20

14 Datamining-Grundlagen Seminar Text- und Datamining SoSe 2013 Entscheidungsstrategien Maximum-a-posteriori-Strategie (MAP) Beispiel: P(k 1 X) = 0.35 P(k 2 X) = 0.4 P(k 3 X) = 0.25 Wähle die Klasse ˆk = argmax k K P(k 1 X) = 0.35 P(k 2 X) = 0.4 P(k 3 X) = 0.25 P(k X) Maximum-a-posteriori-Strategie (MAP) Optimal bei uniformen Kosten und vollständigem Wissen über die Erfolgswahrscheinlichkeiten! 14 / 20

15 Datamining-Grundlagen Seminar Text- und Datamining SoSe 2013 Entscheidungsstrategien Schätzen der Wahrscheinlichkeiten Schätze aus Erfahrung (relative Häufigkeit): P(k X) H(k X) = Beispiel: X = [ w, normal, rechtshändig ] #(X, k) #(X, ) Geschlecht BRCA-Gen Händigkeit Brustkrebs w normal rechtshändig nein w mutiert rechtshändig ja w normal linkshändig ja w normal rechtshändig nein w normal rechtshändig nein w normal rechtshändig ja P( ja X) P( nein X) Interpretation: Entscheide zugunsten der Klasse, die in der Vergangenheit für die Beobachtung X am häufigsten vorlag. 15 / 20

16 Datamining-Grundlagen Seminar Text- und Datamining SoSe 2013 Entscheidungsstrategien Generalisierung Aber: Intelligentes Lernen ist mehr als nur Auswendiglernen von Beispielen. Problem: Zu wenig Beispiele, um verlässliche Schätzung durchführen zu können: Geschlecht BRCA-Gen Händigkeit Brustkrebs w normal rechtshändig ja P( nein w, normal, rechtshändig ) 1.0 (?) Oder: Beobachtung ganz neu (insbes. wenn viele und z.t. numerische Merkmale: Alter, Blutwerte,...) 16 / 20

17 17 / 20 Datamining-Grundlagen Seminar Text- und Datamining SoSe 2013 Entscheidungsstrategien Bayes-Klassifikator Anwendung der Bayes-Formel: ˆk = argmax k K P(k X) = argmax k K = argmax k K P(X k) P(k) P(X) P(X k) P(k) Wenn die Art der Wkts.verteilung P(X k) bekannt ist (z.b. Normalverteilung), können die Parameter der Verteilung aus den Beispielen gelernt werden und somit eine Generalisierung erreicht werden. Es gibt Verfahren, um die Wkts.verteilung zu vereinfachen (z.b. Naive Bayes, Bayes-Netze) Kann die Wkts.verteilung nicht angegeben werden, empfiehlt sich die Verwendung nichtstatistischer Klassifikationsverfahren (z.b. Entscheidungsbäume) =

18 Gliederung 1 Klassifikationsprobleme 2 Evaluation 3 Entscheidungsstrategien Naive-Bayes-Klassifikation

19 Datamining-Grundlagen Seminar Text- und Datamining SoSe 2013 Entscheidungsstrategien Naive-Bayes-Klassifikation Naive-Bayes-Annahme Annahme: Alle Merkmale sind voneinander bedingt unabhängig, d.h. sie hängen nur von der Klasse ab, nicht von den anderen Merkmalen. Dies ist in der Regel falsch (daher naiv). In der Praxis funktioniert es trotzdem gut, solange die Abhängigkeiten nicht zu stark sind. Beispiele für Abhängigkeiten: schwach: Es gibt etwas mehr Linkshänder unter Männern als unter Frauen. stark (fiktives Beispiel): Anders als Frauen sind Männer mit Brustkrebs überwiegend Rechtshänder. keine bedingte Abhängigkeit: Frauen zeigen häufiger Brustkrebs-Symptome als Männer. 19 / 20

20 20 / 20 Datamining-Grundlagen Seminar Text- und Datamining SoSe 2013 Entscheidungsstrategien Naive-Bayes-Klassifikation Naive-Bayes-Klassifikation Wenn die Annahme gilt, folgt und es lässt sich schreiben: P(x, y k) = P(x k) P(y k) argmax k K = argmax k K = argmax k K P(X k) P(k) = P(x 1,..., x m k) P(k) = P(x 1 k)... P(x m k) P(k) Man muss also nur noch die Verteilungen P(x i k) für jedes Merkmal getrennt lernen.

Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens

Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 17.04.2015 Entscheidungsprobleme beim Textmining

Mehr

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 19.12.2013 Allgemeine Problemstellung

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Additive Modelle Katharina Morik Informatik LS 8 Technische Universität Dortmund 7.1.2014 1 von 34 Gliederung 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung 2 von 34 Ausgangspunkt:

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

Textmining Klassifikation von Texten Teil 1: Naive Bayes

Textmining Klassifikation von Texten Teil 1: Naive Bayes Textmining Klassifikation von Texten Teil 1: Naive Bayes Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten 1: Naive

Mehr

Evaluation. Caroline Sporleder. Computational Linguistics Universität des Saarlandes. Sommersemester 2011 26.05.2011

Evaluation. Caroline Sporleder. Computational Linguistics Universität des Saarlandes. Sommersemester 2011 26.05.2011 Evaluation Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 26.05.2011 Caroline Sporleder Evaluation (1) Datensets Caroline Sporleder Evaluation (2) Warum evaluieren?

Mehr

Mathe III. Garance PARIS. Mathematische Grundlagen III. Evaluation. 16. Juli /25

Mathe III. Garance PARIS. Mathematische Grundlagen III. Evaluation. 16. Juli /25 Mathematische Grundlagen III Evaluation 16 Juli 2011 1/25 Training Set und Test Set Ein fairer Test gibt an, wie gut das Modell im Einsatz ist Resubstitution: Evaluation auf den Trainingsdaten Resubstitution

Mehr

Computerlinguistische Textanalyse

Computerlinguistische Textanalyse Computerlinguistische Textanalyse 10. Sitzung 06.01.2014 Einführung in die Textklassifikation Franz Matthies Lehrstuhl für Computerlinguistik Institut für Germanistische Sprachwissenschaft Friedrich-Schiller

Mehr

2. Lernen von Entscheidungsbäumen

2. Lernen von Entscheidungsbäumen 2. Lernen von Entscheidungsbäumen Entscheidungsbäume 2. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.

Mehr

TEXTKLASSIFIKATION. WS 2011/12 Computerlinguistik I Deasy Sukarya & Tania Bellini

TEXTKLASSIFIKATION. WS 2011/12 Computerlinguistik I Deasy Sukarya & Tania Bellini TEXTKLASSIFIKATION WS 2011/12 Computerlinguistik I Deasy Sukarya & Tania Bellini GLIEDERUNG 1. Allgemeines Was ist Textklassifikation? 2. Aufbau eines Textklassifikationssystems 3. Arten von Textklassifikationssystemen

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Gliederung Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung.6.015 1 von 33 von 33 Ausgangspunkt: Funktionsapproximation Aufteilen der

Mehr

4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum

4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum 4. Lernen von Entscheidungsbäumen Klassifikation mit Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch /Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden.

Mehr

Seminar Text- und Datamining Textmining-Grundlagen Erste Schritte mit NLTK

Seminar Text- und Datamining Textmining-Grundlagen Erste Schritte mit NLTK Seminar Text- und Datamining Textmining-Grundlagen Erste Schritte mit NLTK Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 16.05.2013 Gliederung 1 Vorverarbeitung

Mehr

Vortrag zum Paper Results of the Active Learning Challenge von Guyon, et. al. Sören Schmidt Fachgebiet Knowledge Engineering

Vortrag zum Paper Results of the Active Learning Challenge von Guyon, et. al. Sören Schmidt Fachgebiet Knowledge Engineering Vortrag zum Paper Results of the Active Learning Challenge von Guyon, et. al. Sören Schmidt Fachgebiet Knowledge Engineering 11.12.2012 Vortrag zum Paper Results of the Active Learning Challenge von Isabelle

Mehr

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining.

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining. Motivation Themenblock: Klassifikation Praktikum: Data Warehousing und Data Mining Ziel Item hat mehrere Attribute Anhand von n Attributen wird (n+)-tes vorhergesagt. Zusätzliches Attribut erst später

Mehr

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,

Mehr

Vergleich von Methoden zur Rekonstruktion von genregulatorischen Netzwerken (GRN)

Vergleich von Methoden zur Rekonstruktion von genregulatorischen Netzwerken (GRN) Exposé zur Bachelorarbeit: Vergleich von Methoden zur Rekonstruktion von genregulatorischen Netzwerken (GRN) Fakultät: Informatik, Humboldt-Universität zu Berlin Lijuan Shi 09.05.2013 Betreuer: Prof. Dr.

Mehr

6. Künstliche Intelligenz

6. Künstliche Intelligenz 6.1. Turing-Test 6.2. Lernen In diesem Abschnitt besprechen wir wie man an Hand von Beispielen lernt, Objekte zu erkennen und verschiedene Dinge voneinander zu unterscheiden. Diese sogenannte Mustererkennung

Mehr

Text Mining 4. Seminar Klassifikation

Text Mining 4. Seminar Klassifikation Text Mining 4. Seminar Klassifikation Stefan Bordag 1. Klassifikation Stringklassifikation (männliche-weibliche Vornamen) Dokument klassifikation Bayesian Neuronal network (Decision tree) (Rule learner)

Mehr

Mit KI gegen SPAM. Proseminar Künstliche Intelligenz

Mit KI gegen SPAM. Proseminar Künstliche Intelligenz Mit KI gegen SPAM Proseminar Künstliche Intelligenz SS 2006 Florian Laib Ausblick Was ist SPAM? Warum SPAM-Filter? Naive Bayes-Verfahren Fallbasiertes Schließen Fallbasierte Filter TiMBL Vergleich der

Mehr

Bayessches Lernen Aufgaben

Bayessches Lernen Aufgaben Bayessches Lernen Aufgaben martin.loesch@kit.edu (0721) 608 45944 Aufgabe 1: Autodiebstahl-Beispiel Wie würde man ein NB-Klassifikator für folgenden Datensatz aufstellen? # Color Type Origin Stolen? 1

Mehr

Probabilistisches Tracking mit dem Condensation Algorithmus

Probabilistisches Tracking mit dem Condensation Algorithmus Probabilistisches Tracking mit dem Condensation Algorithmus Seminar Medizinische Bildverarbeitung Axel Janßen Condensation - Conditional Density Propagation for Visual Tracking Michael Isard, Andrew Blake

Mehr

Data Mining - Wiederholung

Data Mining - Wiederholung Data Mining - Wiederholung Norbert Fuhr 9. Juni 2008 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)

Mehr

Eine Einführung in R: Statistische Tests

Eine Einführung in R: Statistische Tests Eine Einführung in R: Statistische Tests Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig http://www.uni-leipzig.de/ zuber/teaching/ws12/r-kurs/

Mehr

Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L

Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Inhalt Grundlagen aus der Wahrscheinlichkeitsrechnung Hypothesenwahl Optimale Bayes Klassifikator Naiver Bayes Klassifikator

Mehr

Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining

Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining Gliederung 1. Einführung 2. Grundlagen Data Mining Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining 3. Ausgewählte Methoden des Data

Mehr

Übungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014

Übungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014 Übungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014 Aufgabe 1. Data Mining a) Mit welchen Aufgabenstellungen befasst sich Data Mining? b) Was versteht man unter Transparenz einer Wissensrepräsentation?

Mehr

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil

Mehr

Unsupervised Kernel Regression

Unsupervised Kernel Regression 9. Mai 26 Inhalt Nichtlineare Dimensionsreduktion mittels UKR (Unüberwachte KernRegression, 25) Anknüpfungspunkte Datamining I: PCA + Hauptkurven Benötigte Zutaten Klassische Kernregression Kerndichteschätzung

Mehr

Gibt es einen Geschmacksunterschied zwischen Coca Cola und Cola Zero?

Gibt es einen Geschmacksunterschied zwischen Coca Cola und Cola Zero? Gibt es einen Geschmacksunterschied zwischen Coca Cola und Cola Zero? Manche sagen: Ja, manche sagen: Nein Wie soll man das objektiv feststellen? Kann man Geschmack objektiv messen? - Geschmack ist subjektiv

Mehr

Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining

Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining Ausgangssituation Kaizen Data Mining ISO 9001 Wenn andere Methoden an ihre Grenzen stoßen Es gibt unzählige Methoden, die Abläufe

Mehr

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen Kapitel ML: I I. Einführung Beispiele für Lernaufgaben Spezifikation von Lernproblemen ML: I-8 Introduction c STEIN/LETTMANN 2005-2010 Beispiele für Lernaufgaben Autoeinkaufsberater Welche Kriterien liegen

Mehr

SEP 114. Design by Contract

SEP 114. Design by Contract Design by Contract SEP 114 Design by Contract Teile das zu entwickelnde Programm in kleine Einheiten (Klassen, Methoden), die unabhängig voneinander entwickelt und überprüft werden können. Einheiten mit

Mehr

1.3.5 Clinical Decision Support Systems

1.3.5 Clinical Decision Support Systems Arzneimitteltherapie Thieme Verlag 1.3.5 Clinical Decision Support Systems Marco Egbring, Stefan Russmann, Gerd A. Kullak-Ublick Im Allgemeinen wird unter dem Begriff Clinical Decision Support System (CDSS)

Mehr

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 1 Einführung in die statistische Datenanalyse Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 2 Gliederung 1.Grundlagen 2.Nicht-parametrische Tests a. Mann-Whitney-Wilcoxon-U Test b. Wilcoxon-Signed-Rank

Mehr

n-gramm-modelle Vorlesung Computerlinguistische Techniken Alexander Koller 1. Dezember 2014

n-gramm-modelle Vorlesung Computerlinguistische Techniken Alexander Koller 1. Dezember 2014 n-gramm-modelle Vorlesung Computerlinguistische Techniken Alexander Koller 1. Dezember 2014 Wahrscheinlichkeit und Sprache Ausgangsfrage: Nächstes Wort vorhersagen. Sprache als Zufallsprozess: Für jede

Mehr

6 Mehrstufige zufällige Vorgänge Lösungshinweise

6 Mehrstufige zufällige Vorgänge Lösungshinweise 6 Mehrstufige zufällige Vorgänge Lösungshinweise Aufgabe 6.: Begründen Sie, warum die stochastische Unabhängigkeit zweier Ereignisse bzw. zufälliger Vorgänge nur ein Modell der Realität darstellen kann.

Mehr

Medizinische Statistik Epidemiologie und χ 2 Vierfeldertest

Medizinische Statistik Epidemiologie und χ 2 Vierfeldertest Universität Wien Institut für Mathematik Wintersemester 2009/2010 Medizinische Statistik Epidemiologie und χ 2 Vierfeldertest Seminar Angewandte Mathematik Ao. Univ. Prof. Dr. Peter Schmitt von Nadja Reiterer

Mehr

Data Warehousing und Data Mining

Data Warehousing und Data Mining Data Warehousing und Data Mining Klassifikation Ulf Leser Wissensmanagement in der Bioinformatik Inhalt dieser Vorlesung Einführung Problemstellung Evaluation Overfitting knn Klassifikator Naive-Bayes

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

Semestralklausur zur Vorlesung. Web Mining. Prof. J. Fürnkranz Technische Universität Darmstadt Sommersemester 2004 Termin: 22. 7.

Semestralklausur zur Vorlesung. Web Mining. Prof. J. Fürnkranz Technische Universität Darmstadt Sommersemester 2004 Termin: 22. 7. Semestralklausur zur Vorlesung Web Mining Prof. J. Fürnkranz Technische Universität Darmstadt Sommersemester 2004 Termin: 22. 7. 2004 Name: Vorname: Matrikelnummer: Fachrichtung: Punkte: (1).... (2)....

Mehr

5. Schließende Statistik. 5.1. Einführung

5. Schließende Statistik. 5.1. Einführung 5. Schließende Statistik 5.1. Einführung Sollen auf der Basis von empirischen Untersuchungen (Daten) Erkenntnisse gewonnen und Entscheidungen gefällt werden, sind die Methoden der Statistik einzusetzen.

Mehr

Künstliche Intelligenz Unsicherheit. Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln

Künstliche Intelligenz Unsicherheit. Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Künstliche Intelligenz Unsicherheit Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Rückblick Agent in der Wumpuswelt konnte Entscheidungen

Mehr

Projektaufgaben Block 2

Projektaufgaben Block 2 Kurs BZQ III - Stochastikpraktikum WS 2013/14 Humboldt-Universität zu Berlin Randolf Altmeyer Philip-Moritz Eckert Projektaufgaben Block 2 Abgabe: bis 10.12.2013 Zur Einstimmung (freiwillig, ohne Abgabe)

Mehr

Automatisches Übersetzen von Gebärdensprache

Automatisches Übersetzen von Gebärdensprache 5. Aachener Gebärdenworkshop 2004 29.10.2004 Automatisches Übersetzen von Gebärdensprache Jan Bungeroth Human Language Technology and Pattern Recognition Lehrstuhl für Informatik VI D-52056 Aachen, Deutschland

Mehr

Data Mining und maschinelles Lernen

Data Mining und maschinelles Lernen Data Mining und maschinelles Lernen Einführung und Anwendung mit WEKA Caren Brinckmann 16. August 2000 http://www.coli.uni-sb.de/~cabr/vortraege/ml.pdf http://www.cs.waikato.ac.nz/ml/weka/ Inhalt Einführung:

Mehr

Monte Carlo Methoden in Kreditrisiko-Management

Monte Carlo Methoden in Kreditrisiko-Management Monte Carlo Methoden in Kreditrisiko-Management P Kreditportfolio bestehend aus m Krediten; Verlustfunktion L = n i=1 L i; Die Verluste L i sind unabhängig bedingt durch einen Vektor Z von ökonomischen

Mehr

Kapitel 3: Etwas Informationstheorie

Kapitel 3: Etwas Informationstheorie Stefan Lucks 3: Informationstheorie 28 orlesung Kryptographie (SS06) Kapitel 3: Etwas Informationstheorie Komplexitätstheoretische Sicherheit: Der schnellste Algorithmus, K zu knacken erfordert mindestens

Mehr

Ideen der Informatik. Maschinelles Lernen. Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik

Ideen der Informatik. Maschinelles Lernen. Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik Ideen der Informatik Maschinelles Lernen Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik Übersicht Lernen: Begriff Beispiele für den Stand der Kunst Spamerkennung Handschriftenerkennung

Mehr

Anwendung eines SAS/STAT-Modells ohne SAS/STAT in einem CRM-Projekt

Anwendung eines SAS/STAT-Modells ohne SAS/STAT in einem CRM-Projekt Poster Anwendung eines SAS/STAT-Modells ohne SAS/STAT in einem CRM-Projekt Timm Euler Tobias Otte viadee GmbH viadee GmbH Anton-Bruchausen-Str. 8 Anton-Bruchausen-Str. 8 48147 Münster 48147 Münster Timm.Euler@viadee.de

Mehr

Binäre abhängige Variablen

Binäre abhängige Variablen Binäre abhängige Variablen Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Einführung Oft wollen wir qualitative Variablen

Mehr

Maschinelles Lernen Entscheidungsbäume

Maschinelles Lernen Entscheidungsbäume Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Paul Prasse Entscheidungsbäume Eine von vielen Anwendungen: Kreditrisiken Kredit - Sicherheiten

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

Weka: Software-Suite mit Maschineller Lernsoftware

Weka: Software-Suite mit Maschineller Lernsoftware : Software-Suite mit Maschineller Lernsoftware Computational Linguistics Universität des Saarlandes Sommersemester 2011 21.04.2011 Erste Schritte Waikato Environment for Knowledge Analysis entwickelt von

Mehr

Business Value Launch 2006

Business Value Launch 2006 Quantitative Methoden Inferenzstatistik alea iacta est 11.04.2008 Prof. Dr. Walter Hussy und David Tobinski UDE.EDUcation College im Rahmen des dokforums Universität Duisburg-Essen Inferenzstatistik Erläuterung

Mehr

Messgeräte: Mess-System-Analyse und Messmittelfähigkeit

Messgeräte: Mess-System-Analyse und Messmittelfähigkeit Messgeräte: Mess-System-Analyse und Messmittelfähigkeit Andreas Berlin 14. Juli 2009 Bachelor-Seminar: Messen und Statistik Inhalt: 1 Aspekte einer Messung 2 Mess-System-Analyse 2.1 ANOVA-Methode 2.2 Maße

Mehr

Mining top-k frequent itemsets from data streams

Mining top-k frequent itemsets from data streams Seminar: Maschinelles Lernen Mining top-k frequent itemsets from data streams R.C.-W. Wong A.W.-C. Fu 1 Gliederung 1. Einleitung 2. Chernoff-basierter Algorithmus 3. top-k lossy counting Algorithmus 4.

Mehr

Naive Bayes. 5. Dezember 2014. Naive Bayes 5. Dezember 2014 1 / 18

Naive Bayes. 5. Dezember 2014. Naive Bayes 5. Dezember 2014 1 / 18 Naive Bayes 5. Dezember 2014 Naive Bayes 5. Dezember 2014 1 / 18 Inhaltsverzeichnis 1 Thomas Bayes 2 Anwendungsgebiete 3 Der Satz von Bayes 4 Ausführliche Form 5 Beispiel 6 Naive Bayes Einführung 7 Naive

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2009 / 2010 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

Grundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel

Grundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel Grundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel 16.11.01 MP1 - Grundlagen quantitativer Sozialforschung - (4) Datenanalyse 1 Gliederung Datenanalyse (inferenzstatistisch)

Mehr

Artificial Life und Multiagentensysteme

Artificial Life und Multiagentensysteme Vortrag im Rahmen des Seminars: Artificial Life und Multiagentensysteme Prof. Dr. Winfried Kurth Sommersemester 2003 Prognose von Zeitreihen mit GA/GP Mathias Radicke, Informatikstudent, 10. Semester Gliederung

Mehr

Überwachtes Lernen: Klassifikation und Regression

Überwachtes Lernen: Klassifikation und Regression Überwachtes Lernen: Klassifikation und Regression Praktikum: Data Warehousing und Data Mining Klassifikationsprobleme Idee Bestimmung eines unbekannten kategorischen Attributwertes (ordinal mit Einschränkung)

Mehr

Einführung in die Logistische Regression. Fortbildung zur 19.Informationstagung Tumordokumentation

Einführung in die Logistische Regression. Fortbildung zur 19.Informationstagung Tumordokumentation Einführung in die Logistische Regression Fortbildung zur 9.Informationstagung Tumordokumentation Bernd Schicke, Tumorzentrum Berlin FB Bayreuth, 29.März 20 Gliederung Einleitung Schätzen von Maßzahlen

Mehr

Softwarelösungen: Versuch 4

Softwarelösungen: Versuch 4 Softwarelösungen: Versuch 4 Nichtstun in Schleife wird ersetzt durch zeitweilige Zurücknahme der Anforderung, um es anderen Prozessen zu erlauben, die Ressource zu belegen: /* Prozess 0 */ wiederhole flag[0]

Mehr

Machine Learning in Azure Hätte ich auf der Titanic überlebt? Olivia Klose Technical Evangelist, Microsoft @oliviaklose oliviaklose.

Machine Learning in Azure Hätte ich auf der Titanic überlebt? Olivia Klose Technical Evangelist, Microsoft @oliviaklose oliviaklose. Machine Learning in Azure Hätte ich auf der Titanic überlebt? Olivia Klose Technical Evangelist, Microsoft @oliviaklose oliviaklose.com 13.06.20 15 SQLSaturday Rheinland 2015 1. Zu komplex: Man kann

Mehr

Entscheidungsbaumverfahren

Entscheidungsbaumverfahren Entscheidungsbaumverfahren Allgemeine Beschreibung Der Entscheidungsbaum ist die Darstellung einer Entscheidungsregel, anhand derer Objekte in Klassen eingeteilt werden. Die Klassifizierung erfolgt durch

Mehr

WEKA A Machine Learning Interface for Data Mining

WEKA A Machine Learning Interface for Data Mining WEKA A Machine Learning Interface for Data Mining Frank Eibe, Mark Hall, Geoffrey Holmes, Richard Kirkby, Bernhard Pfahringer, Ian H. Witten Reinhard Klaus Losse Künstliche Intelligenz II WS 2009/2010

Mehr

Klassifikation im Bereich Musik

Klassifikation im Bereich Musik Klassifikation im Bereich Musik Michael Günnewig 30. Mai 2006 Michael Günnewig 1 30. Mai 2006 Inhaltsverzeichnis 1 Was ist eine Klassifikation? 3 1.1 Arten und Aufbau von Klassifikationen.................

Mehr

RUPRECHTS-KARLS-UNIVERSITÄT HEIDELBERG

RUPRECHTS-KARLS-UNIVERSITÄT HEIDELBERG Die Poisson-Verteilung Jianmin Lu RUPRECHTS-KARLS-UNIVERSITÄT HEIDELBERG Ausarbeitung zum Vortrag im Seminar Stochastik (Wintersemester 2008/09, Leitung PD Dr. Gudrun Thäter) Zusammenfassung: In der Wahrscheinlichkeitstheorie

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische

Mehr

Mining High-Speed Data Streams

Mining High-Speed Data Streams Mining High-Speed Data Streams Pedro Domingos & Geoff Hulten Departement of Computer Science & Engineering University of Washington Datum : 212006 Seminar: Maschinelles Lernen und symbolische Ansätze Vortragender:

Mehr

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion

Mehr

Vorlesung - Medizinische Biometrie

Vorlesung - Medizinische Biometrie Vorlesung - Medizinische Biometrie Stefan Wagenpfeil Institut für Medizinische Biometrie, Epidemiologie und Medizinische Informatik Universität des Saarlandes, Homburg / Saar Vorlesung - Medizinische Biometrie

Mehr

Statistische Datenauswertung. Andreas Stoll Kantonsschule Olten

Statistische Datenauswertung. Andreas Stoll Kantonsschule Olten Statistische Datenauswertung Andreas Stoll Beschreibende vs. schliessende Statistik Wir unterscheiden grundsätzlich zwischen beschreibender (deskriptiver) und schliessender (induktiver) Statistik. Bei

Mehr

Gefühl*** vorher / nachher. Situation* Essen (was und wie viel?) Ess- Motiv** Tag Datum Frühstück Zeit: Allgemeines Befinden

Gefühl*** vorher / nachher. Situation* Essen (was und wie viel?) Ess- Motiv** Tag Datum Frühstück Zeit: Allgemeines Befinden Name: Größe: cm Gewicht: kg Alter: Jahre Situation* Essen Ess- Situation* Essen Ess- Situation* Essen Ess- Situation* Essen Ess- Situation* Essen Ess- Situation* Essen Ess- Situation* Essen Ess- Situation*

Mehr

Übersicht. Datenstrukturen und Algorithmen Vorlesung 5: Rekursionsgleichungen (K4) Übersicht. Binäre Suche. Joost-Pieter Katoen. 20.

Übersicht. Datenstrukturen und Algorithmen Vorlesung 5: Rekursionsgleichungen (K4) Übersicht. Binäre Suche. Joost-Pieter Katoen. 20. Übersicht Datenstrukturen und Algorithmen Vorlesung 5: (K4) Joost-Pieter Katoen Lehrstuhl für Informatik 2 Software Modeling and Verification Group http://www-i2.informatik.rwth-aachen.de/i2/dsal12/ 20.

Mehr

Das Bayes-Theorem. Christian Neukirchen Gleichwertige Leistungsfeststellung, Juni 2005

Das Bayes-Theorem. Christian Neukirchen Gleichwertige Leistungsfeststellung, Juni 2005 Das Bayes-Theorem Christian Neukirchen Gleichwertige Leistungsfeststellung, Juni 2005 Ein lahmer Witz Heute im Angebot: Ein praktisches Beispiel zur Einleitung Kurze Wiederholung der Überblick über Reverend

Mehr

Computer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10

Computer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10 Computer Vision: AdaBoost D. Schlesinger () Computer Vision: AdaBoost 1 / 10 Idee Gegeben sei eine Menge schwacher (einfacher, schlechter) Klassifikatoren Man bilde einen guten durch eine geschickte Kombination

Mehr

Biologie: Humangenetik, Stammbäume VORSSA 2008/CK

Biologie: Humangenetik, Stammbäume VORSSA 2008/CK Biologie:Humangenetik,Stammbäume VORSSA2008/CK 1. MethodenderHumangenetik MenschenunterscheidensichineinerVielzahlvonMerkmalen.Einigedavonlassensichleichtbeschreiben,bei anderen,etwabeimerkmalendesgesichtsoderbeibegabungen,fälltesschonschwerer,sieexaktzuerfassen.

Mehr

Datenanalyse mit Python. Dr. Wolfram Schroers

Datenanalyse mit Python. Dr. Wolfram Schroers <Wolfram.Schroers - at - Field-theory.org> Datenanalyse mit Python Dr. Wolfram Schroers Problem Beobachtungen Modell (Annahmen, Vereinfachungen) Vorhersagen Vergleich Python: Stärken und Schwächen Anwendung:

Mehr

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining.

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining. Personalisierung Personalisierung Thomas Mandl Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung Klassifikation Die Nutzer werden in vorab bestimmte Klassen/Nutzerprofilen

Mehr

Diagnostische Möglichkeiten der Reittherapie

Diagnostische Möglichkeiten der Reittherapie Diagnostische Möglichkeiten der Reittherapie Am Beispiel der Händigkeitsdiagnostik DP Lea Höfel, Universität Leipzig - Kognitive und logische Psychologie, hoefel@uni-leipzig.de Händigkeit Bevorzugte Nutzung

Mehr

Seminar Werkzeuggestütze. tze Softwareprüfung. fung. Slicing. Sebastian Meyer

Seminar Werkzeuggestütze. tze Softwareprüfung. fung. Slicing. Sebastian Meyer Seminar Werkzeuggestütze tze Softwareprüfung fung Slicing Sebastian Meyer Überblick Einführung und Begriffe Static Slicing Dynamic Slicing Erweiterte Slicing-Techniken Fazit 2 Was ist Slicing?? (I) Program

Mehr

Elementare statistische Methoden

Elementare statistische Methoden Elementare statistische Methoden Vorlesung Computerlinguistische Techniken Alexander Koller 28. November 2014 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen? Ziel

Mehr

2. Statistische Methoden in der Diagnostik. Elemente des Studiendesigns

2. Statistische Methoden in der Diagnostik. Elemente des Studiendesigns 2. Statistische Methoden in der Diagnostik Elemente des Studiendesigns Diagnosestudien in der Medizin Klassifikation in krank - nicht krank basierend auf diagnostischem Test Beispiel: Diagnose von Brustkrebs

Mehr

Inhalt. l Wie man die besten Kunden findet 1. HEREIN SPAZIERT 9

Inhalt. l Wie man die besten Kunden findet 1. HEREIN SPAZIERT 9 Inhalt 1. HEREIN SPAZIERT 9 l Wie man die besten Kunden findet U 2. KARRIERE- UND BERUFSAUSSICHTEN IM DATA-MINING 12 2.1 Verdienst-Möglichkeiten im Data-Mining 12 2.2 Was erwartet dich in deinem Job? 14

Mehr

Klassendefinitionen verstehen

Klassendefinitionen verstehen Klassendefinitionen verstehen Java-Programme bestehen aus Klassendefinitionen und sonst nichts! 1 1.0 Konzepte Felder Konstruktoren Methoden Parameter Zuweisungen ( = ) Anweisungen bedingte Anweisungen

Mehr

Bedingte Wahrscheinlichkeit

Bedingte Wahrscheinlichkeit Bedingte Wahrscheinlichkeit In einem Laden ist eine Alarmanlage eingebaut. Bei Einbruch gibt sie mit 99%-iger Wahrscheinlichkeit Alarm. Wenn in einer bestimmten Nacht kein Einbruch stattfindet, gibt sie

Mehr

Schulinternes Curriculum. Mathematik

Schulinternes Curriculum. Mathematik Gymnasium Zitadelle Schulinternes Curriculum (G 8) Stand: Schuljahr 2012/13 Gymnasium Zitadelle Schulinternes Curriculum Seite 1 EF Eingeführtes Lehrbuch: Lambacher Schweizer 10 Einführungsphase Funktionen

Mehr

Vorlesung Software-Wartung Änderungs- und Konfigurationsmanagement

Vorlesung Software-Wartung Änderungs- und Konfigurationsmanagement Vorlesung Software-Wartung Änderungs- und Konfigurationsmanagement Dr. Markus Pizka Technische Universität München Institut für Informatik pizka@in.tum.de 3.3 Änderungsmanagement (CM) Evolution der Software

Mehr

$ % + 0 sonst. " p für X =1 $

$ % + 0 sonst.  p für X =1 $ 31 617 Spezielle Verteilungen 6171 Bernoulli Verteilung Wir beschreiben zunächst drei diskrete Verteilungen und beginnen mit einem Zufallsexperiment, indem wir uns für das Eintreffen eines bestimmten Ereignisses

Mehr

Statistik II für Betriebswirte Vorlesung 2

Statistik II für Betriebswirte Vorlesung 2 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 2 21. Oktober 2014 Verbundene Stichproben Liegen zwei Stichproben vor, deren Werte einander

Mehr

Einführung in die Geostatistik (7) Fred Hattermann (Vorlesung), hattermann@pik-potsdam.de Michael Roers (Übung), roers@pik-potsdam.

Einführung in die Geostatistik (7) Fred Hattermann (Vorlesung), hattermann@pik-potsdam.de Michael Roers (Übung), roers@pik-potsdam. Einführung in die Geostatistik (7) Fred Hattermann (Vorlesung), hattermann@pik-potsdam.de Michael Roers (Übung), roers@pik-potsdam.de 1 Gliederung 7 Weitere Krigingverfahren 7.1 Simple-Kriging 7.2 Indikator-Kriging

Mehr

1,11 1,12 1,13 1,14 1,15 1,16 1,17 1,17 1,17 1,18

1,11 1,12 1,13 1,14 1,15 1,16 1,17 1,17 1,17 1,18 3. Deskriptive Statistik Ziel der deskriptiven (beschreibenden) Statistik (explorativen Datenanalyse) ist die übersichtliche Darstellung der wesentlichen in den erhobenen Daten enthaltene Informationen

Mehr

8. Clusterbildung, Klassifikation und Mustererkennung

8. Clusterbildung, Klassifikation und Mustererkennung 8. Clusterbildung, Klassifikation und Mustererkennung Begriffsklärung (nach Voss & Süße 1991): Objekt: wird in diesem Kapitel mit einem zugeordneten Merkmalstupel (x 1,..., x M ) identifiziert (Merkmalsextraktion

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg : Gliederung 1 Einführung 2 Deskriptive Statistik

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Verteilungsfreie Verfahren Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften

Mehr

Grundlagen der Künstlichen Intelligenz

Grundlagen der Künstlichen Intelligenz Grundlagen der Künstlichen Intelligenz 3. Einführung: Rationale Agenten Malte Helmert Universität Basel 2. März 2015 Einführung: Überblick Kapitelüberblick Einführung: 1. Was ist Künstliche Intelligenz?

Mehr