Seminar Business Intelligence Teil II: Data-Mining und Knowledge-Discovery

Save this PDF as:
 WORD  PNG  TXT  JPG

Größe: px
Ab Seite anzeigen:

Download "Seminar Business Intelligence Teil II: Data-Mining und Knowledge-Discovery"

Transkript

1 Seminar usiness Intelligence Teil II: Data-Mining und Knowledge-Discovery Thema : Vortrag von Philipp reitbach. Motivation Übersicht. rundlagen. Entscheidungsbauminduktion. ayes sche Klassifikation. Regression. Zusammenfassung und Ausblick

2 . Motivation. Motivation Data-Mining: Auffinden von bisher unbekannten eziehungen innerhalb einer Datenmenge Klassifikation: Prädiktion: Einteilung von Datentupeln in endlich viele Kategorien, genannt n Ist der neue Kunde einer ank kreditwürdig oder? Vorhersage unbekannter numerischer Attributwerte von Datentupeln Wie hoch ist das zukünftige ehalt eines Studienabsolventen?. rundlagen. rundlagen Zwei Phasen der Klassifikation: Phase : Phase : ilden eines Modells, des so genannten Klassifikators, aus einer Menge von Trainingsdaten, den Trainingsproben Klassifikation unbekannter Proben mithilfe des Klassifikators aus Phase, falls die enauigkeit des Klassifikators akzeptabel ist

3 . rundlagen Phase Input für Klassifikationsalgorithmus Trainingsproben Output Name Student Kreditw. Kauft_Computer Klassifikator Sandy Jones ill Lee IF = 0 Courtney Fox Susan Lake Claire Phips Andre eau..0 THEN kauft_computer= z.. in Form von Klassifikationsregeln Matt amon. rundlagen Phase Name Frank Jones Testproben Student Klassifikator Kreditw. Kauft_Computer Hoch Unbekannte Proben z.. (JohnHenri, 0,,Hoch) Kauft_Computer? Sylvia Crest Anne Yee 0 Niedrig Hoch enauigkeit = enauigkeit > α: (z.. α = 0,9) NRUUHNWNODVVLIL]LHUWH7HVWSUREHQ 7HVWSUREHQ Klassifikationsregeln können zur Klassifikation neuer Daten genutzt werden

4 . Entscheidungsbauminduktion. Entscheidungsbauminduktion Entscheidungsbaum wird als Klassifikator verwendet Innerer Knoten eines Entscheidungsbaums enthält Test auf ein Attribut, das Testattribut dieses Knotens latt eines Entscheidungsbaums enthält die, die einer unbekannten Probe zugeordnet wird Klassifikation einer unbekannten Probe: aum wird entsprechend den Attributwerten der Probe durchlaufen und ordnet die Probe derjenigen zu, die im so erreichten latt enthalten ist 7. Entscheidungsbauminduktion eispiel: Entscheidungsbaum : innere Knoten? : lätter 0 Student? Kreditwürdigkeit? Ausgezeichnet Einteilung in die beiden n kauft_computer= und kauft_computer= anhand der Attribute, Student, und Kreditwürdigkeit Klassifikation: Dem Wert des im inneren Knoten angegeben Attributs einer Probe entsprechend dem Pfad des aums folgen, bis latt erreicht latt enthält die, der die Probe zugeordnet wird 8

5 . Entscheidungsbauminduktion asisalgorithmus() Algorithmus: eneriere_entscheidungsbaum Input: Menge der Trainingsproben, Proben; Menge der Testattributkandidaten, Attributliste Output: Entscheidungsbaum () () () () () () (7) ilde Knoten K If Proben gehören alle zu C Then Return K als latt der C If Attributliste ist leer Then Return K als latt der, die in Proben am häufigsten vorkommt Wähle Testattribut als das Attribut aus Attributliste mit dem höchsten Informationsgewinn Kennzeichne Knoten K mit Testattribut 9. Entscheidungsbauminduktion asisalgorithmus() (8) For Each bekannten Wert a i von Testattribut (9) (0) () () Füge Ast ausgehend von Knoten K mit edingung Testattribut = a i hinzu Setze S i gleich der Menge der Proben aus Proben mit Testattribut = a i If S i ist leer Then Füge ein latt gekennzeichnet mit der häufigsten in Proben hinzu () Else Füge den von eneriere_entscheidungsbaum(s i, Attributliste - Testattribut) zurückgegebenen Teilbaum hinzu 0

6 . Entscheidungsbauminduktion Informationsbedarf Seien: S Menge von s Proben; C,,C n n; s i Anzahl der Proben von S aus C i ; p i relative Häufigkeit der C i in S; C : kauft_computer= mit s = und p =/7 C : kauft_computer= mit s = und p =/7 Informationsbedarf: 7..0 n n ) = pi (pi ) i= I(s,...,s log Student Kreditw. S mit s=7 I(s,s ) = I(,) = - /7log (/7) /7log (/7) = 0,98 Seien: A Attribut mit v verschiedenen Werten; S j Menge der Proben aus S mit A = a j ; s ij Anzahl der Proben aus S j, die zu C i gehören; 7. Entscheidungsbauminduktion..0 Student Kreditw. Entropie Entropie: v s j snj E( A) = I( s s j= ewichtung = : s =, s = ; j,..., s I(s,s ) = -/log (/) - /log (/) = 0,98 = 0 : s =, s = 0; I(s,s ) = -log () - 0log (0) = 0 = : s =, s = ; I(s,s ) = -/log (/) - /log (/) = 0,98 E() = /7*0,98 + /7*0 + /7*0,98 = 0,787 nj ) Informationsbedarf

7 . Entscheidungsbauminduktion Informationsgewinn Informationsgewinn: ewinn( A) = I( s,..., sn ) E( A) Informationsbedarf Entropie Also: ewinn() = I(,) E() = 0,98 0,787 = 0,98 Analog: ewinn(student) = 0,00, ewinn(kreditwürdigkeit) = 0,8 Aufgrund des höchsten Informationsgewinns Auswahl von als Testattribut. Entscheidungsbauminduktion eispiel? Student Kreditw. 0 Student Kreditw. Student Kreditw...0 7

8 . Entscheidungsbauminduktion aumbeschneidung Widerspiegelung von Datenanomalien in vielen Ästen aumbeschneidung: Entfernen der unzuverlässigsten Äste Zwei Arten von aumbeschneidung: Prepruning: Postpruning: Vorzeitiges eenden des Aufbaus von Ästen, die nicht zuverlässig genug sind Entfernen von Ästen eines voll ausgebildeten aums. Entscheidungsbauminduktion Skalierbarkeitsbetrachtung Skalierbarkeit der Algorithmen wichtig für das Data-Mining, da große Datenmengen klassifiziert werden müssen asisalgorithmus (u.a. übliche Algorithmen) nicht skalierbar, denn sobald die Trainingsmenge größer dem verfügbaren Hauptspeicher ist, wird die Leistung durch ständige Ein- und Auslagerung beeinträchtigt Deshalb: Entwicklung von skalierbaren Algorithmen für das Data-Mining Hier: etrachtung der Algorithmen SLIQ und SPRINT 8

9 . Entscheidungsbauminduktion 7 SLIQ + SPRINT: emeinsamkeiten Aufteilen aller Proben eines Knotens auf zwei Söhne (Schnitt) Numerische Attribute: Schnitt der Form A a Kategorische Attribute: Schnitt der Form A A, A {a,,a n } Nutzung des gini-index: gini( S) = p j n n gini split ( S) = gini( S) + gini( S ) n n Auswerten aller möglichen Schnitte für einen Knoten und Auswahl des Schnittes mit dem niedrigsten Schnittindex Verwendung von Attributlisten, die für numerische Attribute vorsortiert werden (Presorting) und auf dem Externspeicher gehalten werden. Entscheidungsbauminduktion SLIQ Attributlisten enthalten für alle Trainingsproben jeweils den entsprechenden Attributwert und (Record Identifier) und werden zu eginn sortiert generiert (Presorting) Zusätzlich nliste mit, und Referenz auf zugehörigen Knoten des aums 0 0 ehalt ehalt Knoten N N N N N N Trainingsproben Vorsortierte Attributlisten nliste 8 9

10 . Entscheidungsbauminduktion SLIQ: Vorgehensweise Sukzessives Aufbauen der einzelnen Ebenen des aums Für jede Ebene: Durchlauf aller Attributlisten und Auswerten des Schnittindex mithilfe von für jeden Knoten gehaltenen Histogrammen an der aktuellen Position Für jeden Knoten der Ebene Auswahl des Schnitts mit dem kleinsten Schnittindex und Aufteilung der zugehörigen Proben auf linken und rechten Sohn entsprechend dem Schnitt Durchlauf der in Schnitten benutzten Attributlisten und Aktualisierung der Knotenreferenzen in der nliste Lokale Terminierung falls ein Knoten nur noch Proben einer enthält 9. Entscheidungsbauminduktion SLIQ: eispiel Schnitt 0 0 Knoten N N N N N N N N N L R actn(gini split ): minn(gini Split ): Für Schnitt: Histogramme L und R halten nverteilung für die Söhne / / /9 /9 / gini (S) = 0/ * gini(s L ) + / * gini(s R ) = 0 * ( (0 +0 )) + * ( ((/) + (/) )) = 0 + (/9 + /9) = /9 nl nr gini split ( S) = gini( S L ) + gini( S R ) n n gini( S) = p j j {. } 0 N N N 0

11 . Entscheidungsbauminduktion SPRINT Attributlisten enthalten für alle Trainingsproben jeweils den entsprechenden Attributwert, und die und werden auch zu eginn sortiert generiert (Presorting) Keine zusätzliche nliste Attributlisten werden bei jedem Schnitt partitioniert 0 ehalt 0 Eigene Attributlisten für jeden Knoten Vorsortierte Attributlisten für SPRINT. Entscheidungsbauminduktion SPRINT: Vorgehensweise Sukzessives Aufbauen der einzelnen Knoten des aums Für jeden Knoten: Durchlauf aller Attributlisten des Knotens und Auswerten des Schnittindex mithilfe der Histogramme L und R Auswahl des Schnitts mit dem kleinsten Schnittindex Partitionierung der Attributlisten des Knotens auf linken und rechten Sohn entsprechend dem ausgewählten Schnitt: Für die im Schnitt benutzte Attributliste AListe einfaches verschieben der einzelnen Einträge Für die anderen Attributlisten Probing der auf eine Hash-Tabelle, die bei der Partitionierung von AListe für alle Proben des linken aums aufgebaut wird, um zu wissen, zu welchem Sohn der Eintrag verschoben werden muss Lokale Terminierung, falls ein Knoten nur Proben einer enthält

12 . Entscheidungsbauminduktion SLIQ + SPRINT: Performance SLIQ bei kleinen Datenmengen vergleichbar mit üblichen Algorithmen Vergleich zwischen SLIQ und üblichen Algorithmen bei sehr großen Datenmengen nicht lohnenswert Deshalb: Vergleich von SLIQ und SPRINT SLIQ schneller als SPRINT Aber: Thrashing sobald nliste nicht in Hauptspeicher passt ei SPRINT lineare Abhängigkeit der Antwortzeit von der röße der Trainingsmenge SPRINT vollständig skalierbar. ayes sche Klassifikation. ayes sche Klassifikation Anwendung des Satzes von ayes zur estimmung der Wahrscheinlichkeiten p i, dass eine Probe X zur C i gehört Klassifikation von X zu der mit höchstem p i Naiver ayes scher Klassifikator: Annahme der klassenbedingten Unabhängigkeit ayes sche Netze: Modellierung von Abhängigkeiten

13 . ayes sche Klassifikation Stochastische rundlagen Seien: P(H X): P(H): P(X H): P(X): X = (x,,x n ) unbekannte Probe; H Hypothese, dass X zu C gehört; A-Posteriori-Wahrscheinlichkeit von H A-Priori-Wahrscheinlichkeit von H A-Posteriori-Wahrscheinlichkeit von X A-Priori-Wahrscheinlichkeit von X eispiel: X = ( rot, rund ); C = Apfel Satz von ayes: P ( H X ) = P( X H ) P( H ) P( X ). ayes sche Klassifikation Naiver ayes scher Klassifikator Seien: C,,C m n; X = (x,,x n ) unbekannte Probe Maximierung von P(C i X) Satz von ayes Maximierung von P( X C ) P( C ) i P( X ) i P(X) konstant für alle C i : Maximierung von P(X C i )*P(C i ) Abschätzung von P(C i ) durch relative Häufigkeit p i der C i in der Trainingsmenge Annahme der klassenbedingten Unabhängigkeit: n P( X C ) = P( x C ) Deswegen naiv i k = k i

14 . ayes sche Klassifikation erechnung der P(x k C i ) Sei A k das x k entsprechende Attribut A k kategorisch: s ik = # Proben aus C i mit A k = x k s i = # Proben aus C i Abschätzung von P(x k C i ) durch P(x k C i ) = s ik / s i A k numerisch: P ( xk µ ) Ci σ Ci ( xk Ci ) e µ ci = πσ auß-verteilung Ci σ Ci Dabei sind und die aus den Trainingsproben der C i ermittelten Werte für Mittelwert und Standardabweichung 7. ayes sche Klassifikation eispiel C : kauft_computer= mit s = und p = P(C ) = /7 C : kauft_computer= mit s = und p = P(C ) = /7 Klassifikation von X = ( 0,, ) : s = ; s = 0; P( 0 C ) = s / s = / P( 0 C ) = s / s = 0 / = 0 Student: s =, s = ; P( C ) = s / s = / = / P( C ) = s / s = / Kreditwürdigkeit: s =, s = ; P( C ) = s / s = / P( C ) = s / s = / Student Kreditw. P(X C ) = P(x C )*P(x C )*P(x C ) = / * / * / = / P(X C ) = P(x C )*P(x C )*P(x C ) = 0 * / * / = 0 P(X C )*P(C ) = / * / 7 = / P(X C )*P(C ) = 0 * / 7 = 0

15 . ayes sche Klassifikation ayes sche Netze 9 raphische Modellierung von Abhängigkeiten zwischen Attributen durch azyklischen gerichteten raph Attribut bei gegebenen direkten Familiengeschichte Raucher Vorgängern unabhängig von Nicht- Nachfolgern CPT für ein Attribut A speichert bedingte Wahrscheinlichkeiten P(A Vorgänger(A)) Lungenkrebs Lungenaufblähung für jede Wertekombination der Vorgänger F,R F,~R ~F,R ~F,~R Zuordnung einer unbekannten Probe zu LK 0,8 0, 0,7 0, der mit höchstem P(C i X) ~LK 0, 0, 0, 0,9 &L_9RUJ QJHU&L CPT: Conditional Probability Table z.. P(LK F,R) = 0,8 und P(~LK F,R) = 0, Wie erhält man die Werte P(C i Vorgänger(C i ))? Trainieren ayes scher Netze Szenarien:. ayes sche Klassifikation Netzstruktur gegeben, keine fehlenden Werte erechnung der P(A Vorgänger(A)) ähnlich wie bei naivem ayes schen Klassifikator Netzstruktur gegeben, aber fehlende Werte möglich Annäherung durch radientenabstieg Netzstruktur unbekannt Diskrete Optimierung 0

16 . Regression. Regression Verwendung zur Prädiktion, also der Vorhersage von numerischen Attributwerten Rückführung eines Zielattributwertes einer unbekannten Probe auf die Verteilung einer analysierten Trainingsmenge Hier: Lineare Regression Multiple Regression. Regression Lineare Regression Modellierung einer Antwortvariablen Y durch eine auf eine Schätzervariable X angewendete lineare Funktion Regressionsgleichung: Y = α + β*x Regressionskoeffizienten Methode der kleinsten Quadrate zur estimmung der Regressionskoeffizienten: β s ( i= i = s i= x x)( y ( x x) i i y) α = y βx x : Mittelwert der Werte der Schätzervariable X in den Trainingsproben y : Mittelwert der Werte der Antwortvariable Y in den Trainingsproben x i, y i : Wert von X bzw. Y der i-ten Trainingsprobe

17 . Regression eispiel Mittelwert für X: 8,8 Mittelwert für Y:, β = ( 8,8)(,) + ( 8,8)(0,) ( 8,8)(7,) ( 8,8) + ( 8,8) ( 8,8) =, α =, (,)(8,8) =,9 ehaltsvorhersage für Person mit X = 7 hren erufserfahrung: Y = α + β*x =,9 +,*7 =, X erufserfahrung (hre) 8 9 Y - ehalt (in 000$) Trainingsproben. Regression Multiple Regression Erweiterung der linearen Regression auf mehrere Schätzervariablen X,,X n Modellierung von Y durch mehrdimensionalen Attributvektor Multiple Regressionsgleichung: Y = α + β * X + β * X + + β n * X n erechnung der Regressionskoeffizienten α und β,,β n ebenfalls mit Methode der kleinsten Quadrate 7

18 . Zusammenfassung. Zusammenfassung und Ausblick Vorstellung der Klassifikationskonzepte Entscheidungsbauminduktion und ayes sche Klassifikation Vorstellung des Prädiktionskonzeptes der linearen und multiplen Regression Skalierbarkeitsbetrachtungen im Zusammenhang mit immer größeren Datenmengen (SLIQ und SPRINT) Weiterhin großes Interesse an schnelleren skalierbaren Algorithmen aufgrund des immensen Datenwachstums Forschungsschwerpunkte: Klassifikation von nicht-relationalen Daten wie z.. Textdokumenten, räumlichen Daten oder Multimedia-Daten 8

Seminar Business Intelligence (2) Data Mining & Knowledge Discovery

Seminar Business Intelligence (2) Data Mining & Knowledge Discovery Seminar Business Intelligence () Data Mining & Knowledge Discovery Thema: Klassifikation und Prädiktion Ausarbeitung von Philipp Breitbach AG DBIS Betreuung: Jernej Kovse Inhaltsverzeichnis INHALTSVERZEICHNIS...

Mehr

Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining

Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining Gliederung 1. Einführung 2. Grundlagen Data Mining Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining 3. Ausgewählte Methoden des Data

Mehr

2. Lernen von Entscheidungsbäumen

2. Lernen von Entscheidungsbäumen 2. Lernen von Entscheidungsbäumen Entscheidungsbäume 2. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum

4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum 4. Lernen von Entscheidungsbäumen Klassifikation mit Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch /Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden.

Mehr

Entscheidungsbäume aus großen Datenbanken: SLIQ

Entscheidungsbäume aus großen Datenbanken: SLIQ Entscheidungsbäume aus großen Datenbanken: SLIQ C4.5 iteriert häufig über die Trainingsmenge Wie häufig? Wenn die Trainingsmenge nicht in den Hauptspeicher passt, wird das Swapping unpraktikabel! SLIQ:

Mehr

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining.

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining. Motivation Themenblock: Klassifikation Praktikum: Data Warehousing und Data Mining Ziel Item hat mehrere Attribute Anhand von n Attributen wird (n+)-tes vorhergesagt. Zusätzliches Attribut erst später

Mehr

Mathias Krüger / Seminar Datamining

Mathias Krüger / Seminar Datamining Entscheidungsbäume mit SLIQ und SPRINT Mathias Krüger Institut für Informatik FernUniversität Hagen 4.7.2008 / Seminar Datamining Gliederung Einleitung Klassifikationsproblem Entscheidungsbäume SLIQ (

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

Maschinelles Lernen Entscheidungsbäume

Maschinelles Lernen Entscheidungsbäume Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Paul Prasse Entscheidungsbäume Eine von vielen Anwendungen: Kreditrisiken Kredit - Sicherheiten

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

4. Lernen von Entscheidungsbäumen

4. Lernen von Entscheidungsbäumen 4. Lernen von Entscheidungsbäumen Entscheidungsbäume 4. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Kapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete

Kapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete Kapitel 4: Dynamische Datenstrukturen Algorithmen und Datenstrukturen WS 2012/13 Prof. Dr. Sándor Fekete 4.4 Binäre Suche Aufgabenstellung: Rate eine Zahl zwischen 100 und 114! Algorithmus 4.1 INPUT: OUTPUT:

Mehr

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002)

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) 3. Entscheidungsbäume Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) (aus Wilhelm 2001) Beispiel: (aus Böhm 2003) Wann sind Entscheidungsbäume

Mehr

Data Mining Anwendungen und Techniken

Data Mining Anwendungen und Techniken Data Mining Anwendungen und Techniken Knut Hinkelmann DFKI GmbH Entdecken von Wissen in banken Wissen Unternehmen sammeln ungeheure mengen enthalten wettbewerbsrelevantes Wissen Ziel: Entdecken dieses

Mehr

Seminar Text- und Datamining Datamining-Grundlagen

Seminar Text- und Datamining Datamining-Grundlagen Seminar Text- und Datamining Datamining-Grundlagen Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 23.05.2013 Gliederung 1 Klassifikationsprobleme 2 Evaluation

Mehr

Datenstrukturen und Algorithmen

Datenstrukturen und Algorithmen Datenstrukturen und Algorithmen VO 708.031 Bäume robert.legenstein@igi.tugraz.at 1 Inhalt der Vorlesung 1. Motivation, Einführung, Grundlagen 2. Algorithmische Grundprinzipien 3. Sortierverfahren 4. Halden

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Entscheidungsbäume

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Entscheidungsbäume Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Entscheidungsbäume Christoph Sawade/Niels Landwehr Jules Rasetaharison, Tobias Scheffer Entscheidungsbäume Eine von vielen Anwendungen:

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 9. Übungsblatt Aufgabe 1: Decision Trees Gegeben sei folgende Beispielmenge: Age Education Married Income Credit?

Mehr

Lernen von Entscheidungsbäumen. Volker Tresp Summer 2014

Lernen von Entscheidungsbäumen. Volker Tresp Summer 2014 Lernen von Entscheidungsbäumen Volker Tresp Summer 2014 1 Anforderungen an Methoden zum Datamining Schnelle Verarbeitung großer Datenmengen Leichter Umgang mit hochdimensionalen Daten Das Lernergebnis

Mehr

Das Briefträgerproblem

Das Briefträgerproblem Das Briefträgerproblem Paul Tabatabai 30. Dezember 2011 Inhaltsverzeichnis 1 Problemstellung und Modellierung 2 1.1 Problem................................ 2 1.2 Modellierung.............................

Mehr

Data Mining - Wiederholung

Data Mining - Wiederholung Data Mining - Wiederholung Norbert Fuhr 9. Juni 2008 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)

Mehr

Maschinelles Lernen Entscheidungsbäume

Maschinelles Lernen Entscheidungsbäume Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Christoph Sawade /Niels Landwehr/Paul Prasse Dominik Lahmann Tobias Scheffer Entscheidungsbäume

Mehr

Mining High-Speed Data Streams

Mining High-Speed Data Streams Mining High-Speed Data Streams Pedro Domingos & Geoff Hulten Departement of Computer Science & Engineering University of Washington Datum : 212006 Seminar: Maschinelles Lernen und symbolische Ansätze Vortragender:

Mehr

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,

Mehr

Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme

Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume von Lars-Peter Meyer im Seminar Methoden wissensbasierter Systeme bei Prof. Brewka im WS 2007/08 Übersicht Überblick maschinelles Lernen

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Additive Modelle Katharina Morik Informatik LS 8 Technische Universität Dortmund 7.1.2014 1 von 34 Gliederung 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung 2 von 34 Ausgangspunkt:

Mehr

ML-Werkzeuge und ihre Anwendung

ML-Werkzeuge und ihre Anwendung Kleine Einführung: und ihre Anwendung martin.loesch@kit.edu (0721) 608 45944 Motivation Einsatz von maschinellem Lernen erfordert durchdachtes Vorgehen Programmieren grundlegender Verfahren aufwändig fehlerträchtig

Mehr

Data Mining und Text Mining Einführung. S2 Einfache Regellerner

Data Mining und Text Mining Einführung. S2 Einfache Regellerner Data Mining und Text Mining Einführung S2 Einfache Regellerner Hans Hermann Weber Univ. Erlangen, Informatik 8 Wintersemester 2003 hans.hermann.weber@gmx.de Inhalt Einiges über Regeln und Bäume R1 ein

Mehr

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen 5.1 Lernen mit Entscheidungsbäumen Falls zum Beispiel A = {gelb, rot, blau} R 2 und B = {0, 1}, so definiert der folgende Entscheidungsbaum eine Hypothese H : A B (wobei der Attributvektor aus A mit x

Mehr

Babeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005. Paradigmen im Algorithmenentwurf

Babeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005. Paradigmen im Algorithmenentwurf Babeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005 Paradigmen im Algorithmenentwurf Problemlösen Problem definieren Algorithmus entwerfen

Mehr

Datenstruktur, die viele Operationen dynamischer Mengen unterstützt

Datenstruktur, die viele Operationen dynamischer Mengen unterstützt Algorithmen und Datenstrukturen 265 10 Binäre Suchbäume Suchbäume Datenstruktur, die viele Operationen dynamischer Mengen unterstützt Kann als Wörterbuch, aber auch zu mehr eingesetzt werden (Prioritätsschlange)

Mehr

13. Binäre Suchbäume

13. Binäre Suchbäume 1. Binäre Suchbäume Binäre Suchbäume realiesieren Wörterbücher. Sie unterstützen die Operationen 1. Einfügen (Insert) 2. Entfernen (Delete). Suchen (Search) 4. Maximum/Minimum-Suche 5. Vorgänger (Predecessor),

Mehr

Motivation. Formale Grundlagen der Informatik 1 Kapitel 5 Kontextfreie Sprachen. Informales Beispiel. Informales Beispiel.

Motivation. Formale Grundlagen der Informatik 1 Kapitel 5 Kontextfreie Sprachen. Informales Beispiel. Informales Beispiel. Kontextfreie Kontextfreie Motivation Formale rundlagen der Informatik 1 Kapitel 5 Kontextfreie Sprachen Bisher hatten wir Automaten, die Wörter akzeptieren Frank Heitmann heitmann@informatik.uni-hamburg.de

Mehr

9.4 Binäre Suchbäume. Xiaoyi Jiang Informatik II Datenstrukturen und Algorithmen

9.4 Binäre Suchbäume. Xiaoyi Jiang Informatik II Datenstrukturen und Algorithmen 9.4 Binäre Suchbäume Erweiterung: Einfügen an der Wurzel Standardimplementierung: Der neue Schlüssel wird am Ende des Suchpfades angefügt (natürlich, weil zuerst festgestellt werden muss, ob der Schlüssel

Mehr

Alignment-Verfahren zum Vergleich biologischer Sequenzen

Alignment-Verfahren zum Vergleich biologischer Sequenzen zum Vergleich biologischer Sequenzen Hans-Joachim Böckenhauer Dennis Komm Volkshochschule Zürich. April Ein biologisches Problem Fragestellung Finde eine Methode zum Vergleich von DNA-Molekülen oder Proteinen

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB. Überwachtes Lernen: Entscheidungsbäume

INTELLIGENTE DATENANALYSE IN MATLAB. Überwachtes Lernen: Entscheidungsbäume INTELLIGENTE DATENANALYSE IN MATLAB Überwachtes Lernen: Entscheidungsbäume Literatur Stuart Russell und Peter Norvig: Artificial Intelligence. Andrew W. Moore: http://www.autonlab.org/tutorials. 2 Überblick

Mehr

Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining

Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining Ausgangssituation Kaizen Data Mining ISO 9001 Wenn andere Methoden an ihre Grenzen stoßen Es gibt unzählige Methoden, die Abläufe

Mehr

Algorithmische Modelle als neues Paradigma

Algorithmische Modelle als neues Paradigma Algorithmische Modelle als neues Paradigma Axel Schwer Seminar über Philosophische Grundlagen der Statistik, WS 2010/11 Betreuer: Prof. Dr. Thomas Augustin München, den 28. Januar 2011 1 / 29 LEO BREIMAN

Mehr

Tutorial: Homogenitätstest

Tutorial: Homogenitätstest Tutorial: Homogenitätstest Eine Bank möchte die Kreditwürdigkeit potenzieller Kreditnehmer abschätzen. Einerseits lebt die Bank ja von der Vergabe von Krediten, andererseits verursachen Problemkredite

Mehr

Data Mining und maschinelles Lernen

Data Mining und maschinelles Lernen Data Mining und maschinelles Lernen Einführung und Anwendung mit WEKA Caren Brinckmann 16. August 2000 http://www.coli.uni-sb.de/~cabr/vortraege/ml.pdf http://www.cs.waikato.ac.nz/ml/weka/ Inhalt Einführung:

Mehr

Induktion von Entscheidungsbäumen

Induktion von Entscheidungsbäumen Induktion von Entscheidungsbäumen Christian Borgelt Institut für Wissens- und Sprachverarbeitung Otto-von-Guericke-Universität Magdeburg Universitätsplatz 2, 39106 Magdeburg E-mail: borgelt@iws.cs.uni-magdeburg.de

Mehr

Programmiertechnik II

Programmiertechnik II Analyse von Algorithmen Algorithmenentwurf Algorithmen sind oft Teil einer größeren Anwendung operieren auf Daten der Anwendung, sollen aber unabhängig von konkreten Typen sein Darstellung der Algorithmen

Mehr

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum

Mehr

Data Mining - Wiederholung

Data Mining - Wiederholung Data Mining - Wiederholung Norbert Fuhr 18. Januar 2006 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)

Mehr

Quantitative Methoden der Bildungsforschung

Quantitative Methoden der Bildungsforschung Glieung Wieholung Korrelationen Grundlagen lineare Regression Lineare Regression in SPSS Übung Wieholung Korrelationen Standardisiertes Zusammenhangsmaß (unstandardisiert: Kovarianz) linearer Zusammenhang

Mehr

Übungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014

Übungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014 Übungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014 Aufgabe 1. Data Mining a) Mit welchen Aufgabenstellungen befasst sich Data Mining? b) Was versteht man unter Transparenz einer Wissensrepräsentation?

Mehr

Eine Baumstruktur sei folgendermaßen definiert. Eine Baumstruktur mit Grundtyp Element ist entweder

Eine Baumstruktur sei folgendermaßen definiert. Eine Baumstruktur mit Grundtyp Element ist entweder Programmieren in PASCAL Bäume 1 1. Baumstrukturen Eine Baumstruktur sei folgendermaßen definiert. Eine Baumstruktur mit Grundtyp Element ist entweder 1. die leere Struktur oder 2. ein Knoten vom Typ Element

Mehr

Übersicht Datenstrukturen und Algorithmen. Übersicht. Probleme auf kantengewichteten Graphen. Vorlesung 14: Minimale Spannbäume

Übersicht Datenstrukturen und Algorithmen. Übersicht. Probleme auf kantengewichteten Graphen. Vorlesung 14: Minimale Spannbäume Übersicht atenstrukturen und lgorithmen Vorlesung : Prof. r. rika Ábrahám Theorie ybrider Systeme Informatik http://ths.rwth-aachen.de/teaching/ss-/ datenstrukturen-und-algorithmen/ 1 reedy lgorithmen

Mehr

Statistik II für Betriebswirte Vorlesung 2

Statistik II für Betriebswirte Vorlesung 2 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 2 21. Oktober 2014 Verbundene Stichproben Liegen zwei Stichproben vor, deren Werte einander

Mehr

Sortierverfahren für Felder (Listen)

Sortierverfahren für Felder (Listen) Sortierverfahren für Felder (Listen) Generell geht es um die Sortierung von Daten nach einem bestimmten Sortierschlüssel. Es ist auch möglich, daß verschiedene Daten denselben Sortierschlüssel haben. Es

Mehr

3. Lernen von Entscheidungsbäumen

3. Lernen von Entscheidungsbäumen 3. Lernen von Entscheidungsbäumen Entscheidungsbäume 3. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Textmining Klassifikation von Texten Teil 1: Naive Bayes

Textmining Klassifikation von Texten Teil 1: Naive Bayes Textmining Klassifikation von Texten Teil 1: Naive Bayes Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten 1: Naive

Mehr

Kapitel 5: Dynamisches Programmieren Gliederung

Kapitel 5: Dynamisches Programmieren Gliederung Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen

Mehr

Sortieralgorithmen. Inhalt: InsertionSort BubbleSort QuickSort. Marco Block

Sortieralgorithmen. Inhalt: InsertionSort BubbleSort QuickSort. Marco Block Inhalt: InsertionSort BubbleSort QuickSort Block M.: "Java-Intensivkurs - In 14 Tagen lernen Projekte erfolgreich zu realisieren", Springer-Verlag 2007 InsertionSort I Das Problem unsortierte Daten in

Mehr

Lernen von Klassifikationen

Lernen von Klassifikationen Lernen von Klassifikationen Gegeben: Trainingsbeispiele: Paare der Form (x i, f(x i )) Gesucht: Funktion f, die die Trainingsbeispiele klassifiziert. (a): Lernen mit Trainingsdaten (b): Genauigkeitsüberprüfung

Mehr

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 1 Einführung in die statistische Datenanalyse Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 2 Gliederung 1.Grundlagen 2.Nicht-parametrische Tests a. Mann-Whitney-Wilcoxon-U Test b. Wilcoxon-Signed-Rank

Mehr

3.3 Nächste-Nachbarn-Klassifikatoren

3.3 Nächste-Nachbarn-Klassifikatoren 3.3 Nächste-Nachbarn-Klassifikatoren Schrauben Nägel Klammern Neues Objekt Instanzbasiertes Lernen (instance based learning) Einfachster Nächste-Nachbar-Klassifikator: Zuordnung zu der Klasse des nächsten

Mehr

6 Mehrstufige zufällige Vorgänge Lösungshinweise

6 Mehrstufige zufällige Vorgänge Lösungshinweise 6 Mehrstufige zufällige Vorgänge Lösungshinweise Aufgabe 6.: Begründen Sie, warum die stochastische Unabhängigkeit zweier Ereignisse bzw. zufälliger Vorgänge nur ein Modell der Realität darstellen kann.

Mehr

Dokumenten-Clustering. Norbert Fuhr

Dokumenten-Clustering. Norbert Fuhr Dokumenten-Clustering Norbert Fuhr Dokumenten-Clustering (Dokumenten-)Cluster: Menge von ähnlichen Dokumenten Ausgangspunkt Cluster-Hypothese : die Ähnlichkeit der relevanten Dokumente untereinander und

Mehr

Entscheidungsbäume. Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen

Entscheidungsbäume. Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Entscheidungsbäume Christoph Sawade /Niels Landwehr/Paul Prasse Silvia Makowski Tobias Scheffer Entscheidungsbäume Eine von vielen

Mehr

Vorlesung Informatik 2 Algorithmen und Datenstrukturen

Vorlesung Informatik 2 Algorithmen und Datenstrukturen Vorlesung Informatik 2 Algorithmen und Datenstrukturen (18 Bäume: Grundlagen und natürliche Suchbäume) Prof. Dr. Susanne Albers Bäume (1) Bäume sind verallgemeinerte Listen (jedes Knoten-Element kann mehr

Mehr

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene

Mehr

Computerlinguistische Textanalyse

Computerlinguistische Textanalyse Computerlinguistische Textanalyse 10. Sitzung 06.01.2014 Einführung in die Textklassifikation Franz Matthies Lehrstuhl für Computerlinguistik Institut für Germanistische Sprachwissenschaft Friedrich-Schiller

Mehr

Automatische Gesprächsauswertung im Callcenter

Automatische Gesprächsauswertung im Callcenter Einleitung Forschungsbeitrag Automatische Gesprächsauswertung im Callcenter Projekt CoachOST Dipl.-Wirtsch.-Inf. Mathias Walther Prof. Dr. Taïeb Mellouli Lehrstuhl für Wirtschaftsinformatik und Operations

Mehr

Kap. 4.2: Binäre Suchbäume

Kap. 4.2: Binäre Suchbäume Kap. 4.2: Binäre Suchbäume Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 11. VO DAP2 SS 2009 26. Mai 2009 1 Zusätzliche Lernraumbetreuung Morteza Monemizadeh:

Mehr

3.1 Konstruktion von minimalen Spannbäumen Es gibt zwei Prinzipien für die Konstruktion von minimalen Spannbäumen (Tarjan): blaue Regel rote Regel

3.1 Konstruktion von minimalen Spannbäumen Es gibt zwei Prinzipien für die Konstruktion von minimalen Spannbäumen (Tarjan): blaue Regel rote Regel 3.1 Konstruktion von minimalen Spannbäumen Es gibt zwei Prinzipien für die Konstruktion von minimalen Spannbäumen (Tarjan): blaue Regel rote Regel EADS 3.1 Konstruktion von minimalen Spannbäumen 16/36

Mehr

Entscheidungsbäume. Minh-Khanh Do Erlangen,

Entscheidungsbäume. Minh-Khanh Do Erlangen, Entscheidungsbäume Minh-Khanh Do Erlangen, 11.07.2013 Übersicht Allgemeines Konzept Konstruktion Attributwahl Probleme Random forest E-Mail Filter Erlangen, 11.07.2013 Minh-Khanh Do Entscheidungsbäume

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Vorlesung am 12.01.2012 INSTITUT FÜR THEORETISCHE 0 KIT 12.01.2012 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der Informatik

Mehr

4 Induktion von Regeln

4 Induktion von Regeln 4 Induktion von egeln Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- aare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden. Ein Entscheidungsbaum liefert eine Entscheidung

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)

Mehr

Das Suchproblem 4. Suchen Das Auswahlproblem Suche in Array

Das Suchproblem 4. Suchen Das Auswahlproblem Suche in Array Das Suchproblem Gegeben. Suchen Lineare Suche, Binäre Suche, Interpolationssuche, Untere Schranken [Ottman/Widmayer, Kap. 3.2, Cormen et al, Kap. 2: Problems 2.-3,2.2-3,2.3-] Menge von Datensätzen. Beispiele

Mehr

Algorithmen und Datenstrukturen Suchbaum

Algorithmen und Datenstrukturen Suchbaum Algorithmen und Datenstrukturen Suchbaum Matthias Teschner Graphische Datenverarbeitung Institut für Informatik Universität Freiburg SS 12 Motivation Datenstruktur zur Repräsentation dynamischer Mengen

Mehr

Das Suchproblem. Gegeben Menge von Datensätzen. Beispiele Telefonverzeichnis, Wörterbuch, Symboltabelle

Das Suchproblem. Gegeben Menge von Datensätzen. Beispiele Telefonverzeichnis, Wörterbuch, Symboltabelle 119 4. Suchen Lineare Suche, Binäre Suche, Interpolationssuche, Exponentielle Suche, Untere Schranken [Ottman/Widmayer, Kap. 3.2, Cormen et al, Kap. 2: Problems 2.1-3,2.2-3,2.3-5] 120 Das Suchproblem Gegeben

Mehr

Fortgeschrittene Statistik Logistische Regression

Fortgeschrittene Statistik Logistische Regression Fortgeschrittene Statistik Logistische Regression O D D S, O D D S - R A T I O, L O G I T T R A N S F O R M A T I O N, I N T E R P R E T A T I O N V O N K O E F F I Z I E N T E N, L O G I S T I S C H E

Mehr

Visualisierung der Imperfektion in multidimensionalen Daten

Visualisierung der Imperfektion in multidimensionalen Daten Visualisierung der Imperfektion in multidimensionalen Daten Horst Fortner Imperfektion und erweiterte Konzepte im Data Warehousing Betreuer: Heiko Schepperle 2 Begriffe (1) Visualisierung [Wikipedia] abstrakte

Mehr

5. Klassifikation. 5.1 Einleitung. 5.1 Der Prozess der Klassifikation. 5.1 Einleitung. Inhalt dieses Kapitels. Das Klassifikationsproblem

5. Klassifikation. 5.1 Einleitung. 5.1 Der Prozess der Klassifikation. 5.1 Einleitung. Inhalt dieses Kapitels. Das Klassifikationsproblem 5. Klassifikation Inhalt dieses Kapitels 5.1 Einleitung Das Klassifikationsproblem, Bewertung von Klassifikatoren 5.2 Bayes-Klassifikatoren Optimaler Bayes-Klassifikator, Naiver Bayes-Klassifikator, Anwendungen

Mehr

Melanie Kaspar, Prof. Dr. B. Grabowski 1

Melanie Kaspar, Prof. Dr. B. Grabowski 1 7. Hypothesentests Ausgangssituation: Man muss sich zwischen 2 Möglichkeiten (=Hypothesen) entscheiden. Diese Entscheidung soll mit Hilfe von Beobachtungen ( Stichprobe ) getroffen werden. Die Hypothesen

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Das Suchproblem. Gegeben Menge von Datensätzen. Beispiele Telefonverzeichnis, Wörterbuch, Symboltabelle

Das Suchproblem. Gegeben Menge von Datensätzen. Beispiele Telefonverzeichnis, Wörterbuch, Symboltabelle 122 4. Suchen Lineare Suche, Binäre Suche, Interpolationssuche, Untere Schranken [Ottman/Widmayer, Kap. 3.2, Cormen et al, Kap. 2: Problems 2.1-3,2.2-3,2.3-5] 123 Das Suchproblem Gegeben Menge von Datensätzen.

Mehr

Dynamisches Huffman-Verfahren

Dynamisches Huffman-Verfahren Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über

Mehr

Algorithmen und Komplexität Lösungsvorschlag zu Übungsblatt 8

Algorithmen und Komplexität Lösungsvorschlag zu Übungsblatt 8 ETH Zürich Institut für Theoretische Informatik Prof. Dr. Angelika Steger Florian Meier, Ralph Keusch HS 2017 Algorithmen und Komplexität Lösungsvorschlag zu Übungsblatt 8 Lösungsvorschlag zu Aufgabe 1

Mehr

Jan Parthey, Christin Seifert. 22. Mai 2003

Jan Parthey, Christin Seifert. 22. Mai 2003 Simulation Rekursiver Auto-Assoziativer Speicher (RAAM) durch Erweiterung eines klassischen Backpropagation-Simulators Jan Parthey, Christin Seifert jpar@hrz.tu-chemnitz.de, sech@hrz.tu-chemnitz.de 22.

Mehr

Reihungen. Martin Wirsing. in Zusammenarbeit mit Matthias Hölzl und Nora Koch 11/03

Reihungen. Martin Wirsing. in Zusammenarbeit mit Matthias Hölzl und Nora Koch 11/03 Reihungen Martin Wirsing in Zusammenarbeit mit Matthias Hölzl und Nora Koch 11/03 2 Ziele Die Datenstruktur der Reihungen verstehen: mathematisch und im Speicher Grundlegende Algorithmen auf Reihungen

Mehr

Kapitel 4: Binäre Regression

Kapitel 4: Binäre Regression Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,

Mehr

Künstliche Intelligenz Unsicherheit. Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln

Künstliche Intelligenz Unsicherheit. Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Künstliche Intelligenz Unsicherheit Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Rückblick Agent in der Wumpuswelt konnte Entscheidungen

Mehr

Kapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2017/18. Pro f. Dr. Sán do r Fe k e te

Kapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2017/18. Pro f. Dr. Sán do r Fe k e te Kapitel 4: Dynamische Datenstrukturen Algorithmen und Datenstrukturen WS 2017/18 Pro f. Dr. Sán do r Fe k e te 1 4.1 Grundoperationen Aufgabenstellung: 3 4.1 Grundoperationen Aufgabenstellung: Verwalten

Mehr

Algorithmentheorie. 13 - Maximale Flüsse

Algorithmentheorie. 13 - Maximale Flüsse Algorithmentheorie 3 - Maximale Flüsse Prof. Dr. S. Albers Prof. Dr. Th. Ottmann . Maximale Flüsse in Netzwerken 5 3 4 7 s 0 5 9 5 9 4 3 4 5 0 3 5 5 t 8 8 Netzwerke und Flüsse N = (V,E,c) gerichtetes Netzwerk

Mehr

Algorithmen und Datenstrukturen Tutorium Übungsaufgaben

Algorithmen und Datenstrukturen Tutorium Übungsaufgaben Algorithmen und Datenstrukturen Tutorium Übungsaufgaben AlgoDat - Übungsaufgaben 1 1 Landau-Notation Aufgabe Lösung 2 Rekurrenzen Aufgabe 3 Algorithmenentwurf und -analyse Aufgabe AlgoDat - Übungsaufgaben

Mehr

Probabilistisches Tracking mit dem Condensation Algorithmus

Probabilistisches Tracking mit dem Condensation Algorithmus Probabilistisches Tracking mit dem Condensation Algorithmus Seminar Medizinische Bildverarbeitung Axel Janßen Condensation - Conditional Density Propagation for Visual Tracking Michael Isard, Andrew Blake

Mehr

Aufabe 7: Baum-Welch Algorithmus

Aufabe 7: Baum-Welch Algorithmus Effiziente Algorithmen VU Ausarbeitung Aufabe 7: Baum-Welch Algorithmus Florian Fest, Matr. Nr.0125496 baskit@generationfun.at Claudia Hermann, Matr. Nr.0125532 e0125532@stud4.tuwien.ac.at Matteo Savio,

Mehr

Suche in Spielbäumen Spielbäume Minimax Algorithmus Alpha-Beta Suche. Suche in Spielbäumen. KI SS2011: Suche in Spielbäumen 1/20

Suche in Spielbäumen Spielbäume Minimax Algorithmus Alpha-Beta Suche. Suche in Spielbäumen. KI SS2011: Suche in Spielbäumen 1/20 Suche in Spielbäumen Suche in Spielbäumen KI SS2011: Suche in Spielbäumen 1/20 Spiele in der KI Suche in Spielbäumen Spielbäume Minimax Algorithmus Alpha-Beta Suche Einschränkung von Spielen auf: 2 Spieler:

Mehr

Algorithmische Bioinformatik 1

Algorithmische Bioinformatik 1 Algorithmische Bioinformatik 1 Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Sommersemester 2009 Übersicht Algorithmen

Mehr

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery Seminar Business Intelligence Teil II Data Mining & Knowledge Discovery Was ist Data Mining? Sabine Queckbörner Was ist Data Mining? Data Mining Was ist Data Mining? Nach welchen Mustern wird gesucht?

Mehr

Wirtschaftsinformatik I

Wirtschaftsinformatik I Wirtschaftsinformatik I - Tutorium 6/ 7 (April 2010) Zusatzinformationen - Lösungsvorschläge Wirtschaftsinformatik I Tutorium Jochen Daum (4.Semester BWL) Universität Mannheim Rechtshinweis: Diese Präsentation

Mehr

Computational Finance

Computational Finance Computational Finance Kapitel 2.2: Monte Carlo Simulation Prof. Dr. Thorsten Poddig Lehrstuhl für Allgemeine Betriebswirtschaftslehre, insbes. Finanzwirtschaft Universität Bremen Hochschulring 4 / WiWi-Gebäude

Mehr

Theorien für die Darstellung von Unsicherheit Ein Vergleich der Wahrscheinlichkeits-, Möglichkeits- und Dempster-Shafer Theorie

Theorien für die Darstellung von Unsicherheit Ein Vergleich der Wahrscheinlichkeits-, Möglichkeits- und Dempster-Shafer Theorie Theorien für die Darstellung von Unsicherheit Ein Vergleich der Wahrscheinlichkeits-, Möglichkeits- und Dempster-Shafer Theorie Johannes Leitner Inhalt I Modellierung von Unschärfe Unscharfe Mengen Unscharfe

Mehr

Rechnerische Komplexität

Rechnerische Komplexität Proseminar Effiziente Algorithmen SS 2002 Rechnerische Komplexität Ulrike Krönert (34180) 0. Inhalt 1. Einführung 2. Algorithmen und Komplexität 2.1. Algorithmen 2.2. Laufzeitabschätzung 2.3. Polynomialzeit

Mehr

Insulin Dependent Diabetes Mellitus Rats and Autoimmune Diabetes

Insulin Dependent Diabetes Mellitus Rats and Autoimmune Diabetes 1 Insulin Dependent Diabetes Mellitus Rats and Autoimmune Diabetes, Georg Füllen Institut für Biostatistik und Informatik in Medizin und Alternsforschung Universität Rostock 2 Einführung: Diabetes Diabetes

Mehr

3.2 Binäre Suche. Usr/local/www/ifi/fk/menschen/schmid/folien/infovk.ppt 1

3.2 Binäre Suche. Usr/local/www/ifi/fk/menschen/schmid/folien/infovk.ppt 1 3.2 Binäre Suche Beispiel 6.5.1: Intervallschachtelung (oder binäre Suche) (Hier ist n die Anzahl der Elemente im Feld!) Ein Feld A: array (1..n) of Integer sei gegeben. Das Feld sei sortiert, d.h.: A(i)

Mehr