Überdeckende Algorithmen. Vorlesungsplan. Regeln vs. Bäume. Beispiel: Erzeugung einer Regel. Mögliche Regelmenge für Klasse b :
|
|
- Meta Boer
- vor 6 Jahren
- Abrufe
Transkript
1 Vorlesungsplan Einleitung Ein- und Ausgae Reformationstag, Einfache Regeln Naïve Bayes, Entscheidungsäume Entscheidungsregeln, Assoziationsregeln Lineare Modelle, Instanzasiertes Lernen Clustering I Clustering II Evaluation I Evaluation II 9.1. Entscheidungsäume, Klassifikationsregeln Lineare Modelle, Numerische Vorhersage Clustering Attriut-Selektion, Diskretisierung, Transformationen 6.2. Komination von Modellen, Lernen von nicht-klassifizierten Beispielen Üerdeckende Algorithmen Konvertierung Entscheidungsaum in Regelmenge Direkt möglich, aer Regelmenge ist unnötig kompliziert Effektivere Konvertierungen sind nicht trivial Anstelle, erzeuge Regelmenge direkt für jede Klasse: finde Regelmenge, die alle Instanzen üerdeckt (Instanzen die nicht in der Klasse sind, werden ausgeschlossen) Üerdeckungsansatz: in jedem Schritt finde Regel, die einige Instanzen üerdeckt Seite 147 Seite 148 y Beispiel: Erzeugung einer Regel a a a a x a a y a a a a 1 2 a a x y 2 6 a a a a 1 2 a a x Regeln vs. Bäume Zugehöriger Entscheidungsaum: (findet exakt dieselen Vorhersagen) If true then class = a If x > 1.2 then class = a If x > 1.2 and y > 2.6 then class = a Mögliche Regelmenge für Klasse : If x 1.2 then class = If x > 1.2 and y 2.6 then class = Mehr Regeln perfektionieren Regelmenge Seite 149 Aer: Regelmenge kann verständlicher sein, wenn Entscheidungsaum replizierte Teiläume enthält Auch: Bei Mehrklassenprolem Üerdeckungsalg. konzentriert sich nur auf eine Klass, Alg. zum Lernen eines Entscheidungsaums etrachtet Verteilung aller Klassen Seite 150
2 Einfacher Üerdeckungsalgorithmus Erzeuge Regeln durch Hinzufügen von Tests, welche die Genauigkeit veressern Ähnliche Situation wie Entscheidungsäume: wähle ein Attriut zum Aufteilen Aer: eim Lernen von Entscheidungsäumen wird Gesamtreinheit maximiert Jeder neue Test reduziert die Üerdeckung der Regel Beispiel: Kontaktlinsen Daten Aktuelle Regel: Mögliche Tests: Age = Age = Pre-presyopic Age = Presyopic Spectacle prescription = Spectacle prescription = Astigmatism = no Astigmatism = yes Tear production rate = Tear production rate = If? 2/8 1/8 1/8 3/12 1/12 0/12 4/12 0/12 4/12 Seite 151 Seite 152 Veränderte Regel & zugehörige Daten Age Regel mit estem Test: Üerdeckte Instanzen: Pre-presyopic Pre-presyopic Pre-presyopic Pre-presyopic Presyopic Presyopic Presyopic Presyopic Spectacle prescription Astigmatism Tear production rate Recommended lenses hard Seite 153 Aktuell: Mögliche Tests: Weiterer Aufau Age = Age = Pre-presyopic Age = Presyopic Spectacle prescription = Spectacle prescription = Tear production rate = Tear production rate = and? 2/4 1/4 1/4 3/6 1/6 0/6 4/6 Seite 154
3 Veränderte Regel & zugehörige Daten Regel mit estem Test : and tear production rate = normal Aktuell : Mögliche Tests : Weiterer Aufau and tear production rate = normal and? Üerdeckte Instanzen : Age Pre-presyopic Pre-presyopic Presyopic Presyopic Spectacle prescription Astigmatism Tear production rate Recommended lenses hard Seite 155 Age = Age = Pre-presyopic Age = Presyopic Spectacle prescription = Spectacle prescription = Gleichstand zwischen erstem und viertem Test Wähle Regel mit größerer Üerdeckung 2/2 1/2 1/2 3/3 1/3 Seite 156 Ergenis Pseudo-Kode für PRISM Regel: Zweite Regel für hard lenses : (erzeugt auf Instanzen, die nicht von der ersten Regel üerdeckt werden) and tear production rate = normal and spectacle prescription = myope If age = young and astigmatism = yes and tear production rate = normal For each class C Initialize E to the instance set While E contains instances in class C Create a rule R with an empty left-hand side that predicts class C Until R is perfect (or there are no more attriutes to use) do For each attriute A not mentioned in R, and each value v, Consider adding the condition A = v to the left-hand side of R Select A and v to maximize the accuracy p/t (reak ties y choosing the condition with the largest p) Add A = v to R Remove the instances covered y R from E Diese zwei Regeln üerdecken alle hard lenses : Prozeß wird wiederholt mit den anderen eiden Klassen Seite 157 Seite 158
4 Regeln vs. Entscheidungslisten PRISM ohne äußere Schleife erzeugt Entscheidungsliste für eine Klasse Spätere Regeln sind für Instanzen, die nicht durch frühere Regeln üerdeckt werden Aer: Reihenfolge spielt keine Rolle, da alle Regeln diesele Klasse vorhersagen Äußere Schleife etrachtet die Klassen seperat Keine Reihenfolge der Klassen wird angenommen Proleme: üerlappende Regeln => Default-Regel erforderlich Aussondern und Herrschen Methoden wie PRISM (zum Behandeln einer Klasse) sind separate-and-conquer Algorithmen: (i) finde nützliche Regel (ii) sondere die üerdeckten Instanzen aus (iii) conquer die ürigen Instanzen Unterschied zu divide-and-conquer Methoden: Teilmengen, die von einer Regel üerdeckt werden, rauchen nicht weiter eareitet zu werden Seite 159 Seite 160 Assoziationsregeln Assoziationsregeln können jedes Attriut und Attriutkominationen vorhersagen sind nicht dafür gedacht als Menge genutzt zu werden Prolem: extrem große Anzahl von möglichen Assoziationsregeln Ausgae muß auf die esten Regeln eschränkt werden nur solche mit hoher Üerdeckung (support) und hoher Konfidenz Üerdeckung und Konfidenz einer Regel Üerdeckung (Support): Anzahl (asolut/relativ) der Instanzen, die korrekt vorhergesagt werden Konfidenz: Anzahl der korrekt Vorhersagen im Verhältnis zu allen Instanzen, auf die die Regel zutrifft Beispiel: If temperature = cool then humidity = normal Üerdeckung = 4, Konfidenz = Anwendung: minimale Üerdeckung und Konfidenz wird vorgegeen (z.b. 58 Regeln mit Üerdeckung 2 und Konfidenz 95% für Wetterdaten) Seite 161 Seite 162
5 Outlook Temp Humidity Windy Play Interpretation von Assoziationsregeln Interpretation ist nicht offensichtlich: If windy = false and play = no then outlook = sunny and humidity = high ist nicht das gleiche wie If windy = false and play = no then outlook = sunny If windy = false and play = no then humidity = high Aer es edeutet, daß folgendes auch zutrifft: If humidity = high and windy = false and play = no then outlook = sunny Seite 163 Seite 164 Finden von Assoziationsregeln Naïve Methode: Nutze separate-and-conquer Methode Behandele jede mögliche Komination von Attriutwerten als separate Klasse Lassen Regeln weg, die nicht minimale Üerdeckung und Konfidenz erfüllen Zwei Proleme: Berechnungskomplexität Anzahl der untersuchten Regeln Aer: Regeln mit hoher Üerdeckung direkt finden! Item-Mengen Üerdeckung: Anzahl der korrekt üerdeckten Instanzen Entspricht der Anzahl der Instanzen die allen Tests in der Regel genügen (linke und rechte Seite) Item: ein Test/Attriutwert Paar Item-Menge : alle Items, die in einer Regel auftreten Ziel: nur Regeln, die minimale Üerdeckung erfüllen Finde Item-Mengen, die min. Üerdeckung erfüllen und generiere Regeln von diesen! Seite 165 Seite 166
6 Item-Mengen für Wetterdaten Outlook Temp Humidity Windy Play One-item sets Outlook = (5) Temperature = (4) Two-item sets Outlook = Temperature = (2) Outlook = Humidity = (3) Outlook = Humidity = Windy = (2) Three-item sets Outlook = Temperature = Humidity = (2) Four-item sets Outlook = Temperature = Humidity = Play = (2) Outlook = Temperature = Windy = Play = (2) Gesamt: 12 one-item-mengen, 47 two- Item-Mengen, 39 three-item-mengen, 6 four-item-mengen und 0 five-item-mengen (mit minimaler Üerdeckung 2) Seite 167 Seite 168 Erzeugen von Regeln aus Item-Mengen Item-Mengen mit minimaler Üerdeckung können in Regeln gewandelt werden Beispiel: Humidity =, Windy =, Play = (4) Sieen (2 N -1) mögliche Regeln: If Humidity = and Windy = then Play = If Humidity = and Play = then Windy = If Windy = and Play = then Humidity = If Humidity = then Windy = and Play = If Windy = then Humidity = and Play = If Play = then Humidity = and Windy = If then Humidity = and Windy = and Play = 4/4 4/6 4/6 4/7 4/8 4/9 4/12 Seite Regeln für Wetterdaten Regeln mit Üerdeckung > 1 und Konfidenz = : 58 Association rule Humidity= Windy= Temperature= Outlook= Temperature=Cold Play=... Outlook= Temperature= Gesamt: 3 Regeln mit Üerdeckung vier 5 Regeln mit Üerdeckung drei 50 Regeln mit Üerdeckung zwei Play= Humidity= Play= Humidity=... Humidity= Sup Conf.... Seite 170
7 Beispiele für Regeln von einer Item-Menge Item-Menge : Temperature =, Humidity =, Windy =, Play = (2) Ergenis Regeln (alle mit Konfidenz): Temperature =, Windy = Humidity =, Play = Temperature =, Windy =, Humidity = Play = Temperature =, Windy =, Play = Humidity = wegen folgender häufigen Item-Mengen: Temperature =, Windy = (2) Temperature =, Humidity =, Windy = (2) Temperature =, Windy =, Play = (2) Effizientes Finden von Item-Mengen Prolem: finde alle häufigen Item-Mengen Finden von Einer-Item-Mengen ist leicht Idee: nutze Einer-Item-Mengen um Zweier- Item-Mengen zu generieren, aus Zweier-Item- Mengen generiere Dreier-Item-Mengen, Falls (A B) häufig ist, dann müssen (A) und (B) häufig sein! Allgemein: falls X eine häufige k-item-menge ist, dann müssen alle (k-1)-item-teilmengen von X häufig sein Berechne Kandidaten für k-item-mengen durch Zusammenfassen von (k-1)-item-mengen Seite 171 Seite 172 Beispiel Gegeen: 5 Dreier-Item-Mengen (A B C), (A B D), (A C D), (A C E), (B C D) Lexikographisch geordnet! Kandidaten für Vierer-Item-Mengen: (A B C D) OK weil (B C D) (A C D E) Nicht OK weil (C D E) fehlt Kandidatentest durch Zählen der Instanzen in der Datenmenge! (k 1)-Item-Mengen werden in Hash gespeichert Effiziente Erzeugung der Regeln Suche nach Regeln mit hoher Konfidenz Üerdeckung der Voraussetzung aus dem Hash Aer: rute-force Methode kostet in O(2 N -1) Besserer Weg: erzeuge Regeln mit (c+1) Attriuten in der Schlußfolgerung aus denen die nur c Attriute dort haen. Beoachtung: (c + 1)-Schlußfolgerungsregel kann nur zutreffen, wenn alle korrespondierenden c- Schlußfolgerungsregel zutreffen Algorithmus ist ähnlich zu finden von häufigen Item-Mengen Seite 173 Seite 174
8 Beispiel 1- Schlußfolgerungsregel: If Outlook = and Windy = and Play = then Humidity = (2/2) If Humidity = and Windy = and Play = then Outlook = (2/2) Korrespondierende 2- Schlußfolgerungsregel: If Windy = and Play = then Outlook = and Humidity = (2/2) Test der Voraussetzung gegen den Hash! Erweiterungen (1) Prolem: selst hohe minimale Konfidenz garantiert nicht immer interessante Regeln z.b. falls alle Instanzen Z enthalten, dann hat jede Regel I => Z Konfidenz. Lift einer Regel I => J als anderes Maß zum Filtern lift = Pr(J I) / Pr(J) Hinweis: Pr(I) = (Support von I) / (Anzahl der Instanzen) Pr(J I) = (Support von I vereinigt mit J) / (Support von I) Verhältnis von Konfidenz zu erwarteter Konfidenz Interpretation: Falls lift > 1, dann I und J sind positiv korreliert lift < 1, dann I und J sind negativ korreliert lift = 1, dann I und J sind unkorreliert Seite 175 Seite 176 Erweiterungen (2) in vielen Anwendungen: Item-Taxonomien (is-a Hierarchien) Kleidung Jacken Oerkleidung Ski-Hosen suche Assoziationsregeln zwischen astrakten Items z.b. zwischen Warengruppen wesentlich höherer Support Hemden Straßenschuhe Schuhe viele triviale Regeln, durch die Taxonomie induziert, müssen ausgeschlossen werden Bergstiefel Assoziationsregeln: Diskussion Apriory Methode läuft für jede Größe der Kandidaten-Item-Mengen üer die Daten generiere (k+2)-item-mengen statt (k+1) => weniger Datendurchläufe Kandidaten Menge ist zu groß nutze Depth-First Search statt BFS durch den Suchraum Item-Mengen sind redundant, A ist Teil-Item- Mengen von A mit gleicher Üerdeckung geschlossene Item-Mengen Genaue Üerdeckung von Item-Mengen ist nicht wichtig maximale Item-Mengen, alle Teilmengen einer häufigen Item-Menge werden weggelassen Seite 177 Seite 178
9 Assoziationsregeln: Diskussion Standard ARFF Format (feste Vektorlänge) sehr ineffizient für typische Supermarktdaten Bit-Matrix mit vielen Nullen Dünne Datenrepräsentation Einsen in Bitmatrix sind wichtiger als Nullen => keine Negation in den Regeln Instanzen werden auch Transaktionen genannt Konfidenz ist nicht notwendigerweise das este Maß Andere Maße mit ähnlichen Eigenschaften (Monotonie) Seite 179
Induktion von Assoziationsregeln. Stefan Mandl
Induktion von Assoziationsregeln Stefan Mandl Inhalt Was sind Assoziationsregeln? Qualitätsbewertung Algorithmus Was sind Assoziationsregeln? Assoziationsregeln Assoziationsregeln beschreiben Korrelationen
MehrVorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke
Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Musterlösung für das 7. Übungsblatt Aufgabe 1 Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity Wind PlayTennis D1? Hot High Weak No D2 Sunny
MehrHäufige Item-Mengen: die Schlüssel-Idee. Vorlesungsplan. Apriori Algorithmus. Methoden zur Verbessung der Effizienz von Apriori
Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,
MehrAssoziationsregeln & Sequenzielle Muster. A. Hinneburg, Web Data Mining MLU Halle-Wittenberg, SS 2007
Assoziationsregeln & Sequenzielle Muster 0 Übersicht Grundlagen für Assoziationsregeln Apriori Algorithmus Verschiedene Datenformate Finden von Assoziationsregeln mit mehren unteren Schranken für Unterstützung
MehrData Mining - Wiederholung
Data Mining - Wiederholung Norbert Fuhr 18. Januar 2006 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)
MehrLernen von Assoziationsregeln
Lernen von Assoziationsregeln Gegeben: R eine Menge von Objekten, die binäre Werte haben t eine Transaktion, t! R r eine Menge von Transaktionen S min " [0,] die minimale Unterstützung, Conf min " [0,]
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 13. Übungsblatt Aufgabe 1: Apriori Gegeben seien folgende Beobachtungen vom Kaufverhalten von Kunden: beer chips dip
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Unüberwachtes Lernen: Clustern von Attributen
INTELLIGENTE DATENANALYSE IN MATLAB Unüberwachtes Lernen: Clustern von Attributen Literatur J. Han, M. Kamber: Data Mining Concepts and Techniques. J. Han et. al: Mining Frequent Patterns without Candidate
MehrCognitive Interaction Technology Center of Excellence
Kanonische Abdeckung Motivation: eine Instanz einer Datenbank muss nun alle funktionalen Abhängigkeiten in F + erfüllen. Das muss natürlich immer überprüft werden (z.b. bei jedem update). Es reicht natürlich
MehrMaschinelles Lernen: Symbolische Ansätze
Semestralklausur zur Vorlesung Maschinelles Lernen: Symbolische Ansätze Prof. J. Fürnkranz / Dr. G. Grieser Technische Universität Darmstadt Wintersemester 2005/06 Termin: 23. 2. 2006 Name: Vorname: Matrikelnummer:
MehrData Mining und Text Mining Einführung. S2 Einfache Regellerner
Data Mining und Text Mining Einführung S2 Einfache Regellerner Hans Hermann Weber Univ. Erlangen, Informatik 8 Wintersemester 2003 hans.hermann.weber@gmx.de Inhalt Einiges über Regeln und Bäume R1 ein
MehrKapitel 12: Schnelles Bestimmen der Frequent Itemsets
Einleitung In welchen Situationen ist Apriori teuer, und warum? Kapitel 12: Schnelles Bestimmen der Frequent Itemsets Data Warehousing und Mining 1 Data Warehousing und Mining 2 Schnelles Identifizieren
MehrData Mining in Datenbanken
Data Mining in Datenbanken hinneburg@informatik.uni-halle.de www.informatik.uni-halle.de/~hinneburg Seite 0 Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag 7.11. Einfache
MehrPeg-Solitaire. Florian Ehmke. 29. März / 28
Peg-Solitaire Florian Ehmke 29. März 2011 1 / 28 Gliederung Einleitung Aufgabenstellung Design und Implementierung Ergebnisse Probleme / Todo 2 / 28 Einleitung Das Spiel - Fakten Peg-33 33 Löcher, 32 Steine
MehrGrundlagen der Künstlichen Intelligenz
Grundlagen der Künstlichen Intelligenz 22. Constraint-Satisfaction-Probleme: Kantenkonsistenz Malte Helmert Universität Basel 14. April 2014 Constraint-Satisfaction-Probleme: Überblick Kapitelüberblick
MehrVorlesungsplan. Data Mining in Datenbanken. Einleitung. Veranstaltungsmodalitäten. Alexander Hinneburg
Vorlesungsplan Data Mining in Datenbanken hinneburg@informatik.uni-halle.de www.informatik.uni-halle.de/~hinneburg 17.10. Einleitung 4.10. Ein- und Ausgabe 31.10. Reformationstag 7.11. Einfache Regeln,
MehrAlgorithmen und Datenstrukturen Musterlösung 5
Algorithmen und Datenstrukturen Musterlösung 5 Martin Avanzini Thomas Bauereiß Herbert Jordan René Thiemann
MehrMathematische Grundlagen III
Mathematische Grundlagen III Maschinelles Lernen II: Klassifikation mit Entscheidungsbäumen Vera Demberg Universität des Saarlandes 12. Juli 2012 Vera Demberg (UdS) Mathe III 12. Juli 2012 1 / 38 Einleitung
Mehr4. Lernen von Entscheidungsbäumen
4. Lernen von Entscheidungsbäumen Entscheidungsbäume 4. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse
MehrData Mining - Wiederholung
Data Mining - Wiederholung Norbert Fuhr 9. Juni 2008 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)
Mehr, Data Mining, 2 VO Sommersemester 2008
Evaluation 188.646, Data Mining, 2 VO Sommersemester 2008 Dieter Merkl e-commerce Arbeitsgruppe Institut für Softwaretechnik und Interaktive Systeme Technische Universität Wien www.ec.tuwien.ac.at/~dieter/
MehrRepetitive Strukturen
Repetitive Strukturen Andreas Liebig Philipp Muigg ökhan Ibis Repetitive Strukturen, (z.b. sich wiederholende Strings), haben eine große Bedeutung in verschiedenen Anwendungen, wie z.b. Molekularbiologie,
MehrData Mining auf Datenströmen Andreas M. Weiner
Technische Universität Kaiserslautern Fachbereich Informatik Lehrgebiet Datenverwaltungssysteme Integriertes Seminar Datenbanken und Informationssysteme Sommersemester 2005 Thema: Data Streams Andreas
MehrInformatik II, SS 2014
Informatik II SS 2014 (Algorithmen & Datenstrukturen) Vorlesung 7 (21.5.2014) Binäre Suche, Hashtabellen I Algorithmen und Komplexität Abstrakte Datentypen : Dictionary Dictionary: (auch: Maps, assoziative
MehrTeil 2.2: Lernen formaler Sprachen: Hypothesenräume
Theorie des Algorithmischen Lernens Sommersemester 2006 Teil 2.2: Lernen formaler Sprachen: Hypothesenräume Version 1.1 Gliederung der LV Teil 1: Motivation 1. Was ist Lernen 2. Das Szenario der Induktiven
MehrFortgeschrittene Computerintensive Methoden: Assoziationsregeln Steffen Unkel Manuel Eugster, Bettina Grün, Friedrich Leisch, Matthias Schmid
Fortgeschrittene Computerintensive Methoden: Assoziationsregeln Steffen Unkel Manuel Eugster, Bettina Grün, Friedrich Leisch, Matthias Schmid Institut für Statistik LMU München Sommersemester 2013 Zielsetzung
MehrHäufige Mengen ohne Kandidatengenerierung. FP-Tree: Transaktionen. Konstruktion eines FP-Trees. FP-Tree: Items
Häufige Mengen ohne Kandidatengenerierung Jiawei Han, Micheline Kamber 2006 (2nd ed.)! Ziel 1: Kompression der Datenbank in eine Frequent-Pattern Tree Struktur (FP-Tree)! Stark komprimiert, vollständig
MehrKostenmaße. F3 03/04 p.188/395
Kostenmaße Bei der TM nur ein Kostenmaß: Ein Schritt (Konfigurationsübergang) kostet eine Zeiteinheit; eine Bandzelle kostet eine Platzeinheit. Bei der RAM zwei Kostenmaße: uniformes Kostenmaß: (wie oben);
MehrDecision Tree Learning
Decision Tree Learning Computational Linguistics Universität des Saarlandes Sommersemester 2011 28.04.2011 Entscheidungsbäume Repräsentation von Regeln als Entscheidungsbaum (1) Wann spielt Max Tennis?
MehrProf. S. Krauter Kombinatorik. WS Blatt03.doc
Prof. S. Krauter Kombinatorik. WS 05-06 Blatt03.doc Zahlpartitionen: 1. Gegeben ist folgende Gleichung: x 1 + x 2 + x 3 + + x s = n. a) Wie viele verschiedene Lösungen besitzt diese Gleichung mit Werten
MehrDefinition Gerichteter Pfad. gerichteter Pfad, wenn. Ein gerichteter Pfad heißt einfach, falls alle u i paarweise verschieden sind.
3.5 Gerichteter Pfad Definition 291 Eine Folge (u 0, u 1,..., u n ) mit u i V für i = 0,..., n heißt gerichteter Pfad, wenn ( i {0,..., n 1} ) [ (u i, u i+1 ) A]. Ein gerichteter Pfad heißt einfach, falls
MehrDer Dreyfus-Wagner Algorithmus für das Steiner Baum Problem
Der Dreyfus-Wagner Algorithmus für das Steiner Baum Problem Andreas Moser Dietmar Ebner Christian Schauer Markus Bauer 9. Dezember 2003 1 Einführung Der in der Vorlesung gezeigte Algorithmus für das Steiner
Mehrp^db=`oj===pìééçêíáåñçêã~íáçå=
p^db=`oj===pìééçêíáåñçêã~íáçå= Error: "Could not connect to the SQL Server Instance" or "Failed to open a connection to the database." When you attempt to launch ACT! by Sage or ACT by Sage Premium for
MehrData Mining. Informationssysteme, Sommersemester 2017
Data Mining Informationssysteme, Sommersemester 2017 Literatur zu Data-Mining Pang-Ning Tan, Michael Steinbach, Vipin Kuma. Introduction to Data Minig. Ein paar relevante Kapitel sind frei verfügbar unter
MehrDatenbankanwendung. Prof. Dr.-Ing. Sebastian Michel TU Kaiserslautern. Wintersemester 2014/15. smichel@cs.uni-kl.de
Datenbankanwendung Wintersemester 2014/15 Prof. Dr.-Ing. Sebastian Michel TU Kaiserslautern smichel@cs.uni-kl.de Wiederholung: Anfragegraph Anfragen dieses Typs können als Graph dargestellt werden: Der
Mehr4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum
4. Lernen von Entscheidungsbäumen Klassifikation mit Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch /Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden.
MehrWillkommen zur Vorlesung Komplexitätstheorie
Willkommen zur Vorlesung Komplexitätstheorie WS 2011/2012 Friedhelm Meyer auf der Heide V11, 16.1.2012 1 Themen 1. Turingmaschinen Formalisierung der Begriffe berechenbar, entscheidbar, rekursiv aufzählbar
MehrExercise (Part XI) Anastasia Mochalova, Lehrstuhl für ABWL und Wirtschaftsinformatik, Kath. Universität Eichstätt-Ingolstadt 1
Exercise (Part XI) Notes: The exercise is based on Microsoft Dynamics CRM Online. For all screenshots: Copyright Microsoft Corporation. The sign ## is you personal number to be used in all exercises. All
MehrSymbio system requirements. Version 5.1
Symbio system requirements Version 5.1 From: January 2016 2016 Ploetz + Zeller GmbH Symbio system requirements 2 Content 1 Symbio Web... 3 1.1 Overview... 3 1.1.1 Single server installation... 3 1.1.2
MehrProjekt Maschinelles Lernen WS 06/07
Projekt Maschinelles Lernen WS 06/07 1. Auswahl der Daten 2. Evaluierung 3. Noise und Pruning 4. Regel-Lernen 5. ROC-Kurven 6. Pre-Processing 7. Entdecken von Assoziationsregeln 8. Ensemble-Lernen 9. Wettbewerb
MehrMining über RDBMSe. von. Christian Widmer. Wie gut lässt sich Mining mit SQL realisieren?
Mining über RDBMSe von Christian Widmer Wie gut lässt sich Mining mit SQL realisieren? Müssen neue Konstrukte zur Verfügung gestellt werden, wenn ja welche? Vortragsüberblick Association Rules Apriori
MehrTechnical Terms Technische Daten: Operating voltage Betriebsspannungsbereich Rated Voltage Nennspannung
Technical Terms Technische Daten: Operating voltage Betriebsspannungsbereich Rated Voltage Nennspannung 4...7 V 5 V *) Rated Current Nennstrom < 50 ma Sound Output [SPL]at 10 cm Lautstärke[Schalldruckpegel]
MehrTechniken des Maschinellen Lernens für Data Mining. Ian Witten, Eibe Frank. (übersetzt von Norbert Fuhr)
Techniken des Maschinellen Lernens für Data Mining Ian Witten, Eibe Frank (übersetzt von Norbert Fuhr) 1 Problemstellungen Daten vs. Information Data Mining und Maschinelles Lernen Strukturelle Beschreibungen
MehrMotivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining.
Motivation Themenblock: Klassifikation Praktikum: Data Warehousing und Data Mining Ziel Item hat mehrere Attribute Anhand von n Attributen wird (n+)-tes vorhergesagt. Zusätzliches Attribut erst später
MehrVII.3 Assoziationsregeln
VII.3 Assoziationsregelverfahren VII.3. Einführung [Bollinger 96] VII.3 Assoziationsregeln Algorithmen zum Entdecken von Assoziationsregeln sind typische Vertreter von Data Mining Verfahren. Assoziationsregeln
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2008/2009 Musterlösung für das 7. Übungsblatt Aufgabe 1: Evaluierung und Kosten Gegeben sei ein Datensatz mit 300 Beispielen, davon 2 /3 positiv
Mehr5. Assoziationsregeln
5. Generieren von Assoziationsregeln Grundbegriffe 5. Assoziationsregeln Assoziationsregeln beschreiben gewisse Zusammenhänge und Regelmäßigkeiten zwischen verschiedenen Dingen, z.b. den Artikeln eines
MehrIntroduction FEM, 1D-Example
Introduction FEM, D-Example /home/lehre/vl-mhs-/inhalt/cover_sheet.tex. p./22 Table of contents D Example - Finite Element Method. D Setup Geometry 2. Governing equation 3. General Derivation of Finite
MehrHEUTE. Datenstrukturen im Computer. Datenstrukturen. Rekursion. Feedback Evaluation. abstrakte Datenstrukturen
9.2.5 HUT 9.2.5 3 atenstrukturen im omputer atenstrukturen ie beiden fundamentalen atenstrukturen in der Praxis sind rray und Liste Rekursion Feedback valuation rray Zugriff: schnell Umordnung: langsam
MehrMixed tenses revision: German
Mixed tenses revision: Gman Teaching notes This is a whole class game in wh one team (the red team) has to try to win hexagons in a row across the PowPoint grid from left to right, while the oth team (the
MehrMining top-k frequent itemsets from data streams
Seminar: Maschinelles Lernen Mining top-k frequent itemsets from data streams R.C.-W. Wong A.W.-C. Fu 1 Gliederung 1. Einleitung 2. Chernoff-basierter Algorithmus 3. top-k lossy counting Algorithmus 4.
MehrÜbung Algorithmen und Datenstrukturen
Übung Algorithmen und Datenstrukturen Sommersemester 2017 Patrick Schäfer, Humboldt-Universität zu Berlin Agenda: Suchen und Amortisierte Analyse Heute: Suchen / Schreibtischtest Amortisierte Analyse Nächste
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 9. Übungsblatt Aufgabe 1: Decision Trees Gegeben sei folgende Beispielmenge: Age Education Married Income Credit?
Mehrnicht demuxte Video-Daten konvertieren mit avinet (Freeware) ############################################################ ww.clonead.co.
nicht demuxte Video-Daten konvertieren mit avinet (Freeware) ############################################################ ww.clonead.co.uk avi.net konvertiert DVD oder Filmezu AVI, wobei für DVD 2 Audiotracks
MehrWintersemester 2004/ Januar Aus der Vorlesung sind Datenstrukturen zur Repräsentation von Wäldern disjunkter Mengen bekannt.
Lehrstuhl für Praktische Informatik III Norman May B6, 29, Raum C0.05 68131 Mannheim Telefon: (0621) 181 2517 Email: norman@pi3.informatik.uni-mannheim.de Matthias Brantner B6, 29, Raum C0.05 68131 Mannheim
MehrApriori-Algorithmus zur Entdeckung von Assoziationsregeln
Apriori-Algorithmus zur Entdeckung von PG 42 Wissensmanagment Lehrstuhl für Künstliche Intelligenz 22. Oktober 21 Gliederung Motivation Formale Problemdarstellung Apriori-Algorithmus Beispiel Varianten
MehrFachgebiet Softwaretechnik, Heinz Nixdorf Institut, Universität Paderborn. Testen. Tutorial im Rahmen des Software(technik)praktikums SS 2012
Testen Tutorial im Rahmen des Software(technik)praktikums SS 2012 Grundlagen (1) Software ist ein fundamentales Element in der Softwarequalitätssicherung Software wird am häufigsten eingesetzt Viele Organisationen
MehrAlgorithm Theory 3 Fast Fourier Transformation Christian Schindelhauer
Algorithm Theory 3 Fast Fourier Transformation Institut für Informatik Wintersemester 2007/08 Chapter 3 Fast Fourier Transformation 2 Polynomials Polynomials p over real numbers with a variable x p(x)
Mehr3.4 Kondition eines Problems
38 KAPITEL 3. FEHLERANALYSE Beispiel 3.18 Betrachte M(10, 5, 1). Dann sind x 4.2832, y 4.2821, z 5.7632 darstellare Zahlen und (x y)z 0.00633952. Das korrekte Ergenis in M ist daher 0.0063395. Der Ausdruck
MehrUnit 1. Motivation and Basics of Classical Logic. Fuzzy Logic I 6
Unit 1 Motivation and Basics of Classical Logic Fuzzy Logic I 6 Motivation In our everyday life, we use vague, qualitative, imprecise linguistic terms like small, hot, around two o clock Even very complex
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Reguläre Ausdrücke und reguläre Grammatiken Laura Kallmeyer Heinrich-Heine-Universität Düsseldorf Summer 2016 1 / 20 Regular expressions (1) Let Σ be an alphabet. The
MehrDatenstrukturen Teil 2. Bäume. Definition. Definition. Definition. Bäume sind verallgemeinerte Listen. Sie sind weiter spezielle Graphen
Bäume sind verallgemeinerte Listen Datenstrukturen Teil 2 Bäume Jeder Knoten kann mehrere Nachfolger haben Sie sind weiter spezielle Graphen Graphen bestehen aus Knoten und Kanten Kanten können gerichtet
MehrSeminar Komplexe Objekte in Datenbanken
Seminar Komplexe Objekte in Datenbanken OPTICS: Ordering Points To Identify the Clustering Structure Lehrstuhl für Informatik IX - Univ.-Prof. Dr. Thomas Seidl, RWTH-Aachen http://www-i9.informatik.rwth-aachen.de
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrLevel 2 German, 2013
91126 911260 2SUPERVISOR S Level 2 German, 2013 91126 Demonstrate understanding of a variety of written and / or visual German text(s) on familiar matters 9.30 am Monday 11 November 2013 Credits: Five
MehrDatenstrukturen und Algorithmen. 7. Suchen in linearen Feldern
Datenstrukturen und Algorithmen 7. Suchen in linearen Feldern VO 708.031 Suchen in linearen Feldern robert.legenstein@igi.tugraz.at 1 Inhalt der Vorlesung 1. Motivation, Einführung, Grundlagen 2. Algorithmische
MehrKonzeptbeschreibung Ziel: Methode: Vorgehen: Entfernen von Attributen Verallgemeinerung von Attributen Relevanzanalyse der restlichen Attribute
Konzeptbeschreibung Ziel: Knappe Charakterisierung einer Datenmenge im Vergleich zu einer anderen Datenmenge (Kontrastmenge) Methode: Herausfinden charakteristischer Attribute auf angemessener Abstraktionsebene
MehrAlgorithms for Pattern Mining AprioriTID. Stefan George, Felix Leupold
Algorithms for Pattern Mining AprioriTID Stefan George, Felix Leupold Gliederung 2 Einleitung Support / Confidence Apriori ApriorTID Implementierung Performance Erweiterung Zusammenfassung Einleitung 3
MehrDynamisches Huffman-Verfahren
Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über
MehrAlgorithmen und Datenstrukturen 2
Algorithmen und Datenstrukturen 2 Sommersemester 2007 4. Vorlesung Peter F. Stadler Universität Leipzig Institut für Informatik studla@bioinf.uni-leipzig.de Traversierung Durchlaufen eines Graphen, bei
MehrData Mining und Statistik: Gemeinsamkeiten und Unterschiede. Daniel Meschenmoser
Data Mining und Statistik: Gemeinsamkeiten und Unterschiede Daniel Meschenmoser Übersicht Gemeinsamkeiten von Data Mining und Statistik Unterschiede zwischen Data Mining und Statistik Assoziationsregeln
MehrAutomaten und formale Sprachen. Lösungen zu den Übungsblättern
Automaten und formale Sprachen zu den Übungsblättern Übungsblatt Aufgabe. (Sipser, exercise.3) M = ({q, q2, q3, q4, q5}, {u, d}, δ, q3, {q3}) δ: u d q q q 2 q 2 q q 3 q 3 q 2 q 4 q 4 q 3 q 5 q 5 q 4 q
MehrUnit 4. The Extension Principle. Fuzzy Logic I 123
Unit 4 The Extension Principle Fuzzy Logic I 123 Images and Preimages of Functions Let f : X Y be a function and A be a subset of X. Then the image of A w.r.t. f is defined as follows: f(a) = {y Y there
MehrMathematische Grundlagen III
Mathematische Grundlagen III Maschinelles Lernen I: Klassifikation mit Naive Bayes Vera Demberg Universität des Saarlandes 10. Juli 2012 Vera Demberg (UdS) Mathe III 10. Juli 2012 1 / 42 Einleitung Im
MehrLevel 2 German, 2015
91126 911260 2SUPERVISOR S Level 2 German, 2015 91126 Demonstrate understanding of a variety of written and / or visual German text(s) on familiar matters 2.00 p.m. Friday 4 December 2015 Credits: Five
MehrData Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt
Data Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt Knowledge Engineering Group Data Mining und Maschinelles Lernen Lösungsvorschlag 7. Übungsblatt 1 Aufgabe 1a) Auffüllen von Attributen
MehrData Mining Anwendungen und Techniken
Data Mining Anwendungen und Techniken Knut Hinkelmann DFKI GmbH Entdecken von Wissen in banken Wissen Unternehmen sammeln ungeheure mengen enthalten wettbewerbsrelevantes Wissen Ziel: Entdecken dieses
MehrData Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt
Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt 18. November 2015 1 Aufgabe 1: Version Space, Generalisierung und Spezialisierung (1) Gegeben sei folgende
MehrProperty Based Testing
Property Based Testing Nicolai Mainiero sidion Testen ist schwer Testen ist schwer Warum? Alle Pfade durch den Code aufzuzählen ist aufwendig. Selbst vermeintlich einfache Systeme können komplex sein.
MehrProf. Dr. Margarita Esponda
Algorithmen und Programmieren II Sortieralgorithmen imperativ Teil I Prof. Dr. Margarita Esponda Freie Universität Berlin Sortieralgorithmen Bubble-Sort Insert-Sort Selection-Sort Vergleichsalgorithmen
MehrÜbung Algorithmen und Datenstrukturen
Übung Algorithmen und Datenstrukturen Sommersemester 217 Patrick Schäfer, Humboldt-Universität zu Berlin Agenda: Graphen, Suchbäume, AVL Bäume Heute: Graphen und Bäume Binäre Suchbäume AVL-Bäume Nächste
MehrSeminar Map/Reduce Algorithms on Hadoop. Topics. Alex, Christoph
Seminar Map/Reduce Algorithms on Hadoop Topics Alex, Christoph Organisatorisches Prioritisierte Liste mit allen vorgestellten Themen bis heute 23:59 an Alexander.Albrecht@hpi.uni-potsdam.de Vergabe der
MehrUmgang mit und Ersetzen von fehlenden Werten bei multivariaten Analysen
Umgang mit und Ersetzen von fehlenden Werten bei multivariaten Analysen Warum überhaupt Gedanken machen? Was fehlt, ist doch weg, oder? Allgegenwärtiges Problem in psychologischer Forschung Bringt Fehlerquellen
Mehr8. A & D - Heapsort. Werden sehen, wie wir durch geschicktes Organsieren von Daten effiziente Algorithmen entwerfen können.
8. A & D - Heapsort Werden sehen, wie wir durch geschicktes Organsieren von Daten effiziente Algorithmen entwerfen können. Genauer werden wir immer wieder benötigte Operationen durch Datenstrukturen unterstützen.
MehrAbschnitt: Algorithmendesign und Laufzeitanalyse
Abschnitt: Algorithmendesign und Laufzeitanalyse Definition Divide-and-Conquer Paradigma Divide-and-Conquer Algorithmen verwenden die Strategien 1 Divide: Teile das Problem rekursiv in Subproblem gleicher
MehrEntscheidungsbaum-Lernen: Übersicht
Entscheidungsbaum-Lernen: Übersicht Entscheidungsbäume als Repräsentationsformalismus Semantik: Klassifikation Lernen von Entscheidungsbäumen vollst. Suche vs. TDIDT Tests, Ausdrucksfähigkeit Maße: Information
Mehr6.6 Vorlesung: Von OLAP zu Mining
6.6 Vorlesung: Von OLAP zu Mining Definition des Begriffs Data Mining. Wichtige Data Mining-Problemstellungen, Zusammenhang zu Data Warehousing,. OHO - 1 Definition Data Mining Menge von Techniken zum
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Die Forschungsuniversität Meyerhenke, in der Institut für Theoretische Informatik
MehrVortragsthema. Thema: Klassifikation. Klassifikation. OS Data Mining SS10 Madeleine Weiand 1
Vortragsthema Klassifikation OS Data Mining SS0 Madeleine Weiand Agenda Agenda I III Begriff Klassifikation Abgrenzung Anforderungen Anwendungsgebiete Dimensionsreduktion Umsetzung in Software Vergleich
MehrSandro Pirkwieser, (Bin Hu, Jakob Puchinger) SS 2010
Lösungsverfahren für Ganzzahlige Optimierung Sandro Pirkwieser, (Bin Hu, Jakob Puchinger) Fortgeschrittene Algorithmen und Datenstrukturen Arbeitsbereich für Algorithmen und Datenstrukturen Institut für
Mehr2 Teil 2: Nassi-Schneiderman
2 Teil 2: Nassi-Schneiderman Wie kann man Nassi-Schneiderman in einer objektorientierten Sprache verwenden? Jedes Objekt besitzt Methoden, welche die Attribute des Objektes verändern. Das Verhalten der
MehrNutzung maschinellen Lernens zur Extraktion von Paragraphen aus PDF-Dokumenten
Nutzung maschinellen Lernens zur Extraktion von Paragraphen aus PDF-Dokumenten Albert-Ludwigs-Universität zu Freiburg 13.09.2016 Maximilian Dippel max.dippel@tf.uni-freiburg.de Überblick I Einführung Problemstellung
MehrVorlesung Algorithmische Geometrie. Streckenschnitte. Martin Nöllenburg 19.04.2011
Vorlesung Algorithmische Geometrie LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 19.04.2011 Überlagern von Kartenebenen Beispiel: Gegeben zwei
MehrLevel 1 German, 2011
90886 908860 1SUPERVISOR S Level 1 German, 2011 90886 Demonstrate understanding of a variety of German texts on areas of most immediate relevance 9.30 am uesday Tuesday 1 November 2011 Credits: Five Achievement
Mehr3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002)
3. Entscheidungsbäume Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) (aus Wilhelm 2001) Beispiel: (aus Böhm 2003) Wann sind Entscheidungsbäume
MehrData Mining und Maschinelles Lernen
Data Mining und Maschinelles Lernen Wintersemester 2015/16 Musterlösung für das 7. Übungsblatt Aufgabe 1 Evaluierungsmethoden Ein Datenset enthält 2 n Beispiele, wobei genau n Beispiele positiv sind und
Mehr{P} S {Q} {P} S {Q} {P} S {Q} Inhalt. Hoare-Kalkül. Hoare-Kalkül. Hoare-Tripel. Hoare-Tripel. Hoare-Tripel
Inhalt Hoare-Kalkül Formale Verifizierung Hoare-Kalkül while-sprache Terminierung Partielle / totale Korrektheit 4.0 Hoare-Kalkül entwickelt von C.A.R. (Tony) Hoare (britischer Informatiker), 1969 formales
Mehr2. Lernen von Entscheidungsbäumen
2. Lernen von Entscheidungsbäumen Entscheidungsbäume 2. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse
Mehr