5. Assoziationsregeln

Größe: px
Ab Seite anzeigen:

Download "5. Assoziationsregeln"

Transkript

1 5. Generieren von Assoziationsregeln Grundbegriffe 5. Assoziationsregeln Assoziationsregeln beschreiben gewisse Zusammenhänge und Regelmäßigkeiten zwischen verschiedenen Dingen, z.b. den Artikeln eines Warenhauses. Die Zusammenhänge sind allgemeiner Art und nicht notwendigerweise kausal bedingt. Man unterstellt aber, daß implizite strukturelle Abhängigkeiten vorliegen. Diese möchte man erkennen. Typischer Anwendungsbereich: Verkaufsdatenanalyse Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 213

2 5. Generieren von Assoziationsregeln Grundbegriffe Itemmenge, Transaktion und Datenbasis Definition 5.1. Die Dinge, deren Beziehungen zueinander analysiert werden sollen, werden als Items bezeichnet. Es sei I = {i 1,...,i n } eine endliche Menge von Items. Eine Teilmenge X I heißt Itemmenge. Eine k-itemmenge ist eine Itemmenge mit k Elementen. Eine Transaktion t I ist eine Itemmenge. Die Datenbasis D = {d 1,...,d m } ist eine Menge von Transaktionen. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 214

3 5. Generieren von Assoziationsregeln Grundbegriffe Support Definition 5.2. Es sei X I eine Itemmenge. Der Support von X ist der Anteil aller Transaktionen aus D, die X enthalten: support(x) := {t D X t} D Beispiel 5.1. Bei der Verkaufsdatenanalyse eines Supermarktes sind Items die Artikel aus dem Sortiment. Die Transaktionen entsprechen den Einkäufen von Kunden. Die Datenbasis besteht aus den Einkäufen der Kunden eines bestimmten Zeitraums. Der Support der Itemmenge {Milch} ist dann der Anteil der Einkäufe, bei denen u.a. Milch gekauft wurde. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 215

4 5. Generieren von Assoziationsregeln Grundbegriffe Assoziationsregel Definition 5.3. Gegeben seien zwei disjunkte Itemmengen X, Y, also X,Y I und X Y =. Eine Assoziationsregel hat die Form X Y. Eine Transaktion erfüllt die Regel X Y gdw. X Y t gilt, d.h. t enthält alle Items der Assoziationsregel. Der Support von X Y ist der Support der Itemmenge X Y support(x Y) := support(x Y) Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 216

5 5. Generieren von Assoziationsregeln Grundbegriffe Konfidenz Definition 5.4. Gegeben sei die Assoziationsregel X Y. Die Konfidenz von X Y confidence(x Y) ist definiert durch confidence(x Y) := = {t D X Y t} {t D X t} support(x Y) support(x) Bemerkung 5.1. Die Konfidenz ist eine bedingte relative Häufigkeit bzw. bedingte Wahrscheinlichkeit. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 217

6 5. Generieren von Assoziationsregeln Grundbegriffe Beispiel 5.2. Transaktion Items 1 Brot, Kaffee, Milch, Kuchen 2 Kaffee, Milch, Kuchen 3 Brot, Butter, Kaffee, Milch 4 Milch, Kuchen 5 Brot, Kuchen 6 Brot support({kaffee, Milch}) = 0.5 = 50% support({kaffee, Kuchen, Milch}) = 0.33 = 33% support({milch, Kaffee} {Kuchen}) = 0.33 = 33% confidence({milch, Kaffee} {Kuchen}) = 0.67 = 67% Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 218

7 5. Generieren von Assoziationsregeln Apriori-Algorithmus Suche nach Assoziationsregeln Support und Konfidenz sind Parameter mit denen die Relevanz einer Regel beurteilt wird. Beide Maßzahlen sollten möglichst groß sein. Finde alle Assoziationsregeln, die in der betrachteten Datenbasis einen Support minsupp und eine Konfidenz minconf haben. Die Werte minsupp und minconf sind dabei benutzerdefiniert. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 219

8 5. Generieren von Assoziationsregeln Apriori-Algorithmus Das Problem wird in zwei Teilprobleme zerlegt: 1. Finde alle Itemmengen, deren Support minsupp ist. Diese Itemmengen heißen häufige Itemmengen (frequent itemsets). 2. Finde in jeder häufigen Itemmenge I alle Assoziationsregeln I I \ I mit I I und mit Konfidenz minconf. Die wesentliche Schwierigkeit besteht in der Lösung des ersten Teilproblems. Enthält die Menge I insgesamt n Items, so sind prinzipiell 2 n Itemmengen auf ihren Support hin zu untersuchen. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 220

9 5. Generieren von Assoziationsregeln Apriori-Algorithmus Apriori-Algorithmus Der sogenannte Apriori-Algorithmus nutzt folgendes bei der Suche nach häufigen Itemmengen aus: Für zwei Itemmengen I 1, I 2 mit I 1 I 2 gilt Somit folgt: support(i 2 ) support(i 1 ) Alle Teilmengen einer häufigen Itemmenge sind ebenfalls häufige Itemmengen. Alle Obermengen einer nicht häufigen Itemmenge sind ebenfalls nicht häufig. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 221

10 5. Generieren von Assoziationsregeln Apriori-Algorithmus Grober Ablauf des Apriori-Algorithmus: Der Apriori-Algorithmus bestimmt zunächst die einelementigen häufigen Itemmengen. In jedem weiteren Durchlauf werden die Obermengen mit k + 1 Elementen von häufigen k-itemmengen darauf untersucht, ob sie ebenfalls häufig sind. Die Obermengen der häufigen k-itemmengen werden mit dem Algorithmus AprioriGen ermittelt. Werden keine häufigen k+1-itemmengen mehr gefunden, bricht der Algorithmus ab. Voraussetzung: Itemmengen sind lexikographisch geordnet. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 222

11 5. Generieren von Assoziationsregeln Apriori-Algorithmus Algorithmus 5.1. [Apriori-Algorithmus] L 1 := { häufige 1-Itemmengen } k := 2 while L k 1 do C k := AprioriGen(L k 1 ) for all Transaktionen t D do C t := {c C k c t} for all Kandidaten c C t do c.count := c.count + 1 end end L k := {c C k c.count D minsupp} k := k + 1 end return k L k Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 223

12 5. Generieren von Assoziationsregeln Apriori-Algorithmus Algorithmus 5.2. [AprioriGen] C k := for all p,q L k 1 mit p q do if p q = k 2 and p = {e 1,...,e k 2, e p } and q = {e 1,...,e k 2,e q } then C k := C k {e 1,...,e k 2, e p,e q } end for all c C k do for all (k 1)-Teilmengen s von c do if s / L k 1 then C k := C k \ {c} end end return C k Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 224

13 5. Generieren von Assoziationsregeln Apriori-Algorithmus Beispiel 5.3. minsupp = 40% Transaktion Items 1 A C D 2 B C E 3 A B C E 4 B E C 1 Itemm. Support {A} 50% {B} 75% {C} 75% {D} 25% {E} 75% L 1 Itemm. Support {A} 50% {B} 75% {C} 75% {E} 75% Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 225

14 5. Generieren von Assoziationsregeln Apriori-Algorithmus Itemm. {A,B} {A,C} {A,E} {B,C} {B,E} {C,E} C 2 Support C 2 Itemm. Support {A,B} 25% {A,C} 50% {A,E} 25% {B,C} 50% {B,E} 75% {C,E} 50% L 2 Itemm. Support {A,C} 50% {B,C} 50% {B,E} 75% {C,E} 50% Itemm. {B,C,E} C 3 Support C 3 Itemm. Support {B,C,E} 50% L 3 Itemm. Support {B,C,E} 50% Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 226

15 5. Generieren von Assoziationsregeln Datenstrukturen für die Teilmengenoperation Unterstützung der Teilmengenoperation Im Apriori- und im AprioriGen-Algorithmus werden sehr häufig Teilmengen überprüft. Um diese Tests effizient durchführen zu können, werden die Kandidatenmengen in einem Hash-Baum verwaltet. Struktur eines Hash-Baums: Innerer Knoten: Hashtabelle bezüglich Hashfunktion h; Buckets der Hashtabelle verweisen auf die Sohnknoten. Blattknoten: enthält Liste von Itemmengen Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 227

16 5. Generieren von Assoziationsregeln Datenstrukturen für die Teilmengenoperation Suchen einer Itemmenge X = {i 1,...,i k }: Innerer Knoten auf Ebene d: Anwendung der Hashfunktion h auf i d Das Ergebnis von h legt den Zweig fest, der weiter verfolgt wird. Blatt: Suche in der Liste der Itemmengen Einfügen einer Itemmenge X = {i 1,...,i k }: Zunächst erfolgt eine Suche für X bis zu einem Blatt, in das die Itemmenge eingefügt werden soll. Ist in dem Blatt Platz für eine weitere Itemmenge vorhanden, dann wird X dort eingefügt. Kann das Blatt keine Itemmenge mehr aufnehmen, dann wird es zu einem inneren Knoten und die Einträge werden gemäß h auf neue Blätter verteilt. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 228

17 5. Generieren von Assoziationsregeln Datenstrukturen für die Teilmengenoperation Kapazität der Blätter = h(k) = K mod {3,6,7} {3,5,7} {7,9,12} {1,4,11} {7,8,9} {2,3,8} {3,5,11} {1,6,11} {1,7,9} {1,8,11} {5,6,7} {2,5,6} {2,5,7} {5,8,11} {3,4,15} {3,7,11} {3,4,11} {3,4,8} {2,4,6} {2,4,7} {2,7,9} {5,7,10} Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 229

18 5. Generieren von Assoziationsregeln Datenstrukturen für die Teilmengenoperation Suchen aller Itemmengen X, die von einer Transaktion t = {t 1,...,t m } erfüllt werden: Wurzel: Für jedes t i t wird h(t i ) bestimmt und in den resultierenden Söhnen wird weitergesucht. Innerer Knoten: Hat man den Knoten durch h(t i ) erreicht, dann wird h(t j ) für jedes t j mit j > i bestimmt. Auf die so resultierenden Söhne wird das Verfahren in gleicher Weise fortgesetzt, bis ein Blatt erreicht wird. Blatt: Prüfung, welche der in dem Blatt enthaltenen Itemmengen die Transaktion t erfüllen. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 230

19 5. Generieren von Assoziationsregeln Datenstrukturen für die Teilmengenoperation t = {1, 3, 7, 9, 12} h(k) = K mod {3,6,7} {3,5,7} {7,9,12} {1,4,11} {7,8,9} {2,3,8} {2,5,6} {3,5,11} {1,6,11} {1,7,9} {1,8,11} {5,6,7} {2,5,7} {5,8,11} {3,4,15} {3,7,11} {3,4,11} {3,4,8} {2,4,6} {2,4,7} {2,7,9} {5,7,10} Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 231

20 5. Generieren von Assoziationsregeln Ermittlung der Assoziationsregeln Bestimmung der Assoziationsregeln Nach der Bestimmung der häufigen Itemmengen müssen noch die Assoziationsregeln mit einer Konfidenz minconf bestimmt werden. Diese werden aus den häufigen Itemmengen generiert. Gegeben seien Itemmengen X, Y mit Y X. Dann gilt: confidence((x \ Y) Y) minconf = confidence((x \ Y ) Y ) minconf für alle Y Y Bei der Regelgenerierung nutzt man wiederum die Umkehrung aus. Man beginnt mit einer möglichst kleinen Menge Y und schließt alle Obermengen von Y aus, falls gilt: confidence((x \ Y ) Y ) < minconf Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 232

21 5. Generieren von Assoziationsregeln Ermittlung der Assoziationsregeln Man erzeugt aus einer häufigen Itemmenge X zunächst alle Assoziationsregeln mit einelementiger Konklusion (rechter Seite). Alle Regeln mit Konfidenz minconf werden ausgegeben. Sei H m die Menge der Konklusionen häufiger Itemmengen mit m Elementen. Wir setzen H m+1 := AprioriGen(H m ). Für alle Konklusionen h m+1 H m+1 überprüft man nun, ob confidence((x \ h m+1 ) h m+1 ) minconf gilt. Falls ja, dann wird die Regel ausgegeben, ansonsten wird h m+1 aus H m+1 entfernt. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 233

22 5. Generieren von Assoziationsregeln Ermittlung der Assoziationsregeln Warenkorbanalyse Beispiel 5.4. [Warenkorbanalyse] ID Artikel t 1 t 2 t 3 t 4 t 5 t 6 t 7 t 8 t 9 t 10 support A Seife x x x x 0.4 B Shampoo x x x x x x x x 0.8 C Haarspülung x x x x x x 0.6 D Duschgel x x x x x x 0.6 E Zahnpasta x x x x 0.4 F Zahnbürste x x 0.2 G Haarfärbung x x x 0.3 H Haargel x 0.1 J Deodorant x x x x x x 0.6 K Parfüm x x 0.2 L Kosmetikartikel x x x x x 0.5 Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 234

23 5. Generieren von Assoziationsregeln Ermittlung der Assoziationsregeln Wir setzen: minsupp = 0.4,minconf = 0.7 L 1 = {{A}, {B},{C}, {D},{E}, {J}, {L}} C 2 Tafel. L 2 = {{B, C},{B, D},{B,J}, {B, L}, {C,J}, {C, L}} C 3 vor Teilmengencheck: {{B, C,D},{B, C,J}, {B, C,L}, {B, D,J}, {B,D,L}, {B, J,L}, {C, J, L}} C 3 nach Teilmengencheck: {{B,C, J}, {B,C, L}} L 3 = {{B, C,J}, {B, C,L}} C 4 = L 4 = Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 235

24 5. Generieren von Assoziationsregeln Ermittlung der Assoziationsregeln Für die Generierung der Assoziationsregeln beginnen wir mit L 2. Wir erhalten: B C,C B,D B,L B, L C Aus {B, C,J} aus L 3 ergeben sich die Regeln (Konfidenz in Klammern): BC J[0.67],BJ C[1.00],CJ B[1.00] und H 1 = {{B}, {C}} H 2 = AprioriGen(H 1 ) = {{B,C}}, aber J BC[0.67] erfüllt nicht das Konfidenzkriterium. Aus {B, C,L} ergeben sich die Regeln: BC L[0.67],BL C[0.8],CL B[1.00] Mit H 2 = {{B, C}} ergibt sich L BC[0.8] Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 236

25 5. Generieren von Assoziationsregeln Ermittlung der Assoziationsregeln Regel Support Konfidenz Shampoo Haarspülung Haarspülung Shampoo Duschgel Shampoo Kosmetik Shampoo Kosmetik Haarspülung Shampoo, Deodorant Haarspülung Haarspülung, Deodorant Shampoo Shampoo, Kosmetik Haarspülung Haarspülung, Kosmetik Shampoo Kosmetik Shampoo, Haarspülung Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 237

26 5. Generieren von Assoziationsregeln Zusammenfassung Zusammenfassung Entscheidungsbäume Aufbau einer Klassifikationshierarchie für eine Trainingsmenge top-down, rekursives Verfahren Wesentlich ist die Attributauswahl ID3-Algorithmus: Attributauswahl auf Basis der Entropie Assoziationsregeln Wesentlich: Berechnung häufiger Itemmengen Apriori-Algorithmus zur Berechnung häufiger Itemmengen Unterstützung des Apriori-Algorithmus durch Hash-Trees Aus den häufigen Itemmengen werden unter Einsatz von Apriori- Gen die Assoziationsregeln generiert. Maschinelles Lernen und unsicheres Wissen FH Bonn-Rhein-Sieg, WS 08/09 238

6.6 Vorlesung: Von OLAP zu Mining

6.6 Vorlesung: Von OLAP zu Mining 6.6 Vorlesung: Von OLAP zu Mining Definition des Begriffs Data Mining. Wichtige Data Mining-Problemstellungen, Zusammenhang zu Data Warehousing,. OHO - 1 Definition Data Mining Menge von Techniken zum

Mehr

FernUniversität in Hagen. Seminar 01912 Data Mining im Sommersemester 2008 Häufige Muster und Assoziationsregeln. Thema 1.1.1 Der Apriori-Algorithmus

FernUniversität in Hagen. Seminar 01912 Data Mining im Sommersemester 2008 Häufige Muster und Assoziationsregeln. Thema 1.1.1 Der Apriori-Algorithmus FernUniversität in Hagen Seminar 01912 Data Mining im Sommersemester 2008 Häufige Muster und Assoziationsregeln Thema 1.1.1 Der Apriori-Algorithmus Referentin: Olga Riener Olga Riener. Thema 1.1.1. Der

Mehr

2. Lernen von Entscheidungsbäumen

2. Lernen von Entscheidungsbäumen 2. Lernen von Entscheidungsbäumen Entscheidungsbäume 2. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Fortgeschrittene Computerintensive Methoden: Assoziationsregeln Steffen Unkel Manuel Eugster, Bettina Grün, Friedrich Leisch, Matthias Schmid

Fortgeschrittene Computerintensive Methoden: Assoziationsregeln Steffen Unkel Manuel Eugster, Bettina Grün, Friedrich Leisch, Matthias Schmid Fortgeschrittene Computerintensive Methoden: Assoziationsregeln Steffen Unkel Manuel Eugster, Bettina Grün, Friedrich Leisch, Matthias Schmid Institut für Statistik LMU München Sommersemester 2013 Zielsetzung

Mehr

4. Assoziationsregeln. 4.1 Einleitung. 4.2 Einfache Assoziationsregeln. 4.1 Einleitung. Inhalt dieses Kapitels. Motivation

4. Assoziationsregeln. 4.1 Einleitung. 4.2 Einfache Assoziationsregeln. 4.1 Einleitung. Inhalt dieses Kapitels. Motivation 4.1 Einleitung 4. Assoziationsregeln Inhalt dieses Kapitels Transaktionsdatenbanken, Warenkorbanalyse 4.2 Einfache Assoziationsregeln Grundbegriffe, Aufgabenstellung, Apriori-Algorithmus, Hashbäume, Interessantheit

Mehr

Häufige Item-Mengen: die Schlüssel-Idee. Vorlesungsplan. Apriori Algorithmus. Methoden zur Verbessung der Effizienz von Apriori

Häufige Item-Mengen: die Schlüssel-Idee. Vorlesungsplan. Apriori Algorithmus. Methoden zur Verbessung der Effizienz von Apriori Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,

Mehr

4.1 Einleitung. 4. Assoziationsregeln. 4.2 Einfache Assoziationsregeln. 4.1 Einleitung. Inhalt dieses Kapitels. Motivation. Assoziationsregeln

4.1 Einleitung. 4. Assoziationsregeln. 4.2 Einfache Assoziationsregeln. 4.1 Einleitung. Inhalt dieses Kapitels. Motivation. Assoziationsregeln 4.1 Einleitung 4. Assoziationsregeln Inhalt dieses Kapitels Transaktionsdatenbanken, Warenkorbanalyse 4.2 Einfache Assoziationsregeln Grundbegriffe, Aufgabenstellung, Apriori-Algorithmus, Hashbäume, Interessantheit

Mehr

VII.3 Assoziationsregeln

VII.3 Assoziationsregeln VII.3 Assoziationsregelverfahren VII.3. Einführung [Bollinger 96] VII.3 Assoziationsregeln Algorithmen zum Entdecken von Assoziationsregeln sind typische Vertreter von Data Mining Verfahren. Assoziationsregeln

Mehr

Mining über RDBMSe. von. Christian Widmer. Wie gut lässt sich Mining mit SQL realisieren?

Mining über RDBMSe. von. Christian Widmer. Wie gut lässt sich Mining mit SQL realisieren? Mining über RDBMSe von Christian Widmer Wie gut lässt sich Mining mit SQL realisieren? Müssen neue Konstrukte zur Verfügung gestellt werden, wenn ja welche? Vortragsüberblick Association Rules Apriori

Mehr

Ermittlung von Assoziationsregeln aus großen Datenmengen. Zielsetzung

Ermittlung von Assoziationsregeln aus großen Datenmengen. Zielsetzung Ermittlung von Assoziationsregeln aus großen Datenmengen Zielsetzung Entscheidungsträger verwenden heutzutage immer häufiger moderne Technologien zur Lösung betriebswirtschaftlicher Problemstellungen.

Mehr

4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum

4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum 4. Lernen von Entscheidungsbäumen Klassifikation mit Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch /Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden.

Mehr

Erkennung Sequenzieller Muster Algorithmen und Anwendungen

Erkennung Sequenzieller Muster Algorithmen und Anwendungen Achim Eisele, Thema 1.4.3: Sequenzielle Muster 1 FernUniversität in Hagen Seminar 01912 im Sommersemester 2008 Erkennung Sequenzieller Muster Algorithmen und Anwendungen Thema 1.4.3: Sequenzielle Muster

Mehr

Kapitel 12: Schnelles Bestimmen der Frequent Itemsets

Kapitel 12: Schnelles Bestimmen der Frequent Itemsets Einleitung In welchen Situationen ist Apriori teuer, und warum? Kapitel 12: Schnelles Bestimmen der Frequent Itemsets Data Warehousing und Mining 1 Data Warehousing und Mining 2 Schnelles Identifizieren

Mehr

Beschreibung von Web- Nutzungsverhalten unter Verwendung von Data Mining Techniken

Beschreibung von Web- Nutzungsverhalten unter Verwendung von Data Mining Techniken Diplomarbeit Beschreibung von Web- Nutzungsverhalten unter Verwendung von Data Mining Techniken Irina Alesker Diplomarbeit am Fachbereich Informatik der Universität Dortmund 23. Juni 2005 Betreuer: Prof.

Mehr

Lemma Für jede monotone Grammatik G gibt es eine kontextsensitive

Lemma Für jede monotone Grammatik G gibt es eine kontextsensitive Lemma Für jede monotone Grammatik G gibt es eine kontextsensitive Grammatik G mit L(G) = L(G ). Beweis im Beispiel (2.): G = (V,Σ, P, S) : P = {S asbc, S abc, CB BC, ab ab, bb bb, bc bc, cc cc}. (i) G

Mehr

Algorithms for Pattern Mining AprioriTID. Stefan George, Felix Leupold

Algorithms for Pattern Mining AprioriTID. Stefan George, Felix Leupold Algorithms for Pattern Mining AprioriTID Stefan George, Felix Leupold Gliederung 2 Einleitung Support / Confidence Apriori ApriorTID Implementierung Performance Erweiterung Zusammenfassung Einleitung 3

Mehr

Eine Baumstruktur sei folgendermaßen definiert. Eine Baumstruktur mit Grundtyp Element ist entweder

Eine Baumstruktur sei folgendermaßen definiert. Eine Baumstruktur mit Grundtyp Element ist entweder Programmieren in PASCAL Bäume 1 1. Baumstrukturen Eine Baumstruktur sei folgendermaßen definiert. Eine Baumstruktur mit Grundtyp Element ist entweder 1. die leere Struktur oder 2. ein Knoten vom Typ Element

Mehr

3. Lernen von Entscheidungsbäumen

3. Lernen von Entscheidungsbäumen 3. Lernen von Entscheidungsbäumen Entscheidungsbäume 3. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

11.1 Grundlagen - Denitionen

11.1 Grundlagen - Denitionen 11 Binärbäume 11.1 Grundlagen - Denitionen Denition: Ein Baum ist eine Menge, die durch eine sog. Nachfolgerrelation strukturiert ist. In einem Baum gilt: (I) (II) 1 Knoten w ohne VATER(w), das ist die

Mehr

Frequent Itemset Mining + Association Rule Mining

Frequent Itemset Mining + Association Rule Mining Frequent Itemset Mining + Association Rule Mining Studiengang Angewandte Mathematik WS 2015/16 Frequent Itemset Mining (FIM) 21.10.2015 2 Einleitung Das Frequent-Itemset-Mining kann als Anfang des modernen,

Mehr

5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften

5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften 5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer Clusterstruktur kennen, verschiedene

Mehr

Kapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete

Kapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete Kapitel 4: Dynamische Datenstrukturen Algorithmen und Datenstrukturen WS 2012/13 Prof. Dr. Sándor Fekete 4.4 Binäre Suche Aufgabenstellung: Rate eine Zahl zwischen 100 und 114! Algorithmus 4.1 INPUT: OUTPUT:

Mehr

6. Flüsse in Netzwerken Berechnung maximaler Flüsse. dann berechnet der Markierungsalgorithmus für beliebige Kapazitätsfunktionen

6. Flüsse in Netzwerken Berechnung maximaler Flüsse. dann berechnet der Markierungsalgorithmus für beliebige Kapazitätsfunktionen 6. Flüsse in Netzwerken Berechnung maximaler Flüsse Satz 6.4. Ersetzt man in Algorithmus 6.1 den Schritt 2 durch 2a. Wähle den Knoten, der zuerst in eingefügt wurde. Setze. dann berechnet der arkierungsalgorithmus

Mehr

Datenstrukturen & Algorithmen Lösungen zu Blatt 6 FS 14

Datenstrukturen & Algorithmen Lösungen zu Blatt 6 FS 14 Eidgenössische Technische Hochschule Zürich Ecole polytechnique fédérale de Zurich Politecnico federale di Zurigo Federal Institute of Technology at Zurich Institut für Theoretische Informatik 2. April

Mehr

Konzeptbeschreibung Ziel: Methode: Vorgehen: Entfernen von Attributen Verallgemeinerung von Attributen Relevanzanalyse der restlichen Attribute

Konzeptbeschreibung Ziel: Methode: Vorgehen: Entfernen von Attributen Verallgemeinerung von Attributen Relevanzanalyse der restlichen Attribute Konzeptbeschreibung Ziel: Knappe Charakterisierung einer Datenmenge im Vergleich zu einer anderen Datenmenge (Kontrastmenge) Methode: Herausfinden charakteristischer Attribute auf angemessener Abstraktionsebene

Mehr

1 Zahlentheorie. 1.1 Kongruenzen

1 Zahlentheorie. 1.1 Kongruenzen 3 Zahlentheorie. Kongruenzen Der letzte Abschnitt zeigte, daß es sinnvoll ist, mit großen Zahlen möglichst einfach rechnen zu können. Oft kommt es nicht darauf, an eine Zahl im Detail zu kennen, sondern

Mehr

13. Binäre Suchbäume

13. Binäre Suchbäume 1. Binäre Suchbäume Binäre Suchbäume realiesieren Wörterbücher. Sie unterstützen die Operationen 1. Einfügen (Insert) 2. Entfernen (Delete). Suchen (Search) 4. Maximum/Minimum-Suche 5. Vorgänger (Predecessor),

Mehr

4. Kreis- und Wegeprobleme Abstände in Graphen

4. Kreis- und Wegeprobleme Abstände in Graphen 4. Kreis- und Wegeprobleme Abstände in Graphen Abstände in Graphen Definition 4.4. Es sei G = (V,E) ein Graph. Der Abstand d(v,w) zweier Knoten v,w V ist die minimale Länge eines Weges von v nach w. Falls

Mehr

Vorlesung 04.12.2006: Binäre Entscheidungsdiagramme (BDDs) Dr. Carsten Sinz

Vorlesung 04.12.2006: Binäre Entscheidungsdiagramme (BDDs) Dr. Carsten Sinz Vorlesung 04.12.2006: Binäre Entscheidungsdiagramme (BDDs) Dr. Carsten Sinz Datenstruktur BDD 1986 von R. Bryant vorgeschlagen zur Darstellung von aussagenlogischen Formeln (genauer: Booleschen Funktionen)

Mehr

4.4.1 Statisches perfektes Hashing. des Bildbereichs {0, 1,..., n 1} der Hashfunktionen und S U, S = m n, eine Menge von Schlüsseln.

4.4.1 Statisches perfektes Hashing. des Bildbereichs {0, 1,..., n 1} der Hashfunktionen und S U, S = m n, eine Menge von Schlüsseln. 4.4 Perfektes Hashing Das Ziel des perfekten Hashings ist es, für eine Schlüsselmenge eine Hashfunktion zu finden, so dass keine Kollisionen auftreten. Die Größe der Hashtabelle soll dabei natürlich möglichst

Mehr

WIRTSCHAFTSUNIVERSITÄT WIEN DIPLOMARBEIT

WIRTSCHAFTSUNIVERSITÄT WIEN DIPLOMARBEIT WIRTSCHAFTSUNIVERSITÄT WIEN DIPLOMARBEIT Titel der Diplomarbeit: Visualisierung von Assoziationsregeln mit R Verfasserin/Verfasser: Martin Vodenicharov Matrikel-Nr.: 0253795 Studienrichtung: Betriebswirtschaft

Mehr

Seminar Intelligente Anwendungen im Internet

Seminar Intelligente Anwendungen im Internet Seminar im Internet for Mining World Wide Web Browsing Patterns Robert Cooley Bamshad Mobasher and Jaideep Srivastava (1999) University of Minnesota 18.12.2007 Übersicht 1 2 3 4 5 6 7 8 Übersicht 1 2 3

Mehr

Endgültige Gruppeneinteilung Kohorte Innere-BP Sommersemester 2016 (Stand: )

Endgültige Gruppeneinteilung Kohorte Innere-BP Sommersemester 2016 (Stand: ) A A1a 2197120 on on A A1a 2311330 on on on on on on on A A1a 2316420 on on A A1a 2332345 on on on on on on on A A1a 2371324 on on on on on on on A A1a 2382962 on on A A1a 2384710 on on on on on on on A

Mehr

Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme

Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume von Lars-Peter Meyer im Seminar Methoden wissensbasierter Systeme bei Prof. Brewka im WS 2007/08 Übersicht Überblick maschinelles Lernen

Mehr

Datenstruktur, die viele Operationen dynamischer Mengen unterstützt

Datenstruktur, die viele Operationen dynamischer Mengen unterstützt Algorithmen und Datenstrukturen 265 10 Binäre Suchbäume Suchbäume Datenstruktur, die viele Operationen dynamischer Mengen unterstützt Kann als Wörterbuch, aber auch zu mehr eingesetzt werden (Prioritätsschlange)

Mehr

DBS5 Kap. 4. Data Mining

DBS5 Kap. 4. Data Mining DBS5 Kap. 4 Data Mining Klassifikationen und Cluster-Bildung: Auffinden von Regeln zur Partitionierung von Daten in disjunkte Teilmengen (Anwendungsbeispiel: Risikoabschätzung) bzw. Herstellen von Gruppierungen

Mehr

Data Mining. Lehrgebiet Datenbanksysteme für neue Anwendungen. Seminarband zu Kurs 1912 im SS 2008. Vorträge der Präsenzphase am 4. und 5.

Data Mining. Lehrgebiet Datenbanksysteme für neue Anwendungen. Seminarband zu Kurs 1912 im SS 2008. Vorträge der Präsenzphase am 4. und 5. Lehrgebiet Datenbanksysteme für neue Anwendungen Seminarband zu Kurs 1912 im SS 2008 Data Mining Vorträge der Präsenzphase am 4. und 5. Juli 2008 Betreuer: Prof. Dr. Ralf Hartmut Güting Dipl.-Inform. Christian

Mehr

1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. Bäume / Graphen 5. Hashing 6. Algorithmische Geometrie

1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. Bäume / Graphen 5. Hashing 6. Algorithmische Geometrie Gliederung 1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. äume / Graphen. Hashing 6. Algorithmische Geometrie 4/6, Folie 1 2014 Prof. Steffen Lange - HDa/FbI

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

Datenstrukturen & Algorithmen

Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Dynamische Programmierung Einführung Ablaufkoordination von Montagebändern Längste gemeinsame Teilsequenz Optimale

Mehr

Reelle Zahlen, Gleichungen und Ungleichungen

Reelle Zahlen, Gleichungen und Ungleichungen 9 2. Vorlesung Reelle Zahlen, Gleichungen und Ungleichungen 4 Zahlenmengen und der Körper der reellen Zahlen 4.1 Zahlenmengen * Die Menge der natürlichen Zahlen N = {0,1,2,3,...}. * Die Menge der ganzen

Mehr

Algorithmen und Datenstrukturen 1

Algorithmen und Datenstrukturen 1 Algorithmen und Datenstrukturen 1 7. Vorlesung Peter F. Stadler Universität Leipzig Institut für Informatik studla@informatik.uni-leipzig.de aufbauend auf den Kursen der letzten Jahre von E. Rahm, G. Heyer,

Mehr

Lernziele: Ausgleichstechniken für binäre Bäume verstehen und einsetzen können.

Lernziele: Ausgleichstechniken für binäre Bäume verstehen und einsetzen können. 6. Bäume Lernziele 6. Bäume Lernziele: Definition und Eigenschaften binärer Bäume kennen, Traversierungsalgorithmen für binäre Bäume implementieren können, die Bedeutung von Suchbäumen für die effiziente

Mehr

6. Überblick zu Data Mining-Verfahren

6. Überblick zu Data Mining-Verfahren 6. Überblick zu Data Mining-Verfahren Einführung Clusteranalse k-means-algorithmus Klassifikation Klassifikationsprozess Konstruktion eines Entscheidungsbaums Assoziationsregeln / Warenkorbanalse Support

Mehr

6. Überblick zu Data Mining-Verfahren

6. Überblick zu Data Mining-Verfahren 6. Überblick zu Data Mining-Verfahren Einführung Clusteranalyse k-means-algorithmus Canopy Clustering Klassifikation Klassifikationsprozess Konstruktion eines Entscheidungsbaums Assoziationsregeln / Warenkorbanalyse

Mehr

14. Rot-Schwarz-Bäume

14. Rot-Schwarz-Bäume Bislang: Wörterbuchoperationen bei binären Suchbäume effizient durchführbar, falls Höhe des Baums klein. Rot-Schwarz-Bäume spezielle Suchbäume. Rot-Schwarz-Baum mit n Knoten hat Höhe höchstens 2 log(n+1).

Mehr

Studienarbeit. Maria Soldatova

Studienarbeit. Maria Soldatova Leibniz Universität Hannover Fakultät für Elektrotechnik und Informatik Fachgebiet Datenbanken und Informationssysteme im Studiengang Mathematik mit Studienrichtung Informatik Diskussion und Implementierung

Mehr

5. Lokale Suchverfahren. Beispiel TSP: k-change Nachbarschaft. Nachbarschaft. k-opt Algorithmus

5. Lokale Suchverfahren. Beispiel TSP: k-change Nachbarschaft. Nachbarschaft. k-opt Algorithmus 5. Lokale Suchverfahren Lokale Suche 5. Lokale Suchverfahren Beispiel TSP: k-change Nachbarschaft Optimale Lösungen können oft nicht effizient ermittelt werden. Heuristiken liefern zwar zulässige Lösungen,

Mehr

Assoziationsanalyse und Konzeptbeschreibung

Assoziationsanalyse und Konzeptbeschreibung Assoziationsanalyse und Konzeptbeschreibung Helge Saathoff 7. März 2003 ABSTRACT Wir leben im Informationszeitalter. Fortschritte in der Hard- und Softwaretechnologie haben es ermöglicht, daß heutzutage

Mehr

368 4 Algorithmen und Datenstrukturen

368 4 Algorithmen und Datenstrukturen Kap04.fm Seite 368 Dienstag, 7. September 2010 1:51 13 368 4 Algorithmen und Datenstrukturen Java-Klassen Die ist die Klasse Object, ein Pfeil von Klasse A nach Klasse B bedeutet Bextends A, d.h. B ist

Mehr

Alle bislang betrachteten Sortieralgorithmen hatten (worst-case) Laufzeit Ω(nlog(n)).

Alle bislang betrachteten Sortieralgorithmen hatten (worst-case) Laufzeit Ω(nlog(n)). 8. Untere Schranken für Sortieren Alle bislang betrachteten Sortieralgorithmen hatten (worst-case) Laufzeit Ω(nlog(n)). Werden nun gemeinsame Eigenschaften dieser Algorithmen untersuchen. Fassen gemeinsame

Mehr

Maschinelles Lernen. Kapitel 5

Maschinelles Lernen. Kapitel 5 Kapitel 5 Maschinelles Lernen Im täglichen Leben begegnet uns das Lernen meist in einer Mischung aus den Aspekten der Vergrößerung von Wissen und der Verbesserung von Fähigkeiten. Beim Erlernen einer Fremdsprache

Mehr

3.2 Binäre Suche. Usr/local/www/ifi/fk/menschen/schmid/folien/infovk.ppt 1

3.2 Binäre Suche. Usr/local/www/ifi/fk/menschen/schmid/folien/infovk.ppt 1 3.2 Binäre Suche Beispiel 6.5.1: Intervallschachtelung (oder binäre Suche) (Hier ist n die Anzahl der Elemente im Feld!) Ein Feld A: array (1..n) of Integer sei gegeben. Das Feld sei sortiert, d.h.: A(i)

Mehr

6. Flüsse und Zuordnungen

6. Flüsse und Zuordnungen 6. Flüsse und Zuordnungen In diesem Kapitel werden Bewertungen von Kanten als maximale Kapazitäten interpretiert, die über solch eine Kante pro Zeiteinheit transportiert werden können. Wir können uns einen

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Prof. Dr. phil. Dr. rer. nat. habil. M.Schenke Vorlesung Maschinelles Lernen Basierend auf der Vorlesung und dem Buch»Methoden wissensbasierter Systeme«von Christoph Beierle und Gabriele Kern-Isberner

Mehr

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Wichtige Tatsachen und Formeln zur Vorlesung Mathematische Grundlagen für das Physikstudium 3 Franz Embacher http://homepage.univie.ac.at/franz.embacher/

Mehr

Maschinelles Lernen Entscheidungsbäume

Maschinelles Lernen Entscheidungsbäume Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Paul Prasse Entscheidungsbäume Eine von vielen Anwendungen: Kreditrisiken Kredit - Sicherheiten

Mehr

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Fortgeschrittene Netzwerk- und Graph-Algorithmen Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester

Mehr

2. Repräsentationen von Graphen in Computern

2. Repräsentationen von Graphen in Computern 2. Repräsentationen von Graphen in Computern Kapitelinhalt 2. Repräsentationen von Graphen in Computern Matrizen- und Listendarstellung von Graphen Berechnung der Anzahl der verschiedenen Kantenzüge zwischen

Mehr

Bäume, Suchbäume und Hash-Tabellen

Bäume, Suchbäume und Hash-Tabellen Im folgenden Fokus auf Datenstrukturen, welche den assoziativen Zugriff (über einen bestimmten Wert als Suchkriterium) optimieren Bäume: Abbildung bzw. Vorberechnung von Entscheidungen während der Suche

Mehr

6-1 A. Schwill Grundlagen der Programmierung II SS 2005

6-1 A. Schwill Grundlagen der Programmierung II SS 2005 6-1 A. Schwill Grundlagen der Programmierung II SS 25 6. Suchen Suchen = Tätigkeit, in einem vorgegebenen Datenbestand alle Objekte zu ermitteln, die eine best. Bedingung, das Suchkriterium, erfüllen und

Mehr

Regelbasierte Empfehlungsdienste für Kunden im Offline-Handel Basierend auf Automatisch Geplanten Teilsortimenten

Regelbasierte Empfehlungsdienste für Kunden im Offline-Handel Basierend auf Automatisch Geplanten Teilsortimenten Universität des Saarlandes Naturwissenschaftlich-Technische Fakultät I Fachrichtung Informatik Regelbasierte Empfehlungsdienste für Kunden im Offline-Handel Basierend auf Automatisch Geplanten Teilsortimenten

Mehr

1. Einfach verkettete Liste unsortiert 2. Einfach verkettete Liste sortiert 3. Doppelt verkettete Liste sortiert

1. Einfach verkettete Liste unsortiert 2. Einfach verkettete Liste sortiert 3. Doppelt verkettete Liste sortiert Inhalt Einführung 1. Arrays 1. Array unsortiert 2. Array sortiert 3. Heap 2. Listen 1. Einfach verkettete Liste unsortiert 2. Einfach verkettete Liste sortiert 3. Doppelt verkettete Liste sortiert 3. Bäume

Mehr

Data Mining im Einzelhandel Methoden und Werkzeuge

Data Mining im Einzelhandel Methoden und Werkzeuge Fakultät Informatik Institut für Angewandte Informatik Professur Technische Informationssysteme Proseminar Technische Informationssysteme Data Mining im Einzelhandel Methoden und Werkzeuge Betreuer: Dipl.-Ing.

Mehr

Untersuchen Sie, inwiefern sich die folgenden Funktionen für die Verwendung als Hashfunktion eignen. Begründen Sie Ihre Antwort.

Untersuchen Sie, inwiefern sich die folgenden Funktionen für die Verwendung als Hashfunktion eignen. Begründen Sie Ihre Antwort. Prof. aa Dr. Ir. Joost-Pieter Katoen Christian Dehnert, Friedrich Gretz, Benjamin Kaminski, Thomas Ströder Tutoraufgabe 1 (Güte von Hashfunktionen): Untersuchen Sie, inwiefern sich die folgenden Funktionen

Mehr

Effiziente Algorithmen und Datenstrukturen I. Kapitel 9: Minimale Spannbäume

Effiziente Algorithmen und Datenstrukturen I. Kapitel 9: Minimale Spannbäume Effiziente Algorithmen und Datenstrukturen I Kapitel 9: Minimale Spannbäume Christian Scheideler WS 008 19.0.009 Kapitel 9 1 Minimaler Spannbaum Zentrale Frage: Welche Kanten muss ich nehmen, um mit minimalen

Mehr

Programmieren I. Kapitel 5. Kontrollfluss

Programmieren I. Kapitel 5. Kontrollfluss Programmieren I Kapitel 5. Kontrollfluss Kapitel 5: Kontrollfluss Ziel: Komplexere Berechnungen im Methodenrumpf Ausdrücke und Anweisungen Fallunterscheidungen (if, switch) Wiederholte Ausführung (for,

Mehr

Dynamisches Huffman-Verfahren

Dynamisches Huffman-Verfahren Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über

Mehr

Suchen und Sortieren Sortieren. Heaps

Suchen und Sortieren Sortieren. Heaps Suchen und Heaps (Folie 245, Seite 63 im Skript) 3 7 21 10 17 31 49 28 14 35 24 42 38 Definition Ein Heap ist ein Binärbaum, der die Heapeigenschaft hat (Kinder sind größer als der Vater), bis auf die

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

Geordnete Binärbäume

Geordnete Binärbäume Geordnete Binärbäume Prof. Dr. Martin Wirsing in Zusammenarbeit mit Gilbert Beyer und Christian Kroiß http://www.pst.ifi.lmu.de/lehre/wise-09-10/infoeinf/ WS 09/10 Einführung in die Informatik: Programmierung

Mehr

Resolutionsalgorithmus

Resolutionsalgorithmus 112 Resolutionskalkül Mit dem Begriff Kalkül bezeichnet man eine Menge von syntaktischen Umformungsregeln, mit denen man semantische Eigenschaften der Eingabeformel herleiten kann. Für den Resolutionskalkül:

Mehr

Wortproblem für kontextfreie Grammatiken

Wortproblem für kontextfreie Grammatiken Wortproblem für kontextfreie Grammatiken G kontextfreie Grammatik. w Σ w L(G)? Wortproblem ist primitiv rekursiv entscheidbar. (schlechte obere Schranke!) Kellerautomat der L(G) akzeptiert Ist dieser effizient?

Mehr

t r Lineare Codierung von Binärbbäumen (Wörter über dem Alphabet {, }) Beispiel code( ) = code(, t l, t r ) = code(t l ) code(t r )

t r Lineare Codierung von Binärbbäumen (Wörter über dem Alphabet {, }) Beispiel code( ) = code(, t l, t r ) = code(t l ) code(t r ) Definition B : Menge der binären Bäume, rekursiv definiert durch die Regeln: ist ein binärer Baum sind t l, t r binäre Bäume, so ist auch t =, t l, t r ein binärer Baum nur das, was durch die beiden vorigen

Mehr

2: Zahlentheorie / Restklassen 2.1: Modulare Arithmetik

2: Zahlentheorie / Restklassen 2.1: Modulare Arithmetik Stefan Lucks Diskrete Strukturen (WS 2009/10) 57 2: Zahlentheorie / Restklassen 2.1: Modulare Arithmetik Uhr: Stunden mod 24, Minuten mod 60, Sekunden mod 60,... Rechnerarithmetik: mod 2 w, w {8, 16, 32,

Mehr

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002)

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) 3. Entscheidungsbäume Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) (aus Wilhelm 2001) Beispiel: (aus Böhm 2003) Wann sind Entscheidungsbäume

Mehr

kontextfreie Grammatiken Theoretische Informatik kontextfreie Grammatiken kontextfreie Grammatiken Rainer Schrader 14. Juli 2009 Gliederung

kontextfreie Grammatiken Theoretische Informatik kontextfreie Grammatiken kontextfreie Grammatiken Rainer Schrader 14. Juli 2009 Gliederung Theoretische Informatik Rainer Schrader Zentrum für Angewandte Informatik Köln 14. Juli 2009 1 / 40 2 / 40 Beispiele: Aus den bisher gemachten Überlegungen ergibt sich: aus der Chomsky-Hierarchie bleiben

Mehr

Satz 18 (Satz von der totalen Wahrscheinlichkeit)

Satz 18 (Satz von der totalen Wahrscheinlichkeit) Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A 1,..., A n seien paarweise disjunkt und es gelte

Mehr

Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen

Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen 186.172 Algorithmen und Datenstrukturen 1 VL 4.0 Übungsblatt 4 für die Übung

Mehr

8 Baum in perfekter Komposition

8 Baum in perfekter Komposition 8 Baum in perfekter Komposition Die Implementierung des Binärbaums im letzten Kapitel wird mithilfe des Entwurfsmusters Kompositum optimiert. Knoten und Abschluss Bei der einfach verketteten Liste wurde

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil 5 Prof. Peter F. Stadler & Dr. Christian Höner zu Siederdissen Bioinformatik/IZBI Institut für Informatik & Interdisziplinäres Zentrum für Bioinformatik Universität

Mehr

Data Mining mit der SEMMA Methodik. Reinhard Strüby, SAS Institute Stephanie Freese, Herlitz PBS AG

Data Mining mit der SEMMA Methodik. Reinhard Strüby, SAS Institute Stephanie Freese, Herlitz PBS AG Data Mining mit der SEMMA Methodik Reinhard Strüby, SAS Institute Stephanie Freese, Herlitz PBS AG Data Mining Data Mining: Prozeß der Selektion, Exploration und Modellierung großer Datenmengen, um Information

Mehr

On-Line Analytical Processing

On-Line Analytical Processing OLAP und Data Mining ƒ OLAP Begriff Coddsche Regeln FASMI Operationen und Anfragesprachen ƒ Data Mining Begriff und Prozeß Verfahren Vorlesung Data-Warehouse-Technologien 9-1 On-Line Analytical Processing

Mehr

OLAP und Data Mining. On-Line Analytical Processing. Coddsche Regeln OLAP. Data Mining. Begriff Coddsche Regeln FASMI Operationen und Anfragesprachen

OLAP und Data Mining. On-Line Analytical Processing. Coddsche Regeln OLAP. Data Mining. Begriff Coddsche Regeln FASMI Operationen und Anfragesprachen OLAP und Data Mining OLAP Begriff Coddsche Regeln FASMI Operationen und Anfragesprachen Data Mining Begriff und Prozeß Verfahren Vorlesung Data-Warehouse-Technologien 9-1 On-Line Analytical Processing

Mehr

Vorsemesterkurs Informatik

Vorsemesterkurs Informatik Vorsemesterkurs Informatik Vorsemesterkurs Informatik Mario Holldack WS2015/16 30. September 2015 Vorsemesterkurs Informatik 1 Einleitung 2 Aussagenlogik 3 Mengen Vorsemesterkurs Informatik > Einleitung

Mehr

Projekt Maschinelles Lernen WS 06/07

Projekt Maschinelles Lernen WS 06/07 Projekt Maschinelles Lernen WS 06/07 1. Auswahl der Daten 2. Evaluierung 3. Noise und Pruning 4. Regel-Lernen 5. ROC-Kurven 6. Pre-Processing 7. Entdecken von Assoziationsregeln 8. Ensemble-Lernen 9. Wettbewerb

Mehr

Algorithmen mit konstantem Platzbedarf: Die Klasse REG

Algorithmen mit konstantem Platzbedarf: Die Klasse REG Algorithmen mit konstantem Platzbedarf: Die Klasse REG Sommerakademie Rot an der Rot AG 1 Wieviel Platz brauchen Algorithmen wirklich? Daniel Alm Institut für Numerische Simulation Universität Bonn August

Mehr

Bachelorarbeit. Jörn Slotta. Vergleich von Algorithmen zur Assoziationsanalyse basierend auf Webserver Logfiles

Bachelorarbeit. Jörn Slotta. Vergleich von Algorithmen zur Assoziationsanalyse basierend auf Webserver Logfiles Bachelorarbeit Jörn Slotta Vergleich von Algorithmen zur Assoziationsanalyse basierend auf Webserver Logfiles Fakultät Technik und Informatik Studiendepartment Informatik Faculty of Engineering and Computer

Mehr

Binäre Bäume. 1. Allgemeines. 2. Funktionsweise. 2.1 Eintragen

Binäre Bäume. 1. Allgemeines. 2. Funktionsweise. 2.1 Eintragen Binäre Bäume 1. Allgemeines Binäre Bäume werden grundsätzlich verwendet, um Zahlen der Größe nach, oder Wörter dem Alphabet nach zu sortieren. Dem einfacheren Verständnis zu Liebe werde ich mich hier besonders

Mehr

Datenstrukturen und Algorithmen

Datenstrukturen und Algorithmen Datenstrukturen und Algorithmen VO 708.031 Bäume robert.legenstein@igi.tugraz.at 1 Inhalt der Vorlesung 1. Motivation, Einführung, Grundlagen 2. Algorithmische Grundprinzipien 3. Sortierverfahren 4. Halden

Mehr

= 7 (In Binärdarstellung: = 0111; Unterlauf) = -8 (In Binärdarstellung: = 1000; Überlauf)

= 7 (In Binärdarstellung: = 0111; Unterlauf) = -8 (In Binärdarstellung: = 1000; Überlauf) Musterlösung Übung 2 Aufgabe 1: Große Zahlen Das Ergebnis ist nicht immer richtig. Die Maschine erzeugt bei Zahlen, die zu groß sind um sie darstellen zu können einen Über- bzw. einen Unterlauf. Beispiele

Mehr

B-Bäume, Hashtabellen, Cloning/Shadowing, Copy-on-Write

B-Bäume, Hashtabellen, Cloning/Shadowing, Copy-on-Write B-Bäume, Hashtabellen, Cloning/Shadowing, Copy-on-Write Thomas Maier Proseminar: Ein- / Ausgabe Stand der Wissenschaft Seite 1 von 13 Gliederung 1. Hashtabelle 3 2.B-Baum 3 2.1 Begriffserklärung 3 2.2

Mehr

Mathematik 1, Teil B

Mathematik 1, Teil B FH Oldenburg/Ostfriesland/Wilhelmshaven Fachb. Technik, Abt. Elektrotechnik u. Informatik Prof. Dr. J. Wiebe www.et-inf.fho-emden.de/~wiebe Mathematik 1, Teil B Inhalt: 1.) Grundbegriffe der Mengenlehre

Mehr

Algorithmen und Datenstrukturen Suchbaum

Algorithmen und Datenstrukturen Suchbaum Algorithmen und Datenstrukturen Suchbaum Matthias Teschner Graphische Datenverarbeitung Institut für Informatik Universität Freiburg SS 12 Motivation Datenstruktur zur Repräsentation dynamischer Mengen

Mehr

Klausur Informatik B April Teil I: Informatik 3

Klausur Informatik B April Teil I: Informatik 3 Informatik 3 Seite 1 von 8 Klausur Informatik B April 1998 Teil I: Informatik 3 Informatik 3 Seite 2 von 8 Aufgabe 1: Fragekatalog (gesamt 5 ) Beantworten Sie folgende Fragen kurz in ein oder zwei Sätzen.

Mehr

Programmiertechnik II

Programmiertechnik II Bäume Symboltabellen Suche nach Werten (items), die unter einem Schlüssel (key) gefunden werden können Bankkonten: Schlüssel ist Kontonummer Flugreservierung: Schlüssel ist Flugnummer, Reservierungsnummer,...

Mehr

Einführung in die Informatik I

Einführung in die Informatik I Einführung in die Informatik I Algorithmen und deren Programmierung Prof. Dr. Nikolaus Wulff Definition Algorithmus Ein Algorithmus ist eine präzise formulierte Handlungsanweisung zur Lösung einer gleichartigen

Mehr

Randomisierte Algorithmen 2. Erste Beispiele

Randomisierte Algorithmen 2. Erste Beispiele Randomisierte Algorithmen Randomisierte Algorithmen 2. Erste Beispiele Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2016/2017 1 / 35 Randomisierter Identitätstest

Mehr

Binäre Bäume Darstellung und Traversierung

Binäre Bäume Darstellung und Traversierung Binäre Bäume Darstellung und Traversierung Name Frank Bollwig Matrikel-Nr. 2770085 E-Mail fb641378@inf.tu-dresden.de Datum 15. November 2001 0. Vorbemerkungen... 3 1. Terminologie binärer Bäume... 4 2.

Mehr

3.5 Ringe und Körper. Diese Eigenschaften kann man nun auch. 1. (R, +) ist eine kommutative Gruppe. 2. Es gilt das Assoziativgesetz bezüglich.

3.5 Ringe und Körper. Diese Eigenschaften kann man nun auch. 1. (R, +) ist eine kommutative Gruppe. 2. Es gilt das Assoziativgesetz bezüglich. 3.5 Ringe und Körper Gehen wir noch mal zu den ganzen Zahlen zurück. Wir wissen: (Z, + ist eine Gruppe, es gibt aber als Verknüpfung noch die Multiplikation, es gibt ein neutrales Element bezüglich, es

Mehr