Data Mining im Marketing SS 2000

Größe: px
Ab Seite anzeigen:

Download "Data Mining im Marketing SS 2000"

Transkript

1 KATHOLISCHE UNIVERSITÄT EICHSTÄTT WIRTSCHAFTSWISSENSCHAFTLICHE FAKULTÄT INGOLSTADT LEHRSTUHL FÜR ABWL UND WIRTSCHAFTSINFORMATIK PROF. DR. KLAUS D. WILDE Data Mining im Marketing SS 000 Theorie zu: Entscheidungsbäumen Author: Diplom-Kaufmann Harald Derbsch

2 Inhaltsverzeichnis Inhaltsverzeichnis Abbildungsverzeichnis S. I S. II 1) Einordnung in den Data Mining Kontext S. 1 ) Entscheidungsbaumverfahren, eine Einführung S. 4 3) Die Induktion von Entscheidungsbäumen S Der Prozess der Baumkonstruktion S Einige Methoden zur Konstruktion von Entscheidungsbäumen S AID S CHAID S CART S Kombination der Verfahren hybride Entscheidungsbäume S Attributauswahlmaße S Informationsgewinn S Gini-Index S Relevanz S χ -Maß S g-funktion S Minimale Beschreibungslänge S Spezifitätsgewinn S Attributauswahlmaße eine Zusammenfassung- S Prunning von Entscheidungbäumen S Der Stutzungsschritt (Pruning) S Top-down (pre-prunning) S Bottum-up (post-prunning) S.3 4) Spezifische Merkmale des SAS Enterprise Miner: S.5 Literaturverzeichnis S.7 Anlage I Methodenapproximation im SAS Enterprise Miner (Hilfe-Auszug) Anhang/separate Kopie: weitere Literaturhinweise (Kopie) Seite I

3 Abbildungsverzeichnis: Abb.: 1 binärer Entscheidungsbaum S. 1 Abb.: Einordnung von Entscheidungsbäumen in den Kontext Von Lernverfahren S. 3 Abb.: 3 Ast eines (binären) Entscheidungsbaumes S. 5 Abb.: 4 Ast eines Klassifikationsbaumes (mit Multisplit) S. 6 Seite II

4 Einordnung in den Data Mining Kontext: 1 Abb. 1: binärer Entscheidungsbaum Entscheidungsbäume sind eine sehr bekannte Form von Klassifikatoren. Klassifikatoren wiederum sind Programme, die einen Fall oder ein Objekt automatisch klassifizieren, d.h. ihn bzw. es anhand seiner Merkmale einer von mehreren... Klassen zuordnen. 3 Entscheidungsbaumverfahren als Klassifikationsverfahren sind dem Überwachten Lernen zuzuordnen. Ausgangspunkt einer Untergliederung ist hier das sog. Maschinelle Lernen, das sich wiederum unterteilt in Deduktives 4 Lernen und Induktives 5 Lernen. Maschinelles Lernen Deduktives Lernen Induktives Lernen 1 in Anlehnung an Krahl et al, 1998, S. 61 ff. Quelle: eigene Darstellung, Screenshot aus dem SAS Enterprise Miner. 3 Borgelt und Kruse, 1998, in Data Mining, Nakhaeizadeh (Hrsg), 1998, S Deduktiv = die Analyse von bereits in Wissensbasen vorhandenem Wissen mit dem Ziel, Prozesse zu automatisieren oder effizienter zu gestalten. Basis sind hier also grössere Wissensbasen und lediglich kleinere Datenbestände. Typische Anwendungsgebiete sind hier technische Regelungsprozesse unter Verwendung von bekannten expliziten Regeln oder Expertenwissen; vgl. Krahl et al, 1998, S Induktiv = die Ableitung von Informationen aus Daten, gewissermaßen ein Bottom-up-Vorgehen, also die Suche nach neuen, vorher noch nicht bekannten Zusammenhängen in den Daten. Basis sind hier viele Daten bei nur geringem Wissen über diese. Typische Anwendungsgebiete im ökonomisch-kommerziellen Bereich sind Fragestellungen wie etwa die Optimierung von Marketingaktionen.

5 - - In dieser Arbeit verfolgte Data Mining Ansätze sind alle dem Bereich des induktiven Lernens zuzuordnen. Dieses wiederum lässt sich unterteilen in Überwachtes Lernen und Unüberwachtes Lernen. Überwachtes Lernen lässt sich dabei auch mit dem terminus Klassifikation belegen, wohingegen dem "Unüberwachten Lernen" die Termini Assoziation und Segmentierung zuzuordnen sind. Induktives Lernen Überwachtes Lernen 6 (Klassifikation) Unüberwachtes Lernen 7 (Assoziationen, Segmentierungen) Auch hier gibt es dann weitere Einteilungsmöglichkeiten. Das Überwachte Lernen kann wie folgt unterteilt werden: Überwachtes Lernen Künstliche Neuronale Netze Entscheidungsbäume Regelinduktion k-nächste Nachbarn Diskriminanzanalyse Die Einteilung des Unüberwachten Lernens kann gemäß folgendem Schema erfolgen: Unüberwachtes Lernen Assoziationsanalysen Künstliche neuronale Netze Demographisches Clustern k-means-clustering hierarchisches Clustern. Daneben stehen auch noch weitere Verfahren, die dem Data Mining- Kontext zugeordnet werden können, wie statistische Verfahren, lineare Methoden, die Fuzzy-Logik sowie Genetische Algorithmen 8. Das vorliegende Papier erhebt keinerlei Anspruch auf (methodische) Vollständigkeit. Es soll den Studenten einen ersten Einblick in die Thematik der Anwendung von Entscheidungsbaum-Verfahren im Kontext des Data Mining geben und dies theoretisch untermauern. 6 Überwachtes Lernen bedeutet, dass für die Lernvorgänge der eingesetzten Verfahren eine Basis von bereits bekannten Fällen vorhanden sein muss, also bereits bekanntermassen klassifizierte Objekte vorhanden sind, anhand derer das Modell bzw. die Modellergebnisse mit der Realität verglichen werden kann. 7 Beim Unüberwachten Lernen sollen interessante Strukturen in Datenbeständen gefunden werden, die a priori nicht bekannt sind. Insofern geht es hier auch nicht um die Klassifizierung von Daten (bspw. im Sinne einer Kreditwürdigkeitsprüfung mittels einer Diskriminanzanalyse), also die Einordnung von Beobachtungen in bereits vorgegebene oder bekannte Einteilungen, sondern um Segmentierungen (im Sinne von Clustering). 8 Genetische Algorithmen sind aber in diesem Zusammenhang als vielseitige Optimierungswerkzeuge zu betrachten. Sie stellen somit kein eigenständiges Analyseverfahren dar, sondern werden innerhalb der genannten Data Mining Methoden zur Optimierung herangezogen, vgl. Krahl et al, 1998, S. 93.

6 - 3 - Diese Unterteilungen sind in der folgenden Abbildung nochmals zusammenfassend ersichtlich. Maschinelles Lernen Deduktives Lernen Induktives Lernen Überwachtes Lernen (Klassifikation) Unüberwachtes Lernen (Assoziationen, Segentierungen) weitere Verfahren künstliche neuronale Netze Entscheidungsbäume Regelinduktion k-nächste Nachbarn Diskriminanzanalyse künstliche neuronale Netze Assoziationsanalyse Demographisches Clustern k-means Clustering hierarchisches Clustern statistische Verfahren lineare Methoden Fuzzy Logik genetische Algorithme n Abb.: Einordnung von Entscheidungsbäumen in den Kontext von Lernverfahren 9 Nun zur grundlegenden Idee von Entscheidungsbaumverfahren. 9 Quelle: eigene Darstellung.

7 Entscheidungsbaumverfahren, eine Einführung: Regressions- und Entscheidungsbäume eignen sich als Verfahren zur Klassifikation für Datenmengen, die sich als Vereinigung einer Menge unabhängiger Variablen (x) und einer einzelnen abhängigen Variablen (y) charakterisieren lassen. Es sind statistische Verfahren, die für überwachte Vorhersageprobleme (supervised prediction) geeignet sind. Ein Set an Input-Variablen wird also verwendet, um den Wert einer Zielvariablen vorherzusagen. Unter den terminus technicus supervised prediction fallen auch Methoden wie Zeichenerkennung, multiple Regressionen, Diskriminanzanalysen, multivariate Funktionsschätzer und das überwachte machine-learning. Entscheidungsbäume heißen so, weil das Vorhersagemodell in Form einer baumähnlichen Struktur dargestellt werden kann. Jeder Knoten (Ort einer Verzweigung, auch als Ast/Verzweigung zu betrachten) kann dabei als Split basierend auf der wertemässigen Unterscheidung von Inputvariablen betrachtet werden. Denn Entscheidungsbäume werden in der Regel nach dem Top-Down-Prinzip generiert. In jedem Schritt wird dasjenige Attribut gesucht, welches allein die Klassifikation auf den betrachteten Daten am besten erklärt 10. Das Prinzip dieses Top-Down-Prinzips kann dabei als teile und herrsche (divide and conquer bezeichnet werden, wobei die Attribute gierig (greedy) nach dem Wert ausgewählt werden, der ihnen von einem Attributauswahlmaß zugeschrieben wird. 11 Die Klassifikation wird dabei auf jeder Ebene und in jedem Ast des Entscheidungsbaumes wieder spezifisch auf den aktuellen Datenbestand in einem Knoten bezogen, getroffen. Anders ausgedrückt wird in jedem Knoten eines Entscheidungsbaumes.. ein Attribut abgefragt und eine Entscheidung getroffen, solange bis man ein Blatt erreicht. 1 Unter Blatt versteht man dabei die unterste Ebene eines Entscheidungsbaumes, also die Ebene nach der keine weitere Verzweigung mehr erfolgt. Auf dieser Blattebene erfolgt dann die Klassifizierung der dann möglichst homogenen Gruppen von Variablenausprägungen je Blatt/Objekt. Entscheidungsbäume werden in diesem Zusammenhang auch Klassifikationsbäume genannt Krahl et al, 1998, S vgl. Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg), S Krahl et al, 1998, S Krahl et al, 1998, S. 69.

8 - 5 - Abb.: 3 Ast eines (binären) Entscheidungsbaumes 14 Die Klassifikation eines Falles mit einem Entscheidungsbaum wird so vorgenommen, daß man an der Wurzel startet und die Anweisungen in den jeweils erreichten inneren Knoten ausführt, bis der Fall durch einen Blattknoten klassifiziert wird. 15 Es gibt die Möglichkeit das ein Split mit nur zwei Verzweigungen konstruiert wird, man spricht dann auch von binären Bäumen, oder das ein Split mit mehreren Verzweigungen konstruiert wird, man spricht dann von Klassifikationsbäumen oder auch Mehrfachsplits. 14 Quelle: eigene Darstellung, Screenshot aus dem SAS Enterprise Miner. 15 Borgelt und Kruse, 1998, in Data Mining, 1998, Nakheizadeh, S. 77.

9 - 6 - Abb.: 4 Ast eines Klassifikationsbaumes (mit Multisplit) 16 Die Ausprägung der Zielgröße y eines Entscheidungsbaumes kann dabei sowohl metrisch (bspw. exakte Größe eines Menschen) skaliert sein, als auch nominal (bspw. Geschlecht) bzw. ordinal (bspw. Sportergebnisse, Ranglisten) skaliert. Im Falle von Zielgrößen, die kontinuierliche Werte haben, also metrisch skaliert sind, spricht man auch von Regressionsbäumen. Regressionsbäume sind also so gesehen begrifflich eine Unterart von Entscheidungsbäumen im allgemeinen. Ein Klassifikationsbaum kann aber auch allgemein als ein diskriminanzanalytisches 17 Verfahren mit Erklärungskomponenten interpretiert werden. Dementsprechend werden Klassifikationsbäume im Kontext des Data Mining vor allem zur automatischen Generierung von Regeln verwendet. Eng verwandt dazu sind sind Verfahren des maschinellen Lernens, in deren Kontext ja Entscheidungsbaumverfahren bereits eingeordnet wurden Quelle: eigene Darstellung, Screenshot aus dem SAS Enterprise Miner. 17 Ein Beispiel eines diskriminanzanalytischen Anwendungsverfahrens ist das Scoren von Kreditantragsstellern. Das bedeutet, bei Diskriminanzverfahren ist die Ausprägung der Zielgröße, bspw. kreditwürdig oder nicht kreditwürdig, im vorhinein bekannt. Nun werden diejenigen Variablen (Merkmalskombinationen) gesucht, die a priori eine möglichst gute Klassifizierung des künftigen Kreditkunden ermöglichen. Die Bank will möglichst keine Kreditausfälle zu beklagen haben. 18 vgl. die Einordnung hierzu unter Kapitel 1. Einordnung in den Data Mining-Kontext.

10 Die Blätter eines Entscheidungsbaumes repräsentieren dabei den Vorhersagewert der Zielgrösse. Alle Beobachtungen (cases) eines Zweiges (Knotens) haben denselben Vorhersagewert. Die Zielgrösse hat also innerhalb jeder Partitionierung divergierende Ergebniswerte der Zielgrösse. Das passende mathematische (Regressions)Modell ist daher das der multivariaten Treppenfunktion. Die Zweige des Baumes unterteilen dabei den multidimensionalen (bei mehr als zwei Einflugrössen, also x-variablen) Raum der Inputvariablen in einzelne sog. rektalineare (unterteilte) Regionen. Dementsprechend sind Entscheidungsbäume eine Sammlung von multivariaten Treppenfunktionen. Jede Funktion korrespondiert mit der posteriori- Wahrscheinlichkeit der Zielgrösse(klasse)

11 Die Induktion von Entscheidungsbäumen Wie bereits in der Einführung erwähnt, ist das Prinzip der Induktion (des Bildens) von Entscheidungsbäumen ein teile und herrsche (divide and conquer)-verfahren mit gieriger (greedy) Auswahl der vorhandenen zu testenden Attribute. Das bedeutet, dass in einer gegebenen Menge von klassifizierten Fallbeschreibungen.. die bedingten Häufigkeitsverteilungen der Klassen unter den einzelnen zur Beschreibung verwendeten Attributen bestimmt und mit Hilfe eines Auswahlmaßes bewertet [werden]. Dasjenige Attribut, das die beste Bewertung erhält, wird als Testattribut ausgewählt. Dies ist der gierige Teil des Algorithmus. Anschließend werden die Fallbeschreibungen gemäß der verschiedenen Werte des Testattributes aufgeteilt, und das Verfahren wird rekursiv auf die sich ergebenden Teilmengen angewandt. Die ist der teile und herrsche Teil des Algorithmus. 19 Ein Beispiel mit detaillierter Erläuterung eines (allgemeinen) Induktionsalgorithmus in Pseudocodeform ist zu finden bei Borgelt und Kruse. 0 Werden ganzzahlige und reellwertige Attribute für Unterteilungen verwendet, so sind dabei einige Besonderheiten zu beachten. Diese können für Trennzwecke wie folgt verwendet werden: Indem man die auftretenden Werte sortiert und für jedes Paar einen zwischen ihnen liegenden Trennwert wählt (z.b. das arithmetische Mittel der beiden Werte). Mit diesem Trennwert wird dann das (künstliche) symbolische Attribut mit den Werten größer als Trennwert und kleinergleich Trennwert gebildet. Es wird derjenige Trennwert gewählt, dessen zugehöriges (künstliches) symbolisches Attribut von dem verwendeten Auswahlmaß am besten bewertet wird. Während des rekursiven Abstiegs werden getestete symbolische Attribute markiert, da ein erneuter Test dieses Attributes offenbar sinnlos ist, denn die Unterteilung der Fallbeschreibungen bewirkt ja, daß in der nächsten Rekursionsstufe alle Fälle den gleichen Wert für dieses Attribut haben. Ganzzahlige und reellwertige Attribute werden dagegen nicht markiert, da in der nächsten Rekursionsstufe ein anderer Trennwert gewählt und so der Wertebereich weiter unterteilt werden kann. 1 Die Rekursion wird unter folgenden Voraussetzungen beendet: - alle Fälle einer Teilmenge gehören zu der gleichen Klasse - kein Attribut führt mehr zu einer Verbesserung der Klassifikation - für den Test stehen keine weiteren Attribute zur Verfügung. Bei Klassifikationsbäumen wird also die zugrundeliegende Stichprobe auf der Grundlage der Klassenzugehörigkeit iterativ/sequentiell in immer kleiner werdende Teilsegmente zerlegt, bis auf der untersten Ebene 19 Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg), S vgl. Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg), S Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg), S. 8 f. vgl. Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg), S. 78.

12 - 9 - (möglichst) homogene Gruppen (Blätter) entstehen. Im Prinzip ist es möglich, die Partitionierung (Bildung von weiteren Verzweigungen) der Knoten fortzusetzen, bis alle Blätter nur noch Objekte einer Klasse enthalten. Dies würde aber eine Überanpassung des Modells (Overfitting) an die Stichprobendaten generieren. Ein solches Modell würde sehr wahrscheinlich im Allgemeinfall neue Daten überdurchschnittlich fehlklassifizieren. Es gibt zwei Möglichkeiten diese Überanpassung zu vermeiden: den Stutzungsschritt (Pruning) und das Stoppen der Partitionierung. 3 Die im folgenden Unterpunkten verwendete Notation entspricht der im Aufsatz von Borgelt und Kruse verwendeten: 4 S eine Menge von Fall- bzw. Objektbeschreibungen C das Klassenattribut A (1),... A (m) andere Attribute (Index im folgenden weggelassen) dom (C) ={c 1,..., c nc }, n c : Anzahl Klassen dom (A) ={a 1,...,a na }, n A : Anzahl Attributwerte N.. Gesamtzahl Fall- bzw. Objektbeschreibungen, d.h. N.. = S N i. absolute Häufigkeit der Klasse c i N.j absolute Häufigkeit des Attributwertes a j absolute Häufigkeit der Kombination der Klasse c i und des N ij Attributwertes a j. Es ist N i. = n A n C N undn = ij. j j= 1 i= 1 N i. p i. relative Häufigkeit der Klasse c i, p i. = N p.j relative Häufigkeit des Attributwertes a j, p.j = N.. p ij relative Häufigkeit der Kombination der Klasse c i und des Attributwertes a j,p ij = N ij N.. p i j relative Häufigkeit der Klasse c i in den Fällen mit dem Attributwert N ij pij a j, p i j = = N. j p. j p j i relative Häufigkeit des Attributwertes a j in den Fällen mit der Klasse N ij pij c i, p j i = = N i. pi. Damit nun zur Konstruktion von Entscheidungsbäumen... N ij N. j 3 siehe dazu die Ausführungen im Kapitel 3.4 ff. dieser Arbeit. 4 vgl. Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh, S. 81.

13 Der Prozess der Baumkonstruktion: Hierbei muss auf jeder Konstruktionsebene entschieden werden, ob ein bestimmter Knoten partitioniert werden soll (ob eine neue Unterscheidung gemacht werden soll, also eine neue Verzweigung konstruiert werden soll), und falls ja, über welche der unabhängigen Variablen x, die die Zielgröße y erklären soll. 3. Einige Methoden zur Konstruktion von Entscheidungsbäumen: Drei der am häufigsten genannten Methoden für Entscheidungsbäume sind: AID = automatic interaction detection CHAID = chi-squared automatic interaction detection CART = classification and regression trees. Bei diesen Verfahren wird auch von Baumtypen 5 gesprochen. Es gibt darüber hinaus noch weitere Methoden, Entscheidungsbäume zu generieren. Beispielhaft seien hier noch der C4.5 und der C5.0- Algorithmus genannt AID Ist neben binären Bäumen auch geeignet für die Konstruktion von Klassifikationsbäumen. Schritte: 1. Alle durchführbaren Partitionierungen der Gruppe von Beobachtungen (x-variablen) werden betrachtet, ausgewählt wird jene Partitionierung, welche die Summe der Quadratischen Abweichungen (SQR) am weitesten reduziert.. Verglichen wird dann mit einem vom Anwender vorgegebenen Wert. Wird der Wert nach unten unterschritten, wird die Partitionierung gestoppt, ansonsten iterativ fortgeführt. 3. Wähle diejenige Untergruppe zur weiteren Partitionierung aus, die die SQR am weitesten reduziert. 3.. CHAID Beim CHAID-Verfahren wird zur Attributauswahl der CHI-Quadrat- Unabhängigkeitstest verwendet. 7 Die hier berechnete Kennzahl ist der sog. CHI-Quadrat-Abstand, der umso grösser ist, je grösser die 5 vgl. Krahl et al, 1998, S Im SAS Enterprise Miner sind in diesem Sinne keine Methoden fertig hinterlegt, sondern verschiedene Attributauswahlmaße hinterlegt (CHI, Entropie und Gini). Allerdings können damit alle gängigen Methoden approximiert werden. In der Anlage 1 ist beschrieben, wie (über welche Einstellungen) dies möglich ist. 7 Krahl et al, 1998, S. 71.

14 Abhängigkeit der betrachteten Variablen von der Zielvariablen ist. Ein wichtiges Merkmal hier ist, dass an den inneren Knoten (also nicht die Blattebene) auch mehr als zwei Verzweigungen vorgenommen werden können, also nicht nur binäre Bäume generiert werden können, wenn die Trennqualität hierdurch erhöht werden kann. 8 Die generierten Bäume können dadurch also kompakter sein. Aber bei Mehrfachsplitts ist zu beachten, dass bei Klassifizierungsvariablen mit unterschiedlichen Ausprägungen, wie bspw. bei numerischen Variablen, bei grossen Datenmengen automatisch unterschiedliche Klassifizierungen vorgenommen werden und sich dadurch ein schlechteres Laufzeitverhalten ergeben kann. 9 Das CHAID-Verfahren ist ebenfalls neben Binärbäumen auch geeignet für die Konstruktion von Klassifikationsbäumen. Schritte: 1. Erstelle für jede unabhängige Variable (x) eine Kontingenztabelle 30, mit den Kategorien der unabhängigen (x) Variablen als Zeilen und den Kategorien der abhängigen (y) Variablen(n) als Spalten.. Suche die Untertabelle (aus der Kontingenztabelle) zweier unabhängiger Variablen, die am wenigsten signifikant verschieden sind. Falls die Signifikanz dieser Teil-Tabelle einen [durch einen Chi-Quadrat- Test: χ r s o e ( hij hij ) = ) mit i= Kategorien der unabhängigen Variablen e i= 1 j= 1 hij o und j= Kategorien der abhängigen Variablen, h ij = beobachtete absolute e Häufigkeit und h ij =erwartete absolute Häufigkeit] bestimmten kritischen Wert nicht überschreitet (also im o.g. Sinne je unabhängiger die Variable von der Zielgrösse ist), fasse das Kategorienpaar zu einer Kategorie zusammen und wiederhole (rekursiv) den zweiten Schritt. Die Prüfgröße folgt dabei näherungsweise einer Chi-Quadrat-Verteilung mit v=(r-1)(s-1) Freiheitsgraden. 3. Suche für jede der zusammengefassten Kategorien, die aus drei oder mehr ursprünglichen Kategorien bestehen, die signifikanteste binäre Partitionierung, durch die die Zusammenfassung (der ähnlichsten Kategorien) wieder aufgelöst werden kann. Falls eine kritische Schwelle überschritten wird (also je unabhängiger die Variable von der Zielgrösse ist), implementiere die Partitionierung und kehre zurück zu Schritt ). 4. Berechne nun die Signifikanz aller optimal zusammengefassten unabhängigen Variablen und isoliere die signifikanteste. Ist letztere 8 vgl. Krahl et al, 1998, S vgl. Krahl et al, 1998, S. 7; Dies kann man umgehen, indem man die Variablen mit den numerischen Ausprägungen quantilisiert, also in Variablen mit kategoriellen Ausprägungen überführt (also wertemässig gruppiert). 30 Können für nominal oder höhersaklierte Merkmale angewandt werden. Kontingenztabellen sind, einfach ausgedrückt, eine Zusammenfassung/Übersicht der jeweils aufgetretenen Häufigkeiten der Werte aus der Stichprobe.

15 - 1 - grösser als ein Schwellenwert, dann partitioniere die Daten an Hand der (zusammen gefassten) Kategorien der so gewählten unabhängigen Variablen. 5. Für jede noch nicht analysierte Partitionierung der Daten gehe zurück zu Schritt 1) CART Die Attributauswahl wird hier durch Maximierung des Informationsgehaltes gesteuert, wobei der Informationsgehalt eines Attributes hoch ist, wenn sich aus der Attributausprägung - im Zusammenhang mit einem zu definierenden Schwellenwert des Informationsgehaltes - mit hoher Trefferquote eine Klassifikation (also (weitere) Unterteilung im Baum) vorgenommen werden kann. 31 Der hier verwendete Informationsbegriff basiert auf dem mathematischen Ausdruck der Entropie. Aus der verallgemeinerten Entropie [Daróczy 1970] kann die Shannon sche Entropie als ein Spezialfall abgeleitet werden: verallgemeinerte Entropie: n ß 1 H gen ( ß) = pi (1 p ß 1 1 i= 1 ß 1) i Für H = lim n H gen ( ß) = pi log p 3 i > 1. ß i= 1 Diese ist umso kleiner, je höher der Informationsgehalt ist und je höher der Informationsgehalt eines Attributes in bezug auf die Zielgröße, desto weiter oben im Entscheidungsbaum findet sich dieses Attribut. 33 Da der Entropiewert mit einem vom Anwender vorzugebenden Schwellenwert verglichen wird, folgt daraus, dass der Wert eben nur kleiner oder grösser als der Schwellenwert sein kann, was dazu führt, dass mit dem CART-Algorithmus berechnete Entscheidungsbäume nur binäre Bäume sein können. ) 3..4 Kombination der Verfahren hybride Entscheidungsbäume: Es gibt auch die Möglichkeit, die o.g. Verfahren zu kombinieren. Das bedeutet, Entscheidungbäume werden mit allen drei genannten Verfahren zu einer spezifischen Problemstellung generiert. Aus dem Vergleich der verschieden Bäume und damit der von den unterschiedlichen Verfahren generierten Regeln lassen sich gut die wichtigsten 31 vgl. Krahl et al, 1998, S Shannon sche Entropie; vgl. Borgelt, Kruse, 1998, in Data Mining, Nakhaeizadeh (Hrsg), 1998, S. 83; H ist hier die auf der Basis von Shannon (1948) definierte Entropie H einer Wahrscheinlichkeitsverteilung. 33 Krahl et al, 1998, S. 71.

16 generierten Regeln extrahieren. Die Regeln, die von allen Verfahren generiert wurden, sind dann als die wichtigsten zu betrachten. Ein solches Vorgehen wird dann als hybrides Entscheidungsbaumverfahren bezeichnet. 34 Zu beachten ist aber hierbei auch noch, wie zuvor aufgezeigt, dass nicht mit jedem Verfahren Klassifikationsbäume konstruiert werden können. 3.3 Attributauswahlmaße Der Erfolg des Entscheidungsbaumlernens [hängt] stark von dem verwendeten Attributauswahlmaß ab. 35 Im folgenden nun ein kurzer Überblick über einige wichtige Auswahlmaße und deren zugrundeliegenden Ideen: Informationsgewinn Der Informationsgewinn ist das wohl bekannteste Auswahlmaß... Er mißt, wieviel Information man durch das Feststellen des Wertes des Testattributes über die Klasse gewinnt. 36 Dieser Informationsbegriff basiert dabei auf dem zuvor schon genannten Shannon`schen Entropiebegriff. Der Informationsgewinn ist nichts anderes als die Entropieverminderung beim Übergang zur bedingten Verteilung und definiert als I gain (C,A) = H C H C A = H C + H A H CA 37 n C n A n C n A = - pi log pi. p. j log p. j +. pij log i= 1 j= 1 i= 1 j= 1 p ij 38 Die zugrundeliegende Idee kann man sich am besten klar machen, indem man die Entropie einer Wahrscheinlichkeitsverteilung über einer Menge von Werten interpretiert als die durchschnittliche Anzahl von Ja/Nein-Fragen, die nötig sind, um einen Wert aus dieser Menge zu bestimmen. 39 Der Informationsgewinn meint also die zu erwartende Verringerung der Anzahl der Ja/Nein-Fragen, die noch zur Identifikation der wahren Klasse notwendig sind. 40 Bezüglich der methodischen Vorgehensweise für die Frage/Kodierungsschemata gibt es hier u.a. zwei erwähnenswerte unterschiedliche Kodierungsformen neben der Standardform: 34 siehe hierzu auch die Anmerkungen im Anhang I der Arbeit. 35 Borgelt, Kruse, 1998, in: Data Mining Nakhaeizadeh (Hrsg) (1998), S Borgelt und Kruse, 1998, in Data Mining, Nakhaeizadeh (Hrsg) (1998), S Borgelt und Kruse, 1998, in Data Mining, Nakhaeizadeh (Hrsg), 1998, S. 85: die bedingte Entropie H C A entspricht hier der zu erwartenden durchschnittlichen Anzahl von Fragen, die nach Bekanntwerden des Wertes des Attributes A noch nötig sind, um die Klasse zu bestimmen. Idem man diese von der Zahl der Fragen H C abzieht, die ohne Kenntnis des Wertes des Attributes A notwendig sind, erhält man die Ersparnis in der Anzahl der Fragen: den Informationsgewinn. 38 Borgelt und Kruse, 1998, in Data Mining, Nakhaeizadeh (Hrsg) (1998), S Borgelt und Kruse, 1998, in Data Mining, Nakhaeizadeh (Hrsg) (1998), S vgl. Borgelt und Kruse, 1998, in Data Mining, Nakhaeizadeh, 1998 (Hrsg.), S. 88.

17 In der Standardform wird der zu unterteilende Wertebereich in annähernd gleich grosse Teilmengen unterteilt und dann nach der Zugehörigkeit zu einer der beiden Teilmengen gefragt. Dies führt dazu, daß eine der beiden Teilmengen ausgeschlossen werden kann, während die andere wiederum die Basis für eine mögliche weitere Unterteilung bildet. Dies bedeutet aber auch, das die Untergruppenbildung je nach den vorhandenen Werteausprägungen der Variablen mathematisch noch optimiert werden kann. Shannon-Fano-Kodierung (1948) Hier werden die Teilmengen der Werte entgegen der Hartley Information zunächst in gleich wahrscheinliche Teilmengen unterteilt. Für häufige Werte ( wahrscheinlicher ) wird somit die notwendige Anzahl an Fragen verringert und für seltene Werte ( unwahrscheinlicher ) erhöht. Die Anzahl der benötigten Fragen sinkt somit im Durchschnitt. Doch ein optimales Verfahren ist dies ebenfalls noch nicht. Huffman Kodierung (195) Hier ist das Vorgehen ein anderes. Anstatt die Wertemengen immer weiter zu unterteilen, wird zunächst mit einelementigen Mengen begonnen und stets die beiden Mengen zusammengefasst, die die geringste Wahrscheinlichkeit besitzen. Dieses Vorgehen kann mathematisch als optimales Verfahren nachgewiesen werden. Als Untergrenze für die Zahl der notwendigen Fragen tritt hier die Entropie auf, das Huffmann-Verfahren liefert also stets das optimale Frageschema. 41 Der Informationsgewinn neigt jedoch zu einer Bevorzugung von Attributen mit vielen Werten. Zum Ausgleich hierfür wurden Normalisierungen des Informationsgewinns vorgeschlagen, wie etwa das Informationsgewinnverhältnis, das nicht symmetrisch ist sowie das symmetrische Informationsgewinnverhältnis sowie weitere vorgeschlagene Maße. Hierzu sei an dieser Stelle aber nur noch auf weiterführende Literatur verwiesen Gini-Index Wie bereits im vorherigen Punkt zum Begriff des Informationsgewinnes beschrieben, ist auch der Gini-Index ableitbar aus der verallgemeinerten Entropie. Der Gini-Index entspricht der sog. quadratischen Entropie: H = H gen ( ß = ) = n i= 1 p (1 p ) = (1 i i n i= 1 p i ) 41 vgl. Borgelt und Kruse, 1998, in Data Mining, Nakhaeizadeh, 1998, (Hrsg.), S. 83, siehe auch Abbildung 3. 4 vgl. Borgelt und Kruse, 1998, in Data Mining, Nakhaeizadeh, 1998, (Hrsg), S. 85 f., als Einstieg hierzu.

18 Indem man diese quadratische Entropie, wie zuvor beim Begriff des Informationsgewinnes vorgeführt, einsetzt, erhält man den Gini-Index: n A n C n C p 43. i. j= 1 i= 1 i= 1 Gini (C,A) = p j pi j "Anschaulich kann der Gini-Index gedeutet werden als die zu erwartende Verringerung der Fehlklassifikationswahrscheinlichkeit." 44 Ein Fall, der mit einer Wahrscheinlichkeit von p i zur Klasse C i gehört, wird folgerichtig mit der Wahrscheinlichkeit 1-p i nicht zur Klasse C i gehören. Somit ergibt n i= 1 p i ( 1 p i ) die Wahrscheinlichkeit, dass ein Fall falsch klassifiziert wird. Bei Kenntnis des Wertes des Attrtibutes A kann man nun die zu erwartende Fehlklassifikationswahrscheinlichkeit abziehen. Man erhält damit die Steigerung der Wahrscheinlichkeit einer richtigen Klasssifikation (analog zum Informationsgewinn). Auch der Gini-Index bevorzugt Attribute mit vielen Werten, er ist inhärent unsymmetrisch, weshalb folgerichtig in der Literatur verschiedene Normalisierungsformen vorgeschlagen werden. Hier sei zum Einstieg lediglich auf den Aufsatz von Borgelt und Kruse verwiesen Relevanz "Für eine gute Klassifikation erscheint es als günstig, wenn ein Attributwert eindeutig eine Klasse anzeigt.... Ein Attributauswahlmaß, das explizit nach solchen eindeutigen Anzeichen für eine Klassenzugehörigkeit sucht, ist das von [Baim 1988] vorgeschlagene Relevanzmaß... R (C,A) = 1-1 na nc pi j max pi ( j p. j ) n 1 p i p C j= 1 i= 1 i i " 46 Dabei ist R(C,A) umso größer, je größer die max i sind, also je besser pi die Attributwerte a j mit den einzelnen Klassen i verknüpft sind. 47 p i j χ -Maß Der zuvor definierte Informationsgewinn kann auch gedeutet werden als ein Maß für den Unterschied der vorliegenden gemeinsamen Verteilung, 43 vgl. Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg.), S. 86 f. 44 Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg.), S vgl. Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg.), S , speziell S Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg.), S. 87 f. 47 vgl. Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg.), S. 88.

19 die sich bei Annahme der Unabhängigkeit der Attributwerte und der Klassen aus den Randverteilungen berechnen läßt. Für diesen Vergleich wird der logarithmus dualis der Verhältnisse einander entsprechender Wahrscheinlichkeiten der beiden Verteilungen summiert. Diese Form nennt man üblicherweise wechselseitige Information (mutual information). n n I mutual (C,A) = n na n n pij pij log = pij log pij pi. log pi p. j log p p C A C C A i= 1 j= 1 i.. j i= 1 j= 1 i= 1 j= 1 p. j =-H CA + H C + H A = I gain Daraus folgt, dass die wechselseitige Information I mutual identisch ist mit dem Informationsgewinn I gain. "Die wechselseitige Information vergleicht die gemeinsame Verteilung mit einer wechselseitigen hypothetischen unabhängigen Verteilung mit Hilfe des Quotienten der Wahrscheinlichkeiten. Ein Vergleich läßt sich aber auch durch Bildung des Abstandsquadrats durchführen. Dies führt zum... χ - Maß χ (C;A) = n n C A i= 1 j= 1 ( E ij N E ij ij ) mite ij = N i. N N... j n C A N i.. j ij.. i= 1 j= 1 pi. p. j...= N ( p p p ) " 48 Der Zähler stellt den Abstand der gemeinsamen (p i. p.j ) von der hypothetischen (p ij ) unabhängigen Verteilung dar g-funktion "Das Lernen von Entscheidungsbäumen ist eng verwandt mit dem Lernen Bayesscher Netzwerke. In einem Bayesschen Netzwerk wird einem Attribut zusammen mit seinen Elternattributen eine bedingte Wahrscheinlichkeitsverteilung zugeordnet. Diese kann man sich durch einen Entscheidungsbaum dargestellt denken, wobei als zusätzliche Bedingung gefordert wird, daß alle Blätter in der gleichen Baumebene liegen und alle Entscheidungen in einer Baumebene in der gleichen Weise auf dem gleichen Attribut gefällt werden müssen. Die Verwandschaft Bayesscher Netze zu Entscheidungsbäumen legt die Idee nahe, Bewertungsmaße, die zum Lernen Bayesscher Netze verwendet werden, auch zur Induktion von Entscheidungsbäumen einzusetzen. Ein solches Bewertungsmaß ist die von [Cooper und Herskovits 199] hergeleitete g- Funktion, die für ein bedingendes Attribut (wie es ja beim Entscheidungsbaumlernen nur auftritt) lautet: 48 Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg.), S. 88 f. 49 vgl. Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg.), S. 89.

20 ( nc 1)! g (C,A) = c ( N + n 1)! n A n C j= 1. j C i= 1 N ij! " 50 Diese Funktion beschreibt für einen bestimmten Wert von c "die Wahrscheinlichkeit, die gemeinsame Verteilung der Klassen und der Attributwerte in der Menge der Fallbeschreibungen zu finden. Wenn man annimmt, daß alle Abhängigkeiten des Klassenattributes von anderen Attributen a-priori gleich wahrscheinlich sind, und bei gegebener Abhängigkeit alle bedingten Wahrscheinlichkeitsverteilungen a-priori gleich wahrscheinlich sind, schließt die g-funktion in Bayesscher Weise von der Wahrscheinlichkeit der Daten gegeben die Abhängigkeit auf die Wahrscheinlichkeit der Abhängigkeit gegeben die Daten." 51 Der Wert der g-funktion hängt stark von der Anzahl der Fallbeschreibungen ab, so dass in der wissenschaftlichen Literatur vorgeschlagen wird, hier normierte Formen zu verwenden. An dieser Stelle sei zum Einstieg ebenfalls nur auf Borgelt und Kruse (1998) hingewiesen Minimale Beschreibungslänge "Schon der Informationsgewinn... konnte als Reduktion der Beschreibungslänge gedeutet werden. Er nimmt jedoch das Kodierungsschema als bereits bekannt an. Das Prinzip der minimalen Beschreibungslänge stellt dagegen zusätzlich die Kosten für die Beschreibung des Kodierungsschemas in Rechnung. Die zugrundeliegende Idee ist anschaulich die folgende: Ein Sender S möchte einem Empfänger E eine Nachricht übertragen. Der Empfänger kennt die Symbole, aus denen die Nachricht zusammengesetzt sein kann, weiß jedoch nichts über die Häufigkeit, mit der sie in der von S zu sendenden Nachricht auftreten. S kann daher nicht direkt z.b. einen Huffmann-Kode für die Übertragung verwenden, da E diesen wegen der fehlenden Häufigkeitsinformation nicht entschlüsseln kann. Wenn die Nachricht jedoch lang genug ist, kann es sich für S lohnen, zuerst eine Beschreibung des Kodierungsschemas zu senden und dann die nach diesem Schema kodierte Nachricht. Die Summe der zu übertragenden Symbole kann bei diesem Verfahren geringer sein als bei einer naiven, auf gleicher Wahrscheinlichkeit der Symbole basierenden Kodierung. Angewandt auf Entscheidungsbäume stellt sich das Übertragungsproblem so dar: Sowohl der Sender als auch der Empfänger kennen die Attribute und Attributwerte einer Menge von Fallbeschreibungen, aber nur der Sender kennt die Klassenzuordnung. Das Ziel besteht darin, unter Verwendung der Attribute und ihrer Werte eine möglichst effiziente Kodierung für die Übertragung der Klassenzuordnungen zu finden. Dazu werden die Kosten einer Kodierung der Klassenzuordnung allein verglichen mit den Kosten einer Kodierung 50 Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg.), S Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg.), S vgl. Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg.), S. 89.

21 der Klassenzuordnungen in den durch die Werte eines Attributes bestimmten Teilmengen der Fallbeschreibungen. Die Kosten, die für die Übertragung der bedingten Kodierungsschemata entstehen, können dabei als "Strafe" dafür gesehen werden, daß der Entscheidungsbaum komplexer wird. Für die Kodierung der Klassenzuordnung können zwei verschiedene Methoden angewandt werden. Erstere kodiert die Klassenzuordnungen auf der Grundlage ihrer relativen, letztere auf der Grundlage ihrer absoluten Häufigkeiten.... L L (1) ( C) = log prior ( N.. + n 1)! C + N..!( nc 1)! n. j log j= 1 N. j N.. H A n + A (1) ( N nc 1)! ( C, A) = log k + + N post!( n 1)! 1 C C j=. j H C a j (1) (1) (1) L ( C, A) = L ( C) L ( C, A) " 53 gain prior post Als Attributauswahlmaß verwendet man im Falle der Kodierung auf der Grundlage relativer Häufigkeiten also die Differenz der beiden (1) Beschreibungslängen, L als Attributauswahlmaß. gain () ( N.. + nc 1)! N..! L ( C) = log + log... N nc.! prior N..!( n 1)! N! C 1. na n () ( N + A. j nc 1)! N. j! L ( C, A) = log k + log + log post j= 1 N. j!( nc 1)! j= 1 N1 j... N ncj! () () () L ( C, A) = L ( C) L ( C, A) gain prior post Bei der Berechnung aufgrund der absoluten Häufigkeiten verwendet man () dagegen L. gain Anzumerken sei hier noch, dass die Kodierung auf der Grundlage absoluter Häufigkeiten eng mit der g-funktion verwandt ist. "Wenn einige der Klassenhäufigkeiten nahe bei Null liegen, können die Kosten für die Übertragung des Kodierungsschemas in der Größenordnung der Kosten für die eigentliche Datenübertragung liegen. Dieser Nachteil wird von der sog. stochastischen Komplexität [Krichevsky und Trofimov 1983, Rissanen 1995] überwunden." 54 Bezüglich weiterer Vertiefungen sei auch hier als Einstieg auf Borgelt und Kruse (1998) verwiesen Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg.), S. 90 f. 54 Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg.), S vgl. Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg.), insbes. S. 90 ff.

22 Spezifitätsgewinn Die Wahrscheinlichkeitstheorie ist jedoch nicht das einzige Kalkül zur Quantifizierung von Möglichkeit. Eine weitere Möglichkeit stellt die sog. Possibilitätstheorie dar, sie ist mit der Theorie der Fuzzy-Mengen eng verwandt. "In dieser Theorie übernimmt die Nichtspezifität (nonspecifity) einer Possibilitätsverteilung die Rolle der Shanonschen Entropie einer Wahrscheinlichkeitsverteilung. Die Nichtspezifität einer Possibilitätsverteilung π ist allgemein definiert als nsp (π P 1, P ) = - sup( π ) 0 ω Ω P 1 ( ω [ π ] α)log P ( ω [ π ] α) wobei P1 und P bedingte Wahrscheinlichkeitsverteilungen sind. Wählt man für P1 und P Gleichverteilungen, ergibt sich das U-Unsicherheitsmaß der Nichtspezifität (U-uncertainty measure of nonspecifity) [Higashi und Klir 198] nsp(π) = sup( π ) 0 log [ π ] α dα das als Verallgemeinerung der Hartley-Information [Hartley 198]... gerechtfertigt werden kann [Klir und Mariano1987]. Wenn man eine Gleichverteilung über den möglichen Konfidenzgraden α [0,sup(π)] annimmt, beschreibt nsp(π) die durchschnittliche Menge an Information (in Bit), die man auf jedem α-schnitt [π]α noch hinzufügen muß, um den wahren Wert zu bestimmen [Gebhardt und Kruse 1996]. Indem man das U-Unsicherheitsmaß der Nichtspezifität in der gleichen Weise verwendet wie die Shannonsche Entropie. läßt sich der Spezifitätsgewinn (specifity gain) definieren [Borgelt et al. 1996] S gain (C,A) = nsp (πc) + nsp(πa) nsp(πca) sup( πα ) dα sup( π C ) sup( π CA ) [ π CA ] α 0 0 = log [ π A ] dα + log [ π C ] α dα log 0 Dieses Maß ist äquivalent zu dem von [Gebhardt und Kruse 1996] zum Lernen possibilistischer Netzwerke verwendeten Maß.... Auch hier gibt es verschiedene Möglichkeiten der Normalisierung, um eine eventuelle Verzerrung zugunsten von Attributen mit vielen Werten zu beseitigen oder wenigstens zu verringern. " 56 dα 56 Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg.), S. 93.

23 Attributauswahlmaße - eine Zusammenfassung Zuvor wurde eine Reihe von Attributauswahlverfahren vorgestellt, die auf zum Teil sehr unterschiedlichen Ideen beruhen. So stützen sich der Informationsgewinn (Shannon sche Entropie) und der Gini-Index (quadratische Entropie) auf die Informationstheorie, das Relevanzmaß sucht nach eindeutigen Anzeichen für eine Klassenzugehörigkeit, das χ -Maß vergleicht die gemeinsame Verteilung von Klassen und Attributwerten mit einer hypothetischen unabhängigen Verteilung, die g-funktion wird über das Bayes sche Schließen begründet, das Prinzip der minimalen Beschreibungslänge ist auf ein Datenübertragungsmodell zurückzuführen und der Spezifitätsgewinn schließlich wird aus der Nichtspezifität einer Possibilitätsverteilung abgeleitet. 57 "Zwar ist eine theoretische Begründung eines Attributauswahlmaßes, wie sie... [zuvor gegeben] wurde, wichtig, am Ende zählt jedoch der Erfolg in der Praxis." Am Ende des Aufsatzes von Borgelt und Kruse wird auf einen Vergleichstest aller zuvor behandelten Attributauswahlmaße hingewiesen. Auf die näheren Versuchsdetails sei auf den schon so häufig zitierten Aufsatz von Borgelt und Kruse verwiesen. 58 Interessant sind hier jedoch die Ergebnisse bzw. Aussagen aus diesem Vergleichstest: "Eine einfache Rangfolge der Maße läßt sich.. nicht angeben. Vielmehr hängt es vom einzelnen Datensatz ab, welches Maß zu dem besten Klassifikationsergebnis führt." 59 - "Die experimentellen Ergebnisse zeigen, daß alle Maße für die Induktion von Entscheidungsbäumen geeignet sind, wenn man auch beim Relevanzmaß leichte Abstriche machen muß." 60 - Tendenziell scheinen die Informationsgewinnverhältnisse und das Prinzip der minimalen Beschreibungslänge zu leicht besseren Ergebnissen zu führen, eine klare Überlegenheit läßt sich jedoch daraus nicht ableiten. Letztendlich hängt das Ergebnis also vor allem von der Struktur des zu untersuchenden Datensatzes ab. Somit bleibt als Resümee festzustellen, daß "es sich daher lohnen [kann], mehrere oder gar alle der vorgestellten Maße auszuprobieren." 61 Falls der Kontext des Vorgehens es zuläßt, ist es im Sinne eines ergebnisorientierten Vorgehens daher ein durchaus methodisches Vorgehen, mehrere Entscheidungsbäume zu rechnen, da sich die wichtigsten Ergebnisse, also die bedeutendsten Regeln, dann sehr schnell herauskristallisieren lassen. 57 vgl. Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg.), S vgl. Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg.), insbes. S Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg.), S Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg.), S Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg.), S. 95.

24 Pruning von Entscheidungsbäumen: Entscheidungsbäume sind also regelgenerierende Verfahren. Sie haben den Vorteil der leichten Verständlichkeit und Interpretierbarkeit des Ergebnisses. Allerdings können Entscheidungsbäume sehr gross, komplex werden, was durchaus als Nachteil von Entscheidungsbäumen angesehen werden kann. Andererseits würde ein "zu schmaler" Baum, also ein Baum, der "zu schmal, also unterdimensioniert" gebildet wurde, in der anschließenden Anwendung auf neue Daten der Realität vermutlich mit einem "underfit" reagieren, das bedeutet, die Klassifikation wäre nicht so gut, wie sie bei einem "richtig dimensionierten" Entscheidungsbaum wäre. Entscheidungsbäume neigen ohnehin zur Übergröße, da auch zufällige Elemente (Missing Values, Rauschen...) das Erkennen von scharfen Regeln erschweren. Insbesondere in den tiefen Verzweigungen, d.h. in der Nähe der Blätter, wird der Einfluß des Zufalls größer und zwingt den Entscheidungsbaum zur Übermodellierung. 6 Das bedeutet, Wege müssen gefunden werden, die in der Lernphase generierten Bäume wieder auf die wesentliche Grösse zurecht zu stutzen. Demgemäss spricht man bei den angewandten Verfahren hierfür auch von Pruning 63.-Methoden. 64 Diese Verfahren bewirken, daß einige Entscheidungsknoten, die nur geringen Anteil an der Klassifikationsgüte haben, wieder entfernt werden. Dadurch wird erreicht, daß der Baum vereinfacht wird und eine Überanpassung des Entscheidungsbaumes an die zufälligen Besonderheiten der Lerndaten ( Overfitting ) vermieden werden. 65 Durch ein Overfitting würde der Entscheidungsbaum für die Anwendung auf neue Daten seine Generalisierungsfähigkeit verlieren Der Stutzungsschritt (Pruning): In einem Stutzungsschritt (pruning) werden die zuvor konstuierten ( breiten )Bäume auf eine sinnvolle Größe reduziert, um die mit dem Overfitting verbundenen hohen Fehlerraten wieder zu reduzieren. Theoretisch kann zuvor ja ein so großer Baum generiert worden sein, dass auf der untersten Ebene alle Blätter nur noch Objekte einer Klasse beinhalten. Nun wird dieser Baum gestutzt, indem Blätter abgeschnitten und durch einen gemeinsamen, vorhergehenden Knoten ersetzt werden. Mathematisch verwendet man dazu sog. Stutzungsmaße (bspw. für die Gesamtqualität eines Baumes). Für das Prunning selbst bieten sich dabei zwei grundsätzlich mögliche Vorgehensweisen an: 6 Krahl et al. 1998, S to prune, engl. = ausputzen, zurecht stutzen auf Deutsch. 64 Krahl et al, 1998, S. 73 f. 65 vgl. Borgelt und Kruse, 1998, in Data Mining, 1998, Nakhaeizadeh (Hrsg), S. 79 in der Fußnote 1 von S. 78.

25 - - Top-down (pre-prunning) hier werden (forward stopping) Regeln genutzt um bereits in der Induktionsphase zu verhindern, dass der generierte Baum zu komplex wird. Bottom-up (post-prunning) Hier wird zuerst der (zu breite) Baum gebildet und dann im nachhinein wieder auf die gewünschte Größe gestutzt Top-down (pre-prunning) Mögliche limitierend wirkende Regeln können hierbei sein: - Limitierung der Baumtiefe - Limitierung der Baumfragmentierung - Nur Splits bilden, wenn in der nächsten Ebene noch mindestens eine gewisse Anzahl (bspw. mind. 1 %) von Beobachtungen vor handen ist. - Verwenden statistischer Signifikanzen. 66 Bei Verwenden eines χ -Tests oder eines F-Tests für die Splitbildung bildet der berechnete p-wert selbst eine gewisse natürliche Grenze, da keine weiteren Splits mehr gebildet werden, wenn nicht eine gewisse statistische Signifikanz erreicht worden ist. Doch stellt sich hier natürlich die berechtigte Frage, wie hoch a priori das Signifikanzniveau zu wählen ist, gibt es hierfür einen vorab rational zu bestimmenden Wert? Ein Problem dieser Methode ist, daß die Wahl dieses Wertes wiederum einen Einfluß auf die Tests hat. Dies wiederum hat direkten Einfluß auf die Induktion des Entscheidungsbaumes. In wissenschaftlichen Arbeiten zur Thematik der statistischen Interferenz werden ja häufig Signifikanzniveaus von.05 oder.01 verwendet. An dieser Stelle sei auf einen Aufsatz von Kass (1980) zum Thema der sog. Bonferroni-Anpassungen hingewiesen, da typischerweise die p-werte in zunehmender Tiefe des Entscheidungsbaumes zu klein (im Vergleich zum gewählten Signifikanzniveau) werden. Mit den Bonferroni-Anpassungen, die als (konservative) Annäherungen betrachtet werden können, wird zweierlei erreicht, erstens eine Gleichbetrachtung der Split-Selektion bei Inputs mit verschiedenen potentiellen Möglichkeiten von Splitbildungen und zweitens eine Korrektur der p-werte 67 hinsichtlich der Selektionsauswahl vgl. Pots William J.E., SAS Institute (1999), Course Notes "Decision tree Modeling", Fassung vom , SAS-Book-Code: siehe auch die Anmerkungen im Unterpunkt "spezifische Merkmale, Entscheidungsbaumverfahren des SAS Enterprise Miner". 68 vgl. Kass, G.V. (1980), "An Exploratory Technique for Investigating Large Quantities of Categorical Data", in: Applied Statistics, Nr. 9, S Auf eine weitere inhaltliche Vertiefung wird hier verzichtet.

26 Bottum-up (post-prunning) Top-down-Prunning ist im Normalfall zwar schneller als ein bottom-up- Prunning-Verfahren, aber zugleich "weniger effektiv". Die beiden Prunning-Verfahren schließen sich dabei aber auch nicht wechselseitig aus. 69 Wenn ein Baum nach der Bildung wieder zurecht gestutzt werden soll, so bedarf dies einer Bewertung der "Performanz" von bereits gebildeten Unterbäumen des Entscheidungsbaumes. Der Unterbaum mit der besten Performanz soll dann gewählt werden, die suboptimalen Unterstrukturen werden dann wieder entfernt. Dieses Vorgehen bringt aber zugleich zwei Notwendigkeiten mit sich: - Das Vorhandensein einer Meßmethode für die Performanz Ein Vergleich mit denselben Daten, die zum Lernen des Baumes verwendet werden, scheidet naturgemäß aus, da dies gleichzeitig zu einem Überlernen (Overfitting) des Baumes führen würde. Aus diesem Grund werden die errechneten Ergebnisse des Test(Lern) Data Sets mit einem Validierungs-Daten Set (einer zweiten Stichprobe) verglichen. -Ein relevantes Vergleichskriterium Die Genauigkeit ("accuracy") einer korrekten Klassifikation (im voll ausgebildeten Baum) kann berechnet werden als der gewichtete Durchschnitt der Knoten-inhärenten Genauigkeit, mit den Blattwerten als Gewichten. Anders ausgedrückt entspricht es dem Verhältnis der korrekten Klassifikation die vom Gesamtbaum produziert worden ist. Beispiel: Ein generierter Baum(Ausschnitt) auf unterer Ebene mit folgenden zwei Beispiels-Knoten: (linker) Knoten: Tr Va 1 85 % 83% 0 15% 17% total: 4% 40% Class 1 1 (rechter) Knoten Tr Va 1 8,6% 3,4 % 0 91% 97% total: 58% 60% Class: siehe auch die Hinweise im Unterpunkt "spezifische Merkmale, Entscheidungsbaumverfahren des SAS Enterprise Miner" zum χ -Test und F-Test.

27 - 4 - Trainings(Tr)-"Accuracy"(Genauigkeit) = (.4)(.85) + (.58)(.91) =.88 Validation(Va)-"Accuracy" (Genauigkeit) = (.40)(.83) + (.60)(.97) =.91 Nun könnte also als relevantes Vergleichskriterium vorgegeben werden, dass nur Zweige im Ergebnis vorhanden sein sollen, die eine "Validation- Accuracy" von mind..90 haben. Dies würde im vorliegenden Beispiel dazu führen, daß der erste (linke) Zweig wieder entfernt werden würde. Eine weitere Möglichkeit besteht darin, eine (betriebswirtschaftliche bzw. entscheidungs-theoretische) Kosten- und Nutzen-Betrachtung einzubringen. Damit kann für jeden Split verglichen werden, inwieweit dieser noch mit dem gewählten Ziel der Gewinn-Maximierung oder dem Ziel einer Kostenminimierung übereinstimmt. 70 Wird nun im Ergebnis bei einem Split eine Nutzenbetrachtung zu einem vorgegebenen Vergleichswert unterschritten oder zu einem Kostenwert überschritten, so wird der betrachtete Zweig des generierten Entscheidungsbaumes wieder entfernt. Als weitere "Verfahren" hierzu eignen sich bspw. die Bayessianische Statistik bzw. auch der Gini-Index, genauer die sog. total "Gini leaf impurity", da sie in ähnlicher Form berechnet wird, wie die Genauigkeit ("accuracy") bzw. die Kosten-/Nutzenbetrachtung Auch eine sog. Profit/Loss-Matrix ist im SAS-Enterprise Miner zur Bewertung möglich. Siehe hierzu auch die Hinweise im Unterpunkt Spezifische Merkmale, Entscheidungsbaumverfahren des SAS Enterprise Miner. 71 Zur weiteren Vertiefung sei hier auf die im Literaturverzeichnis und im Anhang angegebene Literatur verwiesen.

Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining

Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining Gliederung 1. Einführung 2. Grundlagen Data Mining Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining 3. Ausgewählte Methoden des Data

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

Tutorial: Homogenitätstest

Tutorial: Homogenitätstest Tutorial: Homogenitätstest Eine Bank möchte die Kreditwürdigkeit potenzieller Kreditnehmer abschätzen. Einerseits lebt die Bank ja von der Vergabe von Krediten, andererseits verursachen Problemkredite

Mehr

Zeichen bei Zahlen entschlüsseln

Zeichen bei Zahlen entschlüsseln Zeichen bei Zahlen entschlüsseln In diesem Kapitel... Verwendung des Zahlenstrahls Absolut richtige Bestimmung von absoluten Werten Operationen bei Zahlen mit Vorzeichen: Addieren, Subtrahieren, Multiplizieren

Mehr

4. Jeder Knoten hat höchstens zwei Kinder, ein linkes und ein rechtes.

4. Jeder Knoten hat höchstens zwei Kinder, ein linkes und ein rechtes. Binäre Bäume Definition: Ein binärer Baum T besteht aus einer Menge von Knoten, die durch eine Vater-Kind-Beziehung wie folgt strukturiert ist: 1. Es gibt genau einen hervorgehobenen Knoten r T, die Wurzel

Mehr

15 Optimales Kodieren

15 Optimales Kodieren 15 Optimales Kodieren Es soll ein optimaler Kodierer C(T ) entworfen werden, welcher eine Information (z.b. Text T ) mit möglichst geringer Bitanzahl eindeutig überträgt. Die Anforderungen an den optimalen

Mehr

Primzahlen und RSA-Verschlüsselung

Primzahlen und RSA-Verschlüsselung Primzahlen und RSA-Verschlüsselung Michael Fütterer und Jonathan Zachhuber 1 Einiges zu Primzahlen Ein paar Definitionen: Wir bezeichnen mit Z die Menge der positiven und negativen ganzen Zahlen, also

Mehr

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren Lineargleichungssysteme: Additions-/ Subtraktionsverfahren W. Kippels 22. Februar 2014 Inhaltsverzeichnis 1 Einleitung 2 2 Lineargleichungssysteme zweiten Grades 2 3 Lineargleichungssysteme höheren als

Mehr

Berechnung der Erhöhung der Durchschnittsprämien

Berechnung der Erhöhung der Durchschnittsprämien Wolfram Fischer Berechnung der Erhöhung der Durchschnittsprämien Oktober 2004 1 Zusammenfassung Zur Berechnung der Durchschnittsprämien wird das gesamte gemeldete Prämienvolumen Zusammenfassung durch die

Mehr

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte 50. Mathematik-Olympiade. Stufe (Regionalrunde) Klasse 3 Lösungen c 00 Aufgabenausschuss des Mathematik-Olympiaden e.v. www.mathematik-olympiaden.de. Alle Rechte vorbehalten. 503 Lösung 0 Punkte Es seien

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über Güte von s Grundlegendes zum Konzept der Güte Ableitung der Gütefunktion des Gauss im Einstichprobenproblem Grafische Darstellung der Gütefunktionen des Gauss im Einstichprobenproblem Ableitung der Gütefunktion

Mehr

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Zählen und Zahlbereiche Übungsblatt 1 1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Für alle m, n N gilt m + n = n + m. in den Satz umschreiben:

Mehr

4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum

4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum 4. Lernen von Entscheidungsbäumen Klassifikation mit Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch /Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden.

Mehr

Professionelle Seminare im Bereich MS-Office

Professionelle Seminare im Bereich MS-Office Der Name BEREICH.VERSCHIEBEN() ist etwas unglücklich gewählt. Man kann mit der Funktion Bereiche zwar verschieben, man kann Bereiche aber auch verkleinern oder vergrößern. Besser wäre es, die Funktion

Mehr

Entscheidungsbaumverfahren

Entscheidungsbaumverfahren Entscheidungsbaumverfahren Allgemeine Beschreibung Der Entscheidungsbaum ist die Darstellung einer Entscheidungsregel, anhand derer Objekte in Klassen eingeteilt werden. Die Klassifizierung erfolgt durch

Mehr

Das große ElterngeldPlus 1x1. Alles über das ElterngeldPlus. Wer kann ElterngeldPlus beantragen? ElterngeldPlus verstehen ein paar einleitende Fakten

Das große ElterngeldPlus 1x1. Alles über das ElterngeldPlus. Wer kann ElterngeldPlus beantragen? ElterngeldPlus verstehen ein paar einleitende Fakten Das große x -4 Alles über das Wer kann beantragen? Generell kann jeder beantragen! Eltern (Mütter UND Väter), die schon während ihrer Elternzeit wieder in Teilzeit arbeiten möchten. Eltern, die während

Mehr

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002)

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) 3. Entscheidungsbäume Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) (aus Wilhelm 2001) Beispiel: (aus Böhm 2003) Wann sind Entscheidungsbäume

Mehr

Folge 19 - Bäume. 19.1 Binärbäume - Allgemeines. Grundlagen: Ulrich Helmich: Informatik 2 mit BlueJ - Ein Kurs für die Stufe 12

Folge 19 - Bäume. 19.1 Binärbäume - Allgemeines. Grundlagen: Ulrich Helmich: Informatik 2 mit BlueJ - Ein Kurs für die Stufe 12 Grundlagen: Folge 19 - Bäume 19.1 Binärbäume - Allgemeines Unter Bäumen versteht man in der Informatik Datenstrukturen, bei denen jedes Element mindestens zwei Nachfolger hat. Bereits in der Folge 17 haben

Mehr

1 topologisches Sortieren

1 topologisches Sortieren Wolfgang Hönig / Andreas Ecke WS 09/0 topologisches Sortieren. Überblick. Solange noch Knoten vorhanden: a) Suche Knoten v, zu dem keine Kante führt (Falls nicht vorhanden keine topologische Sortierung

Mehr

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Vollständigkeit halber aufgeführt. Gehen wir einmal davon aus, dass die von uns angenommenen 70% im Beispiel exakt berechnet sind. Was würde

Mehr

Prüfung eines Datenbestandes

Prüfung eines Datenbestandes Prüfung eines Datenbestandes auf Abweichungen einzelner Zahlen vom erwarteten mathematisch-statistischen Verhalten, die nicht mit einem Zufall erklärbar sind (Prüfung auf Manipulationen des Datenbestandes)

Mehr

Überblick über die Verfahren für Ordinaldaten

Überblick über die Verfahren für Ordinaldaten Verfahren zur Analyse ordinalskalierten Daten 1 Überblick über die Verfahren für Ordinaldaten Unterschiede bei unabhängigen Stichproben Test U Test nach Mann & Whitney H Test nach Kruskal & Wallis parametrische

Mehr

Stellen Sie bitte den Cursor in die Spalte B2 und rufen die Funktion Sverweis auf. Es öffnet sich folgendes Dialogfenster

Stellen Sie bitte den Cursor in die Spalte B2 und rufen die Funktion Sverweis auf. Es öffnet sich folgendes Dialogfenster Es gibt in Excel unter anderem die so genannten Suchfunktionen / Matrixfunktionen Damit können Sie Werte innerhalb eines bestimmten Bereichs suchen. Als Beispiel möchte ich die Funktion Sverweis zeigen.

Mehr

Jede Zahl muss dabei einzeln umgerechnet werden. Beginnen wir also ganz am Anfang mit der Zahl,192.

Jede Zahl muss dabei einzeln umgerechnet werden. Beginnen wir also ganz am Anfang mit der Zahl,192. Binäres und dezimales Zahlensystem Ziel In diesem ersten Schritt geht es darum, die grundlegende Umrechnung aus dem Dezimalsystem in das Binärsystem zu verstehen. Zusätzlich wird auch die andere Richtung,

Mehr

Theoretische Grundlagen der Informatik WS 09/10

Theoretische Grundlagen der Informatik WS 09/10 Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3

Mehr

Willkommen zur Vorlesung Statistik

Willkommen zur Vorlesung Statistik Willkommen zur Vorlesung Statistik Thema dieser Vorlesung: Varianzanalyse Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr. Wolfgang

Mehr

2. Lernen von Entscheidungsbäumen

2. Lernen von Entscheidungsbäumen 2. Lernen von Entscheidungsbäumen Entscheidungsbäume 2. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Kapiteltests zum Leitprogramm Binäre Suchbäume

Kapiteltests zum Leitprogramm Binäre Suchbäume Kapiteltests zum Leitprogramm Binäre Suchbäume Björn Steffen Timur Erdag überarbeitet von Christina Class Binäre Suchbäume Kapiteltests für das ETH-Leitprogramm Adressaten und Institutionen Das Leitprogramm

Mehr

1 Mathematische Grundlagen

1 Mathematische Grundlagen Mathematische Grundlagen - 1-1 Mathematische Grundlagen Der Begriff der Menge ist einer der grundlegenden Begriffe in der Mathematik. Mengen dienen dazu, Dinge oder Objekte zu einer Einheit zusammenzufassen.

Mehr

Binärdarstellung von Fliesskommazahlen

Binärdarstellung von Fliesskommazahlen Binärdarstellung von Fliesskommazahlen 1. IEEE 754 Gleitkommazahl im Single-Format So sind in Gleitkommazahlen im IEEE 754-Standard aufgebaut: 31 30 24 23 0 S E E E E E E E E M M M M M M M M M M M M M

Mehr

Binäre Bäume. 1. Allgemeines. 2. Funktionsweise. 2.1 Eintragen

Binäre Bäume. 1. Allgemeines. 2. Funktionsweise. 2.1 Eintragen Binäre Bäume 1. Allgemeines Binäre Bäume werden grundsätzlich verwendet, um Zahlen der Größe nach, oder Wörter dem Alphabet nach zu sortieren. Dem einfacheren Verständnis zu Liebe werde ich mich hier besonders

Mehr

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 1 Einführung in die statistische Datenanalyse Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 2 Gliederung 1.Grundlagen 2.Nicht-parametrische Tests a. Mann-Whitney-Wilcoxon-U Test b. Wilcoxon-Signed-Rank

Mehr

V 2 B, C, D Drinks. Möglicher Lösungsweg a) Gleichungssystem: 300x + 400 y = 520 300x + 500y = 597,5 2x3 Matrix: Energydrink 0,7 Mineralwasser 0,775,

V 2 B, C, D Drinks. Möglicher Lösungsweg a) Gleichungssystem: 300x + 400 y = 520 300x + 500y = 597,5 2x3 Matrix: Energydrink 0,7 Mineralwasser 0,775, Aufgabenpool für angewandte Mathematik / 1. Jahrgang V B, C, D Drinks Ein gastronomischer Betrieb kauft 300 Dosen Energydrinks (0,3 l) und 400 Liter Flaschen Mineralwasser und zahlt dafür 50, Euro. Einen

Mehr

Kontingenzkoeffizient (nach Pearson)

Kontingenzkoeffizient (nach Pearson) Assoziationsmaß für zwei nominale Merkmale misst die Unabhängigkeit zweier Merkmale gibt keine Richtung eines Zusammenhanges an 46 o jl beobachtete Häufigkeiten der Kombination von Merkmalsausprägungen

Mehr

Kapitel 3: Etwas Informationstheorie

Kapitel 3: Etwas Informationstheorie Stefan Lucks 3: Informationstheorie 28 orlesung Kryptographie (SS06) Kapitel 3: Etwas Informationstheorie Komplexitätstheoretische Sicherheit: Der schnellste Algorithmus, K zu knacken erfordert mindestens

Mehr

Vorkurs Informatik WiSe 15/16

Vorkurs Informatik WiSe 15/16 Konzepte der Informatik Dr. Werner Struckmann / Stephan Mielke, Jakob Garbe, 16.10.2015 Technische Universität Braunschweig, IPS Inhaltsverzeichnis Suchen Binärsuche Binäre Suchbäume 16.10.2015 Dr. Werner

Mehr

Statistische Auswertung:

Statistische Auswertung: Statistische Auswertung: Die erhobenen Daten mittels der selbst erstellten Tests (Surfaufgaben) Statistics Punkte aus dem Punkte aus Surftheorietest Punkte aus dem dem und dem Surftheorietest max.14p.

Mehr

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,

Mehr

WS 2009/10. Diskrete Strukturen

WS 2009/10. Diskrete Strukturen WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910

Mehr

Programm 4: Arbeiten mit thematischen Karten

Programm 4: Arbeiten mit thematischen Karten : Arbeiten mit thematischen Karten A) Anteil der ausländischen Wohnbevölkerung an der Wohnbevölkerung insgesamt 2001 in Prozent 1. Inhaltliche und kartographische Beschreibung - Originalkarte Bei dieser

Mehr

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel Ausarbeitung zum Proseminar Finanzmathematische Modelle und Simulationen bei Raphael Kruse und Prof. Dr. Wolf-Jürgen Beyn zum Thema Simulation des Anlagenpreismodels von Simon Uphus im WS 09/10 Zusammenfassung

Mehr

Voraussetzung wieder: Datenraum mit Instanzen, mehrere Attribute - kein ausgezeichnetes Zielattribut, keine vorgegebenen Klassen

Voraussetzung wieder: Datenraum mit Instanzen, mehrere Attribute - kein ausgezeichnetes Zielattribut, keine vorgegebenen Klassen 7. Clusteranalyse (= Häufungsanalyse; Clustering-Verfahren) wird der multivariaten Statistik zugeordnet Voraussetzung wieder: Datenraum mit Instanzen, mehrere Attribute - kein ausgezeichnetes Zielattribut,

Mehr

Anmerkungen zur Übergangsprüfung

Anmerkungen zur Übergangsprüfung DM11 Slide 1 Anmerkungen zur Übergangsprüfung Aufgabeneingrenzung Aufgaben des folgenden Typs werden wegen ihres Schwierigkeitsgrads oder wegen eines ungeeigneten fachlichen Schwerpunkts in der Übergangsprüfung

Mehr

Fibonacci Retracements und Extensions im Trading

Fibonacci Retracements und Extensions im Trading Fibonacci Retracements und Extensions im Trading Einführung Im 12. Jahrhundert wurde von dem italienischem Mathematiker Leonardo da Pisa die Fibonacci Zahlenfolge entdeckt. Diese Zahlenreihe bestimmt ein

Mehr

A1.7: Entropie natürlicher Texte

A1.7: Entropie natürlicher Texte A1.7: Entropie natürlicher Texte Anfang der 1950er Jahre hat Claude E. Shannon die Entropie H der englischen Sprache mit einem bit pro Zeichen abgeschätzt. Kurz darauf kam Karl Küpfmüller bei einer empirischen

Mehr

Theoretische Informatik SS 04 Übung 1

Theoretische Informatik SS 04 Übung 1 Theoretische Informatik SS 04 Übung 1 Aufgabe 1 Es gibt verschiedene Möglichkeiten, eine natürliche Zahl n zu codieren. In der unären Codierung hat man nur ein Alphabet mit einem Zeichen - sagen wir die

Mehr

Data Mining: Einige Grundlagen aus der Stochastik

Data Mining: Einige Grundlagen aus der Stochastik Data Mining: Einige Grundlagen aus der Stochastik Hagen Knaf Studiengang Angewandte Mathematik Hochschule RheinMain 21. Oktober 2015 Vorwort Das vorliegende Skript enthält eine Zusammenfassung verschiedener

Mehr

Charakteristikum des Gutachtenstils: Es wird mit einer Frage begonnen, sodann werden die Voraussetzungen Schritt für Schritt aufgezeigt und erörtert.

Charakteristikum des Gutachtenstils: Es wird mit einer Frage begonnen, sodann werden die Voraussetzungen Schritt für Schritt aufgezeigt und erörtert. Der Gutachtenstil: Charakteristikum des Gutachtenstils: Es wird mit einer Frage begonnen, sodann werden die Voraussetzungen Schritt für Schritt aufgezeigt und erörtert. Das Ergebnis steht am Schluß. Charakteristikum

Mehr

Das RSA-Verschlüsselungsverfahren 1 Christian Vollmer

Das RSA-Verschlüsselungsverfahren 1 Christian Vollmer Das RSA-Verschlüsselungsverfahren 1 Christian Vollmer Allgemein: Das RSA-Verschlüsselungsverfahren ist ein häufig benutztes Verschlüsselungsverfahren, weil es sehr sicher ist. Es gehört zu der Klasse der

Mehr

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung. Lineare Gleichungen mit einer Unbekannten Die Grundform der linearen Gleichung mit einer Unbekannten x lautet A x = a Dabei sind A, a reelle Zahlen. Die Gleichung lösen heißt, alle reellen Zahlen anzugeben,

Mehr

Zwei einfache Kennzahlen für große Engagements

Zwei einfache Kennzahlen für große Engagements Klecksen nicht klotzen Zwei einfache Risikokennzahlen für große Engagements Dominik Zeillinger, Hypo Tirol Bank Die meisten Banken besitzen Engagements, die wesentlich größer sind als der Durchschnitt

Mehr

Grundlagen der Theoretischen Informatik, SoSe 2008

Grundlagen der Theoretischen Informatik, SoSe 2008 1. Aufgabenblatt zur Vorlesung Grundlagen der Theoretischen Informatik, SoSe 2008 (Dr. Frank Hoffmann) Lösung von Manuel Jain und Benjamin Bortfeldt Aufgabe 2 Zustandsdiagramme (6 Punkte, wird korrigiert)

Mehr

Abamsoft Finos im Zusammenspiel mit shop to date von DATA BECKER

Abamsoft Finos im Zusammenspiel mit shop to date von DATA BECKER Abamsoft Finos im Zusammenspiel mit shop to date von DATA BECKER Abamsoft Finos in Verbindung mit der Webshopanbindung wurde speziell auf die Shop-Software shop to date von DATA BECKER abgestimmt. Mit

Mehr

Informationsblatt Induktionsbeweis

Informationsblatt Induktionsbeweis Sommer 015 Informationsblatt Induktionsbeweis 31. März 015 Motivation Die vollständige Induktion ist ein wichtiges Beweisverfahren in der Informatik. Sie wird häufig dazu gebraucht, um mathematische Formeln

Mehr

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume?

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Bernhard Ganter Institut für Algebra TU Dresden D-01062 Dresden bernhard.ganter@tu-dresden.de WS 2013/14 Isomorphie Zwei Graphen (V 1, E 1 ) und (V

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5)

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5) Einführung 3 Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Univ.-Prof. Dr. Christoph Meinel Hasso-Plattner-Institut Universität Potsdam, Deutschland Hatten den Reduktionsbegriff

Mehr

2.11 Kontextfreie Grammatiken und Parsebäume

2.11 Kontextfreie Grammatiken und Parsebäume 2.11 Kontextfreie Grammatiken und Parsebäume Beispiel: Beispiel (Teil 3): Beweis für L(G) L: Alle Strings aus L der Länge 0 und 2 sind auch in L(G). Als Induktionsannahme gehen wir davon aus, dass alle

Mehr

Outlook. sysplus.ch outlook - mail-grundlagen Seite 1/8. Mail-Grundlagen. Posteingang

Outlook. sysplus.ch outlook - mail-grundlagen Seite 1/8. Mail-Grundlagen. Posteingang sysplus.ch outlook - mail-grundlagen Seite 1/8 Outlook Mail-Grundlagen Posteingang Es gibt verschiedene Möglichkeiten, um zum Posteingang zu gelangen. Man kann links im Outlook-Fenster auf die Schaltfläche

Mehr

Erfolg und Vermögensrückgänge angefertigt im Rahmen der Lehrveranstaltung Nachrichtentechnik von: Eric Hansen, eric-hansen@gmx.de am: 07.09.

Erfolg und Vermögensrückgänge angefertigt im Rahmen der Lehrveranstaltung Nachrichtentechnik von: Eric Hansen, eric-hansen@gmx.de am: 07.09. Abstract zum Thema Handelssysteme Erfolg und Vermögensrückgänge angefertigt im Rahmen der Lehrveranstaltung Nachrichtentechnik von: Eric Hansen, eric-hansen@gmx.de am: 07.09.01 Einleitung: Handelssysteme

Mehr

Fachdidaktik der Informatik 18.12.08 Jörg Depner, Kathrin Gaißer

Fachdidaktik der Informatik 18.12.08 Jörg Depner, Kathrin Gaißer Fachdidaktik der Informatik 18.12.08 Jörg Depner, Kathrin Gaißer Klassendiagramme Ein Klassendiagramm dient in der objektorientierten Softwareentwicklung zur Darstellung von Klassen und den Beziehungen,

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

Methoden der Datenanalyse AI-basierte Decision Support Systeme WS 2006/07

Methoden der Datenanalyse AI-basierte Decision Support Systeme WS 2006/07 Regression Trees Methoden der Datenanalyse AI-basierte Decision Support Systeme WS 2006/07 Ao.Univ.Prof. Dr. Marcus Hudec marcus.hudec@univie.ac.at Institut für Scientific Computing, Universität Wien 2

Mehr

7 Rechnen mit Polynomen

7 Rechnen mit Polynomen 7 Rechnen mit Polynomen Zu Polynomfunktionen Satz. Zwei Polynomfunktionen und f : R R, x a n x n + a n 1 x n 1 + a 1 x + a 0 g : R R, x b n x n + b n 1 x n 1 + b 1 x + b 0 sind genau dann gleich, wenn

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 374 Eignung von Verfahren der Mustererkennung im Process Mining Sabrina Kohne

Mehr

Tipp III: Leiten Sie eine immer direkt anwendbare Formel her zur Berechnung der sogenannten "bedingten Wahrscheinlichkeit".

Tipp III: Leiten Sie eine immer direkt anwendbare Formel her zur Berechnung der sogenannten bedingten Wahrscheinlichkeit. Mathematik- Unterrichts- Einheiten- Datei e. V. Klasse 9 12 04/2015 Diabetes-Test Infos: www.mued.de Blutspenden werden auf Diabetes untersucht, das mit 8 % in der Bevölkerung verbreitet ist. Dabei werden

Mehr

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis Das komplette Material finden Sie hier: Download bei School-Scout.de

Mehr

a n + 2 1 auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert:

a n + 2 1 auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert: Beispiel: Wir untersuchen die rekursiv definierte Folge a 0 + auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert: ( ) (,, 7, 5,...) Wir können also vermuten, dass die Folge monoton fallend

Mehr

1 Einleitung. 1.1 Motivation und Zielsetzung der Untersuchung

1 Einleitung. 1.1 Motivation und Zielsetzung der Untersuchung 1 Einleitung 1.1 Motivation und Zielsetzung der Untersuchung Obgleich Tourenplanungsprobleme zu den am häufigsten untersuchten Problemstellungen des Operations Research zählen, konzentriert sich der Großteil

Mehr

II. Zum Jugendbegleiter-Programm

II. Zum Jugendbegleiter-Programm II. Zum Jugendbegleiter-Programm A. Zu den Jugendbegleiter/inne/n 1. Einsatz von Jugendbegleiter/inne/n Seit Beginn des Schuljahres 2007/2008 setzen die 501 Modellschulen 7.068 Jugendbegleiter/innen ein.

Mehr

Was meinen die Leute eigentlich mit: Grexit?

Was meinen die Leute eigentlich mit: Grexit? Was meinen die Leute eigentlich mit: Grexit? Grexit sind eigentlich 2 Wörter. 1. Griechenland 2. Exit Exit ist ein englisches Wort. Es bedeutet: Ausgang. Aber was haben diese 2 Sachen mit-einander zu tun?

Mehr

2.1 Erstellung einer Gutschrift über den vollen Rechnungsbetrag

2.1 Erstellung einer Gutschrift über den vollen Rechnungsbetrag 1. Einführung Manchmal ist es notwendig, dem Kunden eine Gutschrift zu einer bestimmten Rechnung, über einzelne Positionen oder auch völlig frei von einer Basis-Rechnung zu erstellen. Die verschiedenen

Mehr

Statistik II für Betriebswirte Vorlesung 2

Statistik II für Betriebswirte Vorlesung 2 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 2 21. Oktober 2014 Verbundene Stichproben Liegen zwei Stichproben vor, deren Werte einander

Mehr

Lizenzen auschecken. Was ist zu tun?

Lizenzen auschecken. Was ist zu tun? Use case Lizenzen auschecken Ihr Unternehmen hat eine Netzwerk-Commuterlizenz mit beispielsweise 4 Lizenzen. Am Freitag wollen Sie Ihren Laptop mit nach Hause nehmen, um dort am Wochenende weiter zu arbeiten.

Mehr

Funktion Erläuterung Beispiel

Funktion Erläuterung Beispiel WESTFÄLISCHE WILHELMS-UNIVERSITÄT WIRTSCHAFTSWISSENSCHAFTLICHE FAKULTÄT BETRIEBLICHE DATENVERARBEITUNG Folgende Befehle werden typischerweise im Excel-Testat benötigt. Die Beispiele in diesem Dokument

Mehr

Installationsanleitung für CashPro im Mehrbenutzerzugriff/Netzwerkbetrieb

Installationsanleitung für CashPro im Mehrbenutzerzugriff/Netzwerkbetrieb Installationsanleitung für CashPro im Mehrbenutzerzugriff/Netzwerkbetrieb CashPro basiert auf Accesstechnologie 2003 und ist auch unter den aktuellen Accessversionen 2007 bis 2013 einsetzbar und Mehrbenutzerfähig.

Mehr

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt Methoden und Techniken an Beispielen erklärt Georg Anegg 5. November 009 Beispiel. Die Folge {a n } sei wie folgt definiert (a, d, q R, q ): a 0 a, a n+ a n q + d (n 0) Man bestimme eine explizite Darstellung

Mehr

Die Optimalität von Randomisationstests

Die Optimalität von Randomisationstests Die Optimalität von Randomisationstests Diplomarbeit Elena Regourd Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Düsseldorf im Dezember 2001 Betreuung: Prof. Dr. A. Janssen Inhaltsverzeichnis

Mehr

90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft

90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft Prof. Dr. Helmut Küchenhoff SS08 90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft am 22.7.2008 Anmerkungen Überprüfen Sie bitte sofort, ob Ihre Angabe vollständig ist. Sie sollte

Mehr

Mining High-Speed Data Streams

Mining High-Speed Data Streams Mining High-Speed Data Streams Pedro Domingos & Geoff Hulten Departement of Computer Science & Engineering University of Washington Datum : 212006 Seminar: Maschinelles Lernen und symbolische Ansätze Vortragender:

Mehr

Multicheck Schülerumfrage 2013

Multicheck Schülerumfrage 2013 Multicheck Schülerumfrage 2013 Die gemeinsame Studie von Multicheck und Forschungsinstitut gfs-zürich Sonderauswertung ICT Berufsbildung Schweiz Auswertung der Fragen der ICT Berufsbildung Schweiz Wir

Mehr

Auswerten mit Excel. Viele Video-Tutorials auf Youtube z.b. http://www.youtube.com/watch?v=vuuky6xxjro

Auswerten mit Excel. Viele Video-Tutorials auf Youtube z.b. http://www.youtube.com/watch?v=vuuky6xxjro Auswerten mit Excel Viele Video-Tutorials auf Youtube z.b. http://www.youtube.com/watch?v=vuuky6xxjro 1. Pivot-Tabellen erstellen: In der Datenmaske in eine beliebige Zelle klicken Registerkarte Einfügen

Mehr

Name:... Matrikel-Nr.:... 3 Aufgabe Handyklingeln in der Vorlesung (9 Punkte) Angenommen, ein Student führt ein Handy mit sich, das mit einer Wahrscheinlichkeit von p während einer Vorlesung zumindest

Mehr

Welche Unterschiede gibt es zwischen einem CAPAund einem Audiometrie- Test?

Welche Unterschiede gibt es zwischen einem CAPAund einem Audiometrie- Test? Welche Unterschiede gibt es zwischen einem CAPAund einem Audiometrie- Test? Auch wenn die Messungsmethoden ähnlich sind, ist das Ziel beider Systeme jedoch ein anderes. Gwenolé NEXER g.nexer@hearin gp

Mehr

Motivation. Formale Grundlagen der Informatik 1 Kapitel 5 Kontextfreie Sprachen. Informales Beispiel. Informales Beispiel.

Motivation. Formale Grundlagen der Informatik 1 Kapitel 5 Kontextfreie Sprachen. Informales Beispiel. Informales Beispiel. Kontextfreie Kontextfreie Motivation Formale rundlagen der Informatik 1 Kapitel 5 Kontextfreie Sprachen Bisher hatten wir Automaten, die Wörter akzeptieren Frank Heitmann heitmann@informatik.uni-hamburg.de

Mehr

Kostenstellen verwalten. Tipps & Tricks

Kostenstellen verwalten. Tipps & Tricks Tipps & Tricks INHALT SEITE 1.1 Kostenstellen erstellen 3 13 1.3 Zugriffsberechtigungen überprüfen 30 2 1.1 Kostenstellen erstellen Mein Profil 3 1.1 Kostenstellen erstellen Kostenstelle(n) verwalten 4

Mehr

Data Mining-Modelle und -Algorithmen

Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining ist ein Prozess, bei dem mehrere Komponenten i n- teragieren. Sie greifen auf Datenquellen, um diese zum Training,

Mehr

Physik & Musik. Stimmgabeln. 1 Auftrag

Physik & Musik. Stimmgabeln. 1 Auftrag Physik & Musik 5 Stimmgabeln 1 Auftrag Physik & Musik Stimmgabeln Seite 1 Stimmgabeln Bearbeitungszeit: 30 Minuten Sozialform: Einzel- oder Partnerarbeit Voraussetzung: Posten 1: "Wie funktioniert ein

Mehr

Funktionsbeschreibung. Lieferantenbewertung. von IT Consulting Kauka GmbH

Funktionsbeschreibung. Lieferantenbewertung. von IT Consulting Kauka GmbH Funktionsbeschreibung Lieferantenbewertung von IT Consulting Kauka GmbH Stand 16.02.2010 odul LBW Das Modul LBW... 3 1. Konfiguration... 4 1.1 ppm... 4 1.2 Zertifikate... 5 1.3 Reklamationsverhalten...

Mehr

Beschreibung des MAP-Tools

Beschreibung des MAP-Tools 1. Funktionen des MAP-Tool 2. Aufbau des MAP-Tools 3. Arbeiten mit dem MAP-Tool Beschreibung MAP-Tool.doc Erstellt von Thomas Paral 1 Funktionen des MAP-Tool Die Hauptfunktion des MAP-Tools besteht darin,

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

Repetitionsaufgaben Wurzelgleichungen

Repetitionsaufgaben Wurzelgleichungen Repetitionsaufgaben Wurzelgleichungen Inhaltsverzeichnis A) Vorbemerkungen B) Lernziele C) Theorie mit Aufgaben D) Aufgaben mit Musterlösungen 4 A) Vorbemerkungen Bitte beachten Sie: Bei Wurzelgleichungen

Mehr

Ein möglicher Unterrichtsgang

Ein möglicher Unterrichtsgang Ein möglicher Unterrichtsgang. Wiederholung: Bernoulli Experiment und Binomialverteilung Da der sichere Umgang mit der Binomialverteilung, auch der Umgang mit dem GTR und den Diagrammen, eine notwendige

Mehr

Korrigenda Handbuch der Bewertung

Korrigenda Handbuch der Bewertung Korrigenda Handbuch der Bewertung Kapitel 3 Abschnitt 3.5 Seite(n) 104-109 Titel Der Terminvertrag: Ein Beispiel für den Einsatz von Future Values Änderungen In den Beispielen 21 und 22 ist der Halbjahressatz

Mehr

AUF LETZTER SEITE DIESER ANLEITUNG!!!

AUF LETZTER SEITE DIESER ANLEITUNG!!! BELEG DATENABGLEICH: Der Beleg-Datenabgleich wird innerhalb des geöffneten Steuerfalls über ELSTER-Belegdaten abgleichen gestartet. Es werden Ihnen alle verfügbaren Belege zum Steuerfall im ersten Bildschirm

Mehr

Überblick. Lineares Suchen

Überblick. Lineares Suchen Komplexität Was ist das? Die Komplexität eines Algorithmus sei hierbei die Abschätzung des Aufwandes seiner Realisierung bzw. Berechnung auf einem Computer. Sie wird daher auch rechnerische Komplexität

Mehr