Textkategorisierung : Entscheidungsbäume

Größe: px
Ab Seite anzeigen:

Download "Textkategorisierung : Entscheidungsbäume"

Transkript

1 Textkategorisierung : Entscheiungsbäume Kay-Michael Würzner Entscheiungsbäume 4. Juni 200 Sven Brüssow Ein Entscheiungsbaum ist eine spezielle Datenstruktur um Instanzen zu klassifizieren. Innere Knoten repräsentieren Attribute einer Klasse, un Kanten repräsentieren Attributwerte. Eine Instanz wir klassifiziert inem, vom Wurzelknoten beginne, top own ie Attributknoten entsprechen er möglichen Werte getestet weren un schließlich ein Terminalknoten erreicht wir. Ein Entscheiungsbaum repräsentiert allgemein eine Disjunktion von Konjunktionen von Beschränkungen auf ie Attributwerte er Instanzen, mit aneren Worten jeer Pfa in einem Entscheiungsbaum vom Wurzelknoten zu einem Terminalknoten entspricht einer Konjunktion von Attributtests (Humiity,Win) un er Baum selbst ist eine Disjunktion solcher Konjunktionen (1). (Outlook = Sunny Humiity = Normal) (1) (Outlook = Overcast) (Outlook = Rain W in = W eak) Entropie un Informationsgewinn Das Erlernen von Entscheiungsbäumen entspricht er top own Konstruktion es entsprechenen Baumes. Ein statistischer Test bestimmt abei, wie gut ein Attribut allein ie Trainingsaten klassifiziert. Der aus er Informationstheorie bekannte Begriff er Entropie spielt abei eine zentrale Rolle. Humiity Outlook Sunny Overcast Rain Y es Win High Normal Strong W eak No Y es No Y es Abbilung 1: Ein Entscheiungsbaum für as Konzept PlayTennis Die Entropie ist ein gängiges Maß in er Informationstheorie. Die Entropie charakterisiert ie (Un)Reinheit einer beliebigen Menge S von Beispielen. p ist er Anteil positiver Beispiele bestimmter Zielkonzepte in S. p ist er Anteil negativer Beispiele bestimmter Zielkonzepte in S. Die Entropie relativ zu eine boolschen Klassifizierung errechnet sich mit (2) Für nicht binäre sonern für c-wertige Klassifikationen errechnet sich ie Entropie nach (). Der Logarithmus in () ist weiterhin zur Basis 2, a ie Entropie ein Maß für ie erwartete Koierungslänge gemessen in bits ist. Entropy(S) = p log 2 p p log 2 p (2) c Entropy(S) = p i log 2 p i () i=1 Die statistische Eigenschschaft, ie misst, wie gut ein Attribut ie Trainingsaten gemäß ihrer Zielklassifikation separiert un amit ie Entropie reuziert nennt man Informationsgewinn (information gain). Der Informationsgewinn (information gain) gibt somit en Beitrag eines Attributs zur Entscheiungsfinung wieer. Der Informationsgewinn ist as Maß er Effektivität eines Attributs. Dieses Maß ist ie Reuktion in er Entropie hervorgerufen urch ie Partitionierung er Daten gemessen an em entsprechenen Attribut. 2

2 Entropie(S) p Abbilung 2: Die Entropiefunktion Gain(S) Entropy(S) v V alues(a) S v S Entropy(S v) (4) Der erste Term in (4) ist ie Entropie er gesamten Menge S. Der zweite Term in (4) ist er erwartete Wert er Entropie nachem S urch as Attribut A partitioniert wure. Der zweite Term ist somit ie Summe er Entropien einer jeen Teilmenge S v, ie urch Sv gewichtet weren. S Gain(S) ist ie erwartete Reuktion in er Entropie hervorgerufen urch as Wissen um en Wert eines bestimmten Attributs. V alues(a) ist ie Menge aller möglichen Werte für as Attribut A. S v ist ie Teilmenge von S für ie as Attribut A en Wert v hat (5). S v = {s S A(s) = v} (5) Bestimmung es besten Attributs un ID Zur Bestimmung es Wurzelknoten-Attributs wir für jees Attribut er information gain bestimmt. Das Attribut mit em höchsten information gain wir er Wurzelknoten es Entscheiungsbaums. Das Wurzelknoten-Attribut ist am besten geignet, ie Trainingsbeispiele in er folgenen Tabelle zu klassifizieren. Day Outlook T emperature Humiity W in P layt ennis D1 Sunny Hot High Weak No D2 Sunny Hot High Strong No D Overcast Hot High Weak Yes D4 Rain Mil High Weak Yes D5 Rain Cool Normal Weak Yes D6 Rain Cool Normal Strong No D7 Overcast Cool Normal Strong Yes D8 Sunny Mil High Weak No D9 Sunny Cool Normal Weak Yes D10 Rain Mil Normal Weak Yes D11 Sunny Mil Normal Strong Yes D12 Overcast Mil High Strong Yes D1 Overcast Hot Normal Weak Yes D14 Rain Mil High Strong No Der Informationsgewinn, er ie 14 Trainingsbeispiele in Abhängigkeit es Attributs W in sortiert, läßt sich folgenermaßen berechnen: V alues(w in) = W eak, Strong S = [9+, 5 ] S W eak [6+, 2 ] S Strong [+, ] Gain(S, W in) = Entropy(s) v {W eak,strog} S v S Entropy(S v) = Entropy(S) (8/14)Entropy(S W eak ) (6/14)Entropy(S Strong ) = (8/14)0.811 (6/14)1.00 =

3 Für ie alle Attribute ergeben sich ie folgenen Werte: Eigenschaften es ID Algorithmus ID ist eine inuktive Lernmethoe bzw. inuktiver Algorithmus. Gain(S, Outlook) = Gain(S, Humiity) = Gain(S, W in) = Gain(S, T emperature) = Der ID Algorithmus benutzt Entropie un information gain um en Baum aufzubauen. Das Attribut Outlook liefert en höchsten Informationsgewinn un somit ie beste Vorhersage für as Zielattribut P layt ennis un wir somit zum Wurzelknoten-Attribut (-Test), bezogen auf ie Trainingsbeispiele. Für jeen seiner möglichen Werte (Sunny, Overcast, Rain) wir ein neuer Zweig eingefügt. Der Wert er Entropie für as Attribut Outlook ist Null. Das beeutet, ass er Test mit em Attribut Outlook un essen Wert Overcast, in iesem Fall, zu einem Terminalknoten mit er Klassifizierung P layt ennis = yes führt. An allen Attributknoten, an enen ie Entropie nicht Null ist, muß er Entscheiungsbaum unterhalb ieser Knoten weiter untersucht weren. Der Prozeß es Auswählens von Attributen wir für jeen Folgeknoten wieerholt. Bereits in en Baum aufgenommene Attribute weren abei nicht mehr berücksichtigt, a jees Attribut nur einmal im Baum vorkommen arf. Der Prozeß enet für jeen Terminalknoten, wenn entweer oer Jees er Attribute entlang es Pfaes plaziert wure, Die Trainingsbeispiele, ie mit iesem Terminalknoten assoziiert sin, alle en selben Wert für as entsprechene Zielattribut haben, also ie Entropie Null ist (s.o. bei Outlook = Overcast). ID urchsucht einen Raum von Hypothesen (space of hypothesises) nach einer, ie seinen Trainigsaten am besten entspricht. Der Hypothesenraum, er von ID urchsucht wir, ist ie Menge er möglichen Entscheiungsbäume. Die Evaluierungsfunktion, ie ID leitet, ist as Maß es Informationsgewinns (information gain). Der Suchraum von ID, also er Hypothesensuchraum aller Entscheiungsbäume, ist ein kompletter Raum von enlichen iskret-wertigen (iscret-value) Funktionen, relativ zu en vorhanenen Attributen. Da jee Funktion ieser Art als ein Entscheiungsbaum repräsentiert weren kann, vermeiet ID as Hauptisiko von Methoen, ie unvollstänige (incomplete) Hypothesen Suchräume urchsuchen: nämlich ass er Hypothesensuchraum ie Zielfunktion nicht enthält. ID hält immer nur eine Hypothese aufrecht. Daurch kann ID allerings nicht bestimmen, wie viele alternative Entscheiungsbäume mit en vorhanenen Trainingsaten konsistent sin. ID macht kein Backtracking. Daurch können Entscheiungen lokal, aber nicht global optimal sein. Der Vorteil urch as Heranziehen statistischer Eigenschaften wie information gain ist, ass ie resultierene Suche weniger anfällig für Fehler in en Trainigsaten ist. ID kann z.b. urch Moifizieren seiner Terminationsbeingungen erweitert weren, um Hypothesen zu akzeptieren, ie ungewöhnlicher Weise in en Trainingsaten vorkommen (that imperfectly fit the training ata). Inuctive Bias Inuctive Bias = Inuktive Tenenz? Inuctive bias ist ie Menge er Annahmen, ie, zusammen mit en Trainingsaten, euktiv ie en folgenen Instanzen zugewiesenen Klassifizierungen rechtfertigen. 5 6

4 Den inuctive bias von ID zu beschreiben beeutet, ie Basis zu beschreiben, aufgrun er eine konsistente Hypothese einer anereren ebenfalls konsistenen Hypothese vorgezogen wir. ID entscheiet sich für en ersten akzeptablen Baum, auf en er in seiner Suche trifft, mit aneren Worten: ID zieht kürzere Bäume en Längeren vor. ID favorisiert ie Bäume, ie Attribute mit em höchsten Informationsgewinn em Wurzelknoten am nächsten plazieren. Durch ie Anwenung einer greey heuristic search weren ie kürzesten Bäume gefunen, ohne en ganzen Raum breath first absuchen zu müssen. ID finet nicht immer en kürzesten Baum, a er ie Bäume favorisiert, ie ie Attribute mit em höchsten Informationsgewinn wurzelknotennah plazieren (s.o). Overfitting ID erweitert jeen Zweig es Baumes gerae tief genug, um ie Trainingsaten genau zu klassifizieren. Bei aus er Reihe fallenen Trainingsaten oer einer zu geringen Anzahl von Trainingsbeispielen kann ies zu Schwierigkeiten bei er Bestimmung er Zielfunktion führen. Definition: Gegeben ist ein Hypothesensuchraum H, eine Hypothese h H overfits ie Trainingsaten wenn eine alternative Hypothese h H existiert, so ass h weniger Fehler als h auf en Trainingsbeispielen hat, h aber weniger Fehler als h auf em gesamten Suchraum hat. Die Genauigkeit es Entscheiungsbaums wächst für ie Trainingsbeispiele monoton, währen sie für Testbeispiele, ie nicht in er Trainingsmenge enthalten sin, zunächst ansteigt, ann aber wieer abnimmt. Beispiel: Noisy ata Eine mögliche Lösung: Post-Pruning Post pruning ist eine Form es Backtracking. Neben er Trainingsmenge wir noch eine Valiierungsmenge herangezogen. Was ist Textkategorisierung? Problem: Iee: große Sammlung von Texten S gehört Text t zu einer Kategorie c? Korpus in em ie einzelnen Texte kategorisiert sin Auswahl von Eigenschaften, ie ie Kategorie charakterisieren bei Texten Wörter un Zeichen es wir ein Klassifikationsmoell erstellt getestet wir mit em T estkorpus Anwenung: unkategorisierte Texte könne nun leicht ihrer wahrscheinlichsten Kategorie zugeornet weren Bsp. Newsticker: eingehene Nachrichten er Agenturen weren klassifiziert un en entsprechenen Reaktionen zugeornet Schwierigkeiten: Arbeit mit Wahrscheinlichkeiten bei Kategorisierung anhan von Eigenschaften, Auswahl ieser Eigenschaften große Kunst meist relativ problemspezifisch Outlook = Sunny, T emp = Hot, Hum = Normal, W in = Strong Anstatt as aus em Rahmen fallene Beispiel zu ignorieren, prouziert ID einen komplexeren Baum als nötig. Der einfachere Baum zu h paßt nicht mehr zu en Trainigsaten. Der komplexere Baum h allein gibt ie Zielfunktion wieer. 7 8

5 noe 546 articles P (c n ) = noe articles P (c n 2 ) = split:net value:1 noe articles P (c n 4 ) = noe articles P (c n 1 ) = 0.00 split:cts value:2 noe 6 01 articles P (c n 6 ) = noe articles P (c n 5 ) = 0.94 split:vs value:2 noe articles P (c n 7 ) = Abbilung : Entscheiungsbaum, er festlegt ob ein Dokument zur Kategorie earnings gehört. Textkategorisierung mit Entscheiungsbäumen Überblick ein mögliches Klassifikationsmoell sin Entscheiungsbäume: abei wir ein Entscheiungsbaum für ie Kategorie, zu er zugeornet weren soll, erstellt Voraussetzung bereits kategorisierter Korpus ieser wir in Trainings- un Testkorpus geteilt anhan er Daten es Trainingskorpus wir er Baum trainiert mit em Testkorpus wir ieser ann getestet beginnen beim Wurzelknoten weren ie ausgewählten Eigenschaften abgefragt un ie Texte somit eingeteilt an jeem Knoten wir angegeben: Anzahl er Texte am Knoten Wahrscheinlichkeit zur Kategorie zu gehören Wort mit em weiter geteilt wir Gewicht es Teilungskriteriums 9 <REUTERS NEWID= 11 > <DATE>26-FEB :18:59.4</DATE> <TOPICS><D>earn</D> </TOPICS> <TEXT> <TITLE>COBANCO INC <CBCO> YEAR NET </TITLE> <DATELINE> SANTA CRUZ, Calif., Feb 26 - </DATELINE> <BODY>Shr 4 cts vs 1.19 lrs Net 807,000 vs 2,858,000 Assets mln vs mln Deposits 472. mln vs 440. mln Loans mln vs 27.2 mln Note 4th qtr not available. Year inclues 1985 extraorinary gain from tax carry forwar of 12,000 lrs, or five cts per shr. Reuter </BODY></TEXT> </REUTERS> Abbilung 4: Beispiel aus em Reuters Korpus, Text er Kategorie earnings an en Blättern stehen keine Teilungskriterien, es soll ja nicht weiter geteilt weren Auswahl er charakteristischen Wörter Entscheiung ob ein Text zu einer Kategorie gehört, benötigt Kriterien Auswahl von 20 Wörtern ie für ie Textsorte charakteristische sin basieren auf en Wörtern mit em höchsten X 2 Wert für ie Kategorie in er Trainingsmenge er χ 2 Test finet Zusammenhänge zwischen Wörtern un Kategorien in Texten 1 2 azu wir für jees Wort eine Tabelle angelegt: earnings earnings in ie Zellen wir ann ie Anzahl er Texte in enen as Wort 1, 2,... vorkommt mit X 2 = i,j (o ij E ij) 2 E ij berechnet man en X 2 Wert 10

6 W or w j vs mln cts ; & 000 loss T erm weight s ij 5 5 x = 4 0 Classification c = 1 Tabelle 1: Ausschnitt aus em Representationsmoell für Dokument 11(4) mit iesen 20 Wörtern kann jeer Text als Vektor von K = 20 ganzen Zahlen, x j = (s 1j,..., s Kj ), argestellt weren s ij = roun(10 1+log (tfij) 1+log (l j) ) t ij... Anzahl er Vorkommen von Term i im Dokument j l j... Länge es Dokuments j as ganze ist ann ein Representations Moell Training es Entscheiungsbaumes er Wurzelknoten enthält zunächst alle Texte es Trainingskorpus un ie Wahrscheinlichkeit, ass ein Text zur Kategorie gehört nun benötigen wir ein Kriterium um ie Texte aufzuteilen - splitting criterion azu wir er information gain genutzt also as Wort aus em Vektor auswählen, as ie Entropie am Knoten am meisten reuziert für jeen Folgeknoten wir ies wieerholt wenn as stopping criterion erreicht ist, ist er Vorgang abgeschlossen als stopping criterion können verschieene Größen fungieren es wäre z.b möglich aufzuhören wenn alle 20 Wörter benutzt wuren oer ie Entropie nicht mehr entscheien reuziert weren kann oer ie Wahrscheinlichkeiten an en Blättern nahe 0 oer 1 gehen Overfiting - Pruning normalerweise wir im ersten Ablauf es Baum-Trainings ein sehr großer Baum erzeugt bestes Ergebnis für Trainigskorpus iese großen Bäume overfiten ie Trainingsmenge Overfitting passiert wenn beim klassifizieren Entscheiungen auf Grun zufälliger Eigenschaften es Trainingskorpus getroffen weren beispielsweise enthält nur ein Dokument ie Wörter lrs un pct un ieses gehört zur earnings-kategorie nun kann es passieren, ass später alle Dokumente in enen ie beien Wörter vorkommen er Kategorie zugeornet weren ieses wir vermieen inem er Baum nachträglich beschnitten wir - pruning - um eine vernünftige, aussagekräftige Größe zu erhalten abei wir bei jeem pruning er am wenigsten hilfreiche Knoten entfernt as wir so lang wieerholt bis kein Knoten mehr übrig ist ie so entstanene Menge von Bäumen wir mit einem unabhängigen valiation set getestet, er kleinste Baum mit em akkuratesten Ergebnis wir ausgewählt unschön ist abei, ass wir ungefähr 20% vom Trainingskorpus als Überprüfungsmenge benutzen müssen un ie Auswahl es Baumes ann im Prinzip auch nur von iesen 20% abhängt schlauere Methoe: n-fol cross valiation abei wir er Trainingskorpus in n Teile geteilt er Baum wir mit n-1 Teilen trainiert, er n. Teil ist as valiation set auf essen Basis geprune wir iesen Vorgang wieerholt man n-1 mal, wobei jeer Teil einmal als valiation set ient ie Durchschnittsgröße er beschnittenen Bäume ient uns als optimale Größe für en Entscheiungsbaum nun wir er Baum mit em kompletten Trainingskorpus trainiert un auf iese Größe zurecht gestutzt 11 12

7 -VOICED +VOICED -CONT +CONT -CONT +CONT -COR +COR t -COR +COR t -ANT +ANT -ANT +ANT t Abbilung 5: Ein Beispiel wie Entscheiungsbäume Daten phonologischer Regeln ineffizient benutzen. NLP un Entscheiungsbäume für as Erfassen von natürlich sprachlichen Phänomen bzw. Generalisierungen bieten sich einfachere Methoen an Entscheiungsbäume teilen ie Trainingsmenge in immer kleinere Untermengen auf ies macht korrekte Generalisierungen schwerer, weil ie Datenmenge für verlässliche Aussagen zu klein ist un falsche Generalisierungen weren wahrscheinlicher, wegen zufälliger Regularitäten in kleineren Mengen Pruning löst ieses Problem bis zu einem gewissen Gra, anere Methoen können lingustische Regularitäten besser erfassen, inem sie alle Merkmale un Attribute gleichzeitig betrachten 5 zeigt ein Beispiel wie ein Entscheiungsbaum ie Enungsregel im Englischen Past erfassen würe Literatur [Mit97] Tom Mitchel. Machine Learning. McGraw Hill, [MS99] Christopher D. Manning an Hinrich Schütze. Founations of Statistical Natural Language Processing. MIT Press, Cambrige, Massachusetts,

Decision Tree Learning

Decision Tree Learning Decision Tree Learning Computational Linguistics Universität des Saarlandes Sommersemester 2011 28.04.2011 Entscheidungsbäume Repräsentation von Regeln als Entscheidungsbaum (1) Wann spielt Max Tennis?

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Musterlösung für das 7. Übungsblatt Aufgabe 1 Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity Wind PlayTennis D1? Hot High Weak No D2 Sunny

Mehr

Decision Trees* von Julia Heise, Philipp Thoms, Hans-Martin Wulfmeyer. *Entscheidungsbäume

Decision Trees* von Julia Heise, Philipp Thoms, Hans-Martin Wulfmeyer. *Entscheidungsbäume Decision Trees* von Julia Heise, Philipp Thoms, Hans-Martin Wulfmeyer *Entscheidungsbäume Gliederung 1. Einführung 2. Induktion 3. Beispiel 4. Fazit Einführung 1. Einführung a. Was sind Decision Trees?

Mehr

Entscheidungsbaum-Lernen: Übersicht

Entscheidungsbaum-Lernen: Übersicht Entscheidungsbaum-Lernen: Übersicht Entscheidungsbäume als Repräsentationsformalismus Semantik: Klassifikation Lernen von Entscheidungsbäumen vollst. Suche vs. TDIDT Tests, Ausdrucksfähigkeit Maße: Information

Mehr

Entscheidungsbaum-Lernen: Übersicht

Entscheidungsbaum-Lernen: Übersicht Entscheidungsbaum-Lernen: Übersicht Entscheidungsbäume Repräsentationsformalismus Tests Semantik: Klassifikation Ausdrucksfähigkeit Lernen von Entscheidungsbäumen Szenario vollst. Suche vs. TDIDT Maße:

Mehr

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002)

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) 3. Entscheidungsbäume Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) (aus Wilhelm 2001) Beispiel: (aus Böhm 2003) Wann sind Entscheidungsbäume

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Musterlösung für das 6. Übungsblatt Aufgabe 1 Gegeben sei eine Beispielmenge mit folgenden Eigenschaften: Jedes Beispiel ist durch 10 nominale Attribute A 1,...,

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Maschinelles Lernen II: Klassifikation mit Entscheidungsbäumen Vera Demberg Universität des Saarlandes 12. Juli 2012 Vera Demberg (UdS) Mathe III 12. Juli 2012 1 / 38 Einleitung

Mehr

Explizite und Implizite Darstellung einer Funktion

Explizite und Implizite Darstellung einer Funktion Eplizite un Implizite Darstellung einer Funktion Für ie implizite Differentiation weren ie Begriffe implizite un eplizite Darstellung von Funktionen benötigt. Bisher haben wir eine Funktion (Zusammenhang

Mehr

Mathematik III. Vorlesung 87. Die äußere Ableitung

Mathematik III. Vorlesung 87. Die äußere Ableitung Prof. Dr. H. Brenner Osnabrück WS 2010/2011 Mathematik III Vorlesung 87 Die äußere Ableitung In ieser Vorlesung weren wir ein neuartiges mathematisches Objekt kennenlernen, ie sogenannte äußere Ableitung.

Mehr

Entscheidungsbäume. Minh-Khanh Do Erlangen,

Entscheidungsbäume. Minh-Khanh Do Erlangen, Entscheidungsbäume Minh-Khanh Do Erlangen, 11.07.2013 Übersicht Allgemeines Konzept Konstruktion Attributwahl Probleme Random forest E-Mail Filter Erlangen, 11.07.2013 Minh-Khanh Do Entscheidungsbäume

Mehr

Kapitel ML:IV (Fortsetzung)

Kapitel ML:IV (Fortsetzung) Kapitel ML:IV (Fortsetzung) IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-18 Statistical Learning c STEIN 2005-2011 Satz 3 (Bayes)

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)

Mehr

Determinanten. a e b f a c b d. b) x = , y = c) zu einem Spaltenvektor das Vielfache des anderen Spaltenvektors addiert wird,

Determinanten. a e b f a c b d. b) x = , y = c) zu einem Spaltenvektor das Vielfache des anderen Spaltenvektors addiert wird, Determinanten Wir entwickeln eine Lösungsformel für Gleichungssysteme mit zwei Variablen. ax + cy = e b bx + y = f a } abx bcy = be + abx + ay = af ya bc = af be Man schreibt y = af be a bc = a e b f analog

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Sommer-Semester 2008 Konzept-Lernen Konzept-Lernen Lernen als Suche Inductive Bias Konzept-Lernen: Problemstellung Ausgangspunkt:

Mehr

LUDWIG-MAXIMILIANS-UNIVERSITÄT MÜNCHEN. 2. Übung/Lösung Mathematik für Studierende der Biologie

LUDWIG-MAXIMILIANS-UNIVERSITÄT MÜNCHEN. 2. Übung/Lösung Mathematik für Studierende der Biologie LUDWIG-MAXIMILIANS-UNIVERSITÄT MÜNCHEN FAKULTÄT FÜR BIOLOGIE Prof. Anreas Herz, Dr. Stefan Häusler email: haeusler@biologie.uni-muenchen.e Department Biologie II Telefon: 089-80-74800 Großhaernerstr. Fa:

Mehr

Data Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt

Data Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt Data Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt Knowledge Engineering Group Data Mining und Maschinelles Lernen Lösungsvorschlag 7. Übungsblatt 1 Aufgabe 1a) Auffüllen von Attributen

Mehr

2. Musterlösung. Problem 1: Das Postamtplatzierungsproblem ** = min w i ( x p x i ) + w i ( y p y i ) i=1. w i + w m w i. 0 wegen (3) w m+1 m,m+1

2. Musterlösung. Problem 1: Das Postamtplatzierungsproblem ** = min w i ( x p x i ) + w i ( y p y i ) i=1. w i + w m w i. 0 wegen (3) w m+1 m,m+1 Universität Karlsruhe Algorithmentechnik Fakultät für Informatik WS 05/06 ITI Wagner 2. Musterlösung Problem 1: Das Postamtplatzierungsproblem ** Sei OE x 1 x 2 x n. Gesucht ist ein Punkt p = (x, y) mit

Mehr

Entscheidungsbäume aus großen Datenbanken: SLIQ

Entscheidungsbäume aus großen Datenbanken: SLIQ Entscheidungsbäume aus großen Datenbanken: SLIQ C4.5 iteriert häufig über die Trainingsmenge Wie häufig? Wenn die Trainingsmenge nicht in den Hauptspeicher passt, wird das Swapping unpraktikabel! SLIQ:

Mehr

Lösungen Aufgabenblatt 7 zur Spieltheorie SS 2017

Lösungen Aufgabenblatt 7 zur Spieltheorie SS 2017 Lösungen Aufgabenblatt 7 zur Spieltheorie SS 07 Aufgabe 7. Wir betrachten as folgene Spiel zwischen hungrigen Löwen i =,, : Es gibt ein Schaf, as von genau einem Löwen gefressen weren kann. Wenn ein Löwe

Mehr

4. Lernen von Entscheidungsbäumen

4. Lernen von Entscheidungsbäumen 4. Lernen von Entscheidungsbäumen Entscheidungsbäume 4. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Maschinelles Lernen: Symbolische Ansätze. Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt

Maschinelles Lernen: Symbolische Ansätze. Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt Maschinelles Lernen: Symbolische Ansätze Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt 1 Aufgabe 1 Nearest Neighbour Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 9. Übungsblatt Aufgabe 1: Decision Trees Gegeben sei folgende Beispielmenge: Age Education Married Income Credit?

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2008/2009 Musterlösung für das 7. Übungsblatt Aufgabe 1: Evaluierung und Kosten Gegeben sei ein Datensatz mit 300 Beispielen, davon 2 /3 positiv

Mehr

8.1. Das unbestimmte Integral

8.1. Das unbestimmte Integral 8 Das unbestimmte Integral So wie ie Bilung von Reihen, also Summenfolgen, ein zur Bilung er Differenzenfolgen inverser Prozess ist, kann man ie Integration als Umkehrung er Differentiation ansehen Stammfunktionen

Mehr

Splitting. Impurity. c 1. c 2. c 3. c 4

Splitting. Impurity. c 1. c 2. c 3. c 4 Splitting Impurity Sei D(t) eine Menge von Lernbeispielen, in der X(t) auf die Klassen C = {c 1, c 2, c 3, c 4 } verteilt ist. Illustration von zwei möglichen Splits: c 1 c 2 c 3 c 4 ML: III-29 Decision

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume

Mehr

Mathematik 1 -Arbeitsblatt 1-9: Multiplizieren mehrgliedriger Termee. 1F Wintersemester 2012/2013 Unterlagen: LehrerInnenteam GFB

Mathematik 1 -Arbeitsblatt 1-9: Multiplizieren mehrgliedriger Termee. 1F Wintersemester 2012/2013 Unterlagen: LehrerInnenteam GFB Schule Thema Personen Bunesgymnasium für Berufstätige Salzburg Mathematik 1 -Arbeitsblatt 1-9: Multiplizieren mehrglieriger Termee 1F Wintersemester 01/013 Unterlagen: LehrerInnenteam GFB Ein neues Problem

Mehr

Beispiellösungen zu Blatt 6

Beispiellösungen zu Blatt 6 µathematischer κorresponenz- zirkel Mathematisches Institut Georg-August-Universität Göttingen Aufgabe 1 Beispiellösungen zu Blatt 6 Gibt es eine Quaratzahl, eren Quersumme 6 ist? Hinweis: Die Quersumme

Mehr

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,

Mehr

Übungsklausur Lineare Algebra I - Wintersemester 2008/09

Übungsklausur Lineare Algebra I - Wintersemester 2008/09 1 Übungsklausur Lineare Algebra I - Wintersemester 008/09 Teil 1: Multiple Choice (1 Punkte Für ie ganze Klausur bezeichne K einen beliebigen Körper. 1. Welche er folgenen Aussagen sin ann un nur ann erfüllt,

Mehr

Lösungen zu Kapitel 6

Lösungen zu Kapitel 6 Lösungen zu Kapitel 6 Lösung zu Aufgabe : Es ist T (a) = {b b 0, b a}. Wir erhalten Es folgt un amit T (54) = {, 2, 3, 6, 9, 8, 27, 54}, T (72) = {, 2, 3, 4, 6, 8, 9, 2, 8,.24, 36, 72}. T (54) T (72) =

Mehr

Lösungshinweise zu den Hausaufgaben:

Lösungshinweise zu den Hausaufgaben: P. Engel, T. Pfrommer S. Poppitz, Dr. I. Rybak 4. Gruppenübung zur Vorlesung Höhere Mathematik Sommersemester 9 Prof. Dr. M. Stroppel Prof. Dr. N. Knarr Lösungshinweise zu en Hausaufgaben: Aufgabe H. a)

Mehr

Klassische Klassifikationsalgorithmen

Klassische Klassifikationsalgorithmen Klassische Klassifikationsalgorithmen Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at

Mehr

Polynomfunktionen - Fundamentalsatz der Algebra

Polynomfunktionen - Fundamentalsatz der Algebra Schule / Institution Titel Seite 1 von 7 Peter Schüller peter.schueller@bmbwk.gv.at Polynomfunktionen - Funamentalsatz er Algebra Mathematische / Fachliche Inhalte in Stichworten: Polynomfunktionen, Funamentalsatz

Mehr

Vorlesung. Machine Learning - Entscheidungsbäume

Vorlesung. Machine Learning - Entscheidungsbäume Vorlesung Machine Learning - Entscheidungsbäume Vorlesung Machine Learning - Entscheidungsbäume http://de.wikipedia.org/wiki/datei:deu_tutorial_-_hochladen_von_bildern_neu%2bcommons.svg http://www.rulequest.com/personal/

Mehr

f x n ) 2 1 Gleichung (*) f' x 1 f'' x 1

f x n ) 2 1 Gleichung (*) f' x 1 f'' x 1 Das Newtonsche Näherungsverfahren, Teil Theorie - Konvergenzkriterium f x n Allgemeine Lösung: x n = x n f' x f' x n n 0 Nach er Fachliteratur (Bronstein/Semenjajew) arf man hier von einer Cauchy-Folge

Mehr

Gruppentheorie und ihre Anwendungen in der Physik Ü5

Gruppentheorie und ihre Anwendungen in der Physik Ü5 Frank Essenberger, Max Hoffmann 8. Juni 2007 Gruppentheorie un ihre Anwenungen in er Physik Ü5 Aufgabe 8 a) Als erstes müssen ie Gruppen bestimmt weren. Das Element E einer Gruppe G bilet immer einen Klasse

Mehr

2. Lernen von Entscheidungsbäumen

2. Lernen von Entscheidungsbäumen 2. Lernen von Entscheidungsbäumen Entscheidungsbäume 2. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Logik / Kombinatorik - Hinweise zur Lösungsfindung

Logik / Kombinatorik - Hinweise zur Lösungsfindung Logik / Kombinatorik Hinweise zur Lösungsfinung Aufgabe 1) Günstige Bezeichnungen einführen; Tabelle anfertigen un ie unmittelbaren Folgerungen aus bis eintragen (siehe linke Tabelle). Da ies noch nicht

Mehr

Differentialrechnung

Differentialrechnung Differentialrechnung Um Funktionen genauer zu untersuchen bzw. sie zu analysieren, ist es notwenig, etwas über ihren Verlauf, as qualitative Verhalten er Funktion, sagen zu können. Das heisst, wir suchen

Mehr

Dem Wettstreit zwischen beiden Bestrebungen trägt die Freie Energie Rechnung (bei konstanter Temperatur und konstantem Volumen).

Dem Wettstreit zwischen beiden Bestrebungen trägt die Freie Energie Rechnung (bei konstanter Temperatur und konstantem Volumen). Jees ystem strebt zwei Zielen entgegen:.) Minimum er Energie.) Maximum er Entropie Minimum er pot. Energie Maximum er Entropie atsächliche erteilung: Minimum er reien Energie Dem Wettstreit zwischen beien

Mehr

10. Vorlesung Wintersemester

10. Vorlesung Wintersemester 10. Vorlesung Wintersemester 1 Existenz von Potentialen Für einimensionale Bewegungen unter er Einwirkung einer Kraft, ie nur vom Ort abhängt, existiert immer ein Potential, a man immer eine Stammfunktion

Mehr

0 1 0 b Die inverse Funktion muss die Translation um b sein und hat daher die homogene Matrix b b 1

0 1 0 b Die inverse Funktion muss die Translation um b sein und hat daher die homogene Matrix b b 1 Homogene Koorinaten Aufgabe. In homogener Darstellung ist ie Translation f R 4 R 4 um einen Vektor b R 3 eine lineare Funktion un kann aher urch eine Matri Vektor Multiplikation realisiert weren. Wie sieht

Mehr

1 5. Endliche Körper Situation: Satz: Beispiel: Z iel: Klassifikation endlicher Körper und ihrer Beziehungen.

1 5. Endliche Körper Situation: Satz: Beispiel: Z iel: Klassifikation endlicher Körper und ihrer Beziehungen. 1 5. Enliche Körper Z iel: Klassifikation enlicher Körper un ihrer Beziehungen. 1 5. 1. Situation: K sei eine enliche Erweiterung es Körpers F p = Z/ p, p P, [ K: F p ] = n #( K = p n = : q K ist zyklisch

Mehr

Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 12. Übungsblatt

Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 12. Übungsblatt Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 12. Übungsblatt 9. Februar 2016 1 Aufgabe 1: RelieF (1) Gegeben sind folgende 12 Beispiele der Wetter-Daten: ID outlook

Mehr

4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum

4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum 4. Lernen von Entscheidungsbäumen Klassifikation mit Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch /Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden.

Mehr

a) b) Abb. 1: Buchstaben

a) b) Abb. 1: Buchstaben Hans Walser, [20171019] Magische Quarate ungeraer Seitenlänge nregung: uler (1782) 1 Worum geht es? Zu einer gegebenen ungeraen Zahl u wir ein magisches Quarat mit er Seitenlänge u konstruiert. 2 as Vorgehen

Mehr

1. Probeklausur. φ = 2x 2 y(z 1).

1. Probeklausur. φ = 2x 2 y(z 1). Übungen zur T: Theoretische Mechanik, SoSe04 Prof. Dr. Dieter Lüst Theresienstr. 37, Zi. 45. Probeklausur Dr. Reinke Sven Isermann Reinke.Isermann@lmu.e Übung.: Gegeben sei ie Funktion φ = x y z. a Berechnen

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick

Mehr

Kapitel ML: III (Fortsetzung)

Kapitel ML: III (Fortsetzung) Kapitel ML: III (Fortsetzung) III. Entscheidungsbäume Repräsentation und Konstruktion Impurity-Funktionen Entscheidungsbaumalgorithmen Pruning ML: III-87 Decision Trees c STEIN/LETTMANN 2005-2011 Missklassifikationskosten

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

Solution Hints to Exercise Sheet 11

Solution Hints to Exercise Sheet 11 Avance algebra Homological algebra an representation theory Wintersemester 24/5 Prof. C. Schweigert Algebra an Number Theory Department of Mathematics University Hamburg Aufgabe Solution Hints to Exercise

Mehr

Erste schriftliche Wettbewerbsrunde. Klasse 7

Erste schriftliche Wettbewerbsrunde. Klasse 7 Erste schriftliche Wettbewerbsrune Die hinter en Lösungen stehenen Prozentzahlen zeigen, wie viel Prozent er Wettbewerbsteilnehmer ie gegebene Lösung angekreuzt haben. Die richtigen Lösungen weren fettgeuckt

Mehr

ID3 und Apriori im Vergleich

ID3 und Apriori im Vergleich ID3 und Apriori im Vergleich Lassen sich bei der Klassifikation mittels Apriori bessere Ergebnisse als durch ID3 erzielen? Sebastian Boldt, Christian Schulz, Marc Thielbeer KURZFASSUNG Das folgende Dokument

Mehr

3.3 Nächste-Nachbarn-Klassifikatoren

3.3 Nächste-Nachbarn-Klassifikatoren 3.3 Nächste-Nachbarn-Klassifikatoren Schrauben Nägel Klammern Neues Objekt Instanzbasiertes Lernen (instance based learning) Einfachster Nächste-Nachbar-Klassifikator: Zuordnung zu der Klasse des nächsten

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 1. Übungsblatt Aufgabe 1: Anwendungsszenario Überlegen Sie sich ein neues Szenario des klassifizierenden Lernens (kein

Mehr

LUDWIG-MAXIMILIANS-UNIVERSITÄT MÜNCHEN. 3. Übung/Lösung Mathematik für Studierende der Biologie

LUDWIG-MAXIMILIANS-UNIVERSITÄT MÜNCHEN. 3. Übung/Lösung Mathematik für Studierende der Biologie LUDWIG-MAXIMILIANS-UNIVERSITÄT MÜNCHEN FAKULTÄT FÜR BIOLOGIE Prof. Anreas Herz, Dr. Stefan Häusler email: haeusler@biologie.uni-muenchen.e Department Biologie II Telefon: 089-80-74800 Großhaernerstr. Fa:

Mehr

Lösung - Serie 3. D-MAVT/D-MATL Analysis I HS 2017 Dr. Andreas Steiger. 1. MC-Aufgaben (Online-Abgabe)

Lösung - Serie 3. D-MAVT/D-MATL Analysis I HS 2017 Dr. Andreas Steiger. 1. MC-Aufgaben (Online-Abgabe) D-MAVT/D-MATL Analysis I HS 07 Dr. Anreas Steiger Lösung - Serie 3. MC-Aufgaben (Online-Abgabe). Es sei ie Funktion f : [0, ) [0, ) efiniert urc f() = ln( + ), wobei er Logaritmus ln zur Basis e ist. Welce

Mehr

15 Differentialrechnung in R n

15 Differentialrechnung in R n 36 15 Differentialrechnung in R n 15.1 Lineare Abbilungen Eine Abbilung A : R n R m heißt linear falls A(αx + βy) = αa(x) + βa(y) für alle x, y R n un alle α, β R. Man schreibt oft Ax statt A(x) un spricht

Mehr

Klassische Klassifikationsalgorithmen

Klassische Klassifikationsalgorithmen Klassische Klassifikationsalgorithmen Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at

Mehr

2. Goldener Schnitt. Der Goldene Schnitt ist das wohl berühmteste Zahlenverhältnis.

2. Goldener Schnitt. Der Goldene Schnitt ist das wohl berühmteste Zahlenverhältnis. 8 2. Golener Schnitt Die Geometrie birgt zwei grosse Schätze: er eine ist er Satz von Pythagoras, er anere ist er Golene Schnitt. Den ersten können wir mit einem Scheffel Gol vergleichen, en zweiten ürfen

Mehr

Formatieren. Kategorie «Sonderformat» Kategorie «Benutzerdefiniert» Zellen. Theorieteil

Formatieren. Kategorie «Sonderformat» Kategorie «Benutzerdefiniert» Zellen. Theorieteil 321 Beispiel: In Zelle A2 A befinet sich ie Zahl 32, er 2 Nachkommastellen zugewiesen wuren. In Zelle B2 B befinet sich ieselbe Zahl 32, jeoch als Text formatiert. Kategorie «Sonerformat» Die Kategorie

Mehr

Einführung in die theoretische Physik 1

Einführung in die theoretische Physik 1 Mathey Einführung in ie theor. Physik 1 Einführung in ie theoretische Physik 1 Prof. Dr. L. Mathey Dienstag 15:45 16:45 un Donnerstag 1:45 12: Beginn: 23.1.12 Jungius 9, Hörs 2 1 Mathey Einführung in ie

Mehr

Bayessches Lernen Aufgaben

Bayessches Lernen Aufgaben Bayessches Lernen Aufgaben martin.loesch@kit.edu (0721) 608 45944 Aufgabe 1: Autodiebstahl-Beispiel Wie würde man ein NB-Klassifikator für folgenden Datensatz aufstellen? # Color Type Origin Stolen? 1

Mehr

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen 5.1 Lernen mit Entscheidungsbäumen Falls zum Beispiel A = {gelb, rot, blau} R 2 und B = {0, 1}, so definiert der folgende Entscheidungsbaum eine Hypothese H : A B (wobei der Attributvektor aus A mit x

Mehr

1. Tangente, Ableitung, Dierential

1. Tangente, Ableitung, Dierential 1. Tangente, Ableitung, Dierential Variablen un Funktionen 1.1. Verallgemeinern Sie ie folgenen Gruppen von Gleichungen mithilfe von Variablen. (1) 5 + 3 = 3 + 5, 1 2 = 2 + 1. (2) 3 2 + 5 2 = (3 + 5) 2,

Mehr

Übungen zur Vorlesung. Einführung in Dynamische Systeme. Musterlösungen zu Aufgabenblatt 9

Übungen zur Vorlesung. Einführung in Dynamische Systeme. Musterlösungen zu Aufgabenblatt 9 Prof. Rolan Gunesch Sommersemester 2010 Übungen zur Vorlesung Einführung in Dynamische Systeme Musterlösungen zu Aufgabenblatt 9 Aufgabe 1: Eine Isometrie eines metrischen Raums X ist eine Abbilung f :

Mehr

Algorithmen für Planare Graphen Übung am

Algorithmen für Planare Graphen Übung am Algorithmen für Planare Graphen Übung am 02.05.2017 INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität es Lanes Baen-Württemberg un Algorithmen nationales Forschungszentrum

Mehr

Wahrscheinlichkeitsrechnung (mit dem Zufall rechnen) 1 2 3 4 5 6 Bezeichnungen Summe. 1 2 3 4 5 6 Bezeichnungen Summe

Wahrscheinlichkeitsrechnung (mit dem Zufall rechnen) 1 2 3 4 5 6 Bezeichnungen Summe. 1 2 3 4 5 6 Bezeichnungen Summe ahrscheinlichkeitsrechnung (mit em Zufall rechnen) Zufallsgerät ürfel: Jeer Schüler wirft mit einem ürfel 2-mal, er Tischnachbar führt eine Strichliste für ie gewürfelten Ergebnisse in er folgenen Tabelle:

Mehr

Zahlentheorie. Kapitel 14 Quadratische Zahlkörper. Markus Klenke und Fabian Mogge Universität Paderborn

Zahlentheorie. Kapitel 14 Quadratische Zahlkörper. Markus Klenke und Fabian Mogge Universität Paderborn Zahlentheorie Kaitel 14 Quaratische Zahlkörer Markus Klenke un Fabian Mogge Universität Paerborn 9. Mai 008 Inhaltsverzeichnis 14 Quaratische Zahlkörer 0 Vorwort............................... A Wieerholung...........................

Mehr

PC & Mac Education Ltd EX01GL1DM

PC & Mac Education Ltd  EX01GL1DM 335 Kategorie «Sonerformat» Option B Typ Die Kategorie «Sonerformat» A lässt eingegebene Zahlen speziell formatieren. Wählen Sie im Auswahlfenster «Typ» B as gewünschte Sonerformat. Nebenstehen Beispiele

Mehr

Halbleiter. Differenzieller Widerstand

Halbleiter. Differenzieller Widerstand Scnces Cologne Dipl.-ng. (FH) Dipl.-Wirt. ng. (FH) G. Danlak Differenzller Wierstan DW- Stan: 9.3.6; m Steigung einer Funktion in einem Punkt x zu ermitteln, bestimmt man ihren Differenzialuotnten. Das

Mehr

Inductive Logic Programming Relational Data Mining

Inductive Logic Programming Relational Data Mining Hauptseminar Machine Learning Inductive Logic Programming Relational Data Mining Christoph Petzinger WS 2003/2004 Inhaltsverzeichnis 1 Relational Data Mining 3 2 Inductive Logic Programming 4 2.1 Prädikatenlogik.................................

Mehr

Kapitel ML: III. III. Entscheidungsbäume. Repräsentation und Konstruktion Impurity-Funktionen Entscheidungsbaumalgorithmen Pruning

Kapitel ML: III. III. Entscheidungsbäume. Repräsentation und Konstruktion Impurity-Funktionen Entscheidungsbaumalgorithmen Pruning Kapitel ML: III III. Entscheidungsbäume Repräsentation und Konstruktion Impurity-Funktionen Entscheidungsbaumalgorithmen Pruning ML: III-1 Decision Trees c STEIN/LETTMANN 2005-2011 Spezifikation von Klassifikationsproblemen

Mehr

CC80. Engineering Test Report. Test Date: 17. März 2005 Test Engineer: Michael Conrad

CC80. Engineering Test Report. Test Date: 17. März 2005 Test Engineer: Michael Conrad CC80 Engineering Test Report Test Date: 17. März 2005 Test Engineer: Michael Conra INHALTSVERZEICHNIS Einführung 3 THD bei +6 u 4 THD bei 0 u 5 THD bei -6 u 6 Rauschen un IGM 7 Rauschen bei CI-D/A-Wanler

Mehr

fuzzy-entscheidungsbäume

fuzzy-entscheidungsbäume fuzzy-entscheidungsbäume klassische Entscheidungsbaumverfahren fuzzy Entscheidungsbaumverfahren Entscheidungsbäume Was ist ein guter Mietwagen für einen Familienurlaub auf Kreta? 27. März 23 Sebastian

Mehr

6 Lineare Kongruenzen

6 Lineare Kongruenzen 6 Lineare Kongruenzen Sei m > 0 un a, b beliebig. Wir wollen ie Frage untersuchen, unter welchen Beingungen an a, b un m eine Zahl x 0 existiert, so aß ax 0 b mo m. Wenn ein solches x 0 existiert, sagen

Mehr

Erstes Mathe-Tutorium am Themen können gewählt werden unter:

Erstes Mathe-Tutorium am Themen können gewählt werden unter: Mathe-Tutorium Erstes Mathe-Tutorium am 07.05. Themen können gewählt werden unter: https://docs.google.com/forms/d/1lyfgke7skvql cgzspjt4mkirnrgnrfpkkn3j2vqos/iewform 1 Uniersität Potsdam Institut für

Mehr

Kapitel 4: Data Mining DATABASE SYSTEMS GROUP. Überblick. 4.1 Einleitung. 4.2 Clustering. 4.3 Klassifikation

Kapitel 4: Data Mining DATABASE SYSTEMS GROUP. Überblick. 4.1 Einleitung. 4.2 Clustering. 4.3 Klassifikation Überblick 4.1 Einleitung 4.2 Clustering 4.3 Klassifikation 1 Klassifikationsproblem Gegeben: eine Menge O D von Objekten o = (o 1,..., o d ) O mit Attributen A i, 1 i d eine Menge von Klassen C = {c 1,...,c

Mehr

1 Lokale Umkehrbarkeit und implizite Funktionen

1 Lokale Umkehrbarkeit und implizite Funktionen Christina Schinler Karolina Stoiber Ferienkurs Analysis 2 für Physiker SS 2013 A 1 Lokale Umkehrbarkeit un implizite Funktionen In iesem Kapitel weren Kriterien vorgestellt, wann eine Funktion umkehrbar

Mehr

Lösungen für Klausur A

Lösungen für Klausur A Lösungen für Klausur A Aufgabe Skizze es Zelts im Querschnitt: h. (a) Aus sin folgt cos un aher h tan, also h. (b) Aus 9 4 4 folgt urch Wurzelziehen. Einsetzen von m in ie Beziehung aus (a) liefert h 6

Mehr

mathphys-online Umkehrfunktionen Aufgabe 1 1 Gegeben ist die Funktion f mit f( x) 2 x 1 und x [ 0.5 ; 4 [.

mathphys-online Umkehrfunktionen Aufgabe 1 1 Gegeben ist die Funktion f mit f( x) 2 x 1 und x [ 0.5 ; 4 [. Umkehrfunktionen Aufgabe Gegeben ist ie Funktion f mit f( ) un [ 0. ; [. a) Bestimmen Sie ie Wertemenge un tragen Sie en Graphen von f in as Koorinatensystem ein. Kennzeichnen Sie Definitionsmenge (grün)

Mehr

DIE ABLEITUNG FRANZ LEMMERMEYER

DIE ABLEITUNG FRANZ LEMMERMEYER DIE ABLEITUNG FRANZ LEMMERMEYER Eine Gerae y mx+b hat in jeem Punkt ieselbe Steigung m. Bei einer Parabel y x 2 agegen änert sich ie Steigung von Punkt zu Punkt. Sin zwei Punkte P (x f(x)) un Q(u f(u))

Mehr

Kapitel VI. Wahrscheinlichkeitsbegriff. Wahrscheinlichkeitsbegriff. LF: VI Bayesian Learning c STEIN

Kapitel VI. Wahrscheinlichkeitsbegriff. Wahrscheinlichkeitsbegriff. LF: VI Bayesian Learning c STEIN Kapitel VI VI. Bayes sches Lernen Maximum-a-Posteriori-Hypothesen 1 Definition 18 (Zufallsexperiment, Zufallsbeobachtung) Ein Zufallsexperiment ist ein im Prinzip beliebig oft wiederholbarer Vorgang mit

Mehr

3.5 RL-Kreise und Impedanz

3.5 RL-Kreise und Impedanz 66 KAPITEL 3. ELEKTRISCHE SCHALTUNGEN 3.5 RL-Kreise un Impeanz Neues Element: Spule Spannung an einer Spule: V = L Q Selbstinuktivität (Einheit: Henry) [L] = 1 V s A Ursache für as Verhalten einer Spule:

Mehr

2.4. GAUSSSCHER SATZ π ε 0 r 2. π r 2)

2.4. GAUSSSCHER SATZ π ε 0 r 2. π r 2) 2.4. GAUSSSCHER SATZ 23 2.4 Gaußscher Satz Das Fel einer Punktlaung genügt er Gleichung: E = 1 4 π ε 0 Q r 2 Desweiteren berechnet sich ie Oberfläche einer Kugel, eren Punkte vom Mittelpunkt en Abstan

Mehr

Einführung in die Mechanik Teil 4: Kinematik (4)

Einführung in die Mechanik Teil 4: Kinematik (4) SERVICE NEWSLEER Ausgabe: / 5 Im letzten eil er Serie wure bereits ie Bereitstellung von Verzerrungstensoren angekünigt. Wie as Wort bereits impliziert muss ein Maß gefunen weren, as ie Deformation es

Mehr

Einführung in die Chaostheorie (Teil 1) Ac 2018

Einführung in die Chaostheorie (Teil 1) Ac 2018 Einführung in ie Chaostheorie (Teil 1) Ac 2018 Die sogenannte Chaostheorie befasst sich mit er Erforschung nichtlinearer ynamischer Systeme, ie chaotisches Verhalten zeigen können. Chaotisches Verhalten

Mehr

Musterlösung Serie 6

Musterlösung Serie 6 D-ITET Analysis III WS 3/4 Prof. Dr. H. Knörrer Musterlösung Serie 6. a) Mithilfe er Kettenregel berechnen wir u x = w ξ ξ x + w η η x u y = w ξ ξ y + w η η y u xx = w ξξ ξx 2 + 2w ξη ξ x η x + w ηη ηx

Mehr

7. Teile, und beherrsche den Rest

7. Teile, und beherrsche den Rest 7. Teile, un beherrsche en Rest 7.1. Division mit Rest Nicht alle natürlichen Zahlen sin urch 3 teilbar: Es lässt 17 en Rest 2 [17 = 5 3+2] 18 geht auf 1 lässt Rest 1 20 lässt Rest 2 21 geht auf 22 lässt

Mehr

Entscheidungsbaum-Lernen. im Proseminar Maschinelles Lernen

Entscheidungsbaum-Lernen. im Proseminar Maschinelles Lernen Entscheidungsbaum-Lernen im Proseminar Maschinelles Lernen Wintersemester 2003/2004 2. Dezember 2003 Gliederung: 1 Einleitung 1.1 Was sind Entscheidungsbäume? 1.2 Was ist Entscheidungsbaumlernen ( Decision

Mehr

Druckverluste in thermostatischen Heizkörperventilen

Druckverluste in thermostatischen Heizkörperventilen Drucverluste in thermostatischen Heizörerventilen Allgemeines: in Thermostatventil muss zwei eventuell bis zu vier Aufgaben erfüllen: 1. Abserrung es Heizörers,. Regelung er Raumtemeratur urch Drosselung

Mehr

4 Induktion von Regeln

4 Induktion von Regeln 4 Induktion von egeln Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- aare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden. Ein Entscheidungsbaum liefert eine Entscheidung

Mehr

Effizienz von Algorithmen

Effizienz von Algorithmen Effizienz von Algorithmen Letzte Bearbeitung: Jan 211 Ein wichtiger Aspekt bei Algorithmen sind seine "Kosten". Wir wollen uns hier ausschließlich mit der Laufzeit des gewählten Algorithmus beschäftigen.

Mehr

Technische Universität Berlin Wintersemester 2010/11. Allgemeine Volkswirtschaftslehre 2 - Makroökonomie Wiederholung mathematischer Grundlagen

Technische Universität Berlin Wintersemester 2010/11. Allgemeine Volkswirtschaftslehre 2 - Makroökonomie Wiederholung mathematischer Grundlagen Prof. Dr. Frank Heinemann Technische Universität Berlin Wintersemester 2010/11 Allgemeine Volkswirtschaftslehre 2 - Makroökonomie Wieerholung mathematischer Grunlagen Dieses Übungsblatt enthält keine abzugebenen

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN. Vektorräume: Basen und lineare Unabhängigkeit

TECHNISCHE UNIVERSITÄT MÜNCHEN. Vektorräume: Basen und lineare Unabhängigkeit TECHNISCHE UNIERSITÄT MÜNCHEN Zentrum Mathematik Prof. Dr. Frierich Roesler Ralf Franken, PhD Max Lein Lineare Algebra WS 26/7 en Blatt 8.2.26 ektorräume: Basen un lineare Unabhängigkeit Zentralübungsaufgaben

Mehr