Beispiellösungen DM. Prof. Dr. Jürgen Cleve. Das Beispiel zum Support und der Kondenz

Größe: px
Ab Seite anzeigen:

Download "Beispiellösungen DM. Prof. Dr. Jürgen Cleve. Das Beispiel zum Support und der Kondenz"

Transkript

1 Beispiellösungen DM Prof. Dr. Jürgen Cleve Inhaltsverzeichnis 1 Einführung 1 Grundlagen 1 Anwendungsklassen 1 4 Wissensrepräsentation 1 Methoden und Verfahren 6 Vorverarbeitung 9 7 Bewertung 9 Im folgenden sind einige ausgewählte Lösungen dargestellt. 1 Einführung Grundlagen Anwendungsklassen 4 Wissensrepräsentation Das Beispiel zum Support und der Kondenz Man vgl. dazu das Skript. Wie hoch ist der Support und die Kondenz der Regel IF temperature = cool T HEN humidity = normal supp(temperature = cool humidity = normal) = P (A B) = 4 Erläuterung: In 4 Fällen ist die Temperatur cool UND die Luftfeuchtigkeit normal. Dies setzt man in's Verhältnis zur gesamten Menge (). supp(temperature = cool) = P (A) = 4 1

2 Achtung: Hier ist ein Fehler im Skript. Es darf nur P (A) heiÿen!!! In 4 Fällen ist die Temperatur cool. Dies setzt man in's Verhältnis zur gesamten Menge (). Und die Kondenz ist dann einfach der Quotient aus den beiden Support-Werten: conf(a B) = supp(a B) supp(a) = 4 4 = 1 Die Regel ist also absolut sicher, sie hat allerdings nur einen Support von 7. Der Support ist also der Quotient aus A UND B treen beide zu und A trit zu. Methoden und Verfahren Aufgabe Restaurant knn Hier sollen Sie das Restaurantbeispiel mit knn rechnen. Dazu muss man sich zunächst überlegen, welche Distanzfunktion man verwenden will. Danach muss man nur die Distanz der zu klassizierenden Sätze zu jedem der Sätze aus der Tabelle bestimmen. Man bestimmt dann die k Sätze, die dem zu testenden Satz am nächsten liegen. Und dort zählt man, wie oft man warten soll bzw. nicht. ID-Beispiel Kreditrisiko ausführlich Seien die in Abbildung 1 dargestellten Daten zur Bewertung des Kreditrisikos gegeben. Nr Risiko Kredit- Verschuldung Sicherheiten Einkommen würdigkeit 1 hoch schlecht hoch keine 0 bis 1 hoch unbekannt hoch keine 1 bis mittel unbekannt niedrig keine 1 bis 4 hoch unbekannt niedrig keine 0 bis 1 niedrig unbekannt niedrig keine über 6 niedrig unbekannt niedrig angemessen über 7 hoch schlecht niedrig keine 0 bis 1 8 mittel schlecht niedrig angemessen über 9 niedrig gut niedrig keine über 10 niedrig gut hoch angemessen über 11 hoch gut hoch keine 0 bis 1 1 mittel gut hoch keine 1 bis 1 niedrig gut hoch keine über hoch schlecht hoch keine 1 bis Abbildung 1: Kreditwürdigkeit Der Informationsgehalt eines Attributs B wird gemessen als: I(B) = p(b i ) log (p(b i )) Dabei stellen die b i die möglichen Werte des Attributs B dar.

3 p ist die Wahrscheinlichkeit für das Eintreen von b i. Wie groÿ ist der Informationsgehalt der Tabelle in Abb. 1, S.? p(risiko hoch) = 6 p(risiko mittel) = p(risiko niedrig) = Folglich ist I(Tabelle) = I(Risiko) = 6 log ( 6 ) log ( ) log ( ) = 1, 1 Nun wählt man das Attribut aus, das den maximalen Informationsgewinn erzielt. d.h. man berechnet die Dierenz aus I(Tabelle) und der Information, die sich unter Beachtung der nächsten Ebene ergibt. Sei eine Beispielmenge E gegeben. Wählt man nun z.b. das Attribut B mit n Werten aus, so wird E in n Teilmengen zerlegt: {E 1,..., E n }. Nachdem B als Wurzel des Baumes festgesetzt wurde, ist die zur Fertigstellung des Baumes voraussichtlich erforderliche Informationsmenge: G(B) = E I(E i) Der Gewinn an Information wird dann berechnet als: gewinn(b) = I(E) G(B) Es gilt, gewinn zu maximieren. Dazu geht man alle Attribute durch und wählt jenes aus, das den maximalen Gewinn darstellt. Zunächst wählen wir Kreditwürdigkeit als Attribut. Kreditwürdigkeit hat Ausprägungen: unbekannt, schlecht, gut. Für jeden dieser Werte zählen wir, wie oft welches Risiko vorkommt: Es ergibt sich: Wert hohes Risiko mittleres Risiko niedriges Risiko unbekannt 1 schlecht 1 0 gut 1 1 I(Kreditwürdigkeit_unbekannt) = log ( ) 1 log ( 1 ) log ( ) = 1, I(Kreditwürdigkeit_schlecht) = 4 log ( 4 ) 1 4 log ( 1 ) = 0, 81 4 I(Kreditwürdigkeit_gut) = 1 log ( 1 ) 1 log ( 1 ) log ( ) = 1.7 G(kreditwuerdigkeit) = E I(E i) = 1, + 4 0, = 1, 6 Nun wählen wir Sicherheiten als Attribut. Sicherheiten hat Ausprägungen: keine, angemessen. Für jeden dieser Werte zählen wir, wie oft welches Risiko vorkommt:

4 Es ergibt sich: Wert hohes Risiko mittleres Risiko niedriges Risiko keine 6 angemessen 0 1 I(Sicherheiten_keine) = 6 11 log ( 6 11 ) 11 log ( 11 ) 11 log ( ) = 1, 4 11 I(Sicherheiten_angemessen) = 1 log ( 1 ) log ( ) = 0, 9 G(sicherheiten) = E I(E i) = 11 1, 4 + 0, 9 = 1, Nun wählen wir Verschuldung als Attribut. Verschuldung hat Ausprägungen: hoch, niedrig. Für jeden dieser Werte zählen wir, wie oft welches Risiko vorkommt: Es ergibt sich: Wert hohes Risiko mittleres Risiko niedriges Risiko hoch 4 1 niedrig I(Verschuldung_hoch) = 4 7 log ( 4 7 ) 1 7 log ( 1 7 ) 7 log ( ) = 1, 8 7 I(Verschuldung_niedrig) = 7 log ( 7 ) 7 log ( 7 ) 7 log ( ) = 1, 6 7 G(verschuldung) = E I(E i) = 7 1, , 6 = 1, 47 Nun wählen wir Einkommen als Attribut. Verschuldung hat Ausprägungen: U1, 1-, Ü. Für jeden dieser Werte zählen wir, wie oft welches Risiko vorkommt: Es ergibt sich: Wert hohes Risiko mittleres Risiko niedriges Risiko U Ü 0 1 I(Einkommen_u1) = 4 4 log ( 4 4 ) = 0 I(Einkommen_1-) = 4 log ( 4 ) 4 log ( 4 ) = 1 Damit ergibt sich: I(Einkommen_Ü) = 1 6 log ( 1 6 ) 6 log ( ) = 0, 6 6 G(einkommen) = E I(E i) = , 6 = 0, 6 4

5 gewinn(einkommen) = 1, 1 0, 64 = 0, 967 gewinn(kreditwuerdigkeit) = 1, = 0, 66 gewinn(verschuldung) = 1, 1 1, 468 = 0, 06 gewinn(sicherheiten) = 1, 1 1, = 0, 06 Man wählt nun einkommen als obersten Knoten und setzt das Verfahren für jeden Teilbaum rekursiv fort. Aufgabe Golfspiel ID Entwickeln Sie einen Entscheidungsbaum mittels ID. Aufgabe Restaurant mit ID Die Tabelle in Abb. enthält 1 Datensätze mit diesen Attributen: Alternative: Gibt es in der Nähe ein geeignetes anderes Restaurant? (ja/nein) Fr/Sa: Ist Freitag oder Samstag? (ja/nein) Hungrig: Bin ich hungrig? (ja/nein) Gäste: Wieviele Leute sind im Restaurant? (keine/einig/voll) Reservierung: Habe ich reserviert? (ja/nein) Typ: Um welche Art von Restaurant handelt es sich? (Franz./Chin./Ital./Burger) Wartezeit: Welche voraussichtliche Wartezeit wird vom Restaurant geschätzt? (0-10/10-0/0-60/>60) Warten (Zielprädikat): Warte ich, wenn alle Tische besetzt sind? (ja/nein) Alt. Fr/Sa Hung. Gäste Reserv. Typ Zeit Warten ja nein ja einige ja Franz ja ja nein ja voll nein Chin nein nein nein nein einige nein Burger 0-10 ja ja ja ja voll nein Chin ja ja ja nein voll ja Franz. >60 nein nein nein ja einige ja Ital ja nein nein nein keine nein Burger 0-10 nein nein nein ja einige ja Chin ja nein ja nein voll nein Burger >60 nein ja ja ja voll ja Ital nein nein nein nein keine nein Chin nein ja ja ja voll nein Burger 0-60 ja Abbildung : Daten Restaurant Generieren Sie einen Entscheidungsbaum und klassizieren Sie nachfolgende Datensätze.

6 Alt. Fr/Sa Hung. Gäste Reserv. Typ Zeit Warten ja nein ja einige nein Franz ja ja ja voll ja Chin nein nein nein keine nein Burger 0-10 Der Informationsgehalt eines Attributs B wird gemessen als: I(B) = p(b i ) log (p(b i )) Dabei stellen die b i die möglichen Werte des Attributs B dar. p ist die Wahrscheinlichkeit für das Eintreen von b i. Wie groÿ ist der Informationsgehalt der Tabelle in Abb., S.? p(warten ja) = 6 1 p(warten nein) = 6 1 Folglich ist I(Tabelle) = I(Risiko) = 6 log 1 ( 6 ) 6 log 1 1 ( 6 ) = 1 1 Nun wählt man das Attribut aus, das den maximalen Informationsgewinn erzielt. d.h. man berechnet die Dierenz aus I(Tabelle) und der Information, die sich unter Beachtung der nächsten Ebene ergibt. Sei eine Beispielmenge E gegeben. Wählt man nun z.b. das Attribut B mit n Werten aus, so wird E in n Teilmengen zerlegt: {E 1,..., E n }. Nachdem B als Wurzel des Baumes festgesetzt wurde, ist die zur Fertigstellung des Baumes voraussichtlich erforderliche Informationsmenge: G(B) = E I(E i) Der Gewinn an Information wird dann berechnet als: gewinn(b) = I(E) G(B) Es gilt, gewinn zu maximieren. Dazu geht man alle Attribute durch und wählt jenes aus, das den maximalen Gewinn darstellt. Zunächst wählen wir Alt als Attribut. Kreditwürdigkeit hat Ausprägungen: ja, nein. Für jeden dieser Werte zählen wir, wie oft welches Risiko vorkommt: Es ergibt sich: Wert warten nicht warten ja nein I(Alt_ja) = 6 log ( 6 ) 6 log ( 6 ) = 1 I(Alt_nein) = 6 log ( 6 ) 6 log ( 6 ) = 1 Analog ergibt sich für G(Alt) = E I(E i) = = 1 6

7 Fr/Sa 0,98 Hungrig 0,804 Gäste 0,49 Reserviert 0,98 Typ 1 Zeit 0,79 Damit ergibt sich: gewinn(alt) = 1 1 = 0 gewinn(fr/sa) = 1 0, 98 = 0, 0 gewinn(hungrig) = 1 0, 804 = 0, 196 gewinn(gäste) = 1 0, 49 = 0, 41 gewinn(reserviert) = 1 0, 98 = 0, 0 gewinn(typ) = 1 1 = 0 gewinn(zeit) = 1 0, 79 = 0, 1 Man wählt nun Gäste als obersten Knoten und setzt das Verfahren für jeden Teilbaum rekursiv fort. Wir betrachten zunächst den Teilbaum für Gäste = voll. Es kommen nur noch folgende Datensätze in Betracht: Alt. Fr/Sa Hung. Gäste Reserv. Typ Zeit Warten ja nein ja voll nein Chin nein ja ja ja voll nein Chin ja ja ja nein voll ja Franz. >60 nein nein ja nein voll nein Burger >60 nein ja ja ja voll ja Ital nein ja ja ja voll nein Burger 0-60 ja Nun startet das Ganze für diesen Teilbaum Gäste = voll erneut. Man erhält: gewinn(alt) = 0, 9 0, 81 = 0, 11 gewinn(fr/sa) = 0, 9 0, 81 = 0, 11 gewinn(hungrig) = 0, 9 0, 67 = 0, gewinn(reserviert) = 0, 9 0, 67 = 0, gewinn(typ) = 0, 9 0, 67 = 0, gewinn(zeit) = 0, 9 0, 67 = 0, Man wählt nun Hungrig als obersten Knoten (das am weitesten links in der Tabelle stehende Attribut, welches 0, liefert) und setzt das Verfahren für jeden Teilbaum rekursiv fort. Die anderen Teilbäume für Gäste liefern direkt eine Klasse. 7

8 Ausfuhr-Beispiel Berechnen Sie aus den nachfolgend gegebenen Daten die durchschnittliche jährliche Änderung der Ausfuhr der BRD für die Periode 1980/81. Folgende Entwicklung der Ausfuhr der BRD (jeweils gegenüber dem Vorjahr) wurde beobachtet: Periode /74 74/7 7/76 76/77 77/78 78/79 79/80 Ausfuhränderung +9 % -4 % +16 % +7 % +4 % +10 % +11 % Lösungsansatz: y = a x + b (y... Ausfuhränderung, x... Jahr) error = (y i ŷ i ) min. Wir numerieren die Jahre 7 bis 79 einfach von bis 9 (zur Vereinfachung). Wir müssen also die Summe: (a + b 9) + (a 4 + b + 4) + (a + b 16) + (a 6 + b 7) + +(a 7 + b 4) + (a 8 + b 10) + (a 9 + b 11) minimieren. a und b können wir frei wählen. Entweder rechnen Sie das in Excel, oder wir leiten uns die Lösung her: Die Summe muss minimiert werden, also muss die 1. Ableitung (sowohl nach a als auch nach b) Null werden. Die erste Ableitung nach a ist: Rechnet man dies aus, kommt man auf: Die erste Ableitung nach b ist: Rechnet man dies aus, kommt man auf: 9 (a x + b y x ) x = 0 x= 60 a + 84 b 800 = 0 (1) 9 (a x + b y x ) = 0 x= 84 a + b 6 = 0 () Stellt man die erste Gleichung nach b um, kommt man auf: b = Dies setzt man in die. Gleichung ein: ( a) 84 und erhält: 84 a + 84 a + ( a) 84 ( a) 6 6 = 0 6 = 0 8

9 ( a) 84 a + 6 = 0 84 a + ( a) 6 = 0 84 a 80 a = a = 8 a = 19 Dies setzt man nun in die. Gleichung (s.o.) ein und erhält: b 6 = 0 b = = = 60 b = 60 = 10 7 Damit erhält man: a = und b = 7 Folglich ergibt sich für x = 10: y = = =. Wer wohnt wo? Seien folgende Datensätze gegeben (a=angest., s=selbst., v=verh., l=ledig, M=Miete, E=Eigentum) Beruf a a a a s s s s Fam.st. v l v v l l v v Kinder j n n j j n j n Wohnung M E M E E M E E Wo lebt ein lediger Angestellter mit Kindern? Beruf Fam.st. Kinder rel. Häuf. a s v l j n M E L[Miete](angest, ledig, kinder) = / 1/ 1/ /8 = 6/ L[Eigen](angest, ledig, kinder) = / / / /8 = 60/ P [M iete](angest, ledig, kinder) = /( ) = 0.16 P [Eigen](angest, ledig, kinder) = 0.06/(( ) = Vorverarbeitung 7 Bewertung

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

2. Lernen von Entscheidungsbäumen

2. Lernen von Entscheidungsbäumen 2. Lernen von Entscheidungsbäumen Entscheidungsbäume 2. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Data Mining und Text Mining Einführung. S2 Einfache Regellerner

Data Mining und Text Mining Einführung. S2 Einfache Regellerner Data Mining und Text Mining Einführung S2 Einfache Regellerner Hans Hermann Weber Univ. Erlangen, Informatik 8 Wintersemester 2003 hans.hermann.weber@gmx.de Inhalt Einiges über Regeln und Bäume R1 ein

Mehr

4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum

4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum 4. Lernen von Entscheidungsbäumen Klassifikation mit Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch /Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden.

Mehr

Maschinelles Lernen. Kapitel 5

Maschinelles Lernen. Kapitel 5 Kapitel 5 Maschinelles Lernen Im täglichen Leben begegnet uns das Lernen meist in einer Mischung aus den Aspekten der Vergrößerung von Wissen und der Verbesserung von Fähigkeiten. Beim Erlernen einer Fremdsprache

Mehr

Übungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014

Übungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014 Übungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014 Aufgabe 1. Data Mining a) Mit welchen Aufgabenstellungen befasst sich Data Mining? b) Was versteht man unter Transparenz einer Wissensrepräsentation?

Mehr

Infos. Inhaltsverzeichnis. Einführung

Infos. Inhaltsverzeichnis. Einführung Wissensextraktion Prof. Dr. Jürgen Cleve / Prof. Dr. Uwe Lämmel Infos Lehrveranstaltungen 2 V + 2 Ü, geteilt: Prüfung Prof. Lämmel: NN Prof. Cleve: Klassische Verfahren Projekt und MP 30min Skript, Folien,

Mehr

Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme

Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume von Lars-Peter Meyer im Seminar Methoden wissensbasierter Systeme bei Prof. Brewka im WS 2007/08 Übersicht Überblick maschinelles Lernen

Mehr

Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining

Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining Gliederung 1. Einführung 2. Grundlagen Data Mining Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining 3. Ausgewählte Methoden des Data

Mehr

EndTermTest PROGALGO WS1516 A

EndTermTest PROGALGO WS1516 A EndTermTest PROGALGO WS1516 A 14.1.2016 Name:................. UID:.................. PC-Nr:................ Beachten Sie: Lesen Sie erst die Angaben aufmerksam, genau und vollständig. Die Verwendung von

Mehr

3. Lernen von Entscheidungsbäumen

3. Lernen von Entscheidungsbäumen 3. Lernen von Entscheidungsbäumen Entscheidungsbäume 3. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Mathematik 1. Inhaltsverzeichnis. Prof. Dr. K. Melzer. karin.melzer@hs-esslingen.de http://www.hs-esslingen.de/de/mitarbeiter/karin-melzer.

Mathematik 1. Inhaltsverzeichnis. Prof. Dr. K. Melzer. karin.melzer@hs-esslingen.de http://www.hs-esslingen.de/de/mitarbeiter/karin-melzer. Mathematik 1 Prof Dr K Melzer karinmelzer@hs-esslingende http://wwwhs-esslingende/de/mitarbeiter/karin-melzerhtml Inhaltsverzeichnis 1 Finanzmathematik 1 11 Folgen und Reihen 1 111 Folgen allgemein 1 112

Mehr

Fehlerrechnung. Einführung. Jede Messung ist fehlerbehaftet! Ursachen:

Fehlerrechnung. Einführung. Jede Messung ist fehlerbehaftet! Ursachen: Fehlerrechnung Einführung Jede Messung ist fehlerbehaftet! Ursachen: Ablesefehler (Parallaxe, Reaktionszeit) begrenzte Genauigkeit der Messgeräte falsche Kalibrierung/Eichung der Messgeräte Digitalisierungs-Fehler

Mehr

5 Zwei spieltheoretische Aspekte

5 Zwei spieltheoretische Aspekte 5 Zwei spieltheoretische Aspekte In diesem Kapitel wollen wir uns mit dem algorithmischen Problem beschäftigen, sogenannte Und-Oder-Bäume (kurz UOB) auszuwerten. Sie sind ein Spezialfall von Spielbäumen,

Mehr

Formeln und Aufgaben über arithmetische und geometrische Reihen

Formeln und Aufgaben über arithmetische und geometrische Reihen Formeln und Aufgaben über arithmetische und geometrische Reihen Dietrich Baumgarten «17. Januar 014 Inhaltsverzeichnis 1 Arithmetische und geometrische Folgen 1 1.1 Zusammenfassung...............................

Mehr

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen 5.1 Lernen mit Entscheidungsbäumen Falls zum Beispiel A = {gelb, rot, blau} R 2 und B = {0, 1}, so definiert der folgende Entscheidungsbaum eine Hypothese H : A B (wobei der Attributvektor aus A mit x

Mehr

Randomisierte Algorithmen 2. Erste Beispiele

Randomisierte Algorithmen 2. Erste Beispiele Randomisierte Algorithmen Randomisierte Algorithmen 2. Erste Beispiele Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2016/2017 1 / 35 Randomisierter Identitätstest

Mehr

Chapter 1 : þÿ b e t a t h o m e m o b i l e A p p f ü r W i n d o w s c h a p t e r

Chapter 1 : þÿ b e t a t h o m e m o b i l e A p p f ü r W i n d o w s c h a p t e r Chapter 1 : þÿ b e t a t h o m e m o b i l e A p p f ü r W i n d o w s c h a p t e r þÿ 3 0. J u n i 2 0 0 9 b e t - a t - h o m e - Q u a r t a l s ü b e r s c h u s s b e i 1, 6 M i o. E u r o P f i

Mehr

Chapter 1 : þÿ o m b e t a t h o m e c h a p t e r

Chapter 1 : þÿ o m b e t a t h o m e c h a p t e r Chapter 1 : þÿ o m b e t a t h o m e c h a p t e r þÿ 2 1 : 0 0. N i g e r i a. D e u t s c h l a n d. N i g e r i a - D e u t s c h l a n d. 3 - W e g. 1 3. 5 0. [ u r l = h t t p : / / w w w. b u k m

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Additive Modelle Katharina Morik Informatik LS 8 Technische Universität Dortmund 7.1.2014 1 von 34 Gliederung 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung 2 von 34 Ausgangspunkt:

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick

Mehr

Grundwissen Mathematik Klasse 8

Grundwissen Mathematik Klasse 8 Grundwissen Mathematik Klasse 8 1. Funktionen allgemein (Mathehelfer 2: S.47) Erstellen einer Wertetabelle bei gegebener Funktionsgleichung Zeichnen des Funktionsgraphen Ablesen von Wertepaaren ( x / f(x)

Mehr

Anpassungstests VORGEHENSWEISE

Anpassungstests VORGEHENSWEISE Anpassungstests Anpassungstests prüfen, wie sehr sich ein bestimmter Datensatz einer erwarteten Verteilung anpasst bzw. von dieser abweicht. Nach der Erläuterung der Funktionsweise sind je ein Beispiel

Mehr

Repetitorium Mathe 1

Repetitorium Mathe 1 Übungsaufgaben Skript Repetitorium Mathe 1 WS 2014/15 25./26.01. und 31.01./01.02.2015 Inhaltsverzeichnis 1 Bruchrechnung 2 2 Zahlsysteme 2 3 Arithmetisches und geometrisches Mittel 2 4 Wachstum 2 5 Lineare

Mehr

Datenstrukturen & Algorithmen Lösungen zu Blatt 6 FS 14

Datenstrukturen & Algorithmen Lösungen zu Blatt 6 FS 14 Eidgenössische Technische Hochschule Zürich Ecole polytechnique fédérale de Zurich Politecnico federale di Zurigo Federal Institute of Technology at Zurich Institut für Theoretische Informatik 2. April

Mehr

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002)

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) 3. Entscheidungsbäume Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) (aus Wilhelm 2001) Beispiel: (aus Böhm 2003) Wann sind Entscheidungsbäume

Mehr

Logarithmen. Gesetzmäßigkeiten

Logarithmen. Gesetzmäßigkeiten Logarithmen Gesetzmäßigkeiten Einführung Als erstes muss geklärt werden, für was ein Logarithmus gebraucht wird. Dazu sollte folgendes einführendes Beispiel gemacht werden. Beispiel 1: 2 x = 8 Wie an diesem

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Maschinelles Lernen II: Klassifikation mit Entscheidungsbäumen Vera Demberg Universität des Saarlandes 12. Juli 2012 Vera Demberg (UdS) Mathe III 12. Juli 2012 1 / 38 Einleitung

Mehr

(d) 1,5 1, 02 2x 1 = x x = 2

(d) 1,5 1, 02 2x 1 = x x = 2 KLASSENARBEIT MATHEMATIK G9A 14.03.013 Aufgabe 1 3 4 5 Punkte (max) 11 4 4 4 3 Punkte (1) Löse folgende Gleichungen. (a) x 3 5x + x = 0 (b) 4x 4 + 11x 3 = 0 (c) 1 x = 1 7 (e) (x + 17)(x 16) = 0 (f) (d)

Mehr

Chapter 1 : þÿ b e t a t h o m e V o l l v e r s i o n c h a p t e r

Chapter 1 : þÿ b e t a t h o m e V o l l v e r s i o n c h a p t e r Chapter 1 : þÿ b e t a t h o m e V o l l v e r s i o n c h a p t e r þÿ b e e n u s e l e s s a t r e m e m b e r i n g t o g e t a l o t t e r y t i c k e t o n t h e w a y h o m e, s o t h i s h a s.

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Gliederung Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung.6.015 1 von 33 von 33 Ausgangspunkt: Funktionsapproximation Aufteilen der

Mehr

Chapter 1 : þÿ b e t a t h o m e m a x W e t t e H ä n d l e r c h a p t e r

Chapter 1 : þÿ b e t a t h o m e m a x W e t t e H ä n d l e r c h a p t e r Chapter 1 : þÿ b e t a t h o m e m a x W e t t e H ä n d l e r c h a p t e r þÿ d a s. E i n L e b e n i m S c h a t t e n d e s S u i z i d s & m i d d o t ; K o p i e v o n T h e a t e r d e r & n b

Mehr

VU Testtheorie und Testkonstruktion WS 08/09; Lengenfelder, Fritz, Moser, Kogler

VU Testtheorie und Testkonstruktion WS 08/09; Lengenfelder, Fritz, Moser, Kogler VU Testtheorie und Testkonstruktion WS 08/09; Lengenfelder, Fritz, Moser, Kogler Hausübung In der Übung Übungsblatt 06 1. Gegeben: Skala zur Messung der Gesundheitssorge mit 20 Items (dichotomes Antwortformat).

Mehr

Folge 19 - Bäume. 19.1 Binärbäume - Allgemeines. Grundlagen: Ulrich Helmich: Informatik 2 mit BlueJ - Ein Kurs für die Stufe 12

Folge 19 - Bäume. 19.1 Binärbäume - Allgemeines. Grundlagen: Ulrich Helmich: Informatik 2 mit BlueJ - Ein Kurs für die Stufe 12 Grundlagen: Folge 19 - Bäume 19.1 Binärbäume - Allgemeines Unter Bäumen versteht man in der Informatik Datenstrukturen, bei denen jedes Element mindestens zwei Nachfolger hat. Bereits in der Folge 17 haben

Mehr

Lösungen zu den Übungsaufgaben aus Kapitel 3

Lösungen zu den Übungsaufgaben aus Kapitel 3 Lösungen zu den Übungsaufgaben aus Kapitel 3 Ü3.1: a) Die Start-Buchungslimits betragen b 1 = 25, b 2 = 20 und b 3 = 10. In der folgenden Tabelle sind jeweils die Annahmen ( ) und Ablehnungen ( ) der Anfragen

Mehr

Statistik-Klausur vom

Statistik-Klausur vom Statistik-Klausur vom 27.09.2010 Bearbeitungszeit: 60 Minuten Aufgabe 1 Ein international tätiges Unternehmen mit mehreren Niederlassungen in Deutschland und dem übrigen Europa hat seine überfälligen Forderungen

Mehr

Übungsblatt 4. t = 1 t = 2 t = 3 t = 4 Zahlungen Projekt A e. Sie stellt einen Spezialfall der Kapitalwertmethode dar.

Übungsblatt 4. t = 1 t = 2 t = 3 t = 4 Zahlungen Projekt A e. Sie stellt einen Spezialfall der Kapitalwertmethode dar. Aufgaben Kapitel 4: Investitionsrechnung (Grundlagen, Kapitalwertmethode, Annuitätenmethode) 1. Zu den statischen Investitionsrechenverfahren gehören a. der statische Renditevergleich b. die Rentabilitätsrechnung

Mehr

Tabellenkalkulation Excel

Tabellenkalkulation Excel Tabellenkalkulation Excel Teil 7.2 Rechnen mit Bezügen Wichtige Funktionen 1 von 13 Inhaltsverzeichnis 3... Eingabe von Daten in Excel! 4... Wie berechnet man die Ersparnis? 5... Wie berechnet man die

Mehr

Konzepte der AI: Maschinelles Lernen

Konzepte der AI: Maschinelles Lernen Konzepte der AI: Maschinelles Lernen Nysret Musliu, Wolfgang Slany Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme, TU-Wien Übersicht Was ist Lernen? Wozu maschinelles

Mehr

Kapiteltests zum Leitprogramm Binäre Suchbäume

Kapiteltests zum Leitprogramm Binäre Suchbäume Kapiteltests zum Leitprogramm Binäre Suchbäume Björn Steffen Timur Erdag überarbeitet von Christina Class Binäre Suchbäume Kapiteltests für das ETH-Leitprogramm Adressaten und Institutionen Das Leitprogramm

Mehr

Zwei einfache Kennzahlen für große Engagements

Zwei einfache Kennzahlen für große Engagements Klecksen nicht klotzen Zwei einfache Risikokennzahlen für große Engagements Dominik Zeillinger, Hypo Tirol Bank Die meisten Banken besitzen Engagements, die wesentlich größer sind als der Durchschnitt

Mehr

Einführung in die Methoden der Künstlichen Intelligenz. Maschinelles Lernen

Einführung in die Methoden der Künstlichen Intelligenz. Maschinelles Lernen Einführung in die Methoden der Künstlichen Intelligenz Maschinelles Lernen Dr. David Sabel WS 2012/13 Stand der Folien: 14. Februar 2013 Einführung Direkte Programmierung eines intelligenten Agenten nicht

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume

Mehr

MB2-ALG, SS15 Seite 1 Hauptklausur, geschrieben am

MB2-ALG, SS15 Seite 1 Hauptklausur, geschrieben am MB-ALG, SS1 Seite 1 Hauptklausur, geschrieben am.07.01 Vorname Nachname Matrikel-Nr Diese Klausur ist mein letzter Prüfungsversuch (bitte ankreuzen): Ja Nein Ihre Lösung für Aufgabe 1 können Sie direkt

Mehr

Wiederholung Vorlesungen 1 bis 8

Wiederholung Vorlesungen 1 bis 8 Wiederholung Vorlesungen 1 bis 8 Aufgabe 1 a) Sind die im Folgenden gegebenen Ausdrücke als Folge interpretierbar? Wenn ja, wie? i) 1,,4,8,16,3,64,..., ii)... 5, 3, 1,1,3,5,..., iii) 3,10,π,4, 1 7,10,1,14,16,18,...

Mehr

Klausur zur Vorlesung Spieltheorie

Klausur zur Vorlesung Spieltheorie Dr. Tone Arnold Sommersemester 2007 Klausur zur Vorlesung Spieltheorie Die Klausur besteht aus vier Vorfragen und drei Hauptfragen, von denen jeweils zwei zu bearbeiten sind. Sie haben für die Klausur

Mehr

Chapter 1 : þÿ b e t a t h o m e. p a r t y G r u p p e c h a p t e r

Chapter 1 : þÿ b e t a t h o m e. p a r t y G r u p p e c h a p t e r Chapter 1 : þÿ b e t a t h o m e. p a r t y G r u p p e c h a p t e r þÿ d e r A S K 2 1 f u n k t i o n i e r t n i c h t n i c h t, w e n n i c h d r i n s i t z e &. W i e d e r m a l d i e. 8. A p

Mehr

Bayessches Lernen Aufgaben

Bayessches Lernen Aufgaben Bayessches Lernen Aufgaben martin.loesch@kit.edu (0721) 608 45944 Aufgabe 1: Autodiebstahl-Beispiel Wie würde man ein NB-Klassifikator für folgenden Datensatz aufstellen? # Color Type Origin Stolen? 1

Mehr

Chapter 1 : þÿ p a y p a l b e t a t h o m e g e h t n i c h t c h a p t e r

Chapter 1 : þÿ p a y p a l b e t a t h o m e g e h t n i c h t c h a p t e r Chapter 1 : þÿ p a y p a l b e t a t h o m e g e h t n i c h t c h a p t e r þÿ a l s o k o s t e n l o s e s W e t t g u t h a b e n b e i s p i e l s w e i s e f ü r S p o r t w e t t e n, m i t d e

Mehr

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining.

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining. Motivation Themenblock: Klassifikation Praktikum: Data Warehousing und Data Mining Ziel Item hat mehrere Attribute Anhand von n Attributen wird (n+)-tes vorhergesagt. Zusätzliches Attribut erst später

Mehr

Kapitel : Andere dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete

Kapitel : Andere dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete Kapitel 4.8-4.11: Andere dynamische Datenstrukturen Algorithmen und Datenstrukturen WS 2012/13 Prof. Dr. Sándor Fekete 4.6 AVL-Bäume 4.8 Rot-Schwarz-Bäume Idee: Verwende Farben, um den Baum vertikal zu

Mehr

11.1 Grundlagen - Denitionen

11.1 Grundlagen - Denitionen 11 Binärbäume 11.1 Grundlagen - Denitionen Denition: Ein Baum ist eine Menge, die durch eine sog. Nachfolgerrelation strukturiert ist. In einem Baum gilt: (I) (II) 1 Knoten w ohne VATER(w), das ist die

Mehr

Aufgabe des Monats Mai

Aufgabe des Monats Mai Aufgabe des Monats Mai 2013 1 Ein Monopolist produziere mit folgender Kostenfunktion: K(x) = x 3 12x 2 + 60x + 98 und sehe sich der Nachfragefunktion (Preis-Absatz-Funktion) p(x) = 10, 5x + 120 gegenüber.

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.

Mehr

Vollständige Induktion

Vollständige Induktion Schweizer Mathematik-Olympiade smo osm Vollständige Induktion Aktualisiert: 1 Dezember 01 vers 100 Eine der wichtigsten Beweistechniken der Mathematik überhaupt ist die (vollständige) Induktion Wir nehmen

Mehr

Kombinatorik: Abzählverfahren (Teschl/Teschl 7) Summenregel. Allgemeiner

Kombinatorik: Abzählverfahren (Teschl/Teschl 7) Summenregel. Allgemeiner Kombinatorik: Abzählverfahren Teschl/Teschl 7 Fragestellung: Wie viele verschiedene Möglichkeiten gibt es, Elemente auszuwählen, z. B. Anzahl verschiedener möglicher Passwörter, IPAdressen, Zahlenkombinationen

Mehr

Beispiel 2 (Einige Aufgaben zu Lageparametern) Aufgabe 1 (Lageparameter)

Beispiel 2 (Einige Aufgaben zu Lageparametern) Aufgabe 1 (Lageparameter) Beispiel (Einige Aufgaben zu Lageparametern) Aufgabe 1 (Lageparameter) 1 Ein Statistiker ist zu früh zu einer Verabredung gekommen und vertreibt sich nun die Zeit damit, daß er die Anzahl X der Stockwerke

Mehr

2. Schulaufgabe aus der Mathematik Lösungshinweise

2. Schulaufgabe aus der Mathematik Lösungshinweise 2. Schulaufgabe aus der Mathematik Lösungshinweise Gruppe A (a) Bei dieser Aufgabe kann man die Umwandlung in eine Dezimalzahl vornehmen, indem man den Nenner auf 1000 erweitert: Aufgabe 1 3 8 = 3 125

Mehr

Multiplikation und Division - Division

Multiplikation und Division - Division Multiplikation und Division - Division Qualifizierungseinheit Multiplikation und Division Lernziele: Wenn Sie diese Qualifizierungseinheit bearbeitet haben, können Sie ganze Zahlen multiplizieren und dividieren

Mehr

Maschinelles Lernen Entscheidungsbäume

Maschinelles Lernen Entscheidungsbäume Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Paul Prasse Entscheidungsbäume Eine von vielen Anwendungen: Kreditrisiken Kredit - Sicherheiten

Mehr

Folge 13 - Quicksort

Folge 13 - Quicksort Für Abiturienten Folge 13 - Quicksort 13.1 Grundprinzip des Quicksort Schritt 1 Gegeben ist ein unsortierter Array von ganzen Zahlen. Ein Element des Arrays wird nun besonders behandelt, es wird nämlich

Mehr

Schriftliche Prüfungsarbeit zur erweiterten Berufsbildungsreife und zum mittleren Schulabschluss 2014 im Fach Mathematik. Dienstag 13.

Schriftliche Prüfungsarbeit zur erweiterten Berufsbildungsreife und zum mittleren Schulabschluss 2014 im Fach Mathematik. Dienstag 13. Ministerium für Bildung, Jugend und Sport Senatsverwaltung für Bildung, Jugend und Wissenschaft Schriftliche Prüfungsarbeit zur erweiterten Berufsbildungsreife und zum mittleren Schulabschluss 04 im Fach

Mehr

Babeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005. Paradigmen im Algorithmenentwurf

Babeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005. Paradigmen im Algorithmenentwurf Babeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005 Paradigmen im Algorithmenentwurf Problemlösen Problem definieren Algorithmus entwerfen

Mehr

Suissemelio-Ratingtool im Kanton Bern

Suissemelio-Ratingtool im Kanton Bern Suissemelio-Ratingtool im Kanton Bern Franz Hofer, Bernische Stiftung für Agrarkredite (BAK) 1. Organisatorische Einbettung Hintergrund Risikobeurteilung durch den Stiftungsrat Berechnungsmodell (Kennzahlen,

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

Grundlagen: Folgen u. endliche Reihen Unendliche Reihen Potenzreihen. Reihen. Fakultät Grundlagen. März 2015

Grundlagen: Folgen u. endliche Reihen Unendliche Reihen Potenzreihen. Reihen. Fakultät Grundlagen. März 2015 Fakultät Grundlagen März 015 Fakultät Grundlagen Grundlagen: und endliche Beispiele Geometrische Reihe, Konvergenzkriterien Fakultät Grundlagen Folie: Übersicht Grundlagen: und endliche Artithmetische

Mehr

Chapter 1 : þÿ b e t a t h o m e A b s e t z f r i s t D e b i t k a r t e c h a p t e r

Chapter 1 : þÿ b e t a t h o m e A b s e t z f r i s t D e b i t k a r t e c h a p t e r Chapter 1 : þÿ b e t a t h o m e A b s e t z f r i s t D e b i t k a r t e c h a p t e r þÿ R e c h n u n g. B e t W o r l d E i n z a h l u n g s b o n u s : 1 0 0 E U R j e t z t f ü r N e u k u n d

Mehr

Oberstufe (11, 12, 13)

Oberstufe (11, 12, 13) Department Mathematik Tag der Mathematik 1. Oktober 009 Oberstufe (11, 1, 1) Aufgabe 1 (8+7 Punkte). (a) Die dänische Flagge besteht aus einem weißen Kreuz auf rotem Untergrund, vgl. die (nicht maßstabsgerechte)

Mehr

Komplexe Zahlen und Wechselstromwiderstände

Komplexe Zahlen und Wechselstromwiderstände Komplexe Zahlen und Wechselstromwiderstände Axel Tobias 22.2.2000 Ein besonderer Dank geht an Ingo Treunowski, der die Übertragung meines Manuskriptes in L A TEX durchgeführt hat tob skript komplex.tex.

Mehr

Chapter 1 : þÿ b e t a t h o m e S p i e l g e s p e r r t c h a p t e r

Chapter 1 : þÿ b e t a t h o m e S p i e l g e s p e r r t c h a p t e r Chapter 1 : þÿ b e t a t h o m e S p i e l g e s p e r r t c h a p t e r þÿ s c e n a r i o s ( e x p l i c i t a n d.. W h a t w o u l d y o u r c u s t o m e r s b e t t h e i r m o n e y o n?.. u n

Mehr

Chapter 1 : þÿ T r a n s f e r - W e t t e n b e t a t h o m e c h a p t e r

Chapter 1 : þÿ T r a n s f e r - W e t t e n b e t a t h o m e c h a p t e r Chapter 1 : þÿ T r a n s f e r - W e t t e n b e t a t h o m e c h a p t e r þÿ f r o m h o m e i n t h e 2 0 1 5 G r a n d N a t i o n a l ; 1 6 / 1 H o l y w e l l, S a i n t A r e, & n b s p ;. t ä

Mehr

Familien in Thüringen Ergebnisse des Mikrozensus von 2005 bis 2009

Familien in Thüringen Ergebnisse des Mikrozensus von 2005 bis 2009 - März 211 Yvonne May Referat Bevölkerung, Mikrozensus, Haushaltsstatistiken Telefon: 361 37-84432 e-mail: Yvonne.May@statistik.thueringen.de Familien in Thüringen Ergebnisse des Mikrozensus von 25 bis

Mehr

Lage- und Streuungsparameter

Lage- und Streuungsparameter Lage- und Streuungsparameter Beziehen sich auf die Verteilung der Ausprägungen von intervall- und ratio-skalierten Variablen Versuchen, diese Verteilung durch Zahlen zu beschreiben, statt sie graphisch

Mehr

Vorkurs Mathematik Übungen zu Komplexen Zahlen

Vorkurs Mathematik Übungen zu Komplexen Zahlen Vorkurs Mathematik Übungen zu Komplexen Zahlen Komplexe Zahlen Koordinatenwechsel Aufgabe. Zeichnen Sie die folgende Zahlen zunächst in ein (kartesisches) Koordinatensystem. Bestimmen Sie dann die Polarkoordinaten

Mehr

Kapitel : Andere dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2013/14. Prof. Dr. Sándor Fekete

Kapitel : Andere dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2013/14. Prof. Dr. Sándor Fekete Kapitel 4.8-4.11: Andere dynamische Datenstrukturen Algorithmen und Datenstrukturen WS 2013/14 Prof. Dr. Sándor Fekete 1 4.6 AVL-Bäume 2 4.8 Rot-Schwarz-Bäume Rudolf Bayer Idee: Verwende Farben, um den

Mehr

profil datenreporter das sollte ich können...

profil datenreporter das sollte ich können... profil datenreporter das sollte ich können... Abfragen Variable Kriterien in Abfragen verwenden Berechnungen in Abfragen durchführen, Daten zu neuen Informationen zusammensetzen Berichte Die Bereiche eines

Mehr

2 Mengen und Abbildungen

2 Mengen und Abbildungen 2.1 Mengen Unter einer Menge verstehen wir eine Zusammenfassung von Objekten zu einem Ganzen. Die Objekte heiÿen Elemente. Ist M eine Menge und x ein Element von M so schreiben wir x M. Wir sagen auch:

Mehr

R = {(1, 1), (2, 2), (3, 3)} K 1 = {1} K 2 = {2} K 3 = {3}

R = {(1, 1), (2, 2), (3, 3)} K 1 = {1} K 2 = {2} K 3 = {3} Äquivalenzrelationen Aufgabe 1. Lesen Sie im Skript nach was eine Äquivalenzrelation und eine Äquivalenzklasse ist. Gegeben ist die Menge A = {1, 2, 3. Finden Sie 3 Äquivalenzrelationen auf A und geben

Mehr

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,

Mehr

Bitte bearbeite zunächst alle Aufgaben bevor du einen Blick in die Lösungen wirfst.

Bitte bearbeite zunächst alle Aufgaben bevor du einen Blick in die Lösungen wirfst. Übungsblatt 1 - Häufigkeiten, Mittelwert, Erwartungswert Das erste Übungsblatt ist als Einstieg ins Thema Wahrscheinlichkeitsrechnung gedacht und umfasst die Themen relative/absolute Häufigkeiten, Mittelwert

Mehr

Grundlagen der Programmierung 2. Bäume

Grundlagen der Programmierung 2. Bäume Grundlagen der Programmierung 2 Bäume Prof. Dr. Manfred Schmidt-Schauÿ Künstliche Intelligenz und Softwaretechnologie 24. Mai 2006 Graphen Graph: Menge von Knoten undzugehörige (gerichtete oder ungerichtete)

Mehr

Algorithmen und Datenstrukturen Balancierte Suchbäume

Algorithmen und Datenstrukturen Balancierte Suchbäume Algorithmen und Datenstrukturen Balancierte Suchbäume Matthias Teschner Graphische Datenverarbeitung Institut für Informatik Universität Freiburg SS 12 Überblick Einführung Einfügen und Löschen Einfügen

Mehr

Binary Decision Diagrams (Einführung)

Binary Decision Diagrams (Einführung) Binary Decision Diagrams (Einführung) Binary Decision Diagrams (BDDs) sind bestimmte Graphen, die als Datenstruktur für die kompakte Darstellung von booleschen Funktionen benutzt werden. BDDs wurden von

Mehr

Testverfahren. 1. Pepsi vs. Coca-Cola

Testverfahren. 1. Pepsi vs. Coca-Cola 1. Pepsi vs. Coca-Cola Testverfahren Über Geschmack lässt sich bekanntermaßen streiten. Häufig stellt sich nämlich die Frage, ob der Unterschied zwischen zwei Produkten überhaupt feststellbar ist. Einer

Mehr

Erste Schularbeit Mathematik Klasse 7A G am

Erste Schularbeit Mathematik Klasse 7A G am Erste Schularbeit Mathematik Klasse 7A G am 12.11.2015 SCHÜLERNAME: Punkte im ersten Teil: Punkte im zweiten Teil: Davon Kompensationspunkte: Note: Notenschlüssel: Falls die Summe der erzielten Kompensationspunkte

Mehr

Chapter 1 : þÿ b w i n m o b i l e C a s i n o - A p p c h a p t e r

Chapter 1 : þÿ b w i n m o b i l e C a s i n o - A p p c h a p t e r Chapter 1 : þÿ b w i n m o b i l e C a s i n o - A p p c h a p t e r þÿ b e s t ä t i g u n g d e r d i e n s t l e i s t u n g s f r e i h e i t & q u o t ;, h e i s s t e s s e i t e n s b w i n.. b

Mehr

Der Bipolar-Transistor und die Emitterschaltung Gruppe B412

Der Bipolar-Transistor und die Emitterschaltung Gruppe B412 TECHNISCHE UNIVERSITÄT MÜNCHEN Der Bipolar-Transistor und die Emitterschaltung Gruppe B412 Patrick Christ und Daniel Biedermann 16.10.2009 1. INHALTSVERZEICHNIS 1. INHALTSVERZEICHNIS... 2 2. AUFGABE 1...

Mehr

Chapter 1 : þÿ b e t a t h o m e B i n g o L o g i n c h a p t e r

Chapter 1 : þÿ b e t a t h o m e B i n g o L o g i n c h a p t e r Chapter 1 : þÿ b e t a t h o m e B i n g o L o g i n c h a p t e r þÿ N e b e n e n g l i s c h e n Q u o t e n g i b t e s a u c h n o c h a m e r i k a n i s c h e Q u o t e n u n d. s p i e l e d e

Mehr

Vorkurs Informatik WiSe 15/16

Vorkurs Informatik WiSe 15/16 Konzepte der Informatik Dr. Werner Struckmann / Stephan Mielke, Jakob Garbe, 16.10.2015 Technische Universität Braunschweig, IPS Inhaltsverzeichnis Suchen Binärsuche Binäre Suchbäume 16.10.2015 Dr. Werner

Mehr

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010

Mehr

13. Der diskrete Logarithmus

13. Der diskrete Logarithmus 13. Der diskrete Logarithmus 13.1. Definition. Sei p eine Primzahl. Wie wir in 9 bewiesen haben, ist die multiplikative Gruppe F p des Körpers F p = Z/p zyklisch. Sei g ein erzeugendes Element von F p

Mehr

Mathematik und Logik

Mathematik und Logik Mathematik und Logik 6. Übungsaufgaben 2006-01-24, Lösung 1. Berechnen Sie für das Konto 204938716 bei der Bank mit der Bankleitzahl 54000 den IBAN. Das Verfahren ist z.b. auf http:// de.wikipedia.org/wiki/international_bank_account_number

Mehr

Rationale Zahlen. Vergleichen und Ordnen rationaler Zahlen

Rationale Zahlen. Vergleichen und Ordnen rationaler Zahlen Rationale Zahlen Vergleichen und Ordnen rationaler Zahlen Von zwei rationalen Zahlen ist die die kleinere Zahl, die auf der Zahlengeraden weiter links liegt.. Setze das richtige Zeichen. a) -3 4 b) - -3

Mehr

Kurs 1613 Einführung in die imperative Programmierung Musterlösung zur Klausur am

Kurs 1613 Einführung in die imperative Programmierung Musterlösung zur Klausur am Kurs 1613 Einführung in die imperative Programmierung 1 Aufgabe 1 procedure NachVorn( inwert: integer; var iorefanfang: trefelement); {Sucht das erste vorkommende Element mit inwert in der info-komponente

Mehr

Erfolg im Mathe-Abi 2014

Erfolg im Mathe-Abi 2014 Gruber I Neumann Erfolg im Mathe-Abi 2014 Schleswig-Holstein Übungsbuch Prüfungsaufgaben mit Tipps und Lösungen Inhaltsverzeichnis 1. Aufgabensatz... 7 2. Aufgabensatz... 12 3. Aufgabensatz... 17 4. Aufgabensatz...

Mehr

Rekursion. Annabelle Klarl. Einführung in die Informatik Programmierung und Softwareentwicklung

Rekursion. Annabelle Klarl. Einführung in die Informatik Programmierung und Softwareentwicklung Rekursion Annabelle Klarl Zentralübung zur Vorlesung Einführung in die Informatik: http://www.pst.ifi.lmu.de/lehre/wise-12-13/infoeinf WS12/13 Aufgabe 1: Potenzfunktion Schreiben Sie eine Methode, die

Mehr

Chapter 1 : þÿ i p h o n e b e t a t e s t e r w e r d e n c h a p t e r

Chapter 1 : þÿ i p h o n e b e t a t e s t e r w e r d e n c h a p t e r Chapter 1 : þÿ i p h o n e b e t a t e s t e r w e r d e n c h a p t e r þÿ n i c h t m ö g l i c h, a l l e Z a h l u n g e n m i t d e r m o b i l e n W e b s e i t e v o n b e t - a t - h o m e z u

Mehr

Protokoll zum Teil Sauerstoffbestimmung

Protokoll zum Teil Sauerstoffbestimmung Übung Labormethoden Protokoll zum Teil Sauerstoffbestimmung Vereinfachtes Übungsprotokoll zu Demonstrationszwecken Inhaltsverzeichnis 1. EINLEITUNG...2 1.1 GASOMETRISCHE METHODE...2 2. MATERIAL UND METHODEN...3

Mehr

Auf der Festplatte des Rechners sind Informationen als Dateien (Bilddateien, Textdateien, Videodateien usw.) abgespeichert.

Auf der Festplatte des Rechners sind Informationen als Dateien (Bilddateien, Textdateien, Videodateien usw.) abgespeichert. Auf der Festplatte des Rechners sind Informationen als Dateien (Bilddateien, Textdateien, Videodateien usw.) abgespeichert. Dateimanager Das Werkzeug, mit dem man Dateien am besten anschauen und verwalten

Mehr