Bayessche Netzwerke und ihre Anwendungen

Save this PDF as:
 WORD  PNG  TXT  JPG

Größe: px
Ab Seite anzeigen:

Download "Bayessche Netzwerke und ihre Anwendungen"

Transkript

1 Bayessche Netzwerke und ihre Anwendungen 1. Kapitel: Grundlagen Zweiter Schwerpunktanteil einer Vorlesung im Rahmen des Moduls Systemplanung und Netzwerktheorie (Modul-Nr.: 1863) Fakultät für Informatik Universität der Bundeswehr München FT 2010 Dozent: Dr. Max Krüger

2 Inhalt 0 Literatur 1.1 Diskrete endliche Zufallsvariablen und Zufallsvektoren 1.2 Bedingte Wahrscheinlichkeiten FT 2010 Bayessche Netzwerke und ihre Anwendungen 2

3 Literatur (Auswahl) Finn v. Jensen & Thomas D. Nielsen: Bayesian Networks and Decision Graphs (2. ed.). Springer Science + Business Media, Adnan Darwiche: Modeling and Reasoning with Bayesian Networks. Cambridge University Press, Stuart Russel & Peter Norvig: Künstliche Intelligenz Ein moderner Ansatz (2. Aufl.). Pearson Education, Judea Pearl: Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference (revised second printing). Morgan Kaufmann Publishers Inc., FT 2010 Bayessche Netzwerke und ihre Anwendungen 3

4 Abschnitt 1.1: Diskrete endliche Zufallsvariablen und Zufallsvektoren FT 2010 Bayessche Netzwerke und ihre Anwendungen 4

5 Diskrete endliche Zufallsvariablen Definition: (informell; für Details vgl. Vorlesung W-Theorie) Eine diskrete endliche Zufallsvariable (auch: Variable, Zufallsgröße, Zustandsvariable) ist eine Funktion, die jedem Ausgang eines zugrunde liegenden Zufallsexperiments genau einen Zustand (Ergebnis) (Schreibeweise: ) aus einer endlichen Zustandsmenge (Ergebnismenge) zuordnet. Die endlich vielen verschiedenen Zustände schließen sich gegenseitig aus und sind erschöpfend. Wir bezeichnen Zufallsvariablen mit Großbuchstaben (insb. ) und Zustände mit Kleinbuchstaben (z. B. ). FT 2010 Bayessche Netzwerke und ihre Anwendungen 5

6 Wahrscheinlichkeitsfunktion einer endlichen Zufallsvariablen Definition: Für eine diskrete endliche Zufallsvariable mit ordnet die Wahrscheinlichkeitsfunktion für mit und jedem Zustand eine durch eine Wahrscheinlichkeit ausgedrückte Unsicherheit zu. Wir schreiben für die Wahrscheinlichkeitsfunktion auch bzw. kurz. Abkürzend wird für zudem notiert, sofern aus dem Kontext klar ist, zu welcher Variable der Zustand gehört. FT 2010 Bayessche Netzwerke und ihre Anwendungen 6

7 Wahrscheinlichkeitsmaß einer endlichen Zufallsvariablen Definition: Eine Wahrscheinlichkeitsfunktion diskrete endliche Zufallsvariable Wahrscheinlichkeitsmaß auf wird zu einem diskreten erweitert: für eine für alle. FT 2010 Bayessche Netzwerke und ihre Anwendungen 7

8 Diskrete endliche Zufallsvektoren Definition: (informell; für Details vgl. Vorlesung W-Theorie) Die diskreten endlichen Zufallsvariablen werden zu einem -dimensionalen Zufallsvektor mit der Zustandsmenge zusammengesetzt. Bemerkung: Sofern im Kontext nicht extra als vektorwertig herausgestellt werden muss, werden wir ebenfalls einfach als Zufallsvariable bezeichnen. FT 2010 Bayessche Netzwerke und ihre Anwendungen 8

9 Gemeinsame Wahrscheinlichkeitsfunktion Definition: Für mit hat die gemeinsame Wahrscheinlichkeitsfunktion die Form mit und. Bemerkung: Wie bei Zufallsfallsvariablen kann auch für Zufallsvektoren das zur gemeinsamen Wahrscheinlichkeitsfunktion gehörende gemeinsame Wahrscheinlichkeitsmaß auf definiert werden. FT 2010 Bayessche Netzwerke und ihre Anwendungen 9

10 Schreibweisen für die gemeinsame Wahrscheinlichkeitsfunktion Schreibweisen: (1) Wir vereinbaren als Bezeichner für die gemeinsame Wahrscheinlichkeitsfunktion des Zufallsvektors. (2) Die Reihenfolge der Zufallsvariablen sei irrelevant, d.h. wir setzen für jede Permutation. (3) Es sei. (4) Die Schreibweisen (1), (2) und (3) sind kombinierbar, wobei dann in der gemeinsamen Wahrscheinlichkeitsfunktion die aus (3) übernommenen Zufallsvariablen mit gegebenem Zustand als Argument in festgehalten werden. Z.B. ist der Ausdruck zulässig. FT 2010 Bayessche Netzwerke und ihre Anwendungen 10

11 Marginalisierung Satz: Sei mit Zufallsvektor mit Verteilungsfunkton. Für eine fest gewählte Zufallsvariable ist die Funktion eine gemeinsame Wahrscheinlichkeitsfunktion des (reduzierten) Zufallsvektors. Dieser Vorgang zur Reduktion des Zufallsvektors heißt Marginalisierung bezüglich der Variable (auch: Aussummierung). FT 2010 Bayessche Netzwerke und ihre Anwendungen 11

12 Rekursive und simultane Marginalisierung Eigenschaften der Marginalisierung: Marginalisierung kann rekursiv durchgeführt werden, d.h. hintereinander für mehrere Variablen. Marginalisierung kann simultan durchgeführt werden, d.h. für mehrere Variablen gleichzeitig. Dabei wird dann während der Marginalisierung über alle möglichen Zustandskombination der auszusummierenden Variablen summiert. Rekursive Marginalisierung bezüglich mehrerer Variablen mit beliebiger Marginalisierungsreihenfolge und simultane Marginalisierung bezüglich der gleichen Zufallsvariablen ergeben immer die gleiche (reduzierte) gemeinsame Wahrscheinlichkeitsfunktion. FT 2010 Bayessche Netzwerke und ihre Anwendungen 12

13 Übungsaufgabe 1.1: Sei ein Zufallsvektor gegeben mit den Zustandsmengen, und. Die gemeinsame Wahrscheinlichkeitsfunktion des Zufallsvektors ist durch die folgende gemeinsame Wahrscheinlichkeitstabelle festgelegt: Berechnen bzw. bestimmen Sie bitte: (1.) (2.) (3.) (4.) FT 2010 Bayessche Netzwerke und ihre Anwendungen 13

14 Abschnitt 1.2: Bedingte Wahrscheinlichkeiten FT 2010 Bayessche Netzwerke und ihre Anwendungen 14

15 Bedingte Wahrscheinlichkeit und Wahrscheinlichkeitsfunktion Definition: Sei ein -dim. Zufallsvektor. (1) Für die Elementarergebnisse und mit heißt der Ausdruck für für die bedingte Wahrscheinlichkeit von unter der Bedingung. (2) Durch Teil (1) wird die bedingte Wahrscheinlichkeitsfunktion elementweise definiert. Vorsicht: Nur ist Wahrscheinlichkeitsfunktion! FT 2010 Bayessche Netzwerke und ihre Anwendungen 15

16 Satz von Bayes (in bekannter Formulierung) Satz: (Satz, Regel bzw. Theorem von Bayes) Sei ein diskreter Wahrscheinlichkeitsraum, eine Partition von mit für alle und sei ein Ereignis mit, dann gilt:. FT 2010 Bayessche Netzwerke und ihre Anwendungen 16

17 Satz von Bayes für Zufallsvariablen (1.Formulierung) Satz: (Satz von Bayes für Zustände von Zufallsvariablen) Sei ein -dim. Zufallsvektor. Für die Elementarergebnisse und ( ) mit gilt:. FT 2010 Bayessche Netzwerke und ihre Anwendungen 17

18 Satz von Bayes für Zufallsvariablen (2.Formulierung) Satz: (Satz von Bayes für Wahrscheinlichkeitsfunktionen) Sei ein -dim. Zufallsvektor, dann gilt:. Diese Formulierung mittels (bedingter ) Wahrscheinlichkeitsfunktionen ist ungenau, da der Fall für einen Zustand nicht abgefangen wird. Trotzdem ist sie im Kontext Bayesscher Netzwerke üblich. FT 2010 Bayessche Netzwerke und ihre Anwendungen 18

19 Übungsaufgabe Bestimmen Sie bitte ausgehend vom Zufallsvektor aus Übungsaufgabe 1.1: a) b) und c) und zur Erinnerung: 2. Beweisen Sie bitte den Satz von Bayes! FT 2010 Bayessche Netzwerke und ihre Anwendungen 19

20 Bedingte Wahrscheinlichkeitstabellen Bemerkung: Sei ein -dim. Zufallsvektor. Eine bedingte Wahrscheinlichkeitsfunktion kann in einer bedingten Wahrscheinlichkeitstabelle (Conditional Probability Table CPT) dargestellt werden: FT 2010 Bayessche Netzwerke und ihre Anwendungen 20

21 A-priori und A-posteriori Wahrscheinlichkeiten Bezeichnungen: Sei ein -dim. Zufallsvektor und ein zugehöriges gemeinsames Ereignis. heißt die A-priori Wahrscheinlichkeit (oder auch unbedingte Wahrscheinlichkeit) des Ereignisses. heißt die A-posteriori Wahrscheinlichkeit (oder auch bedingte Wahrscheinlichkeit) des Ereignisses gegeben das Ereignis. FT 2010 Bayessche Netzwerke und ihre Anwendungen 21

22 Multiplikationsregel Satz: (Multiplikationsregel, Kettenregel) Sei ein -dimensionaler Zufallsvektor, dann lässt sich die gemeinsame Wahrscheinlichkeitsfunktion wie folgt darstellen: Beweisidee: Anwendung der Definition für die bedingten Wahrscheinlichkeiten und anschließendes Kürzen. FT 2010 Bayessche Netzwerke und ihre Anwendungen 22

23 Unabhängigkeit und bedingte Unabhängigkeit Definition: Zwei Zufallsvariablen (Zufallsvektoren) und heißen (1) (paarweise) unabhängig, falls... bzw. (2)... bedingt unabhängig gegeben die Zufallsvariable (Zufallsvektor), falls... jeweils für, und ggf. gilt. Als Kurzschreibweise wird auch bzw. verwendet. Diese Definitionen werden kanonisch auf voneinander total unabhängige Zufallsvariablen erweitert: bzw.. FT 2010 Bayessche Netzwerke und ihre Anwendungen 23

24 Übungsaufgabe 1.3: 1. Alternative Darstellung (bedingter) Unabhängigkeit: Zeigen Sie bitte, dass für (bzw. ) die Zufallsvariablen und genau dann (bedingt) unabhängig sind, wenn (bzw. ) gilt. Hinweis: Die Schreibweise bzw. bedeutet, dass die Funktionen jeweils für alle Argumente größer als Null sind. 2. Sind die Zufallsvariablen total unabhängig? FT 2010 Bayessche Netzwerke und ihre Anwendungen 24

25 Spam-Filterung mittels Naive-Bayes-Filter (1): Voraussetzungen Die Zugehörigkeit einer E zu Klasse Ham oder Spam wird als Zufallsvariable modelliert: mit. Für jedes in der E enthaltene Wort gibt es eine Zufallsvariable mit die angibt, ob dass Wort in der enthalten ist. Wir setzen die Kurznotation. Aus der Auswertung früherer, bereits klassifizierter s sind folgende Wahrscheinlichkeiten bekannt:, sowie und. Das Auftreten der Wörter in der wird als bedingt unabhängig modelliert:. FT 2010 Bayessche Netzwerke und ihre Anwendungen 25

26 Spam-Filterung mittels Naive-Bayes-Filter (2): Berechnung Die E soll als Spam klassifiziert werden, falls gilt: Mittels des Satzes von Bayes berechnet man:. und analog. Somit wird die E als Spam klassifiziert, falls gilt:. FT 2010 Bayessche Netzwerke und ihre Anwendungen 26

27 Ende Vielen Dank für Ihre Mitarbeit! FT 2010 Bayessche Netzwerke und ihre Anwendungen 27

Definition der Entropie unter Verwendung von supp(p XY )

Definition der Entropie unter Verwendung von supp(p XY ) Definition der Entropie unter Verwendung von supp(p XY ) Wir fassen die Ergebnisse des letzten Abschnitts nochmals kurz zusammen, wobei wir von der zweidimensionalen Zufallsgröße XY mit der Wahrscheinlichkeitsfunktion

Mehr

Grundbegriffe der Wahrscheinlichkeitstheorie

Grundbegriffe der Wahrscheinlichkeitstheorie KAPITEL 1 Grundbegriffe der Wahrscheinlichkeitstheorie 1. Zufallsexperimente, Ausgänge, Grundmenge In der Stochastik betrachten wir Zufallsexperimente. Die Ausgänge eines Zufallsexperiments fassen wir

Mehr

Satz 18 (Satz von der totalen Wahrscheinlichkeit)

Satz 18 (Satz von der totalen Wahrscheinlichkeit) Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A 1,..., A n seien paarweise disjunkt und es gelte

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Satz 16 (Multiplikationssatz)

Satz 16 (Multiplikationssatz) Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

Allgemeine Definition von statistischer Abhängigkeit (1)

Allgemeine Definition von statistischer Abhängigkeit (1) Allgemeine Definition von statistischer Abhängigkeit (1) Bisher haben wir die statistische Abhängigkeit zwischen Ereignissen nicht besonders beachtet, auch wenn wir sie wie im Fall zweier disjunkter Mengen

Mehr

Venndiagramm, Grundmenge und leere Menge

Venndiagramm, Grundmenge und leere Menge Venndiagramm, Grundmenge und leere Menge In späteren Kapitel wird manchmal auf die Mengenlehre Bezug genommen. Deshalb sollen hier die wichtigsten Grundlagen und Definitionen dieser Disziplin kurz zusammengefasst

Mehr

1 Inhaltsverzeichnis. 1 Einführung...1

1 Inhaltsverzeichnis. 1 Einführung...1 1 Inhaltsverzeichnis 1 Einführung...1 1.1 Arten der stochastischen Abhängigkeit...2 1.2 Wo kommen regressive Abhängigkeiten vor?...3 1.3 Hauptaufgaben von Regressionsmodellen...3 1.4 Wissenschaftstheoretische

Mehr

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!. 040304 Übung 9a Analysis, Abschnitt 4, Folie 8 Die Wahrscheinlichkeit, dass bei n - maliger Durchführung eines Zufallexperiments ein Ereignis A ( mit Wahrscheinlichkeit p p ( A ) ) für eine beliebige Anzahl

Mehr

2. Rechnen mit Wahrscheinlichkeiten

2. Rechnen mit Wahrscheinlichkeiten 2. Rechnen mit Wahrscheinlichkeiten 2.1 Axiome der Wahrscheinlichkeitsrechnung Die Wahrscheinlichkeitsrechnung ist ein Teilgebiet der Mathematik. Es ist üblich, an den Anfang einer mathematischen Theorie

Mehr

Zufallsvariablen: Die allgemeine Definition

Zufallsvariablen: Die allgemeine Definition KAPITEL 8 Zufallsvariablen: Die allgemeine Definition 8.1. Zufallsvariablen Bis zu diesem Zeitpunkt haben wir ausschließlich Zufallsvariablen mit endlich oder abzählbar vielen Werten (also diskrete Zufallsvariablen)

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 3. Vorlesung - 21.10.2016 Bedingte Wahrscheinlichkeit In einer Urne sind 2 grüne und 3 blaue Kugeln. 2 Kugeln werden ohne Zürücklegen gezogen. Welches ist die Wahrscheinlichkeit, dass : a) man eine grüne

Mehr

Quantitative Methoden Wissensbasierter Systeme

Quantitative Methoden Wissensbasierter Systeme Quantitative Methoden Wissensbasierter Systeme Probabilistische Netze und ihre Anwendungen Robert Remus Universität Leipzig Fakultät für Mathematik und Informatik Abteilung für Intelligente Systeme 23.

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 0.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

4 Diskrete Wahrscheinlichkeitsverteilungen

4 Diskrete Wahrscheinlichkeitsverteilungen 4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum) Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Vorlesung am 10.01.2012 INSTITUT FÜR THEORETISCHE 0 KIT 12.01.2012 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der Informatik

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Wahrscheinlichkeitsverteilungen 1. Binomialverteilung 1.1 Abzählverfahren 1.2 Urnenmodell Ziehen mit Zurücklegen, Formel von Bernoulli 1.3 Berechnung von Werten 1.4 Erwartungswert und Standardabweichung

Mehr

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Binomialverteilung und Bernoulli- Experiment

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Binomialverteilung und Bernoulli- Experiment Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Binomialverteilung und Bernoulli- Experiment Das komplette Material finden Sie hier: Download bei School-Scout.de TOSSNET Der persönliche

Mehr

Rumpfskript. Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen

Rumpfskript. Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen Rumpfskript Elementare Wahrscheinlichkeitsrechnung Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen Vorbemerkung Vorbemerkung Das vorliegende Skript heißt nicht nur Rumpf skript, sondern

Mehr

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26) Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26 Ein Wahrscheinlichkeitsraum (Ω, P ist eine Menge Ω (Menge aller möglichen Ausgänge eines Zufallsexperiments: Ergebnismenge versehen mit einer Abbildung

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

10. Vorlesung. Grundlagen in Statistik. Seite 291. Martin-Luther-Universität Halle/Wittenberg

10. Vorlesung. Grundlagen in Statistik. Seite 291. Martin-Luther-Universität Halle/Wittenberg . Vorlesung Grundlagen in Statistik Seite 29 Beispiel Gegeben: Termhäufigkeiten von Dokumenten Problemstellung der Sprachmodellierung Was sagen die Termhäufigkeiten über die Wahrscheinlichkeit eines Dokuments

Mehr

Kapitel ML:IV (Fortsetzung)

Kapitel ML:IV (Fortsetzung) Kapitel ML:IV (Fortsetzung) IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-18 Statistical Learning c STEIN 2005-2011 Satz 3 (Bayes)

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 10. November 2010 1 Bedingte Wahrscheinlichkeit Satz von der totalen Wahrscheinlichkeit Bayessche Formel 2 Grundprinzipien

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente Mehrstufige Zufallsexperimente Inhalt 6.1 6.1 Mehrstufige Experimente 6.2 6.2 Bedingte Wahrscheinlichkeiten Seite 2 6.1 Mehrstufige Experimente Grundvorstellung: Viele Viele Experimente werden der der

Mehr

Das Ziegenproblem. Nils Schwinning und Christian Schöler Juni 2010

Das Ziegenproblem. Nils Schwinning und Christian Schöler  Juni 2010 Das Ziegenproblem Nils Schwinning und Christian Schöler http://www.esaga.uni-due.de/ Juni 2010 Die Formulierung Obwohl das sogenannte Ziegenproblem in der Mathematik allgegenwärtig erscheint, wurde es

Mehr

Kapitel 2 Wahrscheinlichkeitsrechnung

Kapitel 2 Wahrscheinlichkeitsrechnung Motivation bisher: Beschreibung von Datensätzen = beobachteten Merkmalsausprägungen Frage: Sind Schlußfolgerungen aus diesen Beobachtungen möglich? Antwort: Ja, aber diese gelten nur mit einer bestimmten

Mehr

Wahrscheinlichkeiten

Wahrscheinlichkeiten Wahrscheinlichkeiten August, 2013 1 von 21 Wahrscheinlichkeiten Outline 1 Wahrscheinlichkeiten 2 von 21 Wahrscheinlichkeiten Zufallsexperimente Die möglichen Ergebnisse (outcome) i eines Zufallsexperimentes

Mehr

Technische Universität München

Technische Universität München Stand der Vorlesung Kapitel 2: Auffrischung einiger mathematischer Grundlagen Mengen, Potenzmenge, Kreuzprodukt (Paare, Tripel, n-tupel) Relation: Teilmenge MxN Eigenschaften: reflexiv, symmetrisch, transitiv,

Mehr

Wahrscheinlichkeitsrechnung und Quantentheorie

Wahrscheinlichkeitsrechnung und Quantentheorie Physikalische Chemie II: Atombau und chemische Bindung Winter 2013/14 Wahrscheinlichkeitsrechnung und Quantentheorie Messergebnisse können in der Quantenmechanik ganz prinzipiell nur noch mit einer bestimmten

Mehr

Internetkommunikation I WS 2004/05 Rafael Birkner

Internetkommunikation I WS 2004/05 Rafael Birkner Vortrag zum Thema: Bayes'sche Filter zur SPAM-Erkennung 1. Bayes'sche Filter: Eigenschaften - englischer Mathematiker Thomas Bayes (1702 1761) - state of the art Technologie zur Bekämpfung von Spam - adaptive

Mehr

Diskrete Mathematik 1

Diskrete Mathematik 1 Ruhr-Universität Bochum Lehrstuhl für Kryptologie und IT-Sicherheit Prof Dr Alexander May M Ritzenhofen, M Mansour Al Sawadi, A Meurer Lösungsblatt zur Vorlesung Diskrete Mathematik WS 008/09 Blatt 4 /

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme 1 Wiederholung Eine Menge von Vektoren a 1, a 2,, a k heisst linear unabhängig, wenn eine Linearkombination c 1 a 1 + c 2 a 2 + + c k a k = k c i a i (1) i=1 nur dann Null sein

Mehr

Statistik I für Betriebswirte Vorlesung 1

Statistik I für Betriebswirte Vorlesung 1 Statistik I für Betriebswirte Vorlesung 1 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

1 Elemente der Wahrscheinlichkeitstheorie

1 Elemente der Wahrscheinlichkeitstheorie H.-J. Starkloff Unendlichdimensionale Stochastik Kap. 01 11. Oktober 2010 1 1 Elemente der Wahrscheinlichkeitstheorie 1.1 Messbare Räume Gegeben seien eine nichtleere Menge Ω und eine Menge A von Teilmengen

Mehr

15 Wahrscheinlichkeitsrechnung und Statistik

15 Wahrscheinlichkeitsrechnung und Statistik 5 Wahrscheinlichkeitsrechnung und Statistik Alles, was lediglich wahrscheinlich ist, ist wahrscheinlich falsch. ( Descartes ) Trau keiner Statistik, die du nicht selbst gefälscht hast. ( Churchill zugeschrieben

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3.1 Einführung Bsp. 19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω {zzz,zzw,zwz,wzz,zww,wzw,wwz,www}. Ω 2 3 8 N Wir definieren

Mehr

Stochastik Klasse 10 Zufallszahlen

Stochastik Klasse 10 Zufallszahlen Thema Grit Moschkau Stochastik Klasse 10 Zufallszahlen Sek I Sek II ClassPad TI-Nspire CAS. Schlagworte: Urnenmodell, Histogramm, absolute und relative Häufigkeit, Zufallsexperiment, Wahrscheinlichkeit,

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 9. Übung SS 16: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 9. Übung SS 16: Woche vom Übungsaufgaben 9. Übung SS 16: Woche vom 5. 6. 10. 6. 2016 Stochastik III: Totale Wkt., S.v.Bayes, Diskrete ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

Partitionen natürlicher Zahlen

Partitionen natürlicher Zahlen Partitionen natürlicher Zahlen wgnedin@math.uni-koeln.de 9. Oktober 03 In dieser Notiz wird der Beweis des Satzes über die Anzahl der Partitionen einer natürlichen Zahl vorgestellt. Die Darstellung folgt

Mehr

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska

Mehr

Elemente der Stochastik (SoSe 2016) 9. Übungsblatt

Elemente der Stochastik (SoSe 2016) 9. Übungsblatt Dr. M. Weimar 06.06.2016 Elemente der Stochastik (SoSe 2016) 9. Übungsblatt Aufgabe 1 (2+2+2+2+1=9 Punkte) In einer Urne befinden sich sieben Lose, darunter genau ein Gewinnlos. Diese Lose werden nacheinander

Mehr

Wahrscheinlichkeiten

Wahrscheinlichkeiten Wahrscheinlichkeiten Bestimmung der Wahrscheinlichkeit Bei einem Zufallsexperiment kann man nicht voraussagen, welches Ereignis eintritt, aber manche Ereignisse treten naturgemäß mit einer größeren Wahrscheinlichkeit

Mehr

Dynamische Programmierung. Problemlösungsstrategie der Informatik

Dynamische Programmierung. Problemlösungsstrategie der Informatik als Problemlösungsstrategie der Informatik und ihre Anwedung in der Diskreten Mathematik und Graphentheorie Fabian Cordt Enisa Metovic Wissenschaftliche Arbeiten und Präsentationen, WS 2010/2011 Gliederung

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

Kenngrößen von Zufallsvariablen

Kenngrößen von Zufallsvariablen Kenngrößen von Zufallsvariablen Die Wahrscheinlichkeitsverteilung kann durch die sogenannten Kenngrößen beschrieben werden, sie charakterisieren sozusagen die Verteilung. Der Erwartungswert Der Erwartungswert

Mehr

Künstliche Intelligenz Unsicherheit. Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln

Künstliche Intelligenz Unsicherheit. Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Künstliche Intelligenz Unsicherheit Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Rückblick Agent in der Wumpuswelt konnte Entscheidungen

Mehr

Population und Stichprobe: Wahrscheinlichkeitstheorie

Population und Stichprobe: Wahrscheinlichkeitstheorie Population und Stichprobe: Wahrscheinlichkeitstheorie SS 2001 4. Sitzung vom 15.05.2001 Wahrscheinlichkeitstheorie in den Sozialwissenschaften: Stichprobenziehung: Aussagen über Stichprobenzusammensetzung

Mehr

Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung

Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung Kursfolien Karin Haenelt 1 Übersicht Wahrscheinlichkeitsfunktion P Wahrscheinlichkeit und bedingte Wahrscheinlichkeit Bayes-Formeln

Mehr

Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L

Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Inhalt Grundlagen aus der Wahrscheinlichkeitsrechnung Hypothesenwahl Optimale Bayes Klassifikator Naiver Bayes Klassifikator

Mehr

Kapitel 2 Wahrscheinlichkeitsrechnung

Kapitel 2 Wahrscheinlichkeitsrechnung Definition 2.77: Normalverteilung & Standardnormalverteilung Es sei µ R und 0 < σ 2 R. Besitzt eine stetige Zufallsvariable X die Dichte f(x) = 1 2 πσ 2 e 1 2 ( x µ σ ) 2, x R, so heißt X normalverteilt

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Ziegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem

Ziegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Wahrscheinlichkeitsrechnung Theorie Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem,

Mehr

Vektoren. Kapitel 3. 3.1 Skalare, Vektoren, Tensoren. 3.2 Vektoren

Vektoren. Kapitel 3. 3.1 Skalare, Vektoren, Tensoren. 3.2 Vektoren Kapitel 3 Vektoren 31 Skalare, Vektoren, Tensoren Viele physikalische Größen lassen sich bei bekannter Maßeinheit durch Angabe ihres Betrages als reelle Zahl vollständig angeben Solche Größen nennt man

Mehr

Klausur zur Vorlesung,,Algorithmische Mathematik II

Klausur zur Vorlesung,,Algorithmische Mathematik II Institut für angewandte Mathematik, Institut für numerische Simulation Sommersemester 2015 Prof. Dr. Anton Bovier, Prof. Dr. Martin Rumpf Klausur zur Vorlesung,,Algorithmische Mathematik II Bitte diese

Mehr

Im gesamten Kapitel sei Ω eine nichtleere Menge. Wir bezeichnen die Potenzmenge

Im gesamten Kapitel sei Ω eine nichtleere Menge. Wir bezeichnen die Potenzmenge 1 Mengensysteme Ein Mengensystem ist eine Familie von Teilmengen einer Grundmenge und damit eine Teilmenge der Potenzmenge der Grundmenge. In diesem Kapitel untersuchen wir Mengensysteme, die unter bestimmten

Mehr

Mathematik. Abiturprüfung 2014. Prüfungsteil A. Arbeitszeit: 90 Minuten. Bei der Bearbeitung der Aufgaben dürfen keine Hilfsmittel verwendet werden.

Mathematik. Abiturprüfung 2014. Prüfungsteil A. Arbeitszeit: 90 Minuten. Bei der Bearbeitung der Aufgaben dürfen keine Hilfsmittel verwendet werden. Mathematik Abiturprüfung 2014 Prüfungsteil A Arbeitszeit: 90 Minuten Bei der Bearbeitung der Aufgaben dürfen keine Hilfsmittel verwendet werden. Zu den Themengebieten Analysis, Stochastik und Geometrie

Mehr

P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3.

P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3. 2 Wahrscheinlichkeitstheorie Beispiel. Wie wahrscheinlich ist es, eine Zwei oder eine Drei gewürfelt zu haben, wenn wir schon wissen, dass wir eine ungerade Zahl gewürfelt haben? Dann ist Ereignis A das

Mehr

3 Reihen. 3.1 Konvergenz und Divergenz. Die Eindeutigkeit nach Satz 13 ergibt schließlich (5). (6) folgt aus (2) und (1) wegen. 1 a +log ba.

3 Reihen. 3.1 Konvergenz und Divergenz. Die Eindeutigkeit nach Satz 13 ergibt schließlich (5). (6) folgt aus (2) und (1) wegen. 1 a +log ba. Die Eindeutigkeit nach Satz 3 ergibt schließlich (5). (6) folgt aus (2) und () wegen Aussage (7) ergibt sich aus () und (6). 0 = log b = log b ( a a) = log b a +log ba. 3 Reihen 3. Konvergenz und Divergenz

Mehr

Stefan Schmid TU Berlin & T-Labs, Berlin, Germany. Reduktionen in der Berechenbarkeitstheorie

Stefan Schmid TU Berlin & T-Labs, Berlin, Germany. Reduktionen in der Berechenbarkeitstheorie Stefan Schmid TU Berlin & T-Labs, Berlin, Germany Reduktionen in der Berechenbarkeitstheorie Problem: Wie komme ich von hier zum Hamburger Hbf? 2 Beispiel P1 Wie komme ich von hier zum Hamburger Hbf? kann

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 5 Hilfsmittel aus der Kombinatorik 7 Bedingte

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 6 5 Hilfsmittel aus der Kombinatorik 7 1 Vorbemerkungen

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de lordsofthebortz.de lordsofthebortz.de/g+

Mehr

Kapitel 4. Reihen 4.1. Definition und Beispiele

Kapitel 4. Reihen 4.1. Definition und Beispiele Kapitel 4. Reihen 4.1. Definition und Beispiele Ist (a n ) eine Folge von Zahlen, so heißt der formale Ausdruck a ν = a 0 + a 1 + a 2 +... eine Reihe; die einzelnen a ν sind die Glieder dieser Reihe. Um

Mehr

Übungsaufgaben, Statistik 1

Übungsaufgaben, Statistik 1 Übungsaufgaben, Statistik 1 Kapitel 3: Wahrscheinlichkeiten [ 4 ] 3. Übungswoche Der Spiegel berichtet in Heft 29/2007 von folgender Umfrage vom 3. und 4. Juli 2007:,, Immer wieder werden der Dalai Lama

Mehr

MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur) Gruben)

MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur) Gruben) Musterlösung zum. Aufgabenblatt zur Vorlesung MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur Gruben. Wahrscheinlichkeiten I ( Punkte Die Seiten von zwei Würfeln sind mit den folgenden Zahlen

Mehr

Grundlagen der Wahrscheinlichkeitstheorie und Statistik für Studierende der Informatik

Grundlagen der Wahrscheinlichkeitstheorie und Statistik für Studierende der Informatik INSTITUT FÜR STOCHASTIK WS 07/08 UNIVERSITÄT KARLSRUHE Blatt 4 Dr. B. Klar Übungen zur Vorlesung Grundlagen der Wahrscheinlichkeitstheorie und Statistik für Studierende der Informatik Musterlösungen Aufgabe

Mehr

Gemeinsame Wahrscheinlichkeitsverteilungen

Gemeinsame Wahrscheinlichkeitsverteilungen Gemeinsame Wahrscheinlichkeitsverteilungen Worum geht es in diesem Modul? Gemeinsame Wahrscheinlichkeits-Funktion zweier Zufallsvariablen Randverteilungen Bedingte Verteilungen Unabhängigkeit von Zufallsvariablen

Mehr

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Teil V Wahrscheinlichkeitsrechnung Inhaltsangabe 6 Einführung in die Wahrscheinlichkeitsrechnung 125 6.1 Kombinatorik......................... 125 6.2 Grundbegri e......................... 129 6.3 Wahrscheinlichkeiten.....................

Mehr

1. Ziehg.: N M. falls nicht-rote K. in 1. Ziehg. gezogen

1. Ziehg.: N M. falls nicht-rote K. in 1. Ziehg. gezogen 6.4 Hyergeometrische Verteilung Gegeben ist eine Urne, die mit N Kugeln gefüllt ist. Es seien M dieser Kugeln rot und N-M Kugeln nicht rot. Wir entnehmen n Kugeln, d.h. eine Stichrobe des Umfangs n. Dabei

Mehr

Unter dem Symbol n! (gelesen n Fakultät) versteht man das Produkt der natürlichen Zahlen von 1 bis n.

Unter dem Symbol n! (gelesen n Fakultät) versteht man das Produkt der natürlichen Zahlen von 1 bis n. Die Fakultät Definition: Unter dem Symbol n! (gelesen n Fakultät) versteht man das Produkt der natürlichen Zahlen von 1 bis n. n! = 1 2 3... (n 2) (n 1) n Zusätzlich wird definiert 0! = 1 Wie aus der Definition

Mehr

Diskrete Wahrscheinlichkeitsverteilungen

Diskrete Wahrscheinlichkeitsverteilungen Diskrete Wahrscheinlichkeitsverteilungen Worum geht es in diesem Modul? Zufallsvariablen Wahrscheinlichkeitsverteilungen Maßzahlen theoretischer Verteilungen Eigenschaften von Erwartungswert und Varianz

Mehr

Einführung: Bayessches Lernen. Dipl.-Inform. Martin Lösch. martin.loesch@kit.edu (0721) 608 45944. Dipl.-Inform. Martin Lösch

Einführung: Bayessches Lernen. Dipl.-Inform. Martin Lösch. martin.loesch@kit.edu (0721) 608 45944. Dipl.-Inform. Martin Lösch Einführung: martin.loesch@kit.edu (0721) 608 45944 Übersicht Motivation & Hintergrund Naiver Bayes-Klassifikator Bayessche Netze EM-Algorithmus 2 Was ist eigentlich? MOTIVATION & HINTERGRUND 3 Warum Lernen

Mehr

Regelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall

Regelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall Wahrscheinlichkeitstheorie Was will die Sozialwissenschaft damit? Regelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall Auch im Alltagsleben arbeiten wir mit Wahrscheinlichkeiten, besteigen

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike

Mehr

Diskrete Verteilungen

Diskrete Verteilungen KAPITEL 6 Disrete Verteilungen Nun werden wir verschiedene Beispiele von disreten Zufallsvariablen betrachten. 1. Gleichverteilung Definition 6.1. Eine Zufallsvariable X : Ω R heißt gleichverteilt (oder

Mehr

Beispielaufgaben Binomialverteilung Lösungen

Beispielaufgaben Binomialverteilung Lösungen L. Schmeink 05a_beispielaufgaben_binomialverteilung_lösungen.doc 1 Beispielaufgaben Binomialverteilung Lösungen Übung 1 Der Würfel mit zwei roten (A) und vier weißen Seitenflächen (B) soll fünfmal geworfen

Mehr

2.2 Ereignisse und deren Wahrscheinlichkeit

2.2 Ereignisse und deren Wahrscheinlichkeit 2.2 Ereignisse und deren Wahrscheinlichkeit Literatur: [Papula Bd., Kap. II.2 und II.], [Benning, Kap. ], [Bronstein et al., Kap. 1.2.1] Def 1 [Benning] Ein Zufallsexperiment ist ein beliebig oft wiederholbarer,

Mehr

λ(a n ) n 1 = (λa n ) n 1. Abbildung 1: Graph einer Folge. b n = arctan(n), f n = cos(nπ), g n = n 2, h n = ( 1) n n.

λ(a n ) n 1 = (λa n ) n 1. Abbildung 1: Graph einer Folge. b n = arctan(n), f n = cos(nπ), g n = n 2, h n = ( 1) n n. Folgen Es sei X eine beliebige Menge. Eine Folge mit Werten in X ist eine Abbildung von N nach X. Es wird also jeder natürlichen Zahl n (dem Index) ein Element a n aus X zugeordnet (das n-te Folgenglied).

Mehr

Auf dem Schulfest bietet Peter als Spielleiter das Glücksspiel "GlücksPasch" an.

Auf dem Schulfest bietet Peter als Spielleiter das Glücksspiel GlücksPasch an. Aufgabe 4 Glückspasch" (16 Punkte) Auf dem Schulfest bietet Peter als Spielleiter das Glücksspiel "GlücksPasch" an. Spielregeln: Einsatz 1. Der Mitspieler würfelt mit 2 Oktaederwürfeln. Fällt ein Pasch,

Mehr

Matura2016-Lösung. Problemstellung 1

Matura2016-Lösung. Problemstellung 1 Matura-Lösung Problemstellung. Die Funktion f( = + 9k + müsste bei = den Wert annehmen, also gilt + 9k + = k =. Wir betrachten den Bereich mit positiven Werten. Dann gilt: f ( = 8 + 8 = = ; = Bei liegt

Mehr

Bayessches Lernen Aufgaben

Bayessches Lernen Aufgaben Bayessches Lernen Aufgaben martin.loesch@kit.edu (0721) 608 45944 Aufgabe 1: Autodiebstahl-Beispiel Wie würde man ein NB-Klassifikator für folgenden Datensatz aufstellen? # Color Type Origin Stolen? 1

Mehr

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Wichtige Tatsachen und Formeln zur Vorlesung Mathematische Grundlagen für das Physikstudium 3 Franz Embacher http://homepage.univie.ac.at/franz.embacher/

Mehr

Bernoullikette und Binomialverteilung. Binomialverteilung

Bernoullikette und Binomialverteilung. Binomialverteilung Binomialverteilung Inhaltsverzeichnis Vorbemerkungen... 3 Listen und Mengen... 3 Beispiele für Ergebnisräume... 3 Bernoulliketten... 3 Binomialverteilung... 3 Aufgabe... 3 Graphische Veranschaulichung...

Mehr

Definition: Euklidischer Raum mit Skalarprodukt. Die kanonische Basis von Einheitsvektoren sind paarweise orthogonal zueinander:

Definition: Euklidischer Raum mit Skalarprodukt. Die kanonische Basis von Einheitsvektoren sind paarweise orthogonal zueinander: Definition: Euklidischer Raum mit Skalarprodukt Einsteinsche Summenkonvention (ES): über doppelt vorkommende Indizes wird summiert. Die kanonische Basis von Einheitsvektoren sind paarweise orthogonal zueinander:

Mehr

Dynamische Optimierung. Kapitel 4. Dynamische Optimierung. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 160 / 206

Dynamische Optimierung. Kapitel 4. Dynamische Optimierung. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 160 / 206 Kapitel 4 Dynamische Optimierung Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 160 / 206 Inhalt Inhalt 4 Dynamische Optimierung Allgemeiner Ansatz und Beispiele Stochastische dynamische

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de

Mehr

Übung zur Vorlesung Berechenbarkeit und Komplexität

Übung zur Vorlesung Berechenbarkeit und Komplexität RWTH Aachen Lehrgebiet Theoretische Informatik Reidl Ries Rossmanith Sanchez Tönnis WS 2012/13 Übungsblatt 9 10.12.2012 Übung zur Vorlesung Berechenbarkeit und Komplexität Aufgabe T20 Beweisen Sie die

Mehr

Differenzengleichungen. und Polynome

Differenzengleichungen. und Polynome Lineare Differenzengleichungen und Polynome Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-600 Innsbruck, Österreich franz.pauer@uibk.ac.at 1 Einleitung Mit linearen Differenzengleichungen

Mehr

Kurzzusammenstellung der in der Vorlesung behandelten impliziten Gleichungen und deren Ableitungen

Kurzzusammenstellung der in der Vorlesung behandelten impliziten Gleichungen und deren Ableitungen Kurzzusammenstellung der in der Vorlesung behandelten impliziten Gleichungen und deren Ableitungen Einleitung: Funktion mit einer Veränderlichen Als Einleitung haben wir folgende Funktion besprochen: y

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

3.2 Streuungsmaße. 3 Lage- und Streuungsmaße 133. mittlere Variabilität. geringe Variabilität. große Variabilität 0.0 0.1 0.2 0.3 0.4 0.

3.2 Streuungsmaße. 3 Lage- und Streuungsmaße 133. mittlere Variabilität. geringe Variabilität. große Variabilität 0.0 0.1 0.2 0.3 0.4 0. Eine Verteilung ist durch die Angabe von einem oder mehreren Mittelwerten nur unzureichend beschrieben. Beispiel: Häufigkeitsverteilungen mit gleicher zentraler Tendenz: geringe Variabilität mittlere Variabilität

Mehr

4 Reihen und Finanzmathematik

4 Reihen und Finanzmathematik 4 Reihen und Finanzmathematik 4. Reihen Aus Folgen lassen sich durch Aufaddieren weitere Folgen konstruieren. Das sind die sogenannten Reihen, sie spielen in der Finanzmathematik eine wichtige Rolle. Sei

Mehr

11 Logarithmus und allgemeine Potenzen

11 Logarithmus und allgemeine Potenzen Logarithmus und allgemeine Potenzen Bevor wir uns mit den Eigenschaften von Umkehrfunktionen, und insbesondere mit der Umkehrfunktion der Eponentialfunktion ep : R R + beschäftigen, erinnern wir an den

Mehr