Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir

Größe: px
Ab Seite anzeigen:

Download "Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir"

Transkript

1 Kapitel 3: Entropie

2 Motivation Wir erinnern uns: Um eine Zuallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Inormation steht in direktem Zusammenhang mit der Unsicherheit Entropie über den Ausgang eines Zuallseperimentes Wie kann diese Unsicherheit quantitativ erasst werden? Statt einer direkten Deinition stellen wir eine Reihe von Anorderungen au

3 Anorderungen I Die Unsicherheit über ein Eperiment soll unabhängig von der Nomenklatur sein und nur von den Wahrscheinlichkeiten der Elementarereignisse abhängen Beispiel: Beim airen Münzwur soll die Unsicherheit gleich gross sein, egal ob wir die Ereignisse Kop und Zahl oder 0 und nennen 3

4 Anorderungen II Die Unsicherheit über ein Eperiment soll unabhängig von der Nomenklatur sein und nur von den Wahrscheinlichkeiten der Elementarereignisse abhängen Die Unsicherheit ist eine Funktion H, welche jeder Wahrscheinlichkeitsverteilung eine reelle Zahl zuordnet, im Falle endlicher Zuallseperimente also jeder Liste [p,..,p L ] sich zu summierender Zahlen Ohne Beschränkung der Allgemeinheit können wir daher eine solche Liste mit L Elementen als geordnet auassen, also p p... p L 4

5 Anorderungen III Ereignisse mit der Wahrscheinlichkeit 0 sollen keinen Einluss haben: [ p,..., p ] H [ p,..., p,0] H L L Allgemein soll gelten, dass ür Eperimente mit gleichwahrscheinlichen Ereignissen die Entropie mit der Anzahl der möglichen Ereignisse zunimmt: H L,..., < L H,..., L + L + 5

6 Anorderungen IV Die Entropie eines Münzwures soll umso kleiner sein, je unairer oder asymmetrischer die Münze ist, und ist maimal ür einen airen Münzwur [ p, p] < H [ q, ] p < q / H q H[p,..,p L ] ist maimal, wenn p p L /L 6

7 Anorderungen V Die Entropie eines Eperimentes, welches aus zwei unabhängigen Einzeleperimenten besteht, soll gleich der Summe der Einzelentropien sein H LM,..., LM H L,..., L + H M,..., M Wenn LM, dann gilt H0 Die Entropie eines Eperimentes mit nur einem einzigen möglichen Ausgang ist also 0. Sie enthält keine Inormation 7

8 Anorderungen VI Normierung: Es ist sinnvoll, die Entropie eines airen Münzwurs au zu normieren, da man ein Bit benötigt, um das Resultat darzustellen H, Glattheit: Kleine Änderungen in der Wahrscheinlichkeitsverteilung sollen nur kleine Änderungen in der Entropie bewirken 8

9 Deinitionen Man kann zeigen, dass die einzige Funktion, welche alle diese Forderungen erüllt, wie olgt deiniert sein muss Deinition : Die Entropie einer diskreten Wahrscheinlichkeitsverteilung [p,...,p L ] ist: [ p ] pl pi log pi H i L,..., Beispiel: Die Entropie der dreiwertigen Verteilung [0.7, , ] ist bit, wie beim airen Münzwur Besonders einach ist die Entropieberechnung, wenn alle Wahrscheinlichkeiten negative Zweierpotenzen sind! 9

10 Deinitionen Die Zuallsvariable X nehme die Zustände {,, L } mit den Wahrscheinlichkeiten p X i an Deinition : Die Entropie einer diskreten Zuallsvariablen X ist: L H X px i log i Anmerkung: Auch ür L kann die obige Summe einen endlichen Wert annehmen Die Menge {,, L } aller Zustände von X nennen wir auch das Alphabet von X p X i 0

11 Inormationsquelle Gegeben: Inormationsquelle mit Alphabet {a,b,c,d} p a pb p c p d Ziel: möglichst optimale Codierung Human Ca Cb Cc Cd Ca 0 0 Cb 0 Cc Cd

12 Inormationsquelle Entropie: E X Bits 4 8 Mittlere Codelänge: L C E[ l C] d i a l C i p C i Ca 0 Cb 0.75 Bits Cc Cd

13 Inormationsquelle Alphabet {a,b,c} p a pb p c C a 0, Cb 0, Cc 3 E X log 3 log 3.58 Bits 3 i c L C l C i i a p C i.66 Bits Ca 0 Cb 0 Cc 3

14 Anmerkungen Beides sind präireie Codes acdaab ist eindeutig dekodierbar Minimale Anzahl Fragen zur Bestimmung von X Ist Xa? Ist Xb? Erwartungswert [ X ] < H H X < E X + 4

15 Binäre Entropieunktion Die Wahrscheinlichkeitsverteilung einer binären Zuallsvariablen X ist durch p X 0p vollständig beschrieben, da gilt: p X -p Die Entropie kann also als Funktion von p augeasst werden h p p log p plog p Sie ist ür 0<p< sowie h0h deiniert hp ist strikt konkav und besitzt ein Maimum bei p/ airer Münzwur 5

16 Binäre Entropieunktion 6

17 Entropie als Erwartungswert Anmerkung: Wir verwenden die Konvention 0 log 0 0 Dennoch gilt, dass Werte mit der Wahrscheinlichkeit 0 von der Betrachtung ausgeschlossen werden Dann kann die Entropie auch als Erwartungswert einer reellwertigen Funktion augeasst werden: [ log P ] H X E X X 7

18 Schranken ür die Entropie Theorem: Es sei χ {,, L } die Menge der möglichen Zustände der Zuallsvariablen X. Dann gilt: oder auch 0 H X log χ [ p,..., p ] L 0 H L log Gleichheit gilt au der linken Seite, wenn p X ür genau ein Gleichheit gilt au der rechten Seite, wenn p,,p L /L 8

19 Beweis I Beweis: Der linke Teil der Ungleichung olgt direkt aus der Tatsache, dass die Funktion log ür 0 < < streng positiv ist und nur ür gemäss Konvention gleich 0 ist Die rechte Ungleichung olgt aus der Jensen- Ungleichung und der Tatsache, dass die Funktion log konkav ist 9

20 0 Beweis II Es gilt: Der letzte Schritt olgt aus Konvention: Im Folgenden wird die Basis ür den Logarithmus angenommen und nicht mehr eplizit geschrieben χ log log log X P E X P E H X X χ X P X P X P E X L i X X

21 Konveität Deinition: Eine Funktion heisst konve au einem Intervall [a,b], wenn ür alle, [ a, b], und λ [0,] gilt : λ + λ λ + λ Eine Funktion ist strikt konve, wenn Gleichheit nur ür λ0 und λ gilt Eine Funktion ist konkav, wenn konve ist Der Graph einer dierenzierbaren, konveen Funktion liegt immer oberhalb jeder Tangente

22 Konveität Eistiert einer Funktion au einem oenen oder geschlossenen Intervall [a,b] und gilt >0, dann ist konve

23 3 Beweis Konveität Taylorreihe von um 0 [ ] 0 " gilt ür 0 * *... '' ' λ λ + ' sei λ λ + ' 0 0 λ λ λ λ λ λ

24 Jensen-Ungleichung Theorem: Für eine konvee Funktion und eine Zuallsvariable X gilt: E [ X ] E[ X ] Entsprechend gilt ür eine konkave Funktion g und eine Zuallsvariable X E [ g X ] g E[ X ] 4

25 Beweis Jensen-Ungleichung Wir gehen davon aus, dass mindestens einmal dierenzierbar ist Sei a+b die Tangente an im Punkt E[X] Wir ersetzen die Funktion in durch Ihre Tangente Dann gilt augrund der Linearität von E [ E X ] ae[ X ] + b E[ ax + b] E[ X ] Dies gilt augrund der Tatsache, dass der Graph der konveen Funktion immer oberhalb der Tangente liegt 5

26 Verbund-Entropie Es sei X,Y ein Paar von Zuallsvariablen Die gemeinsame Entropie Verbundentropie zweier Zuallsvariablen X und Y ist gegeben durch H XY, y p XY Theorem: Es gilt:, ylog p, y [ log p X, Y ] Gleichheit gilt genau dann, wenn Y durch Kenntnis von X eindeutig bestimmt ist, Y also keine neue Inormation enthält, also ür ein y gilt XY H X H XY E XY p Y X, y 6

27 Beweis Verbund-Entropie HX und HXY sind Erwartungswerte: [ log p X, ] H XY E Y Im Rahmen der Verbundwahrscheinlichkeiten zweier Zuallsvariablen haben wir olgende Gesetzmässigkeit kennengelernt: XY p XY, y p X Dies gilt ür alle möglichen Zustandspaare,y 7

28 Verbund-Entropie Folgendes Theorem ist von zentraler Bedeutung: Theorem: Es gilt H XY H X + H Y Gleichheit gilt genau dann, wenn Y und X statistisch unabhängig sind Der Beweis erolgt durch Einsetzen sowie Anwendung der Jensen-Ungleichung: H X E + H Y [ log p X log p Y log p X, Y ] X H XY Y XY Die Entropie des Verbundereignisses XY ist höchstens so gross, wie die Summe der Entropien der Einzelereignisse. 8

29 Bild dazu HXYHX HY HX HXY HXYHX + HY 9

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir Kapitel 3: Entropie Motivation Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Information steht

Mehr

Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.

Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b. Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie

Mehr

Stochastische Lernalgorithmen

Stochastische Lernalgorithmen Stochastische Lernalgorithmen Gerhard Jäger 14. Mai 2003 Das Maximum-Entropy-Prinzip Der Entropiebegriff Entropie: Chaos, Unordung, Nicht-Vorhersagbarkeit,... Begriff kommt ursprünglich aus der Physik:

Mehr

Vorlesung 12. Quellencodieren und Entropie

Vorlesung 12. Quellencodieren und Entropie Vorlesung 12 Quellencodieren und Entropie 1 S sei eine abzählbare Menge (ein Alphabet ). Die Elemente von S nennen wir Buchstaben. Wir wollen die Buchstaben a, b,... durch (möglichst kurze) 01-Folgen k(a),

Mehr

Vorlesung 15a. Quellencodieren und Entropie

Vorlesung 15a. Quellencodieren und Entropie Vorlesung 15a Quellencodieren und Entropie 1 1. Volle Binärbäume als gerichtete Graphen und die gewöhnliche Irrfahrt von der Wurzel zu den Blättern 2 3 ein (nicht voller) Binärbaum Merkmale eines Binärbaumes:

Mehr

Kapitel 4: Bedingte Entropie

Kapitel 4: Bedingte Entropie Kapitel 4: Bedingte Entropie Bedingte Entropie Das vorherige Theorem kann durch mehrfache Anwendung direkt verallgemeinert werden N 2... N i i Ebenso kann die bedingt Entropie definiert werden Definition:

Mehr

Statistische Methoden in der Sprachverarbeitung

Statistische Methoden in der Sprachverarbeitung ' Statistische Methoden in der Sprachverarbeitung Gerhard Jäger 7. Mai 22 Inforationstheorie Der Entropiebegriff Entropie: Chaos, Unordung, Nicht-Vorhersagbarkeit,... Begriff kot ursprünglich aus der Physik:

Mehr

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen 1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte

Mehr

3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238

3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238 3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher

Mehr

Abb lokales Maximum und Minimum

Abb lokales Maximum und Minimum .13 Lokale Extrema, Monotonie und Konvexität Wir kommen nun zu den ersten Anwendungen der Dierentialrechnung. Zwischen den Eigenschaten einer Funktion, dem Verlau des zugehörigen Graphen und den Ableitungen

Mehr

Vorlesung 13b. Relative Entropie

Vorlesung 13b. Relative Entropie Vorlesung 13b Relative Entropie 1 S sei eine abzählbare Menge (ein Alphabet ). 2 S sei eine abzählbare Menge (ein Alphabet ). Die Elemente von S nennen wir Buchstaben. S sei eine abzählbare Menge (ein

Mehr

Proseminar Datenkompression Suchstrategien und Präfixcodes

Proseminar Datenkompression Suchstrategien und Präfixcodes Proseminar Datenkompression Suchstrategien und Präfixcodes Patrick Sonntag Mittwoch, den 05.02.2003 I. Einführung - Suche elementares Problem in Informatik - hierbei Beschränkung auf binäre Tests nur 2

Mehr

Kapitel 7: Optimalcodierung und Huffman Coding

Kapitel 7: Optimalcodierung und Huffman Coding Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge

Mehr

Definition der Entropie unter Verwendung von supp(p XY )

Definition der Entropie unter Verwendung von supp(p XY ) Definition der Entropie unter Verwendung von supp(p XY ) Wir fassen die Ergebnisse des letzten Abschnitts nochmals kurz zusammen, wobei wir von der zweidimensionalen Zufallsgröße XY mit der Wahrscheinlichkeitsfunktion

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

Anhang II zur Vorlesung Kryptologie: Entropie

Anhang II zur Vorlesung Kryptologie: Entropie Anhang II zur Vorlesung Kryptologie: Entropie von Peter Hellekalek Fakultät für Mathematik, Universität Wien, und Fachbereich Mathematik, Universität Salzburg Tel: +43-(0)662-8044-5310 Fax: +43-(0)662-8044-137

Mehr

Kapitel 9: Informationstheorie. 2. Entropie

Kapitel 9: Informationstheorie. 2. Entropie ZHAW, NT, FS2008, Rumc, Kapitel 9: 2-1 Kapitel 9: Informationstheorie 2. Entropie Inhaltsverzeichnis 2.1. INFORATIONSQUELLEN...2 2.2. INFORATIONSGEHALT...3 2.3. INIALE ANZAHL BINÄRE FRAGEN...5 2.4. ENTROPIE

Mehr

GRUNDLAGEN DER ANALYSIS, TOPOLOGIE UND GEOMETRIE (WWU 2016) 45

GRUNDLAGEN DER ANALYSIS, TOPOLOGIE UND GEOMETRIE (WWU 2016) 45 GRUNDLAGEN DER ANALSIS, TOPOLOGIE UND GEOMETRIE (WWU 2016) 45 16. ÜBERLAGERUNGEN UND HOCHHEBUNGSSÄTZE Überlagerungen sind ein mächtiges Werkzeug zur Berechnung von Fundamentalgruen. In den olgenden ca.

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 19/21, 29.04.2019 Wahrscheinlichkeit und Statistik Patric Müller WBL 2019 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

Technische Universität München

Technische Universität München Stand der Vorlesung Kapitel 2: Auffrischung einiger mathematischer Grundlagen Mengen, Potenzmenge, Kreuzprodukt (Paare, Tripel, n-tupel) Relation: Teilmenge MxN Eigenschaften: reflexiv, symmetrisch, transitiv,

Mehr

Die mittlere Höhe eines Binärbaumes. h(t) = 1 e(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t

Die mittlere Höhe eines Binärbaumes. h(t) = 1 e(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t Höhe von Binärbäumen Die mittlere Höhe eines Binärbaumes h(t) = 1 e(t) b E(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t h(b, t), Höhe von Binärbäumen Die mittlere Höhe eines

Mehr

Definition Information I(p)

Definition Information I(p) Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 beträgt I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung 03-05.05.2009

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

existiert (endlich oder unendlich). f x h f x Dableitbar, wenn sie in jedem Punkt aus E ableitbar ist. f x h f x ':, ' lim

existiert (endlich oder unendlich). f x h f x Dableitbar, wenn sie in jedem Punkt aus E ableitbar ist. f x h f x ':, ' lim Ableitbare Funktionen. Ableitungen De. Sei die Funktion : D und Dein Häuungspunkt. Die Funktion ist genau dann an der Stelle eistiert und endlich ist. Die Funktion hat genau dann an der Stelle Grenzwert

Mehr

Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines

Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines Seite 1 Georg-August-Universität Göttingen Robert Schaback Zum Begriff der Information in Mathematik und Informatik Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A)

Mehr

Begriffe aus der Informatik Nachrichten

Begriffe aus der Informatik Nachrichten Begriffe aus der Informatik Nachrichten Gerhard Goos definiert in Vorlesungen über Informatik, Band 1, 1995 Springer-Verlag Berlin Heidelberg: Die Darstellung einer Mitteilung durch die zeitliche Veränderung

Mehr

Informationsgehalt einer Nachricht

Informationsgehalt einer Nachricht Informationsgehalt einer Nachricht Betrachten folgendes Spiel Gegeben: Quelle Q mit unbekannten Symbolen {a 1, a 2 } und p 1 = 0.9, p 2 = 0.1. Zwei Spieler erhalten rundenweise je ein Symbol. Gewinner

Mehr

Kapitel 11: Binäre Kanäle

Kapitel 11: Binäre Kanäle Kaitel : Binäre Kanäle Ziele des Kaitels Binäre Kanäle und ihre Eigenschaften Gedächtnisfreie Kanäle Codierung als Schätzung und Schätzverfahren Kanalkaazität Shannon'sches Kanalcodierungstheorem Grundlegendes

Mehr

ChaosSeminar - Informationstheorie

ChaosSeminar - Informationstheorie Alexander.Bernauer@ulm.ccc.de Stephanie.Wist@ulm.ccc.de 18. November 2005 Motivation schnelle Übertragung von Daten über gestörten Kanal Shannon48 Was ist Information? Information ist Abnahme von Unsicherheit

Mehr

i Pr(X = i). Bsp: Sei X die Summe zweier Würfe eines Würfels. Dann gilt E[X] =

i Pr(X = i). Bsp: Sei X die Summe zweier Würfe eines Würfels. Dann gilt E[X] = Erwartungswert Definition Erwartungswert Der Erwartungswert einer diskreten ZV ist definiert als E[X] = i i Pr(X = i). E[X] ist endlich, falls i i Pr(X = i) konvergiert, sonst unendlich. Bsp: Sei X die

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

Finanzmathematische Modelle und Simulation

Finanzmathematische Modelle und Simulation Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf

Mehr

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft

Mehr

3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.

3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein. 3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle

Mehr

Stochastik Wiederholung von Teil 1

Stochastik Wiederholung von Teil 1 Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,

Mehr

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung

Mehr

Technische Informatik - Eine Einführung

Technische Informatik - Eine Einführung Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und

Mehr

i Der Informatinonsgehalt ist also intuitiv umgekehrt proportional der Auftritswahrscheimlichkeit.

i Der Informatinonsgehalt ist also intuitiv umgekehrt proportional der Auftritswahrscheimlichkeit. 1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,

Mehr

23 Konvexe Funktionen und Ungleichungen

23 Konvexe Funktionen und Ungleichungen 23 Konvexe Funktionen und Ungleichungen 231 Konvexe Funktionen 232 Kriterien für Konvexität 233 Streng konvexe Funktionen 235 Wendepunkte 237 Ungleichung von Jensen 2310 Höldersche Ungleichung 2311 Minkowskische

Mehr

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung Zusammenfassung: diskrete und stetige Verteilungen Woche 4: Verteilungen Patric Müller diskret Wahrscheinlichkeitsverteilung p() stetig Wahrscheinlichkeitsdichte f ()

Mehr

Definition Information I(p)

Definition Information I(p) Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 ist definiert als I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung

Mehr

8 Ungleichungen. Themen: Klassische Ungleichungen Konvexe und monotone Funktionen

8 Ungleichungen. Themen: Klassische Ungleichungen Konvexe und monotone Funktionen 8 Ungleichungen Themen: Klassische Ungleichungen Konvexe und monotone Funktionen Die Youngsche Ungleichung Aus 0 (a±b) 2 erhalten wir die Youngsche Ungleichung für a, b Ê ab 1 2 a2 + 1 2 b2. Ersetzen wir

Mehr

Die Lagrange-duale Funktion

Die Lagrange-duale Funktion Die Lagrange-duale Funktion Gregor Leimcke 21. April 2010 1 Die Lagrangefunktion Wir betrachten das allgemeine Optimierungsproblem wobei minimiere f 0 über D sodass f i 0, i = 1,..., m 1.1 D = h i = 0,

Mehr

4 Invertierbare Matrizen

4 Invertierbare Matrizen 4 Invertierbare Matrizen In diesem Kapitel beassen wir uns mit der Frage, welche Matrizen eine multiplikative Inverse haben und wie wir im gegebenen Fall diese Inverse bestimmen können. Die Matrizen sind

Mehr

Effiziente Algorithmen und Komplexitätstheorie

Effiziente Algorithmen und Komplexitätstheorie Fakultät für Informatik Lehrstuhl 2 Vorlesung Effiziente Algorithmen und Komplexitätstheorie Sommersemester 2008 Ingo Wegener; Vertretung: Carsten Witt 7. Juli 2008 Vorlesung am 14.07. (nächste Woche):

Mehr

Begriffe Wahrscheinlichkeitstheorie I

Begriffe Wahrscheinlichkeitstheorie I Begriffe Wahrscheinlichkeitstheorie I Träger / Alphabet einer diskreten Zufallsgröße nach ( 0.0) Der Träger S X R der diskreten Zufallsgröße X ist die Menge aller Werte x, die die Zufallsgröße (mit einer

Mehr

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier Diskrete Strukturen und Logik WiSe 2007/08 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Diskrete Strukturen und Logik Gesamtübersicht Organisatorisches Einführung Logik & Mengenlehre

Mehr

Vorlesung 3b. Der Erwartungswert

Vorlesung 3b. Der Erwartungswert Vorlesung 3b Der Erwartungswert von diskreten reellwertigen Zufallsvariablen Teil 2 0. Wiederholung X sei eine diskrete reellwertige Zufallsvariable X S R E[X] := a S a P(X = a). heißt Erwartungswert von

Mehr

Aufgaben zum Aufstellen von Funktionen aus gegebenen Bedingungen

Aufgaben zum Aufstellen von Funktionen aus gegebenen Bedingungen Augaben zum Austellen von Funktionen aus gegebenen Bedingungen 1. Die Parabel Gp ist der Graph der quadratischen Funktion p(. Diese Parabel schneidet die x-achse im Punkt N(6/0). Ihr Scheitelpunkt S(/yS)

Mehr

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h. Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.

Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind. 1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,

Mehr

Mathematik I Herbstsemester 2014 Kapitel 4: Anwendungen der Differentialrechnung

Mathematik I Herbstsemester 2014 Kapitel 4: Anwendungen der Differentialrechnung Mathematik I Herbstsemester 2014 Kapitel 4: Anwendungen der Differentialrechnung www.math.ethz.ch/education/bachelor/lectures/hs2014/other/mathematik1 BIOL Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/

Mehr

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:

Mehr

TGI-Übung Dirk Achenbach

TGI-Übung Dirk Achenbach TGI-Übung 7 06.02.2014 Dirk Achenbach INSTITUT FÜR THEORETISCHE INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Agenda

Mehr

zu Aufgabe 26: a) A 3 A 2 A 4 A 1 A 5 A 0 A 6

zu Aufgabe 26: a) A 3 A 2 A 4 A 1 A 5 A 0 A 6 zu ufgabe 6: a) 3 5 6 7 p( ) p( ) p( 3 ) p( ) p( 5 ) p( 6 ) p( 7 ) = p( 3 ) = p( 3 ) = p( 3 ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = 8 p( ) = p( ) = p( ) = p( ) Lösung: b) binär 8 p(

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Information nachher = Unsicherheit vorher.

Information nachher = Unsicherheit vorher. 1 Entropie Wir machen folgendes Gedankenexperiment. Gegeben ist die Menge X = {x 1,...,x n } von Ausgängen eines Experimentes mit den Wahrscheinlichkeiten p(x i )=p i. H(X) =H(p 1,...,p n ) ist das Informationsmaß,

Mehr

dx nf(x 0). dx f(n 1) (x 0 ) = dn

dx nf(x 0). dx f(n 1) (x 0 ) = dn 4.3. Höhere Ableitungen, Konveität, Newtonverfahren 65 4.3 Höhere Ableitungen, Konveität, Newtonverfahren Ist f:i R differenzierbar auf einem Intervall I, so erhalten wir eine neue Funktion auf I, nämlich

Mehr

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Statistik III. Walter Zucchini Fred Böker Andreas Stadie Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................

Mehr

2.6 Lokale Extrema und Mittelwertsatz

2.6 Lokale Extrema und Mittelwertsatz 2.6. Lokale Etrema und Mittelwertsatz 49 2.6 Lokale Etrema und Mittelwertsatz In diesem Kapitel bezeichne f stets eine reellwertige Funktion, definiert auf einem abgeschlossenen Intervall [a, b]. Unter

Mehr

Mustererkennung: Wahrscheinlichkeitstheorie. D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10

Mustererkennung: Wahrscheinlichkeitstheorie. D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10 Mustererkennung: Wahrscheinlichkeitstheorie D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10 Definitionen (axiomatisch) Wahrscheinlichkeitsraum (Ω, σ, P), mit Ω Die Grundmenge, die Menge der elementaren

Mehr

Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1

Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1 Mathematische Grundlagen III Informationstheorie 20 Juni 20 / Informationstheorie Ein Gerüst, um über den Informationsgehalt von (linguistischen) Ereignissen nachzudenken Einige Beispiele für Anwendungen:

Mehr

Kryptographie und Datensicherheit. Universität Potsdam Institut für Informatik Almahameed Ayman

Kryptographie und Datensicherheit. Universität Potsdam Institut für Informatik Almahameed Ayman Kryptographie und Datensicherheit Universität Potsdam Institut für Informatik Almahameed Ayman almahame@uni-potsdam.de Inhalt des Vortrags Einführung Grundlagen der Wahrscheinlichkeitstheorie Begriff der

Mehr

Kapitel 2 Mathematische Grundlagen

Kapitel 2 Mathematische Grundlagen Kapitel 2 Mathematische Grundlagen Ziel: Einführung/Auffrischung einiger mathematischer Grundlagen 2.1 Mengen, Relationen, Ordnungen Definition: Eine Menge ist eine Zusammenfassung von wohlbestimmten und

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Theoretische Biophysik - Statistische Physik

Theoretische Biophysik - Statistische Physik Theoretische Biophysik - Statistische Physik 14. Vorlesung Pawel Romanczuk Wintersemester 2018 http://lab.romanczuk.de/teaching/ 1 Zusammenfassung letzte VL Aktive Brownsche Bewegung Effektive Diffusion

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Vorkurs Mathematik für Ingenieur Innen WS 2018/2019 Übung 7

Vorkurs Mathematik für Ingenieur Innen WS 2018/2019 Übung 7 Prof. Dr. J. Pannek Dynamics in Logistics Vorkurs Mathematik für Ingenieur Innen WS 018/019 Übung 7 Aufgabe 1 : Etremwerte Der Ellipse + y = 1 ist ein Rechteck mit Seitenlängen p, q, dessen Seiten parallel

Mehr

Lösungsvorschläge zu Blatt Nr. 13

Lösungsvorschläge zu Blatt Nr. 13 Institut für Algorithmen und Kognitive Systeme Dr. Jörn Müller-Quade Carmen Kempka Christian Henrich Nico Döttling Vorlesung Informatik III Lösungsvorschläge zu Blatt Nr. Aufgabe (K ( Punkte Gegeben ist

Mehr

Vorkurs Mathematik für Ingenieure WS 2015/2016 Übung 6

Vorkurs Mathematik für Ingenieure WS 2015/2016 Übung 6 Prof. Dr. J. Pannek Dynamics in Logistics Vorkurs Mathematik für Ingenieure WS 015/016 Übung 6 Aufgabe 1 : Differentialrechnung (a Berechnen Sie die Ableitung nachstehender Funktionen an der Stelle 0 und

Mehr

Hauptprüfung Abiturprüfung 2015 (ohne CAS) Baden-Württemberg

Hauptprüfung Abiturprüfung 2015 (ohne CAS) Baden-Württemberg Baden-Württemberg: Abitur 01 Pflichtteil www.mathe-aufgaben.com Hauptprüfung Abiturprüfung 01 (ohne CAS) Baden-Württemberg Pflichtteil Hilfsmittel: keine allgemeinbildende Gymnasien Alexander Schwarz www.mathe-aufgaben.com

Mehr

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik Kapitel 11 Diskrete Zufallsvariablen 11.1. Wahrscheinlichkeits- und diskret Wahrscheinlichkeitsverteilungen Wahrscheinlichkeitsfunktion von X Nimmt abzählbare Anzahl von Ausprägungen an (z.b. Zählvariablen)

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

Ein sortiertes Feld kann in O(log n) durchsucht werden, z.b. mit Binärsuche. Der Algorithmus 1 gibt den Pseudocode der binären Suche an.

Ein sortiertes Feld kann in O(log n) durchsucht werden, z.b. mit Binärsuche. Der Algorithmus 1 gibt den Pseudocode der binären Suche an. 2.5 Suchen Eine Menge S will nach einem Element durchsucht werden. Die Menge S ist statisch und S = n. S ist Teilmenge eines Universums auf dem eine lineare Ordnung definiert ist und soll so gespeichert

Mehr

Modul 1: Einführung und Wahrscheinlichkeitsrechnung

Modul 1: Einführung und Wahrscheinlichkeitsrechnung Modul : Einführung und Wahrscheinlichkeitsrechnung Informationstheorie Dozent: Prof. Dr. M. Gross E-mail: grossm@inf.ethz.ch Assistenten: Bernd Bickel, Daniel Cotting, Michael Waschbüsch, Boris Köpf, Andrea

Mehr

Vorlesung Mehrnutzer-Informationstheorie

Vorlesung Mehrnutzer-Informationstheorie Vorlesung Mehrnutzer-Informationstheorie Vorlesung: Übung: Bho Matthiesen Lehrstuhl für Theoretische Nachrichtentechnik TU Dresden WS 2017-2018 Vorlesung 1: 11. Oktober 2017 Mehrnutzer-Informationstheorie

Mehr

Graphentheorie. Zufallsgraphen. Zufallsgraphen. Zufallsgraphen. Rainer Schrader. 23. Januar 2008

Graphentheorie. Zufallsgraphen. Zufallsgraphen. Zufallsgraphen. Rainer Schrader. 23. Januar 2008 Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 3. Januar 008 1 / 45 / 45 Gliederung man könnte vermuten, dass ein Graph mit großer chromatischer Zahl einen dichten Teilgraphen enthalten

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Information und Kommunikation

Information und Kommunikation ETH Zürich Departement Informatik Information und Kommunikation Prof. Ueli Maurer Wintersemester 2003/2004 Vorwort Das Ziel dieser Vorlesung ist die Vermittlung theoretischer Grundlagen und Konzepte im

Mehr

Rechnernutzung in der Physik

Rechnernutzung in der Physik Rechnernutzung in der Physik Teil 3 Statistische Methoden in der Datenanalyse Roger Wolf 15. Dezember 215 INSTITUTE OF EXPERIMENTAL PARTICLE PHYSICS (IEKP) PHYSICS FACULTY KIT University of the State of

Mehr

TU DORTMUND Sommersemester 2018

TU DORTMUND Sommersemester 2018 Fakultät Statistik. April 08 Blatt Aufgabe.: Wir betrachten das Zufallsexperiment gleichzeitiges Werfen zweier nicht unterscheidbarer Würfel. Sei A das Ereignis, dass die Augensumme beider Würfel ungerade

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 3. Übung: Woche vom bis

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 3. Übung: Woche vom bis Übungsaufgaben 3. Übung: Woche vom 27. 10. bis 31. 10. 2010 Heft Ü1: 3.14 (c,d,h); 3.15; 3.16 (a-d,f,h,j); 3.17 (d); 3.18 (a,d,f,h,j) Übungsverlegung für Gruppe VIW 05: am Mo., 4.DS, SE2 / 022 (neuer Raum).

Mehr

67 Zufallsvariable, Erwartungswert, Varianz

67 Zufallsvariable, Erwartungswert, Varianz 67 Zufallsvariable, Erwartungswert, Varianz 67.1 Motivation Oft möchte man dem Resultat eines Zufallsexperiments eine reelle Zahl zuordnen. Der Gewinn bei einem Glücksspiel ist ein Beispiel hierfür. In

Mehr

Seminararbeit: Information einer Verteilung

Seminararbeit: Information einer Verteilung Seminararbeit: Information einer Verteilung Autor: Antun Topic Betreuerin: Prof. Christina Schneider 7. Januar 2015 Inhaltsverzeichnis 1 Begriffsklärung Information-Entropie 1 2 Information von diskreten

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Klausur zu,,einführung in die Wahrscheinlichkeitstheorie

Klausur zu,,einführung in die Wahrscheinlichkeitstheorie Institut für angewandte Mathematik Wintersemester 2009/10 Andreas Eberle, Matthias Erbar, Bernhard Hader Klausur zu,,einführung in die Wahrscheinlichkeitstheorie Bitte diese Felder in Druckschrift ausfüllen

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

Übungsaufgaben, Statistik 1

Übungsaufgaben, Statistik 1 Übungsaufgaben, Statistik 1 Kapitel 3: Wahrscheinlichkeiten [ 4 ] 3. Übungswoche Der Spiegel berichtet in Heft 29/2007 von folgender Umfrage vom 3. und 4. Juli 2007:,, Immer wieder werden der Dalai Lama

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Vorlesung 7b. Der Zentrale Grenzwertsatz

Vorlesung 7b. Der Zentrale Grenzwertsatz Vorlesung 7b Der Zentrale Grenzwertsatz 1 Zentraler Grenzwertsatz (Tschebyscheff) Die standardisierte Summe von unabhängigen, identisch verteilten R-wertigen Zufallsvariablen konvergiert in Verteilung

Mehr

Kapitel II Funktionen reeller Variabler

Kapitel II Funktionen reeller Variabler Kapitel II Funktionen reeller Variabler D (Funktion) Es sei f XxY eine Abbildung Die Abbildung f heiß Funktion, falls sie eindeutig ist Man schreibt dann auch: f : X Y f ( x) = y, wobei y das (eindeutig

Mehr

Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, (

Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, ( Kapitel 4 Konfidenzbereiche Wir gehen wieder von einem allgemeinen parametrischen statistischen Modell aus, M, A, P ϑ ; sei eine Funktion des Parameters gegeben, die einen interessierenden Teil-Parameter

Mehr

Kapitel VII Untersuchung von Funktionen mittels Ableitungen (Lösungen)

Kapitel VII Untersuchung von Funktionen mittels Ableitungen (Lösungen) Kapitel VII Untersuchung von Funktionen mittels Ableitungen (Lösungen) 7 cos sin 7 a) b a b b a a b a ln ln ln b) 8 sin cos sin ) ( lnsin π π π π π c) + + + ln 7 a) + e e e e b) ) + + ( + + 7 a) + + +

Mehr

Sabrina Kallus, Eva Lotte Reinartz, André Salé

Sabrina Kallus, Eva Lotte Reinartz, André Salé Sabrina Kallus, Eva Lotte Reinartz, André Salé } Wiederholung (Zufallsvariable) } Erwartungswert Was ist das? } Erwartungswert: diskrete endliche Räume } Erwartungswert: Räume mit Dichten } Eigenschaften

Mehr