Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir
|
|
- Eduard Kopp
- vor 5 Jahren
- Abrufe
Transkript
1 Kapitel 3: Entropie
2 Motivation Wir erinnern uns: Um eine Zuallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Inormation steht in direktem Zusammenhang mit der Unsicherheit Entropie über den Ausgang eines Zuallseperimentes Wie kann diese Unsicherheit quantitativ erasst werden? Statt einer direkten Deinition stellen wir eine Reihe von Anorderungen au
3 Anorderungen I Die Unsicherheit über ein Eperiment soll unabhängig von der Nomenklatur sein und nur von den Wahrscheinlichkeiten der Elementarereignisse abhängen Beispiel: Beim airen Münzwur soll die Unsicherheit gleich gross sein, egal ob wir die Ereignisse Kop und Zahl oder 0 und nennen 3
4 Anorderungen II Die Unsicherheit über ein Eperiment soll unabhängig von der Nomenklatur sein und nur von den Wahrscheinlichkeiten der Elementarereignisse abhängen Die Unsicherheit ist eine Funktion H, welche jeder Wahrscheinlichkeitsverteilung eine reelle Zahl zuordnet, im Falle endlicher Zuallseperimente also jeder Liste [p,..,p L ] sich zu summierender Zahlen Ohne Beschränkung der Allgemeinheit können wir daher eine solche Liste mit L Elementen als geordnet auassen, also p p... p L 4
5 Anorderungen III Ereignisse mit der Wahrscheinlichkeit 0 sollen keinen Einluss haben: [ p,..., p ] H [ p,..., p,0] H L L Allgemein soll gelten, dass ür Eperimente mit gleichwahrscheinlichen Ereignissen die Entropie mit der Anzahl der möglichen Ereignisse zunimmt: H L,..., < L H,..., L + L + 5
6 Anorderungen IV Die Entropie eines Münzwures soll umso kleiner sein, je unairer oder asymmetrischer die Münze ist, und ist maimal ür einen airen Münzwur [ p, p] < H [ q, ] p < q / H q H[p,..,p L ] ist maimal, wenn p p L /L 6
7 Anorderungen V Die Entropie eines Eperimentes, welches aus zwei unabhängigen Einzeleperimenten besteht, soll gleich der Summe der Einzelentropien sein H LM,..., LM H L,..., L + H M,..., M Wenn LM, dann gilt H0 Die Entropie eines Eperimentes mit nur einem einzigen möglichen Ausgang ist also 0. Sie enthält keine Inormation 7
8 Anorderungen VI Normierung: Es ist sinnvoll, die Entropie eines airen Münzwurs au zu normieren, da man ein Bit benötigt, um das Resultat darzustellen H, Glattheit: Kleine Änderungen in der Wahrscheinlichkeitsverteilung sollen nur kleine Änderungen in der Entropie bewirken 8
9 Deinitionen Man kann zeigen, dass die einzige Funktion, welche alle diese Forderungen erüllt, wie olgt deiniert sein muss Deinition : Die Entropie einer diskreten Wahrscheinlichkeitsverteilung [p,...,p L ] ist: [ p ] pl pi log pi H i L,..., Beispiel: Die Entropie der dreiwertigen Verteilung [0.7, , ] ist bit, wie beim airen Münzwur Besonders einach ist die Entropieberechnung, wenn alle Wahrscheinlichkeiten negative Zweierpotenzen sind! 9
10 Deinitionen Die Zuallsvariable X nehme die Zustände {,, L } mit den Wahrscheinlichkeiten p X i an Deinition : Die Entropie einer diskreten Zuallsvariablen X ist: L H X px i log i Anmerkung: Auch ür L kann die obige Summe einen endlichen Wert annehmen Die Menge {,, L } aller Zustände von X nennen wir auch das Alphabet von X p X i 0
11 Inormationsquelle Gegeben: Inormationsquelle mit Alphabet {a,b,c,d} p a pb p c p d Ziel: möglichst optimale Codierung Human Ca Cb Cc Cd Ca 0 0 Cb 0 Cc Cd
12 Inormationsquelle Entropie: E X Bits 4 8 Mittlere Codelänge: L C E[ l C] d i a l C i p C i Ca 0 Cb 0.75 Bits Cc Cd
13 Inormationsquelle Alphabet {a,b,c} p a pb p c C a 0, Cb 0, Cc 3 E X log 3 log 3.58 Bits 3 i c L C l C i i a p C i.66 Bits Ca 0 Cb 0 Cc 3
14 Anmerkungen Beides sind präireie Codes acdaab ist eindeutig dekodierbar Minimale Anzahl Fragen zur Bestimmung von X Ist Xa? Ist Xb? Erwartungswert [ X ] < H H X < E X + 4
15 Binäre Entropieunktion Die Wahrscheinlichkeitsverteilung einer binären Zuallsvariablen X ist durch p X 0p vollständig beschrieben, da gilt: p X -p Die Entropie kann also als Funktion von p augeasst werden h p p log p plog p Sie ist ür 0<p< sowie h0h deiniert hp ist strikt konkav und besitzt ein Maimum bei p/ airer Münzwur 5
16 Binäre Entropieunktion 6
17 Entropie als Erwartungswert Anmerkung: Wir verwenden die Konvention 0 log 0 0 Dennoch gilt, dass Werte mit der Wahrscheinlichkeit 0 von der Betrachtung ausgeschlossen werden Dann kann die Entropie auch als Erwartungswert einer reellwertigen Funktion augeasst werden: [ log P ] H X E X X 7
18 Schranken ür die Entropie Theorem: Es sei χ {,, L } die Menge der möglichen Zustände der Zuallsvariablen X. Dann gilt: oder auch 0 H X log χ [ p,..., p ] L 0 H L log Gleichheit gilt au der linken Seite, wenn p X ür genau ein Gleichheit gilt au der rechten Seite, wenn p,,p L /L 8
19 Beweis I Beweis: Der linke Teil der Ungleichung olgt direkt aus der Tatsache, dass die Funktion log ür 0 < < streng positiv ist und nur ür gemäss Konvention gleich 0 ist Die rechte Ungleichung olgt aus der Jensen- Ungleichung und der Tatsache, dass die Funktion log konkav ist 9
20 0 Beweis II Es gilt: Der letzte Schritt olgt aus Konvention: Im Folgenden wird die Basis ür den Logarithmus angenommen und nicht mehr eplizit geschrieben χ log log log X P E X P E H X X χ X P X P X P E X L i X X
21 Konveität Deinition: Eine Funktion heisst konve au einem Intervall [a,b], wenn ür alle, [ a, b], und λ [0,] gilt : λ + λ λ + λ Eine Funktion ist strikt konve, wenn Gleichheit nur ür λ0 und λ gilt Eine Funktion ist konkav, wenn konve ist Der Graph einer dierenzierbaren, konveen Funktion liegt immer oberhalb jeder Tangente
22 Konveität Eistiert einer Funktion au einem oenen oder geschlossenen Intervall [a,b] und gilt >0, dann ist konve
23 3 Beweis Konveität Taylorreihe von um 0 [ ] 0 " gilt ür 0 * *... '' ' λ λ + ' sei λ λ + ' 0 0 λ λ λ λ λ λ
24 Jensen-Ungleichung Theorem: Für eine konvee Funktion und eine Zuallsvariable X gilt: E [ X ] E[ X ] Entsprechend gilt ür eine konkave Funktion g und eine Zuallsvariable X E [ g X ] g E[ X ] 4
25 Beweis Jensen-Ungleichung Wir gehen davon aus, dass mindestens einmal dierenzierbar ist Sei a+b die Tangente an im Punkt E[X] Wir ersetzen die Funktion in durch Ihre Tangente Dann gilt augrund der Linearität von E [ E X ] ae[ X ] + b E[ ax + b] E[ X ] Dies gilt augrund der Tatsache, dass der Graph der konveen Funktion immer oberhalb der Tangente liegt 5
26 Verbund-Entropie Es sei X,Y ein Paar von Zuallsvariablen Die gemeinsame Entropie Verbundentropie zweier Zuallsvariablen X und Y ist gegeben durch H XY, y p XY Theorem: Es gilt:, ylog p, y [ log p X, Y ] Gleichheit gilt genau dann, wenn Y durch Kenntnis von X eindeutig bestimmt ist, Y also keine neue Inormation enthält, also ür ein y gilt XY H X H XY E XY p Y X, y 6
27 Beweis Verbund-Entropie HX und HXY sind Erwartungswerte: [ log p X, ] H XY E Y Im Rahmen der Verbundwahrscheinlichkeiten zweier Zuallsvariablen haben wir olgende Gesetzmässigkeit kennengelernt: XY p XY, y p X Dies gilt ür alle möglichen Zustandspaare,y 7
28 Verbund-Entropie Folgendes Theorem ist von zentraler Bedeutung: Theorem: Es gilt H XY H X + H Y Gleichheit gilt genau dann, wenn Y und X statistisch unabhängig sind Der Beweis erolgt durch Einsetzen sowie Anwendung der Jensen-Ungleichung: H X E + H Y [ log p X log p Y log p X, Y ] X H XY Y XY Die Entropie des Verbundereignisses XY ist höchstens so gross, wie die Summe der Entropien der Einzelereignisse. 8
29 Bild dazu HXYHX HY HX HXY HXYHX + HY 9
Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir
Kapitel 3: Entropie Motivation Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Information steht
MehrEntropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.
Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie
MehrStochastische Lernalgorithmen
Stochastische Lernalgorithmen Gerhard Jäger 14. Mai 2003 Das Maximum-Entropy-Prinzip Der Entropiebegriff Entropie: Chaos, Unordung, Nicht-Vorhersagbarkeit,... Begriff kommt ursprünglich aus der Physik:
MehrVorlesung 12. Quellencodieren und Entropie
Vorlesung 12 Quellencodieren und Entropie 1 S sei eine abzählbare Menge (ein Alphabet ). Die Elemente von S nennen wir Buchstaben. Wir wollen die Buchstaben a, b,... durch (möglichst kurze) 01-Folgen k(a),
MehrVorlesung 15a. Quellencodieren und Entropie
Vorlesung 15a Quellencodieren und Entropie 1 1. Volle Binärbäume als gerichtete Graphen und die gewöhnliche Irrfahrt von der Wurzel zu den Blättern 2 3 ein (nicht voller) Binärbaum Merkmale eines Binärbaumes:
MehrKapitel 4: Bedingte Entropie
Kapitel 4: Bedingte Entropie Bedingte Entropie Das vorherige Theorem kann durch mehrfache Anwendung direkt verallgemeinert werden N 2... N i i Ebenso kann die bedingt Entropie definiert werden Definition:
MehrStatistische Methoden in der Sprachverarbeitung
' Statistische Methoden in der Sprachverarbeitung Gerhard Jäger 7. Mai 22 Inforationstheorie Der Entropiebegriff Entropie: Chaos, Unordung, Nicht-Vorhersagbarkeit,... Begriff kot ursprünglich aus der Physik:
Mehr1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen
1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte
Mehr3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238
3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher
MehrAbb lokales Maximum und Minimum
.13 Lokale Extrema, Monotonie und Konvexität Wir kommen nun zu den ersten Anwendungen der Dierentialrechnung. Zwischen den Eigenschaten einer Funktion, dem Verlau des zugehörigen Graphen und den Ableitungen
MehrVorlesung 13b. Relative Entropie
Vorlesung 13b Relative Entropie 1 S sei eine abzählbare Menge (ein Alphabet ). 2 S sei eine abzählbare Menge (ein Alphabet ). Die Elemente von S nennen wir Buchstaben. S sei eine abzählbare Menge (ein
MehrProseminar Datenkompression Suchstrategien und Präfixcodes
Proseminar Datenkompression Suchstrategien und Präfixcodes Patrick Sonntag Mittwoch, den 05.02.2003 I. Einführung - Suche elementares Problem in Informatik - hierbei Beschränkung auf binäre Tests nur 2
MehrKapitel 7: Optimalcodierung und Huffman Coding
Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge
MehrDefinition der Entropie unter Verwendung von supp(p XY )
Definition der Entropie unter Verwendung von supp(p XY ) Wir fassen die Ergebnisse des letzten Abschnitts nochmals kurz zusammen, wobei wir von der zweidimensionalen Zufallsgröße XY mit der Wahrscheinlichkeitsfunktion
MehrUniversität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt
Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert
MehrAnhang II zur Vorlesung Kryptologie: Entropie
Anhang II zur Vorlesung Kryptologie: Entropie von Peter Hellekalek Fakultät für Mathematik, Universität Wien, und Fachbereich Mathematik, Universität Salzburg Tel: +43-(0)662-8044-5310 Fax: +43-(0)662-8044-137
MehrKapitel 9: Informationstheorie. 2. Entropie
ZHAW, NT, FS2008, Rumc, Kapitel 9: 2-1 Kapitel 9: Informationstheorie 2. Entropie Inhaltsverzeichnis 2.1. INFORATIONSQUELLEN...2 2.2. INFORATIONSGEHALT...3 2.3. INIALE ANZAHL BINÄRE FRAGEN...5 2.4. ENTROPIE
MehrGRUNDLAGEN DER ANALYSIS, TOPOLOGIE UND GEOMETRIE (WWU 2016) 45
GRUNDLAGEN DER ANALSIS, TOPOLOGIE UND GEOMETRIE (WWU 2016) 45 16. ÜBERLAGERUNGEN UND HOCHHEBUNGSSÄTZE Überlagerungen sind ein mächtiges Werkzeug zur Berechnung von Fundamentalgruen. In den olgenden ca.
MehrWoche 2: Zufallsvariablen
Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 19/21, 29.04.2019 Wahrscheinlichkeit und Statistik Patric Müller WBL 2019 Teil III Zufallsvariablen Wahrscheinlichkeit
MehrTechnische Universität München
Stand der Vorlesung Kapitel 2: Auffrischung einiger mathematischer Grundlagen Mengen, Potenzmenge, Kreuzprodukt (Paare, Tripel, n-tupel) Relation: Teilmenge MxN Eigenschaften: reflexiv, symmetrisch, transitiv,
MehrDie mittlere Höhe eines Binärbaumes. h(t) = 1 e(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t
Höhe von Binärbäumen Die mittlere Höhe eines Binärbaumes h(t) = 1 e(t) b E(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t h(b, t), Höhe von Binärbäumen Die mittlere Höhe eines
MehrDefinition Information I(p)
Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 beträgt I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung 03-05.05.2009
MehrWoche 2: Zufallsvariablen
Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit
Mehrexistiert (endlich oder unendlich). f x h f x Dableitbar, wenn sie in jedem Punkt aus E ableitbar ist. f x h f x ':, ' lim
Ableitbare Funktionen. Ableitungen De. Sei die Funktion : D und Dein Häuungspunkt. Die Funktion ist genau dann an der Stelle eistiert und endlich ist. Die Funktion hat genau dann an der Stelle Grenzwert
MehrSeite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines
Seite 1 Georg-August-Universität Göttingen Robert Schaback Zum Begriff der Information in Mathematik und Informatik Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A)
MehrBegriffe aus der Informatik Nachrichten
Begriffe aus der Informatik Nachrichten Gerhard Goos definiert in Vorlesungen über Informatik, Band 1, 1995 Springer-Verlag Berlin Heidelberg: Die Darstellung einer Mitteilung durch die zeitliche Veränderung
MehrInformationsgehalt einer Nachricht
Informationsgehalt einer Nachricht Betrachten folgendes Spiel Gegeben: Quelle Q mit unbekannten Symbolen {a 1, a 2 } und p 1 = 0.9, p 2 = 0.1. Zwei Spieler erhalten rundenweise je ein Symbol. Gewinner
MehrKapitel 11: Binäre Kanäle
Kaitel : Binäre Kanäle Ziele des Kaitels Binäre Kanäle und ihre Eigenschaften Gedächtnisfreie Kanäle Codierung als Schätzung und Schätzverfahren Kanalkaazität Shannon'sches Kanalcodierungstheorem Grundlegendes
MehrChaosSeminar - Informationstheorie
Alexander.Bernauer@ulm.ccc.de Stephanie.Wist@ulm.ccc.de 18. November 2005 Motivation schnelle Übertragung von Daten über gestörten Kanal Shannon48 Was ist Information? Information ist Abnahme von Unsicherheit
Mehri Pr(X = i). Bsp: Sei X die Summe zweier Würfe eines Würfels. Dann gilt E[X] =
Erwartungswert Definition Erwartungswert Der Erwartungswert einer diskreten ZV ist definiert als E[X] = i i Pr(X = i). E[X] ist endlich, falls i i Pr(X = i) konvergiert, sonst unendlich. Bsp: Sei X die
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrKAPITEL 5. Erwartungswert
KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar
MehrFinanzmathematische Modelle und Simulation
Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf
MehrSeminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung
Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft
Mehr3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.
3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle
MehrStochastik Wiederholung von Teil 1
Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,
MehrÜbung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit
Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung
MehrTechnische Informatik - Eine Einführung
Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und
Mehri Der Informatinonsgehalt ist also intuitiv umgekehrt proportional der Auftritswahrscheimlichkeit.
1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,
Mehr23 Konvexe Funktionen und Ungleichungen
23 Konvexe Funktionen und Ungleichungen 231 Konvexe Funktionen 232 Kriterien für Konvexität 233 Streng konvexe Funktionen 235 Wendepunkte 237 Ungleichung von Jensen 2310 Höldersche Ungleichung 2311 Minkowskische
MehrTeil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung
Zusammenfassung: diskrete und stetige Verteilungen Woche 4: Verteilungen Patric Müller diskret Wahrscheinlichkeitsverteilung p() stetig Wahrscheinlichkeitsdichte f ()
MehrDefinition Information I(p)
Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 ist definiert als I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung
Mehr8 Ungleichungen. Themen: Klassische Ungleichungen Konvexe und monotone Funktionen
8 Ungleichungen Themen: Klassische Ungleichungen Konvexe und monotone Funktionen Die Youngsche Ungleichung Aus 0 (a±b) 2 erhalten wir die Youngsche Ungleichung für a, b Ê ab 1 2 a2 + 1 2 b2. Ersetzen wir
MehrDie Lagrange-duale Funktion
Die Lagrange-duale Funktion Gregor Leimcke 21. April 2010 1 Die Lagrangefunktion Wir betrachten das allgemeine Optimierungsproblem wobei minimiere f 0 über D sodass f i 0, i = 1,..., m 1.1 D = h i = 0,
Mehr4 Invertierbare Matrizen
4 Invertierbare Matrizen In diesem Kapitel beassen wir uns mit der Frage, welche Matrizen eine multiplikative Inverse haben und wie wir im gegebenen Fall diese Inverse bestimmen können. Die Matrizen sind
MehrEffiziente Algorithmen und Komplexitätstheorie
Fakultät für Informatik Lehrstuhl 2 Vorlesung Effiziente Algorithmen und Komplexitätstheorie Sommersemester 2008 Ingo Wegener; Vertretung: Carsten Witt 7. Juli 2008 Vorlesung am 14.07. (nächste Woche):
MehrBegriffe Wahrscheinlichkeitstheorie I
Begriffe Wahrscheinlichkeitstheorie I Träger / Alphabet einer diskreten Zufallsgröße nach ( 0.0) Der Träger S X R der diskreten Zufallsgröße X ist die Menge aller Werte x, die die Zufallsgröße (mit einer
MehrDiskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier
Diskrete Strukturen und Logik WiSe 2007/08 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Diskrete Strukturen und Logik Gesamtübersicht Organisatorisches Einführung Logik & Mengenlehre
MehrVorlesung 3b. Der Erwartungswert
Vorlesung 3b Der Erwartungswert von diskreten reellwertigen Zufallsvariablen Teil 2 0. Wiederholung X sei eine diskrete reellwertige Zufallsvariable X S R E[X] := a S a P(X = a). heißt Erwartungswert von
MehrAufgaben zum Aufstellen von Funktionen aus gegebenen Bedingungen
Augaben zum Austellen von Funktionen aus gegebenen Bedingungen 1. Die Parabel Gp ist der Graph der quadratischen Funktion p(. Diese Parabel schneidet die x-achse im Punkt N(6/0). Ihr Scheitelpunkt S(/yS)
MehrKonvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.
Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,
MehrGrundbegriffe der Wahrscheinlichkeitsrechnung
Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.
MehrBeispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.
1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,
MehrMathematik I Herbstsemester 2014 Kapitel 4: Anwendungen der Differentialrechnung
Mathematik I Herbstsemester 2014 Kapitel 4: Anwendungen der Differentialrechnung www.math.ethz.ch/education/bachelor/lectures/hs2014/other/mathematik1 BIOL Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/
MehrVorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:
MehrTGI-Übung Dirk Achenbach
TGI-Übung 7 06.02.2014 Dirk Achenbach INSTITUT FÜR THEORETISCHE INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Agenda
Mehrzu Aufgabe 26: a) A 3 A 2 A 4 A 1 A 5 A 0 A 6
zu ufgabe 6: a) 3 5 6 7 p( ) p( ) p( 3 ) p( ) p( 5 ) p( 6 ) p( 7 ) = p( 3 ) = p( 3 ) = p( 3 ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = 8 p( ) = p( ) = p( ) = p( ) Lösung: b) binär 8 p(
Mehr8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.
8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A
MehrInformation nachher = Unsicherheit vorher.
1 Entropie Wir machen folgendes Gedankenexperiment. Gegeben ist die Menge X = {x 1,...,x n } von Ausgängen eines Experimentes mit den Wahrscheinlichkeiten p(x i )=p i. H(X) =H(p 1,...,p n ) ist das Informationsmaß,
Mehrdx nf(x 0). dx f(n 1) (x 0 ) = dn
4.3. Höhere Ableitungen, Konveität, Newtonverfahren 65 4.3 Höhere Ableitungen, Konveität, Newtonverfahren Ist f:i R differenzierbar auf einem Intervall I, so erhalten wir eine neue Funktion auf I, nämlich
MehrStatistik III. Walter Zucchini Fred Böker Andreas Stadie
Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................
Mehr2.6 Lokale Extrema und Mittelwertsatz
2.6. Lokale Etrema und Mittelwertsatz 49 2.6 Lokale Etrema und Mittelwertsatz In diesem Kapitel bezeichne f stets eine reellwertige Funktion, definiert auf einem abgeschlossenen Intervall [a, b]. Unter
MehrMustererkennung: Wahrscheinlichkeitstheorie. D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10
Mustererkennung: Wahrscheinlichkeitstheorie D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10 Definitionen (axiomatisch) Wahrscheinlichkeitsraum (Ω, σ, P), mit Ω Die Grundmenge, die Menge der elementaren
MehrMathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1
Mathematische Grundlagen III Informationstheorie 20 Juni 20 / Informationstheorie Ein Gerüst, um über den Informationsgehalt von (linguistischen) Ereignissen nachzudenken Einige Beispiele für Anwendungen:
MehrKryptographie und Datensicherheit. Universität Potsdam Institut für Informatik Almahameed Ayman
Kryptographie und Datensicherheit Universität Potsdam Institut für Informatik Almahameed Ayman almahame@uni-potsdam.de Inhalt des Vortrags Einführung Grundlagen der Wahrscheinlichkeitstheorie Begriff der
MehrKapitel 2 Mathematische Grundlagen
Kapitel 2 Mathematische Grundlagen Ziel: Einführung/Auffrischung einiger mathematischer Grundlagen 2.1 Mengen, Relationen, Ordnungen Definition: Eine Menge ist eine Zusammenfassung von wohlbestimmten und
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrTheoretische Biophysik - Statistische Physik
Theoretische Biophysik - Statistische Physik 14. Vorlesung Pawel Romanczuk Wintersemester 2018 http://lab.romanczuk.de/teaching/ 1 Zusammenfassung letzte VL Aktive Brownsche Bewegung Effektive Diffusion
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsräume
Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten
MehrVorkurs Mathematik für Ingenieur Innen WS 2018/2019 Übung 7
Prof. Dr. J. Pannek Dynamics in Logistics Vorkurs Mathematik für Ingenieur Innen WS 018/019 Übung 7 Aufgabe 1 : Etremwerte Der Ellipse + y = 1 ist ein Rechteck mit Seitenlängen p, q, dessen Seiten parallel
MehrLösungsvorschläge zu Blatt Nr. 13
Institut für Algorithmen und Kognitive Systeme Dr. Jörn Müller-Quade Carmen Kempka Christian Henrich Nico Döttling Vorlesung Informatik III Lösungsvorschläge zu Blatt Nr. Aufgabe (K ( Punkte Gegeben ist
MehrVorkurs Mathematik für Ingenieure WS 2015/2016 Übung 6
Prof. Dr. J. Pannek Dynamics in Logistics Vorkurs Mathematik für Ingenieure WS 015/016 Übung 6 Aufgabe 1 : Differentialrechnung (a Berechnen Sie die Ableitung nachstehender Funktionen an der Stelle 0 und
MehrHauptprüfung Abiturprüfung 2015 (ohne CAS) Baden-Württemberg
Baden-Württemberg: Abitur 01 Pflichtteil www.mathe-aufgaben.com Hauptprüfung Abiturprüfung 01 (ohne CAS) Baden-Württemberg Pflichtteil Hilfsmittel: keine allgemeinbildende Gymnasien Alexander Schwarz www.mathe-aufgaben.com
MehrSTATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik
Kapitel 11 Diskrete Zufallsvariablen 11.1. Wahrscheinlichkeits- und diskret Wahrscheinlichkeitsverteilungen Wahrscheinlichkeitsfunktion von X Nimmt abzählbare Anzahl von Ausprägungen an (z.b. Zählvariablen)
MehrP (X = 2) = 1/36, P (X = 3) = 2/36,...
2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel
MehrEin sortiertes Feld kann in O(log n) durchsucht werden, z.b. mit Binärsuche. Der Algorithmus 1 gibt den Pseudocode der binären Suche an.
2.5 Suchen Eine Menge S will nach einem Element durchsucht werden. Die Menge S ist statisch und S = n. S ist Teilmenge eines Universums auf dem eine lineare Ordnung definiert ist und soll so gespeichert
MehrModul 1: Einführung und Wahrscheinlichkeitsrechnung
Modul : Einführung und Wahrscheinlichkeitsrechnung Informationstheorie Dozent: Prof. Dr. M. Gross E-mail: grossm@inf.ethz.ch Assistenten: Bernd Bickel, Daniel Cotting, Michael Waschbüsch, Boris Köpf, Andrea
MehrVorlesung Mehrnutzer-Informationstheorie
Vorlesung Mehrnutzer-Informationstheorie Vorlesung: Übung: Bho Matthiesen Lehrstuhl für Theoretische Nachrichtentechnik TU Dresden WS 2017-2018 Vorlesung 1: 11. Oktober 2017 Mehrnutzer-Informationstheorie
MehrGraphentheorie. Zufallsgraphen. Zufallsgraphen. Zufallsgraphen. Rainer Schrader. 23. Januar 2008
Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 3. Januar 008 1 / 45 / 45 Gliederung man könnte vermuten, dass ein Graph mit großer chromatischer Zahl einen dichten Teilgraphen enthalten
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April
MehrInformation und Kommunikation
ETH Zürich Departement Informatik Information und Kommunikation Prof. Ueli Maurer Wintersemester 2003/2004 Vorwort Das Ziel dieser Vorlesung ist die Vermittlung theoretischer Grundlagen und Konzepte im
MehrRechnernutzung in der Physik
Rechnernutzung in der Physik Teil 3 Statistische Methoden in der Datenanalyse Roger Wolf 15. Dezember 215 INSTITUTE OF EXPERIMENTAL PARTICLE PHYSICS (IEKP) PHYSICS FACULTY KIT University of the State of
MehrTU DORTMUND Sommersemester 2018
Fakultät Statistik. April 08 Blatt Aufgabe.: Wir betrachten das Zufallsexperiment gleichzeitiges Werfen zweier nicht unterscheidbarer Würfel. Sei A das Ereignis, dass die Augensumme beider Würfel ungerade
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 3. Übung: Woche vom bis
Übungsaufgaben 3. Übung: Woche vom 27. 10. bis 31. 10. 2010 Heft Ü1: 3.14 (c,d,h); 3.15; 3.16 (a-d,f,h,j); 3.17 (d); 3.18 (a,d,f,h,j) Übungsverlegung für Gruppe VIW 05: am Mo., 4.DS, SE2 / 022 (neuer Raum).
Mehr67 Zufallsvariable, Erwartungswert, Varianz
67 Zufallsvariable, Erwartungswert, Varianz 67.1 Motivation Oft möchte man dem Resultat eines Zufallsexperiments eine reelle Zahl zuordnen. Der Gewinn bei einem Glücksspiel ist ein Beispiel hierfür. In
MehrSeminararbeit: Information einer Verteilung
Seminararbeit: Information einer Verteilung Autor: Antun Topic Betreuerin: Prof. Christina Schneider 7. Januar 2015 Inhaltsverzeichnis 1 Begriffsklärung Information-Entropie 1 2 Information von diskreten
MehrStatistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrKlausur zu,,einführung in die Wahrscheinlichkeitstheorie
Institut für angewandte Mathematik Wintersemester 2009/10 Andreas Eberle, Matthias Erbar, Bernhard Hader Klausur zu,,einführung in die Wahrscheinlichkeitstheorie Bitte diese Felder in Druckschrift ausfüllen
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
MehrÜbungsaufgaben, Statistik 1
Übungsaufgaben, Statistik 1 Kapitel 3: Wahrscheinlichkeiten [ 4 ] 3. Übungswoche Der Spiegel berichtet in Heft 29/2007 von folgender Umfrage vom 3. und 4. Juli 2007:,, Immer wieder werden der Dalai Lama
MehrZufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s
X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------
MehrVorlesung 7b. Der Zentrale Grenzwertsatz
Vorlesung 7b Der Zentrale Grenzwertsatz 1 Zentraler Grenzwertsatz (Tschebyscheff) Die standardisierte Summe von unabhängigen, identisch verteilten R-wertigen Zufallsvariablen konvergiert in Verteilung
MehrKapitel II Funktionen reeller Variabler
Kapitel II Funktionen reeller Variabler D (Funktion) Es sei f XxY eine Abbildung Die Abbildung f heiß Funktion, falls sie eindeutig ist Man schreibt dann auch: f : X Y f ( x) = y, wobei y das (eindeutig
MehrWir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, (
Kapitel 4 Konfidenzbereiche Wir gehen wieder von einem allgemeinen parametrischen statistischen Modell aus, M, A, P ϑ ; sei eine Funktion des Parameters gegeben, die einen interessierenden Teil-Parameter
MehrKapitel VII Untersuchung von Funktionen mittels Ableitungen (Lösungen)
Kapitel VII Untersuchung von Funktionen mittels Ableitungen (Lösungen) 7 cos sin 7 a) b a b b a a b a ln ln ln b) 8 sin cos sin ) ( lnsin π π π π π c) + + + ln 7 a) + e e e e b) ) + + ( + + 7 a) + + +
MehrSabrina Kallus, Eva Lotte Reinartz, André Salé
Sabrina Kallus, Eva Lotte Reinartz, André Salé } Wiederholung (Zufallsvariable) } Erwartungswert Was ist das? } Erwartungswert: diskrete endliche Räume } Erwartungswert: Räume mit Dichten } Eigenschaften
Mehr