Kapitel 5: Markovketten
|
|
- Maximilian Schulz
- vor 6 Jahren
- Abrufe
Transkript
1 Kapitel 5: Markovketten
2 Definition 5.1 Bezeichnungen Bsp. 5.1 Definition 5.2 Eine Fam. (X i ) i I von ZV en X i : Ω E auf (Ω, F, P) mit Werten im messb. Raum (E, E) heißt Stochastischer Prozess. E Zustandsraum f : E R messbar Observable X n := n i=1 ξ i, n N, mit ξ i unabh. id. vert. reelle ZV en. E = R. X n ˆ= Sitzanordung der Studierenden im Hörsaal in der n-ten Sitzung. E ˆ= Menge aller möglichen Sitzanordungen. Sei I geordnete Menge und (X i ) i I stoch. Prozess mit abzählbaren Zustandsraum (E, E = 2 E ), s.d. für alle i 1 < i 2 < < i N i N+1 und A i E, e E P(X in+1 A N+1 X i1 A 1,...,, X in 1 A N 1, X in = e) so heißt (X i ) i I Markov-Prozess. = P(X in+1 A N+1 X in = e) Bemerkung (X i ) i I Markov : X in+1 ( künftiger Zustand ) hängt nur von X in ( Aktueller Zustand ) ab, nicht von der weiteren Vergangenheit.
3 Definition 5.3 Lemma 5.1 Markov-Lemma ) Bew: Bemerkung Vereinbarung Sei (Ω, F, P) und A, B, C F. Dann heißen A, B bedingt unabhängig gegeben C, falls P(A B C) = P(A C) P(B C). Die folgenden Aussagen sind äquivalent für A, B, C F 1) A, B bedingt unabhängig gegeben C 2) P(A B C) = P(A C) 3) P(A C B) = P(A C)P(C B) Übung. Markov Eigenschaft Zukunft und Vergangenheit bedingt unabh. gegeb. Gegenwart. Im folgenden ist stets (falls nicht anders bezeichnet) E abzählbar mit E = 2 E. I = N 0 (X k ) k N0 Markov-Kette.
4 Definition 5.4 Sei (X k ) k N0 eine Markov-Kette auf E. P (m,n) = P(X m = j X n = i), i, j E, m n 0, heißt (m, n)-übergangskern von (X k ). (X k ) heißt (zeitlich) homogen, falls P (m,n) = P (m+k,n+k) alle k N 0. λ := Vert(X 0 ) heißt Startverteilung von (X k ) k Satz 5.1 Eine Markov-Kette (X k ) k N0 ist homogen P (m,n) = (P m n ) ij (Matrixprodukt) mit P = P 1,0 (1-Schritt Übergangskern). Bew: Bemerkung klar. Beweis von durch Induktion nach t = m n. Falls t = 1 klar. Für t + 1: P (m,n) = P (m n,0) = P (t+1,0) = P(X t+1 = j X 0 = i) = o E P(X t+1 = j, X 1 = o X 0 = i) Markov-Lemma = o E P(X t+1 = j X 1 = o)p(x 1 = o X i ) = (P t P) ij. P =: (p ij ) i, E stochastische Matrix, d.h. p ij 0 und p ij = 1 i E. für
5 Endlich-Dimensionale Verteilungen Definition 5.5 Satz 5.2 Sei (X i ) i I ein stoch. Prozess mit Werten in E, dann heißt die Familie die W-Maße (P i1,...,i N ) i1 i 2, i N I P i1,...,i N (A 1,..., A N ) := P(X i1 A 1,..., X in A N ), A i E die endlich-dimensionalen Verteilungen von (X i ) i I. Die endlich dimensionalen Verteilungen einer homog. Markovkette (X k ) k N0 sind durch λ (Startverteilung) und P (Übergangskern) eindeutig bestimmt. Bew: P(X n = e n,..., X 0 = e 0 ) = P(X n = e n X n 1 = e n 1,..., X 0 = e 0 )P(X n 1 = e n 1,..., X 0 = e 0 ) = P en 1,e n P(X n 1 = e n 1,..., X 0 = e 0 ) = = n i=1 P e n,e n 1 P(X 1 = e 1, X 0 = e 0 ) = n i=1 P e n,e n 1 P(X 1 = e 1 X 0 = e 0 )P(X 0 = e 0 ) = n i=0 P e n,e n 1 λ(e 0 ). eind. bestimmt durch P und λ. Wegen P(X n A n,..., X 0 A 0 ) = (e n,...,e 0) A n...a 0 P(X n = e n,..., X 0 = e 0 ) folgt hieraus dann der allgemeine Fall.
6 Realisierung auf dem kanonischen Pfadraum Definition 5.6 Ω := E N0 = {ω = (ω i, i N 0 ) ω i E} heißt kanonischer Pfadraum, X i : Ω E, X i (ω) := ω i Koordinatenabbildung. Satz 5.3 Bew: Zu λ W-Maß auf E und P = (P ) i, E stochastische Matrix ex. genau ein Maß auf (Ω, 2 Ω ), s.d. (X k ) k 0 mit X k : Ω E, k-te Koordinatenabbildung eine Markov-Kette auf E definiert mit Übergangskern P und Startverteilung λ. Def. Inhalt P 0 (Z) auf Zylindermengen der Form Z = A 1... A N E E... durch P 0 (Z) = (e 0,...,e N ) A 1...A N λ(e 0 ) N 1 i=0 P e i,e i+1 P 0 is Prämaß auf Z = {Z Z Zylindermenge} P 0 eindeutig fortsetzbar als Maß auf σ(z) = 2 Ω. Bemerkung (X k ) k N0 mit X k : Ω = E N0 E heißt Koordinatenprozess. Satz 5.4 Zu λ und P gibt es eine im Sinne der endl. dimensionalen Verteilungen eindeutige homog. Markov-Kette (X k ) k N0 auf E mit Übergangsmatrix P und Startverteilung λ.
7 Ausblick: Messbarer Zustandsraum (E, E) Definition 5.7 Sei I eine geordnete Menge und (X i ) i I ein stochastischer Prozess mit Werten im messbaren Raum (E, E). Dann heißt (X i ) i Markov sch, falls f : E R messbar beschränkt, i j I, E[f (X i ) σ(x k, k j)] = E[f (X i ) σ(x j )]. Bemerkung Äquivalent zu Def. 5.2, falls E abzählbar (wähle f = 1 j ). Definition 5.8 Bemerkung Satz 5.5 Eine Familie (P x ) x E von W-Maßen auf (E, E), s.d. x P x (A) messbar für A E, heißt Markov-Kern auf (E, E). Interpretation P x (A) = P(X 1 A X 0 = x). Zu einem Markovkern (P x ) x E und einer W-Maß λ auf E ex. eine (im Sinne der endl. dim. Verteilungen) eind. Markov-Kette (X k ) k N0, so dass X 0 λ und für f : E R messbar E[f (X k+1 ) σ(x 1,..., X k )] = E f (z)p X k (dz) für alle k N 0.
8 Trefferzeiten und -wahrscheinlichkeiten Definition 5.9 Bsp. 5.2 (Ruinproblem) Sei (X k ) k 0 ein stoch. Prozess auf E und A E, dann heißt T A := inf{k 0 X k A} Trefferzeit von A. Für i E heißt h A i := E(T A < X 0 = i) Trefferwahrscheinlichkeit. (X k ) k Irrfahrt auf N 0 mit P ij = p falls j = i + 1, bzw. P ij = q falls j = i 1, p + q = 1 und i 1, sowie P 00 = 1, anonsten P ij = 0. Mit A = {0} T {0} ˆ= Ruinzeit. Satz 5.6 E i hi A [0, 1] ist die minimale nichtnegative Lösung von { hi A = 1 für i A = p ij kj A für i A c. h A i Bemerkung (h A i ) i E minimale nichtnegative Lösung : g i h A i für alle i E, falls g. 0 ebenfalls Lösung.
9 Lemma 5.2 Für (X k ) k eine Markov-Kette auf E und f : E N0 R messbar gilt E[f (X n, X n+1,... ) X 0 A 0,..., X n 1 A n 1, X n = i] = E[f (X n, X n+1,... ) X n = i). Bew: Bew: (von Satz 5.6) Für f = 1 Z mit Z = {e 1 }... {e N } E E Z ergibt sich Beh. durch Nachrechnen. Für allg. f durch Approximation. Für i A ist P(T A = 0 X 0 = i) = 1, also h A i = 1. Für i A c ist P(T A 1 X 0 = i) = 1 hi A = P(T A < X 0 = i) = P( n 1 : X n A X 0 = i) = P( n 1 : X n A, X 1 = j X 0 = i) = P( n 1 : X n A X 1 = j, X 0 = i)p(x 1 = j X 0 = 0) Lemma 5.2 = P( n 1 : X n A X 1 = j)p(x 1 = j X 0 = 0) (X k ) homog. = P( n 0 : X n A X 0 = j)p ij = hj A p ij.
10 Bew: (Satz 5.6, Forts.) Minimalität von h A i : Sei g i 0, i E weitere Lösung. Für i A ist 1 = h A i 1 = g i. Für i A c g i = g j p ij = p ij 1 + p ij g j j A j A c = p ij + p ij p jk g k j A j A c k E = p ij + p ij p jk + p ij p jk g k j A j A c k A j A c k A c = P(T A = 1 X 0 = i) + P(T A = 2 X 0 = i) + p ij j A c k A c p jk g k = P(T A = 1 X 0 = i) + P(T A = 2 X 0 = i) + + P(T A = N X 0 = i) + p ij1 p j1,j 2... p jn 1 j N g jn j 1 A c j 2 A c j N A c g 0 P(T A N X 0 = i) N N. Mit N und monton. Konvergenz g i P(T A < X 0 = i) = h A i.
11 Anwendung Ruinwahrscheinlichkeit Bsp. 5.2 (Forts.) h i = P(T {0} < X 0 = i), i N 0 ist die minimale nichtnegative Lösung von h 0 = 1 und h i = ph i+1 + qh i 1 für i N. Falls p q: h i = A + B( q p )i für i N 0. Falls p < q folgt aus h i [0, 1], dass B = 0 und wegen A = h 0 = 1, dass h i = 1, d.h. Ruin fast sicher in endlicher Zeit. Falls p > q, folgt wegen h 0 = 1 dass A + B = 1, d.h. h i = ( q p )i + A(1 ( q p )i ), und wegen h 0, dass A 0. Minimale Lösung gegeben durch h i = ( q p )i. D.h. Ruinwahrscheinlichkeit echt kleiner eins, eponentiell fallend mit dem Anfangskapital i. Falls p = q: h i = A + Bi, wobei wegen 0 h 1 gelten muss, dass B = 0 und A = 1 h i = 1 i.
12 Mittlere Trefferzeit Definition 5.10 Für A E heißt k A i := E(T A X 0 = i) mittlere Trefferzeit. Satz 5.7 ki A, i E ist die minimale nichtneg. Lösung von { ki A = 0 für i A = 1 + p ij kj A für i A c. k A i
Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie
Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen
MehrSatz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die
Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die Rückwärtsgleichung P (t) = QP (t), P (0) = E eine minimale nicht negative Lösung (P (t) : t 0). Die Lösung bildet eine Matrix Halbgruppe, d.h. P (s)p
MehrProseminarvortrag. Markov-Ketten in der Biologie (Anwendungen)
Proseminarvortrag Markov-Ketten in der Biologie (Anwendungen) von Peter Drössler 20.01.2010 2 Markov-Ketten in der Biologie (Peter Drössler, KIT 2010) Inhalt 1. Das Wright-Fisher Modell... 3 1.1. Notwendige
MehrKapitel 6 Martingale
Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse
MehrKlausur zur Vorlesung,,Algorithmische Mathematik II
Institut für angewandte Mathematik, Institut für numerische Simulation Sommersemester 2015 Prof. Dr. Anton Bovier, Prof. Dr. Martin Rumpf Klausur zur Vorlesung,,Algorithmische Mathematik II Bitte diese
Mehrx y f : R 2 R 3, Es gilt: Bild f = y : wobei x,y R Kern f = 0 (wird auf der nächsten Folie besprochen)
Def Wiederholung Sei f : V U eine lineare Abbildung Das Bild von f ist die folgende Teilmenge von U: Bild f = {u U so dass es gibt ein Element v V mit f (v) = u} (Andere Bezeichnung: f (V) wird in Analysis-Vorlesung
MehrBONUS MALUS SYSTEME UND MARKOV KETTEN
Fakultät Mathematik und Naturwissenschaften, Fachrichtung Mathematik, Institut für Mathematische Stochastik BONUS MALUS SYSTEME UND MARKOV KETTEN Klaus D. Schmidt Ringvorlesung TU Dresden Fakultät MN,
MehrVorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik
Univ. Leipzig Mathematisches Institut Vertretung Professur Stochastische Prozesse Max v. Renesse email: mrenesse@math.tu-berlin.de Vorlesung im SoSe 2010 Stochastische Analysis & Zeitstetige Finanzmathematik
Mehr4 Lineare Algebra (Teil 2): Quadratische Matrizen
4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,
MehrDiskrete Verteilungen
KAPITEL 6 Disrete Verteilungen Nun werden wir verschiedene Beispiele von disreten Zufallsvariablen betrachten. 1. Gleichverteilung Definition 6.1. Eine Zufallsvariable X : Ω R heißt gleichverteilt (oder
MehrLineare Abhängigkeit
Lineare Abhängigkeit Vorbemerkung. Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung I X, i x i. I heißt dabei Indexmenge. Man verwendet dabei oft die Schreibweise (x i ) oder (x
Mehr2 Euklidische Vektorräume
Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,
Mehrε δ Definition der Stetigkeit.
ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x
MehrSTOCHASTISCHE PROZESSE. Vorlesungsskript
STOCHASTISCHE PROZESSE I: Markovketten in diskreter und stetiger Zeit Wolfgang König Vorlesungsskript Universität Leipzig Sommersemester 2005 Inhaltsverzeichnis 1 Grundlagen 3 1.1 Einleitung........................................
Mehr35 Stetige lineare Abbildungen
171 35 Stetige lineare Abbildungen Lernziele: Konzepte: Lineare Operatoren und ihre Normen Resultate: Abschätzungen für Matrizennormen Kompetenzen: Abschätzung von Operatornormen 35.1 Lineare Abbildungen.
MehrTECHNISCHE UNIVERSITÄT MÜNCHEN. Abzählbarkeit, Injektivität, Sürjektivität und Bijektivität
TECHNISCHE UNIVERSITÄT MÜNCHEN Zentrum Mathematik Prof. Dr. Friedrich Roesler Ralf Franken, PhD Max Lein Lineare Algebra 1 WS 26/7 en Blatt 4 13.11.26 Abzählbarkeit, Injektivität, Sürjektivität und Bijektivität
Mehr4. Vektorräume und Gleichungssysteme
technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof Dr H M Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 41 und 42 4 Vektorräume
Mehrklar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s
Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen
MehrBedingte Wahrscheinlichkeiten und Unabhängigkeit
Kapitel 5 Bedingte Wahrscheinlichkeiten und Unabhängigkeit Mitunter erhält man über das Ergebnis eines zufälligen Versuches Vorinformationen. Dann entsteht die Frage, wie sich für den Betrachter, den man
MehrKapitel 12. Lineare Abbildungen und Matrizen
Kapitel 12 Lineare Abbildungen und Matrizen Lineare Abbildungen f : R n R m Wir wissen schon: Eine lineare Abbildung f : R n R m ist eindeutig durch ein n-tupel von Vektoren v 1, v 2,, v n des R m bestimmt
MehrAbsolute Stetigkeit von Maßen
Absolute Stetigkeit von Maßen Definition. Seien µ und ν Maße auf (X, Ω). Dann heißt ν absolut stetig bezüglich µ (kurz ν µ ), wenn für alle A Ω mit µ(a) = 0 auch gilt dass ν(a) = 0. Lemma. Sei ν ein endliches
MehrStetigkeit. Kapitel 4. Stetigkeit. Peter Becker (H-BRS) Analysis Sommersemester / 543
Kapitel 4 Stetigkeit Peter Becker (H-BRS) Analysis Sommersemester 2016 254 / 543 Inhalt Inhalt 4 Stetigkeit Eigenschaften stetiger Funktionen Funktionenfolgen und gleichmäßige Konvergenz Umkehrfunktionen
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
MehrKapitel 4: Stationäre Prozesse
Kapitel 4: Statioäre Prozesse M. Scheutzow Jauary 6, 2010 4.1 Maßerhaltede Trasformatioe I diesem Kapitel führe wir zuächst de Begriff der maßerhaltede Trasformatio auf eiem Wahrscheilichkeitsraum ei ud
Mehr3 Reihen. 3.1 Konvergenz und Divergenz. Die Eindeutigkeit nach Satz 13 ergibt schließlich (5). (6) folgt aus (2) und (1) wegen. 1 a +log ba.
Die Eindeutigkeit nach Satz 3 ergibt schließlich (5). (6) folgt aus (2) und () wegen Aussage (7) ergibt sich aus () und (6). 0 = log b = log b ( a a) = log b a +log ba. 3 Reihen 3. Konvergenz und Divergenz
MehrVektorräume und Rang einer Matrix
Universität Basel Wirtschaftswissenschaftliches Zentrum Vektorräume und Rang einer Matrix Dr. Thomas Zehrt Inhalt:. Lineare Unabhängigkeit 2. Vektorräume und Basen 3. Basen von R n 4. Der Rang und Rangbestimmung
MehrKapitel VI - Lage- und Streuungsparameter
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie
Mehr4 Elementare Vektorraumtheorie
4. ELEMENTARE VEKTORRAUMTHEORIE 51 4 Elementare Vektorraumtheorie Im folgenden sei K stets ein Körper. Definition. (i) Eine homogene Gleichung in den Unbekannten ξ 1,..., ξ n ist ein Ausdruck der Gestalt
MehrKapitel 3. Natürliche Zahlen und vollständige Induktion
Kapitel 3 Natürliche Zahlen und vollständige Induktion In Kapitel 1 haben wir den direkten Beweis, den modus ponens, kennen gelernt, der durch die Tautologie ( A (A = B) ) = B gegeben ist Dabei war B eine
MehrSTOCHASTISCHE MODELLE. Vorlesungsskript
STOCHASTISCHE MODELLE Michael Scheutzow Vorlesungsskript Technische Universität Berlin Wintersemester 2010/11 vorläufige Version Februar 2011 Inhaltsverzeichnis 1 Grundlagen 1 1.1 Einleitung........................................
MehrLineare Algebra I: Eine Landkarte
Bild F Algebra I: Eine Landkarte Faser Versuch einer Übersicht der Themen und Zusammenhänge der n Algebra 1. 1 Algebra I: Bild F Faser Sei B Basis von V. Jedes v V läßt sich eindeutig aus den Basisvektoren
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme Eines der am häufigsten auftretenden Standardprobleme der angewandten Mathematik ist das Lösen linearer Gleichungssysteme, etwa zur Netzwerkberechnung in der Elektrotechnik oder
MehrLeitfaden Lineare Algebra: Determinanten
Leitfaden Lineare Algebra: Determinanten Die symmetrische Gruppe S n. Eine Permutation σ der Menge S ist eine bijektive Abbildung σ : S S. Ist S eine endliche Menge, so reicht es zu verlangen, dass σ injektiv
MehrMarkovketten. Bsp. Page Ranking für Suchmaschinen. Wahlfach Entscheidung unter Risiko und stat. Datenanalyse 07.01.2015
Markovketten Markovketten sind ein häufig verwendetes Modell zur Beschreibung von Systemen, deren Verhalten durch einen zufälligen Übergang von einem Systemzustand zu einem anderen Systemzustand gekennzeichnet
Mehr1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6
Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 5 Hilfsmittel aus der Kombinatorik 7 Bedingte
MehrLineare Algebra I. Prof. Dr. M. Rost. Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar.
Lineare Algebra I Prof. Dr. M. Rost Übungen Blatt 10 (WS 2010/2011) Abgabetermin: Donnerstag, 13. Januar http://www.math.uni-bielefeld.de/~rost/la1 Erinnerungen und Ergänzungen zur Vorlesung: Hinweis:
Mehr2 Die Darstellung linearer Abbildungen durch Matrizen
2 Die Darstellung linearer Abbildungen durch Matrizen V und V seien Vektorräume über einem Körper K. Hom K (V, V ) bezeichnet die Menge der K linearen Abbildungen von V nach V. Wir machen Hom K (V, V )
MehrMartingale. Kapitel 6. 6.1 Martingale in diskreter Zeit. 6.1.1 Definition und Beispiele
Kapitel 6 Martingale In der Statistik modellieren Martingale z.b. Glücksspiele oder Handelsstrategien in Finanzmärkten und sind ein grundlegendes Hilfsmittel für die statistische Inferenz stochastischer
Mehr1.5 Folgerungen aus dem Kolmogoroff- Axiomensystem P( ) = 0.
1.5 Folgerungen aus dem Kolmogoroff- Axiomensystem Folg. 2 Sei (Ω, E, P) W.-raum. Seien A, B,A 1,...,A n Ereignisse. Es gelten die folgenden Aussagen: 1. P(A) = 1 P(A). 2. Für das unmögliche Ereignis gilt:
MehrLineare Abbildungen und Darstellungsmatrizen
KAPITEL 4 Lineare Abbildungen und Darstellungsmatrizen 1. Lineare Abbildungen Definition 4.1 (Lineare Abbildungen). Seien V und W zwei Vektorräume über den selben Körper K. Eine Abbildung f : V W heißt
MehrVorlesung 12 22. bzw. 23. Januar 2014. Determinanten 1. Cramersche Regel
Vorlesung 2 22 bzw 23 Januar 204 Lineares Gleichungssystem a a 2 b b 2 = F a a 2 a 3 b b 2 b 3 c c 2 c 3 = V V =< a, b c > c b a b a F V Seite 70 a x + a 2 x 2 + a 3 x 3 b = 0 < a x + a 2 x 2 + a 3 x 3
Mehr5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21
5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11
MehrSatz 16 (Multiplikationssatz)
Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.
MehrDefinition 27 Affiner Raum über Vektorraum V
Definition 27 Affiner Raum über Vektorraum V Definition 27 Affiner Raum über Vektorraum V ist die Menge A = Definition 27 Affiner Raum über Vektorraum V ist die Menge A = mit einer Abbildung + : A V A,
MehrSignalverarbeitung 2. Volker Stahl - 1 -
- 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen
MehrKapitel III. Lineare Abbildungen
Kapitel III. Lineare Abbildungen Beispiele: 1 Lineare Abbildungen a) Seien c 1,..., c n K vorgegeben. Betrachte die Funktion F (x 1,..., x n ) = c 1 x 1 + c 2 x 2 +... + c n x n in den Variablen x 1,...,
Mehr18 Höhere Ableitungen und Taylorformel
8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a
Mehr3 Vom Zählen zur Induktion
7 3 Vom Zählen zur Induktion 3.1 Natürliche Zahlen und Induktions-Prinzip Seit unserer Kindheit kennen wir die Zahlen 1,, 3, 4, usw. Diese Zahlen gebrauchen wir zum Zählen, und sie sind uns so vertraut,
MehrLANGZEITVERHALTEN VON MARKOW-KETTEN
LANGZEITVERHALTEN VON MARKOW-KETTEN NORA LOOSE. Buchstabensalat und Definition Andrei Andreewitsch Markow berechnete Anfang des 20. Jahrhunderts die Buchstabensequenzen in russischer Literatur. 93 untersuchte
Mehr7 Die Determinante einer Matrix
7 Die Determinante einer Matrix ( ) a11 a Die Determinante einer 2 2 Matrix A = 12 ist erklärt als a 21 a 22 det A := a 11 a 22 a 12 a 21 Es ist S 2 = { id, τ}, τ = (1, 2) und sign (id) = 1, sign (τ) =
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme Sei K ein Körper, a ij K für 1 i m, 1 j n. Weiters seien b 1,..., b m K. Dann heißt a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x 2 +... + a 2n x n = b 2... a m1
MehrErinnerung/Zusammenfassung zu Abbildungsmatrizen
Erinnerung/Zusammenfassung zu Abbildungsmatrizen Thomas Coutandin (cthomas@student.ethz.ch) 7. November 2 Abbildungsmatrizen Im Folgenden betrachten wir stets endlich dimensionale K-Vektorräume (K irgend
MehrBestimmung einer ersten
Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,
Mehr1 Mengen und Abbildungen
1 MENGEN UND ABBILDUNGEN 1 1 Mengen und Abbildungen Wir starten mit einigen einführenden Definitionen und Ergebnissen aus der Theorie der Mengen und Abbildungen, die nicht nur Grundlage der Linearen Algebra
MehrSimulation von Zufallsvariablen und Punktprozessen
Simulation von Zufallsvariablen und Punktprozessen 09.11.2009 Inhaltsverzeichnis 1 Einleitung 2 Pseudozufallszahlen 3 Punktprozesse Zufallszahlen Definition (Duden): Eine Zufallszahl ist eine Zahl, die
MehrMatrizen, Determinanten, lineare Gleichungssysteme
Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n
MehrETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)
ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels
MehrProjektive Moduln. Lemma/Definition 1.1. Folgende Aussagen für einen R-Modul P sind äquivalent: (i) P erfüllt folgende Liftungseigenschaft:
Seminar Summen von Quadraten und K-Theorie Projektive Moduln Im Folgenden sei R ein assoziativer Ring mit Eins, nicht notwendigerweise kommutativ. R-Modul ist im Folgenden stets ein Rechts-R-Modul. Ein
MehrElemente von S n = Aut([1, n]) heißen Permutationen. Spezielle Permutationen sind Transpositionen und Zyklen. (Vergl. Skript S
Begriffe Faser: Es sei f : M N eine Abbildung von Mengen. Es sei n N. Die Menge f 1 ({n}) M nennt man die Faser in n. (Skript Seite 119). Parallel: Zwei Vektoren v und w heißen parallel, wenn für einen
MehrSpezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden:
Inverse Matritzen Spezialfall: Die Gleichung ax b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a a 1 gelöst werden: ax b x b a a 1 b. Verallgemeinerung auf Ax b mit einer n nmatrix A: Wenn es
Mehr3 Polytope. 3.1 Polyeder
28 3 Polytope 3.1 Polyeder Polytope in der Ebene und im Raum standen neben Kreis und Kugel schon während der griechischen Antike im Mittelpunkt des mathematischen (und philosophischen) Interesses. Durch
MehrGleitspiegelung und Verkettungen von Spiegelung und Parallelverschiebung
Gleitspiegelung und Verkettungen von Spiegelung und Parallelverschiebung Def. Eine Gleitspiegelung ist eine Spiegelung an einer Geraden (Spiegelachse) verknüpft mit einer Translation parallel zu dieser
MehrKapitel 4. Reihen 4.1. Definition und Beispiele
Kapitel 4. Reihen 4.1. Definition und Beispiele Ist (a n ) eine Folge von Zahlen, so heißt der formale Ausdruck a ν = a 0 + a 1 + a 2 +... eine Reihe; die einzelnen a ν sind die Glieder dieser Reihe. Um
MehrStetigkeit von Funktionen
9 Stetigkeit von Funktionen Definition 9.1 : Sei D R oder C und f : D R, C. f stetig in a D : ε > 0 δ > 0 mit f(z) f(a) < ε für alle z D, z a < δ. f stetig auf D : f stetig in jedem Punkt a D. f(a) ε a
MehrLineare Gleichungssysteme
Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare
MehrKapitel 2: Matrizen. 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung
Kapitel 2: Matrizen 2.1 Matrizen 2.2 Determinanten 2.3 Inverse 2.4 Lineare Gleichungssysteme 2.5 Eigenwerte 2.6 Diagonalisierung 2.1 Matrizen M = n = 3 m = 3 n = m quadratisch M ij : Eintrag von M in i-ter
Mehrliefern eine nicht maschinenbasierte Charakterisierung der regulären
Reguläre Ausdrücke 1 Ziel: L=L M für NFA M L=L(r) für einen regulären Ausdruck r Reguläre Ausdrücke über einem Alphabet Σ Slide 1 liefern eine nicht maschinenbasierte Charakterisierung der regulären Sprachen
MehrDer Konsistenzsatz von Kolmogorov
Der Konsistenzsatz von Kolmogorov Im Rahmen der Theorie stochastischer Prozesse betrachten wir W-Maße auf unendlichen Produkträumen wie bspw. (R N, B N ) als Bildraum eines Prozesses (X t ) t N in diskreter
MehrRisiko und Versicherung - Übung
Sommer 2009 Risiko und Versicherung - Übung Entscheidungstheoretische Grundlagen Renate Bodenstaff Vera Brinkmann r.bodenstaff@uni-hohenheim.de vera.brinkmann@uni-hohenheim.de https://insurance.uni-hohenheim.de
Mehr1 Stochastische Prozesse in stetiger Zeit
1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.
Mehr00. Einiges zum Vektorraum R n
00. Einiges zum Vektorraum R n In diesem einleitenden Kapitel werden die in der LV Einführung in die mathematischen Methoden erwähnten Konzepte über Vektoren (im R 2 und R 3 ) im Rahmen des n-dimensionalen
MehrKapitel 1.3. Normalformen aussagenlogischer Formeln und die Darstellbarkeit Boolescher Funktionen durch aussagenlogische Formeln
Kapitel 1.3 Normalformen aussagenlogischer Formeln und die Darstellbarkeit Boolescher Funktionen durch aussagenlogische Formeln Mathematische Logik (WS 2011/12) Kapitel 1.3: Normalformen 1/ 29 Übersicht
MehrStetige Funktionen, Binomischer Lehrsatz
Vorlesung 13 Stetige Funktionen, Binomischer Lehrsatz 13.1 Funktionenfolgen Wir verbinden nun den Grenzwertbegriff mit dem Funktionsbegriff. Es seien (a n ) n N eine reelle Folge und f : R R eine Funktion.
Mehr3.1.3 Newtonsche Interpolationsformel / Dividierte Differenzen
KAPITEL 3 INTERPOLATION UND APPROXIMATION 4 33 Newtonsche Interpolationsformel / Dividierte Differenzen Das Verfahren von Neville ist unpraktisch, wenn man das Polynom selbst sucht oder das Polynom an
MehrDiskrete Wahrscheinlichkeitstheorie - Probeklausur
Diskrete Wahrscheinlichkeitstheorie - robeklausur Sommersemester 2007 - Lösung Name: Vorname: Matrikelnr.: Studiengang: Hinweise Sie sollten insgesamt Blätter erhalten haben. Tragen Sie bitte Ihre Antworten
MehrKapitel ML:IV (Fortsetzung)
Kapitel ML:IV (Fortsetzung) IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-18 Statistical Learning c STEIN 2005-2011 Satz 3 (Bayes)
MehrDEUTSCHE SCHULE MONTEVIDEO BIKULTURELLES DEUTSCH-URUGUAYISCHES ABITUR ( AUF SPANISCH )
Grundlegende Bemerkungen : Der Begriff des Vektors wurde in den vergangenen Jahren im Geometrieunterricht eingeführt und das mathematische Modell des Vektors wurde vor allem auch im Physikunterricht schon
MehrSurjektive, injektive und bijektive Funktionen.
Kapitel 1: Aussagen, Mengen, Funktionen Surjektive, injektive und bijektive Funktionen. Definition. Sei f : M N eine Funktion. Dann heißt f surjektiv, falls die Gleichung f(x) = y für jedes y N mindestens
Mehr9 Die Normalverteilung
9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,
MehrMarkov-Ketten-Monte-Carlo-Verfahren
Markov-Ketten-Monte-Carlo-Verfahren Anton Klimovsky 21. Juli 2014 Strichprobenerzeugung aus einer Verteilung (das Samplen). Markov- Ketten-Monte-Carlo-Verfahren. Metropolis-Hastings-Algorithmus. Gibbs-Sampler.
MehrKlausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 5): Lineare Algebra und analytische Geometrie 5 5. (Herbst 9, Thema 3, Aufgabe ) Betrachtet werde die Matrix A := 3 4 5 5 7 7 9 und die lineare Abbildung
MehrProseminar: Primzahlen 1. Vortrag Der erweiterte euklidische Algorithmus
Proseminar: Primzahlen 1. Vortrag Der erweiterte euklidische Algorithmus Max Zoller 14. April 8 1 Der klassische euklidische Algorithmus Beispiel: ggt 15, 56? 15 = 1 56 + 49 56 = 1 49 + 7 49 = 7 7 + =
MehrDivision Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema
Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema 2x 4 + x 3 + x + 3 div x 2 + x 1 = 2x 2 x + 3 (2x 4 + 2x 3 2x 2 ) x 3 + 2x 2 + x + 3 ( x
MehrVektoren und Matrizen
Vektoren und Matrizen Einführung: Wie wir gesehen haben, trägt der R 2, also die Menge aller Zahlenpaare, eine Körperstruktur mit der Multiplikation (a + bi(c + di ac bd + (ad + bci Man kann jedoch zeigen,
MehrDierentialgleichungen 2. Ordnung
Dierentialgleichungen 2. Ordnung haben die allgemeine Form x = F (x, x, t. Wir beschränken uns hier auf zwei Spezialfälle, in denen sich eine Lösung analytisch bestimmen lässt: 1. reduzible Dierentialgleichungen:
MehrMengensysteme, Wahrscheinlichkeitsmaße
Kapitel 1 Mengensysteme, Wahrscheinlichkeitsmaße Der Großteil der folgenden fundamentalen Begriffe sind schon aus der Vorlesung Stochastische Modellbildung bekannt: Definition 1.1 Eine Familie A von Teilmengen
MehrDie komplexen Zahlen und Skalarprodukte Kurze Wiederholung des Körpers der komplexen Zahlen C.
Die omplexen Zahlen und Salarprodute Kurze Wiederholung des Körpers der omplexen Zahlen C. Erinnerung an die Definition von exp, sin, cos als Potenzreihen C C Herleitung der Euler Formel Definition eines
Mehr1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:
Zählen und Zahlbereiche Übungsblatt 1 1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Für alle m, n N gilt m + n = n + m. in den Satz umschreiben:
MehrEntscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?
Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum
Mehr6. Übungsblatt zur Mathematik I für Maschinenbau
Fachbereich Mathematik Prof. Dr. M. Joswig Dr. habil. Sören Kraußhar Dipl.-Math. Katja Kulas 6. Übungsblatt zur Mathematik I für Maschinenbau Gruppenübung WS 2/ 25..-.2. Aufgabe G (Lineare Gleichungssysteme)
MehrPunktprozesse. Andreas Frommknecht Seminar Zufällige Felder Universität Ulm
Einführung in Beispiele für Andreas Seminar Zufällige Felder Universität Ulm 20.01.2009 Inhalt Einführung in Beispiele für Definition Markierte 1 Einführung in Definition Markierte 2 Beispiele für Homogener
MehrEINFÜHRUNG IN DIE THEORETISCHE INFORMATIK 1. ALPHABETE, WÖRTER, SPRACHEN. Prof. Dr. Klaus Ambos-Spies. Sommersemester 2011
EINFÜHRUNG IN DIE THEORETISCHE INFORMATIK Prof. Dr. Klaus Ambos-Spies Sommersemester 2011 1. ALPHABETE, WÖRTER, SPRACHEN Theoretische Informatik (SoSe 2011) 1. Alphabete, Wörter, Sprachen 1 / 25 Vorbemerkung:
Mehr11. Folgen und Reihen.
- Funktionen Folgen und Reihen Folgen Eine Folge reeller Zahlen ist eine Abbildung a: N R Statt a(n) für n N schreibt man meist a n ; es handelt sich also bei einer Folge um die Angabe der Zahlen a, a
MehrKapitel 2 Markov-Ketten
Kapitel 2 Markov-Ketten 2 2 Markov-Ketten 2.1 Definition und Grundlagen... 11 2.2 Ersteintrittszeiten und Absorptionsverhalten... 18 2 2.3 Klassifikation der Zustände... 23 2.4 Rekurrenz und Transienz...
Mehr2.2 Ereignisse und deren Wahrscheinlichkeit
2.2 Ereignisse und deren Wahrscheinlichkeit Literatur: [Papula Bd., Kap. II.2 und II.], [Benning, Kap. ], [Bronstein et al., Kap. 1.2.1] Def 1 [Benning] Ein Zufallsexperiment ist ein beliebig oft wiederholbarer,
MehrFragenkatalog Kapitel 1 Fehleranalyse
Teil 1: Numerik katalog Kapitel 1 Fehleranalyse 1. Zwischen was besteht ein funktionaler Zusammenhang z i? Welche Form hat er? 2. Welche 4 Typen von Fehlerquellen gibt es? Nenne Beispiele! 3. Wie berechnet
MehrVorlesung. Einführung in die mathematische Sprache und naive Mengenlehre
Vorlesung Einführung in die mathematische Sprache und naive Mengenlehre Allgemeines RUD26 Erwin-Schrödinger-Zentrum (ESZ) RUD25 Johann-von-Neumann-Haus Fachschaft Menge aller Studenten eines Institutes
Mehr1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen
1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte
Mehr1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema
1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und
Mehr10. Grenzwerte von Funktionen, Stetigkeit, Differenzierbarkeit. Der bisher intuitiv verwendete Grenzwertbegriff soll im folgenden präzisiert werden.
49. Grenzwerte von Funktionen, Stetigkeit, Differenzierbarkeit a Grenzwerte von Funktionen Der bisher intuitiv verwendete Grenzwertbegriff soll im folgenden präzisiert werden. Einführende Beispiele: Untersuche
Mehr