Gaußsche Prozesse - ein funktionalanalytischer Zugang

Größe: px
Ab Seite anzeigen:

Download "Gaußsche Prozesse - ein funktionalanalytischer Zugang"

Transkript

1 Universität Ulm Fakultät für Mathematik und Wirtschaftswissenschaften Gaußsche Prozesse - ein funktionalanalytischer Zugang Bachelorarbeit in Wirtschaftsmathematik vorgelegt von Clemens Kraus am 31. Mai 14 Gutachter Prof. Dr. Wolfgang Arendt Dr. Markus Kunze

2 Inhaltsverzeichnis 1. Grundlagen der Wahrscheinlichkeitstheorie Zufallsvektor, Erwartungswert und Varianz Unabhängigkeit Charakteristische Funktion Gaußsche Zufallsvariablen, Zufallsvektoren und Prozesse Gaußsche Zufallsvariablen Gaußsche Vektoren Gaußsche Prozesse Isonormale Prozesse Eigenschaften isonormaler Prozesse Existenz eines isonormalen Prozesses Existenz Gaußscher Prozesse zu gegebener Kovarianzfunktion Zusammenhang von Kernfunktion und Integraloperator Existenz Gaußscher Prozess Beispiele Gaußscher Prozesse Gebrochene Brownsche Bewegung Brownsche Bewegung Satz von Kolmogorov A. Hilfssätze 51 A.1. Hilfssätze der Funktionalanalysis A.. Hilfssätze der Maßtheorie B. Satz von Mercer 61 B.1. Hilfssätze für den Satz von Mercer B.. Satz von Mercer

3 Einleitung Wer die Finanzmathematik und damit die stochastische Analysis studieren will, für den sind Gaußsche Prozesse unumgänglich. Doch trotz einer Vielzahl von Anwendungen ist es schwer, Literatur zu finden, die einen ausführlichen und mathematisch sauberen Einstieg in die Familie der Gaußschen Prozesse bietet. Daher wird in der folgenden Arbeit der Versuch unternommen, mithilfe funktionalanalytischer Hilfsmittel, genau dieses zu erreichen. Das Hauptproblem bei der Betrachtung von Gaußschen Prozessen besteht im Beweis ihrer Existenz. So wurde die Brownsche Bewegung, die als der bekannteste und wichtigste Gaußsche Prozess angesehen werden kann, schon 188 vom dänischen Mathematiker Thorvald Nicolai Thiele beschrieben, ihre Existenz aber erst 193 durch den Amerikaner Norbert Wiener bewiesen. Wieners Ansatz hat allerdings zwei Nachteile: zum einen ist der Beweis sehr anspruchsvoll und nur schwer zu verstehen und zum anderen deckt er nicht das gesamte Spektrum der Gaußschen Prozesse ab. Wir wollen daher einen Ansatz wählen, der zwar abstrakt ist, uns aber die Existenz der ganzen Familie der Gaußschen Prozesse sichert. Da bei dem Studium von Gaußschen Prozessen Vorkenntnisse aus der Wahrscheinlichkeitstheorie vonnöten sind, diese aber nicht vorausgesetzt werden sollen, wollen wir die Arbeit mit grundlegenden Definitionen und relevanten Sätzen aus diesem Gebiet beginnen. Im zweiten Kapitel wird dann die Normalverteiltheit genauer untersucht. Wir wollen hierbei eine zentrierte, normalverteilte Zufallsvariable aber nicht wie üblich über die Verteilung, sondern über die charakteristische Funktion definieren. Am Ende dieses Abschnitts werden dann Gaußsche Prozesse definiert. Beim Studium von Gaußschen Prozessen erweist sich der Begriff der Kovarianzfunktion als zentral. Diese bestimmt nämlich die endlichdimensionalen Verteilungen - und daher im wesentlichen auch den Gaußschen Prozess - eindeutig. Es stellt sich nun die Frage, welche Eigenschaften muss eine Funktion erfüllen, sodass ein Gaußscher Prozess existiert, der eben diese Funktion als Kovarianzfunktion besitzt. Um das zu beantworten, definieren und studieren wir im dritten Kapitel zunächst die isonormalen Prozesse, mit deren Hilfe dann Gaußsche Prozesse konstruiert werden können. In Kapitel 4 sehen wir 3

4 dann, dass es ausreicht, dass eine Funktion stetig, symmetrisch und positiv semidefinit ist, um mithilfe der isonormalen Prozesse einen Gaußschen Prozess zu definieren, der genau diese Funktion als Kovarianzfunktion besitzt. Wenn man also einen Gaußschen Prozess über seine Kovarianzfunktion definiert, muss nur nachgeprüft werden, dass sie symmetrisch und positiv semidefinit ist, um die Existenz des Gaußschen Prozesses zu zeigen. Umgekehrt erhalten wir in Satz außerdem, dass jede Kovarianzfunktion eines Gaußschen Prozesses symmetrisch und positiv semidefinit ist. Es ist uns nun also möglich, auf recht einfache Art und Weise die Existenz von Gaußschen Prozessen zu gegebener Kovarianzfunktion zu zeigen. Dies wollen wir im fünften Kapitel am Beispiel der oben erwähnten Brownschen Bewegung und der Familie der gebrochenen Brownschen Bewegungen demonstrieren. Außerdem werden einige Besonderheiten der gebrochenen Brownschen Bewegung untersucht. Das Hauptinteresse besteht dabei in dem Nachweis einer Version mit stetigen Trajektorien. Dazu benutzt man den Satz von Kolmogorov, der ein sehr wichtiger Satz aus der Wahrscheinlichkeitstheorie ist, und den wir in Kapitel 5 vollständig beweisen. Zum Schluss dieser Einleitung will ich im Besonderen darauf hinweisen, dass diese Arbeit maßgeblich auf einem Manuskript von Dr. Markus Kunze aufbaut. 4

5 Kapitel 1. Grundlagen der Wahrscheinlichkeitstheorie In diesem Kapitel wollen wir eine Einführung in die Wahrscheinlichkeitstheorie geben. Im Abschnitt 1.1. werden einige grundlegende Begriffe definiert (Zufallsvektor, Erwartungswert, Varianz). In Abschnitt 1.. wollen wir die Unabhängigkeit von Zufallsvektoren untersuchen. Im letzten Unterkapitel wird die charakteristische Funktion eines Zufallsvektors definiert und in Relation zur Verteilung und Unabhängigkeit gebracht Zufallsvektor, Erwartungswert und Varianz Definition (Wahrscheinlichkeitsraum, W-Raum) Sei Ω eine Menge, A eine Sigma-Algebra auf Ω und P ein Wahrscheinlichkeitsmaß auf (Ω, A), d.h. P ist ein Maß auf (Ω, A) mit P(Ω) 1. Dann heißt (Ω, A, P) ein Wahrscheinlichkeitsraum oder W-Raum. Definition (Zufallsvektor, Zufallsvariable) Eine messbare Funktion X : (Ω, A, P) (C n, B(C n )), wobei B(C n ) die Borel-Sigma- Algebra auf C n bezeichnet, heißt Zufallsvektor. Falls n1 gilt, bezeichnen wir X als Zufallsvariable. Bildet X nach R n ab, so nennen wir X einen reellwertigen Zufallsvektor bzw. eine reellwertige Zufallsvariable. Bemerkung. Sei X eine Zufallsvariable und k eine natürliche Zahl. Wir schreiben X L k (Ω), falls Ω X k dp <. 5

6 Definition (Verteilung) Sei X ein Zufallsvektor und A B(C n ). Wir definieren µ X (A) : P(X A) und nennen µ X die Verteilung von X. Bemerkung. Es ist bekannt, dass die Verteilung µ X eines Zufallvektors X ein Wahrscheinlichkeitsmaß auf C n ist. Außerdem ist für eine Funktion f : C n C bekannt: f L 1 (C n, µ X ) genau dann, wenn f X L 1 (Ω, P) und dann gilt f(x)µ X (dx) f XdP C n Ω Definition (Erwartungswert) Für eine Zufallsvariable X L 1 (Ω) definieren wir EX : XdP und bezeichnen EX als den Erwartungswert von X. Bemerkung. Der Erwartungswert ist im Allgemeinen eine komplexe Zahl. Ist allerdings die Zufallsvariable X L 1 (Ω) reellwertig, so ist auch der Erwartungswert reell. Definition (Varianz, Kovarianz) Seien X, Y L (Ω) reellwertige Zufallsvariablen. Wir bezeichnen als die Varianz von X und Ω Var(X) : E(X EX) Cov(X, Y ) : E(X EX)(Y EY ) als die Kovarianz von X und Y. Falls Cov(X, Y ) gilt, so heißen X und Y unkorrelliert. Lemma Seien X, Y, Z L (Ω) reellwertig sowie X 1,..., X n L (Ω) reellwertig. Des weiteren seien a, b C. Dann gilt: (a) E(aX + by ) aex + bey (b) Var X (c) Var X EX (EX) (d) Cov(X, X) Var X 6

7 (e) Cov(aX + by, Z) a Cov(X, Z) + b Cov(Y, Z) (f) Var( n i1 a ix i ) n i, a ia j Cov(X i, X j ) Beweis. Die Aussagen folgen sofort aus der Definition. Definition (Kovarianzmatrix) Sei X (X 1,.., X n ) ein Zufallsvektor mit X j L (Ω) für j 1,..., n. Wir definieren dann die Matrix A (a ij ) R n n durch a ij : Cov(X i, X j ) und nennen sie die Kovarianzmatrix von X. Lemma Sei X : Ω R eine reellwertige Zufallsvariable in L (Ω) mit EX und Var X. Dann gilt X fast sicher. Beweis. Definiere B : {ω Ω : X(ω) } und B n : { ω Ω : X (ω) > n} 1 für n N. Dann gilt offensichtlich B n N B n. Da nun EX gilt, folgt für beliebiges n N mit Lemma Var X EX (EX) EX X dp X dp 1 Ω B n n P(B n) Daraus folgt aber, dass P(B n ) für alle n N und damit ( ) P(B) P B n P(B n ) n N Es ist also P(B) und damit X fast sicher. n1 1.. Unabhängigkeit Ein wesentlicher Begriff in der Wahrscheinlichkeitstheorie ist der der Unabhängigkeit. Wir definieren ihn wie folgt: Definition (unabhängige Zufallsvektoren) Eine Familie von Zufallsvektoren (X i ) i I, wobei I eine beliebige Indexmenge ist, heißt unabhängig, falls für jede nichtleere, endliche Menge J I und beliebige B j B(C n ) mit j J gilt: ( ) P (X j B j ) P(X j B j ) (1.1) j J j J 7

8 Bemerkung. Eine Familie von reellwertigen Zufallsvektoren (X i ) i I ist genau dann unabhängig, wenn Gleichung (1.1) für jede nichtleere, endliche Menge J I und beliebige B j B(R n ) mit j J erfüllt ist. Lemma 1... Sei (X j ) i I eine unabhängige Familie von Zufallsvektoren und (f i ) i I eine Familie von messbaren Abbildungen von C n nach C. Dann ist (f i (X i )) i I eine Familie von unabhängigen Zufallsvariablen. Beweis. Seien J I endlich und nichtleer sowie B j B(C) für j J. Dann gilt ( ) ( ) P (f j (X j ) B j ) P (X j f 1 j (B j )) j J j J j J P(X j f 1 j (B j )) j J P(f j (X j ) B j ) Lemma Seien X, Y L 1 (Ω) unabhängige Zufallsvariablen. Dann ist auch das Produkt XY L 1 (Ω) und es gilt EXY EXEY. Beweis. Es seien nach Voraussetzung X und Y unabhängige Zufallsvariablen. Beh.1: Seien X und Y reellwertig. Dann ist XY L 1 (Ω) und es gilt E(XY ) EXEY. Wir führen den Beweis per algebraischer Induktion. Seien dazu zunächst X und Y einfache Funktionen, d.h. X n i1 a i1 Ai und Y m b j1 Bj mit a i, b j R \ {} und A i, B j A, wobei die a i paarweise verschieden und A i paarweise disjunkt sind und auch b j paarweise verschieden und B j paarweise disjunkt sind. Dann ist offensichtlich XY L 1 (Ω) und durch die Unabhängigkeit von X und Y folgt: ( n ) ( m ) EXY XY dp a i 1 Ai b i 1 Bj dp a i b j 1 Ai B j dp Ω i,j i,j i,j Ω Ω i1 a i b j 1 Ai B j dp a i b j P(A i B j ) Ω i,j a i b j P ( X 1 ({a i }) Y 1 ({b j }) ) a i b j P ( X 1 ({a i }) ) P ( Y 1 ({b j }) ) i,j ( n ) ( m ) a i b j P(A i )P(B j ) a i 1 Ai dp b j 1 Bj dp i1 XdP Y dp EXEY Ω Ω Ω Ω i,j 8

9 Seien nun X, Y. Wir wissen aus der Maßtheorie, dass (X n ) n N und (Y n ) n N mit X n min{ n X, n} und Y n n min{ n Y, n} einfache, monoton wachsende Funktionen n sind mit lim n X n X und lim n Y n Y. Außerdem sind nach Lemma 1.. X n und Y n unabhängig, da min{ n x, n} messbar ist. Es folgt aus dem Satz von Beppo-Levi n über die monotone Konvergenz: ( ) EXY E lim X n lim Y n n n lim X ny n dp n Ω lim X n Y n dp n Ω ( ) ( ) lim X n dp lim Y n dp n Ω n Ω ( ) ( ) lim X ndp lim Y ndp n n Ω EXEY < Also ist XY L 1 (Ω) und es gilt EXY EXEY. Seien nun X,Y beliebige reellwertige Zufallsvariablen. Es ist X X + X und Y Y + Y mit X +, X, Y +, Y. Nach Lemma 1.. sind X + + und Y unabhängig und es folgt: EXY EX + Y + + EX Y EX Y + EX + Y EX + EY + + EX EY EX EY + EX + EY ( EX + EX ) ( EY + EY ) EXEY Beh.: Für X und Y komplexwertig ist XY L 1 (Ω) und es gilt EXY EXEY. Definiere X 1 : Re X, X : Im X, Y 1 : Re Y und Y : Im Y. Für i, j {1, } gilt X i Y j L 1 (Ω) und EX i Y j EX i EY j nach Lemma 1.. sowie Behauptung 1. Da außerdem XY X 1 Y 1 X Y + ix 1 Y + ix Y 1 gilt, ist XY L 1 (Ω) und es folgt EXY E(X 1 Y 1 X Y + ix 1 Y + ix Y 1 ) EX 1 Y 1 EX Y + iex 1 Y + iex Y 1 E(X 1 + ix )E(Y 1 + iy ) EXEY Ω 9

10 Satz Sei I eine beliebige Indexmenge und sei µ i mit i I eine Familie von Verteilungen auf (R, B(R)). Dann existieren ein Wahrscheinlichkeitsraum (Ω, A, P) und unabhängige reellwertige Zufallsvariablen X i : Ω R mit µ Xi µ i für alle i I, wobei µ Xi die Verteilung von X i bezeichnet. Beweis. Definiere Ω i : R und A i B(R). Dann ist (Ω i, A i, µ i ) ein Wahrscheinlichkeitsraum. Definiere außerdem Ω : i I Ω i und es sei A die von den Rechteckmengen erzeugten Sigma-Algebra auf Ω. Nach Satz A..6 existiert ein Maß P auf (Ω, A) derart, dass für jede Rechteckmenge A mit Darstellung A j J A j i/ J Ω i mit J I endlich, gilt: ( ) P Ω i µ j (A j ) j J j J A j i/ J Seien nun X j die Projektionen von Ω auf Ω j, also X j ((ω i ) i I ) : ω j. Beh.1: Für jedes j I gilt µ Xj µ j Seien B B(R) und j I beliebig. Dann gilt ( µ Xj (B) P ( X 1 j (B) ) P B i j Ω i ) µ j (B) Beh.: Die Zufallsvariablen (X i ) i I sind unabhängig. Sei J I endlich und nichtleer und seien B j B(R) für j J. Dann gilt nach Behauptung 1 ( ) ( ( P X 1 j (B j ) P B j )) ( Ω i P B j ) Ω i j J j J i j j J i/ J µ j (B j ) µ Xj (B j ) P ( X 1 j (B j ) ) j J j J j J 1

11 1.3. Charakteristische Funktion Wir führen im folgenden Unterkapitel die charakteristische Funktion eines reellwertigen Zufallsvektors ein. Satz besagt dann, dass die Verteilung eines reellwertigen Zufallsvektors eindeutig durch dessen charakteristische Funktion bestimmt ist. Definition (charakteristische Funktion / Fouriertransformierte) Für einen reellwertigen Zufallsvektor X : Ω R n heißt die Funktion ϕ X : R n C, t e i t,x dp charakteristische Funktion oder Fouriertransformierte von X. Bemerkung. Es gilt nach der Folgerung von Definition insbesondere: ϕ X (t) Ee i t,x e i t,x dp e i t,x µ X (dx) R n Ω Lemma Sei X ein reellwertiger Zufallsvektor mit charakteristischer Funktion ϕ X sowie a R und b R n. Dann gilt für t R n : (a) ϕ X (t) 1 (b) ϕ ax+b (t) ϕ X (at)e i t,b (c) ϕ X ist stetig Ω Beweis. Es gilt (a) ϕ X (t) Ω ei t,x dp Ω ei t,x dp dp 1 Ω (b) ϕ ax+b (t) Ω ei t,ax+b dp e i t,b Ω ei at,x dp ϕ X (at)e i t,b (c) Sei (t n ) n N eine Folge in R n mit lim n t n t. Dann gilt durch die Beschränktheit von e i t,x nach dem Satz von Lebesgue lim ϕ(t n) lim e n n R i tn,x dµ X (x) lim n ei tn,x dµ X (x) R e i t,x dµ X (x) ϕ X (t) Es ist also ϕ X folgenstetig und damit stetig. R 11

12 Satz Sei X L n (Ω) eine reellwertiger Zufallsvariable. Dann ist ϕ X differenzierbar und es gilt n-mal EX n ϕ(n) X () i n Beweis. Wir wollen zunächst eine Formel zur Berechnung der n-ten Ableitung der charakteristischen Funktion herleiten. Beh.1: Für alle 1 k n gilt: ϕ (k) X (t) Ω ik X k e itx dp Wir führen den Beweis per Induktion. Induktionsannahme: Es ist ( d dt) ϕx (t) d dt Ω eitx dp. Wir wollen nun die Voraussetzungen für den Satz über die Differentation von Parameterintegralen A..1 überprüfen. Für t R ist e itx integrierbar über Ω, denn e itx 1 und 1dP 1. Außerdem gilt d Ω dt eitx ixe itx und es ist ixe itx X mit X L 1 (Ω) nach Voraussetzung. Wir können also den Satz über die Differentation von Parameterintegralen anwenden und es ergibt sich: ϕ (1) X (t) d e itx d dp dt Ω Ω dt eitx dp ixe itx dp Ω Induktionsschritt: Aus der Induktionsannahme und dem Satz über die Differentation von Parameterintegralen (Überprüfung der Voraussetzungen verläuft analog) ergibt sich: ϕ (k+1) X (t) d dt ϕ(k) X (t) d dt Ω i k X k e itx dp Beh.: Es gilt ϕ (n) X () EXn für n N Nach Behauptung 1 gilt: ϕ (n) X () Ω Ω i n X n e dp i n i k X k d dt eitx dp Ω X n dp i n EX n Ω i k+1 X k+1 e itx dp Es folgt also ϕ(n) X () i n EX n und damit die Behauptung. 1

13 Lemma Seien X, Y unabhängige und reellwertige Zufallsvariablen. Dann gilt ϕ (X,Y ) (t) ϕ X (t 1 )ϕ Y (t ) für alle t (t 1, t ) R. Beweis. Definiere f : R C, f(x) : e itx mit t R. Dann ist (f X) e itx L 1 (Ω) und (f Y ) e ity L 1 (Ω). Damit folgt aus Lemma 1.. und Lemma 1..3 ϕ (X,Y ) (t) Ee i t,(x,y ) Ee it 1X e it Y Ee it 1X Ee it Y ϕ X (t 1 )ϕ Y (t ) Satz Seien µ und ν Verteilungen auf R n mit R n fdµ R n fdν für alle f C b (R n, C). Dann gilt µ ν. Beweis. Wir zeigen zunächst, dass µ(k) ν(k) für alle K B(R n ) kompakt. Beh.1: Sei K B(R n ) kompakt. Dann gilt µ(k) ν(k). Definiere f(x) :dist(x, K) inf{ y x : y K}. Dann ist f(x) genau dann, wenn x K. Des weiteren sei f n 1 min{nf, 1}. Dann ist f n C b (R n, C) und es gilt lim n f n 1 K. Aus dem Satz von Lebesgue erhalten wir dann: µ(k) 1 K dµ lim f n dµ lim f n dµ R n R n n n R n lim n R n f n dν R n lim f n dν n Beh.: Es gilt µ(a) ν(a) für alle A B(R n ). R n 1 K dν ν(k) Sei A B(R n ) beliebig. Nach Satz A.. und Behauptung 1 gilt: µ(a) sup{µ(k) : K A kompakt} sup{ν(k) : K A kompakt} ν(a) Daraus folgt aber, dass µ ν gilt. Satz (Eindeutigkeit der charakteristischen Funktion) Seien X und Y reellwertige Zufallsvektoren mit Verteilungen µ X und µ Y. Falls die charakteristischen Funktionen von X und Y für alle t R n übereinstimmen, so ist µ X µ Y. 13

14 Beweis. Seien X und Y Zufallsvektoren mit gleicher charakteristischer Funktion, d.h. R n e i t,x µ X (dx) R n e i t,x µ Y (dx) für alle t R n. Wähle nun f C b (R n, C) und ε > beliebig. Aus µ X (R n ) µ Y (R n ) 1 folgt, dass ein N N existiert, so dass (1 + f )(µ X + µ Y ) (R n \ [ N, N] n ) < ε. Wir bezeichnen fortan [N, N] n als K. Definiere nun B : {g : R n C : g(x) e i t,x, t R n } und n A : { a j g j : a j C, g j B, n N}. Dann gilt für g A nach Voraussetzung, dass R n gdµ X R n gdµ Y. Des weiteren sei A K : {g K : g A}. Dann erfüllt A K die Voraussetzungen des Satzes von Stone- Weierstrass und ist demnach dicht in C b (K, C). Es existiert also ein g K A K mit δ : g K f K < min ( 1, ε 4), wobei fk : f K. Wähle nun g A mit g K g K. Durch die Periodizität von g ergibt sich bei genügend großem K, dass g g K g K f K + f K f + 1 Also gilt f g f + g f + 1 und wir erhalten insgesamt: f(x)µ X (dx) f(x)µ Y (dx) R n R n f(x)µ X (dx) g(x)µ X (dx) + g(x)µ X (dx) R n R n R n g(x)µ Y (dx) + f(x)µ Y (dx) g(x)µ Y (dx) R n R n R n f(x) g(x) (µ X + µ Y )(dx) + f(x) g(x) (µ X + µ Y )(dx) [ N,N] n R\[ N,N] n δ(µ X + µ Y )(dx) + f g (µ X + µ Y )(dx) [ N,N] n R n \[ N,N] n δ(µ X + µ Y )(R n ) + ( f + 1) (µ X + µ Y ) (R n \ [ N, N] n ) ε + ε ε Da nun aber ε beliebig gewählt wurde, folgt, dass fµ R n X fµ R n Y für alle stetigen, beschränkten Funktionen f : R n C. Dann ergibt sich aber nach Satz 1.3.5, dass µ X µ Y. 14

15 Satz Seien X 1,..., X n reellwertige Zufallsvariablen mit Verteilungen µ X1,..., µ Xn. Außerdem sei µ (X1,...,X n) die Verteilung des Zufallsvektors (X 1,..., X n ). Dann sind folgende Aussagen äquivalent (i) X 1,..., X n sind unabhängig (ii) Für alle beschränkten und messbaren Funktionen g 1,..., g n : R C gilt: E n g j (X j ) n Eg j (X j ) (iii) Für die charakteristische Funktion ϕ gilt: ϕ (X1,...,X n)(t 1,..., t n ) ϕ X1 (t 1 )... ϕ Xn (t n ) (iv) Für die Verteilung des Zufallsvektors (X 1,..., X n ) gilt: µ (X1,...,X n) µ X1... µ Xn Beweis. (i) (ii) : folgt aus Lemma 1.. und Lemma (ii) (iii) : folgt aus Lemma (iii) (iv) : Nach dem Satz von Fubini folgt e i t,x d µx1... µ Xn e it 1x... e itnx d µx1... d µxn R n R n... e it 1x... e itnx d µx1... d µxn R R ϕ X1 (t 1 )... ϕ Xn (t n ) Damit folgt die Behauptung aus Satz (iv) (i) : Seien B 1,..., B n beliebige Borel-Mengen. Dann gilt P(X 1 B 1,..., X n B n ) µ (X1,...,X n)(b 1... B n ) Also sind X 1,..., X n unabhängig. (µ X1... µ Xn )(B 1... B n ) P(X 1 B 1 )... P(X n B n ) 15

16 Kapitel. Gaußsche Zufallsvariablen, Zufallsvektoren und Prozesse Wir beginnen das Kapitel mit der Definition von Gaußschen Zufallsvariablen. Von besonderem Interesse ist die Tatsache, dass die Summe von unabhängigen Gaußschen Zufallsvariablen wieder Gaußsch ist. Im zweiten Abschnitt führen wir Gaußsche Zufallsvektoren ein und zeigen, dass für Gaußsche Vektoren Unkorrelliertheit und Unabhängigkeit übereinstimmen. Ziel des dritten Abschnitts ist die Definition von Gaußschen Prozessen, die als Abbildung der Indexmenge [, 1] nach L (Ω) aufgefasst werden..1. Gaußsche Zufallsvariablen Sei im Folgenden (Ω, A, P) ein Wahrscheinlichkeitsraum. Definition.1.1. (Gaußsche Zufallsvariable) Eine Zufallsvariable X : Ω R heißt Gaußsch, falls ein σ [, ) so existiert, dass die charakteristische Funktion ϕ X von X gegeben ist durch ϕ X (t) Ee itx e t σ. Man schreibt dann X N(, σ ) und sagt, dass X N(, σ )-verteilt ist. Bemerkung. In den meisten Lehrbüchern wird eine Gaußsche Zufallsvariable über die Verteilung eingeführt. Wir wollen das aber hier nicht machen, da eine Betrachtung über die charakteristische Funktion oftmals einfacher ist. Um die Äquivalenz der Definitionen einzusehen, sei daran erinnert, dass wir in Kapitel 1 gezeigt haben, dass die charakteristische Funktion die Verteilung eindeutig bestimmt. 16

17 Bemerkung. Im nächsten Satz weisen wir zunächt einmal nach, dass es eine Gaußsche Zufallsvariable überhaupt gibt. Wir konstruieren also einen Wahrscheinlichkeitsraum (Ω, A, P) und eine Zufallsvariable X : Ω R so, dass X Gaußsche Zufallsvariable ist. Satz.1.. Sei σ beliebig. Dann existiert ein Wahrscheinlichkeitsraum (Ω, A, P) und auf ihm eine Funktion X : Ω R derart, dass X eine N(, σ )-verteilte Zufallsvariable ist. Des weiteren existiert für jedes n N der Erwartungswert von X n. Beweis. Definiere Ω : R, A : B(R) und für B B sei 1 P(B) : 1 πσ e σ x dx Beh.1: (Ω, A, P) ist ein Wahrscheinlichkeitsraum B Aus dem Satz über monotone Konvergenz folgt, dass P ein Maß auf (Ω, A) ist. Wir müssen also nur noch nachweisen, dass P(Ω) 1 gilt. Mithilfe der bekannten Gleichung R e x dx π ergibt sich: P(Ω) R 1 πσ e 1 σ x dx 1 σ e x dx 1 πσ R Es ist also (Ω, A, P) ein Wahrscheinlichkeitsraum. Definiere nun X : (Ω, A, P) (R, B(R)) durch X(ω) ω. Dann ist X eine messbare Funktion und damit eine Zufallsvariable. Es gilt noch zu zeigen, dass X N(, 1). Beh.: X ist eine N(, σ )-verteilte Zufallsvariable. Wir müssen nun also nachweisen, dass für die charakteristische Funktion ϕ X von X gilt, dass ϕ X (t) e t σ für alle t R gilt. Es ist X eine messbare Funktion und f : R C, f(t) e itx messbar und beschränkt, also f X L 1 (Ω). Dann folgt mit dem Satz über die Differentation von Paramterintegralen A..1: d dt ϕ X(t) d e itx dp dt Ω d Ω dt eitx dp ( ) d e itx 1 1 R dt πσ e σ x dx i xe itx e 1 σ x dx πσ R 17

18 i [ σ e itx e 1 x σ πσ + tσ tσ R Ω tσ ϕ X (t) 1 πσ eitx e 1 σ x dx e itx dp i itσ e itx e 1 σ x dx πσ R Um die charakteristische Funktion von X zu berechnen, müssen wir nun also die Differentialgleichung d dt ϕ X(t) tσ ϕ X (t) mit dem Anfangswert ϕ X () 1 lösen. Sei nun ϕ X (t) : e t σ. Dann gilt d ϕ dt X(t) tσ e t σ tσ ϕ X (t) und ϕ X () 1. Dass diese Lösung eindeutig ist, erhält man dann aus dem Satz von Picard-Lindelöf [Heu9, Satz 1.]. Es ist also X eine N(, σ )-verteilte Zufallsvariable. Beh.3: Für n N existiert EX n. Sei n N beliebig. Dann gilt E X n X n dp Es folgt also die Behauptung. Ω R 1 xn 1 πσ e σ x dx < Bemerkung. Da die charakteristische Funktion die Verteilung eindeutig bestimmt, gilt also X L n (Ω) für jede Gaußsche Zufallsvariable X und jedes n N. Korollar.1.3. Es existiert ein Wahrscheinlichkeitsraum derart, dass es auf ihm eine Folge von unabhängigen, N(, 1)-verteilten Zufallsvariablen gibt. Beweis. Folgt direkt aus Satz.1. und Satz Bemerkung. Wir wissen nun also, dass Gaßsche Zufallsvariablen existieren. Im Folgenden werden nun einige wichtige Eigenschaften untersucht. Satz.1.4. Sei X eine Zufallsvariable mit X N(, σ ). Dann ist { EX k k ungerade (k 1)!!σ k k gerade, wobei (k 1)!! : (k 1)(k 3) (k (k 1)). Insbesondere gilt also EX sowie Var(X) σ. 18

19 Beweis. Wir zeigen zunächst eine Formel zur Berechnung der Ableitung der charakteristischen Funktion von X. Beh.1: ϕ (k) X (t) (k 1)σ ϕ (k ) X (t) tσ ϕ (k 1) X für k Wir führen den Beweis per Induktion. Induktionsannahme: Induktionsschritt: ϕ (k+1) X ϕ () X (t) σ e t σ + t σ 4 e t σ (t) d dt ϕ(k) X (t) d ( dt σ e t σ tσ ( tσ e t σ ) ϕ () X (t) tσ ϕ (1) X (t) (k 1)σ ϕ (k ) X (k 1)σ ϕ (k 1) X ) (t) tσ ϕ (k 1) X (t) (t) σ (ϕ (k 1) X (t) + tϕ (k) X (t)) kσ ϕ (k 1) X (t) tσ ϕ (k) X (t) Somit ist die oben behauptete Formel bewiesen. Insbesondere folgt, dass ϕ (k) X (t) für alle k N endlich ist. Es sei vor der nächsten Bemerkung daran erinnert, dass X L k (Ω) für jedes k N. Beh.: EX k für k ungerade Beweis per Induktion: Induktionsannahme: Für k 1 ergibt sich aus Satz 1.3.3, dass EX ϕ(1) X () i tσ i e t σ Induktionsschritt: Sei k + 1 ungerade. Es gilt nach Satz 1.3.3, der Behauptung 1 und 19

20 der Induktionsannahme EX k+1 ϕ(k+1) X () i k+1 1 ( i k+1 kσ ϕ (k 1) X 1 i k+1 kσ ϕ (k 1) X () (t) tσ ϕ (k) X (t) ) Beh.3: EX k (k 1)!!σ k für k gerade Beweis per Induktion: Induktionsannahme: Für k folgt aus Satz 1.3.3, dass EX ϕ() X () ( d ( tσ e t σ i dt (σ e t σ t σ 4 e t σ ) ) ) σ Induktionsschritt: Sei k + 1 gerade. Es gilt nach Satz und der vorherigen Behauptung EX k+1 1 i k+1 kσ ϕ (k 1) X () 1 1 i ϕ(k 1) ik 1 X ()kσ kσ EX k 1 kσ (k )!!σ k 1 Damit ist der Satz vollständig bewiesen. k!!σ k+1 Lemma.1.5. Seien X, Y unabhängige Zufallsvariablen mit X N(, σx ) und Y N(, σy ) sowie a, b R. Dann ist ax + by Gaußsche Zufallsvariable mit ax + by N(, a σ X + b σ Y ) Beweis. Aus Lemma 1.3. und Satz folgt ϕ ax+by (t) ϕ ax (t)ϕ by (t) ϕ X (at)ϕ Y (bt) e (at) σ X e (bt) σ Y e (a σ X +b σ Y )t

21 Damit folgt nach Definition der Gaußschen Zufallsvariable aber sofort die Behauptung. Lemma.1.6. Seien X und X n Zufallsvariablen mit X n N(, σn) für n N. Es bezeichne µ X die Verteilung von X und µ Xn die Verteilung von X n und für alle f C b (R) gelte lim f(x)dµ Xn (x) f(x)dµ X (x) n R R Dann konvergiert die Folge (σ n) n N gegen ein σ und es gilt X N(, σ ). Beweis. Beh.1: Die Folge (σ n) n N konvergiert. Es gilt nach Voraussetzung ϕ X (t) e itx dµ X (x) lim e R n R itx dµ Xn (x) lim e σn t n Also existiert lim n e σ n t für alle t R und damit insbesondere lim n e σ n. Angenommen es gilt nun lim n e σ n. Dann folgt { ϕ X (t) lim e σn t für t n 1 für t Insbesondere ist die charakteristische Funktion nicht stetig, was im Widerspruch zu Lemma 1.3. steht. Es ist also lim n e σ n > und aus der Stetigkeit des Logarithmus folgt dann ( log und damit die Behauptung. lim n e σ n ) lim n log ( e σ n Beh.: Es ist X N(, σ ), wobei σ : lim n σ n. ) lim n σ n Es gilt nach den obigen Berechnungen und durch die Stetigkeit der Exponentialfunktion Daraus folgt aber die Behauptung. e σ t lim e σn t ϕ X (t) n 1

22 .. Gaußsche Vektoren Nachdem wir im ersten Abschnitt nur Gaußsche Zufallsvariablen betrachtet haben, definieren wir nun auch eine Klasse von Zufallsvektoren als Gaußsch. Definition..1. (Gaußscher Vektor) Ein Zufallsvektor X (X 1,, X n ) : Ω R n heißt Gaußscher Vektor, falls für alle α 1,, α n R die Summe n α jx j eine Gaußsche Zufallsvariable ist. Bemerkung. Sei X (X 1,, X n ) ein Zufallsvektor. Ist X Gaußsch, so sind insbesondere X 1,, X n Gaußsche Zufallsvariablen. Andererseits gilt: Sind X 1,, X n unabhängige Gaußsche Zufallsvariablen, so ist nach Lemma.1.5 auch n α jx j Gaußsch für alle α 1,, α n R. Also ist X ein Gaußscher Vektor. Es sei allerdings darauf hingewiesen, dass für Gaußsche Zufallsvariablen X und Y der Zufallsvektor (X, Y ) im Allgemeinen nicht Gaußsch ist. Lemma... Sei X (X 1,, X n ) ein Gaußscher Vektor. Dann ist für jede Matrix A R m n auch AX ein Gaußscher Vektor, d.h. jede lineare Transformation eines Gaußschen Vektors ist ein Gaußscher Vektor. Beweis. Sei X ein Gaußscher Vektor und A R m n. Dann gilt für beliebige β 1,, β m R: ) ( m m n m ) β j (AX) j a jk X k β j a jk X k β j ( n k1 Dies ist eine Gaußsche Zufallsvariable, da X ein Gaußscher Vektor ist und somit ist AX ein Gaußscher Vektor. Lemma..3. Sei X (X 1,, X n ) ein Gaußscher Vektor und A die Kovarianzmatrix von X. Dann gilt für alle t R n k1 ϕ X (t) Ee i X,t e 1 At,t. Beweis. Sei t R n beliebig. Dann ist X, t j t jx j eine Gaußsche Zufallsvariable. Daher gilt nach Definition ϕ X,t (1) Ee i X,t e 1 σ (t), wobei σ (t) Var( X, t ). Nun gilt nach Lemma n n Var( X, t ) Var( t j X j ) t i t j Cov(X i, X j ) At, t Das ist gerade die Behauptung. i,

23 Satz..4. Sei X (X 1,, X n ) ein Gaußscher Vektor. Dann sind X 1,, X n unabhängig genau dann, wenn X 1,, X n paarweise unkorrelliert sind. Beweis. Seien zunächst X 1,, X n unabhängig und seien i, j {1,, n} mit i j. Dann gilt nach Lemma 1..3, dass EX i X j EX i EX j. Daraus folgt dann aber Cov(X i, X j ) EX i X j EX i EX j EX i EX j EX i EX j Also sind X 1,, X n paarweise unkorrelliert. Umgekehrt seien nun X 1,, X n paarweise unkorrelliert und es sei EXj ist die Kovarianzmatrix A von X gegeben durch σ1... : σ j. Dann Mit Lemma..3 folgt dann, dass ϕ X (t) Ee i X,t e 1 At,t e 1 σ n n σ j t j n Nach Satz sind somit X 1,, X n unabhängig. e 1 σ j t j n Ee it jx j n ϕ Xj (t j ) Bemerkung. Der vorherige Satz ist im Allgemeinen falsch, falls zwar X 1,..., X n Gaußsche Zufallsvariablen sind, (X 1,..., X n ) aber kein Gaußscher Vektor ist..3. Gaußsche Prozesse Im folgenden Unterkapitel werden Gaußsche Prozesse definiert. Um die Definition aber verstehen zu können, wird zunächst der Begriff des stochastischen Prozesses eingeführt. Definition.3.1. (stochastischer Prozess) Es sei I R ein Intervall. Wir nennen eine Funktion X : I L (Ω) einen stochastischen Prozess. Definition.3.. (unabhängige Zuwächse) Wir sagen, dass ein stochastischer Prozess X unabhängige Zuwächse besitzt, falls für beliebige t 1 t... t n I die Zufallsvariablen X(t ) X(t 1 ),..., X(t n ) X(t n 1 ) unabhängig sind. 3

24 Definition.3.3. (Kovarianzfunktion) Für einen stochastischen Prozess X : I L (Ω) definieren wir die Kovarianzfunktion durch k : I I R, k(s, t) Cov(X(s), X(t)). Definition.3.4. (Gaußscher Prozess) Ein stochastischer Prozess X : I L (Ω) heißt Gaußscher Prozess, falls für eine beliebige Wahl von t 1,, t n I der Zufallsvektor (X(t 1 ),, X(t n )) Gaußsch ist. Bemerkung. Der Einfachheit halber werden wir im Folgenden immer das Intervall [, 1] betrachten. Bemerkung. Bei einem Gaußschen Prozess X (X(t)) t [,1] ist also insbesondere für beliebiges t [, 1] die Zufallsvariable X(t) Gaußsch. Bemerkung. Ein Gaußscher Prozess ist durch die Kovarianzfunktion eindeutig bestimmt im Sinne von endlich-dimensionalen Verteilungen. Das heißt, dass die endlichdimensionalen Verteilungen von zwei Gaußschen Prozessen, die die gleiche Kovarianzfunktion besitzen, übereinstimmen. Lemma.3.5. Sei X (X(t)) t [,1] ein Gaußscher Prozess. Dann besitzt X genau dann unabhängige Zuwächse, wenn die Zuwächse unkorrelliert sind. Beweis. Seien t 1 t n [, 1] beliebig. Dann ist (X(t 1 ),, X(t n )) Gaußscher Vektor und damit nach Lemma.. auch (X(t ) X(t 1 ),, X(t n ) X(t n 1 )). Folglich ergibt sich das Lemma aus Satz..4. 4

25 Kapitel 3. Isonormale Prozesse Nachdem im letzten Kapitel der Begriff der Kovarianzfunktion eingeführt wurde und wir bemerkten, dass die Kovarianzfunktion die endlich-dimensionalen Verteilungen von Gaußschen Prozessen eindeutig bestimmt, wollen wir nun einen Schritt weiter gehen. Es stellt sich die Frage, für welche reellwertigen Funktionen es einen Gaußschen Prozess gibt, sodass deren Kovarianzfunkion mit der gegebenen Funktion übereinstimmt. Um dies genauer untersuchen zu können, erweisen sich die isonormalen Prozesse als sehr hilfreich, die wir im folgenden Kapitel einführen. Als Hauptresultat erhalten wir in diesem Abschnitt die Existenz von isonormalen Prozessen auf separablen Hilberträumen. Daraus bekommen wir dann eine Anleitung zur Konstruktion eines Gaußschen Prozesses auf L [, 1] Eigenschaften isonormaler Prozesse Definition (H-isonormaler Prozess) Sei H ein Hilbertraum und (Ω, Σ, P ) ein W -Raum. Ein H-isonormaler Prozess auf Ω ist eine Abbildung W : H L (Ω) mit 1. Für jedes h H ist W(h) eine Gaußsche Zufallsvariable. Für alle h 1, h H gilt: W(h 1 ), W(h ) h 1, h Bemerkung. Für einen H-isonormalen Prozess W gilt nach Definition des Skalarprodukts auf L (Ω), dass W(h 1 ), W(h ) EW(h 1 )W(h ). Lemma Sei H ein Hilbertraum und W ein H-isonormaler Prozess. Dann ist W linear und isometrisch. 5

26 Beweis. Folgt direkt aus Lemma A Existenz eines isonormalen Prozesses Im ersten Teil des Kapitels wurden isonormale Prozesse definiert und deren Linearität und Isometrie beobachtet. Dennoch ist es noch nicht klar, auf welchen Räumen es isonormale Prozesse überhaupt gibt. Wir zeigen nun, dass für separables H ein H- isonormaler Prozess existiert. Satz (Existenz H-isonormaler Prozesse) Ist H ein separabler Hilbertraum, so gibt es einen H-isonormalen Prozess. Beweis. Nach der Bemerkung zu Satz.1. gibt es einen Wahrscheinlichkeitsraum derart, dass auf ihm eine Folge von unabhängigen, N(, 1)-verteilten Zufallsvariablen existiert. Seien nun (Ω, A, P) ein solcher Wahrscheinlichkeitsraum und (γ n ) n N eine solche Folge und sei (e n ) n N eine Orthonormalbasis von H. Es sei im Folgenden W(h) durch W(h) : n γ n h, e n definiert. Beh.1: W(h) L (Ω) Sei h H beliebig und W k (h) : k n1 γ n h, e n L (Ω). Wir zeigen, dass W k eine Cauchy-Folge in L (Ω) bildet. Sei also ε > beliebig. Da (e n ) n N eine Orthonormalbasis von H bildet, gilt nach der Besselschen Ungleichung n h, e n h. Folglich existiert ein N N so, dass für alle p N gilt: N+p h, e n < ε nn Da die γ n unabhängig und N(, 1)-verteilt sind, folgt außerdem mit Lemma 1..3 γ j, γ k Eγ j γ k Eγ j Eγ k δ jk 6

27 Damit ergibt sich aber für N, p wie oben W N+p (h) W N (h) L ε N+p nn+1 N+p nn+1 N+p nn+1 N+p nn+1 γ n h, e n γ n h, e n, L N+p mn+1 h, e n γ n, γ n h, e n γ m h, e m Es ist also W k (h) Cauchy-Folge in L (Ω) und aufgrund der Vollständigkeit von L (Ω) existiert W(h) und es gilt W(h) L (Ω). Beh.: W(h) ist Gaußsche Zufallsvariable Die γ n sind unabhängig und N(, 1)-verteilt. Also folgt aus Lemma.1.5 k k W k (h) γ n h, e n N(, h, e n ) n1 Wir wollen nun Lemma.1.6 anwenden und überprüfen daher die Voraussetzungen. (i) Aus dem Beweis der vorherigen Behauptung ergibt sich, dass W k (h) in L (Ω) gegen W(h) konvergiert. Nach Lemma A..4 existiert also eine Teilfolge W kj (h), die fast sicher gegen W(h) konvergiert. Wir bekommen nun aus Lemma A..3, dass für alle f C b (R) gilt lim j R f(x)dµ Wkj (h)(x) R n1 f(x)dµ W(h) (x) (ii) Wir erhalten aus der Besselschen Ungleichung A.1.1, dass n1 h, e n h. Also konvergiert die Reihe n1 h, e n. Wir haben nun also die Voraussetzungen von Lemma.1.6 überprüft und es folgt W(h) N(, h, e n ) n1 7

28 Beh.3: W(h 1 ), W(h ) h 1, h Seien h 1, h H. Es gilt γ j, γ k δ jk und damit folgt: W(h 1 ), W(h ) EW(h 1 )W(h ) [( n ) ( n )] lim E γ j h 1, e j γ k h, e k n lim n k1 n h 1, e j h, e j h 1, h Bemerkung. Nachdem wir nun wissen, dass es für ein Intervall I [, ] einen L (I)- isometrischen Prozess W : L (I) L (Ω) gibt, können wir auf einfache Art und Weise einen Gaußschen Prozess X : I L (Ω) konstruieren. Proposition 3... (Konstruktion eines Gaußschen Prozesses) Sei I [, ] ein Intervall und sei W : L (I) L (Ω) ein L (I)-isometrischer Prozess. Außerdem sei F C(I, L (I)). Definiere X : I L (Ω) durch X W F. Dann ist X ein Gaußscher Prozess und es gilt X C(I, L (Ω)). Beweis. Definiere X : I L (Ω) durch X W F. Seien außerdem t 1,.., t n I und c 1,.., c n R beliebig. Dann gilt nach der Linearität von W, dass n c k X(t k ) k1 n n c k W(F (t k )) W( c k F (t k )). k1 k1 Da aber W( n k1 c kf (t k )) nach Definition des isonormalen Prozesses Gaußsch ist, ist auch n k1 c kx(t k ) Gaußsch. Nach Definition ist also X ein Gaußscher Prozess. Weiterhin ist X als Komposition der stetigen Abbildung F mit der isometrischen Abbildung W stetig. 8

29 Kapitel 4. Existenz Gaußscher Prozesse zu gegebener Kovarianzfunktion Dieses Kapitel kann als das Hauptkapitel der Arbeit angesehen werden. Wir wollen im ersten Abschnitt die Begriffe formpositiv, positiv semidefinit und symmetrisch einführen und den Zusammenhang zwischen der Kernfunktion und ihres zugehörigen Integraloperators auf L [, 1] untersuchen. So erhalten wir, dass die Kernfunktion genau dann symmetrisch und positiv semidefinit ist, wenn der zugehörige Integraloperator symmetrisch und formpositiv ist. In Satz 4..1 wird gezeigt, dass es für jede symmetrische und positiv semidefinite Funktion k C([, 1] ) einen Gaußschen Prozess (X(t)) t [,1] mit Kovarianzfunktion k gibt. Es sei darauf hingeweisen, dass man zum Beweis dieses Satzes den Satz von Mercer benötigt, der in Anhang B aufgeführt und bewiesen wird Zusammenhang von Kernfunktion und Integraloperator Um die Existenz von Gaußschen Prozessen zu gegebener Kovarianzfunktion untersuchen zu können, müssen wir zunächst mehr über den Zusammenhang von Kernfunktion und Integraloperator wissen. Definition (positiv semidefinit) Eine Funktion k : A R mit A R heißt positiv semidefinit, falls für beliebige a 1,.., a m R und für beliebige t 1,.., t m A gilt: m a i a j k(t i, t j ) i, 9

30 Bemerkung. Üblicherweise heißt eine Funktion k positiv, falls k gilt. Wie die folgenden Beispiele zeigen, sind die Begriffe positiv und positiv semidefinit unabhängig. Beispiel. Sei f : R R eine beliebige Funktion. Definiere k : R R, k(s, t) f(s)f(t). Dann ist k positiv semidefinit, denn für a 1,.., a m R sowie t 1,.., t m R gilt: m k(t 1, t 1 ) k(t 1, t m ) a 1 a i a j k(t i, t j ) (a 1,.., a m ) i, k(t m, t 1 ) k(t m, t m ) a m f(t 1 )f(t 1 ) f(t 1 )f(t m ) a 1 (a 1,.., a m ) f(t m )f(t 1 ) f(t m )f(t m ) a m f(t 1 ) a 1 (a 1,.., a m ). (f(t 1 ),.., f(t m )). f(t m ) (a 1,.., a m ), (f(t 1 ),.., f(t m ) Allerdings gilt für f(x) x, dass k( 1, 1) f( 1)f(1) 1 <. k ist also nicht positiv. Beispiel. Sei k(s, t) : s t. Dann ist k positiv. Allerdings ist für a 1 : t 1 : 1 und a : t : 1 a i a j k(t i, t j ) (1)(1) ( 1)(1) (1)( 1) 1 ( 1) i, Also ist k nicht positiv semidefinit. + ( 1)( 1) 1 ( 1) 4 < Definition (symmetrische Funktion) Eine Funktion k : A R mit A R heißt symmetrisch, falls für alle s, t A gilt k(s, t) k(t, s) Satz Sei (X(t)) t [,1] ein Gaußscher Prozess. Dann ist die Kovarianzfunktion k symmetrisch und positiv semidefinit. a m 3

31 Beweis. Beh.1: Die Kovarianzfunktion k ist symmetrisch. Seien s, t [, 1] beliebig. Dann gilt k(s, t) EX(s)X(t) EX(t)X(s) k(t, s) Beh.: Die Kovarianzfunktion k ist positiv semidefinit. Seien t 1,..., t n [, 1] und a 1,..., a n R beliebig. Aus den Rechenregeln für Varianz und Kovarianz sowie der Tatsache, dass EX(t j ) für j 1,..., n, folgt n a i a j k(t i, t j ) i, n a i a j E (X(t i )X(t j )) i, n a i a j Cov (X(t i ), X(t j )) i, ( n ) Var a i X(t i ) i1 Also ist k positiv semidefinit. Definition (symmetrischer Operator) Ein linearer Operator Q : H H eines Hilbertraumes H heißt symmetrisch, falls für alle f, g H gilt: Qf, g f, Qg Satz Sei k C([, 1] ). Dann ist k genau dann symmetrisch, wenn der zugehörige Integraloperator symmetrisch ist. Q k : L ([, 1]) L ([, 1]), Q k (f) : 1 k(, t)f(t)dt 31

32 Beweis. Beh.1: Sei k symmetrisch. Dann ist Q k symmetrisch. Seien f, g L ([, 1]). Dann gilt durch die Symmetrie von k und nach dem Satz von Fubini: Q k (f), g Q(f)(s)g(s)ds ( 1 ) k(s, t)f(t)dt g(s)ds ( 1 ) k(s, t)g(s)ds f(t)dt ( 1 ) k(t, s)g(s)ds f(t)dt f(t)q k (g)(t)dt f, Q k (g) Also folgt die Behauptung. Beh.: Sei Q k symmetrisch. Dann ist k symmetrisch Definiere h : [, 1] R durch h(s, t) k(s, t) k(t, s). Dann gilt wegen der Symmetrie von Q k für beliebige f, g L [, 1] Q k f, g f, Q k g k(s, t)f(t)g(s)dtds 1 1 (k(s, t) k(t, s))f(t)g(s)dtds h(s, t)f(t)g(s)dtds f(t)k(t, s)g(s)dsdt Angenommen es existieren x, y [, 1] derart, dass h(x, y) >. Dann gibt es ein ε > mit h(x, y) > ε. Da nun h stetig ist, existieren Intervalle I, J [, 1] mit x I, y J, I >, J > und h(s, t) > ε für alle s I, t J. Dann gilt aber für die 3

33 Funktionen f : 1 I L [, 1] und g : 1 J L [, 1], dass 1 1 h(s, t)f(t)g(s)dtds 1 1 ε I J > h(s, t)1 I (t)1 J (s)dtds Das ist aber ein Widerspruch. Analog kann man zeigen, dass h(s, t) < nicht möglich ist. Also ist h und damit k(s, t) k(t, s) für alle s, t [, 1]. Definition (formpositiver Operator) Ein linearer Operator Q : H H eines reellen Hilbertraumes H heißt formpositiv, falls für alle f H gilt: Qf, f Satz Sei k C([, 1] ). Dann ist k genau dann positiv semidefinit, wenn der zugehörige Integraloperator formpositiv ist. Q k : L ([, 1]) L ([, 1]), Q k (f) : 1 k(, t)f(t)dt Beweis. Sei zunächst k positiv semidefinit. Wir zeigen, dass dann Q k formpositiv ist. Beh.1: Für f C([, 1]) gilt Q k (f), f Sei f C([, 1]). Es gilt Q k (f), f 1 1 k(s, t)f(t)f(s)dsdt. Sei nun s <.. < s n 1 eine Partition von [, 1]. Setze l i : (s i, s i 1 ). Sei außerdem r i l i eine Stützstelle. Dann ist (l i l j ) i,j eine Zerlegung von [, 1] [, 1] und (r i, r j ) eine Stützstelle in (l i l j ) i,j. Da nun k und f stetig sind, ist g(s, t) : k(s, t)f(s)f(t) stetig und damit Riemann-integrierbar. Es gilt also nach der Definition des Riemann-Integrals, dass 1 1 k(s, t)f(t)f(s)dsdt lim l i l j k(r i, r j )f(r i )f(r j ) l i l j i,j Setzt man a i : f(r i ) l i und a j : f(r j ) l j so gilt k(r i, r j )f(r i )f(r j ) l i l j i,j i,j k(r i, r j )a i a j, 33

34 da k positiv semidefinit ist. Es folgt also Q k (f), f lim l i l j k(r i, r j )f(r i )f(r j ) l i l j. i,j Beh.: Für f L ([, 1]) gilt Q k (f), f Nach Lemma A.1.6 ist Q k : L ([, 1]) L ([, 1]) stetig und nach Lemma A.1. ist damit h : L ([, 1]) R, h(g) Q k (g), g stetig. Nach [Wer7, Satz I..1] ist C([, 1]) dicht in L ([, 1]). Für f L ([, 1]) existiert also eine Folge (f n ) n N C([, 1]) mit lim n f n f in L. Aus der Stetigkeit von h folgt dann: Q k (f), f h(f) h( lim n f n ) lim n h(f n ) lim n Q k (f n ), f n Es folgt also, dass Q k formpositiv ist. Beh.3: Sei Q k formpositiv. Dann ist k positiv semidefinit. Q k ist formpositiv, also gilt Q k f, f für alle f L [, 1]. Seien t 1,..., t m [, 1], a 1,..., a m R sowie ε > beliebig. Sei außerdem s < s 1 <... < s n 1 eine Zerlegung von [, 1] mit s i s i 1 1 n. Definiere S : {[s i, s i 1 ] : i 1,..., n}. Da k gleichmäßig stetig ist, kann nun n so groß gewählt werden, dass k(s, t) k(s, t ) < ε, falls s, s I S und t, t J S gilt. Für t j wähle nun I j S so, dass t j I j. Es sei nun f : m na j1 Ij. Dann ist f L [, 1] und damit gilt nach Voraussetzung Q k f, f m i, m i, I i I i k(s, t)f(t)f(s)dtds ( m ) ( m ) k(s, t) na i 1 Ii (t) na j 1 Ij (s) dtds i1 k(s, t)n a i a j dtds I j m k(s, t)n a i a j dtds + a i a j k(t i, t j ) I j i, m a i a j k(t i, t j ) i, 34

35 m m m a i a j k(t i, t j ) + k(s, t)n a i a j dtds k(t i, t j )n a i a j dtds i, i, I i I j i, I i I j m m a i a j k(t i, t j ) + n a i a j (k(s, t) k(t i, t j )) dtds i, i, I i I j m m a i a j k(t i, t j ) + n a i a j k(s, t) k(t i, t j ) dtds i, i, I i I j m m a i a j k(t i, t j ) + n a i a j ε 1 n i, m a i a j k(t i, t j ) + ε i, i, i, m a i a j Da nun aber ε beliebig gewählt wurde, folgt m i, a ia j k(t i, t j ), also ist k positiv semidefinit. 4.. Existenz Gaußscher Prozess Mit Satz haben wir gezeigt, dass eine Funktion notwendigerweise symmetrisch und positiv semidefinit sein muss, um Kovarianzfunktion eines Gaußschen Prozesses zu sein. Dass diese Eigenschaften für stetige Funktionen auch hinreichend sind, ist Bestandteil des nächsten Satzes. Satz Sei k C([, 1] ) symmetrisch und positiv semidefinit. Dann existiert ein Gaußscher Prozess (X(t)) t [,1] mit Kovarianzfunktion k. Beweis. Nach dem Satz von Mercer existiert eine Folge (λ n ) n N l und eine Folge von zugehörigen Eigenvektoren (e n ) n N C([, 1]), die ein Orthonormalsystem in L ([, 1]) bilden, so dass k(s, t) 1 λ ne n (s)e n (t) gilt und die Reihe gleichmäßig konvergiert. Definiere nun F : [, 1] L ([, 1]), F (t) : λn e n (t)e n Zunächst einmal muss gezeigt werden, dass F wirklich nach L [, 1] abbildet. n1 35

36 Beh.1: F (t) L ([, 1]) und F (t) L 1 λ ne n (t) Es gilt nach dem Satz von Mercer, dass 1 λ ne n (t) k(t, t) <, da k C([, 1] ). Also ist λ n e n (t) l und die Behauptung folgt direkt aus Lemma A.1.4. Beh.: Für s, t [, 1] gilt F (s) F (t) L λ n [e n (s) e n (t)] k(s, s) k(s, t) + k(t, t) n1 Nach dem Satz von Mercer gilt λ n [e n (s) e n (t)] λ n [e n (s) e n (s)e n (t) + e n (t) ] n1 n1 λ n e n (s) λ n e n (s)e n (t) + λ n e n (t) n1 n1 n1 k(s, s) k(s, t) + k(t, t) Also folgt, dass ( λ n [e n (s) e n (t)]) l. Damit gilt nach Lemma A.1.4 F (s) F (t) L λn e n (s)e n λn e n (t)e n n1 n1 λn [e n (s) e n (t)]e n n1 L λ n [e n (s) e n (t)] n1 k(s, s) k(s, t) + k(t, t) Beh.3: F C([, 1], L [, 1]) Sei t [, 1] fest. Dann gilt für s [, 1] nach Behauptung : L F (s) F (t) L k(s, s) k(s, t) + k(t, t) 36

37 Sei ε > beliebig. Da k stetig ist, existiert ein δ >, so dass für (x 1, x ) R mit (x 1, x ) (t, t)) < δ folgt, dass k(x 1, x ) k(t, t) < ε 3. Sei nun s R mit s t < δ. Dann gilt (s, t) (t, t) (s, s) (t, t) δ. Es gilt also F (s) F (t) L k(s, s) k(s, t) + k(t, t) k(s, s) k(s, t) + k(t, t) k(s, t) k(s, s) k(t, t) + k(t, t) k(s, t) + k(t, t) k(s, t) < ε 3 + ε 3 + ε 3 ε Somit ist F in t stetig und da t beliebig in [, 1] war, ist F insgesamt stetig. Beh.4: F (s), F (t) n1 λ ne n (s)e n (t) k(s, t) Für r [, 1] setze F n (r) : n 1 λj e j (r)e j. Dann ist F n (r) L ([, 1]) n N und es gilt lim n F n (r) F (r). Mit der Stetigkeit des Skalarprodukts und der Orthogonalität von (e n ) n N folgt dann: F (s), F (t) lim n F n (s), F n (t) lim F n (s)(x)f n (t)(x)dx ( 1 n ( n ) lim λj e j (s)e j (x)) λj e j (t)e j (x) dx n n 1 1 lim n n lim n i, lim n ( n λi e i (s)e i (x) ) λ j e j (t)e j (x) dx i, ( λi λj e i (s)e j (t) 1 n λ j e j (s)e j (t) ) e i (x)e j (x)dx λ j e j (s)e j (t) k(s, t) 37

38 Beh.5: Es existiert ein Gaußscher Prozess X(t) t [,1] mit der Kovarianzfunktion k. Sei W ein L ([, 1])-isonormaler Prozess, der nach Satz 3..1 existiert. Man definiere nun X : W F. Dann folgt aus Proposition 3.., dass X ein Gaußscher Prozess ist, da F C([, 1], L [, 1]) gilt. Außerdem ist W isonormal und X Gaußsch, folglich gilt für die Kovarianzfunktion von X: Cov(X(s), X(t)) EX(s)X(t) EX(s)EX(t) EX(s)X(t) (W F )(s), (W F )(t) F (s), F (t) λ n e n (s)e n (t) k(s, t) n1 38

39 Kapitel 5. Beispiele Gaußscher Prozesse In diesem Kapitel wird mithilfe von Satz 4..1 die Existenz der gebrochenene Brownschen Bewegungen gezeigt. Im Besonderen gehen wir dann auf den Spezialfall Brownsche Bewegung ein und zeigen die Existenz einer Version mit stetigen Pfaden. Das geschieht mit dem Satz von Kolmogorov, der davor bewiesen wird. Die Brownsche Bewegung gilt als das wichtigste Beispiel eines Gaußschen Prozesses und findet zahlreiche Anwendungen in der Finanzmathematik, wie z.b. im Black-Scholes-Modell zur Berechnung von Optionspreisen Gebrochene Brownsche Bewegung Definition (Gebrochene Brownsche Bewegung) Sei (X(t)) t [,1] ein Gaußscher Prozess mit Kovarianzfunktion k, die gegeben ist durch k(s, t) 1 ( t H + s H t s H) mit H (, 1). Dann heißt (X(t)) t [,1] Hurst-Parameter H. eine gebrochene Brownsche Bewegung mit Satz (Existenz gebrochenen Brownsche Bewegung) Für alle H (, 1) existiert eine gebrochenen Brownsche Bewegung X : [, 1] L (Ω) mit Hurst-Parameter H. Beweis. Wir wenden für den Beweis Satz 4..1 an. Die Kovarianzfunktion einer gebrochenen Brownschen Bewegung mit Hurst-Parameter H ist nach Definition gegeben 39

40 durch k(s, t) 1 ( t H + s H t s H) Offensichtlich ist k symmetrisch und stetig. Es ist noch zu zeigen, dass k positiv semidefinit ist. Seien dazu t 1,, t n [, 1] mit t 1 < < t n und α 1,, α n R beliebig. Dann gilt n α i α j k(t i, t j ) 1 i, n ( α i α j ti H + t j H t i t j H) i, n ( ( αi α j ti H + t j H)) 1 i, i, i, n ( αi α j t i t j H) i, n ( αi α j max { t i H, t j H}) 1 n ( αi α j t i t j H) i, n ( α i α j max { t i, t j } H) 1 n ( αi α j t i t j H) n ( αi α j t i t j H) 1 i, i, n ( αi α j t i t j H) i, Bemerkung. Wir haben mit dem letzten Satz also die Existenz einer ganzen Familie von Gaußschen Prozessen, nämlichen den gebrochenen Brownschen Bewegungen, gezeigt. Wir wollen uns nun auf den Spezialfall Brownsche Bewegung konzentrieren. Dass es sich dabei wirklich um nur um einen Spezialfall handelt, wird allerdings erst im Beweis von Satz 5..4 deutlich. 5.. Brownsche Bewegung Definition (Brownsche Bewegung) Ein reellwertiger stochastischer Prozess B (B(t)) t [,1] heißt Brownsche Bewegung, falls gilt: 1. B() fast sicher 4

41 . B hat unabhängige Zuwächse 3. B(t) B(s) N(, t s) s < t 1 Bemerkung. Aus der Definition lässt sich sofort schließen, dass für eine Brownsche Bewegung (B t ) t [,1] immer B(t) N(, t) gilt. Lemma 5... Eine Brownsche Bewegung ist ein Gaußscher Prozess. Beweis. Seien t 1,, t n [, 1] mit t 1 < < t n und α 1,, α n R beliebig. Setze außerdem α : t :. Dann ist nach Definition B(t j ) B(t j 1 ) N(, t j t j 1 ), also Gaußsche Zufallsvariable für j 1,..., n. Da B(t 1 ) B(t ),, B(t n ) B(t n 1 ) unabhängig sind, folgt nach Lemma.1.5 n α j B(t j ) n α j B(t j ) j ( n j α j ) j B(t k ) B(t k 1 ) + k ( n n ) α k (B(t j ) B(t j 1 )) + N, kj n α j B(t ) n α j B() ( n n ) α k (t j t j 1 ) kj Beachte hierbei, dass n α jb() fast sicher ist und daher die Verteilung nicht beeinflusst. Es ist also (B(t 1 ),, B(t n )) ein Gaußscher Vektor und daraus folgt die Behauptung. Satz Ein Gaußscher Prozess (B(t)) t [,1] ist eine Brownsche Bewegung genau dann, wenn die Kovarianzfunktion k gegeben ist durch k(s, t) min {s, t}. Beweis. Sei (B(t)) t [,1] eine Brownsche Bewegung und seinen s, t [, 1] mit s < t. 41

42 Dann gilt wegen E[B(t) B(s)] und der Unabhängigkeit der Zuwächse E[B(s)B(t)] E [(B(t) B(s) + B(s))B(s)] E [(B(t) B(s))B(s)] + E [B(s)B(s)] E [(B(t) B(s))(B(s) B())] + Var B(s) E[B(t) B(s)]E[B(s) B()] + s s min {s, t} Es folgt also, dass k(s, t) EB(s)B(t) min {s, t} für alle s, t [, 1]. Sei nun (B(t)) t [,1] ein Gaußscher Prozess mit Kovarianzfunktion k(s, t) min {s, t}. 1. Es gilt EB(), da B ein Gaußscher Prozess und damit B() eine Gaußsche Zufallsvariable ist. Weiter gilt Var B() EB()B() k(, ). Daraus folgt nach Lemma 1.1.8, dass B() fast sicher.. Seien t 1,, t n [, 1] mit t 1 < < t n. Dann ist nach Definition (B(t 1 ),, B(t n )) ein Gaußscher Vektor. Nun ist aber der Vektor (B(t ) B(t 1 ),, B(t n ) B(t n 1 )) eine lineare Transformation von (B(t 1 ),, B(t n )), also nach Lemma.. ebenfalls ein Gaußscher Vektor. Für i, j {,, n}, i j, und o.b.d.a i > j, gilt nach Lemma Cov [B(t i ) B(t i 1 ), B(t j ) B(t j 1 )] Cov[B(t i ), B(t j )] Cov[B(t i 1 ), B(t j )] Cov[B(t i ), B(t j 1 )] + Cov[B(t i 1 ), B(t j 1 )] EB(t i )B(t j ) EB(t i 1 )B(t j ) EB(t i )B(t j 1 ) + EB(t i 1 )B(t j 1 ) min {t i, t j } min {t i 1, t j } min {t i, t j 1 } + min {t i 1, t j 1 } t j t j t j 1 + t j 1 Also sind die Zufallsvariablen (B(t ) B(t 1 ),, B(t n ) B(t n 1 ) paarweise unkorrelliert und damit nach Satz..4 unabhängig. 3. Seien s, t [, 1] mit s < t. Dann ist B(t) B(s) eine Gaußsche Zufallsvariable 4

Absolute Stetigkeit von Maßen

Absolute Stetigkeit von Maßen Absolute Stetigkeit von Maßen Definition. Seien µ und ν Maße auf (X, Ω). Dann heißt ν absolut stetig bezüglich µ (kurz ν µ ), wenn für alle A Ω mit µ(a) = 0 auch gilt dass ν(a) = 0. Lemma. Sei ν ein endliches

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

Mengensysteme, Wahrscheinlichkeitsmaße

Mengensysteme, Wahrscheinlichkeitsmaße Kapitel 1 Mengensysteme, Wahrscheinlichkeitsmaße Der Großteil der folgenden fundamentalen Begriffe sind schon aus der Vorlesung Stochastische Modellbildung bekannt: Definition 1.1 Eine Familie A von Teilmengen

Mehr

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen 4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.

Mehr

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren. Basis und Dimension Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren. Definition. Sei V ein K-Vektorraum und (v i ) i I eine Familie von Vektoren

Mehr

2 3 x3 17. x k dx = x k x k+1 k +1. Mit jeder weiteren partiellen Integration reduziert sich der Grad des Faktors x n, induktiv erhalten wir also

2 3 x3 17. x k dx = x k x k+1 k +1. Mit jeder weiteren partiellen Integration reduziert sich der Grad des Faktors x n, induktiv erhalten wir also Universität Konstanz Fachbereich Mathematik und Statistik Repetitorium Analysis 0 Dr DK Huynh Blatt 8 Aufgabe 6 Bestimmen Sie (a) (x + x 7x+)dx (c) (f) x n exp(x)dx (n N fest) sin (x)dx (g) (b) (d) ln(x)dx

Mehr

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Zählen und Zahlbereiche Übungsblatt 1 1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Für alle m, n N gilt m + n = n + m. in den Satz umschreiben:

Mehr

Fachschaft Mathematik und Informatik (FIM) LA I VORKURS. Herbstsemester 2015. gehalten von Harald Baum

Fachschaft Mathematik und Informatik (FIM) LA I VORKURS. Herbstsemester 2015. gehalten von Harald Baum Fachschaft Mathematik und Informatik (FIM) LA I VORKURS Herbstsemester 2015 gehalten von Harald Baum 2. September 2015 Inhaltsverzeichnis 1. Stichpunkte zur Linearen Algebra I 2. Körper 3. Vektorräume

Mehr

3. Zusammenhang. 22 Andreas Gathmann

3. Zusammenhang. 22 Andreas Gathmann 22 Andreas Gathmann 3. Zusammenhang Eine der anschaulichsten Eigenschaften eines topologischen Raumes ist wahrscheinlich, ob er zusammenhängend ist oder aus mehreren Teilen besteht. Wir wollen dieses Konzept

Mehr

Primzahlen und RSA-Verschlüsselung

Primzahlen und RSA-Verschlüsselung Primzahlen und RSA-Verschlüsselung Michael Fütterer und Jonathan Zachhuber 1 Einiges zu Primzahlen Ein paar Definitionen: Wir bezeichnen mit Z die Menge der positiven und negativen ganzen Zahlen, also

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte 50. Mathematik-Olympiade. Stufe (Regionalrunde) Klasse 3 Lösungen c 00 Aufgabenausschuss des Mathematik-Olympiaden e.v. www.mathematik-olympiaden.de. Alle Rechte vorbehalten. 503 Lösung 0 Punkte Es seien

Mehr

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema 2x 4 + x 3 + x + 3 div x 2 + x 1 = 2x 2 x + 3 (2x 4 + 2x 3 2x 2 ) x 3 + 2x 2 + x + 3 ( x

Mehr

Stochastische Eingangsprüfung, 17.05.2008

Stochastische Eingangsprüfung, 17.05.2008 Stochastische Eingangsprüfung, 17.5.8 Wir gehen stets von einem Wahrscheinlichkeitsraum (Ω, A, P) aus. Aufgabe 1 ( Punkte) Sei X : Ω [, ) eine integrierbare Zufallsvariable mit XdP = 1. Sei Q : A R, Q(A)

Mehr

Einführung in die Algebra

Einführung in die Algebra Prof. Dr. H. Brenner Osnabrück SS 2009 Einführung in die Algebra Vorlesung 13 Einheiten Definition 13.1. Ein Element u in einem Ring R heißt Einheit, wenn es ein Element v R gibt mit uv = vu = 1. DasElementv

Mehr

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Vollständigkeit halber aufgeführt. Gehen wir einmal davon aus, dass die von uns angenommenen 70% im Beispiel exakt berechnet sind. Was würde

Mehr

a n + 2 1 auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert:

a n + 2 1 auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert: Beispiel: Wir untersuchen die rekursiv definierte Folge a 0 + auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert: ( ) (,, 7, 5,...) Wir können also vermuten, dass die Folge monoton fallend

Mehr

Eigenwerte und Eigenvektoren von Matrizen

Eigenwerte und Eigenvektoren von Matrizen Eigenwerte und Eigenvektoren von Matrizen Das Eigenwertproblem Sei A eine quadratische Matrix vom Typ m,m. Die Aufgabe, eine Zahl λ und einen dazugehörigen Vektor x zu finden, damit Ax = λx ist, nennt

Mehr

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist. Matrizennorm Es seien r,s N Mit M r,s (R bezeichnen wir die Menge der reellen r s- Matrizen (also der linearen Abbildungen R s R r, und setze M s (R := M s,s (R (also die Menge der linearen Abbildungen

Mehr

Informationsblatt Induktionsbeweis

Informationsblatt Induktionsbeweis Sommer 015 Informationsblatt Induktionsbeweis 31. März 015 Motivation Die vollständige Induktion ist ein wichtiges Beweisverfahren in der Informatik. Sie wird häufig dazu gebraucht, um mathematische Formeln

Mehr

Also kann nur A ist roter Südler und B ist grüner Nordler gelten.

Also kann nur A ist roter Südler und B ist grüner Nordler gelten. Aufgabe 1.1: (4 Punkte) Der Planet Og wird von zwei verschiedenen Rassen bewohnt - dem grünen und dem roten Volk. Desweiteren sind die Leute, die auf der nördlichen Halbkugel geboren wurden von denen auf

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

Approximation durch Taylorpolynome

Approximation durch Taylorpolynome TU Berlin Fakultät II - Mathematik und Naturwissenschaften Sekretariat MA 4-1 Straße des 17. Juni 10623 Berlin Hochschultag Approximation durch Taylorpolynome Im Rahmen der Schülerinnen- und Schüler-Uni

Mehr

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN CHRISTIAN HARTFELDT. Zweiter Mittelwertsatz Der Mittelwertsatz Satz VI.3.4) lässt sich verallgemeinern zu Satz.. Seien f, g : [a, b] R auf [a,

Mehr

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge 2.4 Stetige Zufallsvariable Beispiel. Abfüllung von 500 Gramm Packungen einer bestimmten Ware auf einer automatischen Abfüllanlage. Die Zufallsvariable X beschreibe die Füllmenge einer zufällig ausgewählten

Mehr

7 Rechnen mit Polynomen

7 Rechnen mit Polynomen 7 Rechnen mit Polynomen Zu Polynomfunktionen Satz. Zwei Polynomfunktionen und f : R R, x a n x n + a n 1 x n 1 + a 1 x + a 0 g : R R, x b n x n + b n 1 x n 1 + b 1 x + b 0 sind genau dann gleich, wenn

Mehr

Statistische Thermodynamik I Lösungen zur Serie 1

Statistische Thermodynamik I Lösungen zur Serie 1 Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen

Mehr

Der Zwei-Quadrate-Satz von Fermat

Der Zwei-Quadrate-Satz von Fermat Der Zwei-Quadrate-Satz von Fermat Proseminar: Das BUCH der Beweise Fridtjof Schulte Steinberg Institut für Informatik Humboldt-Universität zu Berlin 29.November 2012 1 / 20 Allgemeines Pierre de Fermat

Mehr

Mathematischer Vorbereitungskurs für Ökonomen

Mathematischer Vorbereitungskurs für Ökonomen Mathematischer Vorbereitungskurs für Ökonomen Dr. Thomas Zehrt Wirtschaftswissenschaftliches Zentrum Universität Basel Gleichungen Inhalt: 1. Grundlegendes 2. Lineare Gleichungen 3. Gleichungen mit Brüchen

Mehr

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt Methoden und Techniken an Beispielen erklärt Georg Anegg 5. November 009 Beispiel. Die Folge {a n } sei wie folgt definiert (a, d, q R, q ): a 0 a, a n+ a n q + d (n 0) Man bestimme eine explizite Darstellung

Mehr

1 Mathematische Grundlagen

1 Mathematische Grundlagen Mathematische Grundlagen - 1-1 Mathematische Grundlagen Der Begriff der Menge ist einer der grundlegenden Begriffe in der Mathematik. Mengen dienen dazu, Dinge oder Objekte zu einer Einheit zusammenzufassen.

Mehr

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über Güte von s Grundlegendes zum Konzept der Güte Ableitung der Gütefunktion des Gauss im Einstichprobenproblem Grafische Darstellung der Gütefunktionen des Gauss im Einstichprobenproblem Ableitung der Gütefunktion

Mehr

11.3 Komplexe Potenzreihen und weitere komplexe Funktionen

11.3 Komplexe Potenzreihen und weitere komplexe Funktionen .3 Komplexe Potenzreihen und weitere komplexe Funktionen Definition.) komplexe Folgen: z n = x n + j. y n mit zwei reellen Folgen x n und y n.) Konvergenz: Eine komplexe Folge z n = x n + j. y n heißt

Mehr

Zeichen bei Zahlen entschlüsseln

Zeichen bei Zahlen entschlüsseln Zeichen bei Zahlen entschlüsseln In diesem Kapitel... Verwendung des Zahlenstrahls Absolut richtige Bestimmung von absoluten Werten Operationen bei Zahlen mit Vorzeichen: Addieren, Subtrahieren, Multiplizieren

Mehr

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011 Mathematik für Informatiker II Christoph Eisinger Sommersemester 211 Beispiellösungen zur Probeklausur Aufgabe 1 Gegeben sind die Polynome f, g, h K[x]. Zu zeigen: Es gibt genau dann Polynome h 1 und h

Mehr

Vorlesung. Funktionen/Abbildungen 1

Vorlesung. Funktionen/Abbildungen 1 Vorlesung Funktionen/Abbildungen 1 1 Grundlagen Hinweis: In dieser Vorlesung werden Funktionen und Abbildungen synonym verwendet. In der Schule wird eine Funktion häufig als eindeutige Zuordnung definiert.

Mehr

Rekursionen (Teschl/Teschl 8.1-8.2)

Rekursionen (Teschl/Teschl 8.1-8.2) Rekursionen (Teschl/Teschl 8.1-8.2) Eine Rekursion kter Ordnung für k N ist eine Folge x 1, x 2, x 3,... deniert durch eine Rekursionsvorschrift x n = f n (x n 1,..., x n k ) für n > k, d. h. jedes Folgenglied

Mehr

Data Mining: Einige Grundlagen aus der Stochastik

Data Mining: Einige Grundlagen aus der Stochastik Data Mining: Einige Grundlagen aus der Stochastik Hagen Knaf Studiengang Angewandte Mathematik Hochschule RheinMain 21. Oktober 2015 Vorwort Das vorliegende Skript enthält eine Zusammenfassung verschiedener

Mehr

Erinnerung/Zusammenfassung zu Abbildungsmatrizen

Erinnerung/Zusammenfassung zu Abbildungsmatrizen Erinnerung/Zusammenfassung zu Abbildungsmatrizen Thomas Coutandin (cthomas@student.ethz.ch) 7. November 2 Abbildungsmatrizen Im Folgenden betrachten wir stets endlich dimensionale K-Vektorräume (K irgend

Mehr

1.5 Folgerungen aus dem Kolmogoroff- Axiomensystem P( ) = 0.

1.5 Folgerungen aus dem Kolmogoroff- Axiomensystem P( ) = 0. 1.5 Folgerungen aus dem Kolmogoroff- Axiomensystem Folg. 2 Sei (Ω, E, P) W.-raum. Seien A, B,A 1,...,A n Ereignisse. Es gelten die folgenden Aussagen: 1. P(A) = 1 P(A). 2. Für das unmögliche Ereignis gilt:

Mehr

Musterlösungen zur Linearen Algebra II Blatt 5

Musterlösungen zur Linearen Algebra II Blatt 5 Musterlösungen zur Linearen Algebra II Blatt 5 Aufgabe. Man betrachte die Matrix A := über dem Körper R und über dem Körper F und bestimme jeweils die Jordan- Normalform. Beweis. Das charakteristische

Mehr

Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b

Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b Aufgabe 1: Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. (a) Nehmen Sie lineares Wachstum gemäß z(t) = at + b an, wobei z die Einwohnerzahl ist und

Mehr

7 Die Determinante einer Matrix

7 Die Determinante einer Matrix 7 Die Determinante einer Matrix ( ) a11 a Die Determinante einer 2 2 Matrix A = 12 ist erklärt als a 21 a 22 det A := a 11 a 22 a 12 a 21 Es ist S 2 = { id, τ}, τ = (1, 2) und sign (id) = 1, sign (τ) =

Mehr

BONUS MALUS SYSTEME UND MARKOV KETTEN

BONUS MALUS SYSTEME UND MARKOV KETTEN Fakultät Mathematik und Naturwissenschaften, Fachrichtung Mathematik, Institut für Mathematische Stochastik BONUS MALUS SYSTEME UND MARKOV KETTEN Klaus D. Schmidt Ringvorlesung TU Dresden Fakultät MN,

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen.

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen. 13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen. Sie heißt linear, wenn sie die Form y (n) + a n 1 y (n 1)

Mehr

6.2 Perfekte Sicherheit

6.2 Perfekte Sicherheit 04 6.2 Perfekte Sicherheit Beweis. H(B AC) + H(A C) = H(ABC) H(AC) + H(AC) H(C) Wegen gilt Einsetzen in die Definition gibt = H(AB C). H(A BC) = H(AB C) H(B C). I(A; B C) = H(A C) H(AB C) + H(B C). Da

Mehr

1 Ordnung muß sein. 1.1 Angeordnete Körper. 1.2 Folgerungen aus den Anordnungsaxiomen. ( c) (b a) > 0. Somit a c b c > 0.

1 Ordnung muß sein. 1.1 Angeordnete Körper. 1.2 Folgerungen aus den Anordnungsaxiomen. ( c) (b a) > 0. Somit a c b c > 0. 1 Ordnung uß sein 1.1 Angeordnete Körper Wir nehen einal an, daß es in eine Körper Eleente gibt, die wir positiv nennen. Welche Eigenschaften sollen diese haben? O1) Wenn x und y positiv sind, dann auch

Mehr

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen

Mehr

Ein neuer Beweis, dass die Newton sche Entwicklung der Potenzen des Binoms auch für gebrochene Exponenten gilt

Ein neuer Beweis, dass die Newton sche Entwicklung der Potenzen des Binoms auch für gebrochene Exponenten gilt Ein neuer Beweis, dass die Newton sche Entwicklung der Potenzen des Binoms auch für gebrochene Exponenten gilt Leonhard Euler 1 Wann immer in den Anfängen der Analysis die Potenzen des Binoms entwickelt

Mehr

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren Lineargleichungssysteme: Additions-/ Subtraktionsverfahren W. Kippels 22. Februar 2014 Inhaltsverzeichnis 1 Einleitung 2 2 Lineargleichungssysteme zweiten Grades 2 3 Lineargleichungssysteme höheren als

Mehr

Umgekehrte Kurvendiskussion

Umgekehrte Kurvendiskussion Umgekehrte Kurvendiskussion Bei einer Kurvendiskussion haben wir eine Funktionsgleichung vorgegeben und versuchen ihre 'Besonderheiten' herauszufinden: Nullstellen, Extremwerte, Wendepunkte, Polstellen

Mehr

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt - 17 - Die Frage ist hier also: Für welche x R gilt x = x + 1? Das ist eine quadratische Gleichung für x. Es gilt x = x + 1 x x 3 = 0, und man kann quadratische Ergänzung machen:... ( ) ( ) x x + = 3 +

Mehr

Charakteristikenmethode im Beispiel

Charakteristikenmethode im Beispiel Charakteristikenmethode im Wir betrachten die PDE in drei Variablen xu x + yu y + (x + y )u z = 0. Das charakteristische System lautet dann ẋ = x ẏ = y ż = x + y und besitzt die allgemeine Lösung x(t)

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

Modulabschlussklausur Analysis II

Modulabschlussklausur Analysis II Modulabschlussklausur Analysis II. Juli 015 Bearbeitungszeit: 150 min Aufgabe 1 [5/10 Punkte] Es sei a R und f a : R 3 R mit f a (x, y, z) = x cos(y) + z 3 sin(y) + a 3 + (z + ay a y) cos(x) a) Bestimmen

Mehr

Frohe Weihnachten und ein gutes neues Jahr!

Frohe Weihnachten und ein gutes neues Jahr! Frohe Weihnachten und ein gutes neues Jahr! Die mit dem Stern * gekennzeichneten Übungen sind nicht verpflichtend, aber sie liefern zusätzliche Punkte. Unten wird immer mit I das reelle Intervall [0, 1]

Mehr

4. Jeder Knoten hat höchstens zwei Kinder, ein linkes und ein rechtes.

4. Jeder Knoten hat höchstens zwei Kinder, ein linkes und ein rechtes. Binäre Bäume Definition: Ein binärer Baum T besteht aus einer Menge von Knoten, die durch eine Vater-Kind-Beziehung wie folgt strukturiert ist: 1. Es gibt genau einen hervorgehobenen Knoten r T, die Wurzel

Mehr

WS 2008/09. Diskrete Strukturen

WS 2008/09. Diskrete Strukturen WS 2008/09 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0809

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme 1 Zwei Gleichungen mit zwei Unbekannten Es kommt häufig vor, dass man nicht mit einer Variablen alleine auskommt, um ein Problem zu lösen. Das folgende Beispiel soll dies verdeutlichen

Mehr

Definition 3.1: Ein Differentialgleichungssystem 1. Ordnung

Definition 3.1: Ein Differentialgleichungssystem 1. Ordnung Kapitel 3 Dynamische Systeme Definition 31: Ein Differentialgleichungssystem 1 Ordnung = f(t, y) ; y R N ; f : R R N R N heißt namisches System auf dem Phasenraum R N Der Parameter t wird die Zeit genannt

Mehr

Solvency II und die Standardformel

Solvency II und die Standardformel Fakultät Mathematik und Naturwissenschaften Institut für Mathematische Stochastik Solvency II und die Standardformel Festkolloquium 20 Jahre (neue) Versicherungsmathematik an der TU Dresden Sebastian Fuchs

Mehr

Modul Diskrete Mathematik WiSe 2011/12

Modul Diskrete Mathematik WiSe 2011/12 1 Modul Diskrete Mathematik WiSe 2011/12 Ergänzungsskript zum Kapitel 4.2. Hinweis: Dieses Manuskript ist nur verständlich und von Nutzen für Personen, die regelmäßig und aktiv die zugehörige Vorlesung

Mehr

Extrema von Funktionen in zwei Variablen

Extrema von Funktionen in zwei Variablen Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Extrema von Funktionen in zwei Variablen Literatur: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen,

Mehr

a' c' Aufgabe: Spiegelung an den Dreiecksseiten und Anti-Steinersche Punkte Darij Grinberg

a' c' Aufgabe: Spiegelung an den Dreiecksseiten und Anti-Steinersche Punkte Darij Grinberg ufgabe: Spiegelung an den Dreiecksseiten und nti-steinersche Punkte Darij Grinberg Eine durch den Höhenschnittpunkt H eines Dreiecks B gehende Gerade g werde an den Dreiecksseiten B; und B gespiegelt;

Mehr

Universität Bonn 28. Juli 2010 Fachbereich Rechts- und Wirtschaftswissenschaften Statistische Abteilung Prof. Dr. A. Kneip. KLAUSUR Statistik B

Universität Bonn 28. Juli 2010 Fachbereich Rechts- und Wirtschaftswissenschaften Statistische Abteilung Prof. Dr. A. Kneip. KLAUSUR Statistik B Universität Bonn 28. Juli 2010 Fachbereich Rechts- und Wirtschaftswissenschaften Statistische Abteilung Prof. Dr. A. Kneip Sommersemester 2010 KLAUSUR Statistik B Hinweise zur Bearbeitung: Bei allen Teilaufgaben

Mehr

Analysis I für Studierende der Ingenieurwissenschaften

Analysis I für Studierende der Ingenieurwissenschaften Fachbereich Mathematik der Universität Hamburg WiSe 2015/16 Prof. Dr. M. Hinze Dr. P. Kiani Analysis I für Studierende der Ingenieurwissenschaften Lösungshinweise zu Blatt 2 Aufgabe 1: (12 Punkte) a) Beweisen

Mehr

Höhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik

Höhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik Höhere Mathematik 3 Apl. Prof. Dr. Norbert Knarr FB Mathematik Wintersemester 2015/16 4. Homogene lineare Dierentialgleichungen 4.1. Grundbegrie 4.1.1. Denition. Es sei J R ein Intervall und a 0 ; : :

Mehr

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume?

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Bernhard Ganter Institut für Algebra TU Dresden D-01062 Dresden bernhard.ganter@tu-dresden.de WS 2013/14 Isomorphie Zwei Graphen (V 1, E 1 ) und (V

Mehr

Definition:Eine meromorphe Modulform vom Gewicht k Z ist eine meromorphe. f : H C. (ii) C > 0, so daß f(z) im Bereich Im z > C keine Singularität hat.

Definition:Eine meromorphe Modulform vom Gewicht k Z ist eine meromorphe. f : H C. (ii) C > 0, so daß f(z) im Bereich Im z > C keine Singularität hat. Die k/2 - Formel von Renate Vistorin Zentrales Thema dieses Vortrages ist die k/2 - Formel für meromorphe Modulformen als eine Konsequenz des Residuensatzes. Als Folgerungen werden danach einige Eigenschaften

Mehr

Professionelle Seminare im Bereich MS-Office

Professionelle Seminare im Bereich MS-Office Der Name BEREICH.VERSCHIEBEN() ist etwas unglücklich gewählt. Man kann mit der Funktion Bereiche zwar verschieben, man kann Bereiche aber auch verkleinern oder vergrößern. Besser wäre es, die Funktion

Mehr

8. Quadratische Reste. Reziprozitätsgesetz

8. Quadratische Reste. Reziprozitätsgesetz O Forster: Prizahlen 8 Quadratische Reste Rezirozitätsgesetz 81 Definition Sei eine natürliche Zahl 2 Eine ganze Zahl a heißt uadratischer Rest odulo (Abkürzung QR, falls die Kongruenz x 2 a od eine Lösung

Mehr

Analytische Methoden und die Black-Scholes Modelle

Analytische Methoden und die Black-Scholes Modelle Analytische Methoden und die Black-Scholes Modelle Diplomverteidigung Universität Rostock Institut für Mathematik 20.01.2011 Agenda 1 Das Ornstein-Uhlenbeck Volatilitätsmodell 2 in L 2 (R 2 ) 3 4 Problem

Mehr

4. Versicherungsangebot

4. Versicherungsangebot 4. Versicherungsangebot Georg Nöldeke Wirtschaftswissenschaftliche Fakultät, Universität Basel Versicherungsökonomie (FS 11) Versicherungsangebot 1 / 13 1. Einleitung 1.1 Hintergrund In einem grossen Teil

Mehr

Die Optimalität von Randomisationstests

Die Optimalität von Randomisationstests Die Optimalität von Randomisationstests Diplomarbeit Elena Regourd Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Düsseldorf im Dezember 2001 Betreuung: Prof. Dr. A. Janssen Inhaltsverzeichnis

Mehr

Lösungen zum 3. Aufgabenblatt

Lösungen zum 3. Aufgabenblatt SS, Lineare Algebra Die Lösungen wurden erstellt von: Isabel Voigt, Vanessa Lamm und Matthias Rehder Hinweis: Eine Liste der zur Bearbeitung verwendeten Literatur ist unter www.mathematiwelt.com aufrufbar.

Mehr

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5)

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5) Einführung 3 Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Univ.-Prof. Dr. Christoph Meinel Hasso-Plattner-Institut Universität Potsdam, Deutschland Hatten den Reduktionsbegriff

Mehr

Finanzmathematik. Wirtschaftswissenschaftliches Zentrum Universität Basel. Mathematik für Ökonomen 1 Dr. Thomas Zehrt

Finanzmathematik. Wirtschaftswissenschaftliches Zentrum Universität Basel. Mathematik für Ökonomen 1 Dr. Thomas Zehrt Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Finanzmathematik Literatur Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen, Band 1, 17. Auflage,

Mehr

3.2 Spiegelungen an zwei Spiegeln

3.2 Spiegelungen an zwei Spiegeln 3 Die Theorie des Spiegelbuches 45 sehen, wenn die Person uns direkt gegenüber steht. Denn dann hat sie eine Drehung um die senkrechte Achse gemacht und dabei links und rechts vertauscht. 3.2 Spiegelungen

Mehr

1 Stochastische Prozesse in stetiger Zeit

1 Stochastische Prozesse in stetiger Zeit 1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.

Mehr

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 )

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 ) Aufgabe 65. Ganz schön span(n)end. Gegeben sei folgende Menge M von 6 Vektoren v, v,..., v 6 R 4 aus Aufgabe P 6: M = v =, v =, v =, v 4 =, v 5 =, v 6 = Welche der folgenden Aussagen sind wahr? span(v,

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel Ausarbeitung zum Proseminar Finanzmathematische Modelle und Simulationen bei Raphael Kruse und Prof. Dr. Wolf-Jürgen Beyn zum Thema Simulation des Anlagenpreismodels von Simon Uphus im WS 09/10 Zusammenfassung

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Optimalitätskriterien

Optimalitätskriterien Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen

Mehr

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Übungen zum Ferienkurs Lineare Algebra WS 14/15 Übungen zum Ferienkurs Lineare Algebra WS 14/15 Linearkombinationen, Basen, Lineare Abbildungen 2.1 Lineare Unabhängigkeit Sind die folgenden Vektoren linear unabhängig? (a) 1, 2, 3 im Q Vektorraum R (b)

Mehr

Beispiellösungen zu Blatt 111

Beispiellösungen zu Blatt 111 µ κ Mathematisches Institut Georg-August-Universität Göttingen Beispiellösungen zu Blatt 111 Aufgabe 1 Ludwigshafen hat einen Bahnhof in Dreiecksform. Markus, Sabine und Wilhelm beobachten den Zugverkehr

Mehr

6.2 Scan-Konvertierung (Scan Conversion)

6.2 Scan-Konvertierung (Scan Conversion) 6.2 Scan-Konvertierung (Scan Conversion) Scan-Konvertierung ist die Rasterung von einfachen Objekten (Geraden, Kreisen, Kurven). Als Ausgabemedium dient meist der Bildschirm, der aus einem Pixelraster

Mehr

Die reellen Lösungen der kubischen Gleichung

Die reellen Lösungen der kubischen Gleichung Die reellen Lösungen der kubischen Gleichung Klaus-R. Löffler Inhaltsverzeichnis 1 Einfach zu behandelnde Sonderfälle 1 2 Die ganzrationale Funktion dritten Grades 2 2.1 Reduktion...........................................

Mehr

Motivation. Formale Grundlagen der Informatik 1 Kapitel 5 Kontextfreie Sprachen. Informales Beispiel. Informales Beispiel.

Motivation. Formale Grundlagen der Informatik 1 Kapitel 5 Kontextfreie Sprachen. Informales Beispiel. Informales Beispiel. Kontextfreie Kontextfreie Motivation Formale rundlagen der Informatik 1 Kapitel 5 Kontextfreie Sprachen Bisher hatten wir Automaten, die Wörter akzeptieren Frank Heitmann heitmann@informatik.uni-hamburg.de

Mehr

Tutorial: Homogenitätstest

Tutorial: Homogenitätstest Tutorial: Homogenitätstest Eine Bank möchte die Kreditwürdigkeit potenzieller Kreditnehmer abschätzen. Einerseits lebt die Bank ja von der Vergabe von Krediten, andererseits verursachen Problemkredite

Mehr

Theoretische Grundlagen der Informatik WS 09/10

Theoretische Grundlagen der Informatik WS 09/10 Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3

Mehr

Statistik I für Betriebswirte Vorlesung 5

Statistik I für Betriebswirte Vorlesung 5 Statistik I für Betriebswirte Vorlesung 5 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik 07. Mai 2015 PD Dr. Frank Heyde Statistik I für Betriebswirte Vorlesung 5 1 Klassische Wahrscheinlichkeitsdefinition

Mehr

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!. 040304 Übung 9a Analysis, Abschnitt 4, Folie 8 Die Wahrscheinlichkeit, dass bei n - maliger Durchführung eines Zufallexperiments ein Ereignis A ( mit Wahrscheinlichkeit p p ( A ) ) für eine beliebige Anzahl

Mehr

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung. Lineare Gleichungen mit einer Unbekannten Die Grundform der linearen Gleichung mit einer Unbekannten x lautet A x = a Dabei sind A, a reelle Zahlen. Die Gleichung lösen heißt, alle reellen Zahlen anzugeben,

Mehr

Universität Bonn, Institut für Angewandte Mathematik. WS 2012/2013 Prüfung Angewandte Mathematik und Statistik - Agrarwiss. /ELW

Universität Bonn, Institut für Angewandte Mathematik. WS 2012/2013 Prüfung Angewandte Mathematik und Statistik - Agrarwiss. /ELW Universität Bonn, Institut für Angewandte Mathematik Dr. Antje Kiesel WS 2012/2013 Prüfung Angewandte Mathematik und Statistik - Agrarwiss. /ELW 08.03.2013 Matrikelnummer Platz Name Vorname 1 2 3 4 5 6

Mehr

1.3 Die Beurteilung von Testleistungen

1.3 Die Beurteilung von Testleistungen 1.3 Die Beurteilung von Testleistungen Um das Testergebnis einer Vp zu interpretieren und daraus diagnostische Urteile ableiten zu können, benötigen wir einen Vergleichsmaßstab. Im Falle des klassischen

Mehr

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u.

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u. Universität Stuttgart Fachbereich Mathematik Prof. Dr. C. Hesse PD Dr. P. H. Lesky Dipl. Math. D. Zimmermann Msc. J. Köllner FAQ 3 Höhere Mathematik I 4..03 el, kyb, mecha, phys Vektorräume Vektorräume

Mehr

Stellen Sie bitte den Cursor in die Spalte B2 und rufen die Funktion Sverweis auf. Es öffnet sich folgendes Dialogfenster

Stellen Sie bitte den Cursor in die Spalte B2 und rufen die Funktion Sverweis auf. Es öffnet sich folgendes Dialogfenster Es gibt in Excel unter anderem die so genannten Suchfunktionen / Matrixfunktionen Damit können Sie Werte innerhalb eines bestimmten Bereichs suchen. Als Beispiel möchte ich die Funktion Sverweis zeigen.

Mehr

Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR)

Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR) Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR) Eine Firma stellt USB-Sticks her. Sie werden in der Fabrik ungeprüft in Packungen zu je 20 Stück verpackt und an Händler ausgeliefert. 1 Ein Händler

Mehr