A. Grundlagen der Stochastik

Ähnliche Dokumente
5 Erwartungswerte, Varianzen und Kovarianzen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Varianz und Kovarianz

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

7.2 Moment und Varianz

Grundbegriffe der Wahrscheinlichkeitsrechnung

2 Zufallsvariable, Verteilungen, Erwartungswert

Stochastik. 1. Wahrscheinlichkeitsräume

K8 Stetige Zufallsvariablen Theorie und Praxis

Kenngrößen von Zufallsvariablen

Die Varianz (Streuung) Definition

Wahrscheinlichkeitstheorie und Statistik vom

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

Wahrscheinlichkeitsrechnung und Quantentheorie

P (X = 2) = 1/36, P (X = 3) = 2/36,...

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Vorlesung 8a. Kovarianz und Korrelation

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /

3.3 Bedingte Wahrscheinlichkeit

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.

2.1 Gemeinsame-, Rand- und bedingte Verteilungen

8. Stetige Zufallsvariablen

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate

Unabhängigkeit KAPITEL 4

Übungsaufgaben, Statistik 1

9 Die Normalverteilung

Zufallsvariablen [random variable]

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient

Gemeinsame Wahrscheinlichkeitsverteilungen

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 9. Übung SS 16: Woche vom

Ü b u n g s b l a t t 13

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Univariates Datenmaterial

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457.

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion

Übungsblatt 9. f(x) = e x, für 0 x

Übungen zur Stochastik, Blatt Nr. 1

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

Adaptive Systeme. Sommersemester Prof. Dr. -Ing. Heinz-Georg Fehn. Prof. Dr. rer. nat. Nikolaus Wulff

Mathematische Ökonometrie

Klausur Stochastik und Statistik 18. September 2012

Quantitatives Risikomanagement

Beispiel: Zweidimensionale Normalverteilung I

Übungen zur Vorlesung Differential und Integralrechnung I Lösungsvorschlag

9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe

Rückblick auf die letzte Vorlesung. Bemerkung

Statistische Thermodynamik I Lösungen zur Serie 1

3. Kombinatorik und Wahrscheinlichkeit

Kapitel 6 Martingale

Grundwissen zur Stochastik

10. Vorlesung. Grundlagen in Statistik. Seite 291. Martin-Luther-Universität Halle/Wittenberg

Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007

Spezielle stetige Verteilungen

Diskrete Wahrscheinlichkeitstheorie - Probeklausur

Statistik, Datenanalyse und Simulation

Copula Funktionen. Eine Einführung. Nils Friewald

Outline. 1 Vektoren im Raum. 2 Komponenten und Koordinaten. 3 Skalarprodukt. 4 Vektorprodukt. 5 Analytische Geometrie. 6 Lineare Räume, Gruppentheorie

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet

Seminar Einführung in die Kunst mathematischer Ungleichungen

4 Diskrete Wahrscheinlichkeitsverteilungen

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009

Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind:

Allgemeine Wahrscheinlichkeitsräume

1 Dichte- und Verteilungsfunktion

Kapitel 5. Stochastik

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006

Technische Universität München

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Erwartungswert, Varianz und Standardabweichung einer Zufallsgröße. Was ist eine Zufallsgröße und was genau deren Verteilung?

Zufallsgröße: X : Ω R mit X : ω Anzahl der geworfenen K`s

Analyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse

Wahrscheinlichkeiten

Scheinklausur Stochastik 1 für Studierende des Lehramts und der Diplom-Pädagogik

Mathematik I Herbstsemester 2014

Aufgaben zu Kapitel 38

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Mathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6

Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion

Ein Kennzeichen stetiger Funktionen ist es, dass ihre Graphen (evtl. auch nur in Intervallen) nicht. Knicke im Funktionsgraphen auftreten.

Eine zweidimensionale Stichprobe

STETIGE VERTEILUNGEN

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012

Bedingte Wahrscheinlichkeiten und Unabhängigkeit

1. Ziehg.: N M. falls nicht-rote K. in 1. Ziehg. gezogen

Abschlussprüfung 1998 zum Erwerb der Fachhochschulreife an Berufsoberschulen

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten

Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

Einführung in die Statistik Gliederung zur Vorlesung im Sommersemester Markus Reiß Universität Heidelberg

Zufallsvariablen: Die allgemeine Definition

WURZEL Werkstatt Mathematik Polynome Grundlagen

Kapitel 16 : Differentialrechnung

ε δ Definition der Stetigkeit.

Transkript:

A. Grundlagen der Stochastik Satz A.1 (Axiome der Wahrscheinlichkeit). Folgende Axiome der Wahrscheinlichkeit können definiert werden: (1) Die Wahrscheinlichkeit P(A) eines Ergebnisses A bei einem Experiment ist eine eindeutig bestimmte reelle nichtnegative Zahl, die höchstens gleich 1 werden kann, es gilt also 0 P(A) 1. (A.1) (2) Für ein sicheres Ereignis A eines Experiments gilt P(A) = 1. (A.2) Für äquivalente Ereignisse B und C bei einem Experiment gilt P(B) = P(C). (A.3) (3) Schließen sich zwei Ereignisse B und C bei einem Experiment gegenseitig aus, dann gilt P(B + C) = P(B) + P(C). (A.4) Definition A.1 (Zufallsvariable, stochastische Variable). Eine Funktion X heißt Zufallsvariable oder stochastische Variable, wenn sie einem Zufallsexperiment zugeordnet ist und folgende Eigenschaften besitzt: (1) Die Werte von X sind reelle Zahlen und (2) für jede Zahl a und jedes Intervall I auf der Zahlengeraden ist die Wahrscheinlichkeit des Ereignisses X hat den Wert a oder X liegt im Intervall I im Einklang mit den Axiomen der Wahrscheinlichkeit. Unter einem Zufallsexperiment versteht man in diesem Zusammenhang ein Experiment, bei dem das Ergebnis einer einzelnen Ausführung jeweils durch eine einzelne Zahl ausgedrückt werden kann. Wenn X eine diskrete Zufallsvariable ist, dann können allen Werten von X, im Weiteren mit x 1, x 2,... bezeichnet, die zugehörigen Wahrscheinlichkeiten p 1 = P(X = x 1 ), p 2 = P(X = x 2 ),... zugeordnet werden. Die Funktion f(x) = { pj für x = x j 0 für alle übrigen x (A.5)

A. Grundlagen der Stochastik Seite 123 bezeichnet man dann als Wahrscheinlichkeitsfunktion. Da die Zufallsvariable X immer einen Wert x j annimmt, muss auch gelten, dass die Summe aller Wahrscheinlichkeiten f(x j ) = 1 j (A.6) ist. Die Wahrscheinlichkeit, dass die Zufallsvariable X im Intervall a < X b liegt, errechnet sich dann auf einfache Weise in der Form P(a < X b) = f(x j ). (A.7) a<x j b Trägt man die Wahrscheinlichkeit P(X x) als Funktion von x auf, also die Wahrscheinlichkeit eines Experimentes, dessen Ergebnisse X x sind, dann erhält man die Wahrscheinlichkeitsverteilungsfunktion F(x) = P(X x) = f(x j ). (A.8) Bei einer stetigen Zufallsvariablen X lässt sich die Wahrscheinlichkeitsverteilungsfunktion in Integralform F(x) = x x j x f(v)dv mit F( ) = 1 (A.9) darstellen, wobei der Integrand f(v) eine nichtnegative und bis auf endlich viele Punkte stetige Funktion ist, die man auch als Wahrscheinlichkeitsdichtefunktion bezeichnet. Aufgabe A.1. Zeigen Sie, dass für die stetige Zufallsvariable X die Beziehung gilt. P(a < X b) = b a f(v)dv = F(b) F(a) Abbildung A.1 zeigt den typischen Verlauf der Wahrscheinlichkeitsverteilungsfunktion einer diskreten und einer stetigen Zufallsvariablen. F(x) 1 F(x) 1 x 1 x 2... x k x x Abbildung A.1.: Zur Wahrscheinlichkeitsverteilungsfunktion.

A. Grundlagen der Stochastik Seite 124 Definition A.2 (Erwartungswert). Unter dem Erwartungswert E(X) einer Zufallsvariablen X (auch Mittelwert oder 1. Moment genannt) versteht man im Falle einer diskreten Verteilung E(X) = x j f(x j ) (A.10) j und im Falle einer stetigen Verteilung E(X) = xf(x)dx. (A.11) Für eine Funktion g(x) der Zufallsvariablen X gilt allgemein, dass sich der Erwartungswert der Funktion g(x) in der Form errechnet. E(g(X)) = j g(x j )f(x j ) bzw. E(g(X)) = g(x)f(x)dx (A.12) Aufgabe A.2. Zeigen Sie die Gültigkeit nachfolgender wichtiger Formel E(αg(X) + βh(x)) = α E(g(X)) + β E(h(X)) mit den Konstanten α und β. Zeigen Sie, dass damit auch E(E(X)) = E(X) und E(X E(X)) = E(X) 2 gilt. Definition A.3 (Varianz). Die Varianz σx 2 einer Zufallsvariablen X misst die quadratische Abweichung vom Erwartungswert und ist in der Form ( σx 2 = E [X E(X)] 2) ( = E X 2 2X E(X) + E(X) 2) ( = E X 2) E(X) 2 (A.13) definiert. Die Varianz wird auch als zweites zentrales Moment und deren positive Quadratwurzel σ X als Standardabweichung bezeichnet.

A. Grundlagen der Stochastik Seite 125 Die bisherigen Betrachtungen lassen sich nun einfach auf mehrere Zufallsvariablen übertragen. Bei zwei Zufallsvariablen X und Y nimmt die Wahrscheinlichkeitsverteilungsfunktion im diskreten Fall die Form mit F(x, y) = P(X x, Y y) = f(x k, y j ) x k x y j y (A.14) f(x, y) = { pkj für x = x k, y = y j 0 für alle übrigen (x, y) mit f(x k, y j ) = 1 k j (A.15) an und im stetigen Fall gilt F(x, y) = x y f(v, w)dvdw mit F(, ) = 1. (A.16) Die so genannten Randverteilungen sind durch nachfolgende Ausdrücke F 1 (x) = P(X x, Y beliebig) = f(x k, y j ) x k x j } {{ } f 1 (x k ) (A.17) bzw. und bzw. gegeben. F 1 (x) = P(X x, Y beliebig) = x f(v, w)dv dw } {{ } f 1 (w) F 2 (y) = P(X beliebig, Y y) = f(x k, y j ) F 2 (y) = P(X beliebig, Y y) = y y j y k } {{ } f 2 (y j ) f(v, w)dw dv } {{ } f 2 (v) (A.18) (A.19) (A.20)

A. Grundlagen der Stochastik Seite 126 Definition A.4 (Unabhängigkeit von Zufallsvariablen). Zwei Zufallsvariablen X und Y sind genau dann unabhängig, wenn für jedes Paar von Ereignissen der Form die Beziehung a 1 < X b 1 und a 2 < Y b 2 (A.21) P(a 1 < X b 1, a 2 < Y b 2 ) = P(a 1 < X b 1 ) P(a 2 < Y b 2 ) (A.22) und damit auch f(x, y) = f 1 (x)f 2 (y) sowie F(x, y) = F 1 (x)f 2 (y) (A.23) mit f 1 (x), f 2 (y), F 1 (x) und F 2 (y) nach (A.17) (A.20) gilt. Satz A.2 (Erwartungswert und Kovarianz zweier Zufallsvariablen). Für den Erwartungswert einer Funktion g(x, Y ) in den zwei Zufallsvariablen X und Y gilt bzw. E(g(X, Y )) = k E(g(X, Y )) = g(x k, y j )f(x k, y j ) j g(x, y)f(x, y)dxdy. (A.24) (A.25) Der Erwartungswert E(X + Y ) einer Summe von Zufallsvariablen X und Y errechnet sich zu E(X + Y ) = E(X) + E(Y ). (A.26) Sind zwei Zufallsvariablen X und Y unabhängig, dann gilt die Beziehung (hier für den diskreten Fall mit Hilfe von (A.19) gezeigt) E(XY ) = k x k y j f(x k, y j ) = j k x k y j f 1 (x k )f 2 (y j ) = E(X) E(Y ). j (A.27) Wenn eine Zufallsvariable Z sich als Summe zweier Zufallsvariablen X und Y ergibt, dann folgt nach (A.13) für die Varianz von Z ( σz 2 = E Z 2) ( E(Z) 2 = E X 2) + 2 E(XY ) + E (Y 2) (A.28) E(X) 2 2 E(X) E(Y ) E(Y ) 2 = σx 2 + σy 2 + 2σ XY mit der so genannten Kovarianz σ XY = E(XY ) E(X) E(Y ). (A.29) Man überzeugt sich leicht, dass (A.29) auch in der Form σ XY = E([X E(X)][Y E(Y )]) (A.30)

A. Grundlagen der Stochastik Seite 127 angeschrieben werden kann. Sind die Zufallsvariablen X und Y unabhängig, so gilt nach (A.27) σ XY = 0. Definition A.5 (Korrelationskoeffizient und Kovarianzmatrix). Der Quotient r = σ XY σ X σ Y (A.31) wird als Korrelationskoeffizient zwischen den Zufallsvariablen X und Y bezeichnet. Ist r = 0, dann sind X und Y unkorreliert. Man erkennt auch, dass zwei unabhängige Zufallsvariablen X und Y wegen σ XY = 0 auch unkorreliert sein müssen. Der Korrelationskoeffizient 1 r 1 gibt ein Maß für die lineare Abhängigkeit von X und Y an. ] Für eine vektorwertige Zufallsvariable X T = [X 1 X 2... X n gilt nun ( E X T) [ ] = E(X 1 ) E(X 2 )... E(X n ) (A.32) und unter der Kovarianzmatrix der vektorwertigen Zufallsvariablen X versteht man die Matrix σ 2 X 1 σ X1 X 2 σ X1 X n ( cov(x) = E [X E(X)][X E(X)] T) σ X2 X 1 σ 2 X = 2 σ X2 X n.. (A.33)..... σ XnX 1 σ XnX 2 σx 2 n Man erkennt, dass die Kovarianzmatrix symmetrisch ist. Aufgabe A.3. Zeigen Sie, dass die Beziehung ( ) ( ) E X E(X) 2 2 = E [X E(X)] T [X E(X)] = spur(cov(x)) mit spur(s) = i s ii gilt. Aus dem bisher Gesagten folgt, dass die Kovarianzmatrix einer vektorwertigen Zufallsvariablen X, deren Komponenten X i, X j für i j = 1,..., n unkorreliert sind, eine Diagonalmatrix ist. Für stochastische Zeitsignale, die aus statistisch identischen Signalquellen stammen, existiert nicht nur eine einzige Realisierung x 1 (t) sondern eine ganze Familie (Ensemble) von Zufallszeitfunktionen {x j (t)}. Dieses Ensemble von Zufallszeitfunktionen bzw. Zufallsfolgen im zeitdiskreten Fall wird als zeitkontinuierlicher bzw. zeitdiskreter stochastischer Prozess x(t) bezeichnet. Eine einzelne Realisierung x j (t) für festes j nennt man auch Musterfunktion. Für jeden festen Zeitpunkt t ist x(t) eine Zufallsvariable mit einer Wahrscheinlichkeitsverteilungsfunktion (siehe (A.8)) F(x, t) = P(x(t) x). (A.34)

A. Grundlagen der Stochastik Seite 128 Die Wahrscheinlichkeitsdichtefunktion errechnet sich dann gemäß (A.9) zu f(x, t) = F(x, t) x. (A.35) Definition A.6 (Mittelwert, Auto- und Kreuzkorrelationsfunktion eines stochastischen Prozesses). Der Mittelwert η x (t) eines stochastischen Prozesses x(t) lautet (siehe auch (A.11)) η x (t) = E(x(t)) = xf(x, t)dx. (A.36) Unter der Autokorrelationsfunktion Φ xx (t 1, t 2 ) eines stochastischen Prozesses x(t) versteht man den Erwartungswert des Produktes x(t 1 )x(t 2 ) Φ xx (t 1, t 2 ) = E(x(t 1 )x(t 2 )) = x 1 f(x 1, t 1 )x 2 f(x 2, t 2 )dx 1 dx 2. (A.37) Die Kreuzkorrelationsfunktion Φ xy (t 1, t 2 ) zweier stochastischer Prozesse x(t) und y(t) ist durch die Beziehung Φ xy (t 1, t 2 ) = E(x(t 1 )y(t 2 )) = xf(x, t 1 )yf(y, t 2 )dxdy (A.38) gegeben. Definition A.7 (Auto- und Kreuzkovarianzfunktion). Die Autokovarianzfunktion C xx (t 1, t 2 ) eines stochastischen Prozesses x(t) lautet C xx (t 1, t 2 ) = E([x(t 1 ) η x (t 1 )][x(t 2 ) η x (t 2 )]) = Φ xx (t 1, t 2 ) η x (t 1 )η x (t 2 ). (A.39) Die Kreuzkovarianzfunktion C xy (t 1, t 2 ) zweier stochastischer Prozesse x(t) und y(t) ergibt sich analog zu C xy (t 1, t 2 ) = E([x(t 1 ) η x (t 1 )][y(t 2 ) η y (t 2 )]) = Φ xy (t 1, t 2 ) η x (t 1 )η y (t 2 ). (A.40) Aufgabe A.4. Zeigen Sie die Gültigkeit der rechten Identität von (A.39). Definition A.8 (Stationärer stochastischer Prozess). Man bezeichnet einen stochastischen Prozess x(t) als stationär im strengen Sinne, wenn die statistischen Eigenschaften invariant gegenüber Zeitverschiebungen sind, d. h. x(t) und x(t + c) haben für alle c die identischen statistischen Eigenschaften. Der stochastische Prozess x(t) ist stationär im weiteren Sinne, wenn der Mittelwert η x (t) = η x konstant ist und die Autokorrelationsfunktion nur von der Zeitdifferenz τ = t 2 t 1 abhängt, also gilt Φ xx (τ) = E(x(t)x(t + τ)). Die bisher gezeigten Funktionen (A.36) (A.40) berücksichtigen sämtliche Realisierungen, also das gesamte Ensemble, eines stochastischen Prozesses. Nach der so genannten

A. Grundlagen der Stochastik Seite 129 Ergoden-Hypothese kann man die Funktionen (A.36) (A.40) auch mit Hilfe einer einzigen Musterfunktion anschreiben, falls unendlich lange Zeitabschnitte betrachtet werden. Ergodische Prozesse sind auch stationär, die Umkehrung gilt im Allgemeinen aber nicht. Damit ergeben sich die nachfolgende Ausdrücke, jeweils links für den zeitkontinuierlichen und rechts für den zeitdiskreten Fall: (1) Mittelwert 1 T/2 N 1 1 η x = lim x(t)dt bzw. η x = lim T T T/2 N N k=0 x k (A.41) (2) Autokorrelationsfunktion 1 T/2 N 1 1 Φ xx (τ) = lim x(t)x(t + τ)dt bzw. Φ xx (τ) = lim x k x k+τ T T T/2 N N k=0 (A.42) (3) Kreuzkorrelationsfunktion 1 T/2 N 1 1 Φ xy (τ) = lim x(t)y(t + τ)dt bzw. Φ xy (τ) = lim x k y k+τ T T T/2 N N k=0 (A.43) Aufgabe A.5. Zeigen Sie, dass Φ xx (τ) folgende Eigenschaften erfüllt: 1. Φ xx (τ) = Φ xx ( τ) 2. Φ xx (0) = E (x(t) 2) 3. Φ xx ( ) = E(x(t)) 2 4. Φ xx (τ) Φ xx (0) Aufgabe A.6. Zeigen Sie, dass Φ xy (τ) folgende Eigenschaften erfüllt: 1. Φ xy (τ) = Φ yx ( τ) 2. Φ xy (0) = E(x(t)y(t)) 3. Φ xy ( ) = E(x(t)) E(y(t)) 4. Φ xy (τ) 1 2 [Φ xx(0) + Φ yy (0)] Aufgabe A.7. Wie lauten im ergodischen Fall die Ausdrücke für die Autovarianz- und Autokovarianzfunktion?

A. Grundlagen der Stochastik Seite 130 Definition A.9 (Weißes Rauschen). Ein stochastischer Prozess v(t) wird als (striktes) weißes Rauschen bezeichnet, wenn für alle Zeitpunkte t 1 t 2 v(t 1 ) und v(t 2 ) statistisch unabhängig sind bzw. C vv (τ) = C 0 δ(τ) mit δ(τ) = { 1 für τ = 0 0 sonst und C 0 > 0. (A.44) gilt. Es wird weiterhin angenommen, dass der Mittelwert η v = 0 ist. Hinweis: Man kann zeigen, dass im zeitkontinuierlichen Fall die mittlere Leistung des weißen Rauschens unendlich ist und somit dieser Prozess nicht ideal realisiert werden kann. Im Gegensatz dazu bleibt im Zeitdiskreten, wo die Signalfolgenwerte im endlichen Abstand zueinander stehen, die Leistung endlich, womit ideales weißes Rauschen auch realisierbar ist.

A.1. Literatur Seite 131 A.1. Literatur [A.] R. Isermann, Identifikation dynamischer Systeme 1 und 2, 2. Aufl. Berlin, Deutschland: Springer, 1992. [A.] E. Kreyszig, Statistische Methoden und ihre Anwendungen, 7. Aufl. Göttingen, Deutschland: Vandenhoeck & Ruprecht, 1998. [A.] D. Luenberger, Optimization by Vector Space Methods. New York, USA: John Wiley & Sons, 1969. [A.] A. Papoulis und S. Pillai, Probability, Random Variables and Stochastic Processes, 4. Aufl. New York, USA: McGraw-Hill, 2002.