Stochastische Automaten und Quellen

Ähnliche Dokumente
Lineare Algebra I - Lösungshinweise zur Klausur

5. Übungsblatt zur Linearen Algebra II

3.4 Systeme linearer Differentialgleichungen

Universität Ulm Samstag,

Zeitreihenökonometrie

Grenzwertsätze für Zeitreihen

Stochastische Analysis und Finanzmathematik

Hauptachsentransformation

Mathematik III DGL der Technik

Typ A: Separierbare Differentialgleichungen I. Separierbare Differentialgleichungen II. Beispiel einer separierbaren Dgl

7.3. Partielle Ableitungen und Richtungsableitungen

Die Lösungen der Übungsaufgaben werden durch folgendes Lemma etwas vereinfacht:

Zwischenwerteigenschaft

Stationarität/Ergodizität

Mathematische Methoden in den Ingenieurwissenschaften 4. Übungsblatt

V1 - Poisson-Statistik

Arbitragefreie Preise

Differenzieren von Funktionen zwischen Banachräumen

14 Kurven in Parameterdarstellung, Tangentenvektor und Bogenlänge

Eigenwerte und Eigenvektoren

Mathematik: Mag. Schmid Wolfgang Arbeitsblatt Semester ARBEITSBLATT 11 LAGEBEZIEHUNG DREIER EBENEN

Technische Universität München. Lösung Montag SS 2012

Motivation: Sampling. (14) Sampling. Motivation: Sampling. Beispiele. Beispiel Kreisscheibe. Beispiel: Kreisscheibe

Stochastische Differentialgleichungen

Gewöhnliche Differentialgleichungen (DGL)

Lösungen zu Übungsblatt 4

Fokker-Planck-Gleichung

Zeitreihenökonometrie

Abiturprüfung Mathematik 2009 (Baden-Württemberg) Berufliche Gymnasien ohne TG Analysis, Aufgabe 1

Abituraufgaben Grundkurs 2009 Bayern Analysis I. dt mit D F = R.

Motivation. Finanzmathematik in diskreter Zeit

Lösungshinweise zu den Hausaufgaben:

2.2 Rechnen mit Fourierreihen

Name: Punkte: Note: Ø:

Zeitreihenökonometrie

1. Mathematische Grundlagen und Grundkenntnisse

Masse, Kraft und Beschleunigung Masse:

Mathematische Methoden der klassischen Physik Zusammenfassung Differentialgleichungen

Einführung in gewöhnliche Differentialgleichungen

Kapitel : Exponentielles Wachstum

8.2 Die Theorie stetiger Halbgruppen im Banachraum

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sequenzanalyse

Kapitel 4. Versuch 415 T-Flipflop

4.1 OLS a) OLS-Schätzung der Koeffizienten der Strukturform

Zu jedem Typ gibt es eine Menge von möglichen Denotationen der Ausdrücke dieses Typs. Diese Menge wird Domäne des betreffenden Typs genannt.

Übungsblatt 4 Lösungsvorschläge

Stetige Gleichverteilung auf [a, b]

MATHEMATIK 3 FÜR EI - ÜBUNGSBLATT 13 Wintersemester 2011/2012

Laplacetransformation in der Technik

Varianz und Kovarianz

Fortsetzung eines formellen Zusammenhangs auf G m nach O. Gabber und N. Katz

Abiturprüfung Mathematik 2012 (Baden-Württemberg) Berufliche Gymnasien Analysis, Aufgabe 1

Numerisches Programmieren

INTELLIGENTE DATENANALYSE IN MATLAB

Prof. Dr. W. Zucchini 06 Wiederholung Kap. 1-4 Zeitreihenanalyse Sommer 2003

2 Zufallsvariable und Verteilungsfunktionen

Abiturprüfung 2017 ff Beispielaufgabe Grundkurs Mathematik; Analysis Beispiel Wirkstoff

Prüfung Grundprinzipien der Versicherungs- und Finanzmathematik 2010

III.2 Radioaktive Zerfallsreihen

f ( x) = x + x + 1 (quadratische Funktion) f '( x) = x + (Ableitungsfunktion)

Untersuchung von Gleitentladungen und deren Modellierung durch Funkengesetze im Vergleich zu Gasentladungen

Rüdiger Scholz Die Poisson-Verteilung foexlab-materialien

Prüfung Finanzmathematik und Investmentmanagement 2011

Höhere Mathematik II für die Fachrichtung Physik

SPIELE GEGEN DEN ZUFALL

Optimierung eines Mean-Variance Portfolios. Diplomarbeit

Elemente in Φ werden Wurzeln genannt. Bemerkung 3.2. (a) Zu einem Wurzelsystem können wir immer eine Spiegelungsgruppe definieren

Kommunikationstechnik I

Demo-Text für Funktionen und Kurven. Differentialgeometrie INTERNETBIBLIOTHEK FÜR SCHULMATHEMATIK. Friedrich Buckel.

Lösung Klausur. p(t) = (M + dm)v p(t + dt) = M(v + dv) + dm(v + dv u) Wir behalten nur die Terme der ersten Ordnung und erhalten.

Semantik. Semantik. Die Sprache der Typtheorie sieht für jeden Typ eine Menge nichtlogischer

Kennzeichnung stochastischer Prozesse

24.1 Mindestzuverlässigkeit und Aussagewahrscheinlichkeit

Unabhängige Zufallsvariablen

7 Erzwungene Schwingung bei Impulslasten

Phillips Kurve (Blanchard Ch.8) JKU Linz Riese, Kurs Einkommen, Inflation und Arbeitslosigkeit WS 2007/08

Seminar Bewertungsmethoden in der Personenversicherungsmathematik

Bedingte Unabhängigkeit, Definition

Regelungstechnik. Steuerung. Regelung. Beim Steuern bewirkt eine Eingangsgröße eine gewünschte Ausgangsgröße (Die nicht auf den Eingang zurückwirkt.

1 Abtastung, Quantisierung und Codierung analoger Signale

4. Quadratische Funktionen.

Thema 3: Dynamischer versus statischer Vorteilhaftigkeitsvergleich

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

WORKING PAPERS Arbeitspapiere der Betrieblichen Finanzwirtschaft

AVWL II, Prof. Dr. T. Wollmershäuser. Kapitel 5 Die Phillipskurve

Johann Wolfgang Goethe-Universität Frankfurt am Main

Multiple Regression: Übung 1

Phillips Kurve (Blanchard Ch.8) JKU Linz Riese, Kurs Einkommen, Inflation und Arbeitslosigkeit SS 2008

Finanzmathematik. Wolfgang Müller. Institut für Statistik Technische Universität Graz

Medikamentendosierung A. M.

Ganzrationale Funktionenscharen. 4. Grades. Umfangreiche Aufgaben. Lösungen ohne CAS und GTR. Alle Methoden ganz ausführlich. Datei Nr.

Stammgruppe trifft sich zum Museumsrundgang Experte erklärt jeweils sein Plakat

Quantitatives Risikomanagement

2 Die Dimension eines Vektorraums

KAPITEL 5. Erwartungswert

3.3 Moving-Average-Prozesse (MA-Modelle)

Zentrale schriftliche Abiturprüfungen im Fach Mathematik

Abiturprüfung Baden-Württemberg 1986

Die Sensitivität ist eine spezielle Form der Zinselastizität: Aufgabe 1

The Matlab ODE Suite. Simone Bast Martin Vogt

Transkript:

KAPITEL 2 Sochasische Auomaen und Quellen Sei A ein Sysem allgemeiner Ar (z.b. ein physikalisches Sysem oder eine Nachrichenquelle), das wir zu diskreen Zeipunken = 0, 1,... beobachen. Wir nehmen an: (SA 1 ) A befinde sich zu jedem Zeipunk in einem Zusand z i einer endlichen Menge von n möglichen Zusänden Z = {z 1,..., z n }. (SA 2 ) Is A zur Zei im Zusand z i, dann is A zum nächsen Zeipunk + 1 im Zusand z j mi Wahrscheinlichkei p(z j z i ). (SA 1 ) und (SA 2 ) besagen, dass A ein sochasischer Auoma is mi der Übergangsmarix P = [p ij ] R n n wobei p ij = p(z j z i ). P is eine sochasische Marix. Das heiss, dass jeder Zeilenvekor eine Wahrscheinlichkeisvereilung darsell: n n p ij = p(z j z i ) = 1 und p ij 0. j=1 j=1 Sei π () i die Wahrscheinlichkei dafür, dass A zum Zeipunk im Zusand z i is, dann erhalen wir π (+1) j = n i=1 p(z j z i )π () i = n i=1 p ij π () i. Für die ensprechenden Vekoren π () = (π () 1,..., π () n ) gil somi: π (+1) = π () P = π ( 1) P 2 =... d.h. π () = π (0) P. Die sochasische Zusandsbeschreibung von A is also fesgeleg durch die Anfangsvereilung π (0) und die Übergangsmarix P. A heiss saionär, wenn gil π (1) = π (0) d.h. π () = π (0) für alle 0. Wir nehmen nun zusäzlich noch an, dass eine Funkion X : Z Σ exisier, die das Symbol α = X(z) eines endlichen Alphabes Σ anzeig, wenn sich A im Zusand z befinde. In diesem Fall nennen wir Q = (A, Σ, X) 13

14 2. STOCHASTISCHE AUTOMATEN UND QUELLEN eine sochasische Quelle. Bezeichnen wir mi X das Symbol α Σ, das zum Zeipunk produzier wird, dann finden wir P r{x = α} = π () i. X(z i )=α Die Folge (X ) 0 is ein sochasischer Prozess. EX. 2.1 (Markov-Quellen und Irrfahren). Im Fall Σ = {α 1,..., α n } und X(z i ) = α i is Q = (A, Σ, X) eine sog. Markov-Quelle und (X ) is ein Markov-Prozess. Man kann sich vorsellen, dass ein Markov-Prozess eine Irrfahr auf der Zusandsmenge Z anzeig, die von den Übergangswahrscheinlichkeien p ij regier wird. BEMERKUNG. Das Modell sochasischer Quellen kann im Prinzip deulich verallgemeiner werden. Allerdings kann man dann nich mehr unbeding die asympoischen Konvergenzeigenschafen des nachfolgenden Abschnis garanieren. Unser spezielles Modell einer sochasischen Quelle Q = (A, Σ, X) is in der englischen Lieraur auch als Hidden Markov Model (HMM) bekann (weil die Zusände z von A nur indirek via X observierbar sind). Es wird bei sehr vielen Anwendungsmodellierungen der Daenanalyse eingesez (Finanzmahemaik, Spracherkennung usw.) Unabhängigkei. Die Quelle Q = (A, Σ, X) heiss unabhängig, wenn die jeweilige Übergangswahrscheinlichkei p ij = p(z j z i ) nich von z i sondern nur von z j abhäng, wenn also alle Zeilen von P idenisch sind: (p i1, p i2,..., p in ) = (π 1, π 2,..., π n ) (i = 1,..., n). Unabhängige Quellen sind also im wesenlichen saionär: (π 1,..., π n ) = π (1) = π (2) =... = π () =... Die Überganswahrscheinlichkeien von A (bzw. der Zusandsmenge von A) können verallgemeiner werden, wenn wir die bedinge Wahrscheinlichkei P r{x +1 = β X = α} als einen numerischen Parameer mi der Eigenschaf P r{x = α}p r{x +1 = β X = α} = P r{x = α, X +1 = β} einführen. Dabei is die gemeinsame Wahrscheinlichkei ( P r{x = α, X +1 = β} = {z i :X(z i )=α} Im Fall P r{x = α} 0 ergib sich daraus π () i {z j :X(z j )=β} P r{x +1 = β X = α} = P r{x = α, X +1 = β} P r{x = α} p(z j z i ) )..

1. KONVERGENZ 15 Wir nennen nun den Prozess (X ) unahängig, wenn für alle α, β Σ und alle 0 gil: P r{x +1 = β X = α} = P r{x +1 = β} = π (+1) j. {z j :X(z j )=β} Daraus ergib sich im Fall der Unabhängigkei die Produkformel P r{x = α, X +1 = β} = P r{x = α}p r{x +1 = β}. BEMERKUNG. Man kann zeigen (s. Übungen): Is die Quelle Q = (A, Σ, X) unabhängig, dann is auch der zugeordnee sochasische Prozess (X ) unabhängig. Es is möglich, dass (X ) unabhängig is obwohl es Q = (A, Σ, X) nich is. 1. Konvergenz Wir nehmen Q = (A, Σ, X) als sochasische Quelle an und bezeichnen die (sochasischen) Zusände des Auomaen A zur Zei mi π (). Dann ergeben sich die gemielen (sochasischen) Zusände als π () i = 1 + 1 π (k) i (i = 1,..., n, = 0, 1,...). Die Durchschniswahrscheinlichkeien dafür, dass sich A in einem besimmen Zusand befinde, konvergieren gegen eine Grenzvereilung: SATZ 2.1. Es gib eine Wahrscheinlichkeisvereilung π = (π 1,..., π n ) derar, dass lim π() i = π i (i = 1,..., n) Beweis. Wir berachen den (zu C n isomorphen) Vekorraum V der von den n- dimensionalen Wahrscheinlichkeisvereilungen π über dem Körper C der komplexen Zahlen. Da πp wieder eine Wahrscheinlichkeisvereilung is gil πp k 1 und somi sicherlich v T P k v für alle v V. Die Übergangsmarix P von A implizier also die Voraussezung von Lemma 2.1. Deshalb exisier der Limes 1 P = lim P + 1 und ergib π = lim π () π (0) = lim + 1 P = π (0) P.

16 2. STOCHASTISCHE AUTOMATEN UND QUELLEN KOROLLAR 2.1. Es gib eine Wahrscheinlichkeisvereilung p auf dem Alphabe Σ derar, dass lim 1 + 1 P r{x k = α} = X(z i )=α π i = p α (α Σ). EX. 2.2 (Unabhängige Quellen). Unabhängige Quellen erfüllen π () = π (1) für 1. Deshalb finden wir 1 lim π() i = lim k=1 π (k) i = lim π i = π i. (π 1,..., π n ) is somi auch die asympoische Grenzvereilung der Quelle. Wir beweisen nun die für Saz 2.1 benöige Hilfsaussage. LEMMA 2.1. Sei V ein endlich-dimensionaler Vekorraum über dem Körper C der komplexen Zahlen und F : V V ein linearer Operaor mi der folgenden Sabiliäseigenschaf: (S) für jedes v V exisier ein c = c(v) R derar, dass F k v c (k = 0, 1,...) Dann exisier auch der asympoische Grenzwer der gemielen Vekoren 1 v = lim 1 F k v für alle v V. Beweis. Wir folgern zuers aus der Voraussezung, dass für jeden Eigenwer λ von F gelen muss λ 1. Denn andernfalls häe man im Fall eines Eigenvekors w 0: F k w = λ k w (k ). Wir argumenieren nun über die Anzahl der verschiedenen Eigenwere des linearen Operaors F und nehmen zunächs an, dass F genau einen Eigenwer λ besiz. Nach dem Saz von Caley-Hamilon erfüll F seine charakerisische Gleichung. Das bedeue hier: es gib ein minimales m N mi der Eigenschaf (F λi) m v = 0 für alle v V.

Nach dem Binomialsaz finden wir deshalb 1. KONVERGENZ 17 F k v = [(F λi) + λi] k v = k ( ) k (F λi) j λ k j v j = j=0 m 1 j=0 ( ) k (F λi) j λ k j v. j Im Fall λ < 1 und k ergib sich daraus λ k j 0 und somi F k v 0. Daraus folg sofor 1 1 F k 1 1 v 0 bzw. lim F k v = 0. Im Fall λ = 1 berachen wir zuers die Siuaion, wo m = 1 und folglich F = λi. Bei λ = 1 is die Behaupung rivialerweise klar. Bei λ 1 schliessen wir 1 F k v = 1 1 λ k v = 1 λ (1 λ) 2 1 λ 0. Wir behaupen nun, dass die Siuaion m 2 nich zu unersuchen is. Sons gäbe es ein nämlich ein u V mi (F λi) m u = 0 und (F λi) m 1 u 0. Wir sezen v = (F λi) m 2 u und w = (F λi) m 1 u = (F λi)v. Dann gil (F λi)w = 0. Der Binomialsaz liefer somi die Darsellung F k v = λ k v + kλ k 1 (F λi)v = λ k v + kλ k 1 w. Aus der Dreiecksungleich folg nun der Widerspruch zur Annahme (S): F k v k w v (k ). Besiz schliesslich F mindesens 2 verschiedene Eigenwere, so läss sich V bekannlich als direke Summe zweier nichrivialer F -invarianer Unerräume ausdrücken: V = V 1 V 2 und F : V i V i (i = 1, 2). Jedes v V is eine Summe v = v 1 + v 2 mi v i V i. Ausserdem verfüg die Einschränkung von F auf V i über weniger verschiedene Eigenwere als F. Wegen F v = F v 1 + F v 2 ergib sich die Behaupung somi aus der Indukionsannahme.

18 2. STOCHASTISCHE AUTOMATEN UND QUELLEN 2. Erwarungswere und asympoische Enropie Sei M = {m 1,..., m n } eine endliche Menge und p = (p 1,..., p n ) eine Wahrscheinlichkeisvereilung auf M. Dann is n E(X) = xp r{x = x} i=1 X(m i )p i = x R der sog. Erwarungswer der Funkion X : M R. Is Y : M R eine weiere Funkion, so gil (bzgl. derselben Vereilung p) für alle a R: E(X + ay ) = E(X) + ae(y ). E operier also linear auf der Menge aller reellwerigen Messfunkionen auf M (bei feser Vereilung p). Sei nun Q = (A, Σ, X) eine sochasische Quelle mi Zusandsmenge Z und α Σ beliebig. Wir definieren die Indikaorfunkion X α : Z R als { X α 1 wenn X(z) = α (z) = 0 sons. Dami is auch Q α = (A, Σ, X α ) eine sochasische Quelle und X α = Xα 0 +... X α 1 = 1 1 Xk α gib die relaive Häufigkei des Ereignisses {X k = α} in den ersen Beobachungen wieder. Asympoisch wäre die relaive Häufigkei des Aufreens von α: lim = 1 1 Xα = lim Xk α. Für die Erwarungswere finden wir E(X α ) = 1 P r{x = α} = P r{x = α} und wegen der Lineariä des Erwarungswers E(X α ) = 1 1 P r{x k = α}. Korollar 2.1 guaranier deshalb die Konvergenz der erwareen relaiven Häufigkeien gegen die Grenzvereilung des sochasischen Prozesses (X ): (7) lim E(X α ) = p α (für alle α Σ)

Wir können deshalb den Parameer 3. UNABHÄNGIGE QUELLEN 19 H(X) = α Σ p α log 2 p α als die asympoische Enropie der sochasischen Quelle Q = (A, Σ, X) versehen. 3. Unabhängige Quellen Is die sochasische Quelle Q = (A, Σ, X) (mi Σ R) unabhängig, so gil µ = E(X 1 ) =... = E(X ) =... und folglich E(X ) µ, wobei X = 1 1 X k. Die asympoische Konvergenz der Erwarungswere der Mielwere is also rivialerweise gegeben. Man kann uner der Unabhängigkeisannahme jedoch die Konvergenzaussagen verschärfen. 3.1. Das Gesez der grossen Zahlen. Wir wollen (für unabhängige Quellen) zeigen, dass die Mielwere X selber mi hoher Wahrscheinlichkei den Erwarungswer µ approximieren in dem Sinn, dass für jedes η > 0 gil: (8) lim P r{ X µ > η} = 0 Die Aussage (8) is als (schwaches) Gesez der grossen Zahlen bekann. Zum Beweis benöigen wir ein paar Hilfsaussagen. LEMMA 2.2 (Tschebyscheffs Ungleichung). Sei Z eine nichnegaive Zufallsvariable. Dann gil für jedes fese a 0: (9) E(Z) ap r{z a} Beweis. Aus der Nichnegaiviä von Z folg E(Z) = z zp r{z = z} z a ap r{z = z} = a z a P r{z = z} = ap r{z a}.

20 2. STOCHASTISCHE AUTOMATEN UND QUELLEN LEMMA 2.3. Sind die Zufallsvariablen X und Y reellwerig und unabhängig, dann gil E(XY ) = E(X)E(Y ). Beweis. Nach der Unabhängigkeisannahme haben wir P r{x = x, Y = y} = P r{x = x}p r{y = y} = p(x)p(y) und deshalb E(XY ) = x = x xyp(x)p(y) = x y xp(x) ( yp(y) ) xp(x)e(y ) = E(Y ) xp(x) = E(Y )E(X). x y BEWEIS VON (8): OBdA darf man µ = 0 annehmen. (Sons ersez man einfach X durch X = X µ). Wir sezen nun σ0 2 = E(X 0) 2 und σ 2 = E(X1 2) = E(X2 2 ).... Aus der Unabhängigkei folg E(X 0 + X 1 ) 2 = E(X 2 0 + 2X 0 X 1 + X 2 1) und allgemein = E(X 2 0) + 2E(X 0 )E(X 1 ) + E(X 2 1) = σ 2 0 + σ 2 E(X 0 +... + X 1 ) 2 = σ 2 0 + ( 1)σ 2 d.h. E(X 2 ) 0. X 2 is eine nichnegaive Zufallsvariable. Also liefer die Tschebyscheffsche Ungleichung: P r{ X > η} = P r{x 2 > η 2 } 1 η 2 E(X2 ) 0 ( ). EX. 2.3 (Enropie). Sei obda p(α) = P r{x = α} > 0 für alle α Σ und Z(α) = log 2 p(α). Dann gil Z = 1 1 log 2 p(x k ) und E(Z) = p(α) log 2 p(α) = H(X). α Σ Das Gesez der grossen Zahlen implizier nun für jedes ε > 0: P r{ 1 1 log 2 p(x k ) H(X) > ε} 0 ( ).

4. KOLMOGOROV-KOMPLEXITÄT 21 3.2. Typische Sequenzen. Wir nennen eine von der unabhängigen Quelle Q = (A, Σ, X) produziere Sequenz x = x 0 x 1... x 1 ε-ypisch, falls aus ihr ε-approximaiv die Enropie von X ermiel 1 werden kann: 1 1 log 2 p(x k ) H(X) ε Mi dieser Terminologie folg aus Ex. 2.3 sofor, dass ε-ypische Sequenzen in der Ta für die Quelle Q ypisch sind: PROPOSITION 2.1. Für jedes ε > 0 exisier ein ε derar, dass für jedes fese ε gil: Mi Wahrscheinlichkei 1 ɛ is eine von der unabhängigen Quelle Q produziere Sequenz mi Symbolen ε-ypisch. Sei T ε () = T ε () (Q) die Menge aller ε-ypischen Sequenzen der Länge ε. Dann finde man: (10) (1 ε)2 (H(X) ε) T ε () 2 (H(X)+ε) Denn wir haben einerseis per Definiion T ε () 2 (H(X)+ε) = 2 (H(X)+ε) p(x) 1 x T () ε x T () ε x T () ε und andererseis gemäss Proposiion 2.1 T ε () 2 (H(X) ε) = 2 (H(X) ε) p(x) 1 ε. x T () ε 4. Kolmogorov-Komplexiä Während die Shannonsche Enropie die Komplexiä einer Symbolfolge nach der Wahrscheinlichkei miss, mi der eine Quelle die einzelnen Symbole produzier, versuch die sog. Kolmogorov-Komplexiä die Komplexiä einer Folge danach einzuschäzen, ob einfach zu erzeugen is. GRUNDSÄTZLICHE IDEE: Wenn es ein einfaches Compuerprogramm gib, das die Folge produzier, dann is die Folge einfach. Die Kolmogrov-Komplexiä miss die nowendige Grösse eines erzeugenden Programms. Als Beispiel berachen wir die Folge der Dezimalenwicklung der Zahl π, die of als ypische Zufallsfolge angesehen wird (und somi nach Shannon 1 im wahrsen Sinne das Wores!

22 2. STOCHASTISCHE AUTOMATEN UND QUELLEN eine hohe Komplexiä häe). Wir können z.b. von S. Plouffes Darsellung ausgehen: ( 1 4 π = 16 i 8i + 1 2 8i + 4 1 8i + 5 1 ) 8i + 6 i=n+1 i=0 Brich man die Summaion beim Index n ab, so is die Abweichung von π: ( 1 4 R n = 16 i 8i + 1 2 8i + 4 1 8i + 5 1 ) 1 8i + 6 16. n Das heiss: Man erhäl die ersen n Dezimalsellen von π exak. Die Addiion jedes weiern Terms liefer (mindesens) eine weiere exake Selle der Deziamlenwicklung. Die sukzessive Berechnung der Teilsummen kann durch ein einfaches Compuerprogramm angeben. Also kann man die Dezialmalenwicklung (oder ebenso auch die Binärenwicklung ec.) von π nich als zufällig berachen. BEMERKUNG- Es is KEINE (beweisbar funkionierende) Mehode bekann, mi der man eche Folgen von Zufallszahlen erzeugen kann. In der Praxis erzeug man (z.b. mi Hilfe eines ensprechend programmieren Compuers) Pseudozufallszahlen, die einem (mahemaischen oder physikalischen) Bildungsgesez folgen das man aber als Anwender nich kenn. Zufall is somi immer eine subjekive Angelegenhei. Obwohl die Kolmogorov-Komplexiä eine grundsäzlich anderes Mass zu sein schein als die Shannon-Komplexiä, ha sich doch viel mi dieser zu un. Die Vorlesung geh aber nich weier darauf ein.