Stochastische Analysis für Zufallsmatrizen Roland Speicher Queen s University Kingston, Kanada
Was ist eine Zufallsmatrix? Zufallsmatrix = Matrix mit zufälligen Einträgen A : Ω M N (C)
Was ist eine Zufallsmatrix? Zufallsmatrix = Matrix mit zufälligen Einträgen A : Ω M N (C) d.h. A = (a ij ) N i,j= mit Zufallsvariablen als Einträgen a ij : Ω C ( i, j N) 2
Was will man über Zufallsmatrizen wissen? Verhalten der Eigenwerte, insbesondere lokale Eigenschaften, z.b. Statistik des Abstandes benachbarter Eigenwerte oder des größten Eigenwertes globale Eigenschaften, z.b. Eigenwertverteilung oder globale Fluktuationen 3
Was will man über Zufallsmatrizen wissen? Verhalten der Eigenwerte, insbesondere lokale Eigenschaften, z.b. Statistik des Abstandes benachbarter Eigenwerte oder des größten Eigenwertes globale Eigenschaften, z.b. Eigenwertverteilung oder globale Fluktuationen Insbesondere Grenzwert N liefert interessante Struktur 4
Gaußsche Zufallsmatrizen A N = (a ij ) N i,j= : Ω M N(C) wobei 5
Gaußsche Zufallsmatrizen A N = (a ij ) N i,j= : Ω M N(C) wobei a ij = ā ji (d.h. A N = A N ) 6
Gaußsche Zufallsmatrizen A N = (a ij ) N i,j= : Ω M N(C) wobei a ij = ā ji (d.h. A N = A N ) {a ij } i j N sind unabhängige Gauß-verteilte Zufallsvariable mit E[a ij ] = E[ a ij 2 ] = N 7
Gaußsche Zufallsmatrizen A N = (a ij ) N i,j= : Ω M N(C) wobei die gemeinsame Verteilung der Einträge a ij gegeben ist durch Z N e NTr(A2 N ) da N da N = i j dra ij k>l dia kl 8
2.5 2.5.5.5.5 2 2.5.9.8.7.6.5.4.3.2. eine Realisierung.9.8.7.6.5.4.3.2. 2.5 2.5.5.5.5 2 2.5 zweite Realisierung.9.8.7.6.5.4.3.2. 2.5 2.5.5.5.5 2 2.5 dritte Realisierung 9
2.5 2.5.5.5.5 2 2.5 2.9.8.8.6.7.4.6.2.5.4.8.3.6.2.4..2 eine Realisierung 2.5 2.5.5.5.5 2 2.5 N=.9.9.8.8.7.7.6.6.5.5.4.4.3.3.2.2.. 2.5 2.5.5.5.5 2 2.5 zweite Realisierung 2.5 2.5.5.5.5 2 2.5 N=.9.9.8.8.7.7.6.6.5.5.4.4.3.3.2.2.. 2.5 2.5.5.5.5 2 2.5 dritte Realisierung 2.5 2.5.5.5.5 2 2.5 N=
2.5 2.5.5.5.5 2 2.5 2 3.9.8.8.6 2.5.7.6.4.2 2.5.5.4.3.8.6.2..4.2.5 eine Realisierung 2.5 2.5.5.5.5 2 2.5 N= 2.5 2.5.5.5.5 2 2.5 N= 3.9.8.9.8 2.5.7.6.7.6 2.5.5.5.4.3.4.3.2..2..5 2.5 2.5.5.5.5 2 2.5 zweite Realisierung 2.5 2.5.5.5.5 2 2.5 N= 2.5 2.5.5.5.5 2 2.5 N= 4.9.8.7.9.8.7 3.5 3.6.6 2.5.5.5 2.4.3.2.4.3.2.5...5 2.5 2.5.5.5.5 2 2.5 dritte Realisierung 2.5 2.5.5.5.5 2 2.5 N= 2.5 2.5.5.5.5 2 2.5 N=
2.5 2.5.5.5.5 2 2.5 2 3 3.9.8.8.6 2.5 25.7.4 2 2.6.2.5.5 5.4.8.3.6.2.4.5 5..2 eine Realisierung 2.5 2.5.5.5.5 2 2.5 N= 2.5 2.5.5.5.5 2 2.5 N= 2.5 2.5.5.5.5 2 2.5 N= 3 3.9.9.8.8 2.5 25.7.7 2 2.6.6.5.5.5 5.4.4.3.3.2.2.5 5.. 2.5 2.5.5.5.5 2 2.5 zweite Realisierung 2.5 2.5.5.5.5 2 2.5 N= 2.5 2.5.5.5.5 2 2.5 N= 2.5 2.5.5.5.5 2 2.5 N= 4 3.9.8.9.8 3.5 25 3.7.7 2.6.6 2.5.5.5 2 5.4.3.4.3.5.2.2 5...5 2.5 2.5.5.5.5 2 2.5 dritte Realisierung 2.5 2.5.5.5.5 2 2.5 N= 2.5 2.5.5.5.5 2 2.5 N= 2.5 2.5.5.5.5 2 2.5 N= 2
Wignersches Halbkreisgesetz N = 4.35.35.35.3.3.3.25.25.25.2.2.2.5.5.5....5.5.5 2.5 2.5.5.5.5 2 2.5... one realization... 2.5 2.5.5.5.5 2 2.5... another realization... 2.5 2.5.5.5.5 2 2.5... yet another one... 3
Wignersches Halbkreisgesetz: Seien λ (ω),..., λ N (ω) die Eigenwerte der Gaußschen Zufallsmatrix A N (ω) (gezählt mit Vielfachheit) und sei µ N (ω) := N (δ λ (ω) + + δ λ N (ω) ) die Eigenwertverteilung von A N (ω). Dann gilt fast sicher µ N 4 t 2 dt für N 2π 4
Beachte: die Eigenwerte von A N sind nicht unabhängig; sondern die gemeinsame Eigenwertverteilung von A N ist gegeben durch Dichte Z N e N(λ2 + +λ2 N ) i<j (λ i λ j ) 2 dλ dλ N, Eigenwerte wechselwirken wie 2-dimensionales Coulomb-Gas-System 5
5 independent eigenvalues with semicircular distribution.5.5 2.5.5.5.5 2 eigenvalues of a 5 x 5 Gaussian random matrix.5.5 2.5.5.5.5 2 6
2 5 independent eigenvalues with semicircular distribution 5 5 2.5.5.5.5 2 5 eigenvalues of a 5 x 5 Gaussian random matrix 5 2.5.5.5.5 2 7
Fragestellungen direkte stochastische Beschreibung des Grenzwertes N = insbesondere Existenz und Eigenschaften des Limes N von Multi-Matrix-Modellen der Form Z N e NTr(P(A,...,A m )) da da m Art der Konvergenz Fluktuationen große Abweichungen 8
Dynamische Beschreibung: Dyson Modell unabhängige Gaußvariable unabhängige Brownsche Bewegungen wobei A N (t) = (a ij (t)) N i,j= a ij (t) = ā ji (t) {a ij ( )} i j N sind unabhängige Brownsche Bewegungen 9
Übergang zu Prozessen erlaubt Realisierung von Verteilungen als Gleichgewichtsverteilungen eines Prozesses Beschreibung infinitesimaler Änderungen Benutzung von stochastischem Kalkül 2
Beschreibung des Grenzwertes N = von A N (t) als Limes N von N diffundierenden wechselwirkenden Eigenwerten dλ i (t) = N db i (t) + N j N j i λ i λ j dt 2
Beschreibung des Grenzwertes N = von A N (t) als Limes N von N diffundierenden wechselwirkenden Eigenwerten dλ i (t) = N db i (t) + N j N j i λ i λ j dt als McKean-Vlasov-Gleichung für die Dynamik der Eigenwertdichte µ t von A N (t) für N = 22
Beschreibung des Grenzwertes N = von A N (t) als Limes N von N diffundierenden wechselwirkenden Eigenwerten dλ i (t) = N db i (t) + N j N j i λ i λ j dt als McKean-Vlasov-Gleichung für die Dynamik der Eigenwertdichte µ t von A N (t) für N = f(λ)µ t (dλ) = lim N N N i= f(λ t (t)) 23
Beschreibung des Grenzwertes N = von A N (t) als Limes N von N diffundierenden wechselwirkenden Eigenwerten dλ i (t) = N db i (t) + N j N j i λ i λ j dt als McKean-Vlasov-Gleichung für die Dynamik der Eigenwertdichte µ t von A N (t) für N = d dt f(λ)µ t (dλ) = µt (dy) λ y f (λ)µ t (dλ) 24
Vollständige stochastische Beschreibung des Prozesses A N (t) im Limes N erfordert nicht nur Kenntnis von Marginalverteilungen µ t = lim N Vert(A(t)), sondern auch gemeinsame Verteilung zu verschiedenen Zeiten. 25
Vollständige stochastische Beschreibung des Prozesses A N (t) im Limes N erfordert nicht nur Kenntnis von Marginalverteilungen µ t = lim N Vert(A(t)), sondern auch gemeinsame Verteilung zu verschiedenen Zeiten. Aber: A N (t)a N (s) A N (s)a N (t), d.h. gemeinsame Eigenwertverteilung von A N (t) und A N (s) macht keinen Sinn. 26
Vollständige stochastische Beschreibung des Prozesses A N (t) im Limes N erfordert nicht nur Kenntnis von Marginalverteilungen µ t = lim N Vert(A(t)), sondern auch gemeinsame Verteilung zu verschiedenen Zeiten. Aber: A N (t)a N (s) A N (s)a N (t), d.h. gemeinsame Eigenwertverteilung von A N (t) und A N (s) macht keinen Sinn. Es gilt: λ m µ t (dλ) = lim N N N i= λ i (t) m = lim N N Tr( A N (t) m ) 27
Vollständige stochastische Beschreibung des Prozesses A N (t) im Limes N erfordert nicht nur Kenntnis von Marginalverteilungen µ t = lim N Vert(A(t)), sondern auch gemeinsame Verteilung zu verschiedenen Zeiten. Aber: A N (t)a N (s) A N (s)a N (t), d.h. gemeinsame Eigenwertverteilung von A N (t) und A N (s) macht keinen Sinn. Allgemeiner betrachte lim N N Tr( A N (t ) A N (t m ) ) t,..., t m R + 28
Die freie Brownsche Bewegung {S(t) t } ist definiert als der Grenzwert von den N N-matrixwertigen Brownschen Bewegungen {A N (t) t } durch nicht-kommutierende Variable S(t) (t ) Zustand E auf der von den S(t) erzeugten Algebra, definiert durch E [ S(t ) S(t m ) ] := lim N N Tr( A N (t ) A N (t m ) ) 29
Die freie Brownsche Bewegung kann beschrieben werden abstrakt als GNS Konstruktion bzgl. E konkret durch Operatoren auf Fockräumen 3
Realisierung auf Fockraum H = L 2 (R + ), F(H) = ΩC H n n= Für g H haben wir zugehörigen Erzeugungsoperator l (g): l (g)ω = g l (g)h h n = g h h n Dann realisiert S(t) = l ( [,t] ) + l( [,t] ) und E[a] = Ω, aω die freie Brownsche Bewegung. 3
Auf der von S(t) (t ) erzeugten Algebra haben wir die L p - Normen bzgl. E, insbesondere L 2 -norm a 2 := E[aa ] /2 L -Norm = Operatornorm a = a = lim p E[(aa ) p ] /2p Beachte: Verteilung von S(t) ist Halbkreis mit Radius 2 t, d.h. S(t) = 2 t 32
Ito-Kalkül für freie Brownsche Bewegung Prozess {A(t) t } heißt adaptiert, falls A(t) nur von S(τ) (τ t) abhängt. Für adaptierte Prozesse {A(t) t } und {B(t) t } definiere stochastisches Integral A(t)dS(t)B(t) [ Definition für stückweise konstante Prozesse: A(t)dS(t)B(t) := i A(t i ) ( S(t i+ ) S(t i ) ) B(t i ) ] 33
Theorem [Biane, Speicher]: Es gilt Ito Isometrie A(t)dS(t)B(t) 2 2 = A(t) 2 2 B(t) 2 2 dt 34
Theorem [Biane, Speicher]: Es gilt Ito Isometrie A(t)dS(t)B(t) 2 2 = A(t) 2 2 B(t) 2 2 dt Burkholder-Gundy-Ungleichung A(t)dS(t)B(t) 2 2 2 A(t) 2 B(t) 2 dt 35
Theorem [Biane, Speicher]: Es gilt Ito Isometrie A(t)dS(t)B(t) 2 2 = A(t) 2 2 B(t) 2 2 dt Burkholder-Gundy-Ungleichung A(t)dS(t)B(t) 2 2 2 A(t) 2 B(t) 2 dt Ito-Formel ds(t)ds(t) = dt 36
Theorem [Biane, Speicher]: Es gilt Ito Isometrie A(t)dS(t)B(t) 2 2 = A(t) 2 2 B(t) 2 2 dt Burkholder-Gundy-Ungleichung A(t)dS(t)B(t) 2 2 2 A(t) 2 B(t) 2 dt Ito-Formel ds(t)ads(t) =?? 37
Theorem [Biane, Speicher]: Es gilt Ito Isometrie A(t)dS(t)B(t) 2 2 = A(t) 2 2 B(t) 2 2 dt Burkholder-Gundy-Ungleichung A(t)dS(t)B(t) 2 2 2 A(t) 2 B(t) 2 dt Ito-Formel ds(t)ads(t) = E[A]dt 38
Theorem [Biane, Speicher]: Es gilt Ito Isometrie A(t)dS(t)B(t) 2 2 = A(t) 2 2 B(t) 2 2 dt Burkholder-Gundy-Ungleichung A(t)dS(t)B(t) 2 2 2 A(t) 2 B(t) 2 dt Ito-Formel ds(t)ads(t) = E[A]dt Chaos-Zerlegung, Skorohod-Integral,... 39
Theorem [Biane, Speicher]: Es gilt Ito Isometrie A(t)dS(t)B(t) 2 2 = A(t) 2 2 B(t) 2 2 dt Burkholder-Gundy-Ungleichung A(t)dS(t)B(t) 2 2 2 A(t) 2 B(t) 2 dt Ito-Formel ds(t)ads(t) = E[A]dt stochastische Analysis auf Wignerraum 4
Anwendungen des freien stochastischen Kalküls freie Diffusionsgleichungen (Biane, Speicher 2) Existenz des Grenzwertes von Multi-Matrix-Modellen der Form Z N e NTr(P(A,...,A m )) da da m und Zusammenhang mit diagrammatischen Entwicklungen für konvexe Potentiale (Guionnet, Shlyakhtenko 27) 42
Theorem [Biane, Speicher]: Sei V eine Operator Lipschitz Funktion. Betrachte die freie stochastische Differentialgleichung Dann gilt dx t = 2 V (X t )dt + ds t Existenz, Eindeutigkeit der Lösung; Stetigkeit von t X t dµ t (x) = p t dx, wobei p t beschränkt und p t L 3 (R) freie Fokker-Planck-Gleichung: [H Hilbert-Transformierte] p t (x) t = x [(Hp t(x) 2 V (x))p t (x)],
Definiere relative freie Entropie R2 Σ(µ) := log x y dµ(x)dµ(y) V (x)dµ(x) R und relative freie Fisher Information ( I(µ) = 4 Hp(x) R 2 V (x) ) 2 p(x)dx. Dann gilt d dt Σ(µ t) = 2 I(µ t). Für freien Ornstein Uhlenbeck Prozess (V (x) = λx 2 ) haben wir freie log Sobolev Ungleichung 4λ I(µ) Σ(µ ) Σ(µ) 43
Globale Fluktuationen der Eigenwerte Sei A N Gaußsche Zufallsmatrix. Wignersches Halbkreisgesetz sagt N Tr(Ak N ) 2π 2 2 tk 4 t 2 dt, also z.b. N Tr(A N) N Tr(A2 N ) N Tr(A4 N ) 2 44
Skalierte Fluktuationen um diesen Grenzwert Tr(A k N ) N 2π 2 2 tk 4 t 2 dt sind, für N, Gauß-verteilt mit berechenbarer Varianz 45
Example: Gaussian random matrix A (N = 4, trials=5.).4.7.35.25.6.3.25.2.5..2.5..5.4.3.2.5.5. 4 3 2 2 3 4 34 36 38 4 42 44 46 5 6 7 8 9. Var(Tr(A)) = Var(Tr(A 2 )) = 2 Var(Tr(A 4 )) = 36 Normal Probability Plot Normal Probability Plot Normal Probability Plot.999.997.99.98.95.9.999.997.99.98.95.9.999.997.99.98.95.9 Probability.75.5.25 Probability.75.5.25 Probability.75.5.25..5.2..3. cov=.99..5.2..3. cov=2.2..5.2..3. cov=35.85 4 3 2 2 3 4 Data 34 36 38 4 42 44 46 Data 6 65 7 75 8 85 9 95 5 Data 46
Problem: Betrachte andere Zufallsmatrizenmodelle, insbesondere Multi-Matrix-Modelle. Zeige, dass auch dort Fluktuationen von Spuren normalverteilt sind und beschreibe ihre Varianz! Ergebnisse: Gaußsche Zufallsmatrizen (Johansson 998; Cabanal-Duvillard 2) Wishart Zufallsmatrizen (Jonsson 982; Kusalik, Mingo, Speicher 26) unitäre Zufallsmatrizen (Diaconis, Shahshahani 994; Mingo, Sniady, Speicher 26, Radulescu 26) 47
Theorem [Mingo, Sniady, Speicher]: Betrachte unabhängige Folgen {U } N,..., {U r } N von Haar verteilten unitären N N- Zufallsmatrizen. Dann konvergiert die Familie Tr[U k() i() Uk(n) i(n) ] von Spuren in zyklisch reduzierten Wörtern in diesen Zufallsmatrizen gegen eine Gaußsche Familie von zentrierten Zufallsvariablen, wobei die Kovarianz gegeben ist durch die zyklischen Matchings zwischen den zwei reduzierten Wörtern lim N cov{ Tr[U k() i() Uk(m) i(m) ],Tr[Ul(n) j(n) Ul() j() ]} = δ mn # { r {,..., n} i(s) = j(s + r), k(s) = l(s + r) s =,..., n } 48