Mathematik III für das Verkehrsingenieurwesen. Karsten Eppler Technische Universität Dresden Institut für Numerische Mathematik

Größe: px
Ab Seite anzeigen:

Download "Mathematik III für das Verkehrsingenieurwesen. Karsten Eppler Technische Universität Dresden Institut für Numerische Mathematik"

Transkript

1 Mathematik III für das Verkehrsingenieurwesen Karsten Eppler Technische Universität Dresden Institut für Numerische Mathematik eppler Vorlesungsassistent: Herr Dr. Schönefeld schoenefeld/

2 Organisatorische Hinweise K. Eppler: Willersbau, Zi.: C 318, Tel.: Sprechzeit: Di Uhr Übungsaufgaben: s. Homepage Dr. Schönefeld Termin(e) Prüfungsklausur(en): Wird noch bekanntgegeben Bei Testat-Wiederholung: modifizierte Klausur Literatur (Ergänzung?): Bärwolff Höhere Mathematik für Naturwissenschaftler und Ingenieure (Spektrum)

3 Inhaltsübersicht WS 15/16 Laplacetransformation Mehrdimensionale Integralrechnung Flächen- und Volumenintegrale Kurven- und Oberflächenintegrale Inegralsätze Einführung in die Wahrscheinlichkeitsrechnung Grundbegriffe und Definitionen: Ereignisse und Wahrscheinlickeiten Zufallsgrößen und Verteilungsfunktionen Zufallsvektoren und Grenzverteilungen evtl.: (Potenz- und) Fourierreihen ( Einführung)

4 Lineare DGLn n-ter Ordnung mit konst. Koeffiz. Def. 6.5: Seien Zahlen a n 1,..., a 1, a 0 R sowie eine stetige Funktion g : I R gegeben. Dann heißt y (n) + a n 1 y (n 1) + + a 1 y + a 0 y = g(x) lineare GDGL n ter Ordnung mit konstanten Koeffizienten und P (λ) := λ n + a n 1 λ n a 1 λ + a 0 charakteristisches Polynom der homogenen DGL. Schließlich nennt man P (λ) = 0 die zugehörige charakteristische Gleichung.

5 Ansatzmethode für einfache Inhomogenitäten g(x) Ansatz für y p (x) Ansatz im Resonanzfall: R m (x) T m (x) Wenn ein Summand des R m (x)e αx T m (x)e αx Ansatzes die homogene R m (x) sin(βx) T m (x) sin(βx) DGL löst, so wird dieser oder +Q m (x) cos(βx) Summand so oft mit x R m (x) cos(βx) multipliziert bis er die homogene DGL nicht mehr löst. Linearkombination dieser Funktionen Linearkombination der Ansätze

6 Die Laplacetransformation Definition: Geg. sei eine Funktion f : [0, ) R ( C) Lapl.-trafo: F (s) = L[f](s) := 0 f(t)e st dt, β d.h., falls lim f(t)e st dt, existiert. β 0 F ( ) heißt die Laplacetransformierte von f. s R + ( C). Fkt. mit DB [0, ) L Fkt. mit DB (s 0, ) ({Re(s) > s 0 } C) Def.: Eine Fkt. f : [0, ) C heißt (i) stückw. stetig, falls diese in jedem endlichem Intervall nur endlich viele Unstetigkeitsstellen 1.Art (endl. Sprünge) besitzt (ii) von exponentieller Ordnung, falls gilt: f(t) ce γt, t 0, c, γ R (c, γ > 0)

7 Eigenschaften der Laplacetransformation I Satz 2: L[af + bg] = al[f] + bl[g], a, b R ( C). Satz 3: (Streckung) L[f(ct)] = 1 c F (s ), c 0 R ( C). c Satz 4: (Ableitung und Integral) (a) L[f ] = sl[f] f(0), L[f ] = s 2 L[f] sf(0) f (0) n > 2 : L[f (n) ] = s n L[f] s n 1 f(0)... f (n 1) (0) { t } (b) L f(τ)dτ = s 1 L[f] 0 Charakteristisch für Laplacetrafo: Auftauchen der Anfangswerte (AW) im Ableitungssatz - direkt nur Anfangswertaufgaben (AWA) behandelbar.

8 Eigenschaften der Laplacetransformation II Satz 5: (Ableitung und Integral der Bildfunktion) (a) L[tf(t)](s) = F (s), (b) L[t 1 f(t)](s) = Satz 6: (Dämpfung und Verschiebung) s F (u)du (a) L[e at f(t)](s) = F (s + a) (b) L[f(t a)h(t a)] = e as F (s) Definition der Heaviside-Fkt. ( Sprungfkt. ) h = h(x): 1, für x 0, h(x) := Es gilt: h = δ 0, für x < 0. 0 ( ) Die Delta-Distribution ist verallgemeinerte Ableitung von h.

9 Eigenschaften der Laplacetransformation III Definition (Faltung zweier Funktionen): Es seien zwei Funktionen f, g gegeben mit f(t) = g(t) = 0, für t < 0. Dann heißt die Funktion [f g]( ), definiert durch [f g](t) := t 0 f(t τ)g(τ)dτ = die Faltung der Funktionen f und g. t Satz 7: (Faltungssatz) Es existieren L[f] := F ( ), Dann existiert auch L[f g]( ) und es gilt L[f g](s) = F (s) G(s) 0 g(t τ)f(τ)dτ, t 0, L[g] := G( ). Problem : Es gibt keine geschlossene Formel für die Berechnung der Laplacetrafo L[f g], ([f g](t) := f(t) g(t), t) des (punktw.) Produktes zweier Funktionen aus der Kenntnis von L[f], L[g].

10 Anwendung der Laplacetransformation Laplacetransformation: Integraltrafo für Zeitprozesse für GDGL: Anwendung auf inhomogene AWA mit konstanten Koeffizienten (Systeme; skalare GDGL n-ter Ordnung) Originalpr.(AWA) schwer(er) lösb. = transform. Probl. leicht(er) lösbar y(t) Rücktrafo Y (s) Bedeutung: Neue Behandlungsmethode eröffnet neue Aspekte (insbesondere für lineare Regelungstheorie) Für Lösung konventioneller AWA: Im wesentlichen kann die gleiche Problemklasse explizit behandelt werden, Struktur der allgemeinen Lsg. (homog. DGL + partik. Lsg.) nicht erkennbar

11 Mehrdimensionale Integration und Vektoranalysis 1. Jordanmaß und Bereichsintegrale Zur Konstruktion/Definition des Begriffs Flächeninhalt: Rechteck ( ) x R := R 2 a 1 x a 2 y b 1 y b 2 µ(r) = R = (b 2 b 1 )(a 2 a 1 ). Es sei M R 2 eine (beliebige) beschränkte Menge. Betrachten: Folge von Gittern Γ k mit h k = 1/2 k, k = 1, 2.., Maschen Bi k. s k (M) := µ(bi k ) = h 2 k 1, Bi k M Bi k M S k (M) := µ(bi k ) = h 2 k 1 Bi k M Bi k M

12 Monotonie: s k (M) s k+1 (M)... S k+1 (M) S k (M) lim s k(m) =: s i (M), lim S k(m) =: s a (M). k k Definition 8.1: µ( ) := 0. M : s i (M) heißt innerer Inhalt und s a (M) heißt äußerer Inhalt. Gilt s i (M) = s a (M), so heißt M Jordan-meßbar und die Zahl s i (M) = s a (M) =: µ(m) = M heißt Flächeninhalt (oder Jordanmaß) von M. Eigenschaften: s. Satz 8.1 (besonders b), c)!); Begriff regulärer Bereich: siehe Definition 8.2 (insbesondere: abgeschlossen und beschränkt(!), Rand: endlich viele reguläre Kurvenstücke) Nicht Jordan-meßbar: 1.) [0, 1] [0, 1] \ Q 2. 2.) Fraktale Mengen ( modifizierte(r) Cantormenge, Sierpinski-Teppich, Mengerschwamm etc.) sind häufig nicht Jordanmeßbar.

13 Das Riemannsche Bereichsintegral I Sei B ein regul. Bereich und f : B R eine beschränkte Funktion. Durchmesser einer Menge: diam (M) := sup{ x y ; x, y M}. Zerlegung von B: Z := {B 1,..., B n } mit n i=1 B i = B, B i reguläre (Teil-)Bereiche, µ(b i B j ) = 0, i j. Feinheit einer Zerlegung: δ(z) := max{diam (B i ), i = 1(1)n}. n Riemannsche Summe: S(f, Z) := f(x i )µ(b i ), x i B i, i = 1(1)n. Wir betrachten Folge(n) von Zerlegungen {Z k } mit δ(z k ) 0. Def.: Falls gilt i=1 lim S(f; Z k) = I, δ(z k ) 0 und ist dieser GW unabhängig von der Wahl der Zerlegung und der Punkte x i, dann heißt dieser GW das Bereichsintegral von f über B.

14 Bezeichnung: Das Riemannsche Bereichsintegral II lim S(f; Z k) = I := δ(z k ) 0 B f(x, y)db = B f(x, y)dxdy. Satz: Ist B regulär, f beschränkt und stetig (mit Ausnahme einer Menge vom Jordanmaß 0), so existiert das Riemann-Integral. Es gilt a) 1dB = µ(b). b) Es sei B K := {(x, y, z) T (x, y) B, 0 z f(x, y)} R 3. Dann gilt fdb = V (K), V (K) - das Volumen von K. B c) c 1 f + c 2 g db = c 1 f db + c 2 g db B Linearität des Integrals bzgl. des Integranden. B B

15 Das Riemannsche Bereichsintegral III d) Additivität des Integrals bzgl. des Bereiches B = B 1 B 2, µ(b 1 B 2 ) = 0 fdb = B fdb + B 1 fdb. B 2 e) Integralabschätzung: Es gilt für beschränkte Integranden f fdb f db sup{ f(x), x B} µ(b). B B f) Das Integral einer beliebigen beschränkten Funktion über einer Null-Menge verschwindet immer: µ(b) = 0 fdb = 0. B g)ist f : B R stetig, dann existiert ein x B mit fdb = f(x )µ(b). (Mittelwertsatz). B Achtung: Nicht für Vektorfunktionen f : B R l gültig

16 Normalbereiche für Bereichsintegrale Normalbereich Typ I B = {(x, y) R 2 a x b; φ 1 (x) y φ 2 (x)} [ b ] φ2 (x) f db = f(x, y)dy dx B Normalbereich Typ II a φ 1 (x) B = {(x, y) R 2 c y d; ψ 1 (y) x ψ 2 (y)} [ d ] ψ2 (y) f db = f(x, y)dx dy B c ψ 1 (y) Im allgemeinen: Integrationsbereich so aufspalten (Integral ist additiv bzgl. des Bereichs), daß Teilbereiche jeweils Normalbereiche sind.

17 Koordinatentransformation in Bereichsintegralen Bereich B in (x, y) Ebene Bereich B in (u, v) Ebene x = x(u, v), y = y(u, v) u = u(x, y), v = v(x, y). f dxdy = f(u, v) D(u, v) dudv B B Dabei ist f(u, v) := f(x(u, v), y(u, v)) und die Funktionaldeterminante der Koordinatentransformation D(u, v) = (x, y) (u, v) = x u y u = x uy v x v y u Koordinatentransformation: Die Abb. ( x y) ( u v) ist injektiv und D(u, v) 0 in jedem Punkt ( x y). x v y v

18 2. Das Volumenintegral ( Dreifachintegral ) Das 3D-Jordanmaß (Rauminhalt) Konstruktion analog zur Einführung von Flächeninhalt (2D-Jordanmaß) für ebene Bereiche: Grundlage ist Volumenformel für Quader Unterteilung durch Folge von Raumgittern; auszählen innerer/äußerer Inhalt (existiert für beliebige Menge) Eine Teilmenge V R 3 heißt (Jordan-)meßbar, wenn innerer und äußerer Inhalt übereinstimmen µ 3 (V ). Achtung: Für B R 2 gilt µ 3 { B {0} } = 0(!) Feinheit einer Zerlegung: δ(z) := max{diam (V i ), i = 1(1)n}.

19 Definition des Volumenintegrals Gegeben: Körper V (meßbar), Funktion f : V R (stckw.) stetig Definition des Volumenintegrals über Riemann-Summen f( x)dv =: I = lim f( x i )µ 3 (V i ), x = (x, y, z) T. V δ(z) 0 i Eigenschaften: analog zum FI, z.b.: Linearität bzgl. des Integranden c 1 f + c 2 g dv = c 1 f dv + c 2 V V V g dv Additivität bzgl. Gebietszerlegung usw.... ( ) f( x)dv = f( x)dv + f( x)dv, V =V 1 V 2, µ 3 V1 V 2 =0 V V 1 V 2 Praktisch wichtig: 1dV = µ 3 (V ) (Volumenberechnung) V

20 Normalbereiche für Volumenintegrale Normalbereich Typ I: Der Körper V R 3 sei definiert durch x 1 x x 2, φ 1 (x) y φ 2 (x), V ψ 1 (x, y) z ψ 2 (x, y). [ x2 [ φ2 (x) ] ] ψ2 (x,y) f dv = f(x, y, z)dz dy dx x 1 φ 1 (x) ψ 1 (x,y) Andere Interpretation mit den Schnittflächen B(x) := {(y, z) R 2 φ 1 (x) y φ 2 (x), ψ 1 (x, y) z ψ 2 (x, y)} [ x2 ] f dv = f(x, y, z)db dx, db ˆ=dzdy V x 1 B(x) analog für Normalbereiche Typ II- VI

21 Berechnung eines statischen Momentes (Körper homogen, Ber. direkt, ohne Anwendung von Koord.-trafo) M z (Q) = zdv, Q := {x R 3 (x z) 2 + y 2 1, 0 z 1} Q M z = I = 1 0 { z+1 [ 1 (x z) 2 z 1 1 (x z) 2 zdy ] } dx dz = = = z+1 z 1 1 2zdz 1 (x z) 2 zy 1 (x z) 2dxdz = 1 1 t2 dt 2zdz π 2 = π 2. 1 z+1 0 z 1 2z 1 (x z) 2 dxdz (Subst.: t = x z, dt = dx)

22 Koordinatentransformation in Volumenintegralen Gebiet G R 3 Gebiet G R 3, injektiv x x(u, v, w) u u(x, y, z) x = y = y(u, v, w) u = v = v(x, y, z). z z(u, v, w) w w(x, y, z) f dxdydz = f(u, v, w) D( u) dudvdw. V V Dabei ist f(u, v, w) := f(x(u, v, w), y(u, v, w), z(u, v, w)), V = x(v ), und die Funktionaldeterminante der Koordinatentransformation x u y u z u D( u) = x u = x v y v z v 0. x w y w z w

23 Volumenintegralberechnung mit Koord.-trafo E := { x R 3 x2 a 2 + y2 b 2 + z2 c 2 1} (x 2 + y 2 )dxdydz = E [ a [ b 1 x 2 /a ] ] 2 c 1 x 2 /a 2 y 2 /b 2 = (x 2 + y 2 )dz dy dx a = Trafo... = = abc 1 0 b 1 x 2 /a 2 c π π/2 0 r 4 dr wegen: 0 π/2 2π cos 2 φ dφ = 1 2 cos φ sin φ + φ 2, 0... dψ dφ dr ( a 2 cos 2 φ + b 2 sin 2 φ dφ = 4 ) 15 abcπ(a2 + b 2 ) π/2 π/2 cos 3 ψ dψ = 1 3 sin3 ψ + 1 sin ψ cos 3 ψ dψ, sin 2 φ dφ = 1 2 cos φ sin φ + φ 2

24 Mehrfachintegrale über Quaderbereiche Falls für den Integrationsbereich Q und den Integranden f gilt (i) Q = n i=1[a i, b i ] (Q achsparalleler Quader), (iia) f(x) = n f i (x i ) (Integrand hat Produktstruktur), (iib) f(x) = i=1 m j=1 i=1 n f j i(x i ) (Tensor-Produktstruktur). Dann gilt: bzw.: Q Q f(x 1,..., x n )dx 1... dx n = f(x 1,..., x n )dx 1... dx n = n i=1 m bi j=1 i=1 f i (x i )dx i, a i n bi f j i(x i )dx i. a i

25 Grundbegriffe der Vektoranalysis Definitionsbereich V R 3 (R 2 R 3 ) Skalarfeld: f : V R, Vektorfeld: f = (f1,..., f m ) T : V R m. Anwendungen f: Temperaturfeld, (Masse-/Ladungs-)Dichte,... Anwendungen f: Strömungsfelder(-geschw.); elektromagnetische Felder, Verschiebungs- Deformations- Spannungsfelder (lin. Elastizität), Ableitungen (Wiederholung) für Skalar- und Vektorfeld Gradient: f = (f x1,... f xn ) T, Hessian: 2 f = ( f ) Jakobian(Vektorfeld): D f = f x = f T = ( f 1,..., f m ) T

26 Rechenregeln der Vektoranalysis Sei φ : D R, D R n und v : D R n, D R n ein zweimal stetig differenzierbares Skalarfeld bzw. Vektorfeld, so gelten die Regeln (i) rot(grad φ) = 0 (Satz von Schwarz) (ii) div(rot v) = 0 (iii) div(grad φ) =: φ Definition Laplace-Op. (iv) div(φv) = gradφ v + φdiv v (v) rot(φv) = gradφ v + φ(rot v) (vi) rot(rot(v)) = grad(div(v)) v Definition Vektor-Laplace. Die Regeln, in denen der Rotationsoperator vorkommt, gelten nur für n = 3 (n 3).

27 Kurvenintegrale 1. Art I Gegeben: Glatte, reguläre Kurve (stückweise glatte ) γ. Erinnerung: Bogenelement und Bogenlänge Sei x : [t a, t b ] R n die Parameterdarstellung dieser Kurve. Dann heißt ds := ẋ 2 1 (t) + ẋ2 2 (t) + + ẋ2 n(t)dt = ẋ(t) dt das (skalare) Bogenelement der Kurve (an der Stelle x(t)). Für die Bogenlänge s(t) der Kurve zwischen x(t a ) und x(t) gilt s(t) = t t a ẋ(τ) dτ.

28 Kurvenintegrale 1. Art II Für die Gesamtlänge L der Kurve gilt L = s(t b ) = Die Kurve heißt regulär, falls tb t a ẋ(τ) dτ. γ 0 ( γ 2 > 0, t [t a, t b ]. Definition Kurvenintegral 1. Art. Die Funktion f : D R sei stetig, γ D R n. Dann heißt tb f ds := f(x(t)) ẋ(t) dt γ t a Kurvenintegral 1. Art oder skalares Kurvenintegral von f.

29 Kurvenintegrale 1. Art III Anwendungen: (Gesamt-)Masse (Liniendichte ρ = ρ(x, y, z)) te m = ρ( x)ds = ρ(x(t), y(t), z(t)) ẋ 2 + ẏ 2 + ż 2 dt, γ t a te analog Schwerpunktskoordinaten x S = 1 x(t)ρ(...)...dt usw. m t a ( ) cos t Rechenbeispiel: γ(t) := r R 2, t [0, 2π], sin t f(x, y) = x 2 y 2, r > 0 fixiert ( ) sin t f(t) = f(γ(t)) = r 2 cos 2t, γ(t) = r, γ(t) = r cos t 2π 2π fds = f(t) γ(t) dt = r 3 cos 2t dt = 0. γ 0 0

30 Def./Berechnung Kurvenintegrale 2. Art Sei γ : [t a, t e ] R n eine reguläre Kurve und v : R n R n ein stetiges Vektorfeld (mit γ D(v)). Dann bildet man das Kurvenintegral 2. Art ( Arbeitsintegral ) v ds = v 1 dx v n dx n ds - vektorielles Bogenelement. γ γ Berechnung: γ v ds = te t a v(γ(t)) γ(t) dt ds := γ(t) dt. Alle wesentlichen Eigenschaften von Integralen (Linearität bzgl. des Integranden; Additiv. bzgl. Teilkurven; etc.) bleiben erhalten v ds = (!) v ds. γ γ KI 2. Art hängt von Orientierung der Kurve ab(!).

31 Schritte zur Berechnung KI 1.(2.) Art Bei der Berechnung sind die folgenden Schritte zu vollziehen 1) Falls nicht gegeben, Parametrisierung der Kurve γ : [t a, t e ] R n 2) Berechnung der Funktionswerte f(γ(t)) (bzw. v(γ(t))) der Belegungsfunktion 3) Berechnung von γ(t) (bzw. γ(t)) 4) Berechnung des Kurvenintegrals γ f ds = t e t a f(γ(t)) γ(t) dt ( bzw. γ v ds = t e t a v(γ(t)) γ(t) dt ). Kurvenintegrale 1. und 2. Art sind unabhängig von der expliziten Wahl der Parametrisierung!

32 Skalare Potentialfelder Def. 7.5: Sei D R n offen. Weiter seien v : D R n ein Vektorfeld und φ : D R ein differenzierbares Skalarfeld mit φ = v. Dann heißt das Skalarfeld φ Potential oder Stammfunktion von v. Das Vektorfeld v nennt man dann Potentialfeld oder Gradientenfeld (oder konservatives Feld). Satz 7.3: Seien D R n eine offene und einfach zusammenhängende Menge und v : D R n ein Gradientenfeld mit der Stammfunktion f. Weiter sei C eine in D verlaufende Kurve mit der Parameterdarstellung x : [t a, t b ] R n. Dann gilt v ds = f(x(t b )) f(x(t a )). x (Erster Hauptsatz für Potentialfelder)

33 Integration über Oberflächen Def. 8.10:( Parametrisierung eines Flächenstücks) Es seien D R 2 offen und zusammenhängend und M D ein regulärer Bereich. Weiter sei x : D R 3 ein stetig differenzierbares Vektorfeld. Dann heißt S := x(m) = {x(u, v) (u, v) M} reguläres Flächenstück und x heißt Parametrisierung des Flächenstücks, wenn x : M R 3 injektiv ist, und x u (u, v) x v (u, v) 0 für alle (u, v) M. Eine Teilmenge S R 3 heißt stückweise reguläre Fläche, wenn es endlich viele reguläre Flächenstücke S 1,..., S p gibt, die höchstens endlich viele reguläre Kurvenstücke ihrer Ränder gemeinsam besitzen und für die gilt S = p j=1 S j.

34 Spezialfall für gekrümmte Flächen Graph einer (expliziten) Funktion S := {(x, y, z) T R 3 z = f(x, y)} B := D(f), x = x 1 0 y = y x x = 0 x y = 1 z = f(x, y) f x f y f x ( ) x x x y = f y f(x) = 1 1 x x x y = 1 + f 2 x + f 2 y, n = 1 + f 2 x + f 2 y ( ) 1 f(x) 1

35 Def./Berechnung Oberflächenintegrale 1. Art Sei B R 2 ein Bereich und S := X(B) R 3 ein reguläres Flächenstück. Für eine (stckw.) stetiges Skalarfeld f : R 3 R (S D(f)) heißt fdo = f( x(u, v)) x u x v db (db = dudv) S B skalares Oberflächenintegral (oder OI 1. Art) von f über S. Speziell: Flächeninhalt gekrümmter Flächen A o = 1dO = x u x v db. S Es gilt: Das Oberflächenintegral 1. Art (der Oberflächeninhalt) hängt nicht von der Wahl einer konkreten Parametrisierung ab! B

36 Def./Berechnung Oberflächenintegrale 2. Art Sei B R 2 ein Bereich und S := X(B) R 3 ein reguläres Flächenstück. Für eine (stckw.) stetiges Vektorfeld v : R 3 R 3 (S D(v)) heißt v do = v( x(u, v)) ( x u x v ) db (db = dudv) S B vektorielles Oberflächenintegral (oder OI 2. Art) von v über S ( Flußintegral, Fluß von v durch S). Es gilt: Das Oberflächenintegral 2. Art (der Oberflächeninhalt) hängt nicht von der Wahl einer konkreten Parametrisierung ab! Alle wesentlichen Eigenschaften von Integralen (Linearität bzgl. des Integranden; Additiv. bzgl. Teilflächen; etc.) bleiben erhalten

37 Schritte zur Berechnung OI 1.(2.) Art Bei der Berechnung sind die folgenden Schritte zu vollziehen 1) Falls nicht gegeben, Parametrisierung des Flächestücks S := x(b) : B R 3 2) Berechnung der Funktionswerte f( x(u, v)) (bzw. v( x(u, v)))) der Belegungsfunktion 3) Berechnung von ( ) ( x u x v (u, v) bzw. ( ) ) x u x v (u, v) 4) Berechnung des Oberflächenintegrals S fdo = B f( x(u, v)) x u x v db ( bzw. S v d O = B v( x(u, v)) ( x u x v ) db ).

38 Der Integralsatz von Gauß Es sei V R 3 ein Körper, V seine Oberfläche (stückw. glatt), v : R 3 R 3 ein stetig differenzierbares Vektorfeld. Dann gilt (dabei bezeichnet n die äussere Normalenrichtung) divv dv = v do = v n do, v n = v n. V V Folgerung: Für alle divergenzfreien Vektorfelder (divv = 0) gilt v do = 0, für alle regulären Körper V. V Bsp. 1: Fluß durch die Oberfläche der E.-Kugel K. v = (x 2 yz, xy 2 z, 2xyz 2 ) T, divv = 0 v do = 0 V K

39 Der Integralsatz von Stokes Es sei S := x(b) : B R 3 eine (gekrümmte) Fläche im Raum (Normale n), L seine (geschlossene) Randkurve (τ = γ/ γ ), und v : R 3 R 3 ein stetig differenzierbares Vektorfeld. Dann gilt rotv do = v ds. S Orientierung der Randkurve: n, τ und n τ bilden Rechtssystem Folgerung: Besitzen 2 Flächen S 1 := x 1 (B 1 ) : B 1 R 3 und S 2 := x 2 (B 2 ) : B 2 R 3 im Raum die gleiche Randkurve L = S 1 = S 2, so gilt v ds = L rotv do = S 1 rotv do S 2 L

40 Der Integralsatz von Green Sei D R 2 ein Gebiet und B D ein Bereich, dessen Rand aus endlich vielen, positiv orientierten Kurven(stücken) besteht ( B = L, L : [a, b] R 2, L(t) = (γ 1 (t), γ 2 (t)) T ) und v : R 2 R 2 sei ein stetig differenzierbares Vektorfeld. Dann gilt B [ v 2 (x, y) x v 1(x, y) ] db = v ds. y L Der Integralsatz von Green stellt die ebene Version des Integralsatzes von Stokes dar. Analog: Der Gauß-sche IS der Ebene lautet b ( ) ( ) divv db = v ds [ γ1 (t) γ1 (t) = v1 γ 2 (t) v 2 γ 1 (t) ] dt. γ 2 (t) γ 2 (t) B L a

41 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung(= Stochastik) + später (am Schluß): Einführung in mathematische Statistik Zufallssituation: Komplex von Bedingungen, bei dessen Realisierung nicht voll vorhersagbare Ergebnisse eintreten können ( = Zufallsexperiment - s. Bärwolff) Elementarereignis: elementarer Versuchsausgang e (ω) (genau einer tritt ein) Menge aller elementaren Versuchsausgänge: sicheres Ereignis E (Ω, S) unmögliches Ereignis (U) Zufälliges Ereignis: (A, B) bei Realisierung der Zufallssituation auftretendes Ereigniss ( aus Elementarereign. zusammengesetzt ). Hauptziel: Berechnung der Wahrscheinlichkeit von zuf. Ereign.

42 Operationen mit zuf. Ereignissen I Summe zweier Ereignisse: A B Produkt zweier Ereignisse: A B Differenz zweier Ereignisse: A \ B Komplementäres Ereignis Ā := E \ A Mehrfache Summen und Produkte (endlich und(!) abzählbar unendlich) : A 1 A 2... A n = n i=1a i, B 1 B 2... B n... = n=1b n

43 Operationen mit zuf. Ereignissen II De Morgansche Regeln (auch mehrfach, einschließlich abzählbar unendlich vieler Mengen) A B = Ā B, A B = Ā B, k A k = k A k, k A k = k A k, Def. 13.3: (Teilereignis, gleichwertiges Ereignis) Seien A, B zufällige Ereignisse. Folgt aus dem Eintreten von A stets das Eintreten von B, dann heißt A Teilereignis von B; A B: A zieht B nach sich (A ist Teilereignis von B). Gilt A B und B A A = B (A und B sind gleichwertig).

44 Unvereinbarkeit, vollst. Ereignissystem Def. 13.5: Gilt k A k = für endlich oder abzählbar viele zufällige Ereignisse A 1, A 2,..., so nennt man A 1, A 2,... insgesamt unvereinbare Ereignisse oder insgesamt disjunkte Ereignisse. Die Ereignisse heißen paarweise unvereinbar oder paarweise disjunkt, wenn A i A j = für i j gilt. Def. 13.6: Sind A 1, A 2,..., A n zufällige Ereignisse (A k E), für die gilt a) A i A j = für i, j = 1, 2,..., n, i j b) n k=1 A k = E (sicheres Ereignis), dann nennt man (A 1, A 2,..., A n ) ein vollständiges System paarweise unvereinbarer Ereignisse.

45 Ereignisfeld, zufälliges Ereignis (Def. 13.4) Eine Menge Z von Teilmengen einer Menge E von Elementarereignissen heißt Ereignisfeld (oder Borelscher Mengenkörper), wenn gilt: a) E, Z (das sichere Ereignis E und das unmögliche Ereignis gehören zu Z) b) Gehören die Ereign. A, B zu Z, dann auch die Differenz A \ B: A, B Z A \ B Z. c) Gehören die Ereign. A 1, A 2,... zu Z (endlich oder abzählbar unendlich viele), dann auch die Summe und das Produkt: A 1, A 2,... Z k A k Z, k A k Z. Die Elemente von Z heißen zufällige Ereignisse.

46 Wahrscheinlichkeit: Axiome von Kolmogoroff Z sei ein Ereignisfeld. Jedem zufälligen Ereignis A Z lässt sich eine reelle Zahl P (A) so zuordnen, dass die folgenden Bedingungen erfüllt sind: a) Für jedes A Z ist 0 P (A) 1 (Axiom I). b) Dem sicheren Ereignis E ist die Zahl 1 zugeordnet: P (E) = 1 (Axiom II). c) Es gilt das Additionsaxiom: Sind A 1, A 2,... paarweise unvereinbare Ereignisse aus Z, so gilt P ( k A k ) = k P (A k ) (Axiom III). Die Zahl P (A) heißt Wahrscheinlichkeit des zufälligen Ereign. A.

47 Folgerungen aus den Kolmog. Axiomen P ( )=0, da 1=P (E)=P (E Ē)=P (E)+P ( ), P (Ā)=1 P (A). n Monotonie: A B P (A) P (B) P ( n k=1a k ) P (A k ) ZUSATZ Das Additionstheorem (Axiom III) ist dem (sogenannten) Stetigkeitsaxiom äquivalent: k=1 Für Folge A 1, A 2,.. von zuf. Ereignissen sei jedes Ereignis Teilereignis des vorhergehenden (d.h., A i+1 A i, i = 1, 2,..), und diese Ereignisse sind insgesamt unvereinbar, d.h., i=1 A i =. Dann gilt: lim n P (A n) = 0.

48 Sind 2 Ereignisse unvereinbar, so P (A B) = P (A) + P (B) (Axiom III f. 2 Mengen), aber: Für beliebige 2 Ereignisse gilt nur : P (A B) = P (A) + P (B) P (A B) P (A) + P (B) Formel für P (A B): A B wird durch paarweise unvereinbare Ereignisse dargestellt A B = (A \ B) (B \ A) (A B), P (A B) = P (A \ B) + P (B \ A) + P (A B). Offensichtlich gilt aber auch: P (A) = P (A \ B) + P (A B), P (B) = P (B \ A) + P (A B) P (A B) = P (A) + P (B) P (A B)

49 Die 4 Grundaufgaben der Kombinatorik Generell: Auswahl von k Elementen aus einer Grundgesamtheit der Anzahl n Ohne Zurücklegen, ohne Beachtung ( ) der Reihenfolge n (ungeordnet - Kombination): Möglichkeiten k Ohne Zurücklegen, mit Beachtung der Reihenfolge (geordnet - n! Variation): (n k)! Möglichkeiten Mit Zurücklegen, mit Beachtung der Reihenfolge: n k Möglichkeiten ( Mit Zurücklegen, ) ohne Beachtung der Reihenfolge: n + k 1 Möglichkeiten k

50 Grundformel der klass. Wkt-rechnung Klassische Wahrscheinlichkeit: Das Ereignisfeld sei aus endlich vielen Elementarereignissen zusammengesetzt. Falls die Elementarereignisse gleichwahrscheinlich sind, dann P (A) = Anzahl der günstigen Fälle Anzahl der möglichen Fälle Beispiele: Lotto ( 6 aus 49,... etc...); P ( Dreier ) = ( 43 ( 49 6 ) ) ( ) = , usw.,... Alle Karten- Würfel- und sonstige Glücksspiele...

51 Bedingte Wahrscheinlichkeit Def. 13.7: Die Wahrscheinlichkeit eines Ereignisses B unter der Bedingung, dass ein Ereignis A mit P (A) > 0 bereits eingetreten ist, heißt bedingte Wahrscheinlichkeit des Ereignisses B unter der Bedingung A und wird mit P (B A) bezeichnet. Wichtig (sinnvoll): Bedingte Wkt.en werden nur für P (A) > 0 betrachtet. Multiplikationstheorem der WR: Es gilt P (A B) = P (A B)P (B) = P (B A)P (A), für alle Ereignisse mit P (A) > 0, P (B) > 0

52 Unabhängigkeit von Ereignissen Def. 13.8: Ein zufälliges Ereignis A heißt vom zufälligen Ereignis B unabhängig, wenn die Wahrscheinlichkeit für das Eintreten von A unabhängig davon ist, ob B eingetreten ist oder nicht, d.h. P (A B) = P (A). Folgerungen: a) aus Multiplikationstheorem: P (A B) = P (A B)P (B) = P (A)P (B) = P (B A)P (A) P (B A) = P (B) Ist A von B unabhängig, so auch B von A. b) Sind A, B unabhängig, so auch die Paare (A, B), ( Ā, B), (Ā, B)

53 Unabhängigkeit in Mengensystemen (> 2) Def. 13.9: Die n zufälligen Ereignisse A 1, A 2,..., A n heißen insgesamt unabhängig, wenn für jedes m-tupel (i 1, i 2,..., i m ) von natürlichen Zahlen mit 1 i 1 < i 2 < < i m n gilt: P (A i1 A i2 A im ) = P (A i1 )P (A i2 )... P (A im ). n n Konsequenz: P ( A k ) = P (A k ). k=1 Die Ereignisse A 1, A 2,..., A n heißen paarweise unabhängig, wenn für jedes Indexpaar (i, j) mit 1 i, j n, i j die Ereignisse A i und A j unabhängig sind, also wenn gilt k=1 P (A i A j ) = P (A i )P (A j ). Insgesamt unabhängige Ereignisse sind auch paarweise unabhängig (nicht umgekehrt).

54 Anwendung Unabhängigkeit Zuverlässigkeitstheorie ( Schaltalgebren; logische Verknüpfung von Ereignissen) P (A i ) = p i, i = 1, 2,... ( ) Parallelschaltung: B = A 1 A 2 A 3... A n Reihenschaltung: C = A 1 A 2 ( A 3... A n ) Grundformeln (beliebig kombinierbar in Komplex-Schaltungen): P (A 1 A 2 ) = p 1 p 2, P (A 1 A 2 ) = p 1 + p 2 p 1 p 2, P (A 1 A 2 ) = P (A 1 A 2 ) = (1 p 1 )(1 p 2 ) P (C) = n n p k, P (B) = (1 p k ) k=1 k=1

55 Zusatz: Bedingte Wahrscheinlichkeit Beispiel 3 Urnen: U1: 3w/2r; U2: 2w/8r; U3: 0w/8r B: gezogene Kugel ist weiß; A i : Kugel ist aus Urne i Beweis der Formel für bedingte Wahrscheinlichkeit P (A B C): ( ) = P (A B C) = P (A C) (B C) P (C) P (A C) + P (B C) P (A B C) P (C) P (A B C) = P (A C) + P (B C) P (A B C) =

56 Formel der totalen Wahrscheinlichkeit Sei (A 1, A 2,..., A n ) ein vollständiges System paarweise unvereinbarer Ereignisse (s. Def.13.6). Dann gilt für ein beliebiges zufälliges Ereignis B B = n (B A k ) P (B) = k=1 n P (B A k ), k=1 weil die Mengen (B A k ) ebenfall unvereinbar sind. P (B) = n P (B A k )P (A k ) k=1 mit Multiplikationssatz Das ist die Formel der totalen Wahrscheinlichkeit

57 Der Satz von Bayes Es interessieren auch P (A i B), i = 1, 2, 3 (Kugel aus Urne U i, falls gezogene Kugel weiß). Nach Multiplikationstheorem gilt P (B A k ) = P (B A k )P (A k ) = P (A k B)P (B) P (A k B) = P (B A k)p (A k ) P (B) P (A k B) = P (B A k )P (A k ) n k=1 P (B A k)p (A k ) Das ist die Formel von Bayes (Eine Folgerung aus dem Satz von der totalen Wahrscheinlichkeit)

58 Zufallsgrößen und Verteilungsfunktion Häufig: Ergebnisse von Zufallsversuchen sind Zahlenwerte (werden durch reelle Zahlen räpresentiert). Def 13.10: Es sei E die Menge der bei einem Zufallsexperiment möglichen Elementarereignisse e und Z ein Ereignisfeld entsprechend Def Eine (eindeutige) reelle Funktion X(e), die für alle e E definiert ist, heißt Zufallsgröße, wenn das Urbild X 1 (I) eines beliebigen Intervalls I der Form ], x[ R ein zufälliges Ereignis A Z ist. Def 13.11: X sei eine Zufallsgröße. Die Wahrscheinlichkeit dafür, dass X einen Wert annimmt, der kleiner als x ist, heißt Wahrscheinlichkeitsverteilungsfunktion F X (x) von X: F X (x) := P {X < x}.

59 Eigenschaften einer Verteilungsfunktion Satz 13.1: Eine Verteilungsfunktion F (x) = P {X < x} hat folgende Eigenschaften: a) F (x) ist monoton nichtfallend, b) lim x F (x) = 0, lim x F (x) = 1, c) F (x) ist linksseitig stetig. Jede Funktion mit diesen Eigenschaften ist Verteilungsfunktion einer gewissen Zufallsgröße. Konsequenz aus der Definition bzw. dem Satz: P {x 1 X < x 2 } = F (x 2 ) F (x 1 ) möglich: P { X x 2 } = F (x 2 ) + P {X =x 2 } > F (x 2 )

60 Würfeln (einfacher Wurf) F(x) Abbildung 13.6: x Verteilungsfunktion F (x) für das Beispiel Würfeln

61 Diskrete Zufallsgrößen Def.13.12: Eine Zufallsgröße X, die nur endlich oder abzählbar viele Werte x 1, x 2,... annehmen kann, nennt man diskrete Zufallsgröße; dabei wird vorausgesetzt, dass P {X = x k } = p k > 0 für k = 1, 2,... ist. Für die Verteilungsfunktion ergibt sich unmittelbar F (x) = P {X < x} = ( ) p k = 1 k:x k I(x) Wichtige diskrete Verteilungen ( praktisch relevant ): Binomialvertlg. (endlich) p n (m) = P n {X = m} = ( ) n m p m (1 p) n m Poisson-Vertlg. (abzählbar) p k k=1 p k = P {X = k} = λk k! e λ

62 Die Poisson-Vertlg. Sei X t - Anzahl von Ereignissen im (Zeit-)Intervall der Länge t. Eine ZG ist Poisson-verteilt bei Homogenität der Zuwächse: λ - mittl. Anz. im Intervall [0, 1]; Unabhängigkeit der Zuwächse; P (X Ordinarität: lim t >1) P (X t 0 t = 0 (lim t =1) t 0 t = λ). Dann P (X t = k) = ( λt) k e λt, k = 0, 1,... P (X t = k) = 1 k! k=0 Eine Poisson-verteilte ZV X(= X t ) ist vollständig charakterisiert durch den Parameter λ = λt.

63 Die hypergeometrische Verteilung Grundgesamtheit: N Elemente, davon M Elemente markiert. Auswahl von n(< N) Elementen ( Stichprobe ) - ZG X: Anzahl der markierten Elemente Wertemenge: {0, 1,.., n}. Das ist eine diskrete ( endliche ) ZG P (X n = k) = ( M )( N M ) k n k ( N n) ( = günstige ) mögliche Für sehr kleine Stichproben ( Faustregel : n < N 20 ): Approximation durch die Binomialverteilung möglich (dabei Wahl von p := M N ). ( Zahlenlotto-Verteilung )

64 Def.13.13: Die diskrete Zufallsgröße X nehme die Werte x k mit den positiven Wahrscheinlichkeiten p k (k = 1, 2,... ) an; die Reihe k=1 p k x k sei konvergent. Dann heißt E(X) = p k x k Erwartungswert von X. k=1 Def.13.14: X sei eine diskrete Zufallsgröße mit den möglichen Werten x 1, x 2,..., den zugehörigen Wahrscheinlichkeiten p 1, p 2,... und dem Erwartungswert E(X). Ist die Reihe σ 2 X = p k [x k E(X)] 2 k=1 konvergent, so nennt man ihren Wert σ 2 X auch Dispersion D2 (X), Varianz V ar(x) oder Streuung von X. Die Wurzel σ X = D 2 (X) > 0 aus der Dispersion heißt Standardabweichung von X.

65 Stetige Zufallsgrößen Def : Eine Zufallsgröße X : E R, deren Vert.-fkt. F (x) sich für alle x mittels einer Funktion f(x) 0 in der Form F (x) = x f(ξ) dξ darstellen lässt, heißt stetige Zufallsgröße. f(x) nennt man die Wahrscheinlichkeitsdichte von X. Wichtige stetige Verteilg.: Normalverteilung (!!), Gleichvert., Exponentialverteilung (=Lebensdauerverteilung) 0 x < 0 Weibullvertlg.: f(x) = bpx p 1 e bxp x 0, p > 0, b > 0 Weitere Verteilungen (s. Statistik): Fisher-Vertlg., χ 2 -Vertlg.

66 Normalverteilung (Gaußvertlg.) Standardisierte Normalverteilung N(0, 1) φ(x) = f(x; 0, 1) = 1 z e x2 2 Φ(z) = 2π φ(x)dx Zentrale Aussage (für Anwendung): Falls die ZG X N(µ, σ 2 ), so besitzt die ZG Z := X µ σ eine N(0, 1)-Verteilung (Z N(0, 1)) Beispiel: Der Innenringdurchmesser D von Kugellagern sei normalverteilt mit µ = 12.2mm, σ 2 = mm 2 (D N(12.2, )). Ein Innenring ist paßfähig, wenn D [12.1mm, 12.4mm]. Wie groß ist in einem Posten von 1000 Stück der (mittlere) Anteil paßfähiger Ringe?

67 Definition (Erwart.-wert, Momente einer stet. ZG) X sei eine stetige Zufallsgröße mit Dichte f(x), für die ξ k f(ξ) dξ konvergiert (k = 1, 2,... ). Dann nennt man E(X) = m k = µ k = ξf(ξ) dξ den Erwartungswert (Mittelwert) von X, ξ k f(ξ) dξ das k-te Moment von X und (ξ EX) k f(ξ) dξ das zentrale k-te Moment von X Weitere Lageparameter: Ein Wert x = x p heißt p-quantil, falls F (x p ) = p = P (X < x p ) = xp f(ξ)dξ, 0.5 Quantil: Median Weitere Größen: Schiefe γ 3 = µ 3 σ 3, Exzeß γ 4 = µ 4 σ 4 3

68 Die Tschebychevsche Ungleichung Satz: Für eine beliebige ZG X mit endlichen EX, D 2 X gilt P ( X EX a) D2 X a 2, bzw. P ( X EX kσ) 1 k 2, a, k > 0 Konsequenz: P ( X EX < kσ) 1 1, k > 0. k2 Diese Abschätzung gilt für beliebige ZG X mit endlichem Erwartungswert und Varianz. Für konkrete Verteilungen lassen sich diese Abschätzungen u.u. noch verbessern: 3 σ Regel für die Normalverteilung: Sei X N(µ, σ 2 ). Dann P ( X µ < 3σ) =... = 2Φ 0 (3) ( 1).

69 Zufallsvektoren (mehrdim. ZG) Def (n-dimensionale Zufallsgröße, zufälliger Vektor) Ein System von n reellen Funktionen X 1 (e), X 2 (e),..., X n (e), deren DB die Menge E der Elementarereignisse e ist, heißt n-dimensionale Zufallsgröße, wenn das Urbild eines jeden n-dimensionalen Intervalls der Form <x k <a k, (k =1, 2,..., n) ein zufälliges Ereignis A aus einem Ereignisfeld Z ist. Def (Verteilungsfunktion eines Zufallsvektors) (X 1, X 2,..., X n ) sei eine n-dimensionale Zufallsgröße. Die Wahrscheinlichkeit dafür, dass die Ereignisse {X 1 < x 1, X 2 < x 2,..., X n < x n } gemeinsam eintreten, heißt Verteilungsfunktion F von (X 1, X 2,..., X n ): F (x 1, x 2,..., x n ) = P {X 1 < x 1, X 2 < x 2,..., X n < x n }.

70 Beispiel diskreter Zufallsvektor - Polynomialverteilung: Ereignissystem A k, A k =E, A i A j =, P (A k )=p k, p k =1 k k n unabhängige Versuche; X k - Anzahl des Eintretens von A k. P (X 1 =j 1, X 2 =j 2,..., X k =j k ) = p j1 j 2...j k = n! j 1!... j k! pj p j k k Positive Wahrscheinlichkeit besitzen Urbilder aller Vektoren x mit x = (j 1, j 2,..., j k ) T mit i j i = n, 0 j i n, j i ganzzahlig Stetige Zufallsvektoren, Verteilungsfunktion (2D) ZG (X, Y ) heißt stetig, falls Dichte f(x, y) 0 existiert mit F (x, y) = x y f(x, y)dxdy, Monotonie: F (x 1, y 1 ) F (x 2, y 2 ), falls x 1 x 2, und y 1 y 2

71 Skalierung: F (, ) = f(x, y)dxdy = 1 Beispiel(e): Normalverteilung, Gleichverteilung in B R 2, Erinnerung Beispiel 4 (1.VL WR): 2 Personen (P,Q) wollen sich zw und 9.00 Uhr treffen. X - Ankunftszeit P; Y - Ankunftszeit Q. Zufallsvektor: Z = (X, Y ) ist gleichverteilt in [0, 1] [0, 1] Definition (Randverteilung, Randdichte (n = 2)): Sei (X, Y ) ein zufälliger Vektor mit Verteilungsfunktion F (x, y). Dann nennt man (eindimensionale) Randverteilungen von (X, Y ): P (X<x, Y < )=F (x, )=F X (x), P (X<, Y <y)=f (, y)=f Y (y) Ist (X, Y ) ein stetiger Zufallsvektor mit Dichte p(x, y), so heißen p X (x) = p(x, η) dη, p Y (y) = (eindimensionale) Randdichten von (X, Y ). p(ξ, y) dξ

72 Die 2-dimensionale Gleichverteilung Rechteck B = [a, b] [c, d] B = (b a)(d c), Dichtefunktion: 1 (b a)(d c) (x, y) [a, b] [c, d] f(x, y) =, speziell: 0 sonst. 0 x, y 0 1 (x, y) [0, 1] 2 xy (x, y) [0, 1] 2 f(x, y) = F (x, y) = x y > 1, x (0, 1) 0 sonst y x > 1, y (0, 1) 1 x, y > 1.

73 Die Randverteilungen der 2D-Gleichverteilung sind jeweils eindimensionale Gleichverteilungen: Für x [a, b] gilt (f X (x) = 0, x / [a, b], da f(x, y) = 0 für x / [a, b]) f X (x) = f(x, y)dy = d c dy (b a)(d c) = 1 b a Das ist die Dichte einer 1D-Gleichverteilung! 1 d c y [c, d] Analog gilt: f Y (y) = 0 sonst.

74 Momente von Zufallsvektoren (X, Y ) (n=2) Erwartungswerte der Komponenten X bzw. Y E(X) = E(Y ) = ξf(ξ, η) dξdη = ηf(ξ, η) dξdη = ξf X (ξ)dξ ηf Y (η)dη Def Momente m pq und zentrale Momente µ pq m pq = E(X p Y q ) = µ pq = E( X E(X) p Y E(Y ) q ) = ξ p η q f(ξ, η) dξdη ξ E(X) p η E(Y ) q f(ξ, η) dξdη

75 Kovarianzmatrix; Korrelationskoeffizienten Def Ist (X 1, X 2,..., X n ) ein n-dimensionaler Zufallsvektor, so heißt k jl = E{[X j E(X j )][X l E(X l )]} = cov(x j, X l ) die Kovarianz der Zufallsgrößen X j, X l (1 j, k n). Die Matrix (k jl ) heißt Kovarianzmatrix. Die mit den Standardabweichungen normierten Kovarianzen nennt man Korrelationskoeffizienten: ρ jl = cov(x j, X l ) D(Xj ) D(X l ) = cov(x j, X l ) σ j σ l (1 j, l n). Definition (unkorrelierte Zufallsgrößen) Sei (X, Y ) ein zufälliger Vektor. Die Zufallsgrößen X, Y heißen unkorreliert, wenn ihr Korrelationskoeffizient ρ(x, Y ) verschwindet.

76 Unabhängigkeit von ZG Def : Sei (X 1, X 2,..., X n ) ein zufälliger Vektor, F (x 1, x 2,..., x n ) seine Verteilungsfunktion, und F 1 (x 1 ), F 2 (x 2 ),..., F n (x n ) seien die eindimensionalen Randverteilungen. Man nennt die Zufallsgrößen X 1, X 2,..., X n unabhängig, wenn für beliebige x 1, x 2,..., x n gilt. F (x 1, x 2,..., x n ) = F 1 (x 1 )F 2 (x 2 )... F n (x n ). Für stetige ZG: ZG sind genau dann unabhängig, wenn die Dichte Produkt der Randdichten ist: F (x, y) = F X (x)f Y (y) f(x, y) = f X (x)f Y (y) Satz: Unabhängigkeit der ZG (X, Y ) impliziert ihre Unkorreliertheit, d.h., F (x, y)=f X (x)f Y (y) cov(x, Y )=ρ(x, Y )=0

77 Die zweidimensionale Normalverteilung Def : (X, Y ) ist 2D-normalverteilt, wenn die Dichte gegeben ist durch (σ X > 0, σ Y > 0, ρ ( 1, 1)) f(x, y) = a(x, y) = 1 2πσ X σ Y 1 ρ 2 e a(x,y) 1 2(1 ρ 2 ) [(x m X σ X ) 2 2ρ x m X σ X y m Y σ Y +( y m Y σ Y ) 2 ]. Randverteilg.: X N(m X, σ 2 X), Y N(m y, σ 2 Y ), ρ(x, Y ) = ρ. Die Komponenten X und Y sind normalverteilt mit E(X) = m X, D 2 (X) = σ 2 X, E(Y ) = m Y, D 2 (Y ) = σ 2 Y.

78 2D-Normalverteilte ZG (Ergänzg.) Skalierung auf Standard-NV (2D): X = X m X σ X, Y = Y m Y σ Y, (X, Y ) NV mit m X = m Y = 0, σ X = σ y = 1. ρ(x, Y ) = ρ f X Y (x, y) = Satz: Bei normalverteilten ZG gilt: 1 2π 1 ρ x 2 2ρxy+y 2 2 e 2(1 ρ 2 ) Unabhängigkeit Unkorreliertheit ρ = 0

79 Funktionen/Summen von ZG Gegeben: Zufallsvektor (X, Y ) neue ZG Z = g(x, Y ) Frage(n): Verteilung bzw. stochastische Parameter von Z? E(Z) = g(ξ, η)f(ξ, η) dξdη. speziell Summen von ZG(allgemeingültig!): E(a 1 X + a 2 Y ) = a 1 E(X) + a 2 E(Y ), aber: i.a. D 2 (X + Y ) = D 2 X + D 2 Y + 2ρ(X, Y )σ X σ Y Für unabhängige ZG gilt jedoch: E(XY )=EXEY, D 2 (a 1 X +a 2 Y )=a 2 1D 2 X +a 2 2D 2 Y

80 Summen identisch verteilter unabhängiger ZG X 1,.., X n identisch verteilte ZG, unabhängig (wichtig für Statistik), mit EX i = µ, D 2 X i = σ 2 < Z n = n i=1 X i. E(Z n ) = nex = nµ, D 2 Z n = nd 2 X = nσ 2 X n = Z n n E X n = µ, D 2 Xn = nσ2 n 2 Z n - Summe; Xn - statistischer Mittelwert. = σ2 n I.a. andere Verteilung; Sonderfall: X i (identisch, unabh.) normalverteilt Summe (Mittelwert) wieder normalverteilt X i N(µ, σ 2 ) X n N(µ, σ2 n )

81 Das schwache Gesetz der großen Zahlen Satz: Sei X 1, X 2,..., X n,.. eine Folge identisch verteilter unabhängiger ZG vom Typ X (i.i.d. - englisch: identically independently distributed) mit EX i = µ, D 2 X i = σ 2, i = 1,.., n,... Dann gilt für alle ε > 0 lim P ( X n µ ε) = 1, ( X stoch. n µ) n d.h., das statistische Mittel konvergiert im Sinn der Wkt. (stochastisch) gegen den (einheitlichen) Erwartungswert µ aller Zufallsgrößen der Folge. Anwendung: Konvergenz der relativen Häufigkeit H n (A) gegen P (A) = p für A Z

82 Satz (zentraler Grenzwertsatz von Lindeberg und Levy) {X 1, X 2,... } sei eine Folge unabhängiger Zufallsgrößen, die sämtlich dieselbe Verteilungsfunktion haben. Es sei E(X i ) = µ und V ar(x i ) = σ 2 > 0 (i = 1, 2,... ). Weiter sei Z n = n i=1 X i, X n = 1 n Z n. Dann gilt für jedes x ], [ lim P {Z n nµ n σ n oder dazu äquivalent < x} = 1 2π x e 1 2 ξ2 dξ = Φ(x) lim P { X n µ n σ < x} = 1 x n 2π e 1 2 ξ2 dξ = Φ(x). Interpret.: Ȳ n = X n µ n, P ( Ȳ n < x) = F n (x) Φ(x), x σ Die (standardisierte) ZG Ȳn ist asymptotisch N(0, 1)-verteilt(!)

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 18: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 18: Woche vom Übungsaufgaben 11. Übung SS 18: Woche vom 25. 6. 29. 6. 2016 Stochastik V: ZG; Momente von ZG; Zufallsvektoren Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 13: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 13: Woche vom Übungsaufgaben 11. Übung SS 13: Woche vom 24. 6. 13-28. 6. 2013 Stochastik V: ZG Momente von ZG; Grenzverteilungssätze Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom Übungsaufgaben 12. Übung SS 18: Woche vom 2. 7. 6. 7. 2018 Stochastik VI: Zufallsvektoren; Funktionen von ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 8. Übung WS 17/18: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 8. Übung WS 17/18: Woche vom Übungsaufgaben 8. Übung WS 17/18: Woche vom 27. 11. - 1. 12. 2017 Vektoranalysis: Differentialausdrücke in anderen Koordinaten 17.39, 17.43, 17.45 Skalare und Vektorfelder, grad, div, rot 19.1, 19.2 (a-d),

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 10. Übung SS 18: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 10. Übung SS 18: Woche vom Übungsaufgaben 10. Übung SS 18: Woche vom 18. 6. 22. 6. 2016 Stochastik IV: ZG (diskret + stetig); Momente von ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 7. Übung SS 16: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 7. Übung SS 16: Woche vom Übungsaufgaben 7. Übung SS 16: Woche vom 23. 5. 27. 5.. 2016 Stochastik I: Klassische Wkt.-Berechnung Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/... (SS16).html

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 9. Übung SS 18: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 9. Übung SS 18: Woche vom Übungsaufgaben 9. Übung SS 18: Woche vom 11. 6. 15. 6. 2018 Stochastik III: Totale Wkt., S.v.Bayes, Diskrete ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 9. Übung SS 16: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 9. Übung SS 16: Woche vom Übungsaufgaben 9. Übung SS 16: Woche vom 5. 6. 10. 6. 2016 Stochastik III: Totale Wkt., S.v.Bayes, Diskrete ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 8. Übung SS 16: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 8. Übung SS 16: Woche vom Übungsaufgaben 8. Übung SS 16: Woche vom 30. 5. 3.6. 2016 Stochastik II: Klassische Wkt.-Berechnung; Unabhängigkeit Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

Mathematik III für das Verkehrsingenieurwesen. Karsten Eppler Technische Universität Dresden Institut für Numerische Mathematik

Mathematik III für das Verkehrsingenieurwesen. Karsten Eppler Technische Universität Dresden Institut für Numerische Mathematik Mathematik III für das Verkehrsingenieurwesen Karsten Eppler Technische Universität Dresden Institut für Numerische Mathematik karsten.eppler@tu-dresden.de www.math.tu-dresden.de/ eppler Vorlesungsassistent:

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

K. Eppler, Inst. f. Num. Mathematik Abschlußklausur

K. Eppler, Inst. f. Num. Mathematik Abschlußklausur Abschlußklausur Termin Klausur Mathematik III f. MW: M0., 6.08. 2018, Beginn 8.00 (7.50) Uhr, Zugelassene Hilfsmittel: Eine Formelsammlung lt. Liste (s. homepage) und 2 Blatt Din A4 eigene Notizen Nicht

Mehr

1.5 Mehrdimensionale Verteilungen

1.5 Mehrdimensionale Verteilungen Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung WS 15/16: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung WS 15/16: Woche vom Übungsaufgaben 11. Übung WS 15/16: Woche vom 4. 1. - 8. 1. 2016 Integralsatz von Gauß 23.1, 23.3, 23.5 (a,g), 23.6 (a) Integralsatz von Stokes 23.7, 23.8 (a), 23.10 Zusatzaufgabe zu Gauß + Stokes in 2D

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik . Grundbegri e der Stochastik Raum der Ereignisse. Die einelementigen Teilmengen f!g heißen auch Elementarereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. A ist ein geeignetes System von Teilmengen

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 15. Jänner 2017 Evelina Erlacher Inhaltsverzeichnis 1 Mengen 2 2 Wahrscheinlichkeiten 3 3 Zufallsvariablen 5 3.1 Diskrete Zufallsvariablen............................

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Berechnung von Wahrscheinlichk.

Berechnung von Wahrscheinlichk. Berechnung von Wahrscheinlichk. a) Statistische (empirische) Methode - über relative Häufigkeit (s. Statistik) Exotische Anwendung : Identifikation nichtidealer Roulette-Tische in Spielcasinos b) Falls:

Mehr

Grundzüge der Vektoranalysis

Grundzüge der Vektoranalysis KAPITEL 7 Grundzüge der Vektoranalysis 7. Satz von Green................................... 2 7.2 Satz von Stokes................................... 22 7.2. Zirkulation und Wirbelstärke..........................

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Höhere Mathematik für Ingenieure 2

Höhere Mathematik für Ingenieure 2 Höhere Mathematik für Ingenieure 2 Prof. Dr. Swanhild Bernstein Sommersemester 218 Institut für Angewandte Analysis Kurven- und Parameterintegrale Parameterintegrale Typische Beispiele für Parameterintegrale

Mehr

Inhaltsverzeichnis. Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: Autor: René Pecher

Inhaltsverzeichnis. Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: Autor: René Pecher Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: 24.01.2011 Autor: René Pecher Inhaltsverzeichnis 1 Permutation 1 1.1 ohne Wiederholungen........................... 1 1.2

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt. . Grundbegri e Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. ist auch das sichere Ereignis,

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Mathematik II für Chemie und LA Chemie. Karsten Eppler Technische Universität Dresden Institut für Numerische Mathematik

Mathematik II für Chemie und LA Chemie. Karsten Eppler Technische Universität Dresden Institut für Numerische Mathematik Mathematik II für Chemie und LA Chemie Karsten Eppler Technische Universität Dresden Institut für Numerische Mathematik karsten.eppler@tu-dresden.de www.math.tu-dresden.de/ eppler Vorlesungsassistent:

Mehr

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II Statistik II 1. Ergänzungen zur Wahrscheinlichkeitstheorie Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 1. Ergänzungen zur

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Statistik für Ingenieure Vorlesung 3

Statistik für Ingenieure Vorlesung 3 Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind

Mehr

Stochastik Wiederholung von Teil 1

Stochastik Wiederholung von Teil 1 Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,

Mehr

Einführung in die angewandte Stochastik

Einführung in die angewandte Stochastik Einführung in die angewandte Stochastik Fabian Meyer 5. April 2018 Inhaltsverzeichnis 1 Wahrscheinlichkeitsrechnung 3 1.1 Definitionen................................... 3 1.2 Wahrscheinlichkeitsmaß, Wahrscheinlichkeitsverteilung,

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 20. April 2017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 18.

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

Statistik für Ingenieure Vorlesung 5

Statistik für Ingenieure Vorlesung 5 Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:

Mehr

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung 4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 14. Übung SS 18: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 14. Übung SS 18: Woche vom Übungsaufgaben 14. Übung SS 18: Woche vom 16. 7. 20. 7. 2018 Stochastik VIII: Statistik; Konf.-interv.; Tests Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer« Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«Werner Linde WS 2008/09 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 2 1.1 Wahrscheinlichkeitsräume...........................

Mehr

Teil 8. Vektoranalysis

Teil 8. Vektoranalysis Teil 8 Vektoranalysis 5 6 8. kalar- und Vektorfelder kalarfeld alternative chreibweisen: U = U(x, y, z) = U( r) R 3 P U(P ) R Visualisierung durch Niveaumengen oder Einschränkungen auf achsenparallele

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Der allgemeine Satz von Stokes...

Der allgemeine Satz von Stokes... Der allgemeine Satz von Stokes...... in der Sprache der Differentialformen. dω Differentialformen... sind - vereinfacht gesagt - orientierte Differentiale. k-form im R n a i1,...,i k (x) dx i1... dx ik,

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge

Mehr

4.2 Moment und Varianz

4.2 Moment und Varianz 4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

Lösungen zu den Übungsaufgaben (zur Vorbereitung auf die Klausur am )

Lösungen zu den Übungsaufgaben (zur Vorbereitung auf die Klausur am ) Dr. Moritz Diehl Dr. Torsten Fischer Ileana Borja Tecuatl, Gerrit Schultz Interdisziplinäres Zentrum für Wissenschaftliches Rechnen (IWR) Zentrum für Molekulare Biologie (ZMBH) Mathematik B für die Molekulare

Mehr

5 Zufallsvariablen, Grundbegriffe

5 Zufallsvariablen, Grundbegriffe II. Zufallsvariablen 5 Zufallsvariablen, Grundbegriffe Def. 12 Es seien (Ω 1, E 1,P 1 ) und (Ω 2, E 2,P 2 ) Wahrscheinlichkeitsräume. Eine Abbildung X : Ω 1 Ω 2 heißt E 1 E 2 meßbar, falls für alle Ereignisse

Mehr

Stochastik für Ingenieure

Stochastik für Ingenieure Otto-von-Guericke-Universität Magdeburg Fakultät für Mathematik Institut für Mathematische Stochastik Stochastik für Ingenieure (Vorlesungsmanuskript) von apl.prof. Dr. Waltraud Kahle Empfehlenswerte Bücher:

Mehr

Institut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER

Institut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER Institut für Statistik der LMU FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER 2003 2003 Inhaltsverzeichnis 1 Elementare Wahrscheinlichkeitsrechnung 1 1.1 Die Axiome von Kolmogorov...........................

Mehr

Wiederholung Analysis

Wiederholung Analysis Wiederholung Analysis F( x) sei Stammfunktion zu f( x) f( x) dx = F( x) F ( x) = f( x) Bestimmtes Integral b a f ( x) dx = F( b) F( a) Uneigentliche Integrale x x x f() t 0 F( x) = f() t dt ist monoton

Mehr

Mathematik für Sicherheitsingenieure I B

Mathematik für Sicherheitsingenieure I B Priv.-Doz. Dr. J. Ruppenthal Wuppertal, 3.3.8 Dr. T. Pawlaschyk Mathematik für Sicherheitsingenieure I B Aufgabe. (5+8+7 Punkte a Geben Sie für jede der folgenden Aussagen an, ob sie WAHR oder FALSCH ist.

Mehr

MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHEMIE UND LEBENSMITTELCHEMIE

MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHEMIE UND LEBENSMITTELCHEMIE Mathematik und Naturwissenschaften Fachrichtung Mathematik, Institut für Numerische Mathematik MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHEMIE UND LEBENSMITTELCHEMIE Integralrechnung für Funktionen mehrerer Variablen

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

1 Definition und Konstruktion vektorwertiger Funktionen und Funktionen mehrerer Variabler

1 Definition und Konstruktion vektorwertiger Funktionen und Funktionen mehrerer Variabler Zusammenfassung Kapitel IV: Funktionen mehrerer Veränderlicher und vektorwertige Funktionen 1 Definition und Konstruktion vektorwertiger Funktionen und Funktionen mehrerer Variabler Definition vektorwertige

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis Stochastische Prozesse: Grundlegende Begriffe bei zufälligen Prozessen In diesem Abschnitt beschäftigen wir uns mit den grundlegenden Begriffen und Definitionen von Zufallsexperimenten, also Prozessen,

Mehr

Sind f X bzw. f Y die wie auf Folie 242 definierten Dichtefunktionen zur N(µ X, σx 2 )- bzw. N(µ Y, σy 2 )-Verteilung, so gilt (genau) im Fall ρ = 0

Sind f X bzw. f Y die wie auf Folie 242 definierten Dichtefunktionen zur N(µ X, σx 2 )- bzw. N(µ Y, σy 2 )-Verteilung, so gilt (genau) im Fall ρ = 0 Beispiel: Zweidimensionale Normalverteilung I Beispiel: Zweidimensionale Normalverteilung II Wichtige mehrdimensionale stetige Verteilung: mehrdimensionale multivariate Normalverteilung Spezifikation am

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert

Mehr

Wahrscheinlichkeitsräume und Zufallsvariablen

Wahrscheinlichkeitsräume und Zufallsvariablen Kapitel Wahrscheinlichkeitsräume und Zufallsvariablen. W-Raum Unter einem Zufallsexperiment verstehen wir einen vom Zufall beeinflussten Vorgang, der ein entsprechend zufälliges Ergebnis hervorbringt.

Mehr

Wahrscheinlichkeitsrechnung. Sommersemester Kurzskript

Wahrscheinlichkeitsrechnung. Sommersemester Kurzskript Wahrscheinlichkeitsrechnung Sommersemester 2008 Kurzskript Version 1.0 S. Döhler 1. Juli 2008 In diesem Kurzskript sind Begriffe und Ergebnisse aus der Lehrveranstaltung zusammengestellt. Außerdem enthält

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Analysis II für Ingenieure Übersicht: Integration. 1 Kurvenintegral über ein Skalarfeld

Analysis II für Ingenieure Übersicht: Integration. 1 Kurvenintegral über ein Skalarfeld Analysis II für Ingenieure Übersicht: Integration 1 Kurvenintegral über ein Skalarfeld 1.1 erechnung c f ds = b a f ( c(t) ) c(t) dt 1. Kurve c parametrisieren: c : [a, b] R n, t c(t). 2. c(t) und dann

Mehr

Statistik I für Betriebswirte Vorlesung 2

Statistik I für Betriebswirte Vorlesung 2 Statistik I für Betriebswirte Vorlesung 2 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. April 2018 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 2 Version: 9. April

Mehr

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Die Gamma-Verteilung 13.12.212 Diese Verteilung dient häufig zur Modellierung der Lebensdauer von langlebigen Industriegüstern. Die Dichte

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

5 Der Gaußsche und Stokes sche Integralsatz

5 Der Gaußsche und Stokes sche Integralsatz HM III = MATH III FT 2013 50 5 Der Gaußsche und Stokes sche Integralsatz Der Gaußsche Integralsatz umgangssprachlich am eispiel strömender Flüssigkeiten: Die Flüssigkeitsmenge, die durch die Oberfläche

Mehr

Ordnen Sie die Bilder den zugehörigen Funktionen z = f(x, y) zu:

Ordnen Sie die Bilder den zugehörigen Funktionen z = f(x, y) zu: 6. Februar 2012 Lösungshinweise Theorieteil Aufgabe 1: Die folgenden Bilder zeigen drei Niveaumengen N 0 {(x, y) R 2 : f(x, y) 0}: Ordnen Sie die Bilder den zugehörigen Funktionen z f(x, y) zu: (a) z (x

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

15. Bereichsintegrale

15. Bereichsintegrale H.J. Oberle Analysis III WS 212/13 15. Bereichsintegrale 15.1 Integrale über uadern Ziel ist die Berechnung des Volumens unterhalb des Graphen einer Funktion f : R n D R, genauer zwischen dem Graphen von

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis Vorbemerkungen 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 6 5 Hilfsmittel aus der Kombinatorik 7 6 Bedingte

Mehr

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

3. STOCHASTISCHE PROZESSE 73

3. STOCHASTISCHE PROZESSE 73 3. STOCHASTISCHE PROZESSE 73 3. Stochastische Prozesse 3.1. Grundlegende Begriffe bei zufälligen Prozessen. In diesem Abschnitt beschäftigen wir uns mit den grundlegenden Begriffen und Definitionen von

Mehr

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y] Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)

Mehr

1 Multivariate Zufallsvariablen

1 Multivariate Zufallsvariablen 1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Parametrisierung und Integralsätze

Parametrisierung und Integralsätze Parametrisierung und Integralsätze 2. März 2 Integration in der Ebene. Defintion: eien w,..., w n stückweise reguläre, einfach geschlossene Kurven in R 2, seien W,..., W n die von diesen Wegen umschlossene

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Beispiel 7.5.1: Es werden drei ideale Münzen geworfen, und der Gewinn sei X := Anzahl von W. In Beispiel 7.4.1 hatten wir dazu eine Wahrscheinlichkeitverteilung ermittelt: X

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Prüfungsklausur Höhere Mathematik II (20. Juli 2005) - Lösungen zum Theorieteil - für MB, EC, TeM, FWK, KGB, BGi, WiW, GtB, Ma, WWT, ESM

Prüfungsklausur Höhere Mathematik II (20. Juli 2005) - Lösungen zum Theorieteil - für MB, EC, TeM, FWK, KGB, BGi, WiW, GtB, Ma, WWT, ESM Prüfungsklausur Höhere Mathematik II (2. Juli 25) für MB, EC, TeM, FWK, KGB, BGi, WiW, GtB, Ma, WWT, ESM - Lösungen zum Theorieteil - Aufgabe : Sei f(x, y) eine in einem Gebiet zweimal stetig differenzierbare

Mehr

Kapitel 12 Erwartungswert und Varianz

Kapitel 12 Erwartungswert und Varianz Kapitel 12 Erwartungswert und Varianz Vorlesung Wahrscheinlichkeitsrechnung I vom 4/10. Juni 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 12.1 Der Erwartungswert Der Erwartungswert einer Zufallsvariablen

Mehr