Gegenbeispiele in der Wahrscheinlichkeitstheorie

Ähnliche Dokumente
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Unabhängige Zufallsvariablen

Reelle Zufallsvariablen

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

Mathematik für Biologen

Biostatistik, Winter 2011/12

4. Verteilungen von Funktionen von Zufallsvariablen

7.2 Moment und Varianz

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen

9 Die Normalverteilung

Normalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt.

7.5 Erwartungswert, Varianz

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

10 Transformation von Zufallsvariablen

Stetige Standardverteilungen

8. Stetige Zufallsvariablen

Charakteristische Funktionen

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

Wahrscheinlichkeitsrechnung und Statistik

Spezielle stetige Verteilungen

Multivariate Verteilungen

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

70 Wichtige kontinuierliche Verteilungen

5. Spezielle stetige Verteilungen

1 Multivariate Zufallsvariablen

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

5 Erwartungswerte, Varianzen und Kovarianzen

2 Zufallsvariable, Verteilungen, Erwartungswert

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Wichtige Definitionen und Aussagen

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Schwache Konvergenz von Wahrscheinlichkeitsmaßen

Beispiel 6 (Multivariate Normalverteilung)

Wahrscheinlichkeit und Statistik: Zusammenfassung

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:

Varianz und Kovarianz

Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Vorlesung 7b. Unabhängigkeit bei Dichten. und die mehrdimensionale Standardnormalverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

Die Varianz (Streuung) Definition

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Stochastik. 1. Wahrscheinlichkeitsräume

Zusatzmaterial zur Vorlesung Statistik II

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009

Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Chi-Quadrat-Verteilung

Seminar stabile Zufallsprozesse

Einführung und Grundlagen

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

Klausur zur Vorlesung Stochastik II

Mathematische Statistik Aufgaben zum Üben. Schätzer

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler

Multivariate Zufallsvariablen

7.5 Erwartungswert, Varianz

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),

Erwartungswert und Varianz von Zufallsvariablen

1. Wahrscheinlichkeitsverteilungen und Versicherungsanwendungen 1.1 Wichtige diskrete Verteilungen a. Poisson-Verteilung.

f(x 0 ) = lim f(b k ) 0 0 ) = 0

VERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN

Übungsblatt 11 zur Vorlesung Statistische Methoden - freiwilliger Teil

Stetige Verteilungen Rechteckverteilung

1.5.4 Quantile und Modi

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

2 Stationarität. Strikte Stationarität

1.3 Wiederholung der Konvergenzkonzepte

2.1 Gemeinsame-, Rand- und bedingte Verteilungen

Asymptotische Stochastik (SS 2010)

Copula Funktionen. Eine Einführung. Nils Friewald

Stochastische Prozesse

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion

Statistik für Informatiker, SS Verteilungen mit Dichte

Fachbereich Mathematik/Informatik 16. Juni 2012 Prof. Dr. H. Brenner. Mathematik für Anwender II. Testklausur mit Lösungen

Zufallsvariablen. f(x) dx = 1. Die stetige Zufallsvariable X wird also durch seine Dichtefunktion beschrieben. P(c < X < d) =

Finanzmathematische Modelle und Simulation

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI

1.4 Stichproben aus einer Normalverteilung

5. Stichproben und Statistiken

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze

Kapitel 2 Wahrscheinlichkeitsrechnung

12 Gewöhnliche Differentialgleichungen

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

Musterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60

Höhere Mathematik I für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie Lösungsvorschläge zum 13. Übungsblatt

2 Multivariate Normalverteilung

Lineare Differentialgleichungen höherer Ordnung

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Mathematische Ökonometrie

Lösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015

3 Lineare Differentialgleichungen

Grundlagen der Wahrscheinlichkeitstheorie

Lineare Algebra II 8. Übungsblatt

Transkript:

Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38

Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition Kriterien Gegenbeispiele 2 / 38

Definition der Normalverteilung Eine absolutstetige Zufallsvariable X heißt normalverteilt mit Parametern µ R und σ 2 >, wenn sie folgende Dichte besitzt: f X (x) = 1 2πσ e (x µ)2 2σ 2, x R. Notation: X N(µ, σ 2 ) Spezialfall Ist X N(, 1), so heißt X standardnormalverteilt. Ihre Dichte lautet dann: ϕ(x) := 1 2π e x2 2, x R. 3 / 38

Eigenschaften für X N(µ, σ 2 ) E X = µ Var X = σ 2 ϕ X (t) = e iµt 1 2 σ2 t 2, t R. (Char. Funktion) Für µ = gilt: α 2n+1 := E X 2n+1 = (ungerade Momente) α 2n := E X 2n = σ 2n (2n 1)!! (gerade Momente) 4 / 38

2-dimensionaler Fall Sei X = (X 1, X 2 ) ein 2-dim. Zufallsvektor, µ R 2 und C eine symmetrisch positiv definite (2x2)-Matrix. X ist bivariat normalverteilt mit Parametern µ und C (Notation: X N(µ, C)), falls er absolutstetig verteilt ist mit der Dichte f X (x) = 1 2π det(c) e 1 2 (x µ)t C 1 (x µ), x R 2. Eine äquivalente Variante lautet: Der Zufallsvektor X = (X 1, X 2 ) ist bivariat normalverteilt mit Parametern µ R 2 und einer s.p.d. (2x2)-Matrix C, falls a R 2 die Zufallsvariable (a, X) = a T X N(a T µ, a T Ca) 1-dim. normalverteilt ist. 5 / 38

Eigenschaften im 2-dim. Fall E X 1 = µ 1 E X 2 = µ 2 C ist die Kovarianzmatrix von X Var X 1 = σ 1 2 Var X 2 = σ 2 2 6 / 38

Beispiel 1.1 Es gilt: (X,Y) ist bivariat normalverteilt X und Y sind jeweils normalverteilt. Die Gegenrichtung gilt jedoch nicht! Ein Beispiel zeigt, dass es nicht-normalverteilte bivariate Verteilungen gibt, deren Randverteilungen jedoch normalverteilt sind. 7 / 38

Beispiel 1.1 (Fortsetzung) Betrachten wir dazu folgende bivariate Dichte eines Zufallsvektors (X,Y): f (X,Y ) (x, y) = (2π 3) 1 (e 2 3 (x 2 +xy+y 2) + e 2 3 (x 2 xy+y 2) ) mit (x, y) R 2. Offensichtlich ist (X,Y) nicht bivariat normalverteilt. Das Berechnen der Randverteilungen von X und Y liefert jedoch X N(, 1), Y N(, 1). 8 / 38

Beispiel 1.2 Die Beziehung zwischen Unkorreliertheit und Unabhängigkeit Wir wissen: 2 ZV X und Y unabhängig Cov (X, Y ) =. Gilt hier auch die Gegenrichtung? Antwort: Nein, nur wenn (X,Y) ein bivariat normalverteilter Zufallsvektor ist. Betrachten wir nun folgende zwei Beispiele: 9 / 38

Beispiel 1.2.1 Betrachten wir wiederum die Dichte f (X,Y ) (x, y) = (2π 3) 1 (e 2 3 (x 2 +xy+y 2) + e 2 3 (x 2 xy+y 2) ). Wie eben gezeigt, gilt sind X und Y jeweils standardnormalverteilt. Also gilt E X = E Y =. Man kann zeigen, dass E (XY ) = und daher gilt Cov (X, Y ) = E (XY ) E X E Y =. Da aber f (X,Y ) (x, y) ϕ(x) ϕ(y), sind X und Y abhängig. 1 / 38

Beispiel 1.2.2 Seien X = Y 1 + iy 2 und Z = Y 3 + iy 4, wobei (Y 1, Y 2, Y 3, Y 4 ) ein 4-dim. normalverteilter Zufallsvektor ist. 1 1 1 1 Seien E Y k = k und C = 1 1 1 1 die Kovarianzmatrix. Man kann zeigen, dass X und Z unkorreliert sind. Dennoch sind sie nicht unabhängig. Wenn sie unabhängig wären, so wären auch Y 1 = Re(X) und Y 4 = Im(Z) unabhängig (WR), und somit unkorreliert. Da aber E (Y 1 Y 4 ) = 1, sind Y 1 und Y 4 abhängig, daher auch X und Z (Umkehrschluss von oben). 11 / 38

Beispiel 1.3 Es gibt folgenden kuriosen Fall: (X,Y) ist nicht bivariat normalverteilt, obwohl X, Y, X + Y, X Y jeweils normalverteilt sind, sowie X und Y unkorreliert. Betrachten wir dazu folgende Funktion: f (x, y) = 1 2π e,5(x 2 +y 2) (1 + xy(x 2 y 2 )e,5(x 2 +y 2 +2ɛ) ) mit (x, y) R 2 und ɛ > so, dass xy(x 2 y 2 )e,5(x 2 +y 2 +2ɛ) 1 (damit f (x, y) (x, y) R 2 ). 12 / 38

Beispiel 1.3 (Fortsetzung) Diese Funktion hat folgende Fourrier-Transformation φ : φ(s, t) = R R e(isx+ity) f (x, y) dydx =... = = e,5(s2 +t 2) + 1 32 st(s2 t 2 )e ɛ,25(s2 +t 2), mit (s, t) R 2. 13 / 38

Beispiel 1.3 (Fortsetzung) φ(s, t) = e,5(s2 +t 2) + 1 32 st(s2 t 2 )e ɛ,25(s2 +t 2 ) Man kann folgern, dass 1) φ(, ) = e = 1 = R R f (x, y) dydx. f ist die bivariate Dichte eines Zufallsvektors (X,Y). 2) φ(, t) = e t2 2 und φ(s, ) = e s2 2 (Fubini!) X und Y sind beide standardnormalverteilt. 3) φ(t, t) = e t2, also ist X + Y N(, 2). 14 / 38

Beispiel 1.3 (Fortsetzung) φ(s, t) = e,5(s2 +t 2) + 1 32 st(s2 t 2 )e ɛ,25(s2 +t 2 ) 4) Wegen der Symmetrie der Standardnormalverteilung ist auch X Y N(, 2). 5) Man kann zeigen, dass E (XY ) =, X und Y sind also unkorreliert. Fazit: Der Zufallsvektor (X,Y), der durch f(x,y) definiert wird, ist also trotz der erfüllten Eigenschaften 2) bis 5) nicht bivariat normalverteilt. 15 / 38

Beispiel 1.4 Aus der Statistik ist bekannt, dass für X i N(, σ i 2 ); i = 1,..., n gilt: E (X i X j X k X l ) = c ij c kl + c ik c jl + c il c jk, i,j,k,l = 1,...,n mit c ij = Cov (X i, X j ) = E (X i X j ). Gilt dies ausschließlich für normalverteilte Zufallsvariablen? 16 / 38

Beispiel 1.4 (Fortsetzung) Betrachten wir eine Folge Y 1, Y 2,... von diskreten, unabhängig identisch verteilten Zufallsvariablen mit folgender Verteilung: P (Y 1 = 3) = 1 6 P (Y 1 = 3) = 1 6 P (Y 1 = ) = 2 3 17 / 38

Beispiel 1.4 (Fortsetzung) Die Berechnung diverser Kombinationen der Indizes ergibt: E (X i X j X k X l ) = c ij c kl + c ik c jl + c il c jk für beliebige i, j, k, l N. (auch Überschneidungen von Indizes) Dieses Ergebnis ist kurios, da diese Folge von Zufallsvariablen rein gar nichts mit der Normalverteilung zu tun hat. 18 / 38

Das Momentenproblem Sei {a, a 1, a 2,...} eine Folge reeller Zahlen, B R ein festes Intervall und F (x) eine Verteilungsfunktion, x B sodass a n = E (X n ) = B x n df (x); n=,1,2,... (wobei a = 1). Wird F durch {a n } eindeutig festgelegt, so nennen wir das Momentenproblem (MP) bestimmt, ansonsten unbestimmt. Falls B = [, ), sprechen wir von einem Stieltjes-MP, falls B = R, von einem Hamburger-MP. 19 / 38

Kriterien Es gibt einige hinreichende Bedingungen, um sicherzustellen, ob das MP bestimmt oder unbestimmt ist. Dies sind u.a. folgende Kriterien: Kriterium 1: Die momenterzeugende Funktion M X (t) = E (e tx ) existiert für t < t, t >. 2 / 38

Kriterien (Fortsetzung) Kriterium 2: Carleman-Bedingung Falls n=1 (a 2n ) 1 2n =, dann ist F eindeutig bestimmt durch {a n }. Ist X f.s., dann lautet die Bedingung n=1 a n 1 2n =. 21 / 38

Kriterien (Fortsetzung) Kriterium 3: Krein-Bedingung a) Sei F stetig mit Dichte f(x) >, x R. Falls ln f (x) R dx <, 1+x 2 so ist das MP unbestimmt. b) Sei F(x), x R + (d.h. F () = ) stetig mit Dichte f (x) >, x > (also f (x) =, x ). Falls ln f (x 2 ) 1+x 2 dx <, so ist das MP unbestimmt. 22 / 38

Übersicht Betrachten wir nun 3 Beispiele: 1) Das MP für Potenzen der Normalverteilung 2) Das MP für Potenzen der Exponentialverteilung 3) Das MP für eine weitere Familie von Verteilungen 23 / 38

Beispiel 2.1: Das MP für Potenzen der Normalverteilung Ist X eine Zufallsvariable mit X N(µ, σ 2 ), so ist die Verteilung von X, sowie von X 2 eindeutig bestimmt durch die zugehörige Momentenfolge, denn man kann zeigen, dass Kriterium 2 erfüllt ist. Für höhere Potenzen ist dies aber nicht der Fall. Betrachten wir z.b. X 3. Zwar existiert E (X 3 ) k k N, aber M(t) = E (e tx 3 ) existiert nur für t=. Also existiert die momenterzeugende Funktion nicht. Folglich kann man Kriterium 1 nicht anwenden. Daher prüfen wir nun Kriterium 3: 24 / 38

Beispiel 2.1: Das MP für Potenzen der Normalverteilung Betrachten wir hierfür den speziellen Fall X N(, 1 2 ), mit der zugehörigen Dichte f X (x) = 1 π e x 2, x R. Dann hat Y := X 3 die Dichte f Y (x) = 1 3 π x 2 3 e x 2 3, x R. Verwenden wir die Ergebnisse 1 1+x 2 dx = π 2, ln x 1+x 2 dx =, x b dx = π 1+x 2 2 cos( bπ 2 ), für b ( 1, 1), und setzen diese zusammen. Wir erhalten R Also ist das MP unbestimmt. ln f (x) 1+x 2 dx <. 25 / 38

Beispiel 2.1: Das MP für Potenzen der Normalverteilung Finden wir nun eine andere ( Zufallsvariable X ɛ, die die gleichen ) Momente wie Y = X 3 hat E (Xɛ k ) = E (Y k ) k = 1, 2,.... Betrachten wir dazu die Funktion ( [ f ɛ (x) = f Y (x) 1 + ɛ cos( 3 x 2 3 ) 3 sin( ]) 3 x 2 3 ), x R. 26 / 38

Beispiel 2.1: Das MP für Potenzen der Normalverteilung ( [ f ɛ (x) = f Y (x) 1 + ɛ cos( 3 x 2 3 ) 3 sin( ]) 3 x 2 3 ) g(x) := cos( 3 x 2 3 ) 3 sin( 3 x 2 3 ) Man kann zeigen, dass f ɛ (x) für ɛ [ 1 2, 1 2 ] die Dichte einer ZV X ɛ ist. Für ɛ gilt f ɛ f Y. Verwenden wir R x k f Y (x) g(x) dx = ; k=1,2,..., um zu zeigen, dass E X k ɛ = E Y k ; k=1,2,... Wir haben zwei verschiedene Verteilungen mit derselben Momentenfolge gefunden! 27 / 38

Beispiel 2.2: Das MP für Potenzen der Exponentialverteilung Sei X Exp(1). Dann gilt: f X (x) = e x 1 (, ) und a k = E X k = k! ; k=1,2,... Das MP ist bestimmt (prüfe z.b. Kriterium 1). Sei nun b > und Y := X b. Es gilt: f Y (x) = 1 b x ( 1/b) 1 e x 1 /b 1 (, ). Die Momente von Y sind E Y k = Γ(bk + 1); k=1,2,... 28 / 38

Beispiel 2.2: Das MP für Potenzen der Exponentialverteilung Beim Prüfen von Kriterium 3 ergibt sich, dass ln f Y (x 2 ) 1+x 2 dx <, wenn b > 2. Also ist Y = X b für b > 2 unbestimmt. Finden wir wiederum eine Verteilung mit den gleichen Momenten wie Y. 29 / 38

Beispiel 2.2: Das MP für Potenzen der Exponentialverteilung Für b > 2 betrachten wir folgende Funktion: ( [ ]) f ɛ (x) = f Y (x) 1 + ɛ cos(c b x 1 b ) 1 c b sin(c b x 1 b ), x >, c b := tan( π b ), ɛ sin( π b ). Sei g(x) := cos(c b x 1 b ) 1 c b sin(c b x 1 b ). Man kann zeigen, dass f ɛ (x) die Dichte einer ZV X ɛ ist. Die Gleichung x k f Y (x) g(x) dx = ; k=1,2,... liefert E X k ɛ = E Y k, k=1,2,..., obwohl f ɛ f Y (außer bei ɛ = ). 3 / 38

Beispiel 2.2: Zusatz Für b (, 2] kann man mithilfe der Gammafunktion zeigen, dass Kriterium 2 erfüllt ist. Also ist die Verteilung von Y = X b für < b 2 eindeutig bestimmt durch die zugehörige Momentenfolge. 31 / 38

Beispiel 2.3: Eine weitere Verteilung Betrachten wir noch eine weitere Familie von Verteilungen, die nicht eindeutig durch ihre Momentenfolge bestimmt wird. Dazu betrachten wir eine ZV X mit folgender Dichte: f X (x) = ce bx λ 1 (, ) mit b >, λ (, 1 2 ) und c als normierende Konstante. Für ɛ ( 1, 1) und s = b tan(λπ) definieren wir die Funktion ) f ɛ (x) = ce bx λ (1 + ɛ sin(sx λ ) 1 (, ). Es gilt f ɛ (x), x R. 32 / 38

Beispiel 2.3: Eine weitere Verteilung Verwenden wir die folgende Gleichung, um zunächst zu zeigen, dass f ɛ die Dichte einer ZV X ɛ ist und um danach zu zeigen, dass E Xɛ k = E Y k ; k=1,2,... x n e bx λ sin(sx λ ) dx =, n N. (Beweisidee später) 33 / 38

Beispiel 2.3: Eine weitere Verteilung x n e bx λ sin(sx λ ) dx = Setzen wir n= ein, und zeigen, dass f ɛ eine Dichte ist. f ɛ (x) dx = ce bx λ dx + cɛ e bx λ sin(sx λ ) dx = f ɛ ist eine Dichte. = f X (x) dx + cɛ = 1, 34 / 38

Beispiel 2.3: Eine weitere Verteilung x n e bx λ sin(sx λ ) dx = Zeigen wir nun, dass E X k ɛ = E X k ; k=1,2,... E X k ɛ = x k f ɛ (x) dx = = x k ce bx λ dx + cɛ x k e bx λ sin(sx λ ) dx = = E X k + = E X k ; k = 1, 2,... Da auch f ɛ f für ɛ gilt, haben wir also unendlich viele ZV X ɛ mit denselben Momenten wie X konstruiert, daher ist das MP hier unbestimmt. 35 / 38

Beispiel 2.3: Eine weitere Verteilung Nun noch die Beweisidee für die Gleichung x n e bx λ sin(sx λ ) dx =. Sei p > und q C mit Re q >. Dann gilt: t p 1 e qt dt = q p Γ(p) Für reelle q kann man dies leicht mit der Substitutionsregel zeigen. Anschließend kann man per Erweiterung auf die komplexe Ebene schließen, dass die Gleichung auch für komplexe q gilt (schreibe hierzu das Integral als Funktion in q). Man setzt nun p = n+1 λ, q = α + iβ und t = x λ ein und erhält: 36 / 38

Beispiel 2.3: Eine weitere Verteilung t p 1 e qt dt =... = = λ x n e αx λ cos(βx λ ) dx iλ x n e αx λ sin(βx λ ) dx = ( ) =... = Γ( n+1 λ ) α n+1 λ [1 + i tan(λπ) n+1 λ ]. Nun zeigt man, dass [1 + i tan(λπ) n+1 λ ] reellwertig ist, somit ist der gesamte letzte Teil der Gleichung reellwertig. Also muss x n e αx λ sin(βx λ ) dx = sein. 37 / 38

Vielen Dank für Ihre/Eure Aufmerksamkeit!!! 38 / 38