Verteilungen mehrerer Variablen
|
|
- Roland Gotthilf Graf
- vor 6 Jahren
- Abrufe
Transkript
1 Kapitel 3 Verteilungen mehrerer Variablen 3. Eigenschaften von Verteilungen mehrerer Variablen Im allgemeinen muss man Wahrscheinlichkeiten für mehrere Variable, die häufig auch voneinander abhängen, gleichzeitig betrachten. Beispiele: Wir hatten im letzten Kapitel bereits die Multinomial-Verteilung als Beispiel einer Verteilung, die von mehreren diskreten Variablen abhängt, kennengelernt. Die Dichte einer Ladungswolke um eine Glühkathode hat eine dreidimensionale Verteilung. Ein System von n Teilchen hat eine Wahrscheinlichkeitsdichte in dem 6n-dimensionalen Orts-Impulsraum (= Phasenraum). Zum Beispiel sind für ein ideales Gas die Ortskoordinaten gleichverteilt und die Impulsverteilung ist durch die Mawell-Verteilung mit der Temperatur als Parameter gegeben. 3.. Wahrscheinlichkeitsdichte, Verteilungsfunktion, Randverteilung Wir betrachten n Zufallsvariable, 2,..., n, die wir in einem n-tupel zusammenfassen. =(, 2,..., n ) T (3.) Wahrscheinlichkeitsdichte: Die Wahrscheinlichkeitsdichte f( ) liefert die differentielle Wahrscheinlichkeit an einem Punkt : dp( ) =f( )d d 2... d n (3.2) Die Normierung erfolgt über den n-dimensionalen Raum Ω in dem f definiert oder ungleich Null ist: f( )d d 2... d n = (3.3) Ω 33
2 34 KAPITEL 3. VERTEILUNGEN MEHRERER VARIABLEN 2 a) 2 b) 0 L H Abbildung 3.: Bedingte Wahrscheinlichkeiten: a) Definition einer Hyperebene durch = 0, b) Schnitt in der Variablen. Verteilungsfunktion: Die Verteilungsfunktion ergibt sich analog zum eindimensionalen Fall: F ( ) =... n f( ξ)dξ dξ 2... dξ n = (3.4) Umgekehrt lässt sich die Wahrscheinlichkeitsdichte aus der Verteilungsfunktion ableiten: f( ) = n 2... n F ( ). (3.5) Randverteilung: Die Randverteilung einer Variablen i ist die Projektion der Wahrscheinlichkeit auf die i-te Koordinate, das heisst man betrachtet die Verteilung von i gemittelt über alle anderen Variablen. Zum Beispiel ist die Randverteilung von : h ( )= + + d 2 d d n f( ) (3.6) Beispiel: Die Aufenthaltswahrscheinlichkeit des Elektrons in einem Wasserstoffatom wird in der Regel durch Kugelkoordinaten (r, θ, φ) angegeben. Wenn man nur an der radialen Abhängigkeit interessiert ist, erhält man die Randverteilung von r: ρ r (r) = + d cos θ 2π 0 dφ ρ(r, θ, φ) (3.7) 3..2 Bedingte Wahrscheinlichkeitsdichten, Selektionsschnitte Häufig möchte man Wahrscheinlichkeitsdichten betrachten unter der Bedingung, dass eine der Variablen einen bestimmten Wert hat, zum Beispiel = 0 (Abb. 3.a): f ( 2, 3,..., n = 0 )= f( = 0, 2,..., n ) h ( = 0 ) (3.8)
3 3.2. ERWARTUNGSWERTE 35 Das entspricht einer Umnormierung der Wahrscheinlichkeitsdichte auf eine n- dimensionale Hyperfläche, die durch = 0 festgelegt ist. Tatsächlich gibt man in der Prais meistens ein endliches Intervall L < < H vor und die Wahrscheinlichkeitsdichte für 2, 3,..., n muss auf diesen beschränkten n dimensionalen Unterraum umnormiert werden (Abb. 3.b): f ( 2, 3,..., n L < < H )= H L f(, 2,..., n )d H L h ( )d (3.9) Solche Einschränkungen von Variablenbereichen ist bei multi-dimensionalen Datensätzen ein Standardverfahren zur Bereinigung der Daten von Untergrund und zur Untersuchung von Abhängigkeiten der Variablen untereinander. Häufig versucht man Signale, die auf einem Untergrund sitzen, dadurch statistisch signifikanter zu machen, indem man Bereiche, die einen relativ hohen Untergrundbeitrag liefern wegschneidet (Selektionsschnitte). 3.2 Erwartungswerte Erwartungswert und Varianz einer Funktion: Der Erwartungswert einer Funktion g der Zufallsvariablen =(, 2,..., n ), die die Wahrscheinlichkeitsdichte f( ) haben, ist analog zum eindimensionalen Fall definiert: E (g( )) = g( ) = g( ) f( ) d d 2... d n (3.0) Ω Entsprechend ist die Varianz der Funktion g: V (g( ) =E ( (g( ) E(g( )) 2) = (g( ) g( ) ) 2 f( ) d d 2... d n (3.) Ω Momente: In Erweiterung der Definition für die Momente einer eindimensionalen Verteilung in Abschnitt.2.2 werden Momente einer mehrdimensionalen Verteilung als Erwartungswerte von Produkten von Potenzen der Zufallszahlen definiert:. Momente um den Ursprung: λ l l 2...l n = E ( ) l l ln n (3.2) 2. Zentrale Momente: μ l l 2...l n = E ( ( μ ) l ( 2 μ 2 ) l2... ( n μ n ) ln) (3.3) Dabei sind die niedrigsten Momente μ i die Mittelwerte der Zufallsvariablen i,dieden niedrigsten Momenten mit l i =,l k =0für k i entsprechen: μ i = i f( ) d d 2... d n (3.4) Ω
4 36 KAPITEL 3. VERTEILUNGEN MEHRERER VARIABLEN 3.3 Kovarianzmatri 3.3. Definition und Eigenschaften der Kovarianzmatri Die Momente mit l i = l j =; l k =0für k i, k j oder l i =2; l k =0für i = j und k i werden in einer sogenannten Kovarianzmatri V ij zusammengefasst: V ij = μ 0... }{{} i }{{} j = E (( i μ i )( j μ j )) (3.5) V ii = μ 0... }{{} = E ( ( i μ i ) 2) (3.6) i Die Kovarianzmatri hat folgende Eigenschaften:. Die Matri ist symmetrisch: V ij = V ji. (3.7) 2. Für i = j ergibt sich die Varianz von i : V ii = E ( ( i μ i ) 2) = E( 2 i ) (E( i )) 2 = σ 2 i 0. (3.8) 3. Die nicht-diagonalen Elemente, i j, sind die Kovarianzen: V ij = cov( i, j )=E (( i μ i )( j μ j )) = E( i j ) E( i ) E( j ) 0. (3.9) Beispiel: Multi-dimensionale Gaussverteilung Durch Verallgemeinerung der Varianz σ 2 auf die Kovarianzmatri wird eine mehrdimensionale Gauss- oder Normalverteilung definiert: f( ) = ( (2π)n det(v ) ep ) 2 ( μ)t V ( μ) (3.20) Bei zwei Variablen, 2 ist die Kovarianzmatri: ( σ V = 2 cov(, 2 ) cov(, 2 ) σ2 2 ) (3.2) Die inverse Kovarianzmatri ist: V = σ 2 σ2 2 cov(, 2 ) 2 ( σ2 2 cov(, 2 ) cov(, 2 ) σ 2 ) (3.22) Wenn die Kovarianzmatri und damit auch ihre inverse Matri diagonal wird, folgt für den Eponenten der Gauss-Verteilung (3.20): ( μ) T V ( μ) = ( i μ i ) 2 σ 2 i (3.23)
5 3.3. KOVARIANZMATRIX 37 Es treten also keine gemischten Terme i j mit i j auf. Deshalb lässt sich in diesem Fall die mehrdimensionale Gauss-Verteilung (3.20) in ein Produkt eindimensionaler Gauss-Verteilungen zerlegen: n n f( ) = f i ( i )= ep ( ( ) i μ i ) 2 (3.24) 2πσ 2 i 2 σi 2 Da V und V symmetrische, positiv definite Matrizen sind, lässt sich immer eine orthogonale Transformation i i finden, so dass V und V diagonal sind (Hauptachsentransformation): T V = T U UV U U (3.25) Für orthogonale Transformationen gilt U T = U. Die Transformation U wird so bestimmt, dass UV U diagonal ist. Um mehrdimensionale Gauss-Verteilungen auf dem Computer zu erzeugen, bestimmt man zunächst die Transformation U, diev diagonal macht. Die Diagonalelemente σ i 2 und die transformierten Mittelwerte μ i = U ij μ j sind die Parameter von n unabhängigen Gauss-Verteilungen. Entsprechend diesen Verteilungen erzeugt man nun n unabhängige gauss-verteilte Zufallszahlen i, die dann mittels i = U ij j = U ji j zurücktransformiert werden Kovarianzmatri unabhängiger Variabler Wenn die Zufallsvariablen i unabhängig sind, faktorisiert die Wahrscheinlichkeitsdichte: f( ) =f ( ) f 2 ( 2 )... f n ( n ) (3.26) Wie bei der Gauss-Verteilung (3.24) ist auch im allgemeinen Fall die Kovarianzmatri unabhängiger Variabler diagonal. Um die Kovarianzmatri auszurechnen, berechnen wir zunächst den Erwartungswert von i j : E( i j )= Damit ergibt sich: i f i ( i ) d i j f j ( j ) d j k i;k j f k ( k ) d k = E( i ) E( j ) (3.27) } {{ } = cov( i, j )=E (( i μ i )( j μ j )) = E( i j ) E( i ) E( j ) = 0 (3.28) Für unabhängige Variable verschwinden also die Kovarianzen: i, j unabhängig = cov( i, j ) = 0 (3.29) Die Umkehrung dieses Satzes gilt nicht unbedingt. Man sieht an (3.28), dass die Kovarianzen verschwinden, wenn sich die Terme ( i μ i )( j μ j ) im Mittel auslöschen. Das passiert genau dann, wenn die Vorzeichen der Abweichungen von den Mittelwerten voneinander unabhängig sind. Oder anders ausgedrückt: wenn die Verteilung der j um μ j unabhängig von i ist und umgekehrt. In diesem Fall kann es dann trotzdem noch eine Abhängigkeit von i und j geben, indem zum Beispiel die Breiten der Verteilungen in Abhängigkeit von den anderen Variablen variieren (Abb. 3.2b).
6 38 KAPITEL 3. VERTEILUNGEN MEHRERER VARIABLEN 2 a) ρ = 0 2 b) ρ = c) ρ > 0 2 d) ρ < e) ρ + 2 f) ρ Abbildung 3.2: Verteilungsformen mit unterschiedlichem Korrelationskoeffizienten ρ.
7 3.3. KOVARIANZMATRIX Korrelationen Wenn die Kovarianzen nicht verschwinden, nennt man die entsprechenden Variablen korreliert. Als Maß für die Stärke der Korrelation definiert man den Korrelationskoefizienten: ρ( i, j )= V ij = cov( i, j ) (3.30) Vii V jj σ i σ j Durch die Normierung auf die Standardabweichungen ergibt sich für den Wertebereich von ρ: ρ( i, j ) + (3.3) Je mehr der Korrelationskoeffizient von Null abweicht, umso besser kann man aus der Kenntnis einer Variablen die andere vorhersagen (Abb. 3.2): ρ( i, j ) + = i + j (positiv korreliert) ρ( i, j ) ±0 = i, j unabhängig (nicht korreliert) ρ( i, j ) = i j (negativ korreliert) (3.32) Beispiele:. Ein Teilchen, das wie Abb. 3.3 durch eine Materieschicht geht, wird unter einem Winkel θ gestreut und erfährt eine Ablage Δ. Streuwinkel und Ablage sind positiv korreliert Δ θ Abbildung 3.3: Streuung von Teilchen in einer Materieschicht, zum Beispiel α-teilchen in einer Goldfolie wie bei dem Rutherford-Eperiment. 2. Ein Anthropologe untersucht 5 Funde von Neanderthalerknochen. Er vergleicht die Längen der Oberarm- mit der der Oberschenkelknochen und möchte seinen naheliegenden Verdacht, dass beide korreliert sind, statistisch erhärten. Die vorliegenden Daten sind (l a, l b sind die Längen jeweils der Arm- und Beinknochen): Fund l a [mm] l b [mm] l a l b [mm 2 ] Mittel σ l
8 40 KAPITEL 3. VERTEILUNGEN MEHRERER VARIABLEN In der letzten Spalte ist das Produkt l a l b berechnet, dessen Mittelwert entsprechend Gleichung (3.9) gebraucht wird, um die Kovarianz zu bestimmen. Wenn wir (3.9) für unsere Stichprobe umschreiben, ergibt sich: cov(l a,l b )=E(l a l b ) E(l a ) E(l b )= [( 5 ) 5 li a lb i ( 5 5 li a ) ( 5 5 li b )] 5 5 (3.33) Der Faktor 5/4 korrigiert wie bei der Berechnung der Varianz einer Stichprobe darauf, dass bezüglich des Mittelwertes bereits die quadratischen Abweichungen minimiert werden. Einsetzen der Zahlen aus der Tabelle ergibt: cov(l a,l b ) = = ρ(l a,l b )= cov(la,l b ) σ a l σ b l =0.975 (3.34) Die Korrelation in der Größe der Arm- und Beinknochen ist also sehr hoch. 3.4 Lineare Funktionen von mehreren Zufallsvariablen In den folgenden Abschnitten werden Funktionen von mehreren Zufallsvariablen betrachtet. Wir interessieren uns insbesondere für die Berechnung einfacher Erwartungswerte dieser Funktionen, wie Mittelwerte und Varianzen. Die Berechnung der Varianz einer Funktion von Zufallsvariablen wird für die Fehlerfortplanzung von Messungen benutzt. Ein besonders einfacher Fall ist eine lineare Funktion von mehreren Variablen. Wir werden im folgenden häufig auch bei nicht-linearen Funktionen durch Linearisierung um einen Entwicklungspunkt die Ergebnisse für lineare Funktionen benutzen. Es sei g eine Funktion der n Zufallsvariablen =(,..., n ): g( ) = a i i (3.35) Erwartungswert: Der Erwartungswert der Funktion ist: E (g( )) = a i E ( i ) = }{{} =μ i a i μ i (3.36) Varianz: V (g( )) = E ((g( ) E (g( ))) 2 )=E ( ( i a i i i a i μ i ) 2) = E ( ( i a i ( i μ i )) 2) = i j a i a j E (( i μ i )( j μ j )) = i j a i a j V ij (3.37) Dabei ist V ij die Kovarianzmatri der Zufallsvariablen. Mit der Beziehung V ij = V ji lässt sich die Varianz von g durch die Varianzen und die Kovarianzen ausdrücken: V (g( )) = a 2 i σi 2 +2 n j=i+ a i a j V ij (3.38)
9 3.4. LINEARE FUNKTIONEN VON MEHREREN ZUFALLSVARIABLEN 4 Wenn die i unabhängig sind, ist V ij =0für i j und die Varianz von g ergibt sich nur aus den Varianzen der i : V (g( )) = a 2 i σi 2 (3.39) Beispiele:. Eine Stichprobe,..., n aus einer Verteilung mit dem Mittelwert μ und Varianz σ 2 kann man als einen Satz von n unabhängigen Zufallsvariablen interpretieren, die alle den gleichen Mittelwert μ i = μ und die gleiche Varianz σi 2 = σ 2 haben. Das arithmetische Mittel der i ist eine lineare Funktion der i : = n i (3.40) Der Erwartungswert des Mittelwertes ist dann: E ( ) = n E ( i )= nμ= μ (3.4) n Das heisst, das arithmetischen Mittel einer Stichprobe ist eine erwartungstreue Schätzung von μ. Die Varianz des arithmetischen Mittels ist (die Kovarianzen fallen weg, weil die i unabhängig sind): ( ) 2 V ( ) =σ 2 = ( ) 2 σi 2 n = nσ 2 = σ2 (3.42) n n i Damit hat man das bekannte Ergebnis, dass der Fehler des Mittelwertes von n Messungen um / n kleiner als der Fehler der Einzelmessung ist: σ = σ n (3.43) 2. Im allgemeinen hat die Varianz einer Funktion von zwei Zufallsvariablen, folgende Form: g(, y) =a+ by, (3.44) V (a+ by)=a 2 V }{{} + b 2 V yy +2ab V }{{} y = a 2 σ 2 + b 2 σy 2 +2ab σ }{{} σ y ρ(, y) (3.45) =σ 2 =σy 2 =cov(,y) Dabei kann der Korrelationskoeffizient ρ(, y) Werte von - bis + annehmen.
10 42 KAPITEL 3. VERTEILUNGEN MEHRERER VARIABLEN 3.5 Nicht-lineare Funktionen von Zufallsvariablen 3.5. Eine Funktion von einem Satz von Zufallsvariablen In diesem Abschnitt wollen wir allgemeine Funktionen g der Zufallsvariablen betrachten: g = g(,..., n ). (3.46) Um die Ergebnisse des vorigen Abschnitts benutzen zu können, linearisieren wir die Funktion in der Umgebung der Mittelwerte μ: g( ) =g( μ)+ ( i μ i ) i = μ +... (3.47) Erwartungswert: Der Erwartungswert der Funktion g ist in der linearen Näherung: E (g( )) = E (g( μ)) + = μ E ( i μ i ) = E (g( μ)) = g( μ) (3.48) }{{} i =0 Der Erwartungswert der Funktion g( ) ist also diese Funktion an der Stelle der Erwartungswerte von : E (g( )) = g( μ) (3.49) Varianz: V (g( )) = E ((g( ) E (g( ))) 2 )=E ( (g( ) g( μ)) 2) = E = i j j E (( i μ i )( j μ j )) = i j i i ( ( i ( i μ i ) i ) 2 ) j V ij (3.50) Das entspricht also genau dem Ergebnis (3.37), wenn man statt der Koeffizienten a i die partiellen Ableitungen / i einsetzt. In Matrischreibweise definiert man den Spaltenvektor: Damit ergibt sich für die Varianz: Zum Beispiel erhält man für n =2: ( σ 2 (g( )) = a =. n (3.5) V (g( )) = σ 2 (g( )) = a T V ( ) a (3.52) ) 2 ( ) 2 σ 2 + σ cov(, 2 ) (3.53) Das ist also die bekannte Formel, die auch für Fehlerfortpflanzung benutzt wird.
2.1 Gemeinsame-, Rand- und bedingte Verteilungen
Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
MehrStatistik, Datenanalyse und Simulation
Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 31. Mai 2011 4. Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
MehrEine zweidimensionale Stichprobe
Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,
MehrVorlesung 8a. Kovarianz und Korrelation
Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere
Mehr6.1 Definition der multivariaten Normalverteilung
Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
MehrKorrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:
Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise
MehrÜbung zu Empirische Ökonomie für Fortgeschrittene SS 2009
Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
MehrKonfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert
Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir
MehrProf. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006
Empirische Softwaretechnik Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 1 Experiment zur Vererbungstiefe Softwaretechnik: die Vererbungstiefe ist kein guter Schätzer für den Wartungsaufwand
MehrSeminar im Wintersemester 2010/2011: Quantitative und implementierte Methoden der Marktrisikobewertung
M.Sc. Brice Hakwa hakwa@uni-wuppertal.de Seminar im Wintersemester 2010/2011: Quantitative und implementierte Methoden der Marktrisikobewertung - Zusammenfassung zum Thema: Berechnung von Value-at-Risk
MehrLösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die
MehrÜ b u n g s b l a t t 13
Einführung in die Stochastik Sommersemester 06 Dr. Walter Oevel 5. 6. 006 Ü b u n g s b l a t t 3 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben
MehrCopula Funktionen. Eine Einführung. Nils Friewald
Copula Funktionen Eine Einführung Nils Friewald Institut für Managementwissenschaften Abteilung Finanzwirtschaft und Controlling Favoritenstraße 9-11, 1040 Wien friewald@imw.tuwien.ac.at 13. Juni 2005
MehrETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)
ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels
MehrStatistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de
rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent
MehrTaylorreihen. Kapitel 9. Lernziele. Taylorreihe. (x x 0 ) + f (x 0 ) 2! (x x 0 ) f (n) (x 0 ) (x x 0 ) n. Taylorreihe und MacLaurinreihe
Kapitel 9 Taylorreihen Josef Leydold c 2006 Mathematische Methoden IX Taylorreihen 1 / 25 Lernziele Taylorreihe und MacLaurinreihe Beispiele Alternative Schreibweisen Approimation der Veränderung einer
MehrK8 Stetige Zufallsvariablen Theorie und Praxis
K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R
MehrAnleitung: Standardabweichung
Anleitung: Standardabweichung So kann man mit dem V200 Erwartungswert und Varianz bzw. Standardabweichung bei Binomialverteilungen für bestimmte Werte von n, aber für allgemeines p nach der allgemeinen
MehrKapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
MehrMathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007
Mathematik IV für Maschinenbau und Informatik Stochastik Universität Rostock, Institut für Mathematik Sommersemester 007 Prof. Dr. F. Liese Dipl.-Math. M. Helwich Serie Termin: 9. Juni 007 Aufgabe 3 Punkte
MehrP (X = 2) = 1/36, P (X = 3) = 2/36,...
2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel
MehrKenngrößen von Zufallsvariablen
Kenngrößen von Zufallsvariablen Die Wahrscheinlichkeitsverteilung kann durch die sogenannten Kenngrößen beschrieben werden, sie charakterisieren sozusagen die Verteilung. Der Erwartungswert Der Erwartungswert
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 9. Dezember 2010 1 Konfidenzintervalle Idee Schätzung eines Konfidenzintervalls mit der 3-sigma-Regel Grundlagen
MehrMathematische Erfrischungen III - Vektoren und Matrizen
Signalverarbeitung und Musikalische Akustik - MuWi UHH WS 06/07 Mathematische Erfrischungen III - Vektoren und Matrizen Universität Hamburg Vektoren entstanden aus dem Wunsch, u.a. Bewegungen, Verschiebungen
Mehrf(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J}
9 Der Satz über implizite Funktionen 41 9 Der Satz über implizite Funktionen Wir haben bisher Funktionen g( von einer reellen Variablen immer durch Formelausdrücke g( dargestellt Der Zusammenhang zwischen
MehrScheinklausur Stochastik 1 für Studierende des Lehramts und der Diplom-Pädagogik
Universität Karlsruhe (TH) Institut für Stochastik Dr. Bernhard Klar Dipl.-Math. oec. Volker Baumstark Name Vorname Matr.-Nr.: Scheinklausur Stochastik für Studierende des Lehramts und der Diplom-Pädagogik
Mehrdie wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen
Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung
MehrI. Deskriptive Statistik 1
I. Deskriptive Statistik 1 1. Einführung 3 1.1. Grundgesamtheit und Stichprobe.................. 5 1.2. Merkmale und Verteilungen..................... 6 1.3. Tabellen und Grafiken........................
MehrMathematische und statistische Methoden II
Statistik & Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte
MehrZeitreihenökonometrie
Zeitreihenökonometrie Kapitel 8 Impuls-Antwort-Funktionen Interpretation eines VAR-Prozesses 2 Fall eines bivariaten Var(p)-Prozess mit 2 Variablen und ohne Konstante 1 1 p p 1,t α11 α 12 1,t-1 α11 α 12
Mehr5 Erwartungswerte, Varianzen und Kovarianzen
47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,
MehrSkalenniveaus =,!=, >, <, +, -
ZUSAMMENHANGSMAßE Skalenniveaus Nominalskala Ordinalskala Intervallskala Verhältnisskala =,!= =,!=, >, < =,!=, >, ,
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
MehrKlausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK
Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:
MehrKlausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1
Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester 2013 Aufgabe 1 In einer Urne
Mehr15.5 Stetige Zufallsvariablen
5.5 Stetige Zufallsvariablen Es gibt auch Zufallsvariable, bei denen jedes Elementarereignis die Wahrscheinlich keit hat. Beispiel: Lebensdauer eines radioaktiven Atoms Die Lebensdauer eines radioaktiven
Mehr6.3 Hauptachsentransformation
Im Wintersemester 6/7 wurde in der Vorlesung Höhere Mathematik für Ingenieurstudiengänge der folgende Algorithmus zur Hauptachsentransformation besprochen: 63 Hauptachsentransformation Die Matrizen, die
Mehr1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...
Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............
MehrTutorium Mathematik II, M Lösungen
Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +
Mehr(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge
ÜBUNGSBLATT 0 LÖSUNGEN MAT/MAT3 ANALYSIS II FRÜHJAHRSSEMESTER 0 PROF DR CAMILLO DE LELLIS Aufgabe Finden Sie für folgende Funktionen jene Punkte im Bildraum, in welchen sie sich lokal umkehren lassen,
MehrBrückenkurs Statistik für Wirtschaftswissenschaften
Peter von der Lippe Brückenkurs Statistik für Wirtschaftswissenschaften Weitere Übungsfragen UVK Verlagsgesellschaft mbh Konstanz Mit UVK/Lucius München UVK Verlagsgesellschaft mbh Konstanz und München
MehrInhaltsverzeichnis INHALTSVERZEICHNIS 1
INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Die Parabel 2 1.1 Definition................................ 2 1.2 Bemerkung............................... 3 1.3 Tangenten................................ 3 1.4
Mehrk np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr
Die so genannte Gütefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. Für unser hier entworfenes Testverfahren gilt ( ) k np g(n, p) = Pr p [T K] = Pr p
MehrKapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion
Kapitel 12 Stetige Zufallsvariablen 12.1. Dichtefunktion und Verteilungsfunktion stetig Verteilungsfunktion Trägermenge T, also die Menge der möglichen Realisationen, ist durch ein Intervall gegeben Häufig
Mehr3. Übungsblatt Aufgaben mit Lösungen
. Übungsblatt Aufgaben mit Lösungen Aufgabe : Gegeben sind zwei Teilmengen von R : E := {x R : x x = }, und F ist eine Ebene durch die Punkte A = ( ), B = ( ) und C = ( ). (a) Stellen Sie diese Mengen
MehrStatistik eindimensionaler Größen
Statistik eindimensionaler Größen Michael Spielmann Inhaltsverzeichnis 1 Aufgabe der eindimensionalen Statistik 2 2 Grundbegriffe 2 3 Aufbereiten der Stichprobe 3 4 Die Kennzahlen Mittelwert und Streuung,
MehrStochastik für die Naturwissenschaften
Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 5. Erwartungswert E und Varianz V Literatur Kapitel 5 * Storrer: (37.9)-(37.12), (38.4), (40.6)-(40.9), (41.2) * Stahel: Kapitel 5 und 6 (nur
Mehr9 Die Normalverteilung
9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,
MehrÜbungsblatt 9. f(x) = e x, für 0 x
Aufgabe 1: Übungsblatt 9 Basketball. Ein Profi wirft beim Training aus einer Entfernung von sieben Metern auf den Korb. Er trifft bei jedem Wurf mit einer Wahrscheinlichkeit von p = 1/2. Die Zufallsvariable
Mehr3 Korrelation und Regression
3 KORRELATION UND REGRESSION 3 Korrelation und Regression Sind zwei Zufallsvariable X und Y unabhängig, so gibt es keinerlei Wechselwirkung zwischen ihnen. Ist ein funktionaler Zusammenhang = f( zwischen
MehrÜbung 1: Wiederholung Wahrscheinlichkeitstheorie
Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable
Mehr1 Dichte- und Verteilungsfunktion
Tutorium Yannick Schrör Klausurvorbereitungsaufgaben Statistik Lösungen Yannick.Schroer@rub.de 9.2.26 ID /455 Dichte- und Verteilungsfunktion Ein tüchtiger Professor lässt jährlich 2 Bücher drucken. Die
MehrStatistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe
Kapitel 4 Statistische Tests 4.1 Grundbegriffe Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe X 1,..., X n. Wir wollen nun die Beobachtung der X 1,...,
MehrFehlerfortpflanzung. M. Schlup. 27. Mai 2011
Fehlerfortpflanzung M. Schlup 7. Mai 0 Wird eine nicht direkt messbare physikalische Grösse durch das Messen anderer Grössen ermittelt, so stellt sich die Frage, wie die Unsicherheitsschranke dieser nicht-messbaren
MehrStatistics, Data Analysis, and Simulation SS 2015
Mainz, May 12, 2015 Statistics, Data Analysis, and Simulation SS 2015 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Dr. Michael O. Distler
MehrWahrscheinlichkeitsrechnung und Quantentheorie
Physikalische Chemie II: Atombau und chemische Bindung Winter 2013/14 Wahrscheinlichkeitsrechnung und Quantentheorie Messergebnisse können in der Quantenmechanik ganz prinzipiell nur noch mit einer bestimmten
MehrBiometrie und Methodik (Statistik) - WiSem08/09 Probeklausur 1
Biometrie und Methodik (Statistik) - WiSem08/09 Probeklausur 1 Aufgabe 1 (10 Punkte). 10 Schüler der zehnten Klasse unterziehen sich zur Vorbereitung auf die Abschlussprüfung einem Mathematiktrainingsprogramm.
MehrFakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online
MehrSerie 10: Inverse Matrix und Determinante
D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die
MehrEinführung in die Fehlerrechnung und Messdatenauswertung
Grundpraktikum der Physik Einführung in die Fehlerrechnung und Messdatenauswertung Wolfgang Limmer Institut für Halbleiterphysik 1 Fehlerrechnung 1.1 Motivation Bei einem Experiment soll der Wert einer
Mehr8. Stetige Zufallsvariablen
8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse
MehrRegression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate
Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für
MehrI. Zahlen, Rechenregeln & Kombinatorik
XIV. Wiederholung Seite 1 I. Zahlen, Rechenregeln & Kombinatorik 1 Zahlentypen 2 Rechenregeln Brüche, Wurzeln & Potenzen, Logarithmen 3 Prozentrechnung 4 Kombinatorik Möglichkeiten, k Elemente anzuordnen
MehrStatistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind:
Statistik 2 für SoziologInnen Normalverteilung Univ.Prof. Dr. Marcus Hudec Statistik 2 für SoziologInnen 1 Normalverteilung Inhalte Themen dieses Kapitels sind: Das Konzept stetiger Zufallsvariablen Die
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
Mehr5.10. Mehrdimensionale Extrema und Sattelpunkte
5.1. Mehrdimensionale Extrema und Sattelpunkte Zur Erinnerung: Eine Funktion f von einer Teilmenge A des R n nach R hat im Punkt a ein (strenges) globales Maximum, falls f( x ) f( a ) (bzw. f( x ) < f(
MehrUnivariates Datenmaterial
Univariates Datenmaterial 1.6.1 Deskriptive Statistik Zufallstichprobe: Umfang n, d.h. Stichprobe von n Zufallsvariablen o Merkmal/Zufallsvariablen: Y = {Y 1, Y 2,..., Y n } o Realisationen/Daten: x =
MehrModul G.1 WS 07/08: Statistik
Modul G.1 WS 07/08: Statistik 10.01.2008 1 2 Test Anwendungen Der 2 Test ist eine Klasse von Verfahren für Nominaldaten, wobei die Verteilung der beobachteten Häufigkeiten auf zwei mehrfach gestufte Variablen
MehrKorrektur, Änderungen sowie Ergänzungen zu den Vorlesungsskripten: Statistik-I SS-2015
Korrektur, Änderungen sowie Ergänzungen zu den Vorlesungsskripten: Statistik-I SS-05!"!## x 8 0 8 0 8 0 0, 0, 3 0 0, 05 $ $ % 3, 75 $ Geben Sie für das vorige Beispiel. (Bsp. ) die Anteile der jeweiligen
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood
MehrÜbungen zur Stochastik, Blatt Nr. 1
Prof. Dr. A. Stoffel SS 202 Übungen zur Stochastik, Blatt Nr. ) Zwei Würfel werden gleichzeitig oder nacheinander geworfen. a) Schreiben Sie alle Elemente des Grundraums in Form einer Matrix auf. b) Wie
MehrSchätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO
Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO 4. Dezember 2001 Generalisierung der aus Stichprobendaten berechneten Regressionsgeraden Voraussetzungen für die Generalisierung
MehrÜbung zur Vorlesung: Geostatistik 1 Philipp, Mo. 15: Türcode: 1516
Übung zur Vorlesung: Geostatistik 1 Philipp, Mo. 15:45 3067 Türcode: 1516 Deskriptive Statistik Maße der Zentraltendenz Deskriptive Statistik Maße der Zentraltendenz arithmetischer Mittewert klassenorientierter
Mehr1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
MehrGrundlagen der Probabilistik
Grundlagen der Probabilistik Gliederung Einleitung Theoretische Grundlagen der Stochastik Probabilistische Methoden Mögliche Ergebnisse von probabilistischen Untersuchungen Mögliche Fehlerquellen bei probabilistischen
MehrStatistische Thermodynamik I Lösungen zur Serie 1
Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen
MehrDas Histogramm ist glockenförmig. Es würde bei mehr als vier Fehlerquellen sich der Glockenform noch besser annähern.
10. Stetige Zufallsvariable, Normalverteilung 55 Die in den folgenden Beispielen dargestellten Verteilungen haben ungefähr Glockenform. Sie können durch die sogenannte Normalverteilung oder Gaussverteilung
MehrEinführung in die Fehlerrechnung
1 Einführung in die Fehlerrechnung liederung 1. Motivation. Fehlerarten 1. robe Fehler. Systematische Fehler 3. Zufällige Fehler 3. Rechnerische Erfassung der Messabweichungen 1. Fehlerabschätzung einmaliges
Mehr1 Lambert-Beersches Gesetz
Physikalische Chemie II Lösung 6 23. Oktober 205 Lambert-Beersches Gesetz Anhand des idealen Gasgesetzes lässt sich die Teilchenkonzentration C wie folgt ausrechnen: C = N V = n N A V pv =nrt = N A p R
MehrMathematischer Vorkurs Lösungen zum Übungsblatt 5
Mathematischer Vorkurs Lösungen zum Übungsblatt 5 Prof. Dr. Norbert Pietralla/Sommersemester 2012 c.v.meister@skmail.ikp.physik.tu-darmstadt.de Aufgabe 1: Berechnen Sie den Abstand d der Punkte P 1 und
MehrAuswahl von Schätzfunktionen
Auswahl von Schätzfunktionen Worum geht es in diesem Modul? Überblick zur Punktschätzung Vorüberlegung zur Effizienz Vergleich unserer Schätzer für My unter Normalverteilung Relative Effizienz Einführung
MehrEuklidische und unitäre Vektorräume
Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein
MehrLösungen zu den Hausaufgaben zur Analysis II
Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin
Mehr4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung
4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt
MehrGemeinsame Wahrscheinlichkeitsverteilungen
Gemeinsame Wahrscheinlichkeitsverteilungen Worum geht es in diesem Modul? Gemeinsame Wahrscheinlichkeits-Funktion zweier Zufallsvariablen Randverteilungen Bedingte Verteilungen Unabhängigkeit von Zufallsvariablen
MehrWillkommen zur Vorlesung Statistik (Master)
Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Punkt- und Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr.
MehrInhaltsverzeichnis. Vorwort
V Vorwort XI 1 Zum Gebrauch dieses Buches 1 1.1 Einführung 1 1.2 Der Text in den Kapiteln 1 1.3 Was Sie bei auftretenden Problemen tun sollten 2 1.4 Wichtig zu wissen 3 1.5 Zahlenbeispiele im Text 3 1.6
Mehr9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T
9 Faktorenanalyse Ziel der Faktorenanalyse ist es, die Anzahl der Variablen auf wenige voneinander unabhängige Faktoren zu reduzieren und dabei möglichst viel an Information zu erhalten. Hier wird davon
MehrVorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:
MehrAllgemeines zu Tests. Statistische Hypothesentests
Statistische Hypothesentests Allgemeines zu Tests Allgemeines Tests in normalverteilten Grundgesamtheiten Asymptotische Tests Statistischer Test: Verfahren Entscheidungsregel), mit dem auf Basis einer
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
Mehr40 Lokale Extrema und Taylor-Formel
198 VI. Differentialrechnung in mehreren Veränderlichen 40 Lokale Extrema und Taylor-Formel Lernziele: Resultate: Satz von Taylor und Kriterien für lokale Extrema Methoden aus der linearen Algebra Kompetenzen:
MehrDefinition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion
Kapitel 2 Erwartungswert 2.1 Erwartungswert einer Zufallsvariablen Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion È ist definiert als Ü ÜÈ Üµ Für spätere
Mehr