1 Multivariate Zufallsvariablen
|
|
- Stanislaus Neumann
- vor 6 Jahren
- Abrufe
Transkript
1 1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale) Zufallsvariable X ist eine Funktion X : Ω R, d.h. eine Abbildung von Ω in die reellen Zahlen. X ordnet jedem Ergebnis ω Ω eine Zahl x R zu. Eine (multivariate oder mehrdimensionale) Zufallsvariable oder Zufallsvektor X = (X 1,..., X d ) ist eine Funktion X : Ω R d. X ordnet jedem Ergebnis ω Ω ein d-tupel von Zahlen (Vektor) x = (x 1,..., x d ) R d zu. Zufallsvektor: gemeinsame Darstellung d univariater Zufallsvariablen Beispiel 1.2. Zweidimensionale Zufallsvariable X 1 ordne jeder Person einer Grundgesamtheit (GG) ihre Körpergröße (in cm) zu, X 2 sei das Körpergewicht (in kg). Insgesamt wird der ZVektor X = (X 1, X 2 ) betrachtet. Streudiagramm: Stichprobe von n = 100 Personen (Beobachtungen von X) Koerpergewicht Koerpergroesse 6
2 Die folgende Definition d-variater Verteilungs- und Dichtefunktionen verallgemeinert die entsprechenden Begriffe für univariate Zufallsvariablen. Wiederum unterscheiden wir diskrete und stetige Verteilungen. Es gibt auch Mischformen (ZVektoren mit diskreten und stetigen Komponenten) und ZVektoren, die weder stetige noch diskrete Komponenten haben (für die Anwendung weniger interessant). Definition 1.3. Verteilungsfunktion, Dichte Die Verteilungsfunktion beschreibt die Wahrscheinlichkeit, dass der ZV X = (X 1,..., X d ) Werte aus einem bestimmten Bereich annimmt, F(x) = P(X x) = P(X 1 x 1,..., X d x d ), x = (x 1,..., x d ) R d. Anschaulicher wird die Verteilung eines ZVs durch ihre Dichte oder ihre Wahrscheinlichkeitsfunktion beschrieben. Dichte von X (falls X stetig verteilt): so dass f (x) = f (x 1,..., x d ), und F(x) = R d f (t)dt = x f (t)dt =... xd... x1 f (t 1,..., t d )dt 1... dt d f (t 1,..., t d )dt 1... dt d = 1. Umgekehrt gilt in allen Stetigkeitspunkten x von f : f (x) = d F(x) x 1... x d. Wahrscheinlichkeitsfunktion (oder diskrete Dichte) von X (falls X diskret verteilt): p(x) = P(X = x) = P(X 1 = x 1,..., X d = x d ), 7
3 wobei der Träger T X = {x : P(X = x) > 0} höchstens abzählbar viele Elemente besitzt. In diesem Falle und t F(x) = F(x 1,..., x d ) = t 1 x 1... t d x d P(X 1 = t 1,..., X d = t d ) p(t) = t 1... t d p(t 1,..., t d ) = 1. Definition 1.4. Gemeinsame Verteilung, Randverteil., bedingte Verteil. Für X = (X 1, X 2 ) mit X 1 = (X 1,..., X k ) und X 2 = (X k+1,..., X d ) k- und (d k)-variaten ZVen heißt F mit F(x) = P(X x) gemeinsame Verteilungsfunktion von X 1 und X 2. Randverteilung (Marginalverteilung) von X 1 : F 1 (x 1 ) = P(X 1 x 1 ) = F(x 1,..., x k,,..., ) Dichte (der Randverteilung) von X 1 : f 1 (x 1 ) = f (x 1, x 2 )dx 2 =... f (x 1, x k+1,..., x d ) dx k+1... dx d. bzw. bei diskreten Verteilungen: p 1 (x 1 ) = x k+1... x d p(x 1, x k+1,..., x d ). Bedingte Dichte von X 2 gegeben X 1 = x 1 : f 2 (x 2 x 1 ) = f (x 1, x 2 ) f 1 (x 1 ) falls f 1 (x 1 ) > 0. Die letzte Definition gilt für stetige und diskrete Dichten gleichermaßen. 8
4 Beispiel 1.5. Sei X = (X 1, X 2 ) (d = 2) mit gemeinsamer Dichte f (x 1, x 2 ) = 1 [0,1] [0,1] (x 1, x 2 ) Randdichten von X 1 und X 2 : f 1 (x 1 ) = f 2 (x 2 ). Bedingte Dichte von X 2 gegeben X 1 = x 1 : f 2 (x 2 x 1 ) = Nun habe X = (X 1, X 2 ) für ein 1 < c < 1 die gemeinsame Dichte f (x 1, x 2 ) = 1 + c(2x 1 1)(2x 2 1), 0 x 1, x 2 1 Randdichten von X 1 und X 2 : f 1 (x 1 ) = Bedingte Dichte von X 2 gegeben X 1 = x 1 : f 2 (x 2 x 1 ) = Definition 1.6. Wir nennen X 1 und X 2 unabhängig, falls F(x 1, x 2 ) = F 1 (x 1 ) F 2 (x 2 ) für alle (x 1, x 2 ) R d. Satz 1.7. Folgende Aussagen sind äquivalent: 1 X 1 und X 2 sind unabhängig. f (x 1, x 2 ) = f 1 (x 1 ) f 2 (x 2 ) für alle x 1, x 2. f 2 (x 2 ) = f 2 (x 2 x 1 ) für alle x 1 mit f 1 (x 1 ) > 0. (Gilt für stetige und diskrete Dichten.) 1 Messbarkeitsfragen werden in dieser Vorlesung vernachlässigt. 9
5 Definition 1.8. Erwartungswert (Momente erster Ordnung) Sei X = (X 1,..., X d ) ein d-variater ZV mit Dichte f. Der Erwartungswert(vektor) von X ist E(X 1 ) E(X) =. = x 1 f 1 (x 1 )dx 1. =: µ E(X d ) x d f d (x d )dx d Satz 1.9. Eigenschaften des Erwartungswerts Der Erwartungswert ist linear: für a, b R und A R k d, b R k gilt E(aX + by) = ae(x) + be(y), E(AX + b) = AE(X) + b. Für X und Y unabhängig: E(XY ) = E(X)E(Y). Beispiel Sei X = (X 1, X 2 ) (d = 2) mit gemeinsamer Dichte f (x 1, x 2 ) = 1 [0,1] [0,1] (x 1, x 2 ). Erwartungswertvektor von X: E(X) = E X 1 + X 2 = E X 1 X 2 X 1 X 2 = Definition Kovarianz, Korrelation (Momente zweiter Ordnung) Seien X = (X 1,..., X d ) ein d-variater und Y ein k-variater ZV. Kovarianz zwischen X i und X j, 1 i, j d: Cov(X i, X j ) = E([X i E(X i )][X j E(X j )]) = E(X i X j ) E(X i )E(X j ) =: σ ij 10
6 Kovarianzmatrix von X: Var(X) = Σ = E([X E(X)][X E(X)] ) = σ 11 σ σ 1d σ 21 σ σ d 1,d σ d1... σ d,d 1 σ dd Schreibweise: X (µ, Σ). Korrelation zwischen X i und X j, 1 i, j d: Cor(X i, X j ) = σ ij σii σ jj =: ρ ij Korrelationsmatrix von X: ρ 11 ρ ρ 1d ρ 21 ρ P = ρ d 1,d ρ d1... ρ d,d 1 ρ dd Kovarianzmatrix von X und Y: Cov(X, Y) = E([X E(X)][Y E(Y)] ) = Σ X,Y R d k Für Z = X gilt: Σ Z = Σ X Y Σ Y,X Σ X,Y Σ Y. Satz Für d- bzw. k-variate ZVen X und Y gilt: Σ X 0 (d. h. x Σ X x 0 für alle x R p ) Σ X = Var(X) = 11
7 Σ X,Y = Cov(X, Y) = Σ X,Y = Cov(X, Y) = Cov(Y, X) = Σ Y,X Var(AX + b) = Erinnerung univariat: var(ax + b) = Cov(X + Y, Z) = Cov(X, Y + Z) = Var(X + Y) = Cov(AX, BY) = Für X und Y unabhängig Cov(, ) ist biliniear (linear in jedem Argument). Beispiel Aus Unkorreliertheit folgt umgekehrt nicht die Unabhängigkeit, wie man z.b. aus dem Beispiel X N(0, 1) und Y = X 2 sieht: 12
8 Cov(X, Y) = Definition Bedingte Erwartungen Sei X 1 = (X 1,..., X k ), X 2 = (X k+1,..., X d ) Der bedingte Erwartungswert von X 2 gegeben X 1 = x 1 ist E(X k+1 X 1 = x 1 ) xk+1 f k+1 x1 (x k+1 x 1 )dx k+1 E(X 2 X 1 = x 1 ) =. =. E(X d X 1 = x 1 ) xd f d x1 (x d x 1 )dx d ((d k)-variate Funktion von x 1 R k ), die bedingte Kovarianzmatrix von X 2 gegeben X 1 = x 1 ist Var(X 2 X 1 = x 1 ) = E(X 2 X 2 X 1 = x 1 ) E(X 2 X 1 = x 1 )E(X 2 X 1 = x 1 ). Die bedingte Korrelation zwischen X i und X j gegeben X 1 = x 1 ist ρ i,j X1 =x 1 = Cov(X i, X j X 1 = x 1 ) Var(X i X 1 = x 1 )Var(X j X 1 = x 1 ) Beispiel Gegeben sei die Dichte f (x 1, x 2, x 3 ) = 2 3 (x 1 + x 2 + x 3 )1 [0,1] [0,1] [0,1] (x 1, x 2, x 3 ). Randdichten: f 1,3 (x 1, x 3 ) = f 3 (x 3 ) = 13
9 Bedingte Dichten: f 1,2 3 (x 1, x 2 x 3 ) = Momente: f 1 3 (x 1 x 3 ) = E(X i ) = 5 9, E(X2 i ) = 7 18, E(X ix j ) = 11 36, 1 i = j 3 Kovarianzmatrix: Σ = Var(X) = Korrelation: 13/162 1/324 1/324 1/324 13/162 1/324 1/324 1/324 13/162 ρ 12 = Bedingte Momente: E(X 1 X 3 = x 3 ) = 6x (x 3 + 1) E(X 2 1 X 3 = x 3 ) = 4x (x 3 + 1) E(X 1 X 2 X 3 = x 3 ) = 3x (x 3 + 1) Bedingte Kovarianzmatrix von (X 1, X 2 ) gegeben X 3 = x 3 : 12x x (x 3 + 1) (x 3 + 1) 2 Σ 12 3 = Bedingte Korrelation: 1 12x 2 144(x 3 + 1) x (x 3 + 1) 2 1 ρ 12 X3 =x 3 = 12x3 2 [ , ] + 24x
10 Bemerkung Die bedingte Erwartung E(X 2 X 1 ) =: h(x 1 ) heißt auch Regressionsfunktion von X 2 gegeben X 1. Es gilt = E[E(X 2 X 1 )] Var(X 2 ) = E[Var(X 2 X 1 )] + Var[E(X 2 X 1 )] Notation Bisher: E(X 2 X 1 = x 1 ), jetzt neue Notation: E(X 2 X 1 ) Gemeint ist: definiere Funktion h( ) durch h(x 1 ) := E(X 2 X 1 = x 1 ), wende Funktion h( ) auf X 1 an h(x 1 ) ist ZV (hat Verteilung, Erwartungswert, Varianz,... ). Vorsicht: h(x 1 ) = E(X 2 X 1 = X 1 ). Beispiel Sei (X 1, X 2 ) mit f 1 (x 1 ) = 2x 1, 0 x 1 1, und f 2 1 (x 2 x 1 ) = x 1 1 exp( x 2 /x 1 ), x 2 0. gemeinsame Dichte: f (x 1, x 2 ) = Momente von X 1 : E(X 1 ) = Var(X 1 ) = 1/18 Momente von X 2 (ohne Berechnung von f 2 ): E(X 2 X 1 ) = Var(X 2 X 1 ) = E(X 2 ) = Var(X 2 ) = = 5/9 15
11 Satz Seien X 1 und X 2 p- bzw. d-variate ZVen. Unter allen Funktionen h(x 1 ) : R p R d minimiert E(X 2 X 1 ) den mittleren quadratischen Fehler (mean squared error, MSE) MSE(h) = E([X 2 h(x 1 )] [X 2 h(x 1 )]). Für den Approximationsfehler U = X 2 E(X 2 X 1 ) gilt E(U) = Empirische Kennzahlen von Stichproben Gegeben seien Beobachtungen x 1,..., x n, x i = (x i1,..., x id ), von d-variatem Merkmal X = (X 1,..., X d ). Datenmatrix: x x 1d X =..... = x 1. Rn d x n1... x nd x n Definition Empirische Kennzahlen Sei x 1,..., x n eine Stichprobe eines d-variaten Zufallsvektors. Empirische Lage- und Streuungskennzahlen: Arithmetisches Mittel: x = 1 n n x i = i=1 1 n n i=1 x i,1. 1 n n i=1 x i,d. Empirische Kovarianzmatrix: s 11 s s 1d S = 1 n n 1 (x i x)(x i x) s 21 s = i= s d 1,d s d1... s d,d 1 s dd 16
12 Empirische Korrelation: r ij = s ij sii s jj, 1 i, j d. Empirische Korrelationsmatrix: r 11 r r 1d r 21 r R = r d 1,d r d1... r d,d 1 r dd Beispiel Kennzahlen (Fortsetzung von Bsp. 1.2) Koerpergewicht Koerpergroesse Seien wieder X 1 und X 2 Körpergröße und Körpergewicht. Stichprobe: x 1,..., x 100 mit x i = (x i,1, x i,2 ) (Größe, Gewicht i-te Person). Mittlere Lage: x = 1 n n i=1 x i = ( 1 n n i=1 x i,1, 1 n n i=1 x i,2 ) = (174.9, 76.7). Empirische Kovarianzmatrix S = Empirische Korrelationsmatrix R =
13 Bemerkung Berechnung empirischer Kennzahlen Arithmetisches Mittel: x = 1 n n x i = 1 n X 1 n i=1 Empirische Kovarianzmatrix: S = ˆΣ = 1 n n n 1 ˆΣ mit n x i x i x x = 1 n X X x x = 1 n (X X 1 n X 1 n 1 nx) i=1 = 1 n X H n X, wobei H n = I n 1 n 1 n1 n (Zentrierungsmatrix). H n ist symmetrisch und idempotent. (Damit sieht man unmittelbar, dass S symmetrisch und nicht-negativ definit ist.) Empirische Korrelationsmatrix: R = D 1/2 SD 1/2 mit D = diag(s 11,..., s dd ) ( ) D 1/2 = diag( 1 1 s11,..., sdd ) Bemerkung Lineare Transformation Sei Y = AX eine linear transformierte ZVe, mit A R k d. Für die entsprechende Datenmatrix y y 1d Y =..... gilt dann: Y = XA. y n1... y nd Arithmetisches Mittel: y = n 1 Y 1 n = Ax Empirische Kovarianzmatrix: S y = n 1 Y H n Y = AS x A 18
14 Beispiel Messen wir nun die Körpergröße in Zoll statt in cm (1 inch = 2.54 cm), und das Gewicht in Pfund (1 lb = 0,4536 kg). A = y = S y = Bemerkung Seien X 1,..., X n eine Zufallsstichprobe unabhängiger, identisch wie X verteilter ZVen mit Erwartungswert µ und Kovarianzmatrix Σ, X das arithmetische Mittel und S die empirische Kovarianzmatrix der ZVen. Es gilt E(X) = µ Var(X) = E(S) = 1 n Σ 1 n 1 E [ n i=1 X i X i nx X ] = Σ 1.3 Kurze Erinnerung an das Wichtigste aus linearer Algebra Satz Jordan sche Spektralzerlegung (Eigenwertzerlegung) Jede symmetrische (d d)-matrix A kann zerlegt werden in A = VΛV, wobei Λ = diag(λ 1,..., λ d ) 19
15 eine Diagonalmatrix mit den Eigenwerten von A und V = (v 1,..., v d ) eine Orthogonal-Matrix zugehöriger Eigenvektoren ist. Beispiel A = Λ = V = Beispiel S = Λ = V = Korollar Zu jeder symmetrischen, nicht-negativ definiten (d d)-matrix A gibt es genau eine Matrix A 1/2, so dass A = A 1/2 A 1/2. Diese Matrix ist gegeben durch A 1/2 = VΛ 1/2 V, 20
16 wobei Λ und V wie in Satz Satz Singulärwertzerlegung Jede (d k)-matrix A mit Rang r kann zerlegt werden in A = VΛW, wobei die Diagonalmatrix Λ = diag( λ 1,..., λ r ) die von Null verschiedenen Eigenwerte von AA und A A enthält, und V = (v 1,..., v r ) sowie W = (w 1,..., w r ) Spalten-orthogonale Matrizen mit den zugehörigen je r Eigenvektoren dieser beiden Matrizen sind, V V = I r = W W. Definition Sei A eine (d k)-matrix. Eine verallgemeinerte Inverse (G- Inverse) A erfüllt AA A = A. Eine G-Inverse von A ist mit Satz 1.30 A = WΛ 1 V. Definition Mahalanobis-Transformation: Falls S invertierbar, so nennt man die spezielle lineare Transformation mit y i = S 1/2 (x i x), i = 1,..., n, Mahalanobis-Transformation; in Matrix- Notation: Y = (Y 1 n x )S 1/2. Für die so transformierten Messwerte gilt y = 0 und S y = I d. Beispiel Körpergröße, Gewicht S 1/2 = 21
Risikomessung und Value at Risk Wintersemester 2013/14
Risikomessung und Value at Risk Wintersemester 2013/14 Walter Sanddorf-Köhle Statistik und Ökonometrie Foliensatz Nr. 11 Version vom 24. Januar 2014 1 / 45 6.5.1 Bisherige Vorgehensweise zur Berechnung
MehrExtremwertverteilungen
Seminar Statistik Institut für Stochastik 12. Februar 2009 Gliederung 1 Grenzwertwahrscheinlichkeiten 2 3 MDA Fréchet MDA Weibull MDA Gumbel 4 5 6 Darstellung von multivariaten, max-stabilen Verteilungsfunktionen
MehrQuantitative Risk Management
Quantitative Risk Management Copulas und Abhängigkeit Johannes Paschetag Mathematisches Institut der Universität zu Köln Wintersemester 2009/10 Betreuung: Prof. Schmidli, J. Eisenberg i Inhaltsverzeichnis
MehrMultivariate Statistik
Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)
MehrÜbungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009
Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.
MehrFüllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge
2.4 Stetige Zufallsvariable Beispiel. Abfüllung von 500 Gramm Packungen einer bestimmten Ware auf einer automatischen Abfüllanlage. Die Zufallsvariable X beschreibe die Füllmenge einer zufällig ausgewählten
MehrBeispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen
4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.
MehrA Matrix-Algebra. A.1 Definition und elementare Operationen
A Matrix-Algebra In diesem Anhang geben wir eine kompakte Einführung in die Matrizenrechnung bzw Matrix-Algebra Eine leicht lesbare Einführung mit sehr vielen Beispielen bietet die Einführung in die Moderne
Mehr3.3 Eigenwerte und Eigenräume, Diagonalisierung
3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.
MehrSolvency II und die Standardformel
Fakultät Mathematik und Naturwissenschaften Institut für Mathematische Stochastik Solvency II und die Standardformel Festkolloquium 20 Jahre (neue) Versicherungsmathematik an der TU Dresden Sebastian Fuchs
MehrZufallsgrößen. Vorlesung Statistik für KW 29.04.2008 Helmut Küchenhoff
Zufallsgrößen 2.5 Zufallsgrößen 2.5.1 Verteilungsfunktion einer Zufallsgröße 2.5.2 Wahrscheinlichkeits- und Dichtefunktion Wahrscheinlichkeitsfunktion einer diskreten Zufallsgröße Dichtefunktion einer
Mehr2.1 Berechnung gleichverteilter Zufallszahlen. (Linearer Kongruenz-Generator)
Seydel: Skript umerische Finanzmathematik, Kap. 2 (Version 20) 33 ¾º Ö ÒÙÒ ÚÓÒ Ù ÐÐ Þ Ð Ò Definition (Stichprobe einer Verteilung) Eine Folge von Zahlen heißt Stichprobe (sample) von einer Verteilungsfunktion
MehrLINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow
LINEARE ALGERA Ferienkurs Hanna Schäfer Philipp Gadow INHALT Eigenwerte und Eigenvektoren. asiswechsel.2 Eigenwertgleichung 2.3 Diagonalisierbarkeit 5.4 Trigonalisierung 8.5 Zusatzmaterial 8 Aufgaben 9
MehrKlausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min
Klausur, Multivariate Verfahren, SS 2006, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 08.08.2006 Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min Gesamtpunkte: 39 Aufgabe
Mehrklar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s
Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen
MehrFormelsammlung zu Multivariate Verfahren
Institut für Statistik Gerhard Tutz, Moritz, Wolfgang Pößnecker Sommersemester 204 Formelsammlung zu Multivariate Verfahren Inhaltsverzeichnis Version 0804204 Diese Formelsammlung darf in der Klausur verwendet
Mehr12. Bivariate Datenanalyse. In den Kapiteln 4-11 wurden univariate Daten betrachtet:
12. Bivariate Datenanalyse Während einer nur Zahlen im Kopf hat, kann er nicht auf den Kausalzusammenhang kommen Anonymus In den Kapiteln 4-11 wurden univariate Daten betrachtet: Von univariaten Daten
MehrStatistik II. Universität Ulm Abteilung Stochastik. Vorlesungsskript Prof. Dr. Volker Schmidt Stand: Wintersemester 2007/08
CURANDO UNIVERSITÄT ULM SCIENDO DOCENDO Statistik II Universität Ulm Abteilung Stochastik Vorlesungsskript Prof Dr Volker Schmidt Stand: Wintersemester 2007/08 Ulm, im Februar 2008 INHALTSVERZEICHNIS 2
MehrBeispiele zur UE Wirtschaftsstatistik 1 bei Nagel
Beispiele zur UE Wirtschaftsstatistik 1 bei Nagel 1 Ereignisse und Wahrscheinlichkeiten 1. Ein Würfel wird zweimal geworfen, der Stichprobenraum Ω ist Ihnen nicht neu. Versuchen Sie, den Stichprobenraum
MehrStatistische Thermodynamik I Lösungen zur Serie 1
Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen
Mehr2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen
4. Datenanalyse und Modellbildung Deskriptive Statistik 2-1 2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen Für die Auswertung einer Messreihe, die in Form
Mehr11 Normalformen von Matrizen
11 Normalformen von Matrizen Wir wenden uns in diesem Kapitel noch einmal der Untersuchung linearer Abbildungen auf endlichdimensionalen Vektorräumen und deren Darstellung mittels Matrizen zu Speziell
Mehr6 Symmetrische Matrizen und quadratische Formen
Mathematik für Ingenieure II, SS 9 Freitag. $Id: quadrat.tex,v.5 9//5 ::59 hk Exp $ $Id: orthogonal.tex,v.4 9// ::54 hk Exp $ $Id: fourier.tex,v. 9// :: hk Exp $ Symmetrische Matrizen und quadratische
MehrElemente der Analysis II
Elemente der Analysis II Kapitel 3: Lineare Abbildungen und Gleichungssysteme Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 15. Mai 2009 1 / 35 3.1 Beispiel
MehrKapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung
Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion
MehrEigenwerte und Eigenvektoren von Matrizen
Eigenwerte und Eigenvektoren von Matrizen Das Eigenwertproblem Sei A eine quadratische Matrix vom Typ m,m. Die Aufgabe, eine Zahl λ und einen dazugehörigen Vektor x zu finden, damit Ax = λx ist, nennt
Mehr2 Multivariate Statistik
MS13 1 2 Multivariate Statistik 21 Grundbegriffe In diesem Abschnitt sollen die ersten wichtigen Grundbegriffe der Multivariaten Statistik eingeführt werden: Mehrdimensionale Variablen, Erwartungswerte,
MehrGrundprinzipien der Bayes-Statistik
Grundprinzipien der Bayes-Statistik Karl-Rudolf Koch Zusammenfassung: In drei wesentlichen Punkten unterscheidet sich die Bayes-Statistik von der traditionellen Statistik. Zunächst beruht die Bayes-Statistik
MehrTeil I Beschreibende Statistik 29
Vorwort zur 2. Auflage 15 Vorwort 15 Kapitel 0 Einführung 19 0.1 Methoden und Aufgaben der Statistik............................. 20 0.2 Ablauf statistischer Untersuchungen..............................
MehrStochastische Eingangsprüfung, 17.05.2008
Stochastische Eingangsprüfung, 17.5.8 Wir gehen stets von einem Wahrscheinlichkeitsraum (Ω, A, P) aus. Aufgabe 1 ( Punkte) Sei X : Ω [, ) eine integrierbare Zufallsvariable mit XdP = 1. Sei Q : A R, Q(A)
MehrPräsenzübungsaufgaben zur Vorlesung Elementare Sachversicherungsmathematik
Präsenzübungsaufgaben zur Vorlesung Elementare Sachversicherungsmathematik Dozent: Volker Krätschmer Fakultät für Mathematik, Universität Duisburg-Essen, WS 2012/13 1. Präsenzübung Aufgabe T 1 Sei (Z 1,...,
MehrKapitel 4: Binäre Regression
Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,
MehrJan Krohn Matrikel-Nr. 214147. Diplomarbeit in Mathematik. vorgelegt der. Fakultät für Mathematik, Informatik und Naturwissenschaften der RWTH Aachen
Kapazität von vollständig und partiell bekannten MIMO-Kanälen Jan Krohn Matrikel-Nr. 214147 Diplomarbeit in Mathematik vorgelegt der Fakultät für Mathematik, Informatik und Naturwissenschaften der RWTH
MehrDivision Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema
Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema 2x 4 + x 3 + x + 3 div x 2 + x 1 = 2x 2 x + 3 (2x 4 + 2x 3 2x 2 ) x 3 + 2x 2 + x + 3 ( x
MehrMonte-Carlo-Simulationen mit Copulas. Kevin Schellkes und Christian Hendricks 29.08.2011
Kevin Schellkes und Christian Hendricks 29.08.2011 Inhalt Der herkömmliche Ansatz zur Simulation logarithmischer Renditen Ansatz zur Simulation mit Copulas Test und Vergleich der beiden Verfahren Fazit
Mehr25. Januar 2010. Ruhr-Universität Bochum. Methodenlehre III, WS 2009/2010. Prof. Dr. Holger Dette. 4. Multivariate Mittelwertvergleiche
Ruhr-Universität Bochum 25. Januar 2010 1 / 75 2 / 75 4.1 Beispiel: Vergleich von verschiedenen Unterrichtsmethoden Zwei Zufallsstichproben (A und B) mit je 10 Schülern und 8 Schülern Gruppe A wird nach
MehrStatistische Verfahren für das Data Mining in einem Industrieprojekt
Statistische Verfahren für das Data Mining in einem Industrieprojekt Thorsten Dickhaus Forschungszentrum Jülich GmbH Zentralinstitut für Angewandte Mathematik Telefon: 02461/61-4193 E-Mail: th.dickhaus@fz-juelich.de
MehrAufgabe 1. Sei A Mat(n n, R) mit Eigenwert 3. Dann gilt: Eig(A, 3) = Kern(A + 3E n ).
Aufgabe Sei A Mat(n n, R) Eigenwert 3. Dann gilt: Eig(A, 3) = Kern(3A E n ). Sei A Mat(n n, R) Eigenwert 3. Dann gilt: Eig(A, 3) = Kern(A 3E n ). Sei A Mat(n n, R) Eigenwert 3. Dann gilt: Eig(A, 3) = Bild(A
MehrFormelsammlung und Glossar zum Kurs Statistik (Kurs 33209) mit Konzeptpapier Stand: 18. März 2011
Formelsammlung und Glossar zum Kurs Statistik (Kurs 33209) mit Konzeptpapier Stand: 18. März 2011 S. 34 35: Anmerkungen und Ergänzungen für Studierende im BSc Psychologie c 2011 FernUniversität in Hagen,
MehrOptimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen
Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel
MehrStatistik im Bachelor-Studium der BWL und VWL
Max C. Wewel Statistik im Bachelor-Studium der BWL und VWL Methoden, Anwendung, Interpretation Mit herausnehmbarer Formelsammlung ein Imprint von Pearson Education München Boston San Francisco Harlow,
MehrKompaktskript zur Vorlesung Stochastische Risikoanalyse
Kompaktskript zur Vorlesung Stochastische Risikoanalyse Friedrich-Schiller-Universität Jena Wirtschaftswissenschaftliche Fakultät Lehrstuhl für Wirtschafts- und Sozialstatistik Prof. Dr. P. Kischka Sommersemester
MehrAnalyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse
Analyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse Yannik Behr Gliederung 1 Stochastische Prozesse Stochastische Prozesse Ein stochastischer Prozess ist ein Phänomen, dessen
MehrÜbungsrunde 7, Gruppe 2 LVA 107.369, Übungsrunde 7, Gruppe 2, 28.11. Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, 11/2006
1 3.34 1.1 Angabe Übungsrunde 7, Gruppe 2 LVA 107.369, Übungsrunde 7, Gruppe 2, 28.11. Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, 11/2006 U sei auf dem Intervall (0, 1) uniform verteilt. Zeigen
MehrKAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten:
KAPITEL 4 Lineare Ausgleichsrechnung Beispiel 41 Das Ohmsche Gesetz: Eine Meßreihe von Daten: U = RI (U i, I i ) (Spannung, Stromstärke), i = 1,, m Aufgabe: man bestimme aus diesen Meßdaten den Widerstand
Mehr9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83
9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x
MehrGaußsche Prozesse - ein funktionalanalytischer Zugang
Universität Ulm Fakultät für Mathematik und Wirtschaftswissenschaften Gaußsche Prozesse - ein funktionalanalytischer Zugang Bachelorarbeit in Wirtschaftsmathematik vorgelegt von Clemens Kraus am 31. Mai
Mehr$ % + 0 sonst. " p für X =1 $
31 617 Spezielle Verteilungen 6171 Bernoulli Verteilung Wir beschreiben zunächst drei diskrete Verteilungen und beginnen mit einem Zufallsexperiment, indem wir uns für das Eintreffen eines bestimmten Ereignisses
MehrGrundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt!
Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! 1 Einführung 2 Wahrscheinlichkeiten kurz gefasst 3 Zufallsvariablen und Verteilungen 4 Theoretische Verteilungen (Wahrscheinlichkeitsfunktion)
MehrMethoden der multivariaten Statistik
Meteorologisches Institut der Universität Bonn Skript zur Vorlesung Methoden der multivariaten Statistik Sommersemester 2002 Andreas Hense Version: April 2002 (mit Korrekturen Nov. 2005, PF) 1 Inhaltsverzeichnis
MehrMatrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.
Matrizennorm Es seien r,s N Mit M r,s (R bezeichnen wir die Menge der reellen r s- Matrizen (also der linearen Abbildungen R s R r, und setze M s (R := M s,s (R (also die Menge der linearen Abbildungen
MehrMultivariate and Geostatistical Data Analysis. Multivariate and Geostatistical Data Analysis
Multivariate and Geostatistical Data Analysis Multivariate and Geostatistical Data Analysis c 2012 Helmut Schaeben Geomathematics and Geoinformatics Technische Universität Bergakademie Freiberg, Germany
MehrKernel, Perceptron, Regression. Erich Schubert, Arthur Zimek. 2014-07-20 KDD Übung
Kernel, Perceptron, Regression Erich Schubert, Arthur Zimek Ludwig-Maximilians-Universität München 2014-07-20 KDD Übung Kernel-Fukctionen Kernel kann mehrdeutig sein! Unterscheidet zwischen: Kernel function
MehrGrundlagen der Wirtschaftsmathematik
Prof. Dr. Jochen Schwarze Überarbeitung: Prof. Dr. Hermann Singer Dipl.-Stat. Anja Bittner Grundlagen der Wirtschaftsmathematik und Statistik Teil Statistik, Glossar Das Werk ist urheberrechtlich geschützt.
MehrMonte Carlo Methoden in Kreditrisiko-Management
Monte Carlo Methoden in Kreditrisiko-Management P Kreditportfolio bestehend aus m Krediten; Verlustfunktion L = n i=1 L i; Die Verluste L i sind unabhängig bedingt durch einen Vektor Z von ökonomischen
MehrAusarbeitung des Seminarvortrags zum Thema
Ausarbeitung des Seminarvortrags zum Thema Anlagepreisbewegung zum Seminar Finanzmathematische Modelle und Simulationen bei Raphael Kruse und Prof. Dr. Wolf-Jürgen Beyn von Imke Meyer im W9/10 Anlagepreisbewegung
MehrProfil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8
1. Aufgabe: Eine Reifenfirma hat für Winterreifen unterschiedliche Profile entwickelt. Bei jeweils gleicher Geschwindigkeit und auch sonst gleichen Bedingungen wurden die Bremswirkungen gemessen. Die gemessenen
MehrMathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011
Mathematik für Informatiker II Christoph Eisinger Sommersemester 211 Beispiellösungen zur Probeklausur Aufgabe 1 Gegeben sind die Polynome f, g, h K[x]. Zu zeigen: Es gibt genau dann Polynome h 1 und h
MehrStatistik I für Betriebswirte Vorlesung 5
Statistik I für Betriebswirte Vorlesung 5 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik 07. Mai 2015 PD Dr. Frank Heyde Statistik I für Betriebswirte Vorlesung 5 1 Klassische Wahrscheinlichkeitsdefinition
MehrStochastik für WiWi - Klausurvorbereitung
Dr. Markus Kuze WS 2013/14 Dipl.-Math. Stefa Roth 11.02.2014 Stochastik für WiWi - Klausurvorbereitug Gesetz der totale Wahrscheilichkeit ud Satz vo Bayes (Ω, F, P) Wahrscheilichkeitsraum, E 1,..., E F
MehrSchleswig-Holsteinische Ergänzung der Musteraufgaben für den hilfsmittelfreien Teil der schriftlichen Abiturprüfung im Fach Mathematik ab 2015
ische Ergänzung der für den hilfsmittelfreien Teil der schriftlichen Abiturprüfung im Fach Mathematik ab 2015 Ministerium für ildung und Wissenschaft des Landes Juni 2013 1 für Aufgabenpool 1 Analysis
MehrElemente der Analysis I Kapitel 2: Einführung II, Gleichungen
Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen Prof. Dr. Volker Schulz Universität Trier / FB IV / Abt. Mathematik 8. November 2010 http://www.mathematik.uni-trier.de/ schulz/elan-ws1011.html
MehrLineare Algebra - alles was man wissen muß
Statistik für Bioinformatiker SoSe 3 Rainer Spang Lineare Algebra - alles was man wissen muß Der Titel ist natürlich gelogen, aber was wir hier zusammengetragen haben ist zumindest ein Anfang. Weniger
MehrEntwurf robuster Regelungen
Entwurf robuster Regelungen Kai Müller Hochschule Bremerhaven Institut für Automatisierungs- und Elektrotechnik z P v K Juni 25 76 5 OPTIMALE ZUSTANDSREGELUNG 5 Optimale Zustandsregelung Ein optimaler
Mehr7 Die Determinante einer Matrix
7 Die Determinante einer Matrix ( ) a11 a Die Determinante einer 2 2 Matrix A = 12 ist erklärt als a 21 a 22 det A := a 11 a 22 a 12 a 21 Es ist S 2 = { id, τ}, τ = (1, 2) und sign (id) = 1, sign (τ) =
MehrLineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme
Übung Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme Diese Übung beschäftigt sich mit Grundbegriffen der linearen Algebra. Im Speziellen werden lineare Abbildungen, sowie
MehrWas wollen wir mit den statistischen Methoden erreichen?
Was wollen wir mit den statistischen Methoden erreichen? Lösung betrieblicher Probleme: enkung der Kosten, Erhöhung der Fähigkeiten durch statistische Prozessanalyse und Prozessverbesserung, Qualifizierung
MehrOptimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli 2010. Fachbereich für Mathematik und Statistik Universität Konstanz
Optimale Steuerung Kevin Sieg Fachbereich für Mathematik und Statistik Universität Konstanz 14. Juli 2010 1 / 29 Aufgabenstellung 1 Aufgabenstellung Aufgabenstellung 2 Die zusammengesetzte Trapezregel
Mehr2 Die Darstellung linearer Abbildungen durch Matrizen
2 Die Darstellung linearer Abbildungen durch Matrizen V und V seien Vektorräume über einem Körper K. Hom K (V, V ) bezeichnet die Menge der K linearen Abbildungen von V nach V. Wir machen Hom K (V, V )
MehrGeschäftszielorientierte, Toolgestützte, Szenariobasierte Risikoaggregation bei der SAP
Geschäftszielorientierte, Toolgestützte, Szenariobasierte Risikoaggregation bei der SAP Diplomarbeit am Institut für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) Prof. Dr. D. Seese Fakultät
MehrEinführung in die Vektor- und Matrizenrechnung. Matrizen
Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:
MehrModulabschlussklausur Analysis II
Modulabschlussklausur Analysis II. Juli 015 Bearbeitungszeit: 150 min Aufgabe 1 [5/10 Punkte] Es sei a R und f a : R 3 R mit f a (x, y, z) = x cos(y) + z 3 sin(y) + a 3 + (z + ay a y) cos(x) a) Bestimmen
MehrEinführung in die Statistik
Einführung in die Statistik Dr. C.J. Luchsinger 2 Zufallsgrössen Literatur Kapitel 2 * Statistik in Cartoons: Kapitel 4 * Krengel: 3.1 und 3.2 in 3 und (Honours Program) 10 sowie 11.1, 11.2 und 11.3 in
MehrMini-Skript Wahrscheinlichkeitstheorie und Statistik
Mini-Skript Wahrscheinlichkeitstheorie und Statistik Peter Bühlmann Georg Grafendorfer, Lukas Meier Inhaltsverzeichnis 1 Der Begriff der Wahrscheinlichkeit 1 1.1 Rechenregeln für Wahrscheinlichkeiten........................
Mehr13.5 Der zentrale Grenzwertsatz
13.5 Der zentrale Grenzwertsatz Satz 56 (Der Zentrale Grenzwertsatz Es seien X 1,...,X n (n N unabhängige, identisch verteilte zufällige Variablen mit µ := EX i ; σ 2 := VarX i. Wir definieren für alle
Mehr8. Methoden der klassischen multivariaten Statistik
8. Methoden der klassischen multivariaten Statistik 8.1. Darstellung von Daten Voraussetzungen auch in diesem Kapitel: Grundgesamtheit (Datenraum) Ω von Objekten (Fällen, Instanzen), denen J-Tupel von
MehrEinführung in statistische Analysen
Einführung in statistische Analysen Andreas Thams Econ Boot Camp 2008 Wozu braucht man Statistik? Statistik begegnet uns jeden Tag... Weihnachten macht Deutschen Einkaufslaune. Im Advent überkommt die
MehrComputer Vision SS 2011. Skript
Computer Vision SS 211 Skript (Work in Progress) Simon Hawe & Martin Kleinsteuber Skript: Manuel Wolf Inhaltsverzeichnis 1 Einführung 1 1.1 Was ist ein Bild?................................. 1 1.2 Wie
MehrHauptkomponentenanalyse PCA
Hauptkoponentenanalyse PCA Die Hauptkoponentenanalyse (Principal Coponent Analysis, PCA) ist eine Methode zur linearen Transforation der Variablen, so dass: öglichst wenige neue Variablen die relevante
MehrLineare Ausgleichsprobleme. Lineare Ausgleichsprobleme. Normalgleichungen. Normalgleichungen
Wir betrachten in diesem Abschnitt das lineare Ausgleichsproblem Ax b 2 = min! (1) Heinrich Voss voss@tu-harburgde Hamburg University of Technology Institute for Numerical Simulation mit gegebenem A R
Mehr, dt. $+ f(x) = , - + < x < +, " > 0. " 2# Für die zugehörige Verteilungsfunktion F(x) ergibt sich dann: F(x) =
38 6..7.4 Normalverteilung Die Gauß-Verteilung oder Normal-Verteilung ist eine stetige Verteilung, d.h. ihre Zufallsvariablen können beliebige reelle Zahlenwerte annehmen. Wir definieren sie durch die
MehrMathematik 1 für Wirtschaftsinformatik
Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration
MehrMonty Hall-Problem. Wochen 3 und 4: Verteilungen von Zufallsvariablen. Lernziele. Diskrete Verteilungen
Monty Hall-Problem Wochen 3 und 4: Verteilungen von Zufallsvariablen US-amerikanische Fernseh-Show Let s make a deal, moderiert von Monty Hall: WBL 15/17, 04.05.2015 Alain Hauser
MehrEinführung in die Statistik mit EXCEL und SPSS
Christine Duller Einführung in die Statistik mit EXCEL und SPSS Ein anwendungsorientiertes Lehr- und Arbeitsbuch Zweite, überarbeitete Auflage Mit 71 Abbildungen und 26 Tabellen Physica-Verlag Ein Unternehmen
MehrEinführung in die. Wahrscheinlichkeitstheorie und Statistik
Institut für Mathematische Stochastik Einführung in die Wahrscheinlichkeitstheorie und Statistik (Kurzskript zur Vorlesung Wintersemester 2014/15 von Prof. Dr. Norbert Gaffke Inhaltsverzeichnis 1 Wahrscheinlichkeitsräume
MehrInstitut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban
Institut für Stochastik Prof. r. N. Bäuerle ipl.-math. S. Urban Lösungsvorschlag 3. Übungsblatt zur Vorlesung Finanzmathematik I Aufgabe as endnutzenoptimale Aktienportfolio bei Exp-Nutzen Wir betrachten
MehrSeminararbeit für das SE Reine Mathematik- Graphentheorie
Seminararbeit für das SE Reine Mathematik- Graphentheorie Der binäre Rang, der symplektische Graph, die Spektralzerlegung und rationale Funktionen Vortrag am 24.01.2012 Heike Farkas 0410052 Inhaltsverzeichnis
MehrTest für hochdimensionale Messwiederholungen mit unbekannten Kovarianzmatrizen
Test für hochdimensionale Messwiederholungen mit unbekannten Kovarianzmatrizen Diplomarbeit vorgelegt von Benjamin Markus Becker aus Stuttgart angefertigt am Institut für Mathematische Stochastik Georg-August-Universität
MehrSchleswig-Holsteinische Ergänzung der Musteraufgaben für den hilfsmittelfreien Teil der schriftlichen Abiturprüfung im Fach Mathematik ab 2015
ische Ergänzung der für den hilfsmittelfreien Teil der schriftlichen Abiturprüfung im Fach Mathematik ab 2015 Ministerium für ildung und Wissenschaft des Landes Juni 2013 1 Inhaltsverzeichnis Vorbemerkungen
MehrÜbungen zum Ferienkurs Lineare Algebra WS 14/15
Übungen zum Ferienkurs Lineare Algebra WS 14/15 Linearkombinationen, Basen, Lineare Abbildungen 2.1 Lineare Unabhängigkeit Sind die folgenden Vektoren linear unabhängig? (a) 1, 2, 3 im Q Vektorraum R (b)
Mehr1 Stochastische Prozesse in stetiger Zeit
1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.
MehrEinführung in die statistische Datenanalyse
Einführung in die statistische Datenanalyse Jens Röder & Matthias Wieler 8.-12. Oktober 2007 Inhaltsverzeichnis 1 Deskriptive Statistik für die Explorative Datenanalyse 3 2 Zufallsvariablen 5 2.1 Grundlegende
MehrDie latenten Variablen Y = (Y 1,Y 2,...,Y n ) T hängen mit dem Wert der Aktien der jeweiligen Firmen folgendermaßen zusammen.
Das KMV Modell (siehe auch www.moodyskmv.com) Die Status Variablen S = (S 1,S 2,...,S n ) können nur zwei Werte 0 und 1 annehmen, d.h. m = 1. Die latenten Variablen Y = (Y 1,Y 2,...,Y n ) T hängen mit
MehrBerechnung von Eigenwerten und Eigenvektoren
Kapitel 5 Berechnung von Eigenwerten und Eigenvektoren 5.1 Einführung Bemerkung 5.1 Aufgabenstellung. Diese Kapitel behandelt numerische Verfahren zur Lösung des Eigenwertproblems. Gegeben sei A R n n.
MehrWiederholung: Statistik I
Wiederholung: Statistik I Lehrstuhl für BWL, insb. Mathematik und Statistik Gegeben sei eine diskrete Zufallsvariable X. Für die möglichen Realisationen x i von X seien folgende Wahrscheinlichkeiten bekannt:
Mehra) Zeichnen Sie in das nebenstehende Streudiagramm mit Lineal eine Regressionsgerade ein, die Sie für passend halten.
Statistik für Kommunikationswissenschaftler Wintersemester 2009/200 Vorlesung Prof. Dr. Helmut Küchenhoff Übung Cornelia Oberhauser, Monia Mahling, Juliane Manitz Thema 4 Homepage zur Veranstaltung: http://www.statistik.lmu.de/~helmut/kw09.html
MehrCredit Metrics. Wird in erster Linie für die Evaluierung von Bond Portfolios verwendet. (Siehe Crouhy et al. (2000), J.P.Morgan Inc.
Wurde bei J.P.Morgan entwickelt. Credit Metrics Wird in erster Linie für die Evaluierung von Bond Portfolios verwendet. (Siehe Crouhy et al. (2000), J.P.Morgan Inc. (1997)) Basiert auf ein Bonität-Einstufungssystem
Mehr