Hilfsmittel aus Mathematik und Statistik - Materialien zu Investition und Finanzierung -
|
|
- Kajetan Seidel
- vor 7 Jahren
- Abrufe
Transkript
1 Hilfsmittel aus Mathematik und Statistik - Materialien zu Investition und Finanzierung - Lehrstuhl für Betriebswirtschaftslehre mit Schwerpunkt Finanzierung Universität Passau 2006
2 Inhaltsverzeichnis Statistik 2. Statistische Verteilungsparameter und ihre Berechnung: Erwartungswert, Varianz, Kovarianz Wichtige Eigenschaften der Basisparameter Erwartungswert, Varianz und Kovarianz Matrizenrechnung 2 2. Grundsätzliche Konstruktion Rechnen mit Vektoren und Matrizen Darstellungsmöglichkeiten mittels Matrizenrechnung (anhand eines Beispiels aus dem Bereich Portfolio Selektion ) Di erentiation von Matrizen und Vektoren Di erentiation von Matrizen und Vektoren (anhand eines Beispiels aus dem Bereich Portfolio Selektion ) Abschließende Bemerkungen: Au ösung nach einer Unbekannten, wenn sie in einer Vektorgleichung enthalten ist 20
3 Kapitel Statistik. Statistische Verteilungsparameter und ihre Berechnung: Erwartungswert, Varianz, Kovarianz Üblicherweise begegnet man drei Verteilungsparametern: Erwartungswert, Varianz, Kovarianz. Weitere Kenngrößen (Höhere Momente, Schiefe, etc.) werden im Weiteren nicht behandelt. Alle diese Größen lassen sich letztlich auf das Konzept des Erwartungswertes zurückführen Erwartungswert: Verbale Beschreibung: Der Erwartungswert ist die mit den Eintrittswahrscheinlichkeiten gewichtete Summe der möglichen Realisationen einer Zufallsvariablen. Im einfachsten Fall einer Zufallsgrößen mit endlich vielen (n) möglichen Werten können diese Werte als Datenreihe aufgeschrieben werden. Formale Beschreibung: Sei hier und im Folgenden X eine reelle Zufallsvariable mit endlich vielen möglichen Ausprägungen x ; : : : ; x n. Für die Eintritts Wahrscheinlichkeit gelte prob[x x i ] p i 2 [0; ], wobei p i gilt. Dann berechnet man den Erwartungswert E[X] im endlichen Fall wie folgt: E [X] p i x i X: Zufallsvariable x i : Die i te Ausprägung der Zufallsvariable n X (i 2 : : : n) p i : Eintritts Wahrscheinlichkeit der Ausprägung x i (i 2 : : : n) Beispiel: Eine Zufallsvariable X sei wie folgt gegeben: X x mit Wahrscheinlichkeit 2 x 2 3 mit Wahrscheinlichkeit 2 2
4 Dann gilt für den Erwartungswert von X: E[X] 2X p i x i p x + p 2 x Für die De nition des Erwartungswerts bei Zufallsvariablen mit abzählbar unendlich vielen möglichen Werten (z. B. Z) oder mit überabzählbar vielen möglichen Werten (z. B. R oder [0; ]) sei auf die einschlägige Literatur verwiesen. Varianz: Verbale Beschreibung: Die Varianz ist die erwartete quadratische Abweichung einer Zufallsvariablen von ihrem Erwartungswert. Formale Beschreibung: var[x] p i (x i Beispiel: Es sei die Zufallsvariable X von oben gegeben. var[x] E[X]) 2 E h(x E[X]) 2i p i (x i E[X]) 2 p (x E[X]) 2 + p 2 (x 2 E[X]) 2 2 ( 2)2 + 2 (3 2)2 Zusatz: Die Varianz hat als quadrierte Größe auch die ursprüngliche Einheit zum Quadrat, z.b. Geldeinheiten 2. Man rechnet aber lieber mit Geldeinheiten (und nicht mit ihrem Quadrat). Die Standardabweichung std[x] X p var[x] wird gebildet. Im Beispiel gilt: std[x] p var[x] p Kovarianz: 3
5 Verbale Beschreibung: Die Kovarianz ist ein Maßfür das Zusammenspiel zweier Zufallsvariable n. Formale Beschreibung: cov [X; Y ] p i (x i E[X]) (y i E[Y ]) E [(X E[X]) (Y E[Y ])] Beispiel: Es gebe zwei Zustände Zustand und Zustand 2. In Abhängigkeit des Zustands nehme das Zufallsvariable n Paar (X; Y ) die Werte der folgenden Tabelle an. Man spricht von gemeinsamer Verteilung. Die Eintritts Wahrscheinlichkeiten der beiden Zustände seien wieder jeweils 2. X Y Zustand mit Wahrscheinlichkeit 2 x 5 y Zustand 2 mit Wahrscheinlichkeit 2 3 x 2 2 y 2 Es gilt: E[Y ] ; 5 var[y ] 2 (5 3; 5)2 + 2 (2 3; 5)2 2; 25 Zusatz: cov[x; Y ] 2X p i (x i E[X]) (y i E[Y ]) p (x E[X]) (y E[Y ]) + p 2 (x 2 E[X]) (y 2 E[Y ]) 2 ( 2) (5 3; 5) + 2 (3 2) (2 3; 5) ; 5 Die Zufallsvariablen X und Y heißen unkorreliert, falls cov[x ; Y ] 0. Sind X und Y stochastisch unabhängig, so sind sie auch unkorreliert; die Umkehrung ist aber im Allgemeinen falsch. Es gilt: cov[x; X] var[x]. 4
6 Die Kovarianz kann beliebige Werte annehmen: ) Es ist schwierig zu sagen, ob Zufallsvariable n mit hoher Kovarianz ein stärkeres Zusammenspiel aufweisen als solche mit niedriger Ko varianz. ) Man de niert den Korrelationskoe zienten als eine Art normierte Kovarianz, um Vergleiche zu ermöglichen: corr[x; Y ] cov[x; Y ] X E [X] std[x] std[y ] cov ; Y E [Y ] std[x] std[y ] Es gilt mit den folgenden Interpretationen: : Zufallsvariable n laufen völlig gegeneinander. 0 : Zufallsvariable n laufen völlig unbeein usst nebeneinander, d.h. sie haben nichts miteinander zu tun. : Zufallsvariable n laufen völlig miteinander. Das miteinander Laufen bzw. gegeneinander Laufen von Zufallsvariablen bezieht sich dabei auf eine a n lineare Beziehung zwischen den Zufallsvariable n, denn es gilt: j j genau dann, wenn a; b 2 R existieren mit prob[y a X +b]. Bemerkung: Bisher wurde die Wahrscheinlichkeit für einen Zustand s i (i 2 : : : n) explizit vorgegeben, z.b. prob(s ) 2. Eine alternative Möglichkeit ist die Vorgabe der Verteilung der Zustände. Daraus erreichnet man die Eintritts Wahrscheinlichkeit en, z.b. 3 Zustände mit Gleichverteilung: prob(s ) prob(s 2 ) prob(s 3 ) 3.2 Wichtige Eigenschaften der Basisparameter Erwartungswert, Varianz und Kovarianz Basisparameter und sichere Größen: Eine sichere Größe liefert in jedem Zustand (genauer: in jedem Zustand mit positiver Eintritts Wahrscheinlichkeit) einen identischen Wert. Man spricht auch von einer deterministischen Größe oder im exakten mathematischen Sprachgebrauch von einer fast sicheren Größe. 5
7 Erwartungswert einer sicheren Größe: Der Erwartungswert einer sicheren Größe ist die sichere Größe. Sei etwa Z eine Zufallsvariable mit prob[z r], dann gilt: E[Z] r r. Beispiel: Z Zustand s mit Wahrscheinlichkeit 2 r Zustand s 2 mit Wahrscheinlichkeit 2 r Dann gilt: E[Z] 2 r + 2 r r : Varianz einer sicheren Größe: Die Varianz einer sicheren Größe beträgt 0, d.h. eine sichere Größe schwankt (de nitionsgemäß) nicht. Sei wieder Z eine Zufallsvariable mit prob[z r], dann gilt E[Z] r und es folgt var[z] 2 p i r E[Z] 0 {z } 0 Die Kovarianz einer sicheren mit einer unsicheren Größe: Die Kovarianz einer sicheren mit einer anderen, im Allgemeinen unsicheren Größe beträgt 0. Eine sichere und eine unsichere Größe laufen also völlig unbeein usst nebeneinander. Sie sind unkorreliert. Sei wieder Z eine Zufallsvariable mit prob[z r], und sei X irgendeine Zufallsvariable. Es folgt: cov[z; X] p i r E[Z] {z } 0 x i E[X] 0 Das Vielfache einer Zufallsvariablen und die Summe zweier Zufallsvariablen: Allgemeines: Seien X und Z zwei Zufallsvariable n und a eine reelle Zahl. Dann sind W : a X und U : X + Y zwei (neue) Zufallsvariable n. 6
8 Beispiel: X Y W : 4 X U : X + Y Zustand Zustand Erwartungswert: Der Erwartungswert ist linear, d.h. denn es gilt (i) E [a X] a E [X] und (ii) E [X + Y ] E [X] + E [Y ] (i) und (ii) P E [a X] x P p i (a x i ) x xp a (p i x i ) a p i x i a E [X] P E [X + Y ] x P p i (x i + y i ) x P p i x i + x p i y i E [X] + E [Y ] Kovarianz Die Kovarianz ist symmetrisch und bilinear, d.h. (i) cov[x ; Y ] cov[y ; X], (ii) cov[a X ; Y ] a cov[x ; Y ], cov[x ; b Y ] b cov[x ; Y ], (iii) cov[x + Y ; Z] cov[x ; Z] + cov[y ; Z], cov[x ; Y + Z] cov[x ; Y ] + cov[x ; Z], denn es gilt: 7
9 (i) cov[x ; Y ] p i (x i E[X]) (y i E[Y ]) (ii) cov[a X ; Y ] p i (y i E[Y ]) (x i E[X]) cov[y ; X] p i (a x i E[a X]) (y i E[Y ]) p i (a x i a E[X]) (y i E[Y ]) a p i (x i E[X]) (y i E[Y ]) a p i (x i E[X]) (y i E[Y ]) a cov[x ; Y ] Die zweite Gleichung folgt aus der Symmetrie, d.h. aus Gleichung (i). (iii) cov[x + Y ; Z] p i (x i + y i ) E[X + Y ] (z i E[Z]) p i (x i + y i ) (E[X] + E[Y ]) (z i E[Z]) p i (x i E[X]) + (y i E[Y ]) (z i E[Z]) p i (x i E[X]) (z i E[Z]) + cov[x ; Z] + cov[y ; Z] p i (y i E[Y ])(z i E[Z]) Die zweite Gleichung folgt wieder aus der Symmetrie. Varianz Die Varianz ist quadratisch, d.h. (i) var[a X] a 2 var[x] (ii) var[x + Y ] var[x] + 2 cov[x ; Y ] + var[y ] (zur Struktur: Vgl. Binomische Formel) denn es gilt: 8
10 (i) var[a X] cov[a X ; a X] a a cov[x ; X] a 2 var[x] (ii) var[x + Y ] cov[x + Y ; X + Y ] cov[x ; X + Y ] + cov[y ; X + Y ] cov[x ; X] + cov[x ; Y ] + cov[y ; X] + cov[y ; Y ] var[x] + 2 cov[x ; Y ] + var[y ] Anwendungsgebiet des Vielfachen einer Zufallsvariablen bzw. der Summe zweier Zufallsvariablen: Die Rendite Preis Umrechnung: Wir betrachten aus einer Menge von Wertpapieren ein bestimmtes Papier j. Sein Preis im Zeitpunkt t 0 sei deterministisch P j. Seine Zahlung im Zeitpunkt t sei stochastisch Z j. Seine Rendite R j ist stochastisch und ergibt sich aus: P j ( + R j ) Z j () R j Z j P j () + R j Z j P j Erwartungswert: Zj Zj ) E[Z j ] E P j P j E P j E[ + R j ] P j ( + E[R j ]) P j P j d.h. der Erwartungswert einer Zahlung des Papiers j ergibt sich aus dem Erwartungswert von ( + Rendite) durch Multiplikation mit seinem Preis. Man beachte, dass bei dem letzten Gleichheitszeichen die Linearität des Erwartungswerts und der Erwartungswert einer sicheren Größe angewendet worden ist. ) E[ + R j ] E[Z j] P j d.h. der Erwartungswert von ( + Rendite) des Papiers j ergibt sich aus dem erwarteten Zahlungsstrom des Papiers durch Division mit seinem Preis. Varianz: 9
11 Zj P j ) var[z j ] var var[ + R j ] Pj 2 var[r j ] Pj 2 P j d.h. die Varianz einer Zahlung des Papiers j ergibt sich aus der Varianz der Rendite durch Multiplikation mit seinem quadrierten Preis ) var[r j ] var[z j] P 2 j d.h. die Varianz der Rendite des Papiers j ergibt sich aus der Zahlungsstromvarianz durch Division mit seinem quadrierten Preis. Kovarianz: Zi P i ) cov[z i ; Z j ] cov ; Z j P j P i P j P i P j cov[ + R i ; + R j ] 2 P i P j cov[r i ; R j ] d.h. die Kovarianz der Zahlungsströme zweier Papiere i und j ergibt sich aus der Renditekovarianz durch Multiplikation mit den Preisen beider Wertpapiere. ) cov[r i ;R j ] cov[zi;zj] P ip j d.h. die Kovarianz der Renditen zweier Papiere i und j ergibt sich aus der Zahlungsstromkovarianz durch Division mit den Preisen beider Wertpapiere. Weitere Eigenschaften der Basiskennzahlen: Zusammenhang zwischen Korrelationskoe zient und Kovarianz: cov[x; Y ] ) cov[x; Y ] std[x] std[y ] std[x] std[y ] Verschiebungssätze Es gilt: Der deterministische Summand verschwindet bei der Varianz Bildung. Wir beweisen diese Eigenschaft später im Abschnitt Weitere Eigenschaften der Basis Kennzahlen. 2 Auch bei der Kovarianz Bildung verschwinden deterministische Summanden. 0
12 (i) var[x] E[X 2 ] (E[X]) 2 bzw. E[X 2 ] var[x] + (E[X]) 2, (ii) cov[x ; Y ] E[X Y ] E[X] E[Y ] bzw. E[X Y ] cov[x ; Y ] + E[X] E[Y ], h i h i (iii) cov[x ; Y ] E X(Y E[Y ]) E (X E[X])Y, denn es gilt: h i (ii) cov[x ; Y ] E (X E[X])(Y E[Y ]) h i E X Y X E[Y ] E[X]Y + E[X] E[Y ] E[X Y ] E[X] E[Y ] E[X] E[Y ] + E[X] E[Y ] E[X Y ] E[X] E[Y ]. (i) (iii) Folgt aus (ii), da var[x] cov[x ; X]. h i h i E X(Y E[Y ]) E X Y X E[Y ] E[X Y ] E[X] E[Y ] (ii) cov[x ; Y ]. Varianz einer Summe Leicht zu zeigen sind nun folgende Eigenschaften: (i) var [X i + X j ] var [X i ] + var [X j ] + 2 cov [X i ; X j ] (ii) var [a i X i + a j X j ] a 2 i var [X i] + a 2 j var [X j] + 2a i a i cov [X i ; X j ] (iii) var [X i + X j + X k ] var [X i ] + var [X j ] + var [X k ] + 2 cov [X i ; X j ] + 2 cov [X i ; X k ] + 2 cov [X j ; X k ] (iv) var [ + X] var [X] (v) cov [ + X; Y ] cov [X; Y ]
13 Kapitel 2 Matrizenrechnung 2. Grundsätzliche Konstruktion Zahl oder Skalar a 2 R. Vektor a b 2 bzw. (a b) 2 mit a; b 2 R Die Schreibweise 2 bzw. 2 bezeichnet die Dimension des Vektors, d.h. wie viele Zeilen und Spalten er hat. Die erste Zahl beschreibt die Anzahl der Zeilen, die zweite Zahl die Anzahl der Spalten. a b 2 : 2 Zeilen, Spalte ) Spaltenvektor (a b) 2 : Zeile, 2 Spalten ) Zeilenvektor Spaltenvektoren sind die Standardform der Darstellung von Vektoren; wenn man von einem Vektor spricht, meint man automatisch einen Spaltenvektor. Ein (n ) Spaltenvektor x ist ein Element aus R n, man schreibt x 2 R n. Matrix a b c d e f 2 3 mit a; : : : ; f 2 R Eine (2 3) Matrix, die aus 2 Zeilen und 3 Spalten besteht. Fazit Schon der rein optische Vergleich von Vektoren und Matrizen mit Zahlen legt nahe, dass für Vektoren und Matrizen andere Rechenregeln als für Zahlen benötigt werden. 2
14 2.2 Rechnen mit Vektoren und Matrizen Grundsätzlich gilt, dass nur Vektoren/Matrizen passender Dimension verknüpft werden können. ) Klärung, was unter passend zu verstehen ist. Addition und Subtraktion von Vektoren/Matrizen ist komponentenweise de niert: a + b 2 c d 2 a + c! d b 2 e 3 a b + c d 2 2 e f g h 2 2 a + c b + d : Nicht de niert, da unterschiedliche Dimensionen. a + e c + g b + f d + h Die Transposition als Vektor/Matrix typische Operation Die Transposition macht aus Zeilen nun Spalten und aus Spalten nun Zeilen. Beispiel: x x x 2 3 x T x x 2 3 A A T A 0 2 : Spaltenvektor : Zeilenvektor : (23)_Matrix : (32)_Matrix Multiplikation Multiplikation einer Zahl mit einem Vektor/einer Matrix: Die Skalare Multiplikation Man multipliziert den Skalar mit allen Komponenten des Vektors/der Matrix: x x ( 2 R) x 2 x 2 a c b d a c b d ( 2 R) 3
15 Multiplikation zweier Matrizen: Das Matrizen Produkt Zwei Matrizen A und B können multizipliert werden, wenn die Anzahl der Spalten der ersten Matrix gleich der Anzahl der Zeilen der zweiten Matrix ist. Für die Dimensionen gilt dann: (m k) (k n) (m n) Beispiele: ( 2) (2 ) ( ): Eine Zahl, d.h. ein Skalar ( 2) ( 2): Nicht de niert ( 2) T ( 2) (2 ) ( 2) (2 2) Rechenregel: a c b d e g f a e + b g h c e + d g a f + b h c f + d h Das Element (i,j) der Ergebnis Matrix ergibt sich aus der i ten Zeile der ersten Matrix und der j ten Spalte der zweiten Matrix. Beachte, dass das Matrizen Produkt nicht kommutativ ist. Beispiel: A Spezialfall des Matrizen Produkts: Das (Standard ) Skalarprodukt oder das Innere Produkt oder die Vektor Multiplikation Seien0 x; y 2 R n zwei 0 Vektoren der gleichen Dimension (n ), also n Spaltenvektoren x x A. ; y y. A, dann heißt das Produkt x n y n x T y y T x x i y i Inneres Produkt oder (Standard ) Skalarprodukt. Beispiel: x ; y 2 x T y y T x + 2 4
16 Division Für Vektoren/Matrizen ist mit Ausnahme der Inversen Bildung keine Division de niert. Inversen Bildung Betrachtet man nur quadratische Matrizen der Dimensionen (n n), so ist die sog. Einheitsmatrix eine Matrix, die für id E A (n 3) 0 0 A id id A A (A 2 R nn ) gilt. Die Einheitsmatrix id ist das neutrale Element der Multiplikation. Bei den reellen Zahlen ist die das neutrale Element der Multiplikation. Für 6 0 gilt:. Die Zahl ist deshalb das inverse Element zu. Die zur (n n) Matrix A inverse Matrix A ist derart de niert, dass A A A A id gilt. Man kann zeigen, dass (i) die inverse Matrix eindeutig ist, falls sie existiert; (ii) die inverse Matrix existiert, falls die Spalten der Matrix linear unabhängig sind; (iii) die inverse Matrix existiert, falls die Zeilen der Matrix linear unabhängig sind; (iv) die inverse Matrix existiert, falls die Determinante verschieden von null ist. Konkrete Berechnung für den (2 2) Fall: a b d b d b c d det c a ad bc c a Beispiel: ; 5 0; 5 Proben: ; 5 0; und 2 2 ; 5 0;
17 2.3 Darstellungsmöglichkeiten mittels Matrizenrechnung (anhand eines Beispiels aus dem Bereich Portfolio Selektion ) Skalarprodukt (Vektormultiplikation) Verbale Darstellung: Die Einzelvermögen, die in die einzelnen Wertpapiere investiert werden, dürfen das insgesamt zur Verfügung stehende Budget nicht übersteigen. (übliche) formale Darstellung: x P + x 2 P 2 + : : : + x n P n W (0) () x i P i W (0) Dabei ist x 0 B der Vektor der Stückzahlen, mit denen die einzelnen Wertpapiere ins Portfolio eingehen und W (t) der Wert des Vermögens, das im Zeitpunkt t 0; ; : : : vorhanden ist Vektor Darstellung: Sei x 0 x. x n x. x n A der Stückzahlenvektor und P 0 C A P 0 P. P n P 2 x x 2 : : : x n B C. A W (0) P n A der Preisvektor, dann: oder x T P W (0) Vektor Matrizen Multiplikation: Verbale Darstellung: Varianz des Endvermögens, wobei sich das Endvermögen W () aus den Rückströmen zweier verschiedener Papiere zusammensetzt, in die jeweils mit den Stückzahlen x und x 2 investiert wurde: W () x Z + x 2 Z 2. (übliche) formale Darstellung: var[x Z + x 2 Z 2 ] x 2 var[z ] + x 2 2 var[z 2 ] + 2 x x 2 cov[z ; Z 2 ] 6
18 oder oder Matrix Darstellung: oder var[x Z + x 2 Z 2 ] var[x Z + x 2 Z 2 ] 2X 2X x j cov[z i ; Z j ] x i j var[z x x ] cov[z Z 2 ] 2 cov[z Z 2 ] var[z 2 ] {z } C var[x Z + x 2 Z 2 ] x T C x x x Di erentiation von Matrizen und Vektoren Eine lineare Funktion (lineare Abbildung) Wir betrachten die folgende lineare Funktion g als Funktion des Vektors x: 0 0 g(x) a T x mit a a A. 2 R n fest und x x A. 2 R n Dann gilt für die Ableitung nach x: a n x n g(x) x at x x xt a x a Die Ableitung von g ist also der Spaltenvektor a 2 R n. Begründung: Zunächst muss man wissen, dass man unter der Ableitung nach dem Vektor x den Spaltenvektor der partiellen Ableitungen versteht: 0 x g(x) x g(x) A. x n g(x) Da für i 2 : : : n gilt, folgt die Behauptung. x i g(x) a i Man beachte die Analogie zum eindimensionalen Fall: Sei f eine lineare Funktion der reellen Zahl x: f(x) a x mit a 2 R fest und x 2 R 7
19 Dann gilt bekanntlich: x f(x) ax x a : Eine quadratische Funktion (quadratische Abbildung) Wir betrachten die folgende quadratische Funktion g als Funktion des Vektors x: 0 g(x) x T A x mit A 2 R nn symm.fest und x x A. 2 R n Dann gilt für die Ableitung nach x: x n g(x) (x) xt A x x 2 A x Die Ableitung von g ist also der Spaltenvektor 2 A x 2 R n. Begründung: Zunächst gilt: g(x) j k x j x k a jk Für die Ableitung nach einer Komponente x i (i 2 : : : n) gilt: x i g(x) 2 a ii x i + 2 a ij x j 2 j j6i a ij x j 2 a T i j x a i : i te Zeile/Spalte von A. Für die Ableitung nach dem Vektor x gilt deshalb: x g(x) 0 x g(x) A. 2 A x x n g(x) Man beachte die Analogie zum eindimensionalen Fall: Sei f eine quadratische Funktion der reellen Zahl x: f(x) a x 2 mit a 2 R fest und x 2 R Dann gilt bekanntlich: x f(x) a x2 x 2 ax : 8
20 2.5 Di erentiation von Matrizen und Vektoren (anhand eines Beispiels aus dem Bereich Portfolio Selektion ) Verbale Darstellung: Minimiere die Varianz des Endvermögens unter der Nebenbedingung, dass das Budget eingehalten wird. Die Stückzahlen x und x 2 stellen dabei die Entscheidungsparameter dar. Matrizen Darstellung und Lagrange Ansatz: min x x T C x + (W (0) x T P) Wir leiten gemäßabschnitt 2.4 nach dem Stückzahlenvektor x ab und setzen gleich null: bzw. 0 x xt C x C x x xt P 2 C x 2 P 0 Wir machen die Probe und minimieren einzeln bezüglich der Parameter x und x 2 : Min x ;x 2 x 2 var[z ] + x 2 2 var[z 2 ] + 2 x x 2 cov[z ; Z 2 ] + (W (0) x P x 2 P 2 ) x 0 2 x var[z ] + 2 x 2 cov[z ; Z 2 ] P x x 2 var[z 2 ] + 2 x cov[z ; Z 2 ] P 2 P bzw: var(z ) cov(z ; Z 2 ) x cov(z ; Z 2 ) var(z 2 ) x 2 2 P 0 P 2 0 () C x 2 P 0 Wichtige Regeln beim Di erenzieren: x T C x x 2 C x ; d.h. Di erentiation von quadratischen Formen wie die quadratische Funktion a x 2 2 a x, x x T P x PT x x P ; d.h. Di erentiation von quadratischen Formen wie die quadratische Funktion a x a x 9
21 2.6 Abschließende Bemerkungen: Au ösung nach einer Unbekannten, wenn sie in einer Vektorgleichung enthalten ist Ausgangspunkt: Die Unbekannte soll aus folgender Vektorgleichung ermittelt werden: C x 2 P 0 Au ösen nach : 2 C x P () Das System () besteht aus n Gleichungen, die alle simultan zu erfüllen sind. Daher kann man, die Kenntnis von x vorausgesetzt, prinzipiell aus jeder dieser Gleichungen ermitteln. Man kann aber auch jede dieser Gleichungen mit einer beliebigen Zahl (also auch x i durchmultiplizieren und anschließend alle Gleichungen addieren. D.h.: Lösungsweg: Die Vektorgleichung wird durch skalare Multiplikation von links mit dem Vektor x in eine Gleichung transformiert werden, die nur aus Zahlen (Skalaren) besteht. Dann ist eine einfache Division möglich. Konkrete Umsetzung: Rückgri auf die Budgetbedingung x T P W (0). Wir multiziplieren die Gleichung () von links mit x T : 2 x T C x {z } () x T P {z } () a) die (vormalige) Vektorgleichung besteht nur noch aus Skalaren b) x T P ist aus der Budgetbedingung bekannt. Es gilt nämlich c) x T P W (0) : Daraus folgt: 2 x T C x W (0) () 2 xt C x W (0) 20
oder A = (a ij ), A =
Matrizen 1 Worum geht es in diesem Modul? Definition und Typ einer Matrix Spezielle Matrizen Rechenoperationen mit Matrizen Rang einer Matrix Rechengesetze Erwartungswert, Varianz und Kovarianz bei mehrdimensionalen
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrMatrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte
Mathematik I Matrizen In diesem Kapitel werden wir lernen was Matrizen sind und wie man mit Matrizen rechnet. Matrizen ermöglichen eine kompakte Darstellungsform vieler mathematischer Strukturen. Zum Darstellung
Mehr5 Erwartungswerte, Varianzen und Kovarianzen
47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,
MehrStatistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen
Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April
Mehr3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
MehrVertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie
Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 5.6.2013 8. Unabhängigkeit von Zufallsgrößen, Erwartungswert und Varianz 8.1
MehrIV. Matrizenrechnung. Gliederung. I. Motivation. Lesen mathematischer Symbole. III. Wissenschaftliche Argumentation. i. Rechenoperationen mit Matrizen
Gliederung I. Motivation II. Lesen mathematischer Symbole III. Wissenschaftliche Argumentation IV. Matrizenrechnung i. Rechenoperationen mit Matrizen ii. iii. iv. Inverse einer Matrize Determinante Definitheit
MehrKapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte
Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte
Mehr1.5 Erwartungswert und Varianz
Ziel: Charakterisiere Verteilungen von Zufallsvariablen (Bildbereich also reelle Zahlen, metrische Skala) durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere:
Mehr1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.
. Grundbegri e Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. ist auch das sichere Ereignis,
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
MehrStatistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrMusterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen
Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können
MehrÜbung 1: Wiederholung Wahrscheinlichkeitstheorie
Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable
Mehra 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:
Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag
MehrInhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015
Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler
MehrVektoren und Matrizen
Universität Basel Wirtschaftswissenschaftliches Zentrum Vektoren und Matrizen Dr. Thomas Zehrt Inhalt: 1. Vektoren (a) Einführung (b) Linearkombinationen (c) Länge eines Vektors (d) Skalarprodukt (e) Geraden
MehrVorlesung 5a. Die Varianz
Vorlesung 5a Die Varianz 1 1. Varianz und Standardabweichung: Elementare Eigenschaften (Buch S. 24) 2 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist definiert
MehrVorlesung 5a. Varianz und Kovarianz
Vorlesung 5a Varianz und Kovarianz 1 1. Varianz und Standardabweichung: Elementare Eigenschaften (Buch S. 24) 2 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist
MehrUniversität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n
Universität Stuttgart Physik und ihre Didaktik PD Dr Holger Cartarius Matrizen Matrizen: Ein rechteckiges Zahlenschema der Form a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A a m,1 a m,2 a m,n (a) nennt man eine
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
MehrVorlesung 8a. Kovarianz und Korrelation
Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere
Mehr67 Zufallsvariable, Erwartungswert, Varianz
67 Zufallsvariable, Erwartungswert, Varianz 67.1 Motivation Oft möchte man dem Resultat eines Zufallsexperiments eine reelle Zahl zuordnen. Der Gewinn bei einem Glücksspiel ist ein Beispiel hierfür. In
MehrBasiswissen Matrizen
Basiswissen Matrizen Mathematik GK 32 Definition (Die Matrix) Eine Matrix A mit m Zeilen und n Spalten heißt m x n Matrix: a a 2 a 4 A a 2 a 22 a 24 a 4 a 42 a 44 Definition 2 (Die Addition von Matrizen)
MehrKapitel 6: Matrixrechnung (Kurzeinführung in die Lineare Algebra)
Kapitel 6: Matrixrechnung (Kurzeinführung in die Lineare Algebra) Matrix: (Plural: Matrizen) Vielfältige Anwendungen in der Physik: - Lösung von linearen Gleichungsystemen - Beschreibung von Drehungen
Mehr9.2 Invertierbare Matrizen
34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
MehrLineare Gleichungssysteme und Matrizen
Kapitel 11 Lineare Gleichungssysteme und Matrizen Ein lineares Gleichungssystem (lgs) mit m linearen Gleichungen in den n Unbekannten x 1, x 2,..., x n hat die Gestalt: Mit a 11 x 1 + a 12 x 2 + a 13 x
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrMatrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle
2. Matrixalgebra Warum Beschäftigung mit Matrixalgebra? Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle bequeme mathematische
MehrKapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49
Kapitel 2 Matrixalgebra Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49 Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS.
MehrMethoden der Ökonometrie
Methoden der Ökonometrie Matrixalgebra und Statistische Grundlagen Philipp Czap WS 2011/2012 (Universität Trier) Methoden der Ökonometrie 10/2011 1 / 44 Hinweise Vorlesung: Mittwoch: 10-12 Uhr C 01 (deutsch),
MehrKapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49
Kapitel 2 Matrixalgebra Josef Leydold Mathematik für VW WS 207/8 2 Matrixalgebra / 49 Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS.
MehrMatrixalgebra. Kapitel 2. Ein sehr einfaches Leontief-Modell. Matrix. Ein sehr einfaches Leontief-Modell. Vektor. Spezielle Matrizen I
Ein sehr einfaches Leontief-Modell Eine Stadt betreibt die Unternehmen ÖFFENTLICHER VERKEHR, ELEKTRIZITÄT und GAS Kapitel 2 Matrixalgebra Technologiematrix und wöchentliche Nachfrage (in Werteinheiten):
Mehr1.5 Erwartungswert und Varianz
Ziel: Charakterisiere Verteilungen von Zufallsvariablen durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere: a) durchschnittlicher Wert Erwartungswert, z.b.
MehrBC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2
Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete
Mehr3 Invertierbare Matrizen Die Inverse einer (2 2)-Matrix Eigenschaften invertierbarer Matrizen... 18
Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik 2 Dr. Thomas Zehrt Vektoren und Matrizen Inhaltsverzeichnis Vektoren(Wiederholung bzw. Selbststudium 2. Linearkombinationen..............................
MehrBesteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor)
Matrizenrechnung. Matrizen Matrizen sind bereits im Kapitel Lineare Gleichungssysteme aufgetreten. Unter einer (m n) -Matrix A verstehen wir ein rechteckiges Zahlenschema mit m Zeilen und n Spalten. Der.
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrSpezielle Matrixformen
Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom
Übungsaufgaben 11. Übung: Woche vom 9. 1.-13. 1. 2017 (Numerik): Heft Ü 1: 12.28.a,b; 12.29.b,c (jeweils mit Fehlerabschätzung); 6.26; 6.27.a (auch mit Lagrange-Interpolationspolynom); 6.25; 6.28 (auch
MehrKapitel 12 Erwartungswert und Varianz
Kapitel 12 Erwartungswert und Varianz Vorlesung Wahrscheinlichkeitsrechnung I vom 4/10. Juni 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 12.1 Der Erwartungswert Der Erwartungswert einer Zufallsvariablen
MehrFH Gießen-Friedberg, FB 06 (MNI) Skript 8 Mathematik 1 für KMUB 5./7. November 2008 Prof. Dr. H.-R. Metz. Matrizen 1. a m1 a m2 a m3 a mn
FH Gießen-Friedberg, FB 06 (MNI) Skript 8 Mathematik 1 für KMUB./7. November 2008 Prof. Dr. H.-R. Metz (Matrix) Matrizen 1 Ein System von Zahlen a ik, die rechteckig in m Zeilen und n Spalten angeordnet
MehrMatrix: Eine rechteckige Anordnung reeller Zahlen a ij (i = 1,..., n i ; j = 1,..., m) in Zeilen und Spalten. Die a ij heiÿen Elemente von A.
Matrizenrechnung Matrix: Eine rechteckige Anordnung reeller Zahlen a ij i = 1,..., n i ; j = 1,..., m in Zeilen und Spalten. Die a ij heiÿen Elemente von A. a 11 a 12... a ij... a 1m a 21 a 22.........
MehrWirtschaftsmathematik
Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
Mehr1 Definition. 2 Besondere Typen. 2.1 Vektoren und transponieren A = 2.2 Quadratische Matrix. 2.3 Diagonalmatrix. 2.
Definition Die rechteckige Anordnung von m n Elementen a ij in m Zeilen und n Spalten heißt m n- Matrix. Gewöhnlich handelt es sich bei den Elementen a ij der Matrix um reelle Zahlen. Man nennt das Paar
Mehr4.2 Moment und Varianz
4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p
MehrKapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben
Kapitel 16 Aufgaben Verständnisfragen Aufgabe 16.1 Ist das Produkt quadratischer oberer bzw. unterer Dreiecksmatrizen wieder eine obere bzw. untere Dreiecksmatrix? Aufgabe 16.2 Bekanntlich gilt im Allgemeinen
MehrAufgaben zu Kapitel 16
Aufgaben zu Kapitel 16 1 Aufgaben zu Kapitel 16 Verständnisfragen Aufgabe 16.1 Ist das Produkt quadratischer oberer bzw. unterer Dreiecksmatrizen wieder eine obere bzw. untere Dreiecksmatrix? Aufgabe 16.2
Mehr6. Vorlesung. Rechnen mit Matrizen.
6. Vorlesung. Rechnen mit Matrizen. In dieser Vorlesung betrachten wir lineare Gleichungs System. Wir betrachten lineare Gleichungs Systeme wieder von zwei Gesichtspunkten her: dem angewandten Gesichtspunkt
MehrMatrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix
Inhaltsverzeichnis Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix Auf dieser Seite werden Matrizen und Vektoren fett gedruckt, um sie von Zahlen zu unterscheiden. Betrachtet wird das
MehrStatistik für Ingenieure Vorlesung 3
Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
Mehrmit "Skalarprodukt" aus i-tem "Zeilenvektor" und j-tem "Spaltenvektor"
Zusammenfassung Matrizen Transponierte: Addition: mit Skalare Multiplikation: Matrixmultiplikation: m x p m x n n x p mit ES "Skalarprodukt" aus i-tem "Zeilenvektor" und j-tem "Spaltenvektor" "Determinante"
MehrVorlesung 4b. Die Varianz
Vorlesung 4b Die Varianz 1 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist definiert als Var X := E[(X µ) 2 ], die erwartete quadratische Abweichung der Zufallsvariablen
Mehr8.2 Invertierbare Matrizen
38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
MehrKorrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:
Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise
MehrLineare Algebra: Determinanten und Eigenwerte
: und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
MehrStatistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik
Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
MehrLineare Algebra. 1 Lineare Abbildungen
Lineare Algebra Die lineare Algebra ist ein Teilgebiet der Mathematik, welches u. A. zur Beschreibung geometrischer Abbildungen und diverser Prozesse und zum Lösen linearer Gleichungssysteme mit Hilfe
Mehr8.2 Invertierbare Matrizen
38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
MehrTutorium: Diskrete Mathematik. Matrizen
Tutorium: Diskrete Mathematik Matrizen Steven Köhler mathe@stevenkoehler.de mathe.stevenkoehler.de Definition I Eine Matrix ist eine rechteckige Anordnung (Tabelle) von Elementen, mit denen man in bestimmter
Mehr2 Matrizenrechnung und Lineare Gleichungssysteme
Technische Universität München Florian Ettlinger Ferienkurs Lineare Algebra Vorlesung Dienstag WS 2011/12 2 Matrizenrechnung und Lineare Gleichungssysteme 2.1 Matrizenrechnung 2.1.1 Einführung Vor der
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrVorlesung 4b. Die Varianz
Vorlesung 4b Die Varianz 1 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ Die Varianz von X ist definiert als Var[X] := E[(X µ) 2 ], die erwartete quadratische Abweichung der Zufallsvariablen
MehrDieses Skript ist urheberrechtlich geschützt. Ich behalte mir alle Rechte vor. Eine Vervielfältigung ist nicht gestattet und strafbar.
Dieses Skript ist urheberrechtlich geschützt. Ich behalte mir alle Rechte vor. Eine Vervielfältigung ist nicht gestattet und strafbar. 1 2 Hinweise zum Skript Grundlagen der Wirtschaftsmathematik und Statistik
MehrWirtschaftsmathematik Formelsammlung
Wirtschaftsmathematik Formelsammlung Binomische Formeln Stand März 2019 (a + b) 2 = a 2 + 2ab + b 2 (a b) 2 = a 2 2ab + b 2 (a + b) (a b) = a 2 b 2 Fakultät (Faktorielle) n! = 1 2 3 4 (n 1) n Intervalle
Mehr5.2 Rechnen mit Matrizen
52 Rechnen mit Matrizen 52 Rechnen mit Matrizen 95 Für Matrizen desselben Typs ist eine Addition erklärt, und zwar durch Addition jeweils entsprechender Einträge Sind genauer A = (a ij ) und B = (b ij
MehrZusatzmaterial zur Vorlesung Statistik II
Zusatzmaterial zur Vorlesung Statistik II Dr. Steffi Höse Professurvertretung für Ökonometrie und Statistik, KIT Wintersemester 2011/2012 (Fassung vom 15.11.2011, DVI- und PDF-Datei erzeugt am 15. November
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert
Mehr5.2 Rechnen mit Matrizen
52 Rechnen mit Matrizen 52 Rechnen mit Matrizen 97 Für Matrizen desselben Typs ist eine Addition erklärt, und zwar durch Addition jeweils entsprechender Einträge Sind genauer A = (a ij ) und B = (b ij
Mehr1 Matrizenrechnung zweiter Teil
MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten
Mehrbzw. eine obere Dreiecksmatrix die Gestalt (U: upper)
bzw. eine obere Dreiecksmatrix die Gestalt (U: upper) U = u 11 u 12 u 1n 1 u nn 0 u 22 u 2n 1 u 2n 0......... 0 0 u n 1n 1 u n 1n 0 0 0 u nn Eine nicht notwendig quadratische Matrix A = (a ij ) heißt obere
MehrMatrizen. Spezialfälle. Eine m nmatrix ist ein rechteckiges Zahlenschema mit. m Zeilen und n Spalten der Form. A = (a ij ) =
Matrizen Eine m nmatrix ist ein rechteckiges Zahlenschema mit m Zeilen und n Spalten der Form a 11 a 12 a 1n A = a ij = a 21 a 22 a 2n a m1 a m2 a mn Dabei sind m und n natürliche und die Koezienten a
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
Mehr= 9 10 k = 10
2 Die Reihe für Dezimalzahlen 1 r = r 0 +r 1 10 +r 1 2 100 + = r k 10 k, wobei r k {0,,9} für k N, konvergiert, da r k 10 k 9 10 k für alle k N und ( 1 ) k 9 10 k 9 = 9 = 10 1 1 = 10 10 k=0 k=0 aufgrund
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management
für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt
MehrMultivariate Verteilungen. Gerhard Tutz LMU München
Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern
MehrLineare Algebra. Mathematik II für Chemiker. Daniel Gerth
Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter
MehrMatrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle
2. Matrixalgebra Warum Beschäftigung mit Matrixalgebra? Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle bequeme mathematische
Mehr1 Lineare Unabhängigkeit Äquivalente Definition Geometrische Interpretation Vektorräume und Basen 6
Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik Dr. Thomas Zehrt Vektorräume und Rang einer Matrix Inhaltsverzeichnis Lineare Unabhängigkeit. Äquivalente Definition.............................
MehrIn diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)
34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)
Mehr$Id: matrix.tex,v /12/02 21:08:55 hk Exp $ $Id: vektor.tex,v /12/05 11:27:45 hk Exp hk $
$Id: matrixtex,v 14 2008/12/02 21:08:55 hk Exp $ $Id: vektortex,v 12 2008/12/05 11:27:45 hk Exp hk $ II Lineare Algebra 6 Die Matrixmultiplikation 63 Inverse Matrizen und reguläre lineare Gleichungssysteme
MehrMehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
MehrVorlesung 9b. Kovarianz und Korrelation
Vorlesung 9b Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X,Y]:= E [ (X EX)(Y EY) ] Insbesondere ist
Mehra ij i - te Gleichung (Zeile), i = 1,2,3,..., m
I) MATRIZEN Der Start: Lineare Gleichungen y ax+ a2x2 + a3x3 y2 a2x+ a22x2 + a23x3... Koeffizienten a ij i - te Gleichung (Zeile), i,2,3,..., m j - te Variable (Spalte), j,2,3,..., n Definition m x n Matrix
MehrHilfsblätter Lineare Algebra
Hilfsblätter Lineare Algebra Sebastian Suchanek unter Mithilfe von Klaus Flittner Matthias Staab c 2002 by Sebastian Suchanek Printed with L A TEX Inhaltsverzeichnis 1 Vektoren 1 11 Norm 1 12 Addition,
Mehr1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Hypothesentests. 5 Regression
0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests 5 Regression Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen
MehrHauptachsentransformation: Eigenwerte und Eigenvektoren
Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung
MehrMatrizen und Determinanten, Aufgaben
Matrizen und Determinanten, Aufgaben Inhaltsverzeichnis 1 Multiplikation von Matrizen 1 11 Lösungen 3 2 Determinanten 6 21 Lösungen 7 3 Inverse Matrix 8 31 Lösungen 9 4 Matrizengleichungen 11 41 Lösungen
MehrVorlesung 8b. Kovarianz, Korrelation und Regressionsgerade
Vorlesung 8b Kovarianz, Korrelation und Regressionsgerade 1 1. Die Kovarianz und ihre Eigenschaften 2 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und
Mehr