Bayessches Lernen (3)

Größe: px
Ab Seite anzeigen:

Download "Bayessches Lernen (3)"

Transkript

1 Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Bayessches Lernen (3) Chrstoph Sawade/Nels Landwehr Jules Rasetaharson Tobas Scheffer

2 Überblck Wahrschenlchketen, Erwartungswerte, Varanz Grundkonzepte des Bayesschen Lernens (Bayessche) Parameterschätzung für Wahrschenlchketsvertelungen Bayessche Lneare Regresson, Nave Bayes 2

3 Überblck Bayessche Lneare Regresson Modellbasertes Klassfkatonslernen: Nave Bayes 3

4 Wederholung: Regresson Regressonsproblem: X Tranngsdaten Matrxschrebwese Problemstellung Vorhersage: L = ( x, y),...,( x, y N N Merkmalsvektoren N = ( x... xn ) = x x m Gegeben L, neues Testbespel x Fnde optmale Vorhersage y für x x x ) Nm x y m Merkmalsvektoren reelles Zelattrbut Zugehörge Labels (Werte Zelattrbut) y y =... y N 4

5 Wederholung: Lneare Regresson Modellraum lneare Regresson: T f ( x w ) = wx w Parametervektor, Gewchtsvektor m = w + 0 wx Zusätzlches konstantes Attrbut x = = 0 Lneare Abhänggket von ( x) von Parametern w Lneare Abhänggket von ( x) von Engaben x f w f w 5

6 Bayessche Regresson: Daten Modellvorstellung bem Bayesschen Lernen: Prozess der Datengenererung Echtes Modell f * wrd aus Pror-Vertelung P( w) gezogen Merkmalsvektoren x,..., xn werden unabhängg vonenander gezogen (ncht modellert) Für jedes x wrd das Label y gezogen nach Vertelung Py ( (Anschauung: ) x, f* ) y ( ) f* x Daten L fertg generert We seht Py ( x, f) für Regressonsprobleme aus? * 6

7 Bayessche Regresson: Daten T Annahme, dass es echtes Modell f *( x) = xw* gbt, dass de Daten perfekt erklärt, unrealstsch Daten folgen ne genau ener Regressons- Geraden/Ebene Alternatve Annahme: Daten folgen f ( x) * bs auf klene, zufällge Abwechungen (Rauschen) 7

8 Bayessche Regresson: Daten Alternatve Annahme: Daten folgen f ( x) * bs auf klene, zufällge Abwechungen (Rauschen) Modellvorstellung: Zelattrbut y generert aus f ( x) * normalverteltes Rauschen y = f ( x) + ε mt ε ~ ( ε 0, σ 2 * ) f ( x ) * 0 f ( x) * plus Py x f y f x σ 2 ( 0, *) = ( *( 0), ) Parameter σ modellert Stärke des Rauschens 8

9 Bayessche Regresson: Vorhersagevertelung Zel: Bayessche Vorhersage y* = arg max y Py ( x, L) Ernnerung: Berechnung mt Bayesan Model Averagng Vorhersage, gegeben Modell Modell gegeben Tranngsdaten Py ( x, L) = Py ( x, θ) P( θ Ld ) θ P( θ L) = PL ( θ) P( θ) Z Lkelhood:Tranngsdaten gegeben Modell Pror über Modelle 9

10 Bayessche Regresson: Lkelhood I Lkelhood der Daten L: Nachrechnen: Multdmensonale Normalvertelung mt Kovaranzmatrx σ 2 I Enhetsmatrx = P( y X, w) = Py (,..., y X, w) N = Py ( x, w) = N = N T 2 ( y, σ ) = x w ( X T, σ 2 ) = y w I X T T x w w =... T xn w Bespele unabhängg T f ( x w ) = x w Vektor der Vorhersagen 0

11 Bayessche Regresson: Pror Bayessches Lernen: Pror über Modelle f Modelle parametrsert durch Gewchtsvektor w Pror über Gewchtsvektoren Normalvertelung st konjugert zu sch selbst, normalvertelter Pror und normalvertelte Lkelhood ergeben weder normalvertelten Posteror, be fester Varanz P(w) Deshalb w ~ ( w 0, ) Σ p Σ p Kovaranzmatrx, oft Σ = σ I σ steuert Stärke des Prors 2 p erwarten klene Attrbutgewchte, w 2 klen p 2 p

12 Bayessche Regresson: Posteror Posteror-Vertelung über Modelle gegeben Daten Ohne Bewes P( w L) = PL ( w) P( w) Bayessche Regel Z = Σ Z T ( y X w, σ 2 I) ( w 0, p ) (, A ) = w w mt w = σ 2 A X Posteror st weder normalvertelt, mt neuem Mttelwert w und Kovaranzmatrx y A T = σ 2 XX +Σ p A 2

13 Bayessche Regresson: Posteror Posteror: MAP-Hypothese: w = MAP? p L A ( w ) = ( w w, ) 3

14 Bayessche Regresson: Posteror Posteror: MAP-Hypothese: w = w MAP σ 2 p L A ( w ) = ( w w, ) = A Xy 4

15 Sequentelles Update des Posterors Instanzen unabhängg Berechnung des Posteror als sequentelles Update: Aufmultplzeren der Lkelhood enzelner Instanzen P( w L) P( w) PL ( w) N = P( w) = Py (, ) x w Lkelhood für enzeln an Pror multplzeren Se P( w) = P( w ) 0, P ( ) n w der Posteror, wenn wr nur de ersten n Instanzen n L verwenden: P( w L) P( w) Py ( x, w) Py ( 2 x2, w) Py ( 3 x3, w)... Py ( N xn, w) P ( w) P2 ( w) P3 ( w) P N ( w) y 5

16 Sequentelles Update des Posterors Sequentelles Update: Datenpunkte nachenander anschauen Neue Informatonen (Datenpunkte) verändern Stück für Stück de Vertelung über w 6

17 Bespel Bayessche Regresson f( x) w wx = 0 + (endmensonale Regresson) Sequentelles Update: P( w) = P( w) 0 P( w) = P( w) Sample aus P 0 0( w) 7

18 Bespel Bayessche Regresson f( x) = w + wx 0 Sequentelles Update: Lkelhood Py ( x, w) (endmensonale Regresson) P( w) P( w) Py ( x, w) 0 P ( w) Datenpunkt x, y y = f( x ) + ε = w + wx + ε 0 w0= wx + y ε Sample aus P ( w) 8

19 Bespel Bayessche Regresson f( x) w wx = 0 + (endmensonale Regresson) Sequentelles Update: Lkelhood Py ( x, w) P( w) P( w) Py ( x, w) 0 Posteror P ( w) Sample aus P ( w) 9

20 Bespel Bayessche Regresson f( x) = w + wx 0 Sequentelles Update: Py ( 2 x2, w) (endmensonale Regresson) P( w) P( w) Py ( x, w) P ( w) Sample aus P 2 2( w) 20

21 Bespel Bayessche Regresson f( x) = w + wx 0 Sequentelles Update: Py ( x, w) N N (endmensonale Regresson) P( w) P ( w) Py ( x, w) N N N N P ( ) N w Sample aus PN ( w) 2

22 Bayessche Regresson: Vorhersagevertelung Bayes-Hypothese: wahrschenlchstes y. Ernnerung: Berechnung mt Bayesan Model Averagng y* = arg max y Py ( x, L) Py ( x, L) = Py ( x, θ) P( θ Ld ) θ Bayesan Model Averagng Bayessche Vorhersage: Vorhersage, gegeben Modell Mtteln der Vorhersage über alle Modelle. Modell gegeben Tranngsdaten Gewchtung: we wahrschenlch st Modell a posteror. 22

23 Bayessche Regresson: Vorhersagevertelung Vorhersagevertelung weder normalvertelt: Py ( x, L) = Py ( xw, ) P( w Ld ) w T 2 = ( y xw, σ ) ( w w, A ) dw Ohne Bewes mt ( T T y, A ) = xwx x = σ 2 A T w Xy A σ 2 XX Optmale Vorhersage: Engabevektor multplzert: T y * = xw = +Σ p x wrd mt w 23

24 Bayessche Regresson: Vorhersagevertelung T f ( x) = xw Bayessche Regresson lefert ncht nur T Regressonsfunkton f ( x) = xwsondern Dchte von y und damt auch enen Konfdenzkorrdor. ( T T y xwx, A x) x z.b. 95% Konfdenz 24

25 Nchtlneare Bassfunktonen Enschränkung der bshergen Modelle: nur lneare Abhänggketen zwschen x und f(x). Lneare Daten Ncht-lneare Daten In velen Fällen nützlch: ncht-lneare Abhänggket Grössere Klasse von Funktonen repräsenterbar 25

26 Nchtlneare Bassfunktonen Enfachster Weg: Lneare Regresson auf nchtlnearen Bassfunktonen Idee: Ncht auf den ursprünglchen x arbeten, sondern auf nchtlnearer Transformaton φ( x) Enfach: Inferenz für Lernen, Vorhersage m Prnzp unverändert Bassfunktonen,..., : m φ φd X X Instanzenraum (mest X = ) φ( x) φ ( x) φ ( x)... φd ( x) 2 = d φ : m mestens d d m 26

27 Nchtlneare Bassfunktonen Lneare Regresson n den Bassfunktonen d f( x) w wφ ( x) = 0 + = = w T φ( x) f(x) st lneare Kombnaton von Bassfunktonen Anschauung: Abbldung n höherdmensonalen Raum φ( X ), lneare Regresson dort 27

28 Nchtlneare Bassfunktonen: Bespel y Bespel X = φ ( x) = f( x) = w + wφ ( x) + wφ ( x) Nchtlneare Funkton n X darstellbar als lneare Funkton n φ( X ) f( x) 3x x 2 = + φ x x φ ( x) = 2 y x 2 x 2 x 28

29 Nchtlneare Bassfunktonen Bespele für ncht-lneare Bassfunktonen Polynome φ j ( x) = x j 29

30 Nchtlneare Bassfunktonen Bespele für ncht-lneare Bassfunktonen Gauss-Kurven ( x µ j ) φ j ( x) = exp 2 2s µ,..., µ d Mttelpunkte 2 s feste Varanz 2 30

31 Nchtlneare Bassfunktonen Bespele für ncht-lneare Bassfunktonen Sgmode φ ( x) j x µ j = σ s σ ( a) = + exp( a ) µ,..., µ d Mttelpunkte s feste Skalerung 3

32 Regresson mt Bassfunktonen φ Funkton bldet m-dmensonalen Engabevektor x auf d-dmensonalen Merkmalsvektor ab. T x = φ x w Regressonsmodell: f ( ) ( ) Optmale Vorhersage we bsher, mt φ(x) statt x. ( T T φ φ φ ) Py ( x, L) = y ( x) w, ( x) A ( x) y* = arg max py ( x, L) = φ( x) T w y φ( x) Transformerte Testnstanz A= σ ΦΦ + Σ = σ A Φ Φ = φ( X Transformerte Datenmatrx 2 T p, w 2 y und ) 32

33 Bespel Regresson mt Nchtlnearen Bassfunktonen Bespel für Regresson mt ncht-lnearen Bassfunktonen Generere N=25 ncht-lneare Datenpunkte durch y = x + x 2 sn(2 π ) ε ε ~ ( ε 0, σ ), [0,] 9 Gaussche Bassfunktonen ( x µ j ) φ j ( x) = exp 2 2s We seht der Posteror P( w L) Vorhersagevertelung Py ( x, L) 2 µ = 0.,..., µ = und de aus? 33

34 Vorhersagevertelung f( x) N= N=4 Datenpunkt y = sn(2 πx) + ε N=2 N=25 34

35 Samples aus dem Posteror N= N=4 N=2 N=25 35

36 Überblck Bayessche Lneare Regresson Modellbasertes Klassfkatonslernen: Nave Bayes 36

37 Bayessche Klassfkaton Optmale Vorhersage von y gegeben neues x: Bayesan model averagng Regresson: geschlossene Lösung, Vorhersagevertelung normalvertelt Klassfkaton: kene geschlossene Lösung für Vorhersagevertelung Zwetbester Ansatz: MAP-Hypothese y* = arg max y Py ( x, L) = arg max Py ( x, θ) P( θ Ld ) θ y Manchmal geschlossene Lösung für Posteror (nave Bayes ja, logstsche Regresson nen) MAP-Hypothese kann (numersch) berechnet werden 37

38 Klassfkatonsprobleme Tranngsdaten L L = ( x, y),...,( x, y N N Matrxschrebwese für Tranngsdaten L X Merkmalsvektoren X x N = ( x... xn ) = x Lernen: MAP Modell ) m x x Nm θmap = arg max θ P( θ L) = arg max PL ( θ) P( θ) θ x y Merkmalsvektoren dskrete Klassenlabels Zugehörge Klassenlabel y y y =... y N 38

39 Modellbasertes und Dskrmnatves Lernen Lkelhood PLθ ( ) : welcher Tel der Daten L wrd modellert? Dskrmnatves Lernen: θ wrd so gewählt, dass es Werte der Klassenvarable y n den Daten gut modellert. Klassfkator soll nur y für jedes x gut vorhersagen. Wozu also gute Modellerung von X berückschtgen? Generatves (Modellbasertes) Lernen: θmap = arg max θ P( θ) P( y X, θ) θmap = arg max θ P( θ) P( y, X θ) Dskrmnatve Lkelhood Generatve Lkelhood θ wrd so gewählt, dass es Merkmalsvektoren X und Werte der Klassenvarable y n den Daten gut modellert 39

40 Modellbasert: Nave Bayes Nave Bayes: Modellbaserte Klassfkaton θmap = arg max θ P( θ) P( y, X θ) Lkelhood der Daten L: N unabhängge Instanzen mt Klassenlabels PL ( θ) = P( x,..., x, y,..., y θ) N = N = P( x, y θ ) N 40

41 Modellbasert: Nave Bayes We modelleren wr P( x, y θ )? Gemensame Vertelung (Produktregel) We modelleren wr P( x y, θ )? x... hochdmensonal, 2 m verschedene Werte (x bnär) P( x, y θ)= Py ( θ) P( x y, θ) Klassenwahrschenlchket: z.b. P(spam) vs P(ncht spam) x = x m Nave Unabhänggketsannahme x-vertelung gegeben Klasse: z.b. Wortvertelung n Spam-Emals 4

42 Nave Bayes: Unabhänggketsannahme Bedngte Unabhänggketsannahme: m p( x y, θ) = Px ( y, θ) = Annahme: zwe Klassen, bnäre Attrbute Attrbute unabhängg gegeben de Klasse y Modellerte Vertelungen (Modellparameter): y Pyθ ( ) Bernoull, mt Parameter θ = Py ( = θ) Für {,..., m} (Attrbute), c {0,} (Klassen): Px ( y cθ, ) = Bernoull, mt Parameter θ x xc = Px ( = θ, y= c) 42

43 Nave Bayes: Lkelhood Lkelhood der Daten L mt bshergen Annahmen: N PL ( θ) = P ( x y θ) j= j= j, j N y m x y Py j θ Px j j yj θ = = j = ( ) (, ) Unabhänggket Instanzen N = Py ( j θ) P( x j yj, θ) Produktregel Bedngte Unabhänggket Attrbute, zuständge Modellparameter ( N ) y m x 0 m x py ( (, (, j θ Px j j yj θ Px j yj θ = = = = ) ) ) Label-Lkelhood j=... N j=... N y = 0 y = j j Merkmals-Lkelhood negatve Instanzen Merkmals-Lkelhood postve Instanzen y = Klassenlabel j-te Instanz = Wert -tes Merkmal j-te Instanz j x j 43

44 Nave Bayes: Posteror Pror-Vertelung: unabhängg für enzelne Parameter ( m ) ( ) x 0 m x = = P y ( θ) = P ( θ ) P ( θ ) P ( θ ) Label- Pror Merkmals-Pror negatve Instanzen Merkmals-Pror postve Instanzen Posteror: unabhängge Blöcke der Form Pror x Münzwurf-Lkelhood ( N ) y y m x 0 x 0 p( θ L) = P( θ ) py ( ( (, j θ ) Pθ Px j j yj θ = Z ) = ) j=... N y j = 0 Münzwurf Münzwurf m x x P( θ ) Px ( j yj, θ = ) j=... N y j = Münzwurf 44

45 Nave Bayes: Posteror Konjugerter Pror Beta-Vertelung y y P( θ )~ Beta( θ α, α ) 0 Für {,..., m} (Attrbute), c {0,} (Klassen): P x c x c ( )~ Beta( x c, x c) θ θ α α θ = Px ( = θ, y= c) Konjugerter Pror: Posteror-Vertelung n jedem Block weder Beta-Vertelt A-posteror Vertelung Nave Bayes: Standard Lösung für Münzwurfszenaro xc 45

46 Modellbasert: Nave Bayes θ y A-posteror Vertelung für Parameter P( θ L) : y MAP = y y m y P( θ L) = P( θ ) Py ( j j θ ) = Z Beta-Pror Münzwurf Lkelhood N N+ α + α + N + α Beta-vertelter Posteror y = Beta( θ α + N, α + N ) mt 0 0 N0: Anzahl Bespele mt Klasse 0 n L N : Anzahl Bespele mt Klasse n L 46

47 Modellbasert: Nave Bayes A-posteror Vertelung für Parameter P( θ xc ) : Für {,..., m} (Attrbute), c {0,} (Klassen): θ P( θ L) = P( θ ) Px ( y, θ ) xc MAP mt = N xc xc xc j j Z j= Beta-Pror y = c N xc xc j Münzwurf Lkelhood Beta-vertelter Posteror N : Anzahl Bespele mt x = und Klasse c n L N : Anzahl Bespele mt x = 0 und Klasse c n L N = Beta + N + N + α xc xc + α + N + α 2 xc xc xc xc xc ( θ αxc xc, αxc xc ) 47

48 Nave Bayes: Lernalgorthmus Engabe: L= ( x, y ),...,( x, y ) Schätze Klassenvertelung: θ y MAP = N N+ α + α + N + α Für Klassen y=0 und y=, für alle Attrbute, schätze: θ x y MAP = N x y x y Alle Modellparameter gelernt! N N + α mt + α + N + α 2 x y x y x y x y mt x y x y N N : Anzahl Bespele mt Klasse n L N : Anzahl Bespele mt Klasse 0 n L 0 N : Anzahl Bespele mt x = und Klasse y n L N : Anzahl Bespele mt x = 0 und Klasse y n L 48

49 Nave Bayes: Klassfkaton Engabe: Rückgabe: x x =... x m y* = arg max y Py ( x, θmap ) Laufzet bem Klassfzeren: O( Y m) m= Anzahl Attrbute, Y = 2 Laufzet bem Lernen: ON ( Y m) y m x y arg max y Py ( θmap ) Px (, ) yθmap = = Klassenvertelung Produkt der Attrbutvertelungen, gegeben Klasse N = Anzahl Tranngsnstanzen 49

50 Nave Bayes: Bespel Tranngsdaten: 2 3 x : Schufa pos. x : Student y: Rückzahlung ok? 2 Instanz x Instanz x 0 Instanz x 0 0 Pror: alle Parameter α n den Beta-Vertelungen setzen wr auf α=2 (Pseudocounts: α-=) Gelernte Parameter/Hypothese? 50

51 Nave Bayes: Bespel Gelernte Parameter/Hypothese Merkmalsvertelungen x Px ( y= 0) 0?? x 2 Klassenvertelung 0?? y Px ( y= 0) 2 Py ( ) 0?? Py ( ) Px ( y) x Px ( y= ) 0?? x 2 Px ( y= ) 2 0?? 5

52 Nave Bayes: Bespel Gelernte Parameter/Hypothese Merkmalsvertelungen x Px ( y= 0) 0 2/3 /3 x 2 0 /3 2/3 Klassenpror y Px ( y= 0) 2 Py ( ) 0 2/5 3/5 Py ( ) Px ( y) x Px ( y= ) 0 /4 3/4 x 2 0 2/4 2/4 Px ( y= ) 2 52

53 Nave Bayes: Bespel Testanfrage: x = (Schufa pos = 0,Student = 0) Vorhersage: 4 3 > y* = y* = arg max y Py ( x, θmap ) P( y = 0) P( x y = 0) = P( y = 0) P( x = 0 y = 0) P( x = 0 y = 0) = = P( y = ) P( x y = ) = P( y = ) P( x = 0 y = ) P( x = 0 y = ) = = = arg max Py ( θ ) Px ( y, θ ) 2 m y MAP MAP = 53

54 Nave Bayes: Mehrwertge Attrbute Parameter: x vy j θ = MAP für alle Werte v von x, alle Klassen yj Pror: Drchlet statt Beta. Schätzen der Parameter: θ x= vy MAP j = v' x= vy x= vy j j x = v' y x = v' y j j mt N : Anzahl Bespele mt Wert v für Attrbut x und Klasse y n L x= vy j N j N + α + α 54

55 Nave Bayes: Egenschaften Enfach zu mplementeren, effzent, populär. Funktonert ok, wenn de Attrbute wrklch unabhängg snd. Das st aber häufg ncht der Fall. Unabhänggketsannahme und modellbasertes Tranng führen häufg zu schlechten Ergebnssen. Logstsche Regresson, Wnnow, Perzeptron snd mest besser. 55

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Graphsche Modelle els Landwehr Überblck Graphsche Modelle: Syntax und Semantk Graphsche Modelle m Maschnellen Lernen Inferenz n Graphschen

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayessches Lernen

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayessches Lernen Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Bayessches Lernen Chrstoph Sawade/Nels Landwehr Jules Rasetaharson Tobas Scheffer Überblck Wahrschenlchketen, Erwartungswerte, Varanz

Mehr

Modelle, Version Spaces, Lernen

Modelle, Version Spaces, Lernen Unverstät Potsdam Insttut ür Inormatk Lehrstuhl Maschnelles Lernen Maschnelles Lernen Modelle Verson Spaces Lernen Tobas Scheer Mchael Brückner Klasskaton Engabe: Instanz Objekt X. Können durch Attrbut-Vektoren

Mehr

Modelle, Version Spaces, Lernen

Modelle, Version Spaces, Lernen Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Maschnelles Lernen Modelle, Verson Spaces, Lernen Chrstoph Sawade/Nels Landwehr Slva Makowsk Tobas Scheffer Überblck Problemstellungen:

Mehr

Prof. Dr. P. Kischka WS 2012/13 Lehrstuhl für Wirtschafts- und Sozialstatistik. Klausur Statistische Inferenz

Prof. Dr. P. Kischka WS 2012/13 Lehrstuhl für Wirtschafts- und Sozialstatistik. Klausur Statistische Inferenz Prof. Dr. P. Kschka WS 2012/13 Lehrstuhl für Wrtschafts- und Sozalstatstk Klausur Statstsche Inferenz 15.02.2013 Name: Matrkelnummer: Studengang: Aufgabe 1 2 3 4 5 6 7 8 Summe Punkte 6 5 5 5 5 4 4 6 40

Mehr

Kapitel 7: Ensemble Methoden. Maschinelles Lernen und Neural Computation

Kapitel 7: Ensemble Methoden. Maschinelles Lernen und Neural Computation Kaptel 7: Ensemble Methoden 133 Komtees Mehrere Netze haben bessere Performanz als enzelne Enfachstes Bespel: Komtee von Netzen aus der n-fachen Kreuzvalderung (verrngert Varanz) De Computatonal Learnng

Mehr

Kapitel 2: Klassifikation. Maschinelles Lernen und Neural Computation

Kapitel 2: Klassifikation. Maschinelles Lernen und Neural Computation Kaptel 2: Klassfkaton Maschnelles Lernen und Neural Computaton 28 En enfacher Fall En Feature, Hstogramme für bede Klassen (z.b. Glukosewert, Dabetes a/nen) Kene perfekte Trennung möglch Entschedung: Schwellwert

Mehr

Beschreibung des Zusammenhangs zweier metrischer Merkmale. Streudiagramme Korrelationskoeffizienten Regression

Beschreibung des Zusammenhangs zweier metrischer Merkmale. Streudiagramme Korrelationskoeffizienten Regression Beschrebung des Zusammenhangs zweer metrscher Merkmale Streudagramme Korrelatonskoeffzenten Regresson Alter und Gewcht be Kndern bs 36 Monaten Knd Monate Gewcht 9 9 5 8 3 4 7.5 4 3 6 5 3 6 4 3.5 7 35 5

Mehr

Teil E: Qualitative abhängige Variable in Regressionsmodellen

Teil E: Qualitative abhängige Variable in Regressionsmodellen Tel E: Qualtatve abhängge Varable n Regressonsmodellen 1. Qualtatve abhängge Varable Grundlegendes Problem: In velen Fällen st de abhängge Varable nur über enen bestmmten Werteberech beobachtbar. Bsp.

Mehr

Mehrfachregression: Einfluss mehrerer Merkmale auf ein metrisches Merkmal. Designmatrix Bestimmtheitsmaß F-Test T-Test für einzelne Regressoren

Mehrfachregression: Einfluss mehrerer Merkmale auf ein metrisches Merkmal. Designmatrix Bestimmtheitsmaß F-Test T-Test für einzelne Regressoren Mehrfachregresson: Enfluss mehrerer Merkmale auf en metrsches Merkmal Desgnmatrx Bestmmthetsmaß F-Test T-Test für enzelne Regressoren Mehrfachregresson Bvarat: x b b y + = 0 ˆ k k x b x b x b b y + + +

Mehr

Prof. Dr. Roland Füss Statistik II SS 2008

Prof. Dr. Roland Füss Statistik II SS 2008 5. Spezelle Testverfahren Zahlreche parametrsche und nchtparametrsche Testverfahren, de nach Testvertelung (Bnomal, t-test etc.), Analysezel (Anpassungs- und Unabhänggketstest) oder Konstrukton der Prüfgröße

Mehr

6. Modelle mit binären abhängigen Variablen

6. Modelle mit binären abhängigen Variablen 6. Modelle mt bnären abhänggen Varablen 6.1 Lneare Wahrschenlchketsmodelle Qualtatve Varablen: Bnäre Varablen: Dese Varablen haben genau zwe möglche Kategoren und nehmen deshalb genau zwe Werte an, nämlch

Mehr

12 UMPU Tests ( UMP unbiased )

12 UMPU Tests ( UMP unbiased ) 89 1 UMPU Tests ( UMP unbased ) Nach Bemerkung 11.8(b) exstert m Allgemenen ken zwesetger UMP- Test zu enem Nveau α. Deshalb Enschränkung auf unverfälschte Tests: ϕ Φ α heßt unverfälscht (unbased) zum

Mehr

Standardnormalverteilung / z-transformation

Standardnormalverteilung / z-transformation Standardnormalvertelung / -Transformaton Unter den unendlch velen Normalvertelungen gbt es ene Normalvertelung, de sch dadurch ausgeechnet st, dass se enen Erwartungswert von µ 0 und ene Streuung von σ

Mehr

Neuronale Netze. M. Gruber (1) ausgeloste Reiz ist x (1) = (1) (s (1) ) mit (1) (s) = 1 sgn(s 1 ) sgn(s 2 ) T. .

Neuronale Netze. M. Gruber (1) ausgeloste Reiz ist x (1) = (1) (s (1) ) mit (1) (s) = 1 sgn(s 1 ) sgn(s 2 ) T. . Neuronale Netze M. Gruber 7.11.015 Begnnen wr mt enem Bespel. Bespel 1 Wr konstrueren enen Klasskator auf der Menge X = [ 1; 1], dessen Wrkung man n Abb.1 rechts sehen kann. Auf der blauen Telmenge soll

Mehr

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Lösungen. Übungsklausur Wahrscheinlichkeit und Regression Die Lösungen

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Lösungen. Übungsklausur Wahrscheinlichkeit und Regression Die Lösungen Übungsklausur Wahrschenlchket und Regresson De Lösungen. Welche der folgenden Aussagen treffen auf en Zufallsexperment zu? a) En Zufallsexperment st en emprsches Phänomen, das n stochastschen Modellen

Mehr

Fallstudie 1 Diskrete Verteilungen Abgabe: Aufgabentext und Lösungen schriftlich bis zum

Fallstudie 1 Diskrete Verteilungen Abgabe: Aufgabentext und Lösungen schriftlich bis zum Abgabe: Aufgabentext und Lösungen schrftlch bs zum 15. 6. 2012 I. Thema: Zehen mt und ohne Zurücklegen Lesen Se sch zunächst folgenden Text durch! Wr haben bsher Stchprobenzehungen aus Grundgesamtheten

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 009 UNIVERSITÄT KARLSRUHE Blatt 4 Prv.-Doz. Dr. D. Kadelka Dpl.-Math. W. Lao Übungen zur Vorlesung Stochastsche Prozesse Musterlösungen Aufgabe 16: (Success Run, Fortsetzung)

Mehr

Erwartungswert, Varianz, Standardabweichung

Erwartungswert, Varianz, Standardabweichung RS 24.2.2005 Erwartungswert_Varanz_.mcd 4) Erwartungswert Erwartungswert, Varanz, Standardabwechung Be jedem Glücksspel nteresseren den Speler vor allem de Gewnnchancen. 1. Bespel: Setzen auf 1. Dutzend

Mehr

-70- Anhang: -Lineare Regression-

-70- Anhang: -Lineare Regression- -70- Anhang: -Lneare Regressn- Für ene Messgröße y f(x) gelte flgender mathematsche Zusammenhang: y a+ b x () In der Regel läßt sch durch enen Satz vn Messwerten (x, y ) aber kene Gerade zechnen, da de

Mehr

Alternative Darstellung des 2-Stichprobentests für Anteile. Beobachtete Response No Response Total absolut DCF CF

Alternative Darstellung des 2-Stichprobentests für Anteile. Beobachtete Response No Response Total absolut DCF CF Alternatve Darstellung des -Stchprobentests für Antele DCF CF Total n= 111 11 3 Response 43 6 69 Resp. Rate 0,387 0,3 0,309 Beobachtete Response No Response Total absolut DCF 43 68 111 CF 6 86 11 69 154

Mehr

Abbildung 3.1: Besetzungszahlen eines Fermigases im Grundzustand (a)) und für eine angeregte Konfiguration (b)).

Abbildung 3.1: Besetzungszahlen eines Fermigases im Grundzustand (a)) und für eine angeregte Konfiguration (b)). 44 n n F F a) b) Abbldung 3.: Besetzungszahlen enes Fermgases m Grundzustand (a)) und für ene angeregte Konfguraton (b)). 3.3 Ferm Drac Statstk In desem Abschntt wollen wr de thermodynamschen Egenschaften

Mehr

Lehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Dr. Roland Füss Statistik II: Schließende Statistik SS 2007

Lehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Dr. Roland Füss Statistik II: Schließende Statistik SS 2007 Lehrstuhl für Emprsche Wrtschaftsforschung und Ökonometre Dr Roland Füss Statstk II: Schleßende Statstk SS 007 5 Mehrdmensonale Zufallsvarablen Be velen Problemstellungen st ene solerte Betrachtung enzelnen

Mehr

Zulassungsprüfung Stochastik,

Zulassungsprüfung Stochastik, Zulassungsprüfung Stochastk, 11.5.13 Wr gehen stets von enem Maßraum (, A, µ) bzw. enem Wahrschenlchketsraum (,A,P) aus. De Borel σ-algebra auf R n wrd mt B n bezechnet, das Lebesgue Maß auf R n wrd mt

Mehr

Regressionsgerade. x x 1 x 2 x 3... x n y y 1 y 2 y 3... y n

Regressionsgerade. x x 1 x 2 x 3... x n y y 1 y 2 y 3... y n Regressonsgerade x x x x 3... x n y y y y 3... y n Bem Auswerten von Messrehen wrd häufg ene durch theoretsche Überlegungen nahegelegte lneare Bezehung zwschen den x- und y- Werten gesucht, d.h. ene Gerade

Mehr

Kapitel 8: Kernel-Methoden. Maschinelles Lernen und Neural Computation

Kapitel 8: Kernel-Methoden. Maschinelles Lernen und Neural Computation Kaptel 8: Kernel-Methoden SS 009 Maschnelles Lernen und Neural Computaton 50 Ausgangsbass: Perceptron Learnng Rule Δw y = Kf = 0Ksonst K"target" = Kf Rosenblatt (96) Input wrd dazugezählt (abgezogen),

Mehr

Daten sind in Tabellenform gegeben durch die Eingabe von FORMELN können mit diesen Daten automatisierte Berechnungen durchgeführt werden.

Daten sind in Tabellenform gegeben durch die Eingabe von FORMELN können mit diesen Daten automatisierte Berechnungen durchgeführt werden. Ene kurze Enführung n EXCEL Daten snd n Tabellenform gegeben durch de Engabe von FORMELN können mt desen Daten automatserte Berechnungen durchgeführt werden. Menüleste Symbolleste Bearbetungszele aktve

Mehr

Arbeitsgruppe Radiochemie Radiochemisches Praktikum P 06. Einführung in die Statistik. 1. Zählung von radioaktiven Zerfällen und Statistik 2

Arbeitsgruppe Radiochemie Radiochemisches Praktikum P 06. Einführung in die Statistik. 1. Zählung von radioaktiven Zerfällen und Statistik 2 ETH Arbetsgruppe Radocheme Radochemsches Praktkum P 06 Enführung n de Statstk INHALTSVERZEICHNIS Sete 1. Zählung von radoaktven Zerfällen und Statstk 2 2. Mttelwert und Varanz 2 3. Momente ener Vertelung

Mehr

Beschreibende Statistik Mittelwert

Beschreibende Statistik Mittelwert Beschrebende Statstk Mttelwert Unter dem arthmetschen Mttel (Mttelwert) x von n Zahlen verstehen wr: x = n = x = n (x +x +...+x n ) Desen Mttelwert untersuchen wr etwas genauer.. Zege für n = 3: (x x )

Mehr

Lineare Regression (1) - Einführung I -

Lineare Regression (1) - Einführung I - Lneare Regresson (1) - Enführung I - Mttels Regressonsanalysen und kompleeren, auf Regressonsanalysen aserenden Verfahren können schenar verschedene, jedoch nenander üerführare Fragen untersucht werden:

Mehr

Übung zur Vorlesung - Theorien Psychometrischer Tests II

Übung zur Vorlesung - Theorien Psychometrischer Tests II Übung zur Vorlesung - Theoren Psychometrscher Tests II N. Rose 9. Übung (15.01.2009) Agenda Agenda 3-parametrsches logstsches Modell nach Brnbaum Lnkfunktonen 3PL-Modell nach Brnbaum Modellglechung ( =

Mehr

WS 2016/17 Prof. Dr. Horst Peters , Seite 1 von 9

WS 2016/17 Prof. Dr. Horst Peters , Seite 1 von 9 WS 2016/17 Prof. Dr. Horst Peters 06.12.2016, Sete 1 von 9 Lehrveranstaltung Statstk m Modul Quanttatve Methoden des Studengangs Internatonal Management (Korrelaton, Regresson) 1. Überprüfen Se durch Bestmmung

Mehr

8 Logistische Regressionsanalyse

8 Logistische Regressionsanalyse wwwstatstkpaketde 8 Logstsche Regressonsanalyse De logstsche Regressonsanalyse dent der Untersuchung des Enflusses ener quanttatven Varable auf ene qualtatve (n unserem Fall dchotomen Varable Wr gehen

Mehr

-2 Das einfache Regressionsmodell 2.1 Ein ökonomisches Modell

-2 Das einfache Regressionsmodell 2.1 Ein ökonomisches Modell Kaptel : Das enfache Regressonsmodell - Das enfache Regressonsmodell. En ökonomsches Modell Bespel: De Bezehung zwschen Haushaltsenkommen und Leensmttelausgaen Befragung zufällg ausgewählter Haushalte

Mehr

Klassifikation mit dem Perceptron von Rosenblatt. Vom Perceptron zum Multilagen-Perceptron. Error-Backpropagation Lernregel

Klassifikation mit dem Perceptron von Rosenblatt. Vom Perceptron zum Multilagen-Perceptron. Error-Backpropagation Lernregel Neuronale Verfahren zur Funktonsaromaton Klassfkaton mt em Percetron von Rosenblatt Vom Percetron zum Multlagen-Percetron Error-Backroagaton ernregel Raale Bassfunktonen-Netze PD Dr Martn Stetter, Semens

Mehr

Hydrologie und Flussgebietsmanagement

Hydrologie und Flussgebietsmanagement 13.11.010 Hydrologe und Flussgebetsmanagement o.unv.prof. DI Dr. H.P. Nachtnebel Insttut für Wasserwrtschaft, Hydrologe und konstruktver Wasserbau Glederung der Vorlesung Statstsche Grundlagen Extremwertstatstk

Mehr

Die Annäherung der Binomialverteilung durch die Normalverteilung am Beispiel eines Modells der Schadenversicherung

Die Annäherung der Binomialverteilung durch die Normalverteilung am Beispiel eines Modells der Schadenversicherung am Bespel enes Modells der chadenverscherung Für das Modell ener chadenverscherung se gegeben: s w s. n 4 chaden enes Verscherungsnehmers, wenn der chadenfall entrtt Wahrschenlchket dafür, dass der chadenfall

Mehr

Hocheffiziente Antwortflächenverfahren für die probabilistische Simulation und Optimierung unter Anwendung des Gauss-Prozesses

Hocheffiziente Antwortflächenverfahren für die probabilistische Simulation und Optimierung unter Anwendung des Gauss-Prozesses In1 Hocheffzente Antwortflächenverfahren für de probablstsche mulaton und Optmerung unter Anwendung des Gauss-Prozesses Dr.-Ing. The-Quan Pham OptY e.k. Aschaffenburg Dr.-Ing. Alfred Kamusella Insttut

Mehr

MASCHINELLES LERNEN TOBIAS SCHEFFER, NIELS LANDWEHR, MATTHIAS BUSSAS. Mathematische Grundlagen

MASCHINELLES LERNEN TOBIAS SCHEFFER, NIELS LANDWEHR, MATTHIAS BUSSAS. Mathematische Grundlagen MASCHINELLES LERNEN TOBIAS SCHEFFER, NIELS LANDWEHR, MATTHIAS BUSSAS Matheatsche Grundlagen Überblck Lneare Algebra: Vektoren, Matrzen, Analyss & Opterung: Dstanzen, konvexe Funktonen, Lagrange-Ansatz,

Mehr

Streuungs-, Schiefe und Wölbungsmaße

Streuungs-, Schiefe und Wölbungsmaße aptel IV Streuungs-, Schefe und Wölbungsmaße B... Lagemaße von äufgketsvertelungen geben allen weng Auskunft über ene äufgketsvertelung. Se beschreben zwar en Zentrum deser Vertelung, geben aber kenen

Mehr

Verteilungen eindimensionaler diskreter Zufallsvariablen

Verteilungen eindimensionaler diskreter Zufallsvariablen Vertelungen endmensonaler dskreter Zufallsvarablen Enführung Dskrete Vertelungen Dskrete Glechvertelung Bernoull-Vertelung Bnomalvertelung Bblografe: Prof. Dr. Kück Unverstät Rostock Statstk, Vorlesungsskrpt,

Mehr

18. Dynamisches Programmieren

18. Dynamisches Programmieren 8. Dynamsches Programmeren Dynamsche Programmerung we gerge Algorthmen ene Algorthmenmethode, um Optmerungsprobleme zu lösen. We Dvde&Conquer berechnet Dynamsche Programmerung Lösung enes Problems aus

Mehr

Lineare Regression. Stefan Keppeler. 16. Januar Mathematik I für Biologen, Geowissenschaftler und Geoökologen

Lineare Regression. Stefan Keppeler. 16. Januar Mathematik I für Biologen, Geowissenschaftler und Geoökologen Mathematk I für Bologen, Geowssenschaftler und Geoökologen 16. Januar 2012 Problemstellung Bespel Maß für Abwechung Trck Mnmum? Exponentalfunktonen Potenzfunktonen Bespel Problemstellung: Gegeben seen

Mehr

Empirische Wirtschaftsforschung

Empirische Wirtschaftsforschung Emprsche Wrtschaftsforschung Prof. Dr. Bernd Süßmuth Unverstät Lepzg Insttut für Emprsche Wrtschaftsforschung Volkswrtschaftslehre, nsbesondere Ökonometre 5. Enfaches OLS-Regressonsmodell 5.1. Herletung

Mehr

9 Komplexe Zahlen ( ) ( ) 9.1 Ziele. 9.2 Warum braucht man komplexe Zahlen? 9.3 Darstellung von komplexen Zahlen. r 2. j 2. j 1.

9 Komplexe Zahlen ( ) ( ) 9.1 Ziele. 9.2 Warum braucht man komplexe Zahlen? 9.3 Darstellung von komplexen Zahlen. r 2. j 2. j 1. Mathematk I / Komplexe Zahlen 9 Komplexe Zahlen 9. Zele Am Ende deses Kaptels hast Du ene Grundvorstellung was komplexe Zahlen snd. Du kannst se grafsch darstellen und enfache Berechnungen durchführen.

Mehr

Auswertung von Umfragen und Experimenten. Umgang mit Statistiken in Maturaarbeiten Realisierung der Auswertung mit Excel 07

Auswertung von Umfragen und Experimenten. Umgang mit Statistiken in Maturaarbeiten Realisierung der Auswertung mit Excel 07 Auswertung von Umfragen und Expermenten Umgang mt Statstken n Maturaarbeten Realserung der Auswertung mt Excel 07 3.Auflage Dese Broschüre hlft bem Verfassen und Betreuen von Maturaarbeten. De 3.Auflage

Mehr

Grundgedanke der Regressionsanalyse

Grundgedanke der Regressionsanalyse Grundgedanke der Regressonsanalse Bsher wurden durch Koeffzenten de Stärke von Zusammenhängen beschreben Mt der Regressonsrechnung können für ntervallskalerte Varablen darüber hnaus Modelle geschätzt werden

Mehr

2.1 Einfache lineare Regression 31

2.1 Einfache lineare Regression 31 .1 Enfache lneare Regresson 31 Regressonsanalyse De Regressonsanalyse gehört zu den am häufgsten engesetzten multvaraten statstschen Auswertungsverfahren. Besonders de multple Regressonsanalyse hat große

Mehr

Der Erweiterungsfaktor k

Der Erweiterungsfaktor k Der Erweterungsfaktor k Wahl des rchtgen Faktors S. Meke, PTB-Berln, 8.40 Inhalt: 1. Was macht der k-faktor? 2. Welche Parameter legen den Wert des k-faktors fest? 3. Wo trtt der k-faktor auf? 4. Zusammenhang

Mehr

Klausur zur Vorlesung Lineare Modelle SS 2006 Diplom, Klausur A

Klausur zur Vorlesung Lineare Modelle SS 2006 Diplom, Klausur A Lneare Modelle m SS 2006, Prof. Dr. W. Zucchn 1 Klausur zur Vorlesung Lneare Modelle SS 2006 Dplom, Klausur A Aufgabe 1 (18 Punkte) a) Welcher grundsätzlche Untersched besteht n der Interpretaton von festen

Mehr

P(mindestens zwei gleiche Augenzahlen) = = 0.4 = = 120. den 5 vorbereiteten Gebieten drei auszuwählen: = 10. Deshalb ist 120 =

P(mindestens zwei gleiche Augenzahlen) = = 0.4 = = 120. den 5 vorbereiteten Gebieten drei auszuwählen: = 10. Deshalb ist 120 = Hochschule Harz Fachberech Automatserung und Informatk Prof. Dr. T. Schade Ft for Ab & Study - Aprl 2014 Lösungen zu den Aufgaben zu elementarer Wahrschenlchketsrechnung 1. a 12 11 10 9 = 33 = 0.102 20

Mehr

(2) i = 0) in Abhängigkeit des Zeitunterschieds x ZeitBus ZeitAuto für seinen Arbeitsweg.) i = 1) oder Bus ( y

(2) i = 0) in Abhängigkeit des Zeitunterschieds x ZeitBus ZeitAuto für seinen Arbeitsweg.) i = 1) oder Bus ( y 5. Probt-Modelle Ökonometre II - Peter Stalder "Bnar Choce"-Modelle - Der Probt-Ansatz Ene ncht drekt beobachtbare stochastsche Varable hängt von x ab: x u 2 u ~ N(0, ( Beobachtet wrd ene bnäre Varable

Mehr

Übung zur Vorlesung. Informationstheorie und Codierung

Übung zur Vorlesung. Informationstheorie und Codierung Übung zur Vorlesung Informatonstheore und Coderung Prof. Dr. Lla Lajm März 25 Ostfala Hochschule für angewandte Wssenschaften Hochschule Braunschweg/Wolfenbüttel Postanschrft: Salzdahlumer Str. 46/48 3832

Mehr

Übersicht der Vorlesung

Übersicht der Vorlesung Überscht der Vorlesun. nführun. Bldverarbetun 3. Morpholosche Operatonen 4. Bldsementerun 5. Merkmale von Obekten 6. Klassfkaton 7. Dredmensonale Bldnterpretaton 8. Beweunsanalyse aus Bldfolen 9. PCA Hauptkomponentenanalyse.ICA

Mehr

Näherungsverfahren. Wiederhole den Algorithmusbegriff. Erläutere die Begriffe: Klasse der NP-Probleme. Probleme. Probleme. Approximative Algorithmen

Näherungsverfahren. Wiederhole den Algorithmusbegriff. Erläutere die Begriffe: Klasse der NP-Probleme. Probleme. Probleme. Approximative Algorithmen Näherungsverfahren Wederhole den Algorthmusbegrff. Erläutere de Begrffe: Klasse der P-ProblemeP Probleme Klasse der NP-Probleme Probleme Approxmatve Algorthmen Stochastsche Algorthmen ALGORITHMEN Def.:

Mehr

5. ZWEI ODER MEHRERE METRISCHE MERKMALE

5. ZWEI ODER MEHRERE METRISCHE MERKMALE 5. ZWEI ODER MEHRERE METRISCHE MERKMALE wenn an ener Beobachtungsenhet zwe (oder mehr) metrsche Varablen erhoben wurden wesentlche Problemstellungen: Frage nach Zusammenhang: Bsp.: Duxbury Press (sehe

Mehr

Statistische Methoden für Bauingenieure WS 13/14

Statistische Methoden für Bauingenieure WS 13/14 Statstsche Methoden ür Baungeneure WS 3/4 Enhet 3: Bvarate Zuallsvarablen Unv.Pro. Dr. Günter Blöschl Bezechnungen... Zuallsvarable... Realsaton konkrete Werte Momente Grundgesamthet Mttelwert,Varanz Stchprobe

Mehr

Kapitel 5: Klassifikation

Kapitel 5: Klassifikation Ludwg-Maxmlans-Unverstät München Insttut für Informatk Lehr- und Forschungsenhet für Datenbanksysteme Skrpt zur Vorlesung Knowledge Dscovery n Databases m Sommersemester 2015 Kaptel 5: Klassfkaton Vorlesung:

Mehr

4.6 Das Pumping-Lemma für reguläre Sprachen:

4.6 Das Pumping-Lemma für reguläre Sprachen: Theoretsche Informatk 1 Vorlesungsskrpt vom Fretag, 30 Jun 000 Index: Erstellt von: (Matrkelnummer: 70899) Sete : 46 Das Pumpng-Lemma für reguläre Sprachen 1 Satz W 1 Zugrundelegende Idee des Pumpng-Lemma

Mehr

Itemanalyse und Itemkennwerte. Itemanalyse und Itemkennwerte. Itemanalyse und Itemkennwerte: Itemschwierigkeit P i

Itemanalyse und Itemkennwerte. Itemanalyse und Itemkennwerte. Itemanalyse und Itemkennwerte: Itemschwierigkeit P i Itemanalyse und Itemkennwerte De Methoden der Analyse der Itemegenschaften st ncht m engeren Snne Bestandtel der Klassschen Testtheore Im Rahmen ener auf der KTT baserenden Testkonstrukton und -revson

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe

Mehr

Zufallsvariable, Wahrscheinlichkeitsverteilungen und Erwartungswert

Zufallsvariable, Wahrscheinlichkeitsverteilungen und Erwartungswert R. Brnkmann http://brnkmann-du.de Sete..8 Zufallsvarable, Wahrschenlchketsvertelungen und Erwartungswert Enführungsbespel: Zwe Würfel (en blauer und en grüner) werden 4 mal zusammen geworfen. De Häufgketen

Mehr

Versicherungstechnischer Umgang mit Risiko

Versicherungstechnischer Umgang mit Risiko Verscherungstechnscher Umgang mt Rsko. Denstlestung Verscherung: Schadensdeckung von für de enzelne Person ncht tragbaren Schäden durch den fnanzellen Ausglech n der Zet und m Kollektv. Des st möglch über

Mehr

Elemente der Mathematik - Sommer 2016

Elemente der Mathematik - Sommer 2016 Elemente der Mathematk - Sommer 2016 Prof Dr Matthas Lesch, Regula Krapf Lösungen Übungsblatt 3 Aufgabe 9 (10 Punkte) Das Horner-Schema st ene Methode zum Auswerten enes Polynoms n a0 x an der Stelle s

Mehr

2πσ. e ax2 dx = x exp. 2πσ. 2σ 2. Die Varianz ergibt sich mit Hilfe eines weiteren bestimmten Integrals: x 2 e ax2 dx = 1 π.

2πσ. e ax2 dx = x exp. 2πσ. 2σ 2. Die Varianz ergibt sich mit Hilfe eines weiteren bestimmten Integrals: x 2 e ax2 dx = 1 π. 2.5. NORMALVERTEILUNG 27 2.5 Normalvertelung De n der Statstk am häufgsten benutzte Vertelung st de Gauss- oder Normalvertelung. Wr haben berets gesehen, dass dese Vertelung aus den Bnomal- und Posson-Vertelungen

Mehr

Nomenklatur - Übersicht

Nomenklatur - Übersicht Nomenklatur - Überscht Name der synthetschen Varable Wert der synthetschen Varable durch synth. Varable erklärte Gesamt- Streuung durch synth. Varable erkl. Streuung der enzelnen Varablen Korrelaton zwschen

Mehr

nonparametrische Tests werden auch verteilungsfreie Tests genannt, da sie keine spezielle Verteilung der Daten in der Population voraussetzen

nonparametrische Tests werden auch verteilungsfreie Tests genannt, da sie keine spezielle Verteilung der Daten in der Population voraussetzen arametrsche vs. nonparametrsche Testverfahren Verfahren zur Analyse nomnalskalerten Daten Thomas Schäfer SS 009 1 arametrsche vs. nonparametrsche Testverfahren nonparametrsche Tests werden auch vertelungsfree

Mehr

2. Grundbegriffe der Statistik

2. Grundbegriffe der Statistik Statstsche Physk, G. Schön, Karlsruher Insttut für Technologe (Unverstät) 3. Grundbegrffe der Statstk.1 Elementare Begrffe Im Folgenden betrachten wr ene oder mehrere stochastsche Varablen X oder auch

Mehr

EINFÜHRUNG IN DIE POISSON REGRESSION

EINFÜHRUNG IN DIE POISSON REGRESSION INTERDISZIPLINÄRES SEMINAR STATISTISCHE VERFAHREN IN DEN GEOWISSENSCHAFTEN EINFÜHRUNG IN DIE POISSON REGRESSION VON MARGRET OELKER BETREUT DURCH VIOLA SVEJDAR MÜNCHEN, 5. NOVEMBER 2009. EINLEITUNG BEISPIEL

Mehr

Lineare Regression - Mathematische Grundlagen

Lineare Regression - Mathematische Grundlagen FKULTÄT FÜR MTHEMTIK U TURWISSESCHFTE ISTITUT FÜR PHYSIK FCHGEBIET EXPERIMETLPHYSIK I r. rer. nat. orbert Sten, pl.-ing (FH) Helmut Barth Lneare Regresson - Mathematsche Grundlagen. llgemene Gerade Wr

Mehr

Multilineare Algebra und ihre Anwendungen. Nr. 6: Normalformen. Verfasser: Yee Song Ko Adrian Jenni Rebecca Huber Damian Hodel

Multilineare Algebra und ihre Anwendungen. Nr. 6: Normalformen. Verfasser: Yee Song Ko Adrian Jenni Rebecca Huber Damian Hodel ultlneare Algebra und hre Anwendungen Nr. : Normalformen Verfasser: Yee Song Ko Adran Jenn Rebecca Huber Daman Hodel 9.5.7 - - ultlneare Algebra und hre Anwendungen Jordan sche Normalform Allgemene heore

Mehr

3.3 Lineare Abbildungen und Matrizen

3.3 Lineare Abbildungen und Matrizen 33 LINEARE ABBILDUNGEN UND MATRIZEN 87 33 Lneare Abbldungen und Matrzen Wr wollen jetzt de numersche Behandlung lnearer Abbldungen zwschen Vektorräumen beschreben be der vorgegebene Basen de Hauptrolle

Mehr

Facility Location Games

Facility Location Games Faclty Locaton Games Semnar über Algorthmen SS 2006 Klaas Joeppen 1 Abstract Wr haben berets sehr häufg von Nash-Glechgewchten und vor allem von deren Exstenz gesprochen. Das Faclty Locaton Game betet

Mehr

wird auch Spannweite bzw. Variationsbreite genannt ist definiert als die Differenz zwischen dem größten und kleinsten Messwert einer Verteilung:

wird auch Spannweite bzw. Variationsbreite genannt ist definiert als die Differenz zwischen dem größten und kleinsten Messwert einer Verteilung: Streuungswerte: 1) Range (R) ab metrschem Messnveau ) Quartlabstand (QA) und mttlere Quartlabstand (MQA) ab metrschem Messnveau 3) Durchschnttlche Abwechung (AD) ab metrschem Messnveau 4) Varanz (s ) ab

Mehr

1 Definition und Grundbegriffe

1 Definition und Grundbegriffe 1 Defnton und Grundbegrffe Defnton: Ene Glechung n der ene unbekannte Funkton y y und deren Abletungen bs zur n-ten Ordnung auftreten heßt gewöhnlche Dfferentalglechung n-ter Ordnung Möglche Formen snd:

Mehr

6. Übung zur Linearen Algebra II

6. Übung zur Linearen Algebra II Unverstät Würzburg Mathematsches Insttut Prof. Dr. Peter Müller Dr. Peter Fleschmann SS 2006 30.05.2006 6. Übung zur Lnearen Algebra II Abgabe: Bs Mttwoch, 14.06.2006, 11:00 Uhr n de Brefkästen vor der

Mehr

Fachbereich Mathematik Prof. K. Grosse-Brauckmann D. Frisch WS 2007/08 10./ Gruppenübung

Fachbereich Mathematik Prof. K. Grosse-Brauckmann D. Frisch WS 2007/08 10./ Gruppenübung Fachberech Mathematk Prof. K. Grosse-Brauckmann D. Frsch WS 27/8./.. 6. Übungsblatt zur Lnearen Algebra für Physker Gruppenübung Aufgabe G7 (Kern, Bld, Rang und Orthogonaltät) Gegeben se ene lneare Abbldung

Mehr

2. Wahrscheinlichkeitsrechnung

2. Wahrscheinlichkeitsrechnung . Grundlagen der Wahrschenlchketsrechnung. Wahrschenlchketsrechnung Der Wahrschenlchketstheore kommt ene wchtge Rolle als Bndegled zwschen der deskrptven und der nduktven Statstk zu. Aufgabe der nduktven

Mehr

Gitterbasierte Kryptosysteme (Ajtai-Dwork, Regev) Sebastian Pape

Gitterbasierte Kryptosysteme (Ajtai-Dwork, Regev) Sebastian Pape Gtterbaserte Kryptosysteme (Ajta-Dwork, Regev) Sebastan Pape Überblck Motvaton Gtter SVP, usvp, Gtterbassredukton Kryptosysteme Ajta-Dwork Regev (2003), Regev (2005) Zusammenfassung Gtterbaserte Kryptosysteme

Mehr

Verteilungen, sondern nur, wenn ein. Eignet sich nicht bei flachen. Bei starker Streuung wenig. Wert eindeutig dominiert.

Verteilungen, sondern nur, wenn ein. Eignet sich nicht bei flachen. Bei starker Streuung wenig. Wert eindeutig dominiert. Auswertung von Umfragen und Expermenten Umgang mt Statstken n Maturaarbeten Realserung der Auswertung mt Excel 07 Kenngrössen der Statstk Für de Auswertung von Datenrehen werden verschedene Kenngrössen

Mehr

P[bk t c se(b k) k bk t c se(b k)] 1 (5.1.3)

P[bk t c se(b k) k bk t c se(b k)] 1 (5.1.3) Kaptel 5: Inferenz m multplen Modell 5 Inferenz m multplen Modell 5. Intervallschätzung m multplen Regressonsmodell Analog zum enfachen Regressonsmodell glt: Dem Intervallschätzer der Parameter legt zugrunde,

Mehr

6.5. Rückgewinnung des Zeitvorgangs: Rolle der Pole und Nullstellen

6.5. Rückgewinnung des Zeitvorgangs: Rolle der Pole und Nullstellen 196 6.5. Rückgewnnung des Zetvorgangs: Rolle der Pole und Nullstellen We n 6.2. und 6.. gezegt wurde, st de Übertragungsfunkton G( enes lnearen zetnvaranten Systems mt n unabhänggen Spechern ene gebrochen

Mehr

Analyse von Querschnittsdaten. Bivariate Regression

Analyse von Querschnittsdaten. Bivariate Regression Analse von Querschnttsdaten Bvarate Regresson Warum geht es n den folgenden Stzungen? Kontnuerlche Varablen Deskrptve Modelle kategorale Varablen Datum 3.0.2004 20.0.2004 27.0.2004 03..2004 0..2004 7..2004

Mehr

5.3.3 Relaxationsverfahren: das SOR-Verfahren

5.3.3 Relaxationsverfahren: das SOR-Verfahren 53 Iteratve Lösungsverfahren für lneare Glechungssysteme 533 Relaxatonsverfahren: das SOR-Verfahren Das vorangehende Bespel zegt, dass Jacob- sowe Gauß-Sedel-Verfahren sehr langsam konvergeren Für de Modellmatrx

Mehr

Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler, Eidgenössische Technische Hochschule, ETH Zürich. 1. Teilprüfung FS 2008.

Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler, Eidgenössische Technische Hochschule, ETH Zürich. 1. Teilprüfung FS 2008. Dr. Jochen Köhler, Edgenösssche Technsche Hochschule, ETH Zürch. Telprüfung Statstk und Wahrschenlchketsrechnung FS 2008 Lösungen Dr. J. Köhler ETH Zürch Donnerstag 0. Aprl 2008 08:5 09:45 0BTel : Multple

Mehr

Temperaturabhängigkeit der Beweglichkeit

Temperaturabhängigkeit der Beweglichkeit Temperaturabhänggket der Beweglchket De Beweglchket nmmt mt zunehmender Temperatur ab! Streuung mt dem Gtter! Feldabhänggket der Beweglchket Für sehr hohe Feldstärken nmmt de Beweglchket n GaAs ab! Feldabhänggket

Mehr

binäre Suchbäume Informatik I 6. Kapitel binäre Suchbäume binäre Suchbäume Rainer Schrader 4. Juni 2008 O(n) im worst-case Wir haben bisher behandelt:

binäre Suchbäume Informatik I 6. Kapitel binäre Suchbäume binäre Suchbäume Rainer Schrader 4. Juni 2008 O(n) im worst-case Wir haben bisher behandelt: Informatk I 6. Kaptel Raner Schrader Zentrum für Angewandte Informatk Köln 4. Jun 008 Wr haben bsher behandelt: Suchen n Lsten (lnear und verkettet) Suchen mttels Hashfunktonen jewels unter der Annahme,

Mehr

Bemerkungen zum LCG Rupert Hartung,

Bemerkungen zum LCG Rupert Hartung, mt Bemerkungen zum LCG Rupert Hartung, 24.6.2005 Wr betrachten den Lnear Congruental Generator (LCG) X 0, X 1,..., X,... X +1 = ax + c mod N (1) zur Erzeugung von Pseudozufallszahlen mäÿger Qualtät. De

Mehr

ANOVA (Analysis of Variance) Varianzanalyse. Statistik Methoden. Ausgangssituation ANOVA. Ao.Prof.DI.Dr Josef Haas

ANOVA (Analysis of Variance) Varianzanalyse. Statistik Methoden. Ausgangssituation ANOVA. Ao.Prof.DI.Dr Josef Haas Ao.Prof.DI.Dr Josef Haas josef.haas@medungraz.at ANOVA (Analyss of Varance) Varanzanalyse Statstk Methoden Verglech von Mttelwerten Ao.Unv.Prof.DI.Dr. Josef Haas josef.haas@medungraz.at Ausgangsstuaton

Mehr

Datenaufbereitung und Darstellung

Datenaufbereitung und Darstellung Datenaufberetung und Darstellung 1 Glederung: Zel der Datenaufberetung und Darstellung Datenverdchtung Tabellen und grafsche Darstellungen Darstellung unvarater Datenmengen Darstellung multvarater Daten

Mehr

50 Matrixnormen und Eigenwertabschätzungen

50 Matrixnormen und Eigenwertabschätzungen 50 Matrxnormen und Egenwertabschätzungen 501 Motvaton De Berechnung der Egenwerte ener Matrx st aufwändg (vgl Kaptel 45, Kaptel 51) Kann man de Egenwerte ener Matrx mt gerngem Aufwand abschätzen? Des spelt

Mehr

1.1 Das Prinzip von No Arbitrage

1.1 Das Prinzip von No Arbitrage Fnanzmärkte H 2006 Tr V Dang Unverstät Mannhem. Das Prnzp von No Arbtrage..A..B..C..D..E..F..G..H Das Framework Bespele Das Fundamental Theorem of Fnance Interpretaton des Theorems und Zustandsprese No

Mehr

4. Rechnen mit Wahrscheinlichkeiten

4. Rechnen mit Wahrscheinlichkeiten 4. Rechnen mt Wahrschenlchketen 4.1 Axome der Wahrschenlchketsrechnung De Wahrschenlchketsrechnung st en Telgebet der Mathematk. Es st üblch, an den Anfang ener mathematschen Theore enge Axome zu setzen,

Mehr

Auswertung univariater Datenmengen - deskriptiv

Auswertung univariater Datenmengen - deskriptiv Auswertung unvarater Datenmengen - desrptv Bblografe Prof. Dr. Küc; Statst, Vorlesungssrpt Abschntt 6.. Bleymüller/Gehlert/Gülcher; Statst für Wrtschaftswssenschaftler Verlag Vahlen Bleymüller/Gehlert;

Mehr

Spiele und Codes. Rafael Mechtel

Spiele und Codes. Rafael Mechtel Spele und Codes Rafael Mechtel Koderungstheore Worum es geht Über enen Kanal werden Informatonen Übertragen. De Informatonen werden dabe n Worte über enem Alphabet Q übertragen, d.h. als Tupel w = (w,,

Mehr

Beim Wiegen von 50 Reispaketen ergaben sich folgende Gewichte X(in Gramm):

Beim Wiegen von 50 Reispaketen ergaben sich folgende Gewichte X(in Gramm): Aufgabe 1 (4 + 2 + 3 Punkte) Bem Wegen von 0 Respaketen ergaben sch folgende Gewchte X(n Gramm): 1 2 3 4 K = (x u, x o ] (98,99] (99, 1000] (1000,100] (100,1020] n 1 20 10 a) Erstellen Se das Hstogramm.

Mehr

Folien zur Vorlesung

Folien zur Vorlesung Folen zur Vorlesung Statstk für Prozesswssenschaften (Tel : Wahrschenlchketsrechnung) U. Römsch http://www.tu-berln.de/fak3/staff/roemsch/homepage.html . WAHRSCHEINLICHKEITSRECHNUNG De Wahrschenlchketsrechnung

Mehr

3. Lineare Algebra (Teil 2)

3. Lineare Algebra (Teil 2) Mathematk I und II für Ingeneure (FB 8) Verson /704004 Lneare Algebra (Tel ) Parameterdarstellung ener Geraden Im folgenden betrachten wr Geraden m eukldschen Raum n, wobe uns hauptsächlch de Fälle n bzw

Mehr

4. Musterlösung. Problem 1: Kreuzende Schnitte **

4. Musterlösung. Problem 1: Kreuzende Schnitte ** Unverstät Karlsruhe Algorthmentechnk Fakultät für Informatk WS 05/06 ITI Wagner 4. Musterlösung Problem 1: Kreuzende Schntte ** Zwe Schntte (S, V \ S) und (T, V \ T ) n enem Graph G = (V, E) kreuzen sch,

Mehr