Modelle, Version Spaces, Lernen

Größe: px
Ab Seite anzeigen:

Download "Modelle, Version Spaces, Lernen"

Transkript

1 Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Maschnelles Lernen Modelle, Verson Spaces, Lernen Chrstoph Sawade/Nels Landwehr Jules Rasetaharson Tobas Scheffer

2 Überblck Problemstellungen: Klassfkaton und Regresson Modelle und Hypothesenraum Verlustfunktonen und Regularserer Unscherhet, Wahrschenlchketen, Bayes sche Regel 2

3 Überblck Problemstellungen: Klassfkaton und Regresson Modelle und Hypothesenraum Verlustfunktonen und Regularserer Unscherhet, Wahrschenlchketen, Bayes sche Regel 3

4 Klassfkaton Engabe: Instanz (Objekt) x X. Objekte oft durch Vektor von Attrbuten repräsentert Instanz st Belegung der Attrbute. x1 x... xm Merkmalsvektor Ausgabe: Klasse y Y; endlche Menge Y. Klasse wrd auch als Zelattrbut bezechnet y x heßt auch (Klassen)Label Klassfkator y 4

5 Klassfkaton: Bespel Engabe: Instanz (Objekt) x X. X = Menge aller möglchen Kombnatonen ener Menge von Medkamenten Attrbute Medkament 1 enthalten? Medkament 6 enthalten? 0 Instanz x Ausgabe: yy { toxsch, ok} / Belegung der Attrbute, Merkmalsvektor Medkamentenkombnaton Klassfkator 5

6 Klassfkaton: Bespel Engabe: Instanz (Objekt) x X. X = Menge aller 16x16 Pxel Btmaps Attrbute Instanz x 0.1 Grauwert Pxel Grauwert Pxel Ausgabe: yy {0,1,2,3,4,5,6,7,8,9}: erkannte Zffer Pxelwer rte Klassfkator "6" 6

7 Klassfkaton: Bespel Engabe: Instanz (Objekt) x X. X Attrbute Wort 1 kommt vor? = Menge aller möglchen Emal-Texte Wort N kommt vor? N Ausgabe: y Y { spam, ok} Instanz x Emal 0 Address Dear Benefcary, 1 Benefcary 0 Frend... 1 Sterlng 0 Scence your Emal address has been pcked onlne n ths years MICROSOFT CONSUMER AWARD as a Wnner of One Hundred and Ffty Fve Thousand Pounds Sterlng Dear Benefcary, We are pleased to notfy you that your Emal address has been pcked onlne n ths second quarter's MICROSOFT CONSUMER AWARD (MCA) as a Wnner of One Hundred and Ffty Fve Thousand Pounds Sterlng Klassfkator Spam 7

8 Klassfkatonslernen Idee: Klassfkator aus Daten lernen Engabe Lernproblem: Tranngsdaten. L ( x, y ),...,( x, y ) x x y ( 1 1 N N x 1... xm Objektrepräsentaton Klassenlabel (, ok) (, ) toxsch (, ) 0 ok 1 1 ( x, y ) ( x, y ) ( x, y ) x1 1 x

9 Klassfkatonslernen Engabe Lernproblem: Tranngsdaten. L x, y ),...,( x, y ) x ( 1 1 N N x 1... xm Ausgabe: Klassfkator (auch als Modell bezechnet). f : X Y, wenn x1 1 x3 0 x6 1 f ( x), sonst 9

10 Klassfkatonslernen Engabe Lernproblem: Tranngsdaten. L x, y ),...,( x, y ) x ( 1 1 N N x 1... xm Ausgabe: Klassfkator (auch als Modell bezechnet). f : X Y, wenn x1 1 x3 0 x6 1 f ( x), sonst Lnearer Klassfkator mt Parametervektor w. f w ( x), sonst T m wx 1 T, wenn wx b 0 wx 10

11 Klassfkatonslernen Engabe Lernproblem: Tranngsdaten. L x, y ),...,( x, y ) x ( 1 1 N N x 1... xm Ausgabe: Klassfkator (auch als Modell bezechnet). f : X Y Verschedene Klassen von Klassfkatoren - Entschedungsbäume. - Generalserte lneare Modelle (Kernel). - -Betrachtete Klassfkatoren wesentlches Unterschedungsmerkmal zwschen Verfahren des ML

12 Klassfkatonslernen Engabe Lernproblem: Tranngsdaten. L x, y ),...,( x, y ) x ( 1 1 N N x 1... xm Alternatve Schrebwese: Tranngsnstanzen: Matrx X x 1... x Tranngslabels: Vektor y1 y... yn N x 11 x N1 x 1m xnm

13 Regresson Engabe: Instanz (Objekt) x X. Objekte oft durch Attrbut-Vektoren repräsentert. Instanz st Belegung der Attrbute. x x1... xm Merkmalsvektor Ausgabe: kontnuerlcher Wert, y z.b Toxztät. We toxsch st Kombnaton? y 13

14 Regressonslernen Engabe: Tranngsdaten. L x, y ),...,( x, y ) x ( 1 1 N N x 1... xm y Ausgabe: Modell, Regressonsmodell. : (,0.05) f X ( x1, y1) Z.B. f w ( x) w T x b (,0.95) (,0.01) (, ) x2 y2 x3 y3 (, ) 14

15 Andere Lernprobleme Ordnale Regresson. Präferenzlernen. Taxonome-Klassfkaton. Klassfkaton und Regresson mt strukturerten Ausgaberäumen. Kollaboratve Vorhersage. 15

16 Andere Lernprobleme Ordnale Regresson. Präferenzlernen. Taxonome-Klassfkaton. Klassfkaton und Regresson mt strukturerten Ausgaberäumen. Mschung aus Klassfkaton und Regresson Kollaboratve Vorhersage. Endlche, dskrete Labels Ordnung 16

17 Andere Lernprobleme Ordnale Regresson. Präferenzlernen. Taxonome-Klassfkaton. Klassfkaton und Regresson mt strukturerten Ausgaberäumen. Kollaboratve Vorhersage. Kene drekten Klassen beobachtet, sondern nur Präferenzen z.b Rehenfolge von Suchresultaten aus Clckstreams lernen 17

18 Andere Lernprobleme Ordnale Regresson. Präferenzlernen. Taxonome-Klassfkaton. Klassfkaton und Regresson mt strukturerten Ausgaberäumen. Herarche von Klassen Kollaboratve Vorhersage. En Objekt hat mehrere Klassenlabels Panther st ->Ter ->Säugeter ->Katze ->Panther 18

19 Andere Lernprobleme Ordnale Regresson. Präferenzlernen. Taxonome-Klassfkaton. Klassfkaton und Regresson mt strukturerten Ausgaberäumen. Kollaboratve Vorhersage. Engabe X und Ausgabe Y strukturerte Räume Bespel: Engabe DNA Ausgabe Protenfaltung Klassenlabel 3D Struktur AAGCTTGCACTGCCGT 19

20 Andere Ausnutzen Lernprobleme von Relatonen zwschen Objekten Bespel: Produktempfehlungen Präferenzlernen. Vorhersage nteressanter Produkte Ordnale Regresson. Taxonome-Klassfkaton. Was hat der Nutzer/haben ähnlche Nutzer vorher gekauft? Klassfkaton und Regresson mt strukturerten Ausgaberäumen. Kollaboratve Vorhersage. 20

21 Überblck Lernprobleme: Klassfkaton und Regresson Modelle und Hypothesenraum Verlustfunktonen und Regularserer Unscherhet, Wahrschenlchketen, Bayes sche Regel 21

22 Klassfkatonslernen Engabe: Tranngsdaten. x L, y ),...,(, y ) x x ( 1 1 N N x 1... xm Ausgabe: Klassfkator. f : X Y f ( x), wenn x 1x 0x 1, sonst We Klassfkator lernen aus Tranngsdaten? Ansatz: Klassfkator, der Tranngsdaten (Beobachtungen) erklärt Suchproblem m Raum aller (betrachteten) Klassfkatoren 22

23 Hypothesenraum Hypothesenraum, Modellraum H: Menge der Klassfkatonsmodelle, de Lernverfahren n Betracht zeht. Hypothesenraum st ener der Frehetsgrade bem maschnellen Lernen, vele Räume gebräuchlch. Hypothesenraum hesst auch Language Bas Bespel: Alle möglchen Konjunktonen von Bedngungen, wenn j J x j v j J {1,...,, m}, v j {0,1} f ( x), sonst We groß st Hypothesenraum (m bnäre Attrbute)? 23

24 Suche nach Hypothese Suche nach Klassfkator Tranngsdaten für Kombnaton toxsch. Hypothesenraum:, wenn j Jx j v j f ( x), sonst Bes spelmbnatone Kom en Medkamente n der Kombnaton x 1 x 2 x 3 x 4 x 5 x 6 y x x x x Ansatz: Hypothese sollte konsstent sen mt Tranngsdaten : f( x ) y Identfzeren aller solchen Hypothesen? Nutze Struktur auf dem Hypothesenraum (generell/spezell) 24

25 Genereller-Als -Ordnung-Ordnung Grundmenge X Hypothesen H spezfsch Immer x 3 x 4 x 1 f 1 f 3 x 2 f 2 f 1 =, wenn x2=1, x6=1 f generell Immer f 2 =, wenn x2=1 f 3 =, wenn x2=1, x3=1 g 2 g f1 f2 g f3 aber ncht f1 f 3 g 25

26 Verson Space Menge aller Hypothesen, de mt den Tranngsdaten konsstent snd, nennen wr den Verson Space: VS { f H ( x, y ) L : f ( x ) y H, L Verson Space begrenzt durch generellste/spezellste Hypothesen, de Daten erklären G { f VS f ' VS : f ' f} Generellste konsstente H, L H, L g S { f VS f ' VS : f f '} H, L H, L g } Hypothesen Spezellste konsstente Hypothesen Verson Space: alles zwschen G und S (kene unendlchen Ketten) VSH, L{ f H fg G, fss : fgg f g fs} 26

27 Verson Space: Beoachtungen VS { f H ( x, y ) L : f ( x H, L Verson Space wrd klener, je mehr Daten vorhanden Verson Space leer: Tranngsmenge wdersprüchlch (es exstert t kene Hypothese n H, de Daten erklärt) Verson Space enelementg: Rchtges Modell gefunden, Oder rchtges Modell st ncht m Hypothesenraum. Mehrere Elemente m Verson Space: Noch ncht fertg. ) y } 27

28 Verson Space: Brute Force Konstrukton Intalsere V auf Menge aller Hypothesen. Für alle Tranngsbespele (x, y): Lösche alle Hypothesen f aus V, de mt x nkonsstent snd, also f (x) y. V st jetzt der Verson Space Bessere Verfahren unter Benutzung von G und S (kene Detals) Sa awade/lan ndwehr/sc cheffer, M aschnelles Lernen 28

29 Bespel: Verson Space Medkamente n der Kombnaton, wenn jj x j v j H: f ( x ) x 1 x 2 x 3 x 4 x 5 x 6 y Welche Hypothesen snd m Verson Space?, sonst n pelbnatonen Bes Kom x x x x L ( x, y ),( x, y ),( x, y ),( x, y ) Sa awade/lan ndwehr/sc cheffer, M aschnelles Lernen 29

30 Bespel: Verson Space x Medkamente n der Kombnaton, wenn jj x j v j H: f ( x ) x 1 x 2 x 3 x 4 x 5 x 6 y Welche Hypothesen snd m Verson Space?, sonst n pelbnatonen Bes Kom x 0x 1x x x x x L ( x, y ),( x, y ),( x, y ),( x, y ) x 0 x1 0 x2 1 x1 0 x x2 1 3 x

31 Verson Space Medkamente n der Kombnaton, wenn j x j v j H: f (x) x 1 x 2 x 3 x 4 x 5 x 6 y sonst Welche Hypothesen snd m Verson Space? Problem:, n pelbnatonen Bes Kom x x x x Alle Elemente des Verson Space erklären de Daten glechermaßen gut. Jedes Element des Verson Space könnte de Daten erzeugt haben / de korrekte Hypothese sen 31

32 Unscherhet In der Praxs errecht man nemals Gewsshet darüber, en korrektes Modell gefunden zu haben. Verson Space-Ansatz problematsch Der Hypothesenraum st mest unendlch groß. Der Verson Space st dann mest auch unendlch groß, oder leer. Alternatve/zusätzlche Konzepte Verlustfunktonen: Grad der Konsstenz mt Tranngsdaten A-Pror-Wahrschenlchket (Pror) über Modelle. Wahrschenlchstes Modell gegeben Daten. 32

33 Überblck Lernprobleme: Klassfkaton und Regresson Modelle und Hypothesenraum Verlustfunktonen und Regularserer Unscherhet, Wahrschenlchketen, Bayes sche Regel 33

34 Verlustfunkton, Optmerungskrterum Alternatve zu Verson Spaces: Lernprobleme werden als Optmerungsprobleme formulert. Verlustfunkton msst, we gut Modell zu Tranngsdaten passt Regularserungsfunkton msst, ob das Modell nach unserem Vorwssen wahrschenlch st. Optmerungskrterum st Summe aus Verlust und Regularserer. Suche Mnmum des Optmerungskrterums: nsgesamt wahrschenlchstes Modell, gegeben Tranngsdaten und Vorwssen. 34

35 Verlustfunkton We schlmm st es, wenn Modell f(x ) vorhersagt obwohl der echte Wert der Zelvarable y st? l( f( x ), y ) Verlust auf den ganzen Tranngsdaten L: N 1 l( f( x ), y ) Bespel: Klassfkatonsprobleme, False Postves und False Negatves glech schlmm. Zero-One Loss: 0, wenn f ( x ) l ( f ( x ), y ) 1, sonst y 35

36 Verlustfunkton We schlmm st es, wenn Modell f(x ) vorhersagt obwohl der echte Wert der Zelvarable y st? Bespel: dagnostsche Klassfkatonsprobleme, übersehene Erkrankungen (False Negatves) schlmmer als False Postves. Kostenmatrx l( f ( x ), y ) f ( x f ( x ) 1 0 ) 1 y y 1 c FN 1 c FP 0 36

37 Verlustfunkton We schlmm st es, wenn Modell f(x ) vorhersagt obwohl der echte Wert der Zelvarable y st? Regresson: Vorhersage möglchst dcht an echtem Wert des Zelattrbutes Quadratscher Fehler l( f ( x ), y ) ( f ( x ) y 2 ) 37

38 Verlustfunkton We schlmm st es, wenn Modell f(x ) vorhersagt obwohl der echte Wert der Zelvarable y st? Verlust l(f(x ), y ). Verlustfunkton st aus der jewelgen Anwendung heraus motvert. Sa awade/lan ndwehr/sc cheffer, M aschnelles Lernen 38

39 Regularserer Verlustfunkton drückt aus, we gut Modell zu Daten passt Regularserer: drückt Annahme darüber aus, ob Modell a pror wahrschenlch st. Unabhängg von den Tranngsdaten. Je höher der Regularserungsterm für en Modell, desto unwahrschenlcher Häufg wrd de Annahme ausgedrückt, dass wenge der Attrbute für en gutes Modell ausrechen. Anzahl der Attrbute, L 0 -Regularserung Betrag der Attrbut-Gewchtungen, L 1 -Regularserung Quadrat der Attrbut-Gewchtungen, L 2 -Regularserung. 39

40 Regularserer: Bespel Hypothesenraum: Konjunkton von Bedngungen f ( x),, wenn sonst x 1 1 x 3 1 x 7 1 Lneares Modell: Lässt sch schreben als, wenn x 1 x 3 x 7 3 f ( x ), sonst Allgemen: äquvalente Darstellung st, wenn w j jx j b f w ( x ),,, mt { 1,0, 1} w j sonst wenn sonst T wx b w: Modellparameter 40

41 Regularserer: Bespel Lnearer Klassfkator f w ( x),, wenn w T x b sonst L 2 -Regularserung: w w w Addert für jedes von null verschedene Gewcht. Optmerungskrterum: Verlust+Regularserer 2 Rˆ ( w, L) l( f ( x ), y ) w Parameter steuert Stärke des Regularserers Durch den Regularserer mplementerte Präferenz des Lerners wrd auch Inductve Bas genannt. 41

42 Optmerungsproblem: Bespel x ˆ ( 2 R( w, L ) l ( f ( x ), ) w y x 1 x 2 x 3 x 4 x 5 x 6 y x x Beste Hypothese für λ =01? 0.1? x x 0x 1x x x 0 x1 0x21 x1 0x x2 1 3 x

43 Optmerungsproblem: Bespel ˆ ( R ˆ( w, L ) 2 x 2 R( w, L ) l ( f ( x ), ) w y x 1 x 2 x 3 x 4 x 5 x 6 y x x Beste Hypothese für λ =01? 0.1? x R ˆ( w, L) 3 x 0x 1x x x 0 x1 0x21 x1 0x R ˆ( w, L) x2 1 3 x

44 Optmerungsproblem Enstellung von? Rechtfertgung für Optmerungskrterum? Mehrere Rechtfertgungen und Herletungen. Wahrschenlchste Hypothese (MAP-Hypothese). Hypothese, de Daten am stärksten komprmert (Mnmum Descrpton Length). Nedrge obere Schranke für Fehler auf zukünftgen Daten abhängg von w. (SRM). Lernen ohne Regularserung st ll-posed Problem; Lösung exstert t manchmal ncht oder hängt extrem stark von mnmalen Änderungen n den Daten ab. 44

45 Überblck Lernprobleme: Klassfkaton und Regresson Modelle und Hypothesenraum Verlustfunktonen und Regularserer Unscherhet, Wahrschenlchketen, Bayes sche Regel 45

46 Unscherhet und Wahrschenlchketen Vele Verfahren des maschnellen Lernens baseren auf probablstschen Überlegungen Modellvorstellung bem Lernen: * Jemand hat echtes f nach A-Pror- Wahrschenlchket ( Pror ) p(f) gezogen. * f st ncht bekannt, aber p(f) reflektert Vorwssen (was snd wahrschenlche Modelle?). Tranngsengaben x werden gezogen. Klassenlabels y werden nach py * ( x, f) gezogen. Fragestellung Lernen: Gegeben L und p(f), was st wahrschenlchstes echte Modell? * Versuche, f (ungefähr) zu rekonstrueren 46

47 Wahrschenlchketstheore Zufallsexperment: defnerter Prozess, n dem en Elementareregns ω erzeugt wrd. Eregnsraum Ω: Menge aller möglchen Elementareregnsse. Eregns A: Telmenge des Eregnsraums. Wahrschenlchketsfunkton p: Funkton, de Wahrschenlchketsmasse auf Eregnsse A vertelt. 47

48 Wahrschenlchketstheore Gültge Wahrschenlchketsfunkton p (Kolmogorow Axome) Wahrschenlchket von Eregns A : Scheres Eregns: p( ) 1, und p( ) 0 0 pa ( ) 1 Für de Wahrschenlchket zweer nkompatbler Eregnsse A, B (d.h. A B) glt: p( AB) p( A) p( B)

49 Wahrschenlchketstheore: Bespel Würfeln g Eregnsraum {1,2,3,4,5,6} Elementareregnsse haben Wsk Eregns gerade Zahl: A {2, 4,6} p({ }) 1/6 Wahrschenlchket des Eregnsses: pa ( ) 1/2 Sa awade/lan ndwehr/sc cheffer, M aschnelles Lernen

50 Zufallsvarable Zufallsvarable X: Abbldung enes elementaren Eregnsses auf enen numerschen Wert X : X : x Wahrschenlchket, dass ZV enen Wert annmmt px ( x) p({ X( ) x}) Be kontnuerlchen ZV oft px ( x ) 0, man betrachtet dann auch Vertelungsfunkton px ( x) p({ X( ) x}) 50

51 Zufallsvarable: Bespel Würfeln mt 2 Würfeln Eregnsraum 1 2 {( 1, 2) {1,2,3,4,5,6}} Elementareregnsse haben Wsk Zufallsvarable: Summe der bede Würfel X ((, )) Wahrschenlchket für Wert der ZV: p( ( X 5)? p({( 1, 2)}) 1/36

52 Zufallsvarable: Bespel Würfeln mt 2 Würfeln Eregnsraum 1 2 {( 1, 2) {1,2,3,4,5,6}} Elementareregnsse haben Wsk Zufallsvarable: Summe der bede Würfel X ((, )) Wahrschenlchket für Wert der ZV: p({( 1, 2)}) 1/36 p ( X 5) p ({(1, 4),(2,3),(3,,, 2),(4,1)}), )}) 4/36

53 Gemensame und bedngte Wahrschenlchketen h hk t Oft gbt es mehrere Zufallsvarablen X,Y,Z,... Gemensame Wahrschenlchket: px ( xy, y) p({ X( ) xy( ) y}) Bedngte Wahrschenlchket px ( xy, y) px ( xy y) py ( y)

54 Gemensame und bedngte Wahrschenlchketen h hk t Zufällgen Punkt auf Fläche auswählen Gemensame Wahrschenlchket Randwahrschenlchket Bedngte Wahrschenlchket py ( y, X x ) j p( X x ) 54 Sa awade/lan ndwehr/scheffer, M aschnelle es Lernen

55 Wchtge Rechenregeln für Wahrschenlchketen h hk t Zufällgen Punkt auf Fläche auswählen Produktregel py ( y, X x ) py ( y X x) p( X x ) j j Summenregel p( X x ) p( X x, Y y ) c 1 p( X x) n N N nj nj c py ( y j, X x ) py ( y j X x) p( X x) N c N j j j p( X x, Y y ) j j 55 j

56 Wchtge Rechenregeln für Wahrschenlchketen h hk t Summenregel Produktregel Sa awade/lan ndwehr/sc cheffer, M aschnelles Lernen 56

57 Unabhänggket von Zufallsvarablen Varablen X, Y unabhängg gdw px ( xy, y) px ( x) py ( y) j j Äquvalente Defnton Unabhänggket: gg px ( xy y) px ( x) und py ( y X x) py ( y) j j j Bedngte Unabhänggket p( X x, Y y Z z ) p( X x Z z ) p( Y y Z z ) k k k

58 Bayessche Regel Bayessche Regel: Bewes enfach: px ( Y ) px ( Y) Defnton bedngte Wahrschenlchket py ( X) p( X) py ( ) pxy (, ) ( ) ( ) py X px py ( ) py ( ) Produktregel Wchtge Grundenscht für das maschnelle Lernen: Erlaubt den Rückschluss auf Modellwahrschenlchketen gegeben Wahrschenlchketen von Beobachtungen

59 Bayessche Regel Modellwahrschenlchket gegeben Daten und Vorwssen pdaten ( ) konstant, unabhängg von Modell p( Modell Daten) p( Daten Modell) p( Modell) p ( Daten ) p( Daten Modell) p( Modell) Lkelhood: we gut erklärt Modell de Daten? Pror: we wahrschenlch st Modell a pror?

60 Maxmum-A-Posteror-Hypothese Wahrschenlchstes Modell gegeben de Daten. f arg max p( f L) MAP f w w arg max f w plf ( ) p ( f ) pl ( ) arg max plf ( ) p ( f ) f w arg mn log PLf ( ) log p( f ) f w w w w w w Anwendung Bayes sche Regel Log-Lkelhood Log-Pror Optmerungskrterum bestehend aus log-lkelhood und log-pror w w Parameter des Modells ( x) f w 60

61 Log-Lkelhood We wahrschenlch snd de Daten gegeben das Modell? log plf ( ) log py (,..., y f,,..., ) x x w 1 N w 1 N Annahme: Datenpunkte snd unabhängg gezogen. log py ( 1,..., yn f, x 1,..., x w N) log pyf (, x ) log pyf (, x ) w w Annahme: spezelle Exponentalvertelung Sa awade/lan ndwehr/sc cheffer, M aschnelles Lernen 61

62 Log-Lkelhood We wahrschenlch snd de Daten gegeben das Modell? log plf ( ) log py (,..., y f,,..., ) x x w 1 N w 1 N Annahme: Datenpunkte snd unabhängg gezogen. log py ( 1,..., yn f, x 1,..., x w N) log pyf (, x ) 1 l f x y pyf (, ) e Z log pyf (, x ) w w Annahme: spezelle Exponentalvertelung Verlustfunkton y 1 y 1 x ( ( ), ) l( f ( x), y) f ( x) 1 0 c w f ( x ) 1 c 0 Normalserer cc, 0 62

63 Log-Lkelhood We wahrschenlch snd de Daten gegeben das Modell? log plf ( w ) log py ( 1,..., yn fw, x1,..., xn) Annahme: Datenpunkte snd unabhängg gezogen. log py ( 1,..., yn f, x 1,..., x w N) log pyf (, x ) log pyf (, x ) w w l( f ( x), y) e log Z Konstanter Faktor l ( f ( x ), y ) const (unabhängg von f ) w Negatve Log-Lkelhood Lk entsprcht Verlustterm! 63

64 Pror: Gaußvertelung, Normalvertelung Vertelung für reelle (oder vektor-wertge) Zufallsvarable x 2 Streut um Mttelwert mt Varanz Dchtefunkton Sa awade/lan ndwehr/sc cheffer, Maschnelles Lernen 64

65 A-Pror-Wahrschenlchket (Pror) Annahme: Modellparameter normalvertelt mt Mttelwert 0 p( f ) ( w 0, w ) 1 w 2 2 e Negatver Log-Pror: 1 const 2 log p ( fw ) w 2 Negatver Log-Pror = Regularserer! 2 Konstanter Faktor (unabhängg von f ) 65

66 A-Posteror-Wahrschenlchket (Posteror) Wahrschenlchstes Modell gegeben Vorwssen und Daten. f arg max p ( f L ) MAP f w w argmn log plf ( ) log p( f ) f w arg mn l ( f ( x ), y ) f w w w 1 (Fole 60 zusammen mt 63 & 65, ) 2 ArgMn über regularserte Verlustfunkton! Rechtfertgung für Optmerungskrterum? Wahrschenlchste Hypothese (MAP-Hypothese). w w 2 66

67 Zusammenfassung Klassfkaton, Regresson, Modelle für Vorhersage. Parametrserung von Modellen (Parametervektor w) Hypothesenraum: Raum aller Modelle. e Verson Space: Modelle, de mt Tranngsdaten konsstent snd. Lernen (Parameterschätzung) aus Tranngsdaten. Optmerungskrterum: Verlust über Tranngsbespele plus Regularserungsterm. Mnmum des Krterums: wahrschenlchstes Modell gegeben Daten und Pror. 67

68 Übungen Erstes Übungsblatt: Ausgabe morgen, Besprechung kommende Woche Se können für enzelne Aufgaben voteren Se müssen für 2/3 aller Aufgaben voteren Sa awade/lan ndwehr/sc cheffer, Maschnelles Lernen 68

Modelle, Version Spaces, Lernen

Modelle, Version Spaces, Lernen Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Maschnelles Lernen Modelle, Verson Spaces, Lernen Chrstoph Sawade/Nels Landwehr Slva Makowsk Tobas Scheffer Überblck Problemstellungen:

Mehr

Modelle, Version Spaces, Lernen

Modelle, Version Spaces, Lernen Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Maschnelles Lernen Modelle, Verson Spaces, Lernen Chrstoph Sawade/Nels Landwehr Domnk Lahmann Tobas Scheffer Überblck Problemstellungen:

Mehr

Modelle, Version Spaces, Lernen

Modelle, Version Spaces, Lernen Unverstät Potsdam Insttut ür Inormatk Lehrstuhl Maschnelles Lernen Maschnelles Lernen Modelle Verson Spaces Lernen Tobas Scheer Mchael Brückner Klasskaton Engabe: Instanz Objekt X. Können durch Attrbut-Vektoren

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayessches Lernen

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayessches Lernen Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Bayessches Lernen Chrstoph Sawade/Nels Landwehr/Paul Prasse Domnk Lahmann Tobas Scheffer Überblck Wahrschenlchketen, Erwartungswerte,

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayessches Lernen

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayessches Lernen Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Bayessches Lernen Chrstoph Sawade/Nels Landwehr Jules Rasetaharson Tobas Scheffer Überblck Wahrschenlchketen, Erwartungswerte, Varanz

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Graphsche Modelle els Landwehr Zusammenfassung Pfade Zusammenfassung: en Pfad --Y-Z- st B A E Blockert be Y, wenn Dvergerende Verbndung,

Mehr

Bayessches Lernen (3)

Bayessches Lernen (3) Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Bayessches Lernen (3) Chrstoph Sawade/Nels Landwehr Jules Rasetaharson Tobas Scheffer Überblck Wahrschenlchketen, Erwartungswerte, Varanz

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Graphsche Modelle els Landwehr Überblck Graphsche Modelle: Syntax und Semantk Graphsche Modelle m Maschnellen Lernen Inferenz n Graphschen

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayessches Lernen

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayessches Lernen Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Bayessches Lernen Chrstoph Sawade/Nels Landwehr/Paul Prasse Slva Makowsk Tobas Scheffer Überblck Wahrschenlchketen, Erwartungswerte,

Mehr

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Lösungen. Übungsklausur Wahrscheinlichkeit und Regression Die Lösungen

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Lösungen. Übungsklausur Wahrscheinlichkeit und Regression Die Lösungen Übungsklausur Wahrschenlchket und Regresson De Lösungen. Welche der folgenden Aussagen treffen auf en Zufallsexperment zu? a) En Zufallsexperment st en emprsches Phänomen, das n stochastschen Modellen

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Zusammenfassung: Lernprobleme, Bayes sches Lernen, Evaluerung Chrstoph Sawade/Nels Landwehr/Paul Prasse Slva Makowsk obas Scheffer Überblck

Mehr

Maschinelles Lernen (Zusammenfassung)

Maschinelles Lernen (Zusammenfassung) Unverstät Potsdam Insttut für Informatk Lehrstuhl (Zusammenfassung) Chrstoph Sawade /Nels Landwehr/Paul Prasse Domnk Lahmann Tobas Scheffer Überblck Lernprobleme Entschedungsbäume Bayes sches Lernen Lneare

Mehr

z.b. Münzwurf: Kopf = 1 Zahl = 2 oder z.b. 2 Würfel: Merkmal = Summe der Augenzahlen, also hier: Bilde die Summe der Augenzahlen der beiden Würfel!

z.b. Münzwurf: Kopf = 1 Zahl = 2 oder z.b. 2 Würfel: Merkmal = Summe der Augenzahlen, also hier: Bilde die Summe der Augenzahlen der beiden Würfel! Aufgabe : Vorbemerkung: Ene Zufallsvarable st ene endeutge Funkton bzw. ene Abbldungsvorschrft, de angbt, auf welche Art aus enem Elementareregns ene reelle Zahl gewonnen wrd. x 4 (, ) z.b. Münzwurf: Kopf

Mehr

2 Zufallsvariable und Verteilungen

2 Zufallsvariable und Verteilungen Zufallsvarable und Vertelungen 7 Zufallsvarable und Vertelungen Wr wollen uns jetzt mt Zufallsexpermenten beschäftgen, deren Ausgänge durch (reelle) Zahlen beschreben werden können, oder be denen man jedem

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB. Mathematische Grundlagen

INTELLIGENTE DATENANALYSE IN MATLAB. Mathematische Grundlagen INTELLIGENTE DATENANALYSE IN MATLAB Mathematsche Grundlagen Überblck Lneare Algebra: Vektoren, Matrzen, Analyss & Optmerung: Dstanzen, konvexe Funktonen, Lagrange-Ansatz, Stochastk: Wahrschenlchketstheore,

Mehr

Kapitel 7: Ensemble Methoden. Maschinelles Lernen und Neural Computation

Kapitel 7: Ensemble Methoden. Maschinelles Lernen und Neural Computation Kaptel 7: Ensemble Methoden 133 Komtees Mehrere Netze haben bessere Performanz als enzelne Enfachstes Bespel: Komtee von Netzen aus der n-fachen Kreuzvalderung (verrngert Varanz) De Computatonal Learnng

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statstk und Wahrschenlchketsrechnung Statstk und Wahrschenlchketsrechnung 5. Vorlesung Dr. Jochen Köhler.03.0 Statstk und Wahrschenlchketsrechnung Wchtg!!! Vorlesung Do 4.03.0 HCI G3 Übung 5 D 9.03.0 Fnk

Mehr

Arbeitsgruppe Radiochemie Radiochemisches Praktikum P 06. Einführung in die Statistik. 1. Zählung von radioaktiven Zerfällen und Statistik 2

Arbeitsgruppe Radiochemie Radiochemisches Praktikum P 06. Einführung in die Statistik. 1. Zählung von radioaktiven Zerfällen und Statistik 2 ETH Arbetsgruppe Radocheme Radochemsches Praktkum P 06 Enführung n de Statstk INHALTSVERZEICHNIS Sete 1. Zählung von radoaktven Zerfällen und Statstk 2 2. Mttelwert und Varanz 2 3. Momente ener Vertelung

Mehr

Kapitel 4: Unsicherheit in der Modellierung Modellierung von Unsicherheit. Machine Learning in der Medizin 104

Kapitel 4: Unsicherheit in der Modellierung Modellierung von Unsicherheit. Machine Learning in der Medizin 104 Kaptel 4: Unscherhet n der Modellerung Modellerung von Unscherhet Machne Learnng n der Medzn 104 Regresson Modellerung des Datengenerators: Dchteschätzung der gesamten Vertelung, t pt p p Lkelhood: L n

Mehr

Die Annäherung der Binomialverteilung durch die Normalverteilung am Beispiel eines Modells der Schadenversicherung

Die Annäherung der Binomialverteilung durch die Normalverteilung am Beispiel eines Modells der Schadenversicherung am Bespel enes Modells der chadenverscherung Für das Modell ener chadenverscherung se gegeben: s w s. n 4 chaden enes Verscherungsnehmers, wenn der chadenfall entrtt Wahrschenlchket dafür, dass der chadenfall

Mehr

Definition des linearen Korrelationskoeffizienten

Definition des linearen Korrelationskoeffizienten Defnton des lnearen Korrelatonskoeffzenten r xy x y y r x xy y 1 x x y y x Der Korrelatonskoeffzent st en Indkator dafür, we gut de Punkte (X,Y) zu ener Geraden passen. Sen Wert legt zwschen -1 und +1.

Mehr

Bedingte Entropie. Bedingte Entropie. Bedingte Entropie. Kapitel 4: Bedingte Entropie I(X;Y) H(X Y) H(Y) H(X) H(XY)

Bedingte Entropie. Bedingte Entropie. Bedingte Entropie. Kapitel 4: Bedingte Entropie I(X;Y) H(X Y) H(Y) H(X) H(XY) Bedngte Entrope Kaptel : Bedngte Entrope Das vorherge Theorem kann durch mehrfache Anwendung drekt verallgemenert werden H (... H ( = Ebenso kann de bedngt Entrope defnert werden Defnton: De bedngte Entrope

Mehr

MASCHINELLES LERNEN TOBIAS SCHEFFER, NIELS LANDWEHR, MATTHIAS BUSSAS. Mathematische Grundlagen

MASCHINELLES LERNEN TOBIAS SCHEFFER, NIELS LANDWEHR, MATTHIAS BUSSAS. Mathematische Grundlagen MASCHINELLES LERNEN TOBIAS SCHEFFER, NIELS LANDWEHR, MATTHIAS BUSSAS Matheatsche Grundlagen Überblck Lneare Algebra: Vektoren, Matrzen, Analyss & Opterung: Dstanzen, konvexe Funktonen, Lagrange-Ansatz,

Mehr

Fallstudie 1 Diskrete Verteilungen Abgabe: Aufgabentext und Lösungen schriftlich bis zum

Fallstudie 1 Diskrete Verteilungen Abgabe: Aufgabentext und Lösungen schriftlich bis zum Abgabe: Aufgabentext und Lösungen schrftlch bs zum 15. 6. 2012 I. Thema: Zehen mt und ohne Zurücklegen Lesen Se sch zunächst folgenden Text durch! Wr haben bsher Stchprobenzehungen aus Grundgesamtheten

Mehr

Prof. Dr. Roland Füss Statistik II SS 2008

Prof. Dr. Roland Füss Statistik II SS 2008 5. Spezelle Testverfahren Zahlreche parametrsche und nchtparametrsche Testverfahren, de nach Testvertelung (Bnomal, t-test etc.), Analysezel (Anpassungs- und Unabhänggketstest) oder Konstrukton der Prüfgröße

Mehr

Informatik II. Minimalpolynome und Implikanten. Minimalpolynome. Minimalpolynome. Rainer Schrader. 27. Oktober Was bisher geschah: Definition

Informatik II. Minimalpolynome und Implikanten. Minimalpolynome. Minimalpolynome. Rainer Schrader. 27. Oktober Was bisher geschah: Definition Informatk II Raner Schrader und Implkanten Zentrum für Angewandte Informatk Köln 27. Oktober 2005 1 / 28 2 / 28 Was bsher geschah: jede Boolesche Funkton kann durch enfache Grundfunktonen dargestellt werden

Mehr

Einführung in die Wahrscheinlichkeitsrechnung. Wahrscheinlichkeitsrechnung. Übersicht. Wahrscheinlichkeitsrechnung. bedinge Wahrscheinlichkeit

Einführung in die Wahrscheinlichkeitsrechnung. Wahrscheinlichkeitsrechnung. Übersicht. Wahrscheinlichkeitsrechnung. bedinge Wahrscheinlichkeit Enführung n de bednge Wahrschenlchket Laplace-Wahrschenlchket p 0.56??? Zufallsexperment Randwahrschenlchket Überscht Was st Wahrschenlchket? Rechenregeln Der Multplkatonssatz Axomatsche Herletung Unabhänggket

Mehr

Kapitel 2: Klassifikation. Maschinelles Lernen und Neural Computation

Kapitel 2: Klassifikation. Maschinelles Lernen und Neural Computation Kaptel 2: Klassfkaton Maschnelles Lernen und Neural Computaton 28 En enfacher Fall En Feature, Hstogramme für bede Klassen (z.b. Glukosewert, Dabetes a/nen) Kene perfekte Trennung möglch Entschedung: Schwellwert

Mehr

Ökonomische und ökonometrische Evaluation. 1.3 Ökonometrische Grundkonzepte

Ökonomische und ökonometrische Evaluation. 1.3 Ökonometrische Grundkonzepte Ökonomsche und ökonometrsche Evaluaton 90 Emprsche Analyse des Arbetsangebots Zele: Bestmmung von Arbetsangebotselastztäten als Test der theoretschen Modelle Smulaton oder Evaluaton der Wrkungen von Insttutonen

Mehr

Modul 1: Einführung und Wahrscheinlichkeitsrechnung

Modul 1: Einführung und Wahrscheinlichkeitsrechnung Modul : Enführung und Wahrschenlchketsrechnung Informatonstheore Dozent: Prof. Dr. M. Gross E-mal: grossm@nf.ethz.ch Assstenten: Danel Cottng, Rchard Keser, Martn Wcke, Cyrl Flag, Andrea Francke, Jonas

Mehr

6. Modelle mit binären abhängigen Variablen

6. Modelle mit binären abhängigen Variablen 6. Modelle mt bnären abhänggen Varablen 6.1 Lneare Wahrschenlchketsmodelle Qualtatve Varablen: Bnäre Varablen: Dese Varablen haben genau zwe möglche Kategoren und nehmen deshalb genau zwe Werte an, nämlch

Mehr

Teil E: Qualitative abhängige Variable in Regressionsmodellen

Teil E: Qualitative abhängige Variable in Regressionsmodellen Tel E: Qualtatve abhängge Varable n Regressonsmodellen 1. Qualtatve abhängge Varable Grundlegendes Problem: In velen Fällen st de abhängge Varable nur über enen bestmmten Werteberech beobachtbar. Bsp.

Mehr

Prof. Dr. P. Kischka WS 2012/13 Lehrstuhl für Wirtschafts- und Sozialstatistik. Klausur Statistische Inferenz

Prof. Dr. P. Kischka WS 2012/13 Lehrstuhl für Wirtschafts- und Sozialstatistik. Klausur Statistische Inferenz Prof. Dr. P. Kschka WS 2012/13 Lehrstuhl für Wrtschafts- und Sozalstatstk Klausur Statstsche Inferenz 15.02.2013 Name: Matrkelnummer: Studengang: Aufgabe 1 2 3 4 5 6 7 8 Summe Punkte 6 5 5 5 5 4 4 6 40

Mehr

Itemanalyse und Itemkennwerte. Itemanalyse und Itemkennwerte. Itemanalyse und Itemkennwerte: Itemschwierigkeit P i

Itemanalyse und Itemkennwerte. Itemanalyse und Itemkennwerte. Itemanalyse und Itemkennwerte: Itemschwierigkeit P i Itemanalyse und Itemkennwerte De Methoden der Analyse der Itemegenschaften st ncht m engeren Snne Bestandtel der Klassschen Testtheore Im Rahmen ener auf der KTT baserenden Testkonstrukton und -revson

Mehr

(Theoretische) Konfidenzintervalle für die beobachteten Werte: Die Standardabweichung des Messfehlers wird Standardmessfehler genannt:

(Theoretische) Konfidenzintervalle für die beobachteten Werte: Die Standardabweichung des Messfehlers wird Standardmessfehler genannt: (Theoretsche Konfdenzntervalle für de beobachteten Werte: De Standardabwechung des Messfehlers wrd Standardmessfehler genannt: ( ε ( 1- REL( Mt Hlfe der Tschebyscheff schen Unglechung lassen sch be bekanntem

Mehr

An dem Ergebnis eines Zufallsexperiments interessiert oft nur eine spezielle Größe, meistens ein Messwert.

An dem Ergebnis eines Zufallsexperiments interessiert oft nur eine spezielle Größe, meistens ein Messwert. SS 2013 Prof. Dr. J. Schütze/ J. Puhl FB GW Ds. ZG 1 Zufallsgrößen An dem Ergebns enes Zufallsexperments nteressert oft nur ene spezelle Größe, mestens en Messwert. Bespel 1. Zufällge Auswahl enes Studenten,

Mehr

1 Mehrdimensionale Analysis

1 Mehrdimensionale Analysis 1 Mehrdmensonale Analyss Bespel: De Gesamtmasse der Erde st ene Funton der Erddchte ρ Erde und des Erdradus r Erde De Gesamtmasse der Erde st dann m Erde = V Erde ρ Erde Das Volumen ener Kugel mt Radus

Mehr

Lehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Dr. Roland Füss Statistik II: Schließende Statistik SS 2007

Lehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Dr. Roland Füss Statistik II: Schließende Statistik SS 2007 Lehrstuhl für Emprsche Wrtschaftsforschung und Ökonometre Dr Roland Füss Statstk II: Schleßende Statstk SS 007 5 Mehrdmensonale Zufallsvarablen Be velen Problemstellungen st ene solerte Betrachtung enzelnen

Mehr

Rückblick Regression II: Anpassung an Polynome

Rückblick Regression II: Anpassung an Polynome Rückblck Regresson II: Anpassung an Polynome T. Keßlng: Auswertung von Messungen und Fehlerrechnung - Fehlerrechnung und Korrelaton 0.06.08 Vorlesung 0- Temperaturmessung mt Thermospannung Wr erhalten

Mehr

Resultate / "states of nature" / mögliche Zustände / möglicheentwicklungen

Resultate / states of nature / mögliche Zustände / möglicheentwicklungen Pay-off-Matrzen und Entschedung unter Rsko Es stehen verschedene Alternatven (Strategen) zur Wahl. Jede Stratege führt zu bestmmten Resultaten (outcomes). Man schätzt dese Resultate für jede Stratege und

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 009 UNIVERSITÄT KARLSRUHE Blatt 4 Prv.-Doz. Dr. D. Kadelka Dpl.-Math. W. Lao Übungen zur Vorlesung Stochastsche Prozesse Musterlösungen Aufgabe 16: (Success Run, Fortsetzung)

Mehr

2. Wahrscheinlichkeitsrechnung

2. Wahrscheinlichkeitsrechnung . Grundlagen der Wahrschenlchketsrechnung. Wahrschenlchketsrechnung Der Wahrschenlchketstheore kommt ene wchtge Rolle als Bndegled zwschen der deskrptven und der nduktven Statstk zu. Aufgabe der nduktven

Mehr

5 Gemischte Verallgemeinerte Lineare Modelle

5 Gemischte Verallgemeinerte Lineare Modelle 5 Gemschte Verallgemenerte Lneare Modelle Wr betrachten zunächst enge allgemene Aussagen für Gemschte Verallgemenerte Lneare Modelle. Se y der beobachtbare Zufallsvektor und u der Vektor der ncht-beobachtbaren

Mehr

Kapitel V. Parameter der Verteilungen

Kapitel V. Parameter der Verteilungen Kaptel V Parameter der Vertelungen D. 5.. (Erwartungswert) Als Erwartungswert ener Zufallsvarablen X bezechnet man: E( X ) : Dabe se vorausgesetzt: = = + p falls X dskret f d falls X stetg und = + p

Mehr

Regressionsgerade. x x 1 x 2 x 3... x n y y 1 y 2 y 3... y n

Regressionsgerade. x x 1 x 2 x 3... x n y y 1 y 2 y 3... y n Regressonsgerade x x x x 3... x n y y y y 3... y n Bem Auswerten von Messrehen wrd häufg ene durch theoretsche Überlegungen nahegelegte lneare Bezehung zwschen den x- und y- Werten gesucht, d.h. ene Gerade

Mehr

14 Schätzmethoden. Eigenschaften von Schätzungen ˆθ. Sei ˆθ n eine Schätzung eines Parameters θ, die auf n Beobachtungen beruht.

14 Schätzmethoden. Eigenschaften von Schätzungen ˆθ. Sei ˆθ n eine Schätzung eines Parameters θ, die auf n Beobachtungen beruht. 14 Schätzmethoden Egenschaften von Schätzungen ˆθ Se ˆθ n ene Schätzung enes Parameters θ, de auf n Beobachtungen beruht. ˆθn n θ Konsstenz (Mnmalforderung) Eˆθ n = θ Erwartungstreue Eˆθ n n θ Asymptotsche

Mehr

Konkave und Konvexe Funktionen

Konkave und Konvexe Funktionen Konkave und Konvexe Funktonen Auch wenn es n der Wrtschaftstheore mest ncht möglch st, de Form enes funktonalen Zusammenhangs explzt anzugeben, so kann man doch n velen Stuatonen de Klasse der n Frage

Mehr

(2) i = 0) in Abhängigkeit des Zeitunterschieds x ZeitBus ZeitAuto für seinen Arbeitsweg.) i = 1) oder Bus ( y

(2) i = 0) in Abhängigkeit des Zeitunterschieds x ZeitBus ZeitAuto für seinen Arbeitsweg.) i = 1) oder Bus ( y 5. Probt-Modelle Ökonometre II - Peter Stalder "Bnar Choce"-Modelle - Der Probt-Ansatz Ene ncht drekt beobachtbare stochastsche Varable hängt von x ab: x u 2 u ~ N(0, ( Beobachtet wrd ene bnäre Varable

Mehr

18. Dynamisches Programmieren

18. Dynamisches Programmieren 8. Dynamsches Programmeren Dynamsche Programmerung we gerge Algorthmen ene Algorthmenmethode, um Optmerungsprobleme zu lösen. We Dvde&Conquer berechnet Dynamsche Programmerung Lösung enes Problems aus

Mehr

1 Finanzmathematik. 1.1 Das Modell. Sei Xt

1 Finanzmathematik. 1.1 Das Modell. Sei Xt 1.1 Das Modell Se Xt der Pres enes Assets zur Zet t und X = X ) 1 d der Rd +-dmensonale Presprozess. Das Geld kann auch zu dem rskolosen Znssatz r be ener Bank angelegt werden. Der Wert deser Anlage wrd

Mehr

Beschreibung des Zusammenhangs zweier metrischer Merkmale. Streudiagramme Korrelationskoeffizienten Regression

Beschreibung des Zusammenhangs zweier metrischer Merkmale. Streudiagramme Korrelationskoeffizienten Regression Beschrebung des Zusammenhangs zweer metrscher Merkmale Streudagramme Korrelatonskoeffzenten Regresson Alter und Gewcht be Kndern bs 36 Monaten Knd Monate Gewcht 9 9 5 8 3 4 7.5 4 3 6 5 3 6 4 3.5 7 35 5

Mehr

Daten sind in Tabellenform gegeben durch die Eingabe von FORMELN können mit diesen Daten automatisierte Berechnungen durchgeführt werden.

Daten sind in Tabellenform gegeben durch die Eingabe von FORMELN können mit diesen Daten automatisierte Berechnungen durchgeführt werden. Ene kurze Enführung n EXCEL Daten snd n Tabellenform gegeben durch de Engabe von FORMELN können mt desen Daten automatserte Berechnungen durchgeführt werden. Menüleste Symbolleste Bearbetungszele aktve

Mehr

-70- Anhang: -Lineare Regression-

-70- Anhang: -Lineare Regression- -70- Anhang: -Lneare Regressn- Für ene Messgröße y f(x) gelte flgender mathematsche Zusammenhang: y a+ b x () In der Regel läßt sch durch enen Satz vn Messwerten (x, y ) aber kene Gerade zechnen, da de

Mehr

Analysis I. Vorlesung 17. Logarithmen. R R, x exp x,

Analysis I. Vorlesung 17. Logarithmen. R R, x exp x, Prof. Dr. H. Brenner Osnabrück WS 2013/2014 Analyss I Vorlesung 17 Logarthmen Satz 17.1. De reelle Exponentalfunkton R R, x exp x, st stetg und stftet ene Bjekton zwschen R und R +. Bewes. De Stetgket

Mehr

Lineare Regression (1) - Einführung I -

Lineare Regression (1) - Einführung I - Lneare Regresson (1) - Enführung I - Mttels Regressonsanalysen und kompleeren, auf Regressonsanalysen aserenden Verfahren können schenar verschedene, jedoch nenander üerführare Fragen untersucht werden:

Mehr

Sequential minimal optimization: A fast Algorithm for Training Support Vector machines

Sequential minimal optimization: A fast Algorithm for Training Support Vector machines Sequental mnmal optmzaton: A fast Algorthm for Tranng Support Vector machnes By John C. Platt (998) Referat von Joerg Ntschke Fall der ncht-trennbaren Tranngs-Daten (/) In der Realtät kommen lnear ncht-trennbare

Mehr

Verteilungen eindimensionaler diskreter Zufallsvariablen

Verteilungen eindimensionaler diskreter Zufallsvariablen Vertelungen endmensonaler dskreter Zufallsvarablen Enführung Dskrete Vertelungen Dskrete Glechvertelung Bernoull-Vertelung Bnomalvertelung Bblografe: Prof. Dr. Kück Unverstät Rostock Statstk, Vorlesungsskrpt,

Mehr

nonparametrische Tests werden auch verteilungsfreie Tests genannt, da sie keine spezielle Verteilung der Daten in der Population voraussetzen

nonparametrische Tests werden auch verteilungsfreie Tests genannt, da sie keine spezielle Verteilung der Daten in der Population voraussetzen arametrsche vs. nonparametrsche Testverfahren Verfahren zur Analyse nomnalskalerten Daten Thomas Schäfer SS 009 1 arametrsche vs. nonparametrsche Testverfahren nonparametrsche Tests werden auch vertelungsfree

Mehr

Grundgedanke der Regressionsanalyse

Grundgedanke der Regressionsanalyse Grundgedanke der Regressonsanalse Bsher wurden durch Koeffzenten de Stärke von Zusammenhängen beschreben Mt der Regressonsrechnung können für ntervallskalerte Varablen darüber hnaus Modelle geschätzt werden

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB

INTELLIGENTE DATENANALYSE IN MATLAB INTELLIGENTE DATENANALYSE IN MATLAB Collaboratve Flterng Lteratur Benjamn Marln: Collaboratve Flterng A Machne Learnng Perspectve. Thomas Hofmann: Collaboratve Flterng wth P Prvacy va Factor Analyss. Robert

Mehr

Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorik

Kapitel 4: Wahrscheinlichkeitsrechnung und Kombinatorik Kaptel 4: Wahrschenlchketsrechnung und Kombnatork 1 4. Wahrschenlchketsrechnung De Wahrschenlchketsrechung stellt Modelle beret zur Beschrebung und Interpretaton solcher zufällger Erschenungen, de statstsche

Mehr

Kapitel 8: Kernel-Methoden. Maschinelles Lernen und Neural Computation

Kapitel 8: Kernel-Methoden. Maschinelles Lernen und Neural Computation Kaptel 8: Kernel-Methoden SS 009 Maschnelles Lernen und Neural Computaton 50 Ausgangsbass: Perceptron Learnng Rule Δw y = Kf = 0Ksonst K"target" = Kf Rosenblatt (96) Input wrd dazugezählt (abgezogen),

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB

INTELLIGENTE DATENANALYSE IN MATLAB INELLIGENE DAENANALYSE IN MALAB Matheatsche Grundlagen Lteratur A. Fscher, K. Vetters: Lneare Algebra Ene Enführung für Ingeneure und Naturwssenschaftler. H. Aann, J. Escher: Analyss I-III. S. Boyd, L.

Mehr

Vorlesung 3 Differentialgeometrie in der Physik 13

Vorlesung 3 Differentialgeometrie in der Physik 13 Vorlesung 3 Dfferentalgeometre n der Physk 13 Bemerkung. Ist M Manngfaltgket, p M und φ : U R n Karte mt p U, so nennt man U auch Koordnatenumgebung und φ auch Koordnatensystem n p. Bespel 2.4 Seen R >

Mehr

Übung zur Vorlesung - Theorien Psychometrischer Tests II

Übung zur Vorlesung - Theorien Psychometrischer Tests II Übung zur Vorlesung - Theoren Psychometrscher Tests II N. Rose 9. Übung (15.01.2009) Agenda Agenda 3-parametrsches logstsches Modell nach Brnbaum Lnkfunktonen 3PL-Modell nach Brnbaum Modellglechung ( =

Mehr

Statistik Exponentialfunktion

Statistik Exponentialfunktion ! " Statstk " Eponentalfunkton # $ % & ' $ ( )&* +, - +. / $ 00, 1 +, + ) Ensemble von radoaktven Atomkernen Zerfallskonstante λ [1/s] Lebensdauer τ 1/λ [s] Anzahl der pro Zetenhet zerfallenden Kerne:

Mehr

12 UMPU Tests ( UMP unbiased )

12 UMPU Tests ( UMP unbiased ) 89 1 UMPU Tests ( UMP unbased ) Nach Bemerkung 11.8(b) exstert m Allgemenen ken zwesetger UMP- Test zu enem Nveau α. Deshalb Enschränkung auf unverfälschte Tests: ϕ Φ α heßt unverfälscht (unbased) zum

Mehr

Statistische Kennzahlen für die Lage

Statistische Kennzahlen für die Lage Statstsche Kennzahlen für de Lage Bsher: gernge Informatonsverdchtung durch Vertelungsbeschrebung Jetzt: stärere Zusammenfassung der Daten auf hr Zentrum ls Raabe: Wahrschenlchetsrechnung und Statstsche

Mehr

Entscheidungstheorie Teil 1. Thomas Kämpke

Entscheidungstheorie Teil 1. Thomas Kämpke Entschedungstheore Tel Thomas Kämpke Sete 2 Entschedungstheore Tel Inhalt Kompaktensteg Wahrschenlchketsrechnung Wahrschenlchketsmaß auf Grundraum Enfaches Lotto Stochastsche Unabhänggket Verknüpfung von

Mehr

6. Übung zur Linearen Algebra II

6. Übung zur Linearen Algebra II Unverstät Würzburg Mathematsches Insttut Prof. Dr. Peter Müller Dr. Peter Fleschmann SS 2006 30.05.2006 6. Übung zur Lnearen Algebra II Abgabe: Bs Mttwoch, 14.06.2006, 11:00 Uhr n de Brefkästen vor der

Mehr

3. Lineare Algebra (Teil 2)

3. Lineare Algebra (Teil 2) Mathematk I und II für Ingeneure (FB 8) Verson /704004 Lneare Algebra (Tel ) Parameterdarstellung ener Geraden Im folgenden betrachten wr Geraden m eukldschen Raum n, wobe uns hauptsächlch de Fälle n bzw

Mehr

HUMBOLDT-UNIVERSITÄT ZU BERLIN. Institut für Informatik Lehrstuhl Wissensmanagement. Textklassifikation. Tobias Scheffer Ulf Brefeld

HUMBOLDT-UNIVERSITÄT ZU BERLIN. Institut für Informatik Lehrstuhl Wissensmanagement. Textklassifikation. Tobias Scheffer Ulf Brefeld HUMBOLDTUNIVERSITÄT ZU BERLIN Insttut für Informatk Lehrstuhl Wssensmanagement Textklassfkaton Tobas Scheffer Ulf Brefeld Textklassfkaton Textklassfkator: Ordnet enen Text ener Menge von nhaltlchen Kategoren

Mehr

Beschreibende Statistik Mittelwert

Beschreibende Statistik Mittelwert Beschrebende Statstk Mttelwert Unter dem arthmetschen Mttel (Mttelwert) x von n Zahlen verstehen wr: x = n = x = n (x +x +...+x n ) Desen Mttelwert untersuchen wr etwas genauer.. Zege für n = 3: (x x )

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Methodenlehre e e Prof. Dr. G. Menhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzet nach Verenbarung und nach der Vorlesung. Mathematsche und statstsche Methoden II Dr. Malte Perske perske@un-manz.de

Mehr

Modelle, Daten, Lernprobleme

Modelle, Daten, Lernprobleme Universität Potsdam Institut für Informatik Lehrstuhl Modelle, Daten, Lernprobleme Tobias Scheffer Überblick Arten von Lernproblemen: Überwachtes Lernen (Klassifikation, Regression, ordinale Regression,

Mehr

Inhalt dieses Kapitels. Das Klassifikationsproblem, Bewertung von Klassifikatoren. Grundbegriffe, Parameterwahl, Anwendungen

Inhalt dieses Kapitels. Das Klassifikationsproblem, Bewertung von Klassifikatoren. Grundbegriffe, Parameterwahl, Anwendungen 3. Klassfkaton 3.1 Enletung Inhalt deses Kaptels Das Klassfkatonsproblem, Bewertung von Klassfkatoren 3.2 Bayes-Klassfkatoren Optmaler Bayes-Klassfkator, Naver Bayes-Klassfkator, Anwendungen 3.3 Nächste-Nachbarn-Klassfkatoren

Mehr

Statistik der Extremwertverteilungen

Statistik der Extremwertverteilungen KAPITEL 6 Statstk der Extremwertvertelungen In desem Kaptel beschäftgen wr uns mt statstschen Anwendungen der Extremwertvertelungen. Wr werden zwe verschedene Zugänge zur Modellerung von Extremwerten betrachten.

Mehr

wird auch Spannweite bzw. Variationsbreite genannt ist definiert als die Differenz zwischen dem größten und kleinsten Messwert einer Verteilung:

wird auch Spannweite bzw. Variationsbreite genannt ist definiert als die Differenz zwischen dem größten und kleinsten Messwert einer Verteilung: Streuungswerte: 1) Range (R) ab metrschem Messnveau ) Quartlabstand (QA) und mttlere Quartlabstand (MQA) ab metrschem Messnveau 3) Durchschnttlche Abwechung (AD) ab metrschem Messnveau 4) Varanz (s ) ab

Mehr

Kurs Mikroökonometrie Rudolf Winter-Ebmer Thema 3: Binary Choice Models Probit & Logit. Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit

Kurs Mikroökonometrie Rudolf Winter-Ebmer Thema 3: Binary Choice Models Probit & Logit. Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit BINARY CHOICE MODELS 1 mt Pr( Y = 1) = P Y = 0 mt Pr( Y = 0) = 1 P Bespele: Wahlentschedung Kauf langlebger Konsumgüter Arbetslosgket Schätzung mt OLS? Y = X β + ε Probleme: Nonsense Predctons ( < 0, >

Mehr

4. Musterlösung. Problem 1: Kreuzende Schnitte **

4. Musterlösung. Problem 1: Kreuzende Schnitte ** Unverstät Karlsruhe Algorthmentechnk Fakultät für Informatk WS 05/06 ITI Wagner 4. Musterlösung Problem 1: Kreuzende Schntte ** Zwe Schntte (S, V \ S) und (T, V \ T ) n enem Graph G = (V, E) kreuzen sch,

Mehr

Übung zur Vorlesung - Theorien Psychometrischer Tests II

Übung zur Vorlesung - Theorien Psychometrischer Tests II Übung zur Vorlesung - Theoren Psychometrscher Tests II N. Rose 8. Übung (08.01.2008) Agenda Agenda Verglech Rasch-Modell vs. 2-parametrsches logstsches Modell nach Brnbaum 2PL-Modelle n Mplus Verglech

Mehr

Zufallsvariable, Wahrscheinlichkeitsverteilungen und Erwartungswert

Zufallsvariable, Wahrscheinlichkeitsverteilungen und Erwartungswert R. Brnkmann http://brnkmann-du.de Sete..8 Zufallsvarable, Wahrschenlchketsvertelungen und Erwartungswert Enführungsbespel: Zwe Würfel (en blauer und en grüner) werden 4 mal zusammen geworfen. De Häufgketen

Mehr

Zusammenfassung der letzten LVA. Diskrete Mathematik

Zusammenfassung der letzten LVA. Diskrete Mathematik Zusammenfassung Dskrete Mathematk Chrstna Kohl Georg Moser Oleksandra Panasuk Chrstan Sternagel Vncent van Oostrom Insttut für Informatk @ UIBK Sommersemester 2017 Zusammenfassung der letzten LVA ene Telmenge

Mehr

Lineare Regression. Stefan Keppeler. 16. Januar Mathematik I für Biologen, Geowissenschaftler und Geoökologen

Lineare Regression. Stefan Keppeler. 16. Januar Mathematik I für Biologen, Geowissenschaftler und Geoökologen Mathematk I für Bologen, Geowssenschaftler und Geoökologen 16. Januar 2012 Problemstellung Bespel Maß für Abwechung Trck Mnmum? Exponentalfunktonen Potenzfunktonen Bespel Problemstellung: Gegeben seen

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 2 Prv.-Doz. Dr. D. Kadelka Dpl.-Math. W. Lao Übungen zur Vorlesung Stochastsche Prozesse Musterlösungen Aufgabe 7: (B. Fredmans Urnenmodell)

Mehr

Der Erweiterungsfaktor k

Der Erweiterungsfaktor k Der Erweterungsfaktor k Wahl des rchtgen Faktors S. Meke, PTB-Berln, 8.40 Inhalt: 1. Was macht der k-faktor? 2. Welche Parameter legen den Wert des k-faktors fest? 3. Wo trtt der k-faktor auf? 4. Zusammenhang

Mehr

4.6 Das Pumping-Lemma für reguläre Sprachen:

4.6 Das Pumping-Lemma für reguläre Sprachen: Theoretsche Informatk 1 Vorlesungsskrpt vom Fretag, 30 Jun 000 Index: Erstellt von: (Matrkelnummer: 70899) Sete : 46 Das Pumpng-Lemma für reguläre Sprachen 1 Satz W 1 Zugrundelegende Idee des Pumpng-Lemma

Mehr

1.1 Beispiele zur linearen Regression

1.1 Beispiele zur linearen Regression 1.1. BEISPIELE ZUR LINEAREN REGRESSION 0 REGRESSION 1: Multple neare Regresson 1 Enführung n de statstsche Regressonsrechnung 1.1 Bespele zur lnearen Regresson b Bespel Sprengungen. Erschütterung Funkton

Mehr

Empirische Wirtschaftsforschung

Empirische Wirtschaftsforschung Emprsche Wrtschaftsforschung Prof. Dr. Bernd Süßmuth Unverstät Lepzg Insttut für Emprsche Wrtschaftsforschung Volkswrtschaftslehre, nsbesondere Ökonometre 5. Enfaches OLS-Regressonsmodell 5.1. Herletung

Mehr

Standardnormalverteilung / z-transformation

Standardnormalverteilung / z-transformation Standardnormalvertelung / -Transformaton Unter den unendlch velen Normalvertelungen gbt es ene Normalvertelung, de sch dadurch ausgeechnet st, dass se enen Erwartungswert von µ 0 und ene Streuung von σ

Mehr

Abbildung 3.1: Besetzungszahlen eines Fermigases im Grundzustand (a)) und für eine angeregte Konfiguration (b)).

Abbildung 3.1: Besetzungszahlen eines Fermigases im Grundzustand (a)) und für eine angeregte Konfiguration (b)). 44 n n F F a) b) Abbldung 3.: Besetzungszahlen enes Fermgases m Grundzustand (a)) und für ene angeregte Konfguraton (b)). 3.3 Ferm Drac Statstk In desem Abschntt wollen wr de thermodynamschen Egenschaften

Mehr

Gauss sche Fehlerrrechnung

Gauss sche Fehlerrrechnung Gauss sche Fehlerrrechnung T. Ihn 24. Oktober 206 Inhaltsverzechns Modell und Lkelhood 2 Alle Standardabwechungen σ snd bekannt, bzw. de Kovaranzmatrx der Daten st bekannt: Mnmeren der χ 2 -Funkton. 6

Mehr

Sicherheit von Π MAC2

Sicherheit von Π MAC2 Scherhet von Π MAC2 Satz Scherhet von Π MAC2 Se Π scher. Dann st Π MAC2 ebenfalls scher. Bewes: Se A en Angrefer für Π MAC2 mt Erfolgsws ɛ(n). Wr konstrueren enen Angrefer A für Π. Algorthmus Angrefer

Mehr

Fachbereich Mathematik Prof. K. Grosse-Brauckmann D. Frisch WS 2007/08 10./ Gruppenübung

Fachbereich Mathematik Prof. K. Grosse-Brauckmann D. Frisch WS 2007/08 10./ Gruppenübung Fachberech Mathematk Prof. K. Grosse-Brauckmann D. Frsch WS 27/8./.. 6. Übungsblatt zur Lnearen Algebra für Physker Gruppenübung Aufgabe G7 (Kern, Bld, Rang und Orthogonaltät) Gegeben se ene lneare Abbldung

Mehr

Facility Location Games

Facility Location Games Faclty Locaton Games Semnar über Algorthmen SS 2006 Klaas Joeppen 1 Abstract Wr haben berets sehr häufg von Nash-Glechgewchten und vor allem von deren Exstenz gesprochen. Das Faclty Locaton Game betet

Mehr

Übungsblatt 7 Lösungsvorschläge

Übungsblatt 7 Lösungsvorschläge Insttut für Theoretsche Informatk Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 7 Lösungsvorschläge Vorlesung Algorthmentechnk m WS 09/10 Problem 1: Mnmale Schnttbass Approxmatonsalgos relatver Gütegarante

Mehr

Statistik und Wahrscheinlichkeit

Statistik und Wahrscheinlichkeit Regeln der Wahrschenlchketsrechnung tatstk und Wahrschenlchket Regeln der Wahrschenlchketsrechnung Relatve Häufgket n nt := Eregnsalgebra Eregnsraum oder scheres Eregns und n := 00 Wahrschenlchket Eregnsse

Mehr