Textklassifikation und Informationsextraktion

Größe: px
Ab Seite anzeigen:

Download "Textklassifikation und Informationsextraktion"

Transkript

1 Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen etklassfkaton und Informatonsetrakton obas Scheffer Paul Prasse Mchael Großhans Ue Dck

2 etklassfkaton, Informatonsetrakton

3 etklassfkaton, Informatonsetrakton etklassfkaton: et Kategore Wrd.d.R. aus annoterten Daten gelernt. Anendungsbespel: Postengangsverarbetung. Informatonsetrakton: Identfkaton defnerter Felder n Dokument. Wrd.d.R. auch aus Daten gelernt. Anendungsbespel: Automatserung von Dokumentenverarbetungsprozessen. etklassfkaton: Dokument st ene Rechnung Informatonsetrakton: Feld enthält den Pres 3

4 etklassfkaton Repräsentaton Nach okenserung rd et durch Vektor repräsentert. Vektorraummodell: Vektor der Worthäufgketen für probablstsche Modelle. FIDFRepräsentaton für lneare Verfahren. Wortrehenfolge blebt unberückschtgt. Vektorraummodell mt NGrammen: Wrd für Spamerkennung verendet. Jedes NGramm durch Dmenson repräsentert, oder Sparse Bnar Polnomal Hashng oder Orthogonal Sparse NGrams. 4

5 etklassfkaton Repräsentaton Jedes NGramm durch Dmenson repräsentert, Nur NGramme, de auch tatsächlch auftreten. Sparse Bnar Polnomal Hashng Schebe Fenster der Brete N über den et. Jede elmenge von bs zu N oken Rehenfolge rd beachtet und das am etesten rechts stehende oken, blden ene Dmenson. Berechne 3bt Hashes für dese elmenge. Orthogonal Sparse Bgrams. Fenster der Brete N rd über et geschoben, Jedes Paar aus enem belebgen oken m Fenster und dem am lnken Fensterrand stehenden oken st en Merkmal. SBPH und OSB: NGramme mt Platzhaltern. 5

6 etklassfkaton Klassfkator vs. Entschedungsfunkton Für ene bnäre Klassfkaton = oder von enem Objekt rd mest ene Entschedungsfunkton f gelernt. Je größer f, desto ahrschenlcher st, dass zur Klasse gehört. Wenn f, dann entschede h =, sonst h =. Klassfkator h, Entschedungsfunkton f. Der Wert für verschebt false postves zu false negatves. Optmaler Wert hängt von Kosten ener postven oder negatven Fehlklassfkaton ab. 6

7 etklassfkaton Evaluaton Fehlklassfkatonsahrschenlchket Häufg ncht aussagekräftg, el P sehr klen. We gut snd 5% Fehler, enn P=3%? Idee: Ncht Klassfkator beerten, sondern Entschedungsfunkton. Wchtge Begrffe für de Evaluaton: Bespel: est auf HIV rue Postves P: h =, und Klasse von = rue Negatves N: h =, und Klasse von = False Postves FP: h =, und Klasse von = False Negatves FN: h =, und Klasse von = 7

8 etklassfkaton Evaluaton Precson / Recall Precson : #P #P#FP #P Recall: #P#FN PrecsonRecallKurve beertet Entschedungsfunkton, Jeder Wert für entsprcht Punkt auf PRKurve. FMeasure: Durchschntt aus Precson und Recall. FMeasure = precson recall precsonrecall Recever Operatng Characterstc ROCKurve Beertet Entschedungsfunkton, Fläche unter ROCKurve = Ppostves Bespel hat höheren fwert als negatves Bespel 8

9 etklassfkaton ROCAnalse Grundlage: Entschedungsfunkton Schellert = Klassfkator. h = Klassfkator, enn f θ, sonst. Entschedungsfunkton Großer Schellert: Mehr postve Bsp falsch. Klener Schellert: Mehr negatve Bsp falsch. Beertung der Entschedungsfunkton unabhängg vom konkreten Schellert. ROC = ReceverOperatngCharacterstcAnalse. Werkzeug zur Beertung der Qualtät von Entschedungsfunktonen. 9

10 rue Postves etklassfkaton ROCKurve Charakterseren das Verhalten des Klassfkators für alle möglchen Schellerte. XAchse: False Postves : Anzahl negatver Bespele, de als postv klassfzert erden. YAchse: rue Postves : Anzahl postver Bespele, de als postv klassfzert erden. perfekte Funkton bessere Funkton zufällges Raten False Postves 0

11 etklassfkaton Bestmmen der ROCKurve Algorthmus Für alle postven Bespele X p n estmenge Füge f p n abstegend sorterte Lste L p en. Für alle negatven Bespele X n n estmenge Füge f n n abstegend sorterte Lste L n en. Setze P = FP = 0. Wederhole solange L p und L n ncht leer snd: Wenn L p Element L n Element dann ncrementp und L p = L p Net. Wenn L n Element L p Element dann ncrementfp und L n = L n Net. Zechne neuen Punkt FP, P

12 rue Postves etklassfkaton Flächennhalt der ROCKurve Flächennhalt AUC kann durch Integreren Summeren der Flächennhalte bestmmt erden. p = zufällg gezogenes Postvbespel n = zufällg gezogenes Negatvbespel heorem: AUC = Pfp > fn. perfekte Funkton bessere Funkton zufällges Raten False Postves

13 etklassfkaton Precson und Recall Alternatve zur ROCAnalse. Stammt aus dem Informaton Retreval. rue postves Precson= rue postves False postves rue postves Recall= rue postve False negatves Precson: Prchtg als postv erkannt Recall: Pals postv erkannt st postv 3

14 etklassfkaton Precson und Recall Zusammenfassungen der Kurve n ener Zahl: Mamum FMeasure: Mamum über alle p,rpaare auf der Kurve: Precson Recall Fmeasure= Precson Recall PrecsonRecallBreakevenPont: Derjenge Wert für den glt: Precson = Recall = PRBEP. 4

15 etklassfkaton Precson und Recall: radeoff recall precson Precson/RecallKurven Welcher Klassfkator st der beste / schlechteste 5

16 etklassfkaton Bestmmen der PerformanceMaße Performance auf ranngsmenge etrem optmstscher Schätzer. Zum Schätzen der Performance Daten verenden, de ncht zum raneren verendet urden. Möglchketen: ranngundest: Verende z.b. 80% der Daten zum raneren und 0% der Daten zum Messen der ROCKurve, PRKurve, oder Fehlklassfkatonsahrschenlchket. NFoldCrossValdaton: ele Daten n N ele, ederholtes raneren mt N elen und esten auf dem restlchen el. 6

17 etklassfkaton Fehlerschätzung ranngandest Algorthmus: Auftelen der Datenbank m Datenpunkte n ranngsmenge p % der Daten m und estmenge 00 p % der Daten m. h = Klassfkator tranert auf der ranngsmenge. Bestmme Ê anhand der estmenge. h = Klassfkator tranert auf allen Daten. Lefere Hpothese h zusammen mt Fehlerschätzer Ê Ê Ê p% m ranngandest st für große Datenbanken gut anendbar. Problematsch für klene Datenbanken. 7

18 etklassfkaton NFold CrossValdaton NFold CrossValdaton Algorthmus: Blde N eta glech große Blöcke S,, S n der Datenmenge S mt S = m. Ê = 0. Für = N h = Klassfkator tranert auf Menge S\S Ê = Ê emprscher Fehler von h auf S Ê = Ê/N h = Klassfkator tranert auf Menge S. Lefere Hpothese h mt Fehlerschätzer Ê Ê Ê m Wenn S = N, hesst das Verfahren LeaveoneOut Cross Valdaton. Nur lecht pessmstscher Schätzer. 8

19 Lneare Klassfkatoren f 0 sgn f f 0 9

20 Lneare Klassfkatoren Umformulerung mt zusätzlchem, konstanten Engabeattrbut 0 =: f.. n.. n 0 f 0 sgn f 0 n 0 0 n 0.. n 0.. n = n n 0

21 Lneare Klassfkatoren Roccho : Mttelpunkt der neg. Bespele : Mttelpunkt der pos. Bespele rennebene: Normalenvektor = f 0 Zegt vom Mttelpunkt der negatven zum Mttelpunkt der postven Bespele. Bestmmung von 0 : Mttelpunkt / muss auf der Ebene legen. f / / 0 0 0

22 Lneare Klassfkatoren Roccho rennebenen hat mamalen Abstand von den Mttelpunkten der Klassen. ranngsbespele können falsch klassfzert erden. Dfferenz der Mttelerte kann schlechter Normalenvektor für Dskrmnaton sen.

23 Lneare Klassfkatoren Perzeptron Lneares Modell: Zel: f Für alle Bespele postven Bespele, : f 0 Für alle Bespele negatven Bespele, : f 0 0 n Gechtsvektor kodert. = Bespele legen auf der rchtgen Sete der Ebene. 3

24 Lneare Klassfkatoren Perzeptron Lneares Modell: Zel: Für alle Bespele mt Label : PerzeptronOptmerungskrterum für Daten L: Mamere f f J P 0, L mn,0 4

25 Scheffer/Prasse/Großhans: Sprachtechnologe Scheffer/Prasse/Großhans/Dck: Sprachtechnologe 5 Lneare Klassfkatoren Perzeptron Lneares Modell: Zel: Für alle Bespele mt Label : PerzeptronOptmerungskrterum für Daten L: Subgradent für Bespel, : 0 f f L P J,,0 mn sonst 0 enn 0, P J

26 Scheffer/Prasse/Großhans: Sprachtechnologe Scheffer/Prasse/Großhans/Dck: Sprachtechnologe 6 Lneare Klassfkatoren Perzeptron Lneares Modell: PerzeptronOptmerungskrterum: Subgradent für Bespel, : Gradentenaufsteg: Wederhole, für alle Bespele mt f L P J,,0 mn sonst 0 enn 0, P J Werden aktuell falsch klassfzert. Verschebe rennebene 0

27 Lneare Klassfkatoren PerzeptronAlgorthmus Lneares Modell: f Perzeptronranngsalgorthmus: Solange noch Bespele, mt der Hpothese nkonsstent snd L. 0, terere über alle Bespele: Wenn 0 dann. 7

28 Lneare Klassfkatoren Perzeptron Egenschaften Perzeptron fndet mmer ene rennebene, enn ene estert Optmerungskrterum st konkav. Estert mmer ene rennebene? 8

29 Lneare Klassfkatoren MargnPerzeptron PerzeptronKlassfkaton: Perzeptron: für alle Bespele muss gelten = Bespel legt auf der rchtgen Sete der Ebene. MargnPerzeptron: f 0 = Bespel mndestens von rennebene entfernt. 9

30 Lneare Klassfkatoren MargnPerzeptronAlgorthmus Lneares Modell: f MargnPerzeptronranngsalgorthmus: Solange noch Bespele, mt der Hpothese nkonsstent snd., terere über alle L Bespele: Wenn dann 30

31 Lneare Klassfkatoren MargnMamerung Perzeptron: für alle Bespele muss gelten 0 MargnPerzeptron: Fnde Ebene, de alle Bespele mndestens von Ebene entfernt. Fester, vorengestellter Wert. MargnMamerung: Fnde Ebene, de alle Bespele mndestens von Ebene entfernt. Für den größtmöglchen Wert. 3

32 Lneare Klassfkatoren MargnMamerung MargnMamerung: Fnde Ebene, de alle Bespele mndestens von Ebene entfernt. Für den größtmöglchen Wert. Mamere unter der Nebenbedngung: für alle Bespele, : = Mnmere unter der Nebenbedngung: für alle Bespele, : 3

33 Lneare Klassfkatoren MargnMamerung HardMargnMamerung: Mnmere unter der Nebenbedngungen: für alle Bespele, : SoftMargnMamerung: C Mnmere unter den Nebenbedngungen: für alle Bespele, : Alle 0. SoftMargnEbene estert mmer, HardMargnEbene ncht! Slack Margn / 33

34 Lneare Klassfkatoren SoftMargnMamerung SoftMargnMamerung: Mnmere C unter den Nebenbedngungen: für alle Bespele, : Alle 0. Ensetzen von n Optmerungskrterum ergbt Mnmere: Regularserer C ma{0, } Verlustfunkton Slack Margn / 34

35 Lneare Klassfkatoren Prmale Support Vector Machne SVM SoftMargnMamerung: Mnmere: ma{0, Mnmerung mt Gradentenverfahren. C } Krterum st konve, es gbt genau en Mnmum. Verfahren: Prmale Support Vector Machne. Margn / Slack 35

36 Lneare Klassfkatoren Prmale Support Vector Machne SVM SoftMargnMamerung: Mnmere: Mnmerung mt Gradentenverfahren. Wederhole: E H E C ma{0, } H Enthält Summe über alle Bespele 36

37 MultklassenKlassfkaton Bsher: Bnäre Klassfkaton Lneare Klassfkaton: Jetzt: MultklassenKlassfkaton Endlche Menge von KlassenLabels, Ansatz: Statt {, } arg ma sgn jetzt f, Bestmme Klasse mt höchstem Entschedungsfunktonsert sgn Y 37

38 Lernen mt strukturerten Ausgaben Klassfkaton be mehr als ze Klassen: f bekommt jetzt ze Parameter. Gemensame Merkmale von En und Ausgabe: * arg ma f, f,, Glecher Ansatz für Multklassen, Sequenz und StrukturLernen und Rankng. 38

39 Scheffer/Prasse/Großhans: Sprachtechnologe Scheffer/Prasse/Großhans/Dck: Sprachtechnologe 39 Lernen mt strukturerten Ausgaben Constrants be normaler SVM: Für alle, : Constrants mt strukturerten Ausgaben: Für alle, : und alle :,,,,

40 Scheffer/Prasse/Großhans: Sprachtechnologe Scheffer/Prasse/Großhans/Dck: Sprachtechnologe 40 Lernen mt strukturerten Ausgaben MultklassenSVM Klassfkaton be mehr als ze Klassen: MultklassenMerkmale:, arg ma * f,, f ]] [[... ]] [[, ]] [[... ]] [[ k k

41 Scheffer/Prasse/Großhans: Sprachtechnologe Scheffer/Prasse/Großhans/Dck: Sprachtechnologe 4 Lernen mt strukturerten Ausgaben MultklassenSVM Jede Klasse hat prvaten Abschntt des Gechtsvektors: ]] [[... ]] [[... ]] [[... ]] [[ ]] [[... ]] [[, k n k n n n k k k

42 Scheffer/Prasse/Großhans: Sprachtechnologe Scheffer/Prasse/Großhans/Dck: Sprachtechnologe 4 Lernen mt strukturerten Ausgaben MultklassenSVM Jede Klasse hat prvaten Abschntt des Gechtsvektors: Bespel: ]] [[ ]] [[ ]] [[, 3 3 3

43 Lernen mt strukturerten Ausgaben Klassfkaton mt aonomen Angenommen de Ähnlchketen der k Klassen snd durch ene Baumstruktur efe d gegeben: Homnn v 3 v 3 Jede Klasse entsprcht enem Pfad m Baum; =,, d. v v v Homnnae v 3 3 Gorlln Pan Homo Gorlla 43

44 Lernen mt strukturerten Ausgaben Klassfkaton mt aonomen Angenommen de Ähnlchketen der k Klassen snd durch ene Baumstruktur efe d gegeben: Homnn v 3 v v Jede Klasse entsprcht enem Pfad m Baum; =,, d. Chmpanzee = Homnnae, Homnn, Pan v 3 v Homnnae v 3 3 Gorlln Pan Homo Gorlla 44

45 Scheffer/Prasse/Großhans: Sprachtechnologe Scheffer/Prasse/Großhans/Dck: Sprachtechnologe 45 Lernen mt strukturerten Ausgaben Klassfkaton mt aonomen Klassen n Baumstruktur:, arg ma * f,, f,..., d... d ]] [[... ]] [[... ]] [[... ]] [[..., d n d d d n d v 3 3 v 3 v 3 v v v

46 Lernen mt strukturerten Ausgaben Klassfkaton mt aonomen kodert z.b. en Dokument = v, v, v 3 3 st en Pfad z.b. n enem hemenbaum Φ, = Λ = v Λ = v Λ = v Λ 3 = v 3 Λ 3 = v 3 Λ 3 = v 3 3 = v 3 v 3 v v v v

47 Lernen mt strukturerten Ausgaben Klassfkaton mt aonomen Jeder Knoten hat enen prvaten Abschntt des Gechtsvektors. Pfade telen sch Abschntte, enn se gemensame Knoten benhalten., d d d [[ ]] [[ ]] [[ k ]] [[ ]] d d d d [[ ]] d [[ ]] k d k d d d [[ k ]] d d d d n[[ k ]] k d d n... n n d k j j 47

48 Lernen mt strukturerten Ausgaben Sequentelle En/Ausgaben Z.B. Wortarterkennung: Egennamenerkennung, Informatonsetrakton: Gemensame Repräsentaton von En und Ausgabe. = Curost klls the cat. = <Noun, Verb, Determner, Noun> = Barbe meets Ken. = <Person,, Person> * arg ma f, f,, 48

49 Lernen mt strukturerten Ausgaben Sequentelle En/Ausgaben Labellabel: Attrbut für jedes Paar benachbarter Labels t und t. 4 φ 3 t, t = [[ t = Noun t = Verb ]] Curost klls the cat t φ t, t. LabelBeobachtung: t φ t, t. Gemensamer Merkmalsvektor,= t,φ 3 t, t,,φ 34 t, t,... Gechtsvektor =, 3,, 34, Attrbut für jedes Paar aus Engabe und Ausgabe. φ 34 t, t = [[ t = Noun t = cat ]] 49

50 Lernen mt strukturerten Ausgaben Sequentelle En/Ausgaben: Dekoderung Um ene Sequenz zu klassfzeren, muss * arg ma f, berechnet erden. Das argma geht über alle möglchen Sequenzen eponentell vele n der Länge. f,, summert über Merkmale benachbarter LabelPaare und Merkmale von Paaren. Mt dnamscher Programmerung kann argma n lnearer Zet berechnet erden Vterb. 50

51 Lernen mt strukturerten Ausgaben Sequentelle En/Ausgaben: Dekoderung Gemensamer Merkmalsvektor,= t,φ 3 t, t,,φ 34 t, t, Fnde argma, effzent mt ranstonsmatr A={a, } und Beobachtungsmatr B ={b t, },, {,N,V,D}: a,n V HM SVM benutzt best Vterb Dekoderung. V φ 3 t, t = [[ t = Noun φ 34 t, t = [[ t = Noun t = Verb ]] t = John ]] N N N N b,n D b,n D D D b 4,N b Curost klls the 3,N cat V V 5

52 Lernen mt strukturerten Ausgaben Bespel: POSaggng Wortarterkennung Satz = Curost klls the cat Geünscht: argma, = <N,V,Det,N> Eplzt:,<N,V,Det,N>,<N,N,N,N>,<N,V,Det,N>,<N,N,N,V>,<N,V,Det,N>,<N,N,V,N>,<N,V,Det,N>,<N,V,N,N> ZU VIELE!!! 5

53 Lernen mt strukturerten Ausgaben ranngsalgorthmus LargeMargnAnsatz: = /. mn ½ C ξ so dass " ",, ξ " ξ 0. Iteratves ranng. Negatve Constrants erden hnzugefügt, enn bem ranng Fehler auftrtt. 53

54 Lernen mt strukturerten Ausgaben ranngsalgorthmus Gegeben: L Wederhole bs alle Sequenzen korrekt vorhergesagt erden. Iterere über alle Bespele,. Bestmme arg ma Wenn,, MargnVerletzung dann füge Constrant,, dem Workng Set hnzu. Löse Optmerungsproblem für Engabe, Ausgabe, und negatve PseudoBespele orkng set. Lefere zurück.,,...,, m m, 54

55 Lernen mt strukturerten Ausgaben Ereterung: Verlustfunkton Problem: Alle Fehler glech. Oft ncht snnvoll bem Strutkurlernen. Lösung: Verlustfunkton. mn ½ C ξ so dass " ",, Δ, " ξ 0. Verlustfunkton Verlustfunkton: Bestraft falsche Vorhersage n Bezug auf das Zellabel. ξ 55

56 Lneare Klassfkatoren Logstsche Regresson SVM: großer Entschedungsfunktonsert ~ hohe Scherhet der Vorhersage. Aber: bem Lernen ncht auf korrekte Kalbrerung der Klassenahrschenlchketen optmert. f=8.3 Rsko enes Fehlers? Problem: Kene korrekt kalbrerten Entschedungsfunktonserte. Lösung: Logstsche Regresson. Logstsche Regresson: Vorhersage der Klassenahrschenlchket. 56

57 Lneare Klassfkatoren Logstsche Regresson Baes Regel: Logodd rato: P a ln p p p p p P p P p P P P P P a ep a 57

58 Scheffer/Prasse/Großhans: Sprachtechnologe Scheffer/Prasse/Großhans/Dck: Sprachtechnologe 58 Lneare Klassfkatoren Logstsche Regresson Lkelhood jeder Klasse normalvertelt, gemensame Kovaranzmatr für bede Klassen. Loggodds rato: ep / / d p 0 ln ln ep ep ln / / / / d d P P P P P P a Normalvertelung

59 Scheffer/Prasse/Großhans: Sprachtechnologe Scheffer/Prasse/Großhans/Dck: Sprachtechnologe 59 Lneare Klassfkatoren Logstsche Regresson Lkelhood jeder Klasse normalvertelt, gemensame Kovaranzmatr für bede Klassen. Loggodds rato: ep / / d p 0 ln P P a

60 Lneare Klassfkatoren Logstsche Regresson Wenn ze Klassen jeels normalvertelte Lkelhood mt derselben Kovaranzmatr haben, dann nmmt P dese Form an: P 0 ep 0 lnearer Klassfkator P 0 logstsche Funkton 60

61 Lneare Klassfkatoren Logstsche Regresson Bsher: Motvaton der Form des logstschen Klassfkatonsmodells. Falls Klassenvertelungen bekannt ären, könnten r und 0 aus, und herleten. Snd aber ncht bekannt. Vertelungsannahme muss auch ncht stmmen. Jetzt: We fnden r tatsächlch Parameter und 0? 6

62 Lneare Klassfkatoren Logstsche Regresson Pror über Parameter: Normalvertelung, ~ N[0, ]. Posteror: Verlustfunkton: N P L p, p N [[ ]] [[ ]] p E, L log p L N [[ ]]log [[ ]]log ' 6

63 Lneare Klassfkatoren Logstsche Regresson Verlustfunkton st konve und dfferenzerbar. Gradentenabsteg führt zum Mnmum. Verlustfunktonen Logstc Regresson und SVM SquaredLoss HngeLoss LogstcLoss 63

64 Fragen? 64

Textklassifikation und Informationsextraktion

Textklassifikation und Informationsextraktion Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen etklassfkaton und Informatonsetrakton obas Scheffer Peter Hader Paul Prasse Scheffer/Hader/Prasse: Scheffer/Saade: Sprachtechnologe

Mehr

HUMBOLDT-UNIVERSITÄT ZU BERLIN. Institut für Informatik Lehrstuhl Wissensmanagement. Textklassifikation. Tobias Scheffer Ulf Brefeld

HUMBOLDT-UNIVERSITÄT ZU BERLIN. Institut für Informatik Lehrstuhl Wissensmanagement. Textklassifikation. Tobias Scheffer Ulf Brefeld HUMBOLDTUNIVERSITÄT ZU BERLIN Insttut für Informatk Lehrstuhl Wssensmanagement Textklassfkaton Tobas Scheffer Ulf Brefeld Textklassfkaton Textklassfkator: Ordnet enen Text ener Menge von nhaltlchen Kategoren

Mehr

Kapitel 8: Kernel-Methoden. Maschinelles Lernen und Neural Computation

Kapitel 8: Kernel-Methoden. Maschinelles Lernen und Neural Computation Kaptel 8: Kernel-Methoden SS 009 Maschnelles Lernen und Neural Computaton 50 Ausgangsbass: Perceptron Learnng Rule Δw y = Kf = 0Ksonst K"target" = Kf Rosenblatt (96) Input wrd dazugezählt (abgezogen),

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Graphsche Modelle els Landwehr Zusammenfassung Pfade Zusammenfassung: en Pfad --Y-Z- st B A E Blockert be Y, wenn Dvergerende Verbndung,

Mehr

Modelle, Version Spaces, Lernen

Modelle, Version Spaces, Lernen Unverstät Potsdam Insttut ür Inormatk Lehrstuhl Maschnelles Lernen Maschnelles Lernen Modelle Verson Spaces Lernen Tobas Scheer Mchael Brückner Klasskaton Engabe: Instanz Objekt X. Können durch Attrbut-Vektoren

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Zusammenfassung: Lernprobleme, Bayes sches Lernen, Evaluerung Chrstoph Sawade/Nels Landwehr/Paul Prasse Slva Makowsk obas Scheffer Überblck

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Graphsche Modelle els Landwehr Überblck Graphsche Modelle: Syntax und Semantk Graphsche Modelle m Maschnellen Lernen Inferenz n Graphschen

Mehr

Bedingte Entropie. Bedingte Entropie. Bedingte Entropie. Kapitel 4: Bedingte Entropie I(X;Y) H(X Y) H(Y) H(X) H(XY)

Bedingte Entropie. Bedingte Entropie. Bedingte Entropie. Kapitel 4: Bedingte Entropie I(X;Y) H(X Y) H(Y) H(X) H(XY) Bedngte Entrope Kaptel : Bedngte Entrope Das vorherge Theorem kann durch mehrfache Anwendung drekt verallgemenert werden H (... H ( = Ebenso kann de bedngt Entrope defnert werden Defnton: De bedngte Entrope

Mehr

Informatik II. Minimalpolynome und Implikanten. Minimalpolynome. Minimalpolynome. Rainer Schrader. 27. Oktober Was bisher geschah: Definition

Informatik II. Minimalpolynome und Implikanten. Minimalpolynome. Minimalpolynome. Rainer Schrader. 27. Oktober Was bisher geschah: Definition Informatk II Raner Schrader und Implkanten Zentrum für Angewandte Informatk Köln 27. Oktober 2005 1 / 28 2 / 28 Was bsher geschah: jede Boolesche Funkton kann durch enfache Grundfunktonen dargestellt werden

Mehr

Daten sind in Tabellenform gegeben durch die Eingabe von FORMELN können mit diesen Daten automatisierte Berechnungen durchgeführt werden.

Daten sind in Tabellenform gegeben durch die Eingabe von FORMELN können mit diesen Daten automatisierte Berechnungen durchgeführt werden. Ene kurze Enführung n EXCEL Daten snd n Tabellenform gegeben durch de Engabe von FORMELN können mt desen Daten automatserte Berechnungen durchgeführt werden. Menüleste Symbolleste Bearbetungszele aktve

Mehr

Die Annäherung der Binomialverteilung durch die Normalverteilung am Beispiel eines Modells der Schadenversicherung

Die Annäherung der Binomialverteilung durch die Normalverteilung am Beispiel eines Modells der Schadenversicherung am Bespel enes Modells der chadenverscherung Für das Modell ener chadenverscherung se gegeben: s w s. n 4 chaden enes Verscherungsnehmers, wenn der chadenfall entrtt Wahrschenlchket dafür, dass der chadenfall

Mehr

Textklassifikation, Informationsextraktion

Textklassifikation, Informationsextraktion Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Textklassifikation, Informationsextraktion Tobias Scheffer Thomas Vanck Textklassifikation, Informationsextraktion 2 Textklassifikation,

Mehr

Klassifikation mit dem Perceptron von Rosenblatt. Vom Perceptron zum Multilagen-Perceptron. Error-Backpropagation Lernregel

Klassifikation mit dem Perceptron von Rosenblatt. Vom Perceptron zum Multilagen-Perceptron. Error-Backpropagation Lernregel Neuronale Verfahren zur Funktonsaromaton Klassfkaton mt em Percetron von Rosenblatt Vom Percetron zum Multlagen-Percetron Error-Backroagaton ernregel Raale Bassfunktonen-Netze PD Dr Martn Stetter, Semens

Mehr

Modelle, Version Spaces, Lernen

Modelle, Version Spaces, Lernen Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Maschnelles Lernen Modelle, Verson Spaces, Lernen Chrstoph Sawade/Nels Landwehr Domnk Lahmann Tobas Scheffer Überblck Problemstellungen:

Mehr

Modelle, Version Spaces, Lernen

Modelle, Version Spaces, Lernen Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Maschnelles Lernen Modelle, Verson Spaces, Lernen Chrstoph Sawade/Nels Landwehr Slva Makowsk Tobas Scheffer Überblck Problemstellungen:

Mehr

Näherungsverfahren. Wiederhole den Algorithmusbegriff. Erläutere die Begriffe: Klasse der NP-Probleme. Probleme. Probleme. Approximative Algorithmen

Näherungsverfahren. Wiederhole den Algorithmusbegriff. Erläutere die Begriffe: Klasse der NP-Probleme. Probleme. Probleme. Approximative Algorithmen Näherungsverfahren Wederhole den Algorthmusbegrff. Erläutere de Begrffe: Klasse der P-ProblemeP Probleme Klasse der NP-Probleme Probleme Approxmatve Algorthmen Stochastsche Algorthmen ALGORITHMEN Def.:

Mehr

Bayessches Lernen (3)

Bayessches Lernen (3) Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Bayessches Lernen (3) Chrstoph Sawade/Nels Landwehr Jules Rasetaharson Tobas Scheffer Überblck Wahrschenlchketen, Erwartungswerte, Varanz

Mehr

Kapitel 7: Ensemble Methoden. Maschinelles Lernen und Neural Computation

Kapitel 7: Ensemble Methoden. Maschinelles Lernen und Neural Computation Kaptel 7: Ensemble Methoden 133 Komtees Mehrere Netze haben bessere Performanz als enzelne Enfachstes Bespel: Komtee von Netzen aus der n-fachen Kreuzvalderung (verrngert Varanz) De Computatonal Learnng

Mehr

Streuungs-, Schiefe und Wölbungsmaße

Streuungs-, Schiefe und Wölbungsmaße aptel IV Streuungs-, Schefe und Wölbungsmaße B... Lagemaße von äufgketsvertelungen geben allen weng Auskunft über ene äufgketsvertelung. Se beschreben zwar en Zentrum deser Vertelung, geben aber kenen

Mehr

Stützvektormethode (SVM) Erinnerung: Funktionslernen. Beispiel: Funktionenlernen. Reale Beispiele

Stützvektormethode (SVM) Erinnerung: Funktionslernen. Beispiel: Funktionenlernen. Reale Beispiele technsche unverstät Fakultät für Inforatk technsche unverstät Fakultät für Inforatk Stützvektorethode (SVM) Maxeren der Brete ener separerenden Hyperebene axu argn ethod Transforaton des Datenraus durch

Mehr

Information Retrieval: Grundlagen & Modellierung

Information Retrieval: Grundlagen & Modellierung HUMBOLDT-UNIVERSITÄT ZU BERLIN Insttut für Informatk Lehrstuhl Wssensmanagement Informaton Retreval: Grundlagen & Modellerung Tobas Scheffer Ulf Brefeld Informaton Retreval Repräsentaton, Specherung, Zugrff

Mehr

18. Dynamisches Programmieren

18. Dynamisches Programmieren 8. Dynamsches Programmeren Dynamsche Programmerung we gerge Algorthmen ene Algorthmenmethode, um Optmerungsprobleme zu lösen. We Dvde&Conquer berechnet Dynamsche Programmerung Lösung enes Problems aus

Mehr

Grundgedanke der Regressionsanalyse

Grundgedanke der Regressionsanalyse Grundgedanke der Regressonsanalse Bsher wurden durch Koeffzenten de Stärke von Zusammenhängen beschreben Mt der Regressonsrechnung können für ntervallskalerte Varablen darüber hnaus Modelle geschätzt werden

Mehr

Kapitel 4: Unsicherheit in der Modellierung Modellierung von Unsicherheit. Machine Learning in der Medizin 104

Kapitel 4: Unsicherheit in der Modellierung Modellierung von Unsicherheit. Machine Learning in der Medizin 104 Kaptel 4: Unscherhet n der Modellerung Modellerung von Unscherhet Machne Learnng n der Medzn 104 Regresson Modellerung des Datengenerators: Dchteschätzung der gesamten Vertelung, t pt p p Lkelhood: L n

Mehr

6. Übung zur Linearen Algebra II

6. Übung zur Linearen Algebra II Unverstät Würzburg Mathematsches Insttut Prof. Dr. Peter Müller Dr. Peter Fleschmann SS 2006 30.05.2006 6. Übung zur Lnearen Algebra II Abgabe: Bs Mttwoch, 14.06.2006, 11:00 Uhr n de Brefkästen vor der

Mehr

Dynamisches Programmieren

Dynamisches Programmieren Marco Thomas - IOI 99 -. Treffen n Bonn - Dynamsches Programmeren - Unverstät Potsdam - 8.02.999 Dynamsches Programmeren 957 R. Bellmann: Dynamc Programmng für math. Optmerungsprobleme Methode für Probleme,.

Mehr

Sortieren. Thomas Röfer. Permutationen Naives Sortieren Sortieren durch Einfügen, Auswählen, Vertauschen, Mischen QuickSort Comparator

Sortieren. Thomas Röfer. Permutationen Naives Sortieren Sortieren durch Einfügen, Auswählen, Vertauschen, Mischen QuickSort Comparator Unverstät Bremen Sorteren Thomas Röfer Permutatonen Naves Sorteren Sorteren durch Enfügen, Auswählen, Vertauschen, Mschen QuckSort Comparator Unverstät Bremen Rückblck Suchen Identtät/Flache/Tefe Glechhet

Mehr

Kapitel 2: Klassifikation. Maschinelles Lernen und Neural Computation

Kapitel 2: Klassifikation. Maschinelles Lernen und Neural Computation Kaptel 2: Klassfkaton Maschnelles Lernen und Neural Computaton 28 En enfacher Fall En Feature, Hstogramme für bede Klassen (z.b. Glukosewert, Dabetes a/nen) Kene perfekte Trennung möglch Entschedung: Schwellwert

Mehr

Definition des linearen Korrelationskoeffizienten

Definition des linearen Korrelationskoeffizienten Defnton des lnearen Korrelatonskoeffzenten r xy x y y r x xy y 1 x x y y x Der Korrelatonskoeffzent st en Indkator dafür, we gut de Punkte (X,Y) zu ener Geraden passen. Sen Wert legt zwschen -1 und +1.

Mehr

Maschinelles Lernen (Zusammenfassung)

Maschinelles Lernen (Zusammenfassung) Unverstät Potsdam Insttut für Informatk Lehrstuhl (Zusammenfassung) Chrstoph Sawade /Nels Landwehr/Paul Prasse Domnk Lahmann Tobas Scheffer Überblck Lernprobleme Entschedungsbäume Bayes sches Lernen Lneare

Mehr

Sortieren. Thomas Röfer. Permutationen Naives Sortieren Sortieren durch Einfügen, Auswählen, Vertauschen, Mischen QuickSort Comparator

Sortieren. Thomas Röfer. Permutationen Naives Sortieren Sortieren durch Einfügen, Auswählen, Vertauschen, Mischen QuickSort Comparator Unverstät Bremen Sorteren Thomas Röfer Permutatonen Naves Sorteren Sorteren durch Enfügen, Auswählen, Vertauschen, Mschen QuckSort Comparator Unverstät Bremen Rückblck Suchen Identtät/Flache/Tefe Glechhet

Mehr

14 Schätzmethoden. Eigenschaften von Schätzungen ˆθ. Sei ˆθ n eine Schätzung eines Parameters θ, die auf n Beobachtungen beruht.

14 Schätzmethoden. Eigenschaften von Schätzungen ˆθ. Sei ˆθ n eine Schätzung eines Parameters θ, die auf n Beobachtungen beruht. 14 Schätzmethoden Egenschaften von Schätzungen ˆθ Se ˆθ n ene Schätzung enes Parameters θ, de auf n Beobachtungen beruht. ˆθn n θ Konsstenz (Mnmalforderung) Eˆθ n = θ Erwartungstreue Eˆθ n n θ Asymptotsche

Mehr

Spiele und Codes. Rafael Mechtel

Spiele und Codes. Rafael Mechtel Spele und Codes Rafael Mechtel Koderungstheore Worum es geht Über enen Kanal werden Informatonen Übertragen. De Informatonen werden dabe n Worte über enem Alphabet Q übertragen, d.h. als Tupel w = (w,,

Mehr

Fallstudie 1 Diskrete Verteilungen Abgabe: Aufgabentext und Lösungen schriftlich bis zum

Fallstudie 1 Diskrete Verteilungen Abgabe: Aufgabentext und Lösungen schriftlich bis zum Abgabe: Aufgabentext und Lösungen schrftlch bs zum 15. 6. 2012 I. Thema: Zehen mt und ohne Zurücklegen Lesen Se sch zunächst folgenden Text durch! Wr haben bsher Stchprobenzehungen aus Grundgesamtheten

Mehr

Multilineare Algebra und ihre Anwendungen. Nr. 6: Normalformen. Verfasser: Yee Song Ko Adrian Jenni Rebecca Huber Damian Hodel

Multilineare Algebra und ihre Anwendungen. Nr. 6: Normalformen. Verfasser: Yee Song Ko Adrian Jenni Rebecca Huber Damian Hodel ultlneare Algebra und hre Anwendungen Nr. : Normalformen Verfasser: Yee Song Ko Adran Jenn Rebecca Huber Daman Hodel 9.5.7 - - ultlneare Algebra und hre Anwendungen Jordan sche Normalform Allgemene heore

Mehr

Facility Location Games

Facility Location Games Faclty Locaton Games Semnar über Algorthmen SS 2006 Klaas Joeppen 1 Abstract Wr haben berets sehr häufg von Nash-Glechgewchten und vor allem von deren Exstenz gesprochen. Das Faclty Locaton Game betet

Mehr

Sequential minimal optimization: A fast Algorithm for Training Support Vector machines

Sequential minimal optimization: A fast Algorithm for Training Support Vector machines Sequental mnmal optmzaton: A fast Algorthm for Tranng Support Vector machnes By John C. Platt (998) Referat von Joerg Ntschke Fall der ncht-trennbaren Tranngs-Daten (/) In der Realtät kommen lnear ncht-trennbare

Mehr

Lineare Optimierung Dualität

Lineare Optimierung Dualität Kaptel Lneare Optmerung Dualtät D.. : (Dualtät ) Folgende Aufgaben der lnearen Optmerung heßen symmetrsch dual zuenander: und { z = c x Ax b x } max, 0 { Z b A c } mn =, 0. Folgende Aufgaben der lnearen

Mehr

Resultate / "states of nature" / mögliche Zustände / möglicheentwicklungen

Resultate / states of nature / mögliche Zustände / möglicheentwicklungen Pay-off-Matrzen und Entschedung unter Rsko Es stehen verschedene Alternatven (Strategen) zur Wahl. Jede Stratege führt zu bestmmten Resultaten (outcomes). Man schätzt dese Resultate für jede Stratege und

Mehr

Lineare Regression (1) - Einführung I -

Lineare Regression (1) - Einführung I - Lneare Regresson (1) - Enführung I - Mttels Regressonsanalysen und kompleeren, auf Regressonsanalysen aserenden Verfahren können schenar verschedene, jedoch nenander üerführare Fragen untersucht werden:

Mehr

Die Leistung von Quicksort

Die Leistung von Quicksort De Lestung von Qucsort Jae Hee Lee Zusammenfassung Der Sorteralgorthmus Qucsort st als ens der effzenten Sorterverfahren beannt. In deser Ausarbetung werden wr sene Komplextät zuerst möglchst präzse schätzen

Mehr

Regressionsgerade. x x 1 x 2 x 3... x n y y 1 y 2 y 3... y n

Regressionsgerade. x x 1 x 2 x 3... x n y y 1 y 2 y 3... y n Regressonsgerade x x x x 3... x n y y y y 3... y n Bem Auswerten von Messrehen wrd häufg ene durch theoretsche Überlegungen nahegelegte lneare Bezehung zwschen den x- und y- Werten gesucht, d.h. ene Gerade

Mehr

Rotation (2. Versuch)

Rotation (2. Versuch) Rotaton 2. Versuch Bekannt snd berets Vektorfelder be denen das Lnenntegral über ene geschlossene Kurve Null wrd Stchworte: konservatve Kraft Potentalfelder Gradentenfeld. Es gbt auch Vektorfelder be denen

Mehr

Lineare Regression. Stefan Keppeler. 16. Januar Mathematik I für Biologen, Geowissenschaftler und Geoökologen

Lineare Regression. Stefan Keppeler. 16. Januar Mathematik I für Biologen, Geowissenschaftler und Geoökologen Mathematk I für Bologen, Geowssenschaftler und Geoökologen 16. Januar 2012 Problemstellung Bespel Maß für Abwechung Trck Mnmum? Exponentalfunktonen Potenzfunktonen Bespel Problemstellung: Gegeben seen

Mehr

Konkave und Konvexe Funktionen

Konkave und Konvexe Funktionen Konkave und Konvexe Funktonen Auch wenn es n der Wrtschaftstheore mest ncht möglch st, de Form enes funktonalen Zusammenhangs explzt anzugeben, so kann man doch n velen Stuatonen de Klasse der n Frage

Mehr

Beispiel: Textklassifikation

Beispiel: Textklassifikation Bespel: Textklassfkaton To: ruepng@ls8.cs.undortmund.de Subject: Astonshng Guaranteed XXX Pctures FREE! Gao In the next mnutes you are gong to learn how to get access to totally FREE xxx pctures. Let me

Mehr

Funktionsgleichungen folgende Funktionsgleichungen aus der Vorlesung erhält. = e

Funktionsgleichungen folgende Funktionsgleichungen aus der Vorlesung erhält. = e Andere Darstellungsformen für de Ausfall- bzw. Überlebens-Wahrschenlchket der Webull-Vertelung snd we folgt: Ausfallwahrschenlchket: F ( t ) Überlebenswahrschenlchket: ( t ) = R = e e t t Dabe haben de

Mehr

(Theoretische) Konfidenzintervalle für die beobachteten Werte: Die Standardabweichung des Messfehlers wird Standardmessfehler genannt:

(Theoretische) Konfidenzintervalle für die beobachteten Werte: Die Standardabweichung des Messfehlers wird Standardmessfehler genannt: (Theoretsche Konfdenzntervalle für de beobachteten Werte: De Standardabwechung des Messfehlers wrd Standardmessfehler genannt: ( ε ( 1- REL( Mt Hlfe der Tschebyscheff schen Unglechung lassen sch be bekanntem

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Methodenlehre e e Prof. Dr. G. Menhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzet nach Verenbarung und nach der Vorlesung. Mathematsche und statstsche Methoden II Dr. Malte Perske perske@un-manz.de

Mehr

Stützvektormethode (SVM)

Stützvektormethode (SVM) Stützvektorethode (SVM) Maeren der Brete ener separerenden Hperebene au argn ethod Transforaton des Datenraus durh Kernfunkton Strukturelle Rskonerung Vladr Vapnk The Nature of Statstal Learnng Theor Sprnger

Mehr

binäre Suchbäume Informatik I 6. Kapitel binäre Suchbäume binäre Suchbäume Rainer Schrader 4. Juni 2008 O(n) im worst-case Wir haben bisher behandelt:

binäre Suchbäume Informatik I 6. Kapitel binäre Suchbäume binäre Suchbäume Rainer Schrader 4. Juni 2008 O(n) im worst-case Wir haben bisher behandelt: Informatk I 6. Kaptel Raner Schrader Zentrum für Angewandte Informatk Köln 4. Jun 008 Wr haben bsher behandelt: Suchen n Lsten (lnear und verkettet) Suchen mttels Hashfunktonen jewels unter der Annahme,

Mehr

e dt (Gaußsches Fehlerintegral)

e dt (Gaußsches Fehlerintegral) Das Gaußsche Fehlerntegral Φ Ac 5-8 Das Gaußsche Fehlerntegral Φ st denert als das Integral über der Standard-Normalvertelung j( ) = -,5 n den Grenzen bs, also F,5 t ( ) = - e dt (Gaußsches Fehlerntegral)

Mehr

5. Gruppenübung zur Vorlesung. Höhere Mathematik 1. Wintersemester 2012/2013

5. Gruppenübung zur Vorlesung. Höhere Mathematik 1. Wintersemester 2012/2013 O. Alaya, S. Demrel M. Fetzer, B. Krnn M. Wed 5. Gruppenübung zur Vorlesung Höhere Mathematk Wntersemester /3 Dr. M. Künzer Prof. Dr. M. Stroppel Lösungshnwese zu den Hausaufgaben: Aufgabe H 6. Darstellungen

Mehr

Standardnormalverteilung / z-transformation

Standardnormalverteilung / z-transformation Standardnormalvertelung / -Transformaton Unter den unendlch velen Normalvertelungen gbt es ene Normalvertelung, de sch dadurch ausgeechnet st, dass se enen Erwartungswert von µ 0 und ene Streuung von σ

Mehr

Analysis I. Vorlesung 17. Logarithmen. R R, x exp x,

Analysis I. Vorlesung 17. Logarithmen. R R, x exp x, Prof. Dr. H. Brenner Osnabrück WS 2013/2014 Analyss I Vorlesung 17 Logarthmen Satz 17.1. De reelle Exponentalfunkton R R, x exp x, st stetg und stftet ene Bjekton zwschen R und R +. Bewes. De Stetgket

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 009 UNIVERSITÄT KARLSRUHE Blatt 4 Prv.-Doz. Dr. D. Kadelka Dpl.-Math. W. Lao Übungen zur Vorlesung Stochastsche Prozesse Musterlösungen Aufgabe 16: (Success Run, Fortsetzung)

Mehr

5 Gemischte Verallgemeinerte Lineare Modelle

5 Gemischte Verallgemeinerte Lineare Modelle 5 Gemschte Verallgemenerte Lneare Modelle Wr betrachten zunächst enge allgemene Aussagen für Gemschte Verallgemenerte Lneare Modelle. Se y der beobachtbare Zufallsvektor und u der Vektor der ncht-beobachtbaren

Mehr

Sei T( x ) die Tangente an den Graphen der Funktion f(x) im Punkt ( x 0, f(x 0 ) ) : T( x ) = f(x 0 ) + f (x 0 ) ( x - x 0 ).

Sei T( x ) die Tangente an den Graphen der Funktion f(x) im Punkt ( x 0, f(x 0 ) ) : T( x ) = f(x 0 ) + f (x 0 ) ( x - x 0 ). Taylorentwcklung (Approxmaton durch Polynome). Problemstellung Se T( x ) de Tangente an den Graphen der Funkton f(x) m Punkt ( x 0, f(x 0 ) ) : T( x ) = f(x 0 ) + f (x 0 ) ( x - x 0 ). Dann kann man de

Mehr

Übung zur Vorlesung - Theorien Psychometrischer Tests II

Übung zur Vorlesung - Theorien Psychometrischer Tests II Übung zur Vorlesung - Theoren Psychometrscher Tests II N. Rose 9. Übung (15.01.2009) Agenda Agenda 3-parametrsches logstsches Modell nach Brnbaum Lnkfunktonen 3PL-Modell nach Brnbaum Modellglechung ( =

Mehr

nonparametrische Tests werden auch verteilungsfreie Tests genannt, da sie keine spezielle Verteilung der Daten in der Population voraussetzen

nonparametrische Tests werden auch verteilungsfreie Tests genannt, da sie keine spezielle Verteilung der Daten in der Population voraussetzen arametrsche vs. nonparametrsche Testverfahren Verfahren zur Analyse nomnalskalerten Daten Thomas Schäfer SS 009 1 arametrsche vs. nonparametrsche Testverfahren nonparametrsche Tests werden auch vertelungsfree

Mehr

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Lösungen. Übungsklausur Wahrscheinlichkeit und Regression Die Lösungen

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Lösungen. Übungsklausur Wahrscheinlichkeit und Regression Die Lösungen Übungsklausur Wahrschenlchket und Regresson De Lösungen. Welche der folgenden Aussagen treffen auf en Zufallsexperment zu? a) En Zufallsexperment st en emprsches Phänomen, das n stochastschen Modellen

Mehr

Modelle, Version Spaces, Lernen

Modelle, Version Spaces, Lernen Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Maschnelles Lernen Modelle, Verson Spaces, Lernen Chrstoph Sawade/Nels Landwehr Jules Rasetaharson Tobas Scheffer Überblck Problemstellungen:

Mehr

Arbeitsgruppe Radiochemie Radiochemisches Praktikum P 06. Einführung in die Statistik. 1. Zählung von radioaktiven Zerfällen und Statistik 2

Arbeitsgruppe Radiochemie Radiochemisches Praktikum P 06. Einführung in die Statistik. 1. Zählung von radioaktiven Zerfällen und Statistik 2 ETH Arbetsgruppe Radocheme Radochemsches Praktkum P 06 Enführung n de Statstk INHALTSVERZEICHNIS Sete 1. Zählung von radoaktven Zerfällen und Statstk 2 2. Mttelwert und Varanz 2 3. Momente ener Vertelung

Mehr

Technische Universität München Zentrum Mathematik Diskrete Optimierung: Fallstudien aus der Praxis. Das Cutting Stock-Problem

Technische Universität München Zentrum Mathematik Diskrete Optimierung: Fallstudien aus der Praxis. Das Cutting Stock-Problem 1 Problem Technsche Unverstät München Zentrum Mathematk Dskrete Optmerung: Fallstuden aus der Praxs Barbara Wlhelm Mchael Rtter Das Cuttng Stock-Problem Ene Paperfabrk produzert Paperrollen der Brete B.

Mehr

Beschreibung des Zusammenhangs zweier metrischer Merkmale. Streudiagramme Korrelationskoeffizienten Regression

Beschreibung des Zusammenhangs zweier metrischer Merkmale. Streudiagramme Korrelationskoeffizienten Regression Beschrebung des Zusammenhangs zweer metrscher Merkmale Streudagramme Korrelatonskoeffzenten Regresson Alter und Gewcht be Kndern bs 36 Monaten Knd Monate Gewcht 9 9 5 8 3 4 7.5 4 3 6 5 3 6 4 3.5 7 35 5

Mehr

1 Finanzmathematik. 1.1 Das Modell. Sei Xt

1 Finanzmathematik. 1.1 Das Modell. Sei Xt 1.1 Das Modell Se Xt der Pres enes Assets zur Zet t und X = X ) 1 d der Rd +-dmensonale Presprozess. Das Geld kann auch zu dem rskolosen Znssatz r be ener Bank angelegt werden. Der Wert deser Anlage wrd

Mehr

-70- Anhang: -Lineare Regression-

-70- Anhang: -Lineare Regression- -70- Anhang: -Lneare Regressn- Für ene Messgröße y f(x) gelte flgender mathematsche Zusammenhang: y a+ b x () In der Regel läßt sch durch enen Satz vn Messwerten (x, y ) aber kene Gerade zechnen, da de

Mehr

Multivariate Analysemethoden

Multivariate Analysemethoden Multvarate Analysemethoden q-q-plot Methode zur Prüfung der Multvaraten Normalvertelung Günter Menhardt Johannes Gutenberg Unverstät Manz Prüfung der NV-Annahme Vertelungsanpassung/Prüfung Prüfung der

Mehr

Übungsblatt 7 Lösungsvorschläge

Übungsblatt 7 Lösungsvorschläge Insttut für Theoretsche Informatk Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 7 Lösungsvorschläge Vorlesung Algorthmentechnk m WS 09/10 Problem 1: Mnmale Schnttbass Approxmatonsalgos relatver Gütegarante

Mehr

Datenaufbereitung und -darstellung III

Datenaufbereitung und -darstellung III Datenafberetng nd Darstellng 1 Glederng: Zel der Datenafberetng nd Darstellng Datenverdchtng Tabellen nd grafsche Darstellngen Darstellng nvarater Datenmengen (Abschntt 4.4 Darstellng mltvarater Daten

Mehr

Diskrete Logarithmen. Teil II

Diskrete Logarithmen. Teil II Dskrete Logarthmen Ron-Gerrt Vahle Hendrk Radke Unverstät Potsdam Insttut für Informatk Semnar Kryptographe SS2005 Tel II Glederung Pohlg-Hellman Index-Calculus Theoretsche Grenzen Endlche Körper Eplog

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB

INTELLIGENTE DATENANALYSE IN MATLAB INTELLIGENTE DATENANALYSE IN MATLAB Collaboratve Flterng Lteratur Benjamn Marln: Collaboratve Flterng A Machne Learnng Perspectve. Thomas Hofmann: Collaboratve Flterng wth P Prvacy va Factor Analyss. Robert

Mehr

Lösungen zum 3. Aufgabenblock

Lösungen zum 3. Aufgabenblock Lösungen zum 3. Aufgabenblock 3. Aufgabenblock ewerber haben n enem Test zur sozalen Kompetenz folgende ntervallskalerte Werte erhalten: 96 131 11 1 85 113 91 73 7 a) Zegen Se für desen Datensatz, dass

Mehr

4. Musterlösung. Problem 1: Kreuzende Schnitte **

4. Musterlösung. Problem 1: Kreuzende Schnitte ** Unverstät Karlsruhe Algorthmentechnk Fakultät für Informatk WS 05/06 ITI Wagner 4. Musterlösung Problem 1: Kreuzende Schntte ** Zwe Schntte (S, V \ S) und (T, V \ T ) n enem Graph G = (V, E) kreuzen sch,

Mehr

Vorlesung 3 Differentialgeometrie in der Physik 13

Vorlesung 3 Differentialgeometrie in der Physik 13 Vorlesung 3 Dfferentalgeometre n der Physk 13 Bemerkung. Ist M Manngfaltgket, p M und φ : U R n Karte mt p U, so nennt man U auch Koordnatenumgebung und φ auch Koordnatensystem n p. Bespel 2.4 Seen R >

Mehr

Nullstellen Suchen und Optimierung

Nullstellen Suchen und Optimierung Nullstellen Suchen und Optmerung Typsche Probleme: De optmale Bahnkurve De Mnmerung des Erwartungswertes ür den Hamltonan Wr möchten ene Funkton mnmeren oder mameren solch en Problem wrd Optmerung genannt!

Mehr

Übersicht der Vorlesung

Übersicht der Vorlesung Überscht der Vorlesung. Enführung. Bldverarbetung 3. Morphologsche Operatonen 4. Bldsegmenterung 5. Merkmale von Objekten 6. Klassfkaton 7. Dredmensonale Bldnterpretaton 8. Bewegungsanalyse aus Bldfolgen

Mehr

9 Komplexe Zahlen ( ) ( ) 9.1 Ziele. 9.2 Warum braucht man komplexe Zahlen? 9.3 Darstellung von komplexen Zahlen. r 2. j 2. j 1.

9 Komplexe Zahlen ( ) ( ) 9.1 Ziele. 9.2 Warum braucht man komplexe Zahlen? 9.3 Darstellung von komplexen Zahlen. r 2. j 2. j 1. Mathematk I / Komplexe Zahlen 9 Komplexe Zahlen 9. Zele Am Ende deses Kaptels hast Du ene Grundvorstellung was komplexe Zahlen snd. Du kannst se grafsch darstellen und enfache Berechnungen durchführen.

Mehr

Aufgabe 8 (Gewinnmaximierung bei vollständiger Konkurrenz):

Aufgabe 8 (Gewinnmaximierung bei vollständiger Konkurrenz): LÖSUNG AUFGABE 8 ZUR INDUSTRIEÖKONOMIK SEITE 1 VON 6 Aufgabe 8 (Gewnnmaxmerung be vollständger Konkurrenz): Betrachtet wrd en Unternehmen, das ausschleßlch das Gut x produzert. De m Unternehmen verwendete

Mehr

Auswertung von Umfragen und Experimenten. Umgang mit Statistiken in Maturaarbeiten Realisierung der Auswertung mit Excel 07

Auswertung von Umfragen und Experimenten. Umgang mit Statistiken in Maturaarbeiten Realisierung der Auswertung mit Excel 07 Auswertung von Umfragen und Expermenten Umgang mt Statstken n Maturaarbeten Realserung der Auswertung mt Excel 07 3.Auflage Dese Broschüre hlft bem Verfassen und Betreuen von Maturaarbeten. De 3.Auflage

Mehr

Gauss sche Fehlerrrechnung

Gauss sche Fehlerrrechnung Gauss sche Fehlerrrechnung T. Ihn 24. Oktober 206 Inhaltsverzechns Modell und Lkelhood 2 Alle Standardabwechungen σ snd bekannt, bzw. de Kovaranzmatrx der Daten st bekannt: Mnmeren der χ 2 -Funkton. 6

Mehr

Lineare Optimierung Einführung

Lineare Optimierung Einführung Kaptel Lneare Optmerung Enführung B... (Dre klasssche Anwendungen) Im Folgenden führen wr de ersten dre klassschen (zvlen) Anwendungen der lnearen Optmerung an: BS... (Produktonsplanoptmerung) En Betreb

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 2 Prv.-Doz. Dr. D. Kadelka Dpl.-Math. W. Lao Übungen zur Vorlesung Stochastsche Prozesse Musterlösungen Aufgabe 7: (B. Fredmans Urnenmodell)

Mehr

Mi , Dr. Ackermann Übungsaufgaben Gewöhnliche Differentialgleichungen Serie 13

Mi , Dr. Ackermann Übungsaufgaben Gewöhnliche Differentialgleichungen Serie 13 M. 3. 5-4. 45, Dr. Ackermann 6..4 Übungsaufgaben Gewöhnlche Dfferentalglechungen Sere 3.) Bestmmung ener homogenen Dfferentalglechung zu gegebenen Funktonen y (partkuläre Lösungen) enes Fundamentalsystems.

Mehr

Fachbereich Mathematik Prof. K. Grosse-Brauckmann D. Frisch WS 2007/08 10./ Gruppenübung

Fachbereich Mathematik Prof. K. Grosse-Brauckmann D. Frisch WS 2007/08 10./ Gruppenübung Fachberech Mathematk Prof. K. Grosse-Brauckmann D. Frsch WS 27/8./.. 6. Übungsblatt zur Lnearen Algebra für Physker Gruppenübung Aufgabe G7 (Kern, Bld, Rang und Orthogonaltät) Gegeben se ene lneare Abbldung

Mehr

9 Komplexe Zahlen ( ) ( ) 9.1 Ziele. 9.2 Warum braucht man komplexe Zahlen? 9.3 Darstellung von komplexen Zahlen. r 2. j 2. j 1.

9 Komplexe Zahlen ( ) ( ) 9.1 Ziele. 9.2 Warum braucht man komplexe Zahlen? 9.3 Darstellung von komplexen Zahlen. r 2. j 2. j 1. Mathematk I / Komplexe Zahlen 9 Komplexe Zahlen 9. Zele Am Ende deses Kaptels hast Du ene Grundvorstellung was komplexe Zahlen snd. Du kannst se grafsch darstellen und enfache Berechnungen durchführen.

Mehr

Teil XIV. Lösung linearer Gleichungssysteme. Scientific Computing in Computer Science, Technische Universität München

Teil XIV. Lösung linearer Gleichungssysteme. Scientific Computing in Computer Science, Technische Universität München Tel XIV Lösung lnearer Glechungssysteme IN8008, Wntersemester 010/011 89 Gauss Algorthmus Zwe Schrtte: Vorwärtselmnaton und Rückwärtssubsttuton Vorwärtselmnaton Erzeugen ener Stufenform Zelen dürfen mt

Mehr

Beschreibende Statistik Mittelwert

Beschreibende Statistik Mittelwert Beschrebende Statstk Mttelwert Unter dem arthmetschen Mttel (Mttelwert) x von n Zahlen verstehen wr: x = n = x = n (x +x +...+x n ) Desen Mttelwert untersuchen wr etwas genauer.. Zege für n = 3: (x x )

Mehr

Diskrete Mathematik 1 WS 2008/09

Diskrete Mathematik 1 WS 2008/09 Ruhr-Unverstät Bochum Lehrstuhl für Kryptologe und IT-Scherhet Prof. Dr. Alexander May M. Rtzenhofen, M. Mansour Al Sawad, A. Meurer Lösungsblatt zur Vorlesung Dskrete Mathematk 1 WS 2008/09 Blatt 7 /

Mehr

3. Lineare Algebra (Teil 2)

3. Lineare Algebra (Teil 2) Mathematk I und II für Ingeneure (FB 8) Verson /704004 Lneare Algebra (Tel ) Parameterdarstellung ener Geraden Im folgenden betrachten wr Geraden m eukldschen Raum n, wobe uns hauptsächlch de Fälle n bzw

Mehr

Grundlagen der Technischen Informatik. 12. Übung. Christian Knell Keine Garantie für Korrekt-/Vollständigkeit

Grundlagen der Technischen Informatik. 12. Übung. Christian Knell Keine Garantie für Korrekt-/Vollständigkeit Grundlagen der Technschen Informatk 12. Übung Chrstan Knell Kene Garante für Korrekt-/Vollständgket 12. Übungsblatt Themen Aufgabe 1: Aufgabe 2: Aufgabe 3: Komparator Adderer/Subtraherer Mehr-Operanden-Adderer

Mehr

2.1 Einfache lineare Regression 31

2.1 Einfache lineare Regression 31 .1 Enfache lneare Regresson 31 Regressonsanalyse De Regressonsanalyse gehört zu den am häufgsten engesetzten multvaraten statstschen Auswertungsverfahren. Besonders de multple Regressonsanalyse hat große

Mehr

Prof. Dr. P. Kischka WS 2012/13 Lehrstuhl für Wirtschafts- und Sozialstatistik. Klausur Statistische Inferenz

Prof. Dr. P. Kischka WS 2012/13 Lehrstuhl für Wirtschafts- und Sozialstatistik. Klausur Statistische Inferenz Prof. Dr. P. Kschka WS 2012/13 Lehrstuhl für Wrtschafts- und Sozalstatstk Klausur Statstsche Inferenz 15.02.2013 Name: Matrkelnummer: Studengang: Aufgabe 1 2 3 4 5 6 7 8 Summe Punkte 6 5 5 5 5 4 4 6 40

Mehr

50 Matrixnormen und Eigenwertabschätzungen

50 Matrixnormen und Eigenwertabschätzungen 50 Matrxnormen und Egenwertabschätzungen 501 Motvaton De Berechnung der Egenwerte ener Matrx st aufwändg (vgl Kaptel 45, Kaptel 51) Kann man de Egenwerte ener Matrx mt gerngem Aufwand abschätzen? Des spelt

Mehr

Sind die nachfolgenden Aussagen richtig oder falsch? (1 Punkt pro korrekter Beantwortung)

Sind die nachfolgenden Aussagen richtig oder falsch? (1 Punkt pro korrekter Beantwortung) LÖSUNG KLAUSUR STATISTIK I Berufsbegletender Studengang Betrebswrtschaftslehre Sommersemester 016 Aufgabentel I: Theore (10 Punkte) Snd de nachfolgenden Aussagen rchtg oder falsch? (1 Punkt pro korrekter

Mehr