HUMBOLDT-UNIVERSITÄT ZU BERLIN. Institut für Informatik Lehrstuhl Wissensmanagement. Textklassifikation. Tobias Scheffer Ulf Brefeld

Größe: px
Ab Seite anzeigen:

Download "HUMBOLDT-UNIVERSITÄT ZU BERLIN. Institut für Informatik Lehrstuhl Wissensmanagement. Textklassifikation. Tobias Scheffer Ulf Brefeld"

Transkript

1 HUMBOLDTUNIVERSITÄT ZU BERLIN Insttut für Informatk Lehrstuhl Wssensmanagement Textklassfkaton Tobas Scheffer Ulf Brefeld Textklassfkaton Textklassfkator: Ordnet enen Text ener Menge von nhaltlchen Kategoren zu. Klassfkator wrd aus Sammlung klassfzerter Bespeltexte gelernt. Lneare Klassfkaton. Anwendungsbespele: Enordnung von Webseten n WebDrector, Klassfkaton von Zetungsmeldungen, Erkennung von SpamEmals. 2

2 VektorraumModell Ztoplasma... Aaron 90 Aar 90 Aal Im Vektorraummodell entsprcht eder Text genau enem Punkt m Raum. De Wortrehenfolge blebt dabe unberückschtgt. Text wrd repräsentert durch Punkt m hochdmensonalen Raum, Wortrehenfolge blebt unberückschtgt, Wortstammbldung, nverse document frequenc. 3 VektorraumModell Termfrequenz enes Wortes n enem Text = # Vorkommen des Wortes m Text. Problem: Lange Texte haben lange Vektoren, führt zu Verzerrungen bem Ähnlchketsmaß. Lösung: Normeren TF (Wort )= # Vorkommen von Wort / Vektorlänge. Problem: Enge Wörter snd wenger relevant (und, oder, ncht, wenn, ) Lösung: Inverse Dokumentenfrequenz #Dokumente IDF( wort ) = log #Dokumente, n denen Wort vorkommt 4 2

3 VektorraumModell TFIDF (Wort ) = TF(Wort ) * IDF(Wort ). Repräsentaton enes Textes: TF( Wort) IDF( Wort) TFIDF( Text) = M TF( Wortn) IDF( Wortn) 5 VektorraumModell Ähnlchket zwschen Texten x und x 2 : Cosnus des Wnkels zwschen den Vektoren. x x2 Ähnlchket: sm( x, x2) = cos( θ ) = x x2 Zwschen 0 und. 6 3

4 Bnäre / Mehrwertge Klassfkaton Bnäre Probleme: Spam / ken Spam En Klassfkator für bnäre Entschedung. Mehrere bnäre Probleme: Poltk, Wrtschaft, Fnanzmärkte, Sport, Mehrere bnäre Klassfkatoren. Mehrere dsunkte Klassen: Enordnung von Emals n Folder. One aganst all : Jeder Klassfkator trennt Bespele ener Klasse gegen alle anderen Klassen. Paarwese Dskrmnaton: En Klassfkator für edes Paar von Klassen, Abstmmung. 7 Klassfkator / Entschedungsfunkton Für ene bnäre Klassfkaton (= oder ) wrd ene Entschedungsfunkton f(x) gelernt. Je größer f(x), desto wahrschenlcher st, dass x zur Klasse gehört. Wenn f(x) θ, dann entschede h(x) =, sonst h(x) =. Klassfkator h(x), Entschedungsfunkton f(x). Der Wert für θ verschebt false postves zu false negatves. Optmaler Wert hängt von Kosten ener postven oder negatven Fehlklassfkaton ab. 8 4

5 Evaluaton von Textklassfkatoren Fehlklassfkatonswahrschenlchket Häufg ncht aussagekräftg, wel P() sehr klen. We gut snd 5% Fehler, wenn P()=3%? Idee: Ncht Klassfkator bewerten, sondern Entschedungsfunkton. Precson / Recall PrecsonRecallKurve bewertet Entschedungsfunkton, Jeder Wert für θ entsprcht Punkt auf PRKurve. FMeasure: Durchschntt aus Precson und Recall. Recever Operatng Characterstc (ROCKurve) Bewertet Entschedungsfunkton, Fläche unter ROCKurve = P(postves Bespel hat höheren fwert als negatves Bespel) 9 ROCAnalse Entschedungsfunkton Schwellwert = Klassfkator. Großer Schwellwert: Mehr postve Bsp falsch. Klener Schwellwert: Mehr negatve Bsp falsch. Bewertung der Entschedungsfunkton unabhängg vom konkreten Schwellwert. ReceverOperatngCharacterstcAnalse Kommt aus der Radartechnk, m 2. Weltkreg entwckelt. Bewertung der Qualtät von Entschedungsfunktonen. 0 5

6 ROCKurven Charakterseren das Verhalten des Klassfkators für alle möglchen Schwellwerte. XAchse: False Postves : Anzahl negatver Bespele, de als postv klassfzert werden. YAchse: True Postves : Anzahl postver Bespele, de als postv klassfzert werden. True Postves perfekte Funkton bessere Funkton zufällges Raten False Postves Bestmmen der ROCKurve von f Für alle postven Bespele xp n Testmenge Füge f(xp) n sorterte Lste Lp en. Für alle negatven Bespele xn n Testmenge Füge f(xn) n sorterte Lste Ln en. tp = fp = 0 Wederhole solange Lp und Ln ncht leer snd. Wenn Lp Element Ln Element dann ncrement(tp) und Lp = LP Next. Wenn Ln Element Lp Element dann ncrement(fp) und Ln = Ln Next. Zechne neuen Punkt (fp, tp) 2 6

7 Flächennhalt der ROCKurve Flächennhalt AUC kann durch Integreren (Summeren der TrapezFlächennhalte) bestmmt werden. p = zufällg gezogenes Postvbespel n = zufällg gezogenes Negatvbespel Theorem: AUC = P(f(p) > f(n)). Bewesdee: ROCKurve mt nur enem Postv und enem Negatvbespel (Flächennhalt 0 oder ); Durchschntt veler solcher Kurven = AUC. 3 Varanz des AUCWertes Testdaten n n Tele telen (oder nfold Cross Valdaton durchführen). n ROCKurven bestmmen, AUC ermtteln. Durchschntt und Varanz der n Werte berechnen. Alternatve Methode: nur ene ROCKurve bestmmen, deren AUCWert ermtteln, 2 2 AUC( AUC) (# pos )( Q AUC ) (# neg )( Q2 AUC ) σ = # pos# neg Q = AUC /(2 AUC) 2 Q2 = 2AUC /( AUC) 4 7

8 Precson / Recall Alternatve zur ROCAnalse. Stammt aus dem Informaton Retreval. True postves Precson= True false postves True postves Recall= True postve false negatves Precson: P(rchtg als postv erkannt) Recall: P(als postv erkannt st postv) 5 Precson / Recall Zusammenfassungen der Kurve n ener Zahl: FMeasure: Maxmum über alls (p,r)paare auf der Kurve: 2 Precson Recall Fmeasure= Precson Recall PrecsonRecallBreakevenPont: Derenge Wert PRBEP für den glt: Precson(θ) = Recall(θ) = PRBEP. 6 8

9 Precson / Recall TradeOff recall precson Precson/RecallKurven Welcher Klassfkator st der Beste / Schlechteste 7 Bestmmen der PerformanceMaße Performance auf Tranngsmenge extrem optmstscher Schätzer für Performance für unbekannte Texte. Zum Schätzen der Performance werden Texte verwendet, de ncht zum Traneren verwendet wurden. TranngundTest: Verwende 80% der Daten zum Traneren, 20% der Daten zum Messen der ROC Kurve, PRKurve, oder Fehlklassfkatonswahrsch. NFoldCrossValdaton: Tele Daten n n Tele, wederholtes Traneren mt n Telen. 8 9

10 Fehlerschätzung Algorthmus TranngandTest Auftelen der Datenbank n Tranngsmenge und Testmenge. h = Lernalgorthmus (Tranngsmenge) Bestmme Ê anhand der Testmenge. h = Lernalgorthmus (alle Bespele) Lefere Hpothese h zusammen mt Fehlerschätzer Ê( Ê) Ê ± zδ 2 20% m TranngandTest st für große Datenbanken gut anwendbar. Problematsch für klene Datenbanken 9 NFold CrossValdaton Algorthmus NCV (Bespele S) Blde n etwa glech große Blöcke S,..., Sn von Bespelen, de zusammen S ergeben. Ê=0. For =... N h = Lernalgorthmus (S \ S) Ê = Ê emprscher Fehler von h auf S Ê = Ê/N h = Lernalgorthmus (S) Lefere Hpothese h mt Fehlerschätzer Ê( Ê) Ê ± z δ 2 m Wenn S = n, hesst das Verfahren LeaveoneOut. Nur lecht pessmstscher Schätzer. 20 0

11 KNearestNeghbourAlgorthmus (knn) Ähnlchketsbaserte Klassfkaton enes Textes x: Fnde de k ähnlchsten Tranngsbespele, Mehrhetsentschedung unter desen Bespelen. Problem: Tranngsmenge wrd komplett abgespechert, Für Klassfkaton muss über komplette Tranngsmenge terert werden. Bessere Ergebnsse werden mt lnearen Klassfkatoren erzelt. 2 KNearestNeghborAlgorthmus Lernphase: Füge Bespele (x, )) zur Menge der Bespele S hnzu. Anwendung: Klassfkaton von neuer Instanz x Bestmme de k nächsten Nachbarn x,..., x k zu x. Verwende CosnusÄhnlchket Mehrhetsentschedung unter den Nachbarn: f x) = arg max {( x, ) {( x, ),...,( x, )}: = } ( k k 22

12 NaveBaesKlassfkator Um de Fehlklassfkatonswahrschenlchket gegeben x zu mnmeren, gb für ede Instanz x de wahrschenlchste Klasse zurück. (Instanzen x snd Merkmalsvektoren (x,..., x n )=(v,..., v n )). Unabhänggketsannahme für Attrbute. max = max = max max P( x = ( v,..., v P( x = ( v,..., v P( x P( x n n )) = v )... P( x = v )... P( x ) ) P( ) n n = v n = v n x = v,..., x ) P( ) n = v n, ) P( ) 23 Nave Baes Leder snd de Wahrschenlchketen P() und P(x ) unbekannt. Klassfkaton st nur dann optmal, wenn Attrbute unabhängg snd und Wahrschenlchketen bekannt snd. Wr können se mmerhn schätzen, z.b. # Bespele Klasse mt x = v Px ( = v ) = # Bespele Klasse # Bespele Klasse P ( ) = #Bespele 24 2

13 Nave Baes Problem: Be langem Text werden mehr Wahrschenlchketen aufmultplzert als be Kurzem. Folge: Für lange Texte tendert Wahrschenlchket für ene der Klassen gegen 0, für Komplementärklasse gegen. Entschedungsfunktonswerte unterschedlch langer Texte können nur schlecht verglchen werden. Unabhänggketsannahme sehr problematsch. 25 Lneare Klassfkatoren Postve und negatve Bespele ener Klasse ergeben ewels ene Punktwolke m Merkmalsraum. Gesucht: Trennebene, de de Punktwolken separert. b/ w w f ( x) = wx b Punkte auf der Geraden: f(x)=0 h ( x) = sgn( f ( x)) 26 3

14 Roccho X 0 : Mttelpunkt der neg. Bespele X : Mttelpunkt der pos. Bespele Trennebene: Normalenvektor = (x x 0 ) f ( x) = d( x, x) d( x, x) = ( x x ) x b 0 h( x) = sgn( f ( x)) 0 x Achsenabstand: (x x 0 )/2 muss auf der Ebene legen. w x 0 27 Roccho Trennebenen hat maxmalen Abstand von den Mttelpunkten der Klassen. Tranngsbespele können falsch klassfzert werden. Perzeptron: Trennt de Bespele der Klassen SVM: Trennebene mt maxmalem Abstand zwschen Ebene und Bespelen 28 4

15 PerzeptronAlgorthmus PerzeptronKlassfkaton f ( x) = wx b h( x) = sgn( f ( x)) PerzeptronTranngsalgorthmus: Solange noch Bespele (x, ) mt der Hpothese nkonsstent snd, terere über alle Bespele Wenn ( wx b) 0 dann w w x b b Bespel: ORFunkton Beobachtung: w st Lnearkombnaton der Bespele w = α x =... n 29 Duale Repräsentaton = = Normalenvektor w = α x =... n Entschedungsfunkton n f ( x) = wx b = α x x b = n α ( x x) b { Kernel De Bespele treten nur paarwese als nneres Produkt auf. UpdateRegel: Bespel ( x, ) Wenn 0 dann α x x b α α =... n b b α > 0, wenn Bespel ( x, ) am Rand der Ebene legt ( SupportVektor ) 30 5

16 KernelFunktonen Manche Probleme snd durch lneare Funktonen unlösbar (z.b. XOR). Lösbar nach Umrepräsentaton der Instanzen n höherdmensonalen Merkmalsraum. Φ((0,0)) (0,0,0) Φ ((0,)) = (0,,) Φ((,0)) (,0,) Φ((,)) (,, 4) Bespele müssen ncht explzt repräsentert werden, nur nneres Produkt st wchtg. 2 ( ) Φ (( x, x )) = x, x,( x x ) =Φ Φ = Kernel Funkton K( x, ) ( x) ( ) x x ( x x ) ( ) KernelMaschnen Entschedungsfunkton n f ( x) = wx b= α K( x, x) b = UpdateRegel: Wenn (, ) α K x x b 0 dann α α =... n b b Üblch snd z.b. polnomelle Kernels Φ ( x) =Φ (( x, x )) = x = ( x, x, 2 x x ) K( x, ) =Φ( x) Φ( ) = ( x, x2, 2 xx2)(, 2, 2 2) 2 = ( x) 32 6

17 Kernels: Varanten Polnomelle Kernels K (, ) ( ) d pol x = x 2 Radale Bassfunkton K ( x, ) = exp( γ ( x ) ) Sgmode Kernels, StrngKernels (z.b. zum Klassfzeren von Gensequenzen). rbf 33 KernelFunktonen Polnomeller Kernel 34 7

18 LargeMargnKlassfkatoren Perzeptrons trennen postve von negatven Bespelen (wenn möglch), z.b. so: Besser: Trennebene mt maxmalem Abstand zwschen Ebene und Bespelen. δ 35 SupportVektorMaschnen w b Für alle Punkte: x δ w w Mt möglchst großem δ Äquvalent: ( wx b) Mt mnmalem w. Duale Repräsentaton: Ebene st Lösung des folgenden Optmerungsproblems: Mnmere α αα K( x, x ) 2, Quadratsches Optmerungsproblem; Funkton st konvex (genau en Optmum), lösbar n n 2. α > 0, wenn (x, ) mnmalen Abstand zur Ebene hat ( SupportVektoren ). δ 36 8

19 SupportVektorMaschnen Aufwand bem Lernen: quadratsch n Anzahl der Bespele. Aufwand bem Anwenden ener SVM: Lnear n Anzahl der SupportVektoren. Anwendungsgebete: Handschrfterkennung, Bldverarbetung, Textklassfkaton, Klassfkaton von DNSSequenzen. 37 9

Textklassifikation und Informationsextraktion

Textklassifikation und Informationsextraktion Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen etklassfkaton und Informatonsetrakton obas Scheffer Peter Hader Paul Prasse Scheffer/Hader/Prasse: Scheffer/Saade: Sprachtechnologe

Mehr

Textklassifikation und Informationsextraktion

Textklassifikation und Informationsextraktion Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen etklassfkaton und Informatonsetrakton obas Scheffer Paul Prasse Mchael Großhans Ue Dck etklassfkaton, Informatonsetrakton etklassfkaton,

Mehr

Information Retrieval: Grundlagen & Modellierung

Information Retrieval: Grundlagen & Modellierung HUMBOLDT-UNIVERSITÄT ZU BERLIN Insttut für Informatk Lehrstuhl Wssensmanagement Informaton Retreval: Grundlagen & Modellerung Tobas Scheffer Ulf Brefeld Informaton Retreval Repräsentaton, Specherung, Zugrff

Mehr

Kapitel 8: Kernel-Methoden. Maschinelles Lernen und Neural Computation

Kapitel 8: Kernel-Methoden. Maschinelles Lernen und Neural Computation Kaptel 8: Kernel-Methoden SS 009 Maschnelles Lernen und Neural Computaton 50 Ausgangsbass: Perceptron Learnng Rule Δw y = Kf = 0Ksonst K"target" = Kf Rosenblatt (96) Input wrd dazugezählt (abgezogen),

Mehr

Textklassifikation, Informationsextraktion

Textklassifikation, Informationsextraktion Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Textklassifikation, Informationsextraktion Tobias Scheffer Thomas Vanck Textklassifikation, Informationsextraktion 2 Textklassifikation,

Mehr

Kapitel 7: Ensemble Methoden. Maschinelles Lernen und Neural Computation

Kapitel 7: Ensemble Methoden. Maschinelles Lernen und Neural Computation Kaptel 7: Ensemble Methoden 133 Komtees Mehrere Netze haben bessere Performanz als enzelne Enfachstes Bespel: Komtee von Netzen aus der n-fachen Kreuzvalderung (verrngert Varanz) De Computatonal Learnng

Mehr

Resultate / "states of nature" / mögliche Zustände / möglicheentwicklungen

Resultate / states of nature / mögliche Zustände / möglicheentwicklungen Pay-off-Matrzen und Entschedung unter Rsko Es stehen verschedene Alternatven (Strategen) zur Wahl. Jede Stratege führt zu bestmmten Resultaten (outcomes). Man schätzt dese Resultate für jede Stratege und

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Graphsche Modelle els Landwehr Zusammenfassung Pfade Zusammenfassung: en Pfad --Y-Z- st B A E Blockert be Y, wenn Dvergerende Verbndung,

Mehr

Diskrete Logarithmen. Teil II

Diskrete Logarithmen. Teil II Dskrete Logarthmen Ron-Gerrt Vahle Hendrk Radke Unverstät Potsdam Insttut für Informatk Semnar Kryptographe SS2005 Tel II Glederung Pohlg-Hellman Index-Calculus Theoretsche Grenzen Endlche Körper Eplog

Mehr

Bayessches Lernen (3)

Bayessches Lernen (3) Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Bayessches Lernen (3) Chrstoph Sawade/Nels Landwehr Jules Rasetaharson Tobas Scheffer Überblck Wahrschenlchketen, Erwartungswerte, Varanz

Mehr

Stützvektormethode (SVM) Erinnerung: Funktionslernen. Beispiel: Funktionenlernen. Reale Beispiele

Stützvektormethode (SVM) Erinnerung: Funktionslernen. Beispiel: Funktionenlernen. Reale Beispiele technsche unverstät Fakultät für Inforatk technsche unverstät Fakultät für Inforatk Stützvektorethode (SVM) Maxeren der Brete ener separerenden Hyperebene axu argn ethod Transforaton des Datenraus durch

Mehr

Beispiel: Textklassifikation

Beispiel: Textklassifikation Bespel: Textklassfkaton To: ruepng@ls8.cs.undortmund.de Subject: Astonshng Guaranteed XXX Pctures FREE! Gao In the next mnutes you are gong to learn how to get access to totally FREE xxx pctures. Let me

Mehr

18. Dynamisches Programmieren

18. Dynamisches Programmieren 8. Dynamsches Programmeren Dynamsche Programmerung we gerge Algorthmen ene Algorthmenmethode, um Optmerungsprobleme zu lösen. We Dvde&Conquer berechnet Dynamsche Programmerung Lösung enes Problems aus

Mehr

5. Gruppenübung zur Vorlesung. Höhere Mathematik 1. Wintersemester 2012/2013

5. Gruppenübung zur Vorlesung. Höhere Mathematik 1. Wintersemester 2012/2013 O. Alaya, S. Demrel M. Fetzer, B. Krnn M. Wed 5. Gruppenübung zur Vorlesung Höhere Mathematk Wntersemester /3 Dr. M. Künzer Prof. Dr. M. Stroppel Lösungshnwese zu den Hausaufgaben: Aufgabe H 6. Darstellungen

Mehr

Kapitel 2: Klassifikation. Maschinelles Lernen und Neural Computation

Kapitel 2: Klassifikation. Maschinelles Lernen und Neural Computation Kaptel 2: Klassfkaton Maschnelles Lernen und Neural Computaton 28 En enfacher Fall En Feature, Hstogramme für bede Klassen (z.b. Glukosewert, Dabetes a/nen) Kene perfekte Trennung möglch Entschedung: Schwellwert

Mehr

Sequential minimal optimization: A fast Algorithm for Training Support Vector machines

Sequential minimal optimization: A fast Algorithm for Training Support Vector machines Sequental mnmal optmzaton: A fast Algorthm for Tranng Support Vector machnes By John C. Platt (998) Referat von Joerg Ntschke Fall der ncht-trennbaren Tranngs-Daten (/) In der Realtät kommen lnear ncht-trennbare

Mehr

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Lösungen. Übungsklausur Wahrscheinlichkeit und Regression Die Lösungen

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Lösungen. Übungsklausur Wahrscheinlichkeit und Regression Die Lösungen Übungsklausur Wahrschenlchket und Regresson De Lösungen. Welche der folgenden Aussagen treffen auf en Zufallsexperment zu? a) En Zufallsexperment st en emprsches Phänomen, das n stochastschen Modellen

Mehr

Modelle, Version Spaces, Lernen

Modelle, Version Spaces, Lernen Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Maschnelles Lernen Modelle, Verson Spaces, Lernen Chrstoph Sawade/Nels Landwehr Domnk Lahmann Tobas Scheffer Überblck Problemstellungen:

Mehr

Fallstudie 1 Diskrete Verteilungen Abgabe: Aufgabentext und Lösungen schriftlich bis zum

Fallstudie 1 Diskrete Verteilungen Abgabe: Aufgabentext und Lösungen schriftlich bis zum Abgabe: Aufgabentext und Lösungen schrftlch bs zum 15. 6. 2012 I. Thema: Zehen mt und ohne Zurücklegen Lesen Se sch zunächst folgenden Text durch! Wr haben bsher Stchprobenzehungen aus Grundgesamtheten

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statstk und Wahrschenlchketsrechnung Statstk und Wahrschenlchketsrechnung 5. Vorlesung Dr. Jochen Köhler.03.0 Statstk und Wahrschenlchketsrechnung Wchtg!!! Vorlesung Do 4.03.0 HCI G3 Übung 5 D 9.03.0 Fnk

Mehr

Kurs Mikroökonometrie Rudolf Winter-Ebmer Thema 3: Binary Choice Models Probit & Logit. Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit

Kurs Mikroökonometrie Rudolf Winter-Ebmer Thema 3: Binary Choice Models Probit & Logit. Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit BINARY CHOICE MODELS 1 mt Pr( Y = 1) = P Y = 0 mt Pr( Y = 0) = 1 P Bespele: Wahlentschedung Kauf langlebger Konsumgüter Arbetslosgket Schätzung mt OLS? Y = X β + ε Probleme: Nonsense Predctons ( < 0, >

Mehr

Konkave und Konvexe Funktionen

Konkave und Konvexe Funktionen Konkave und Konvexe Funktonen Auch wenn es n der Wrtschaftstheore mest ncht möglch st, de Form enes funktonalen Zusammenhangs explzt anzugeben, so kann man doch n velen Stuatonen de Klasse der n Frage

Mehr

Lineare Regression. Stefan Keppeler. 16. Januar Mathematik I für Biologen, Geowissenschaftler und Geoökologen

Lineare Regression. Stefan Keppeler. 16. Januar Mathematik I für Biologen, Geowissenschaftler und Geoökologen Mathematk I für Bologen, Geowssenschaftler und Geoökologen 16. Januar 2012 Problemstellung Bespel Maß für Abwechung Trck Mnmum? Exponentalfunktonen Potenzfunktonen Bespel Problemstellung: Gegeben seen

Mehr

Beim Wiegen von 50 Reispaketen ergaben sich folgende Gewichte X(in Gramm):

Beim Wiegen von 50 Reispaketen ergaben sich folgende Gewichte X(in Gramm): Aufgabe 1 (4 + 2 + 3 Punkte) Bem Wegen von 0 Respaketen ergaben sch folgende Gewchte X(n Gramm): 1 2 3 4 K = (x u, x o ] (98,99] (99, 1000] (1000,100] (100,1020] n 1 20 10 a) Erstellen Se das Hstogramm.

Mehr

binäre Suchbäume Informatik I 6. Kapitel binäre Suchbäume binäre Suchbäume Rainer Schrader 4. Juni 2008 O(n) im worst-case Wir haben bisher behandelt:

binäre Suchbäume Informatik I 6. Kapitel binäre Suchbäume binäre Suchbäume Rainer Schrader 4. Juni 2008 O(n) im worst-case Wir haben bisher behandelt: Informatk I 6. Kaptel Raner Schrader Zentrum für Angewandte Informatk Köln 4. Jun 008 Wr haben bsher behandelt: Suchen n Lsten (lnear und verkettet) Suchen mttels Hashfunktonen jewels unter der Annahme,

Mehr

6.5. Rückgewinnung des Zeitvorgangs: Rolle der Pole und Nullstellen

6.5. Rückgewinnung des Zeitvorgangs: Rolle der Pole und Nullstellen 196 6.5. Rückgewnnung des Zetvorgangs: Rolle der Pole und Nullstellen We n 6.2. und 6.. gezegt wurde, st de Übertragungsfunkton G( enes lnearen zetnvaranten Systems mt n unabhänggen Spechern ene gebrochen

Mehr

1.11 Beispielaufgaben

1.11 Beispielaufgaben . Bespelaufgaben Darstellung komplexer Zahlen Aufgabe. Man stelle de komplexe Zahl z = +e 5f n algebrascher Form, also als x + y dar. Damt man de Formel für de Dvson anwenden kann, muss zunächst der Nenner

Mehr

HUMBOLDT-UNIVERSITÄT ZU BERLIN. Institut für Informatik Lehrstuhl Wissensmanagement. Cluster-Analyse. Tobias Scheffer Ulf Brefeld

HUMBOLDT-UNIVERSITÄT ZU BERLIN. Institut für Informatik Lehrstuhl Wissensmanagement. Cluster-Analyse. Tobias Scheffer Ulf Brefeld HUMBOLDT-UNIVRSITÄT ZU BRLIN Insttut für Inforatk Lehrstuhl Wssensanageent Cluster-Analyse Tobas Scheffer Ulf Brefeld Cluster-Analyse ntdecken von Gruppen enander ähnlcher Tete, enander ähnlcher Wörter.

Mehr

Die Annäherung der Binomialverteilung durch die Normalverteilung am Beispiel eines Modells der Schadenversicherung

Die Annäherung der Binomialverteilung durch die Normalverteilung am Beispiel eines Modells der Schadenversicherung am Bespel enes Modells der chadenverscherung Für das Modell ener chadenverscherung se gegeben: s w s. n 4 chaden enes Verscherungsnehmers, wenn der chadenfall entrtt Wahrschenlchket dafür, dass der chadenfall

Mehr

6. Übung zur Linearen Algebra II

6. Übung zur Linearen Algebra II Unverstät Würzburg Mathematsches Insttut Prof. Dr. Peter Müller Dr. Peter Fleschmann SS 2006 30.05.2006 6. Übung zur Lnearen Algebra II Abgabe: Bs Mttwoch, 14.06.2006, 11:00 Uhr n de Brefkästen vor der

Mehr

Modelle, Version Spaces, Lernen

Modelle, Version Spaces, Lernen Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Maschnelles Lernen Modelle, Verson Spaces, Lernen Chrstoph Sawade/Nels Landwehr Slva Makowsk Tobas Scheffer Überblck Problemstellungen:

Mehr

Prof. Dr. P. Kischka WS 2012/13 Lehrstuhl für Wirtschafts- und Sozialstatistik. Klausur Statistische Inferenz

Prof. Dr. P. Kischka WS 2012/13 Lehrstuhl für Wirtschafts- und Sozialstatistik. Klausur Statistische Inferenz Prof. Dr. P. Kschka WS 2012/13 Lehrstuhl für Wrtschafts- und Sozalstatstk Klausur Statstsche Inferenz 15.02.2013 Name: Matrkelnummer: Studengang: Aufgabe 1 2 3 4 5 6 7 8 Summe Punkte 6 5 5 5 5 4 4 6 40

Mehr

14 Schätzmethoden. Eigenschaften von Schätzungen ˆθ. Sei ˆθ n eine Schätzung eines Parameters θ, die auf n Beobachtungen beruht.

14 Schätzmethoden. Eigenschaften von Schätzungen ˆθ. Sei ˆθ n eine Schätzung eines Parameters θ, die auf n Beobachtungen beruht. 14 Schätzmethoden Egenschaften von Schätzungen ˆθ Se ˆθ n ene Schätzung enes Parameters θ, de auf n Beobachtungen beruht. ˆθn n θ Konsstenz (Mnmalforderung) Eˆθ n = θ Erwartungstreue Eˆθ n n θ Asymptotsche

Mehr

Grundgedanke der Regressionsanalyse

Grundgedanke der Regressionsanalyse Grundgedanke der Regressonsanalse Bsher wurden durch Koeffzenten de Stärke von Zusammenhängen beschreben Mt der Regressonsrechnung können für ntervallskalerte Varablen darüber hnaus Modelle geschätzt werden

Mehr

Sortieren. Thomas Röfer. Permutationen Naives Sortieren Sortieren durch Einfügen, Auswählen, Vertauschen, Mischen QuickSort Comparator

Sortieren. Thomas Röfer. Permutationen Naives Sortieren Sortieren durch Einfügen, Auswählen, Vertauschen, Mischen QuickSort Comparator Unverstät Bremen Sorteren Thomas Röfer Permutatonen Naves Sorteren Sorteren durch Enfügen, Auswählen, Vertauschen, Mschen QuckSort Comparator Unverstät Bremen Rückblck Suchen Identtät/Flache/Tefe Glechhet

Mehr

Bedingte Entropie. Bedingte Entropie. Bedingte Entropie. Kapitel 4: Bedingte Entropie I(X;Y) H(X Y) H(Y) H(X) H(XY)

Bedingte Entropie. Bedingte Entropie. Bedingte Entropie. Kapitel 4: Bedingte Entropie I(X;Y) H(X Y) H(Y) H(X) H(XY) Bedngte Entrope Kaptel : Bedngte Entrope Das vorherge Theorem kann durch mehrfache Anwendung drekt verallgemenert werden H (... H ( = Ebenso kann de bedngt Entrope defnert werden Defnton: De bedngte Entrope

Mehr

Modelle, Version Spaces, Lernen

Modelle, Version Spaces, Lernen Unverstät Potsdam Insttut ür Inormatk Lehrstuhl Maschnelles Lernen Maschnelles Lernen Modelle Verson Spaces Lernen Tobas Scheer Mchael Brückner Klasskaton Engabe: Instanz Objekt X. Können durch Attrbut-Vektoren

Mehr

1.Schularbeit 22.Okt A. A) Berechne ohne TI-92: Beachte: Für die Beispiele 1 und 2 sind alle notwendigen Rechenschritte anzugeben.

1.Schularbeit 22.Okt A. A) Berechne ohne TI-92: Beachte: Für die Beispiele 1 und 2 sind alle notwendigen Rechenschritte anzugeben. 1.Schularbet.Okt. 1997 7.A A) Berechne ohne TI-9: Beachte: Für de Bespele 1 und snd alle notwendgen Rechenschrtte anzugeben. 1a) De zu z= a + bkonjugert komplexe Zahl st z= a b. Zege für z 1 = -4 + 3 und

Mehr

Definition des linearen Korrelationskoeffizienten

Definition des linearen Korrelationskoeffizienten Defnton des lnearen Korrelatonskoeffzenten r xy x y y r x xy y 1 x x y y x Der Korrelatonskoeffzent st en Indkator dafür, we gut de Punkte (X,Y) zu ener Geraden passen. Sen Wert legt zwschen -1 und +1.

Mehr

Streuungs-, Schiefe und Wölbungsmaße

Streuungs-, Schiefe und Wölbungsmaße aptel IV Streuungs-, Schefe und Wölbungsmaße B... Lagemaße von äufgketsvertelungen geben allen weng Auskunft über ene äufgketsvertelung. Se beschreben zwar en Zentrum deser Vertelung, geben aber kenen

Mehr

-70- Anhang: -Lineare Regression-

-70- Anhang: -Lineare Regression- -70- Anhang: -Lneare Regressn- Für ene Messgröße y f(x) gelte flgender mathematsche Zusammenhang: y a+ b x () In der Regel läßt sch durch enen Satz vn Messwerten (x, y ) aber kene Gerade zechnen, da de

Mehr

5 Gemischte Verallgemeinerte Lineare Modelle

5 Gemischte Verallgemeinerte Lineare Modelle 5 Gemschte Verallgemenerte Lneare Modelle Wr betrachten zunächst enge allgemene Aussagen für Gemschte Verallgemenerte Lneare Modelle. Se y der beobachtbare Zufallsvektor und u der Vektor der ncht-beobachtbaren

Mehr

Regressionsgerade. x x 1 x 2 x 3... x n y y 1 y 2 y 3... y n

Regressionsgerade. x x 1 x 2 x 3... x n y y 1 y 2 y 3... y n Regressonsgerade x x x x 3... x n y y y y 3... y n Bem Auswerten von Messrehen wrd häufg ene durch theoretsche Überlegungen nahegelegte lneare Bezehung zwschen den x- und y- Werten gesucht, d.h. ene Gerade

Mehr

Dynamisches Programmieren

Dynamisches Programmieren Marco Thomas - IOI 99 -. Treffen n Bonn - Dynamsches Programmeren - Unverstät Potsdam - 8.02.999 Dynamsches Programmeren 957 R. Bellmann: Dynamc Programmng für math. Optmerungsprobleme Methode für Probleme,.

Mehr

12 UMPU Tests ( UMP unbiased )

12 UMPU Tests ( UMP unbiased ) 89 1 UMPU Tests ( UMP unbased ) Nach Bemerkung 11.8(b) exstert m Allgemenen ken zwesetger UMP- Test zu enem Nveau α. Deshalb Enschränkung auf unverfälschte Tests: ϕ Φ α heßt unverfälscht (unbased) zum

Mehr

Die Leistung von Quicksort

Die Leistung von Quicksort De Lestung von Qucsort Jae Hee Lee Zusammenfassung Der Sorteralgorthmus Qucsort st als ens der effzenten Sorterverfahren beannt. In deser Ausarbetung werden wr sene Komplextät zuerst möglchst präzse schätzen

Mehr

Funktionsgleichungen folgende Funktionsgleichungen aus der Vorlesung erhält. = e

Funktionsgleichungen folgende Funktionsgleichungen aus der Vorlesung erhält. = e Andere Darstellungsformen für de Ausfall- bzw. Überlebens-Wahrschenlchket der Webull-Vertelung snd we folgt: Ausfallwahrschenlchket: F ( t ) Überlebenswahrschenlchket: ( t ) = R = e e t t Dabe haben de

Mehr

Itemanalyse und Itemkennwerte. Itemanalyse und Itemkennwerte. Itemanalyse und Itemkennwerte: Itemschwierigkeit P i

Itemanalyse und Itemkennwerte. Itemanalyse und Itemkennwerte. Itemanalyse und Itemkennwerte: Itemschwierigkeit P i Itemanalyse und Itemkennwerte De Methoden der Analyse der Itemegenschaften st ncht m engeren Snne Bestandtel der Klassschen Testtheore Im Rahmen ener auf der KTT baserenden Testkonstrukton und -revson

Mehr

Inhalt: Mustererkennungsexperiment. Die Support-Vektor-Maschine (SVM)

Inhalt: Mustererkennungsexperiment. Die Support-Vektor-Maschine (SVM) Inhalt: Kaptel 0 De SupportVektorMaschne (SVM) En statstscher Ansatz der Lerntheore zum Entwurf enes optmalen Klassfkators. Problemstellung. VCDmenson und Gesamtfehlermnmerung 3. Lneare SVM Separerbare

Mehr

Vorlesung 3 Differentialgeometrie in der Physik 13

Vorlesung 3 Differentialgeometrie in der Physik 13 Vorlesung 3 Dfferentalgeometre n der Physk 13 Bemerkung. Ist M Manngfaltgket, p M und φ : U R n Karte mt p U, so nennt man U auch Koordnatenumgebung und φ auch Koordnatensystem n p. Bespel 2.4 Seen R >

Mehr

Rotation (2. Versuch)

Rotation (2. Versuch) Rotaton 2. Versuch Bekannt snd berets Vektorfelder be denen das Lnenntegral über ene geschlossene Kurve Null wrd Stchworte: konservatve Kraft Potentalfelder Gradentenfeld. Es gbt auch Vektorfelder be denen

Mehr

Rückblick Regression II: Anpassung an Polynome

Rückblick Regression II: Anpassung an Polynome Rückblck Regresson II: Anpassung an Polynome T. Keßlng: Auswertung von Messungen und Fehlerrechnung - Fehlerrechnung und Korrelaton 0.06.08 Vorlesung 0- Temperaturmessung mt Thermospannung Wr erhalten

Mehr

Informatik II. Minimalpolynome und Implikanten. Minimalpolynome. Minimalpolynome. Rainer Schrader. 27. Oktober Was bisher geschah: Definition

Informatik II. Minimalpolynome und Implikanten. Minimalpolynome. Minimalpolynome. Rainer Schrader. 27. Oktober Was bisher geschah: Definition Informatk II Raner Schrader und Implkanten Zentrum für Angewandte Informatk Köln 27. Oktober 2005 1 / 28 2 / 28 Was bsher geschah: jede Boolesche Funkton kann durch enfache Grundfunktonen dargestellt werden

Mehr

Übung zur Vorlesung - Theorien Psychometrischer Tests II

Übung zur Vorlesung - Theorien Psychometrischer Tests II Übung zur Vorlesung - Theoren Psychometrscher Tests II N. Rose 9. Übung (15.01.2009) Agenda Agenda 3-parametrsches logstsches Modell nach Brnbaum Lnkfunktonen 3PL-Modell nach Brnbaum Modellglechung ( =

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Methodenlehre e e Prof. Dr. G. Menhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzet nach Verenbarung und nach der Vorlesung. Mathematsche und statstsche Methoden II Dr. Malte Perske perske@un-manz.de

Mehr

Numerische Methoden II

Numerische Methoden II umersche Methoden II Tm Hoffmann 23. Januar 27 umersche Bespele umersche Methoden zur Approxmaton von Dervatpresen: - Trnomsche Gttermethode - Implzte Fnte Dfferenzen - Explzte Fnte Dfferenzen - Crank-colson

Mehr

Lineare Optimierung Einführung

Lineare Optimierung Einführung Kaptel Lneare Optmerung Enführung B... (Dre klasssche Anwendungen) Im Folgenden führen wr de ersten dre klassschen (zvlen) Anwendungen der lnearen Optmerung an: BS... (Produktonsplanoptmerung) En Betreb

Mehr

Gesichtsfindung mit der Support Vektor Maschine

Gesichtsfindung mit der Support Vektor Maschine Praktkumsbercht Geschtsfndung mt der Support Vektor Maschne André Betz Geschtsfndung mt der Support Vektor Maschne Praktkumsbercht von André Betz Matr.-Nr.: 55359 Betreuer: Bernhard Fröba Praktkumsbercht

Mehr

Daten sind in Tabellenform gegeben durch die Eingabe von FORMELN können mit diesen Daten automatisierte Berechnungen durchgeführt werden.

Daten sind in Tabellenform gegeben durch die Eingabe von FORMELN können mit diesen Daten automatisierte Berechnungen durchgeführt werden. Ene kurze Enführung n EXCEL Daten snd n Tabellenform gegeben durch de Engabe von FORMELN können mt desen Daten automatserte Berechnungen durchgeführt werden. Menüleste Symbolleste Bearbetungszele aktve

Mehr

Die Kosten mitzählen. Die Kosten mitzählen. Verschiedene Typen von Klassifikationsfehlern haben oft auch verschiedene Kosten Beispiel:

Die Kosten mitzählen. Die Kosten mitzählen. Verschiedene Typen von Klassifikationsfehlern haben oft auch verschiedene Kosten Beispiel: Glederung Motvaton für Evaluaton chätzen des Klassfkatonsfehlers Traneren, Valderen und Testen Fehler engrenzen, Vertrauensntervalle Auftelung n Tranngs- und Testmenge Wederholtes Auftelen Kreuz-Valderung

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Graphsche Modelle els Landwehr Überblck Graphsche Modelle: Syntax und Semantk Graphsche Modelle m Maschnellen Lernen Inferenz n Graphschen

Mehr

Standardnormalverteilung / z-transformation

Standardnormalverteilung / z-transformation Standardnormalvertelung / -Transformaton Unter den unendlch velen Normalvertelungen gbt es ene Normalvertelung, de sch dadurch ausgeechnet st, dass se enen Erwartungswert von µ 0 und ene Streuung von σ

Mehr

Arbeitsgruppe Radiochemie Radiochemisches Praktikum P 06. Einführung in die Statistik. 1. Zählung von radioaktiven Zerfällen und Statistik 2

Arbeitsgruppe Radiochemie Radiochemisches Praktikum P 06. Einführung in die Statistik. 1. Zählung von radioaktiven Zerfällen und Statistik 2 ETH Arbetsgruppe Radocheme Radochemsches Praktkum P 06 Enführung n de Statstk INHALTSVERZEICHNIS Sete 1. Zählung von radoaktven Zerfällen und Statstk 2 2. Mttelwert und Varanz 2 3. Momente ener Vertelung

Mehr

konvergiert punktweise, wenn es l : U C C gibt derart, dass konvergiert gleichmäßig, wenn es l : U C C gibt derart, dass

konvergiert punktweise, wenn es l : U C C gibt derart, dass konvergiert gleichmäßig, wenn es l : U C C gibt derart, dass Funktonentheore, Woche 4 Konvergenz und Folgen 4. Glechmäßge Konvergenz Ene Zahlenfolge {α n } n N C konvergert, wenn es en l C gbt derart, dass ε > 0 N ε N : n > N ε = α n l < ε. Auch zu Folgen von Funktonen

Mehr

Sind die nachfolgenden Aussagen richtig oder falsch? (1 Punkt pro korrekter Beantwortung)

Sind die nachfolgenden Aussagen richtig oder falsch? (1 Punkt pro korrekter Beantwortung) LÖSUNG KLAUSUR STATISTIK I Berufsbegletender Studengang Betrebswrtschaftslehre Sommersemester 016 Aufgabentel I: Theore (10 Punkte) Snd de nachfolgenden Aussagen rchtg oder falsch? (1 Punkt pro korrekter

Mehr

Beschreibende Statistik Mittelwert

Beschreibende Statistik Mittelwert Beschrebende Statstk Mttelwert Unter dem arthmetschen Mttel (Mttelwert) x von n Zahlen verstehen wr: x = n = x = n (x +x +...+x n ) Desen Mttelwert untersuchen wr etwas genauer.. Zege für n = 3: (x x )

Mehr

Lösungen der Aufgaben zu Kapitel 2

Lösungen der Aufgaben zu Kapitel 2 Lösungen der Aufgaben zu Kaptel Abschntt 1 Aufgabe 1 Wr benutzen de Potenzrechenregeln, um ene Potenz von mt geradem Eponenten n oder mt ungeradem Eponenten n + 1 we folgt darzustellen: n n und n+1 n n

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Zusammenfassung: Lernprobleme, Bayes sches Lernen, Evaluerung Chrstoph Sawade/Nels Landwehr/Paul Prasse Slva Makowsk obas Scheffer Überblck

Mehr

Stützvektormethode (SVM)

Stützvektormethode (SVM) Stützvektorethode (SVM) Maeren der Brete ener separerenden Hperebene au argn ethod Transforaton des Datenraus durh Kernfunkton Strukturelle Rskonerung Vladr Vapnk The Nature of Statstal Learnng Theor Sprnger

Mehr

Approximationsalgorithmen. Facility Location K-Median. Cheng, Wei 12. Juli

Approximationsalgorithmen. Facility Location K-Median. Cheng, Wei 12. Juli Approxmatonsalgorthmen aclty Locaton K-Medan heng We 12. Jul aclty Locaton Defnton Gegeben: möglche Standorte = { 1 2 m } Städte = { 1 2 n } Eröffnungskosten f für Verbndungskosten c zwschen und Dreecksunglechung

Mehr

e dt (Gaußsches Fehlerintegral)

e dt (Gaußsches Fehlerintegral) Das Gaußsche Fehlerntegral Φ Ac 5-8 Das Gaußsche Fehlerntegral Φ st denert als das Integral über der Standard-Normalvertelung j( ) = -,5 n den Grenzen bs, also F,5 t ( ) = - e dt (Gaußsches Fehlerntegral)

Mehr

Lehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Dr. Roland Füss Statistik II: Schließende Statistik SS 2007

Lehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Dr. Roland Füss Statistik II: Schließende Statistik SS 2007 Lehrstuhl für Emprsche Wrtschaftsforschung und Ökonometre Dr Roland Füss Statstk II: Schleßende Statstk SS 007 5 Mehrdmensonale Zufallsvarablen Be velen Problemstellungen st ene solerte Betrachtung enzelnen

Mehr

Übungsblatt 7 Lösungsvorschläge

Übungsblatt 7 Lösungsvorschläge Insttut für Theoretsche Informatk Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 7 Lösungsvorschläge Vorlesung Algorthmentechnk m WS 09/10 Problem 1: Mnmale Schnttbass Approxmatonsalgos relatver Gütegarante

Mehr

Fachbereich Mathematik Prof. K. Grosse-Brauckmann D. Frisch WS 2007/08 10./ Gruppenübung

Fachbereich Mathematik Prof. K. Grosse-Brauckmann D. Frisch WS 2007/08 10./ Gruppenübung Fachberech Mathematk Prof. K. Grosse-Brauckmann D. Frsch WS 27/8./.. 6. Übungsblatt zur Lnearen Algebra für Physker Gruppenübung Aufgabe G7 (Kern, Bld, Rang und Orthogonaltät) Gegeben se ene lneare Abbldung

Mehr

Einführung in die Wahrscheinlichkeitsrechnung. Wahrscheinlichkeitsrechnung. Übersicht. Wahrscheinlichkeitsrechnung. bedinge Wahrscheinlichkeit

Einführung in die Wahrscheinlichkeitsrechnung. Wahrscheinlichkeitsrechnung. Übersicht. Wahrscheinlichkeitsrechnung. bedinge Wahrscheinlichkeit Enführung n de bednge Wahrschenlchket Laplace-Wahrschenlchket p 0.56??? Zufallsexperment Randwahrschenlchket Überscht Was st Wahrschenlchket? Rechenregeln Der Multplkatonssatz Axomatsche Herletung Unabhänggket

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 009 UNIVERSITÄT KARLSRUHE Blatt 4 Prv.-Doz. Dr. D. Kadelka Dpl.-Math. W. Lao Übungen zur Vorlesung Stochastsche Prozesse Musterlösungen Aufgabe 16: (Success Run, Fortsetzung)

Mehr

Kapitel 10 Die Support-Vektor-Maschine (SVM) Ein statistischer Ansatz der Lerntheorie zum Entwurf eines optimalen Klassifikators

Kapitel 10 Die Support-Vektor-Maschine (SVM) Ein statistischer Ansatz der Lerntheorie zum Entwurf eines optimalen Klassifikators Kaptel 0 De Support-Vektor-Maschne (SVM) En statstscher Ansatz der Lerntheore zum Entwurf enes optmalen Klassfkators Inhalt:. Problemstellung 2. VC-Dmenson und Gesamtfehlermnmerung 3. Lneare SVM Separerbare

Mehr

Sortieren. Thomas Röfer. Permutationen Naives Sortieren Sortieren durch Einfügen, Auswählen, Vertauschen, Mischen QuickSort Comparator

Sortieren. Thomas Röfer. Permutationen Naives Sortieren Sortieren durch Einfügen, Auswählen, Vertauschen, Mischen QuickSort Comparator Unverstät Bremen Sorteren Thomas Röfer Permutatonen Naves Sorteren Sorteren durch Enfügen, Auswählen, Vertauschen, Mschen QuckSort Comparator Unverstät Bremen Rückblck Suchen Identtät/Flache/Tefe Glechhet

Mehr

Übersicht der Vorlesung

Übersicht der Vorlesung Überscht der Vorlesung. Enführung. Bldverarbetung 3. Morphologsche Operatonen 4. Bldsegmenterung 5. Merkmale von Objekten 6. Klassfkaton 7. Dredmensonale Bldnterpretaton 8. Bewegungsanalyse aus Bldfolgen

Mehr

9 Komplexe Zahlen ( ) ( ) 9.1 Ziele. 9.2 Warum braucht man komplexe Zahlen? 9.3 Darstellung von komplexen Zahlen. r 2. j 2. j 1.

9 Komplexe Zahlen ( ) ( ) 9.1 Ziele. 9.2 Warum braucht man komplexe Zahlen? 9.3 Darstellung von komplexen Zahlen. r 2. j 2. j 1. Mathematk I / Komplexe Zahlen 9 Komplexe Zahlen 9. Zele Am Ende deses Kaptels hast Du ene Grundvorstellung was komplexe Zahlen snd. Du kannst se grafsch darstellen und enfache Berechnungen durchführen.

Mehr

Netzwerkstrukturen. Entfernung in Kilometer:

Netzwerkstrukturen. Entfernung in Kilometer: Netzwerkstrukturen 1) Nehmen wr an, n enem Neubaugebet soll für 10.000 Haushalte en Telefonnetz nstallert werden. Herzu muss von jedem Haushalt en Kabel zur nächstgelegenen Vermttlungsstelle gezogen werden.

Mehr

(Theoretische) Konfidenzintervalle für die beobachteten Werte: Die Standardabweichung des Messfehlers wird Standardmessfehler genannt:

(Theoretische) Konfidenzintervalle für die beobachteten Werte: Die Standardabweichung des Messfehlers wird Standardmessfehler genannt: (Theoretsche Konfdenzntervalle für de beobachteten Werte: De Standardabwechung des Messfehlers wrd Standardmessfehler genannt: ( ε ( 1- REL( Mt Hlfe der Tschebyscheff schen Unglechung lassen sch be bekanntem

Mehr

Beschreibung des Zusammenhangs zweier metrischer Merkmale. Streudiagramme Korrelationskoeffizienten Regression

Beschreibung des Zusammenhangs zweier metrischer Merkmale. Streudiagramme Korrelationskoeffizienten Regression Beschrebung des Zusammenhangs zweer metrscher Merkmale Streudagramme Korrelatonskoeffzenten Regresson Alter und Gewcht be Kndern bs 36 Monaten Knd Monate Gewcht 9 9 5 8 3 4 7.5 4 3 6 5 3 6 4 3.5 7 35 5

Mehr

Abbildung 3.1: Besetzungszahlen eines Fermigases im Grundzustand (a)) und für eine angeregte Konfiguration (b)).

Abbildung 3.1: Besetzungszahlen eines Fermigases im Grundzustand (a)) und für eine angeregte Konfiguration (b)). 44 n n F F a) b) Abbldung 3.: Besetzungszahlen enes Fermgases m Grundzustand (a)) und für ene angeregte Konfguraton (b)). 3.3 Ferm Drac Statstk In desem Abschntt wollen wr de thermodynamschen Egenschaften

Mehr

Übung zu Erwartungswert und Standardabweichung

Übung zu Erwartungswert und Standardabweichung Aufgabe Übung zu Erwartungswert und Standardabwechung In ener Lottere gewnnen 5 % der Lose 5, 0 % der Lose 0 und 5 % der Lose. En Los kostet 2,50. a)berechnen Se den Erwartungswert für den Gewnn! b)der

Mehr

Lineare Regression (1) - Einführung I -

Lineare Regression (1) - Einführung I - Lneare Regresson (1) - Enführung I - Mttels Regressonsanalysen und kompleeren, auf Regressonsanalysen aserenden Verfahren können schenar verschedene, jedoch nenander üerführare Fragen untersucht werden:

Mehr

9 Komplexe Zahlen ( ) ( ) 9.1 Ziele. 9.2 Warum braucht man komplexe Zahlen? 9.3 Darstellung von komplexen Zahlen. r 2. j 2. j 1.

9 Komplexe Zahlen ( ) ( ) 9.1 Ziele. 9.2 Warum braucht man komplexe Zahlen? 9.3 Darstellung von komplexen Zahlen. r 2. j 2. j 1. Mathematk I / Komplexe Zahlen 9 Komplexe Zahlen 9. Zele Am Ende deses Kaptels hast Du ene Grundvorstellung was komplexe Zahlen snd. Du kannst se grafsch darstellen und enfache Berechnungen durchführen.

Mehr

Neuronale Netze. M. Gruber (1) ausgeloste Reiz ist x (1) = (1) (s (1) ) mit (1) (s) = 1 sgn(s 1 ) sgn(s 2 ) T. .

Neuronale Netze. M. Gruber (1) ausgeloste Reiz ist x (1) = (1) (s (1) ) mit (1) (s) = 1 sgn(s 1 ) sgn(s 2 ) T. . Neuronale Netze M. Gruber 7.11.015 Begnnen wr mt enem Bespel. Bespel 1 Wr konstrueren enen Klasskator auf der Menge X = [ 1; 1], dessen Wrkung man n Abb.1 rechts sehen kann. Auf der blauen Telmenge soll

Mehr

3. Lineare Algebra (Teil 2)

3. Lineare Algebra (Teil 2) Mathematk I und II für Ingeneure (FB 8) Verson /704004 Lneare Algebra (Tel ) Parameterdarstellung ener Geraden Im folgenden betrachten wr Geraden m eukldschen Raum n, wobe uns hauptsächlch de Fälle n bzw

Mehr

1 Finanzmathematik. 1.1 Das Modell. Sei Xt

1 Finanzmathematik. 1.1 Das Modell. Sei Xt 1.1 Das Modell Se Xt der Pres enes Assets zur Zet t und X = X ) 1 d der Rd +-dmensonale Presprozess. Das Geld kann auch zu dem rskolosen Znssatz r be ener Bank angelegt werden. Der Wert deser Anlage wrd

Mehr

Lineare Regression - Mathematische Grundlagen

Lineare Regression - Mathematische Grundlagen FKULTÄT FÜR MTHEMTIK U TURWISSESCHFTE ISTITUT FÜR PHYSIK FCHGEBIET EXPERIMETLPHYSIK I r. rer. nat. orbert Sten, pl.-ing (FH) Helmut Barth Lneare Regresson - Mathematsche Grundlagen. llgemene Gerade Wr

Mehr

Maschinelles Lernen (Zusammenfassung)

Maschinelles Lernen (Zusammenfassung) Unverstät Potsdam Insttut für Informatk Lehrstuhl (Zusammenfassung) Chrstoph Sawade /Nels Landwehr/Paul Prasse Domnk Lahmann Tobas Scheffer Überblck Lernprobleme Entschedungsbäume Bayes sches Lernen Lneare

Mehr

Erwartungswert, Varianz, Standardabweichung

Erwartungswert, Varianz, Standardabweichung RS 24.2.2005 Erwartungswert_Varanz_.mcd 4) Erwartungswert Erwartungswert, Varanz, Standardabwechung Be jedem Glücksspel nteresseren den Speler vor allem de Gewnnchancen. 1. Bespel: Setzen auf 1. Dutzend

Mehr

2 Zufallsvariable und Verteilungen

2 Zufallsvariable und Verteilungen Zufallsvarable und Vertelungen 7 Zufallsvarable und Vertelungen Wr wollen uns jetzt mt Zufallsexpermenten beschäftgen, deren Ausgänge durch (reelle) Zahlen beschreben werden können, oder be denen man jedem

Mehr

ME II, Prof. Dr. T. Wollmershäuser. Kapitel 2 Das IS-LM-Modell

ME II, Prof. Dr. T. Wollmershäuser. Kapitel 2 Das IS-LM-Modell ME II, Prof. Dr. T. Wollmershäuser Kaptel 2 Das IS-LM-Modell Verson: 26.04.2011 2.1 Der Gütermarkt De gesamte Güternachfrage Z (Verwendung des BIP) lässt sch we folgt darstellen: Z C+ I + G ME II, Prof.

Mehr