Inhalt: Mustererkennungsexperiment. Die Support-Vektor-Maschine (SVM)

Größe: px
Ab Seite anzeigen:

Download "Inhalt: Mustererkennungsexperiment. Die Support-Vektor-Maschine (SVM)"

Transkript

1 Inhalt: Kaptel 0 De SupportVektorMaschne (SVM) En statstscher Ansatz der Lerntheore zum Entwurf enes optmalen Klassfkators. Problemstellung. VCDmenson und Gesamtfehlermnmerung 3. Lneare SVM Separerbare Klassen (Bespel) Nchtseparerbare Klassen (Bespel) 4. Nchtlneare SVM Trck mt Kernfunkton (Bespel) Mercer`s Theorem 5. Egenschaften und Berechnungskompletät 6. Vorstellung von Forschungsprojekten: Claus Bahlmann: Handschrfterkennung Olaf Ronneberger: Autom. Erkennung von Blütenpollen Bernard Haasdonk: Tangentendstanz und SVM H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 Durch Normalvertelungen schlecht darstellbare Klassen H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 3 H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 Mustererkennungseperment Lern Datensatz l Emprscher Fehler R ( ) emp Test Datensatz TestFehler (Generalserungsfähgket) Rtest ( ) Stochastscher Prozess mt unbekannter Verbundvertelung: P(,y) Gesucht st ene Zuordnungsfunkton f(,): y welche durch de unbekannten Parameter des Vektors charaktersert wrd, welche den Erwartungswert des Zuordnungsfehlers mnmert: R()=E{R test ()} H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 4

2 Lerntheoretscher Ansatz Überwachtes Lernen: Gegeben: l Beobachtungen (Lernstchprobe) aus dem Mustererkennungseperment mt der Verbundvertelung P(,y) mt den dazugehörgen Klassenzuordnungen (Labels) (Zunächst Beschränkung auf Zweklassenproblem); ansonsten estert kenerle Vorwssen: (, y ) P(, y),, l mt: N, y, Gesucht: determnstsche Zuordnungsfunkton, f(,): y aufbauend auf ene Lernstchprobe, welche den Erwartungswert des Zuordnungsfehlers bem Testdatensatz (epected rsk) mnmert: test y f p y ddy R( ) E R ( ) E y f(, ) y f(, ) dp(, y) (, ) (, ) falls Verbundvertelungsdchte bekannt Problem: deser Ausdruck kann jedoch ncht ausgewertet werden, da P(,y) ncht zur Verfügung steht und st somt weng hlfrech! H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 5 Ene Obergrenze für de Generalserungsfähgket des Lernens mt der VCTheore (Vapnk/Chervonenks) Mt der Wahrschenlchket () glt de folgende obere Abschätzung für den tatsächlchen Fehler (d.h. z.bsp. mt = 0,05 und damt mt ener Wahrschenlchket von 95%): R( ) Remp ( ) ( h, l, ) mt: ( hl,, ) H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 7 VCKonfdenz l hlog log h 4 l l Anzahl der Tranngsbespele h VCDmenson des verwendeten Hypothesenraums Bemerkenswert st, dass deser Ausdruck unabhängg st von der zugrundelegenden Verbundvertelung P(,y)! (vorausgesetzt, de Tranngs und Testdatensätze werden statstsch unabhängg gezogen). D.h. falls man de Auswahl zwschen verschedenen Lernmaschnen hat (enhergehend mt spezellen Famlen von Abbldungsfunktonen f(,)), entschedet man sch für de Maschne, welche den gerngsten Wert be gegebener VCDmenson für de Konfdenz lefert. Zentrales Problem der statstschen Lerntheore: Wann führt en nedrger Tranngsfehler zu enem nedrgen echten Fehler? Das emprsche Rsko, nämlch de Fehlerrate für enen gegebenen Tranngsdatensatz lässt sch lecht berechnen gemäß: l emp l R ( ) y f(, ) Der Ansatz mt enem Neuronalen Netz und dem Backpropagaton Learnng z.bsp. begnügt sch mt ener Emprschen Rsko Mnmerung (ERM) Her nun de Frage: We nah st man nach l Tranngsbespelen am echten Fehler? Und: We gut kann aus dem emprschen Rsko das echte Rsko abgeschätzt werden (Structural Rsc Mnmzaton (SRM) anstatt Emprcal Rsc Mnmzaton (ERM))? Des benhaltet de Generalserungsfähgket! Ene Antwort darauf versucht de Lerntheore von VapnkChervonenks zu geben! H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 6 De VCDmenson st ene Egenschaft für gegebene Funktonenklassen {f()} Ene gegebene Menge von l Punkten kann für den ZweklassenFall n l möglche Klassen aufgetelt werden. De VCDmenson ener Menge von Funktonen {f()}, st defnert als de mamale Anzahl von Tranngspunkten, welche durch dese Klasse von Funktonen n allen möglchen Zuordnungen separert werden können. Lefert Maße für Kapaztät von Funktonenklassen Funktonenklassen z.b. Menge der lnearen Klassfkatoren Menge der Klassfkatoren, de en NN realseren kann Menge der Klassfkatoren, de ene SVM realseren kann De VCKonfdenz wächst monoton mt h: Demnach würde man be ener Auswahl von Lernmaschnen, deren emprsches Rsko 0 st, sch für dejenge entscheden, deren assozerte Menge von Abbldungsfunktonen mnmale VCDmenson bestzt. H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 8

3 VCDmenson von Hyperebenen n Dre Punkte n lassen sch mt Hyperebenen (Geraden) n allen Konstellatonen trennen VCDmenson von SVM Aussagen über VCDmensonen be SVM möglch! VCDmenson der Menge der Hyperebenen n M Ver Punkte n lassen sch ncht mehr mt Hyperebenen n allen Konstellatonen trennen => Hyperebenen n : VCdm=3 Allgemen: Hyperebenen n N : VCdm=N+ de VCDmenson be Polynomen wächst mt hrem Grad! H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 9 h mn( R A, M ) w A, K(, ) R SVM mt Polynomkernen K(,y)=( y) p h N p p H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 0 Hermt Structural Rsk Mnmzaton möglch Structural Rsk Mnmzaton (SRM) SRM st Mnmeren der Abschätzung für R() über anwachsende Funktonenklassen S. Dese blden Hypothesenräume mt anwachsender VCDmenson VCdm=h (h <h <h 3 <...). Kompromss zwschen emprschem Rsko und Generalserungsfähgket R() Entwurfshnwese Mehrere Ausdrücke für das gleche Phänomen: Bas/VaranzKompromss Generalserungs/OverfttngKompromss Emprscher Fehler/VCDmensons(Kapaztätskontrolle) Kompromss S S S 3 S 4 R emp opt VCdm: h wächst an mt h R emp wrd klener mt h (overfttng) H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0

4 BasVaranzTradeoff Lnear separerbare Klassen ŷ yˆ f ( ) yˆ f ( ) n Bas n ( y f( )) klen f : n Varanz n ( y f( )) groß gute Generalserung (enfaches Modell)! Daten n RI y, n Bas n ( y f( )) groß f : schlechte Generalserung (overfttng)! n Varanz n ( y f( )) klen Allgemene Hyperebene w, b 0 Klassfkaton va f ( ) sgn( w, b) z.b. Rosenblatt s Perceptron (956) Iteratves Lernen, Korrektur nach jeder Fehlklassfkaton >kene Endeutgket der Lösung H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 3 Optmale Hyperebene: Mamerung des Randes Geht man von enem lnear separerbarem Zweklassenproblem aus, so errechen alle Geraden, welche bede Klassen trennen enen emprschen Fehler Null De Konfdenz wrd mnmert durch en Polynom mnmaler VCDmenson, nämlch ene Hyperebene De VCDmenson kann weter abgesenkt werden durch brete Hyperebenen (large margn hyperplanes) H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 4 Largemargn Klassfkator Hyperebene mt größtem Rand [Vap63] S : h 3 3 S : h S : h Trennende Hyperebene mt mamalem Rand Trennende Hyperebene mt mnmaler VCDmenson Deses Ergebs st plausbel. Be konstanter Intraklassenstreuung, wächst de Klassfkatonsscherhet mt wachsendem Interklassenabstand. oder: be konstant gehaltenem Interklassenabstand (z.bsp. 0) muss de Intraklassenstreung mamal zulässg werden H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 5 hohe VCDmenson N n : N mttlere VCDmenson Varabltät wrd klener! Anschaulch snnvoll theoretsch begründet Lösung abhängg von wengen Daten: => SupportVektoren klenste VCDmenson mt mamaler Brete Varabltät glech Null 3 H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 6 S S h h h S 3

5 VCDmenson von breten Hyperebenen Formalserung w, b w, b 0 w, b De Daten werden korrekt klassfzert, falls: y ( w, b) 0 R R Deser Ausdruck st nvarant gegenüber ener postven Reskalerung: y ( aw, ab) 0 h h Enführung von kanonschen Hyperebenen: w, b für de blaue Klasse w, b für de rote Klasse De VCDmenson h von Hyperebenen mt enem Mndestabstand von den zu trennenden Punkten st begrenzt durch: R VC dm => grosser Margn, klene VCdm H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 7 Prmales OP: Enführung ener Lagrangefunkton: Optmerungsproblem H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 9 mnmere J( w, b) w w, w unter der N.B.: y ( w, b) l L( w, b, ) w [ y( w, b) ] mt: 0 De partellen Abletungen nach w, b und den führen nach Ensetzen n das prmale OP auf das äquvalente: Wolfduale OP: l l l j j j j l y mamere L( w, b, ) y y, unter der N.B.: 0 und 0 Des st en postv semdefntes Problem, welches mt Hlfe der konveen quadratschen Programmerung numersch teratv gelöst werden kann! Der Abstand zwschen den kanonschen Hyperebenen ergbt sch durch Projekton von auf den Normalenvektor w/ w : ( w, b ) ( w, b ) w,( ) w,( ) w H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 8 / w De Mamerung von st glechwertg mt ener Mnerung von w => l w y y SV Lösung: Lösung des dualen Problems lefert endeutg gewünschte Hyperebene ma y (, ) mn (, ) w y w b Klassfkaton: f ( ) sgn( w, b ) sgn( y ) b ) Lösung nur abhängg von den Supportvektoren!! SV Beobachtungen: Für de SupportVektoren glt: 0< < Für alle Bespele ausserhalb des Randes st =0 > SupportVektoren, sparse Darstellung der Lösung Endeutgket der Ebene, globales Optmum!! H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 0 w

6 f Optmerung von f () unter gegebenen Nebenbedngungen g()=0 mt Hlfe des LagrangeAnsatzes f f Gradent = Normalenvektor f( ) c! f g g( ) 0 Aus der LagrangeFunkton: ( LagrangeMultplkator) L(, ) f( ) g( ) folgt mt der notwendgen Bedngung für en Etremum: L L f g0 f g f g des st aber genau de Bedngung für enen statonären Punkt! H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 f ( ) mn NB: g( ) 0 Ene Lösung für das Optmerungsproblem zu fnden st glechbedeutend mt der Aufgabe, statonäre Punkte * zu fnden, n denen glt: f g Des st nur ene notwendge Bedngung für en lokales Optmum; es kann mehrere Lösungen geben! Der Gradent st en Normalenvektor an de Kurve g()=0 Betrachten wr de Taylorentwcklung von g bzgl. ener klenen vektorellen Störung an ener Stelle auf der Kurve g()=0, so erhält man: T g( ) g( ) g Bewegt sch de Störung entlang der Kurve, so glt g(+ ) = g() und somt auch T g() = 0. Daraus erkennen wr, dass der Gradent senkrecht steht auf de Oberfläche g()=0 (Normalenvektor). H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 Bedngung für enen statonären Punkt * f( ) c f( ) c f( t) f( t) f( ) f t Bespel: ) f( ) ) NB: g( ) 0 f( ) c f f f g g g ft, t g f g( ) 0 g( ) 0 a) Verhältnsse an enem nchtstatonären Punkt b) Verhältnsse an enem statonären Punkt a) Enthält de Projekton von f auf de Tangentenrchtung t enen von Null verschedenen Betrag, so kann das Optmerungskrterum durch Bewegung n dese Rchtung entlang der Kurve der NB verbessert werden! => ken statonärer Punkt! b) An enem statonären Punkt wrd das Gütekrterum f() n beden tangentalen Rchtungen verschlechtert. f steht senkrecht auf t. H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 3 f g f g f g g( ) 0 L(, ) f( ) g( ) notw. Bed. für en Optmum: L ) L f g0 ) 0 0 L ) g( ) 0 ) 0 und f ( ) ( ) g H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 4

7 Demos mt MATLAB (svmmatlab, uclass.m) Lnearer Klassfkator Harter Rand, Problem separerbar Harter klener Rand wegen Ausreßer, Problem separerbar, aber schlechte Generalserung => emp. Fehler vergrößern mt Gewnn be Generalserung => wechen Rand enführen Nchtlnearer Klassfkator Für nchtlneare Probleme muss VCDmenson der trennenden Hyperflächen und damt hre Kapaztät vergrößert werden! Lneare Separerung enes quadratschen Problems mt wechem Rand Polynomale Separerung (p=), harter Rand Polynomale Separerung (p=4), harter Rand Bananenshape mt Polynomkernen Bananenshape mt GaussRadalbassfunktonen Lnear separerbare Klassen; harter Rand Start der MatlabDemo matlabsvm.bat H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 5 Lnear separebare Klassen; harter, klener Rand, schlechte Generalserung H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 6 Nchtseparabler Fall w, b w, b 0 w, b Bestrafen von Randverletzungen va slack Varablen [Smth68] > SoftMargn SVM l mnmeren von: w C mt: y ( w, b) und 0 Gründe für dese Verallgemenerung: Lösung ncht estent mt bshergem Ansatz mt hartem Rand Verbesserung der Generalserung be Ausreßern n der Randzone H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 7 Fallunterschedung: 0< <C SV mt =0 =C SV mt >0 =0 für de restlchen Vektoren H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 8

8 Lnear sep. Klassen; wecher, breter Rand => R emp größer, gute Generalserung Lnear sep. Klassen; wecher, breter Rand => R emp größer, gute Generalserung H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 9 Lnear separebare Klassen; harter Rand H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 30 Lnear separebare Klassen; harter Rand H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 3 H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 3

9 Lnear separebare Klassen; harter Rand Lnear separebare Klassen; harter Rand H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 33 Globales, endeutges Optmum Optmerung enes quadratschen Problems n w (konve) unter lnearen Nebenbedngungen Lneare Nebenbedngungen mtenander geschntten ergeben konvees Gebet; deses geschntten mt quadratscher Form => ergbt wederum konvees Gebet => endeutges Mnmum! H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 34 Nchtlneare Probleme manche Probleme haben nchtlneare Klassengrenzen Hyperebenen errechen kene zufredenstellende Genaugket 0,c y 0 0,c H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 35 H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 36

10 Erweterung des Hypothesenraumes Idee: Fnde Hyperebene m höherdmensonalen Merkmalsraum dm = N Nchtlneare Probleme Endmensonaler Orgnalraum: Zwedmensonaler Merkmalsraum: T T ( ) z z, z Orgnalraum := N : z Merkmalsraum dm = M>>N z z De trennende Hyperebene m Merkmalsraum st ene nchtlneare Trennfläche m Orgnalraum (sehe XORProblem mt Polynomklassfkator) H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 37 lnear ncht separerbar lneare Separaton H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 38 Nchtlneare Probleme Orgnalraum: =(, ) (zwedmensonal) Merkmalsraum: T ( ) z z, z, z3, z4, z5, z6 T z 4 Nchtlneare Erweterung Nchtlneare Abbldung vorschalten Bespel XORProblem: ( ): N z ( ) nchtlneare Separaton z z 4 4 H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 39 z z lneare Separaton H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 40

11 Konsequenzen Effekt: Stegerung der Separabltät Trennfläche m Ursprungsraum nchtlnear Fragen:. Optmaltät der Hyperebene?. Hoher Rechenaufwand n hochdmensonalen Räumen? Zu : Optmaltät blebt erhalten, erneut postv semdefnte Form, da n der zu optmerenden Funkton de glechen Skalarprodukte auftauchen, nur n enem neuen Raum Zu : der hohe Aufwand n den hochdmensonalen Merkmalsraum wr durch den Trck mt Kernfunktonen reduzert. Das Innenprodukt n H hat enen äquvalente Formulerung mt Kernfunktonen m Orgnalraum H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 4 Der Trck mt Kernfunktonen Problem: Sehr hohe Dmenson des Merkmalraumes! Polynome pten Grades über der Dmenson N des Orgnalraums führen zu O(M=N p ) Dmensonen m Merkmalsraum! Lösung: Im dualen OP tauchen nur Skalarprodukte <, j > auf. Im korresponderenden Problem m Merkmalsraum tauchen dann ebenfalls nur Skalarprodukte n < ( ), ( j ) > auf. Dese müssen ncht eplzt ausgerechnet werden, sondern können mt reduzerter Kompletät mt Kernfunktonen m Orgnalraum ausgedrückt werden: K(, ) ( ), ( ) j j Bespel: T Für ( ) z z, z, z3, z4, z5, z6 berechnet K(, j) (, j) ( ), ( j) das Skalarprodukt m Merkmalsraum. H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 4 T Häufg verwendete Kernfunktonen PolynomKerne K(, ) (, ) j j GaussKerne K(, j) ep j /( ) SgmodKerne K(, ) tanh(, ) j j De resulterenden Klassfkatoren snd verglechbar mt Polynomklassfkatoren, radalen Bassfunkten und mt Neuronalen Netzen (se werden allerdngs anders motvert). Allgemene Anforderung: Mercer s Bedngung. Se garantert, dass ene bestmmte Kernfunkton tatsächlch auch en Skalarprodukt n rgendenem Raum st, aber se erklärt ncht we das dazugehörge Abbldung ausseht und we der Raum beschaffen st. Ausserdem: Lnearkombnatonen von gültgen Kernen lefern neue Kerne (de Summe er pos. def. Fkten st weder pos. def.) H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 43 Das Theorem von Mercer Es estert ene Abbldung und ene Entwcklung. K(, ) ( ), ( ) j j genau dann, wenn für en belebges g() mt ( ) g d glt (K st ene symmetrsche, postv semdefnte Funkton n ): K(, j) g( ) g( j) dd j 0 Es gbt allerdngs auch Fälle, wo Kernfunktonen de MercerBedngung ncht erfüllen, aber für enen bestmmten Tranngsdatensatz zu ener postv semdefnten HesseMatr führen und damt zu enem globalen Optmum konvergeren. H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 44

12 Lneare Separerung enes quadratschen Problems; wecher Rand Traneren: Endformulerung n n mamere: L( ) (, ) y, j yj jk j l mt: y 0 und 0 C Klassfzeren ( 0 für alle SV): n f( ) sgn (, ) sgn (, ) yk j b yk j b SV n n ma y (, ) mn (, ) yj jk j j y y j j jk j b H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 45 Polynomale Separerung enes quadratschen Problems; harter Rand H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 46 Polynomale Separerung enes quadratschen Problems; harter Rand H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 47 H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 48

13 Nchtlnear separerbare Klassen; harter Rand Nchtlnear separerbare Klassen; harter Rand H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 49 Bespel: Inseln, Polynom mt p = H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 50 Bespel: Inseln, Polynom mt p = 3 H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 5 H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 5

14 Bespel: Inseln, Polynom mt p = 4 Bespel: Inseln, RBFs mt = H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 53 H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 54 Anwendungsbespel: Zechenerkennung Bespel: US Postal Servce Dgts [Schö95/96] 66 Grauwertblder 79 Tranng, 007 TestSamples Ergebnsse: Klassfkator Fehlerrate Mensch.5% Schcht NN 5.9% 5Schcht NN 5.% SVM (Polynom Grad 3) 4.0% SVM + Invaranz 3.% SVM+Invaranz: Ursprünglche Datenmenge verfünffachen durch Shft n alle Hauptrchtungen H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 55 H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 56

15 SVM mt RBF, VCGrenze m Verglech zur tatsächlchen Testfehlerrate (Nur en Parameter: ) VCGrenze (analytsch) ( ) 00 H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 57 Rtest Leder sehr grobe Abschätzungen, aber qualtatv aussagekräftg (Mnmum an der glechen Stelle). Alternatve: Suche nach durch Testfehlermnmerung durch Kreuzvalderung. Bldet man den Erwartungswert über alle leaveoneout Epermente, so erhält man ene Abschätzung des echten Rskos Der Aufwand kann reduzert werden auf de Überprüfung der SV, da nur dese enen Enfluss auf de gemessene Fehlerrate haben. SVM: Egenschaften und Berechnungskompletät Stärken: De SVM lefert nach den derzetgen Erkenntnssen sehr gute Ergebnsse und fndet (unter gewssen Voraussetzungen) en globales Mnmum (Be NN erhält man n der Regel nur suboptmale Lösungen) SparseDarstellung der Lösung über N s SupportVektoren Lecht anwendbar (weng Parameter (C,), es wrd ken aprorwssen benötgt, ken Desgn); de genaue Wahl von (C,) st jedoch zuglech ene der größten Schwächen m Entwurf Geometrsch anschaulche Funktonswese Theoretsche Aussagen über Ergebns: globales Optmum, Generalserungsfähgket SRM möglch, wenn auch schwer kontrollerbar auch Probleme n großen Merkmalsräumen lösbar ( Tranngs und Testmuster) Be Semdefnthet des Problems: das duale Problem hat dann vele Lösungen, aber alle lefern de gleche Hyperebene! H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 58 Schwächen: VCAbschätzung nur sehr ungenau und praktsch weng verwertbar Multklassenansatz noch Gegenstand der Forschung Ansatz: ene SVM pro Klasse, d.h. Aufwand und Specherbedarf stegt mt der Anzahl der Klassen / /3 /3 3 Redukton enes Multklassenproblems auf ene Rehe von bnären Entschedungsproblemen Schwächen: Kene quanttatve Qualtätsaussage der Klassfkaton Langsames, specherntensves Lernen: 3 Laufzet: ON ( s ) (Inverson der HesseMatr) Specher: ON ( s ) Ansatz zur Verbesserung: Zerlegen n Telprobleme VCAbschätzung nur sehr ungenau und praktsch weng verwertbar Langsames Klassfzeren mt O(MN s ), wobe M=O(dm()) (d.h. m Fall ohne Kernfunktonen M=N), aber be geegnet gewählten Kernfunktonen glt auch her: M=N. H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 59 H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 60

16 Lteratur: () C.J.C. Burges, A tutoral on support vector machnes for pattern recognton, Knowledge Dscovery and Data Mnng, (), 998. ( () V. Vapnk, Statstcal Learnng Theory, Wley, New York, 998. (3) N. Crstann, J. ShaweTaylor, An ntroducton to support vector machnes and other kernelbased learnng methods, Cambrdge Unv. Press, Cambrdge 000. (4) B. Schölkopf, A. J. Smola, Learnng wth kernels, MIT Press, Boston, 00. (5) S.R. Gunn, Support Vector Machnes for Classfcaton and Regresson, Techncal Report, Department of Electroncs and Computer Scence, Unversty of Southampton, 998. H Burkhardt Insttut für Informatk Unverstät Freburg ME II Kap 0 6

Kapitel 10 Die Support-Vektor-Maschine (SVM) Ein statistischer Ansatz der Lerntheorie zum Entwurf eines optimalen Klassifikators

Kapitel 10 Die Support-Vektor-Maschine (SVM) Ein statistischer Ansatz der Lerntheorie zum Entwurf eines optimalen Klassifikators Kaptel 0 De Support-Vektor-Maschne (SVM) En statstscher Ansatz der Lerntheore zum Entwurf enes optmalen Klassfkators Inhalt:. Problemstellung 2. VC-Dmenson und Gesamtfehlermnmerung 3. Lneare SVM Separerbare

Mehr

Kapitel 8: Kernel-Methoden. Maschinelles Lernen und Neural Computation

Kapitel 8: Kernel-Methoden. Maschinelles Lernen und Neural Computation Kaptel 8: Kernel-Methoden SS 009 Maschnelles Lernen und Neural Computaton 50 Ausgangsbass: Perceptron Learnng Rule Δw y = Kf = 0Ksonst K"target" = Kf Rosenblatt (96) Input wrd dazugezählt (abgezogen),

Mehr

Stützvektormethode (SVM) Erinnerung: Funktionslernen. Beispiel: Funktionenlernen. Reale Beispiele

Stützvektormethode (SVM) Erinnerung: Funktionslernen. Beispiel: Funktionenlernen. Reale Beispiele technsche unverstät Fakultät für Inforatk technsche unverstät Fakultät für Inforatk Stützvektorethode (SVM) Maxeren der Brete ener separerenden Hyperebene axu argn ethod Transforaton des Datenraus durch

Mehr

Kapitel 7: Ensemble Methoden. Maschinelles Lernen und Neural Computation

Kapitel 7: Ensemble Methoden. Maschinelles Lernen und Neural Computation Kaptel 7: Ensemble Methoden 133 Komtees Mehrere Netze haben bessere Performanz als enzelne Enfachstes Bespel: Komtee von Netzen aus der n-fachen Kreuzvalderung (verrngert Varanz) De Computatonal Learnng

Mehr

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Lösungen. Übungsklausur Wahrscheinlichkeit und Regression Die Lösungen

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Lösungen. Übungsklausur Wahrscheinlichkeit und Regression Die Lösungen Übungsklausur Wahrschenlchket und Regresson De Lösungen. Welche der folgenden Aussagen treffen auf en Zufallsexperment zu? a) En Zufallsexperment st en emprsches Phänomen, das n stochastschen Modellen

Mehr

Sequential minimal optimization: A fast Algorithm for Training Support Vector machines

Sequential minimal optimization: A fast Algorithm for Training Support Vector machines Sequental mnmal optmzaton: A fast Algorthm for Tranng Support Vector machnes By John C. Platt (998) Referat von Joerg Ntschke Fall der ncht-trennbaren Tranngs-Daten (/) In der Realtät kommen lnear ncht-trennbare

Mehr

Grundgedanke der Regressionsanalyse

Grundgedanke der Regressionsanalyse Grundgedanke der Regressonsanalse Bsher wurden durch Koeffzenten de Stärke von Zusammenhängen beschreben Mt der Regressonsrechnung können für ntervallskalerte Varablen darüber hnaus Modelle geschätzt werden

Mehr

Resultate / "states of nature" / mögliche Zustände / möglicheentwicklungen

Resultate / states of nature / mögliche Zustände / möglicheentwicklungen Pay-off-Matrzen und Entschedung unter Rsko Es stehen verschedene Alternatven (Strategen) zur Wahl. Jede Stratege führt zu bestmmten Resultaten (outcomes). Man schätzt dese Resultate für jede Stratege und

Mehr

Das zum dualen Problem (10.2) gehörige Barriere-Problem lautet analog

Das zum dualen Problem (10.2) gehörige Barriere-Problem lautet analog 60 Kaptel 2. Lneare Optmerung 10 Innere-Punkte-Verfahren Lteratur: Geger, Kanzow, 2002, Kaptel 4.1 Innere-Punkte-Verfahren (IP-Verfahren) oder nteror pont methods bewegen sch m Gegensatz zum Smplex-Verfahren

Mehr

Konkave und Konvexe Funktionen

Konkave und Konvexe Funktionen Konkave und Konvexe Funktonen Auch wenn es n der Wrtschaftstheore mest ncht möglch st, de Form enes funktonalen Zusammenhangs explzt anzugeben, so kann man doch n velen Stuatonen de Klasse der n Frage

Mehr

Informatik II. Minimalpolynome und Implikanten. Minimalpolynome. Minimalpolynome. Rainer Schrader. 27. Oktober Was bisher geschah: Definition

Informatik II. Minimalpolynome und Implikanten. Minimalpolynome. Minimalpolynome. Rainer Schrader. 27. Oktober Was bisher geschah: Definition Informatk II Raner Schrader und Implkanten Zentrum für Angewandte Informatk Köln 27. Oktober 2005 1 / 28 2 / 28 Was bsher geschah: jede Boolesche Funkton kann durch enfache Grundfunktonen dargestellt werden

Mehr

wird auch Spannweite bzw. Variationsbreite genannt ist definiert als die Differenz zwischen dem größten und kleinsten Messwert einer Verteilung:

wird auch Spannweite bzw. Variationsbreite genannt ist definiert als die Differenz zwischen dem größten und kleinsten Messwert einer Verteilung: Streuungswerte: 1) Range (R) ab metrschem Messnveau ) Quartlabstand (QA) und mttlere Quartlabstand (MQA) ab metrschem Messnveau 3) Durchschnttlche Abwechung (AD) ab metrschem Messnveau 4) Varanz (s ) ab

Mehr

Stützvektormethode (SVM)

Stützvektormethode (SVM) Stützvektorethode (SVM) Maeren der Brete ener separerenden Hperebene au argn ethod Transforaton des Datenraus durh Kernfunkton Strukturelle Rskonerung Vladr Vapnk The Nature of Statstal Learnng Theor Sprnger

Mehr

Kapitel 4: Unsicherheit in der Modellierung Modellierung von Unsicherheit. Machine Learning in der Medizin 104

Kapitel 4: Unsicherheit in der Modellierung Modellierung von Unsicherheit. Machine Learning in der Medizin 104 Kaptel 4: Unscherhet n der Modellerung Modellerung von Unscherhet Machne Learnng n der Medzn 104 Regresson Modellerung des Datengenerators: Dchteschätzung der gesamten Vertelung, t pt p p Lkelhood: L n

Mehr

Multilineare Algebra und ihre Anwendungen. Nr. 6: Normalformen. Verfasser: Yee Song Ko Adrian Jenni Rebecca Huber Damian Hodel

Multilineare Algebra und ihre Anwendungen. Nr. 6: Normalformen. Verfasser: Yee Song Ko Adrian Jenni Rebecca Huber Damian Hodel ultlneare Algebra und hre Anwendungen Nr. : Normalformen Verfasser: Yee Song Ko Adran Jenn Rebecca Huber Daman Hodel 9.5.7 - - ultlneare Algebra und hre Anwendungen Jordan sche Normalform Allgemene heore

Mehr

Definition des linearen Korrelationskoeffizienten

Definition des linearen Korrelationskoeffizienten Defnton des lnearen Korrelatonskoeffzenten r xy x y y r x xy y 1 x x y y x Der Korrelatonskoeffzent st en Indkator dafür, we gut de Punkte (X,Y) zu ener Geraden passen. Sen Wert legt zwschen -1 und +1.

Mehr

Fachbereich Mathematik Prof. K. Grosse-Brauckmann D. Frisch WS 2007/08 10./ Gruppenübung

Fachbereich Mathematik Prof. K. Grosse-Brauckmann D. Frisch WS 2007/08 10./ Gruppenübung Fachberech Mathematk Prof. K. Grosse-Brauckmann D. Frsch WS 27/8./.. 6. Übungsblatt zur Lnearen Algebra für Physker Gruppenübung Aufgabe G7 (Kern, Bld, Rang und Orthogonaltät) Gegeben se ene lneare Abbldung

Mehr

Rotation (2. Versuch)

Rotation (2. Versuch) Rotaton 2. Versuch Bekannt snd berets Vektorfelder be denen das Lnenntegral über ene geschlossene Kurve Null wrd Stchworte: konservatve Kraft Potentalfelder Gradentenfeld. Es gbt auch Vektorfelder be denen

Mehr

Die Annäherung der Binomialverteilung durch die Normalverteilung am Beispiel eines Modells der Schadenversicherung

Die Annäherung der Binomialverteilung durch die Normalverteilung am Beispiel eines Modells der Schadenversicherung am Bespel enes Modells der chadenverscherung Für das Modell ener chadenverscherung se gegeben: s w s. n 4 chaden enes Verscherungsnehmers, wenn der chadenfall entrtt Wahrschenlchket dafür, dass der chadenfall

Mehr

Lineare Optimierung Dualität

Lineare Optimierung Dualität Kaptel Lneare Optmerung Dualtät D.. : (Dualtät ) Folgende Aufgaben der lnearen Optmerung heßen symmetrsch dual zuenander: und { z = c x Ax b x } max, 0 { Z b A c } mn =, 0. Folgende Aufgaben der lnearen

Mehr

2 Zufallsvariable und Verteilungen

2 Zufallsvariable und Verteilungen Zufallsvarable und Vertelungen 7 Zufallsvarable und Vertelungen Wr wollen uns jetzt mt Zufallsexpermenten beschäftgen, deren Ausgänge durch (reelle) Zahlen beschreben werden können, oder be denen man jedem

Mehr

HUMBOLDT-UNIVERSITÄT ZU BERLIN. Institut für Informatik Lehrstuhl Wissensmanagement. Textklassifikation. Tobias Scheffer Ulf Brefeld

HUMBOLDT-UNIVERSITÄT ZU BERLIN. Institut für Informatik Lehrstuhl Wissensmanagement. Textklassifikation. Tobias Scheffer Ulf Brefeld HUMBOLDTUNIVERSITÄT ZU BERLIN Insttut für Informatk Lehrstuhl Wssensmanagement Textklassfkaton Tobas Scheffer Ulf Brefeld Textklassfkaton Textklassfkator: Ordnet enen Text ener Menge von nhaltlchen Kategoren

Mehr

Lineare Regression. Stefan Keppeler. 16. Januar Mathematik I für Biologen, Geowissenschaftler und Geoökologen

Lineare Regression. Stefan Keppeler. 16. Januar Mathematik I für Biologen, Geowissenschaftler und Geoökologen Mathematk I für Bologen, Geowssenschaftler und Geoökologen 16. Januar 2012 Problemstellung Bespel Maß für Abwechung Trck Mnmum? Exponentalfunktonen Potenzfunktonen Bespel Problemstellung: Gegeben seen

Mehr

Kapitel 6. Optimale Merkmalsselektion

Kapitel 6. Optimale Merkmalsselektion Kaptel 6 Optmale Merkmalsselekton Enfaches Erkennungsbespel mt zwe Objekten (Kres und Quadrat) Es wrd angenommen, dass de Blder mt 5 5 Bldpunkte abgetastet werden. Nemand käme auf de Idee her 5 5 Bldpunkte

Mehr

1 Mehrdimensionale Analysis

1 Mehrdimensionale Analysis 1 Mehrdmensonale Analyss Bespel: De Gesamtmasse der Erde st ene Funton der Erddchte ρ Erde und des Erdradus r Erde De Gesamtmasse der Erde st dann m Erde = V Erde ρ Erde Das Volumen ener Kugel mt Radus

Mehr

3. Lineare Algebra (Teil 2)

3. Lineare Algebra (Teil 2) Mathematk I und II für Ingeneure (FB 8) Verson /704004 Lneare Algebra (Tel ) Parameterdarstellung ener Geraden Im folgenden betrachten wr Geraden m eukldschen Raum n, wobe uns hauptsächlch de Fälle n bzw

Mehr

6. Übung zur Linearen Algebra II

6. Übung zur Linearen Algebra II Unverstät Würzburg Mathematsches Insttut Prof. Dr. Peter Müller Dr. Peter Fleschmann SS 2006 30.05.2006 6. Übung zur Lnearen Algebra II Abgabe: Bs Mttwoch, 14.06.2006, 11:00 Uhr n de Brefkästen vor der

Mehr

Gesichtsfindung mit der Support Vektor Maschine

Gesichtsfindung mit der Support Vektor Maschine Praktkumsbercht Geschtsfndung mt der Support Vektor Maschne André Betz Geschtsfndung mt der Support Vektor Maschne Praktkumsbercht von André Betz Matr.-Nr.: 55359 Betreuer: Bernhard Fröba Praktkumsbercht

Mehr

Bedingte Entropie. Bedingte Entropie. Bedingte Entropie. Kapitel 4: Bedingte Entropie I(X;Y) H(X Y) H(Y) H(X) H(XY)

Bedingte Entropie. Bedingte Entropie. Bedingte Entropie. Kapitel 4: Bedingte Entropie I(X;Y) H(X Y) H(Y) H(X) H(XY) Bedngte Entrope Kaptel : Bedngte Entrope Das vorherge Theorem kann durch mehrfache Anwendung drekt verallgemenert werden H (... H ( = Ebenso kann de bedngt Entrope defnert werden Defnton: De bedngte Entrope

Mehr

Regressionsgerade. x x 1 x 2 x 3... x n y y 1 y 2 y 3... y n

Regressionsgerade. x x 1 x 2 x 3... x n y y 1 y 2 y 3... y n Regressonsgerade x x x x 3... x n y y y y 3... y n Bem Auswerten von Messrehen wrd häufg ene durch theoretsche Überlegungen nahegelegte lneare Bezehung zwschen den x- und y- Werten gesucht, d.h. ene Gerade

Mehr

Nullstellen Suchen und Optimierung

Nullstellen Suchen und Optimierung Nullstellen Suchen und Optmerung Typsche Probleme: De optmale Bahnkurve De Mnmerung des Erwartungswertes ür den Hamltonan Wr möchten ene Funkton mnmeren oder mameren solch en Problem wrd Optmerung genannt!

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 009 UNIVERSITÄT KARLSRUHE Blatt 4 Prv.-Doz. Dr. D. Kadelka Dpl.-Math. W. Lao Übungen zur Vorlesung Stochastsche Prozesse Musterlösungen Aufgabe 16: (Success Run, Fortsetzung)

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Graphsche Modelle els Landwehr Zusammenfassung Pfade Zusammenfassung: en Pfad --Y-Z- st B A E Blockert be Y, wenn Dvergerende Verbndung,

Mehr

18. Dynamisches Programmieren

18. Dynamisches Programmieren 8. Dynamsches Programmeren Dynamsche Programmerung we gerge Algorthmen ene Algorthmenmethode, um Optmerungsprobleme zu lösen. We Dvde&Conquer berechnet Dynamsche Programmerung Lösung enes Problems aus

Mehr

Übungsblatt 7 Lösungsvorschläge

Übungsblatt 7 Lösungsvorschläge Insttut für Theoretsche Informatk Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 7 Lösungsvorschläge Vorlesung Algorthmentechnk m WS 09/10 Problem 1: Mnmale Schnttbass Approxmatonsalgos relatver Gütegarante

Mehr

2.1 Einfache lineare Regression 31

2.1 Einfache lineare Regression 31 .1 Enfache lneare Regresson 31 Regressonsanalyse De Regressonsanalyse gehört zu den am häufgsten engesetzten multvaraten statstschen Auswertungsverfahren. Besonders de multple Regressonsanalyse hat große

Mehr

1 Definition und Grundbegriffe

1 Definition und Grundbegriffe 1 Defnton und Grundbegrffe Defnton: Ene Glechung n der ene unbekannte Funkton y y und deren Abletungen bs zur n-ten Ordnung auftreten heßt gewöhnlche Dfferentalglechung n-ter Ordnung Möglche Formen snd:

Mehr

Lineare Optimierung Einführung

Lineare Optimierung Einführung Kaptel Lneare Optmerung Enführung B... (Dre klasssche Anwendungen) Im Folgenden führen wr de ersten dre klassschen (zvlen) Anwendungen der lnearen Optmerung an: BS... (Produktonsplanoptmerung) En Betreb

Mehr

6. Modelle mit binären abhängigen Variablen

6. Modelle mit binären abhängigen Variablen 6. Modelle mt bnären abhänggen Varablen 6.1 Lneare Wahrschenlchketsmodelle Qualtatve Varablen: Bnäre Varablen: Dese Varablen haben genau zwe möglche Kategoren und nehmen deshalb genau zwe Werte an, nämlch

Mehr

Elemente der Mathematik - Sommer 2016

Elemente der Mathematik - Sommer 2016 Elemente der Mathematk - Sommer 2016 Prof Dr Matthas Lesch, Regula Krapf Lösungen Übungsblatt 3 Aufgabe 9 (10 Punkte) Das Horner-Schema st ene Methode zum Auswerten enes Polynoms n a0 x an der Stelle s

Mehr

Mi , Dr. Ackermann Übungsaufgaben Gewöhnliche Differentialgleichungen Serie 13

Mi , Dr. Ackermann Übungsaufgaben Gewöhnliche Differentialgleichungen Serie 13 M. 3. 5-4. 45, Dr. Ackermann 6..4 Übungsaufgaben Gewöhnlche Dfferentalglechungen Sere 3.) Bestmmung ener homogenen Dfferentalglechung zu gegebenen Funktonen y (partkuläre Lösungen) enes Fundamentalsystems.

Mehr

Statistik Exponentialfunktion

Statistik Exponentialfunktion ! " Statstk " Eponentalfunkton # $ % & ' $ ( )&* +, - +. / $ 00, 1 +, + ) Ensemble von radoaktven Atomkernen Zerfallskonstante λ [1/s] Lebensdauer τ 1/λ [s] Anzahl der pro Zetenhet zerfallenden Kerne:

Mehr

Auswertung univariater Datenmengen - deskriptiv

Auswertung univariater Datenmengen - deskriptiv Auswertung unvarater Datenmengen - desrptv Bblografe Prof. Dr. Küc; Statst, Vorlesungssrpt Abschntt 6.. Bleymüller/Gehlert/Gülcher; Statst für Wrtschaftswssenschaftler Verlag Vahlen Bleymüller/Gehlert;

Mehr

Technische Universität München Zentrum Mathematik Diskrete Optimierung: Fallstudien aus der Praxis. Das Cutting Stock-Problem

Technische Universität München Zentrum Mathematik Diskrete Optimierung: Fallstudien aus der Praxis. Das Cutting Stock-Problem 1 Problem Technsche Unverstät München Zentrum Mathematk Dskrete Optmerung: Fallstuden aus der Praxs Barbara Wlhelm Mchael Rtter Das Cuttng Stock-Problem Ene Paperfabrk produzert Paperrollen der Brete B.

Mehr

Analysis I. Vorlesung 17. Logarithmen. R R, x exp x,

Analysis I. Vorlesung 17. Logarithmen. R R, x exp x, Prof. Dr. H. Brenner Osnabrück WS 2013/2014 Analyss I Vorlesung 17 Logarthmen Satz 17.1. De reelle Exponentalfunkton R R, x exp x, st stetg und stftet ene Bjekton zwschen R und R +. Bewes. De Stetgket

Mehr

5.3.3 Relaxationsverfahren: das SOR-Verfahren

5.3.3 Relaxationsverfahren: das SOR-Verfahren 53 Iteratve Lösungsverfahren für lneare Glechungssysteme 533 Relaxatonsverfahren: das SOR-Verfahren Das vorangehende Bespel zegt, dass Jacob- sowe Gauß-Sedel-Verfahren sehr langsam konvergeren Für de Modellmatrx

Mehr

9 Komplexe Zahlen ( ) ( ) 9.1 Ziele. 9.2 Warum braucht man komplexe Zahlen? 9.3 Darstellung von komplexen Zahlen. r 2. j 2. j 1.

9 Komplexe Zahlen ( ) ( ) 9.1 Ziele. 9.2 Warum braucht man komplexe Zahlen? 9.3 Darstellung von komplexen Zahlen. r 2. j 2. j 1. Mathematk I / Komplexe Zahlen 9 Komplexe Zahlen 9. Zele Am Ende deses Kaptels hast Du ene Grundvorstellung was komplexe Zahlen snd. Du kannst se grafsch darstellen und enfache Berechnungen durchführen.

Mehr

Dynamisches Programmieren

Dynamisches Programmieren Marco Thomas - IOI 99 -. Treffen n Bonn - Dynamsches Programmeren - Unverstät Potsdam - 8.02.999 Dynamsches Programmeren 957 R. Bellmann: Dynamc Programmng für math. Optmerungsprobleme Methode für Probleme,.

Mehr

Empirische Wirtschaftsforschung

Empirische Wirtschaftsforschung Emprsche Wrtschaftsforschung Prof. Dr. Bernd Süßmuth Unverstät Lepzg Insttut für Emprsche Wrtschaftsforschung Volkswrtschaftslehre, nsbesondere Ökonometre 5. Enfaches OLS-Regressonsmodell 5.1. Herletung

Mehr

5. Gruppenübung zur Vorlesung. Höhere Mathematik 1. Wintersemester 2012/2013

5. Gruppenübung zur Vorlesung. Höhere Mathematik 1. Wintersemester 2012/2013 O. Alaya, S. Demrel M. Fetzer, B. Krnn M. Wed 5. Gruppenübung zur Vorlesung Höhere Mathematk Wntersemester /3 Dr. M. Künzer Prof. Dr. M. Stroppel Lösungshnwese zu den Hausaufgaben: Aufgabe H 6. Darstellungen

Mehr

Arbeitsgruppe Radiochemie Radiochemisches Praktikum P 06. Einführung in die Statistik. 1. Zählung von radioaktiven Zerfällen und Statistik 2

Arbeitsgruppe Radiochemie Radiochemisches Praktikum P 06. Einführung in die Statistik. 1. Zählung von radioaktiven Zerfällen und Statistik 2 ETH Arbetsgruppe Radocheme Radochemsches Praktkum P 06 Enführung n de Statstk INHALTSVERZEICHNIS Sete 1. Zählung von radoaktven Zerfällen und Statstk 2 2. Mttelwert und Varanz 2 3. Momente ener Vertelung

Mehr

Lehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Dr. Roland Füss Statistik II: Schließende Statistik SS 2007

Lehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Dr. Roland Füss Statistik II: Schließende Statistik SS 2007 Lehrstuhl für Emprsche Wrtschaftsforschung und Ökonometre Dr Roland Füss Statstk II: Schleßende Statstk SS 007 5 Mehrdmensonale Zufallsvarablen Be velen Problemstellungen st ene solerte Betrachtung enzelnen

Mehr

Seminar über Numerische Mathematik

Seminar über Numerische Mathematik Andreas Mester Semnar über Numersche Mathematk Semnar m Wntersemester 008/009 Unverstät Kassel Fachberech Mathematk Inhaltsverzechns Bezer-Kurven 1 1 Enletung 1 Der Algorthmus von de-castelau.1 Parabeln....................................

Mehr

Sei T( x ) die Tangente an den Graphen der Funktion f(x) im Punkt ( x 0, f(x 0 ) ) : T( x ) = f(x 0 ) + f (x 0 ) ( x - x 0 ).

Sei T( x ) die Tangente an den Graphen der Funktion f(x) im Punkt ( x 0, f(x 0 ) ) : T( x ) = f(x 0 ) + f (x 0 ) ( x - x 0 ). Taylorentwcklung (Approxmaton durch Polynome). Problemstellung Se T( x ) de Tangente an den Graphen der Funkton f(x) m Punkt ( x 0, f(x 0 ) ) : T( x ) = f(x 0 ) + f (x 0 ) ( x - x 0 ). Dann kann man de

Mehr

Kapitel 2: Klassifikation. Maschinelles Lernen und Neural Computation

Kapitel 2: Klassifikation. Maschinelles Lernen und Neural Computation Kaptel 2: Klassfkaton Maschnelles Lernen und Neural Computaton 28 En enfacher Fall En Feature, Hstogramme für bede Klassen (z.b. Glukosewert, Dabetes a/nen) Kene perfekte Trennung möglch Entschedung: Schwellwert

Mehr

22. Vorlesung Sommersemester

22. Vorlesung Sommersemester 22 Vorlesung Sommersemester 1 Bespel 2: Würfel mt festgehaltener Ecke In desem Fall wählt man den Koordnatenursprung n der Ecke und der Würfel st durch den Berech x = 0 a, y = 0 a und z = 0 a bestmmt De

Mehr

Daten sind in Tabellenform gegeben durch die Eingabe von FORMELN können mit diesen Daten automatisierte Berechnungen durchgeführt werden.

Daten sind in Tabellenform gegeben durch die Eingabe von FORMELN können mit diesen Daten automatisierte Berechnungen durchgeführt werden. Ene kurze Enführung n EXCEL Daten snd n Tabellenform gegeben durch de Engabe von FORMELN können mt desen Daten automatserte Berechnungen durchgeführt werden. Menüleste Symbolleste Bearbetungszele aktve

Mehr

Gruppe. Lineare Block-Codes

Gruppe. Lineare Block-Codes Thema: Lneare Block-Codes Lneare Block-Codes Zele Mt desen rechnerschen und expermentellen Übungen wrd de prnzpelle Vorgehenswese zur Kanalcoderung mt lnearen Block-Codes erarbetet. De konkrete Anwendung

Mehr

4.6 Das Pumping-Lemma für reguläre Sprachen:

4.6 Das Pumping-Lemma für reguläre Sprachen: Theoretsche Informatk 1 Vorlesungsskrpt vom Fretag, 30 Jun 000 Index: Erstellt von: (Matrkelnummer: 70899) Sete : 46 Das Pumpng-Lemma für reguläre Sprachen 1 Satz W 1 Zugrundelegende Idee des Pumpng-Lemma

Mehr

FORMELSAMMLUNG STATISTIK (I)

FORMELSAMMLUNG STATISTIK (I) Statst I / B. Zegler Formelsammlng FORMELSAMMLUG STATISTIK (I) Statstsche Formeln, Defntonen nd Erläterngen A a X n qaltatves Mermal Mermalsasprägng qanttatves Mermal Mermalswert Anzahl der statstschen

Mehr

9 Komplexe Zahlen ( ) ( ) 9.1 Ziele. 9.2 Warum braucht man komplexe Zahlen? 9.3 Darstellung von komplexen Zahlen. r 2. j 2. j 1.

9 Komplexe Zahlen ( ) ( ) 9.1 Ziele. 9.2 Warum braucht man komplexe Zahlen? 9.3 Darstellung von komplexen Zahlen. r 2. j 2. j 1. Mathematk I / Komplexe Zahlen 9 Komplexe Zahlen 9. Zele Am Ende deses Kaptels hast Du ene Grundvorstellung was komplexe Zahlen snd. Du kannst se grafsch darstellen und enfache Berechnungen durchführen.

Mehr

Aufgabe 8 (Gewinnmaximierung bei vollständiger Konkurrenz):

Aufgabe 8 (Gewinnmaximierung bei vollständiger Konkurrenz): LÖSUNG AUFGABE 8 ZUR INDUSTRIEÖKONOMIK SEITE 1 VON 6 Aufgabe 8 (Gewnnmaxmerung be vollständger Konkurrenz): Betrachtet wrd en Unternehmen, das ausschleßlch das Gut x produzert. De m Unternehmen verwendete

Mehr

Eine kurze Einführung in die Dichtefunktionaltheorie (DFT)

Eine kurze Einführung in die Dichtefunktionaltheorie (DFT) Ene kurze Enführung n de Dchtefunktonaltheore (DFT) Mchael Martns Lteratur: W. Koch, M.C. Holthausen A Chemst s Gude to Densty Functonal Theory Wley-VCH 2001 Dchtefunktonaltheore p.1 Enletung Im Falle

Mehr

Neuronale Netze. M. Gruber (1) ausgeloste Reiz ist x (1) = (1) (s (1) ) mit (1) (s) = 1 sgn(s 1 ) sgn(s 2 ) T. .

Neuronale Netze. M. Gruber (1) ausgeloste Reiz ist x (1) = (1) (s (1) ) mit (1) (s) = 1 sgn(s 1 ) sgn(s 2 ) T. . Neuronale Netze M. Gruber 7.11.015 Begnnen wr mt enem Bespel. Bespel 1 Wr konstrueren enen Klasskator auf der Menge X = [ 1; 1], dessen Wrkung man n Abb.1 rechts sehen kann. Auf der blauen Telmenge soll

Mehr

3.3 Lineare Abbildungen und Matrizen

3.3 Lineare Abbildungen und Matrizen 33 LINEARE ABBILDUNGEN UND MATRIZEN 87 33 Lneare Abbldungen und Matrzen Wr wollen jetzt de numersche Behandlung lnearer Abbldungen zwschen Vektorräumen beschreben be der vorgegebene Basen de Hauptrolle

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statstk und Wahrschenlchketsrechnung Statstk und Wahrschenlchketsrechnung 5. Vorlesung Dr. Jochen Köhler.03.0 Statstk und Wahrschenlchketsrechnung Wchtg!!! Vorlesung Do 4.03.0 HCI G3 Übung 5 D 9.03.0 Fnk

Mehr

Facility Location Games

Facility Location Games Faclty Locaton Games Semnar über Algorthmen SS 2006 Klaas Joeppen 1 Abstract Wr haben berets sehr häufg von Nash-Glechgewchten und vor allem von deren Exstenz gesprochen. Das Faclty Locaton Game betet

Mehr

Funktionsgleichungen folgende Funktionsgleichungen aus der Vorlesung erhält. = e

Funktionsgleichungen folgende Funktionsgleichungen aus der Vorlesung erhält. = e Andere Darstellungsformen für de Ausfall- bzw. Überlebens-Wahrschenlchket der Webull-Vertelung snd we folgt: Ausfallwahrschenlchket: F ( t ) Überlebenswahrschenlchket: ( t ) = R = e e t t Dabe haben de

Mehr

Vorlesung 3 Differentialgeometrie in der Physik 13

Vorlesung 3 Differentialgeometrie in der Physik 13 Vorlesung 3 Dfferentalgeometre n der Physk 13 Bemerkung. Ist M Manngfaltgket, p M und φ : U R n Karte mt p U, so nennt man U auch Koordnatenumgebung und φ auch Koordnatensystem n p. Bespel 2.4 Seen R >

Mehr

Lineare Regression - Mathematische Grundlagen

Lineare Regression - Mathematische Grundlagen FKULTÄT FÜR MTHEMTIK U TURWISSESCHFTE ISTITUT FÜR PHYSIK FCHGEBIET EXPERIMETLPHYSIK I r. rer. nat. orbert Sten, pl.-ing (FH) Helmut Barth Lneare Regresson - Mathematsche Grundlagen. llgemene Gerade Wr

Mehr

Lineare Regression (1) - Einführung I -

Lineare Regression (1) - Einführung I - Lneare Regresson (1) - Enführung I - Mttels Regressonsanalysen und kompleeren, auf Regressonsanalysen aserenden Verfahren können schenar verschedene, jedoch nenander üerführare Fragen untersucht werden:

Mehr

Übersicht der Vorlesung

Übersicht der Vorlesung Überscht der Vorlesung. Enführung. Blderarbetung. orphologsche Operatonen 4. Bldsegmenterung 5. erkmale on Objekten 6. Klassfkaton 7. Dredmensonale Bldnterpretaton 8. Bewegungsanalyse aus Bldfolgen 9.

Mehr

1 BWL 4 Tutorium V vom 15.05.02

1 BWL 4 Tutorium V vom 15.05.02 1 BWL 4 Tutorum V vom 15.05.02 1.1 Der Tlgungsfaktor Der Tlgungsfaktor st der Kehrwert des Endwertfaktors (EWF). EW F (n; ) = (1 + )n 1 T F (n; ) = 1 BWL 4 TUTORIUM V VOM 15.05.02 (1 ) n 1 Mt dem Tlgungsfaktor(TF)

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 2 Prv.-Doz. Dr. D. Kadelka Dpl.-Math. W. Lao Übungen zur Vorlesung Stochastsche Prozesse Musterlösungen Aufgabe 7: (B. Fredmans Urnenmodell)

Mehr

-70- Anhang: -Lineare Regression-

-70- Anhang: -Lineare Regression- -70- Anhang: -Lneare Regressn- Für ene Messgröße y f(x) gelte flgender mathematsche Zusammenhang: y a+ b x () In der Regel läßt sch durch enen Satz vn Messwerten (x, y ) aber kene Gerade zechnen, da de

Mehr

Die Transzendenz der Eulerschen Zahl e

Die Transzendenz der Eulerschen Zahl e De Transzendenz der Eulerschen Zahl e nach Jean-Paul Delahaye Der n [1, Seten 21-22] skzzerte Bewes der Transzendenz der Eulerschen Zahl e wrd m folgenden ausgeführt. En alternatver Bewes, der auf Ideen

Mehr

7. Andere Paradigmen. 7.1 Induktive Logik-Programmierung. 7.1 Induktive Logik-Programmierung. 7.1 Induktive Logik-Programmierung

7. Andere Paradigmen. 7.1 Induktive Logik-Programmierung. 7.1 Induktive Logik-Programmierung. 7.1 Induktive Logik-Programmierung 7. ndere Paradgmen Inhalt deses Kaptels 7. Induktve Logk-Programmerung 7. Induktve Logk-Programmerung Enführung [Muggleton & De Raedt 994] Gegeben: Menge von Fakten n ener prädkatenlogschen Sprache. Stufe

Mehr

16. Vorlesung Sommersemester

16. Vorlesung Sommersemester 16. Vorlesung Sommersemester 1 Das Egenwertproblem In allgemener Form hat das Egenwertproblem de Form A x = λ x, (1) wobe A ene n n-matrx, x en n-dmensonaler Vektor und λ der Egenwert st (n Englsch: egenvector,

Mehr

Beschreibung des Zusammenhangs zweier metrischer Merkmale. Streudiagramme Korrelationskoeffizienten Regression

Beschreibung des Zusammenhangs zweier metrischer Merkmale. Streudiagramme Korrelationskoeffizienten Regression Beschrebung des Zusammenhangs zweer metrscher Merkmale Streudagramme Korrelatonskoeffzenten Regresson Alter und Gewcht be Kndern bs 36 Monaten Knd Monate Gewcht 9 9 5 8 3 4 7.5 4 3 6 5 3 6 4 3.5 7 35 5

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB. Mathematische Grundlagen

INTELLIGENTE DATENANALYSE IN MATLAB. Mathematische Grundlagen INTELLIGENTE DATENANALYSE IN MATLAB Mathematsche Grundlagen Überblck Lneare Algebra: Vektoren, Matrzen, Analyss & Optmerung: Dstanzen, konvexe Funktonen, Lagrange-Ansatz, Stochastk: Wahrschenlchketstheore,

Mehr

Abbildung 3.1: Besetzungszahlen eines Fermigases im Grundzustand (a)) und für eine angeregte Konfiguration (b)).

Abbildung 3.1: Besetzungszahlen eines Fermigases im Grundzustand (a)) und für eine angeregte Konfiguration (b)). 44 n n F F a) b) Abbldung 3.: Besetzungszahlen enes Fermgases m Grundzustand (a)) und für ene angeregte Konfguraton (b)). 3.3 Ferm Drac Statstk In desem Abschntt wollen wr de thermodynamschen Egenschaften

Mehr

Aufgabe 1: Portfolio Selection

Aufgabe 1: Portfolio Selection Aufgabe 1: Portfolo Selecton 2 1 2 En Investor mt ener Präferenzfunkton der Form (, ) a verfügt über en 2 Anfangsvermögen n Höhe von 100 Slbermünzen. Am Markt werden de folgenden dre Wertpapere gehandelt,

Mehr

Die Leistung von Quicksort

Die Leistung von Quicksort De Lestung von Qucsort Jae Hee Lee Zusammenfassung Der Sorteralgorthmus Qucsort st als ens der effzenten Sorterverfahren beannt. In deser Ausarbetung werden wr sene Komplextät zuerst möglchst präzse schätzen

Mehr

Statistische Kennzahlen für die Lage

Statistische Kennzahlen für die Lage Statstsche Kennzahlen für de Lage Bsher: gernge Informatonsverdchtung durch Vertelungsbeschrebung Jetzt: stärere Zusammenfassung der Daten auf hr Zentrum ls Raabe: Wahrschenlchetsrechnung und Statstsche

Mehr

Flußnetzwerke - Strukturbildung in der natürlichen Umwelt -

Flußnetzwerke - Strukturbildung in der natürlichen Umwelt - Flußnetzwerke - Strukturbldung n der natürlchen Umwelt - Volkhard Nordmeer, Claus Zeger und Hans Joachm Schlchtng Unverstät - Gesamthochschule Essen Das wohl bekannteste und größte exsterende natürlche

Mehr

Näherungsverfahren. Wiederhole den Algorithmusbegriff. Erläutere die Begriffe: Klasse der NP-Probleme. Probleme. Probleme. Approximative Algorithmen

Näherungsverfahren. Wiederhole den Algorithmusbegriff. Erläutere die Begriffe: Klasse der NP-Probleme. Probleme. Probleme. Approximative Algorithmen Näherungsverfahren Wederhole den Algorthmusbegrff. Erläutere de Begrffe: Klasse der P-ProblemeP Probleme Klasse der NP-Probleme Probleme Approxmatve Algorthmen Stochastsche Algorthmen ALGORITHMEN Def.:

Mehr

Lösungen der Aufgaben zu Kapitel 2

Lösungen der Aufgaben zu Kapitel 2 Lösungen der Aufgaben zu Kaptel Abschntt 1 Aufgabe 1 Wr benutzen de Potenzrechenregeln, um ene Potenz von mt geradem Eponenten n oder mt ungeradem Eponenten n + 1 we folgt darzustellen: n n und n+1 n n

Mehr

Die mathematischen Grundlagen der Wellenmechanik

Die mathematischen Grundlagen der Wellenmechanik De mathematschen Grundlagen der Wellenmechank Zustände und deren Darstellung En physkalsches System wrd durch enen Zustand u charaktersert, ndem es durch ene bestmmte expermentelle Präparaton gebracht

Mehr

Einführung in die numerische Mathematik

Einführung in die numerische Mathematik Prof. Dr. M. Günther K. Gauslng, M.Sc. C. Hendrcks, M.Sc. Sommersemester 1 Bergsche Unverstät Wuppertal Fachberech C Mathematk und Naturwssenschaften Angewandte Mathematk / Numersche Analyss Enführung

Mehr

1.11 Beispielaufgaben

1.11 Beispielaufgaben . Bespelaufgaben Darstellung komplexer Zahlen Aufgabe. Man stelle de komplexe Zahl z = +e 5f n algebrascher Form, also als x + y dar. Damt man de Formel für de Dvson anwenden kann, muss zunächst der Nenner

Mehr

Einführung in die theoretische Physik 1

Einführung in die theoretische Physik 1 Enführung n de theoretsche hysk 1 rof. Dr. L. Mathey Denstag 15:45 16:45 und Donnerstag 10:45 12:00 Begnn: 23.10.12 Jungus 9, Hörs 2 Mathey Enführung n de theor. hysk 1 1 Grundhypothese der Thermostatk

Mehr

Hocheffiziente Antwortflächenverfahren für die probabilistische Simulation und Optimierung unter Anwendung des Gauss-Prozesses

Hocheffiziente Antwortflächenverfahren für die probabilistische Simulation und Optimierung unter Anwendung des Gauss-Prozesses In1 Hocheffzente Antwortflächenverfahren für de probablstsche mulaton und Optmerung unter Anwendung des Gauss-Prozesses Dr.-Ing. The-Quan Pham OptY e.k. Aschaffenburg Dr.-Ing. Alfred Kamusella Insttut

Mehr

Kreditrisikomodellierung und Risikogewichte im Neuen Baseler Accord

Kreditrisikomodellierung und Risikogewichte im Neuen Baseler Accord 1 Kredtrskomodellerung und Rskogewchte m Neuen Baseler Accord erschenen n: Zetschrft für das gesamte Kredtwesen (ZfgK), 54. Jahrgang, 2001, S. 1004-1005. Prvatdozent Dr. Hans Rau-Bredow, Lehrstuhl für

Mehr

Seminar Analysis und Geometrie Professor Dr. Martin Schmidt - Markus Knopf - Jörg Zentgraf. - Fixpunktsatz von Schauder -

Seminar Analysis und Geometrie Professor Dr. Martin Schmidt - Markus Knopf - Jörg Zentgraf. - Fixpunktsatz von Schauder - Unverstät Mannhem Fakultät für Mathematk und Informatk Lehrstuhl für Mathematk III Semnar Analyss und Geometre Professor Dr. Martn Schmdt - Markus Knopf - Jörg Zentgraf - Fxpunktsatz von Schauder - Ncole

Mehr

Beschreibende Statistik Mittelwert

Beschreibende Statistik Mittelwert Beschrebende Statstk Mttelwert Unter dem arthmetschen Mttel (Mttelwert) x von n Zahlen verstehen wr: x = n = x = n (x +x +...+x n ) Desen Mttelwert untersuchen wr etwas genauer.. Zege für n = 3: (x x )

Mehr

6.5. Rückgewinnung des Zeitvorgangs: Rolle der Pole und Nullstellen

6.5. Rückgewinnung des Zeitvorgangs: Rolle der Pole und Nullstellen 196 6.5. Rückgewnnung des Zetvorgangs: Rolle der Pole und Nullstellen We n 6.2. und 6.. gezegt wurde, st de Übertragungsfunkton G( enes lnearen zetnvaranten Systems mt n unabhänggen Spechern ene gebrochen

Mehr