Textklassifikation und Informationsextraktion
|
|
- Sarah Schwarz
- vor 5 Jahren
- Abrufe
Transkript
1 Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen etklassfkaton und Informatonsetrakton obas Scheffer Paul Prasse Mchael Großhans Ue Dck
2 etklassfkaton, Informatonsetrakton
3 etklassfkaton, Informatonsetrakton etklassfkaton: et Kategore Wrd.d.R. aus annoterten Daten gelernt. Anendungsbespel: Postengangsverarbetung. Informatonsetrakton: Identfkaton defnerter Felder n Dokument. Wrd.d.R. auch aus Daten gelernt. Anendungsbespel: Automatserung von Dokumentenverarbetungsprozessen. etklassfkaton: Dokument st ene Rechnung Informatonsetrakton: Feld enthält den Pres 3
4 etklassfkaton Repräsentaton Nach okenserung rd et durch Vektor repräsentert. Vektorraummodell: Vektor der Worthäufgketen für probablstsche Modelle. FIDFRepräsentaton für lneare Verfahren. Wortrehenfolge blebt unberückschtgt. Vektorraummodell mt NGrammen: Wrd für Spamerkennung verendet. Jedes NGramm durch Dmenson repräsentert, oder Sparse Bnar Polnomal Hashng oder Orthogonal Sparse NGrams. 4
5 etklassfkaton Repräsentaton Jedes NGramm durch Dmenson repräsentert, Nur NGramme, de auch tatsächlch auftreten. Sparse Bnar Polnomal Hashng Schebe Fenster der Brete N über den et. Jede elmenge von bs zu N oken Rehenfolge rd beachtet und das am etesten rechts stehende oken, blden ene Dmenson. Berechne 3bt Hashes für dese elmenge. Orthogonal Sparse Bgrams. Fenster der Brete N rd über et geschoben, Jedes Paar aus enem belebgen oken m Fenster und dem am lnken Fensterrand stehenden oken st en Merkmal. SBPH und OSB: NGramme mt Platzhaltern. 5
6 etklassfkaton Klassfkator vs. Entschedungsfunkton Für ene bnäre Klassfkaton = oder von enem Objekt rd mest ene Entschedungsfunkton f gelernt. Je größer f, desto ahrschenlcher st, dass zur Klasse gehört. Wenn f, dann entschede h =, sonst h =. Klassfkator h, Entschedungsfunkton f. Der Wert für verschebt false postves zu false negatves. Optmaler Wert hängt von Kosten ener postven oder negatven Fehlklassfkaton ab. 6
7 etklassfkaton Evaluaton Fehlklassfkatonsahrschenlchket Häufg ncht aussagekräftg, el P sehr klen. We gut snd 5% Fehler, enn P=3%? Idee: Ncht Klassfkator beerten, sondern Entschedungsfunkton. Wchtge Begrffe für de Evaluaton: Bespel: est auf HIV rue Postves P: h =, und Klasse von = rue Negatves N: h =, und Klasse von = False Postves FP: h =, und Klasse von = False Negatves FN: h =, und Klasse von = 7
8 etklassfkaton Evaluaton Precson / Recall Precson : #P #P#FP #P Recall: #P#FN PrecsonRecallKurve beertet Entschedungsfunkton, Jeder Wert für entsprcht Punkt auf PRKurve. FMeasure: Durchschntt aus Precson und Recall. FMeasure = precson recall precsonrecall Recever Operatng Characterstc ROCKurve Beertet Entschedungsfunkton, Fläche unter ROCKurve = Ppostves Bespel hat höheren fwert als negatves Bespel 8
9 etklassfkaton ROCAnalse Grundlage: Entschedungsfunkton Schellert = Klassfkator. h = Klassfkator, enn f θ, sonst. Entschedungsfunkton Großer Schellert: Mehr postve Bsp falsch. Klener Schellert: Mehr negatve Bsp falsch. Beertung der Entschedungsfunkton unabhängg vom konkreten Schellert. ROC = ReceverOperatngCharacterstcAnalse. Werkzeug zur Beertung der Qualtät von Entschedungsfunktonen. 9
10 rue Postves etklassfkaton ROCKurve Charakterseren das Verhalten des Klassfkators für alle möglchen Schellerte. XAchse: False Postves : Anzahl negatver Bespele, de als postv klassfzert erden. YAchse: rue Postves : Anzahl postver Bespele, de als postv klassfzert erden. perfekte Funkton bessere Funkton zufällges Raten False Postves 0
11 etklassfkaton Bestmmen der ROCKurve Algorthmus Für alle postven Bespele X p n estmenge Füge f p n abstegend sorterte Lste L p en. Für alle negatven Bespele X n n estmenge Füge f n n abstegend sorterte Lste L n en. Setze P = FP = 0. Wederhole solange L p und L n ncht leer snd: Wenn L p Element L n Element dann ncrementp und L p = L p Net. Wenn L n Element L p Element dann ncrementfp und L n = L n Net. Zechne neuen Punkt FP, P
12 rue Postves etklassfkaton Flächennhalt der ROCKurve Flächennhalt AUC kann durch Integreren Summeren der Flächennhalte bestmmt erden. p = zufällg gezogenes Postvbespel n = zufällg gezogenes Negatvbespel heorem: AUC = Pfp > fn. perfekte Funkton bessere Funkton zufällges Raten False Postves
13 etklassfkaton Precson und Recall Alternatve zur ROCAnalse. Stammt aus dem Informaton Retreval. rue postves Precson= rue postves False postves rue postves Recall= rue postve False negatves Precson: Prchtg als postv erkannt Recall: Pals postv erkannt st postv 3
14 etklassfkaton Precson und Recall Zusammenfassungen der Kurve n ener Zahl: Mamum FMeasure: Mamum über alle p,rpaare auf der Kurve: Precson Recall Fmeasure= Precson Recall PrecsonRecallBreakevenPont: Derjenge Wert für den glt: Precson = Recall = PRBEP. 4
15 etklassfkaton Precson und Recall: radeoff recall precson Precson/RecallKurven Welcher Klassfkator st der beste / schlechteste 5
16 etklassfkaton Bestmmen der PerformanceMaße Performance auf ranngsmenge etrem optmstscher Schätzer. Zum Schätzen der Performance Daten verenden, de ncht zum raneren verendet urden. Möglchketen: ranngundest: Verende z.b. 80% der Daten zum raneren und 0% der Daten zum Messen der ROCKurve, PRKurve, oder Fehlklassfkatonsahrschenlchket. NFoldCrossValdaton: ele Daten n N ele, ederholtes raneren mt N elen und esten auf dem restlchen el. 6
17 etklassfkaton Fehlerschätzung ranngandest Algorthmus: Auftelen der Datenbank m Datenpunkte n ranngsmenge p % der Daten m und estmenge 00 p % der Daten m. h = Klassfkator tranert auf der ranngsmenge. Bestmme Ê anhand der estmenge. h = Klassfkator tranert auf allen Daten. Lefere Hpothese h zusammen mt Fehlerschätzer Ê Ê Ê p% m ranngandest st für große Datenbanken gut anendbar. Problematsch für klene Datenbanken. 7
18 etklassfkaton NFold CrossValdaton NFold CrossValdaton Algorthmus: Blde N eta glech große Blöcke S,, S n der Datenmenge S mt S = m. Ê = 0. Für = N h = Klassfkator tranert auf Menge S\S Ê = Ê emprscher Fehler von h auf S Ê = Ê/N h = Klassfkator tranert auf Menge S. Lefere Hpothese h mt Fehlerschätzer Ê Ê Ê m Wenn S = N, hesst das Verfahren LeaveoneOut Cross Valdaton. Nur lecht pessmstscher Schätzer. 8
19 Lneare Klassfkatoren f 0 sgn f f 0 9
20 Lneare Klassfkatoren Umformulerung mt zusätzlchem, konstanten Engabeattrbut 0 =: f.. n.. n 0 f 0 sgn f 0 n 0 0 n 0.. n 0.. n = n n 0
21 Lneare Klassfkatoren Roccho : Mttelpunkt der neg. Bespele : Mttelpunkt der pos. Bespele rennebene: Normalenvektor = f 0 Zegt vom Mttelpunkt der negatven zum Mttelpunkt der postven Bespele. Bestmmung von 0 : Mttelpunkt / muss auf der Ebene legen. f / / 0 0 0
22 Lneare Klassfkatoren Roccho rennebenen hat mamalen Abstand von den Mttelpunkten der Klassen. ranngsbespele können falsch klassfzert erden. Dfferenz der Mttelerte kann schlechter Normalenvektor für Dskrmnaton sen.
23 Lneare Klassfkatoren Perzeptron Lneares Modell: Zel: f Für alle Bespele postven Bespele, : f 0 Für alle Bespele negatven Bespele, : f 0 0 n Gechtsvektor kodert. = Bespele legen auf der rchtgen Sete der Ebene. 3
24 Lneare Klassfkatoren Perzeptron Lneares Modell: Zel: Für alle Bespele mt Label : PerzeptronOptmerungskrterum für Daten L: Mamere f f J P 0, L mn,0 4
25 Scheffer/Prasse/Großhans: Sprachtechnologe Scheffer/Prasse/Großhans/Dck: Sprachtechnologe 5 Lneare Klassfkatoren Perzeptron Lneares Modell: Zel: Für alle Bespele mt Label : PerzeptronOptmerungskrterum für Daten L: Subgradent für Bespel, : 0 f f L P J,,0 mn sonst 0 enn 0, P J
26 Scheffer/Prasse/Großhans: Sprachtechnologe Scheffer/Prasse/Großhans/Dck: Sprachtechnologe 6 Lneare Klassfkatoren Perzeptron Lneares Modell: PerzeptronOptmerungskrterum: Subgradent für Bespel, : Gradentenaufsteg: Wederhole, für alle Bespele mt f L P J,,0 mn sonst 0 enn 0, P J Werden aktuell falsch klassfzert. Verschebe rennebene 0
27 Lneare Klassfkatoren PerzeptronAlgorthmus Lneares Modell: f Perzeptronranngsalgorthmus: Solange noch Bespele, mt der Hpothese nkonsstent snd L. 0, terere über alle Bespele: Wenn 0 dann. 7
28 Lneare Klassfkatoren Perzeptron Egenschaften Perzeptron fndet mmer ene rennebene, enn ene estert Optmerungskrterum st konkav. Estert mmer ene rennebene? 8
29 Lneare Klassfkatoren MargnPerzeptron PerzeptronKlassfkaton: Perzeptron: für alle Bespele muss gelten = Bespel legt auf der rchtgen Sete der Ebene. MargnPerzeptron: f 0 = Bespel mndestens von rennebene entfernt. 9
30 Lneare Klassfkatoren MargnPerzeptronAlgorthmus Lneares Modell: f MargnPerzeptronranngsalgorthmus: Solange noch Bespele, mt der Hpothese nkonsstent snd., terere über alle L Bespele: Wenn dann 30
31 Lneare Klassfkatoren MargnMamerung Perzeptron: für alle Bespele muss gelten 0 MargnPerzeptron: Fnde Ebene, de alle Bespele mndestens von Ebene entfernt. Fester, vorengestellter Wert. MargnMamerung: Fnde Ebene, de alle Bespele mndestens von Ebene entfernt. Für den größtmöglchen Wert. 3
32 Lneare Klassfkatoren MargnMamerung MargnMamerung: Fnde Ebene, de alle Bespele mndestens von Ebene entfernt. Für den größtmöglchen Wert. Mamere unter der Nebenbedngung: für alle Bespele, : = Mnmere unter der Nebenbedngung: für alle Bespele, : 3
33 Lneare Klassfkatoren MargnMamerung HardMargnMamerung: Mnmere unter der Nebenbedngungen: für alle Bespele, : SoftMargnMamerung: C Mnmere unter den Nebenbedngungen: für alle Bespele, : Alle 0. SoftMargnEbene estert mmer, HardMargnEbene ncht! Slack Margn / 33
34 Lneare Klassfkatoren SoftMargnMamerung SoftMargnMamerung: Mnmere C unter den Nebenbedngungen: für alle Bespele, : Alle 0. Ensetzen von n Optmerungskrterum ergbt Mnmere: Regularserer C ma{0, } Verlustfunkton Slack Margn / 34
35 Lneare Klassfkatoren Prmale Support Vector Machne SVM SoftMargnMamerung: Mnmere: ma{0, Mnmerung mt Gradentenverfahren. C } Krterum st konve, es gbt genau en Mnmum. Verfahren: Prmale Support Vector Machne. Margn / Slack 35
36 Lneare Klassfkatoren Prmale Support Vector Machne SVM SoftMargnMamerung: Mnmere: Mnmerung mt Gradentenverfahren. Wederhole: E H E C ma{0, } H Enthält Summe über alle Bespele 36
37 MultklassenKlassfkaton Bsher: Bnäre Klassfkaton Lneare Klassfkaton: Jetzt: MultklassenKlassfkaton Endlche Menge von KlassenLabels, Ansatz: Statt {, } arg ma sgn jetzt f, Bestmme Klasse mt höchstem Entschedungsfunktonsert sgn Y 37
38 Lernen mt strukturerten Ausgaben Klassfkaton be mehr als ze Klassen: f bekommt jetzt ze Parameter. Gemensame Merkmale von En und Ausgabe: * arg ma f, f,, Glecher Ansatz für Multklassen, Sequenz und StrukturLernen und Rankng. 38
39 Scheffer/Prasse/Großhans: Sprachtechnologe Scheffer/Prasse/Großhans/Dck: Sprachtechnologe 39 Lernen mt strukturerten Ausgaben Constrants be normaler SVM: Für alle, : Constrants mt strukturerten Ausgaben: Für alle, : und alle :,,,,
40 Scheffer/Prasse/Großhans: Sprachtechnologe Scheffer/Prasse/Großhans/Dck: Sprachtechnologe 40 Lernen mt strukturerten Ausgaben MultklassenSVM Klassfkaton be mehr als ze Klassen: MultklassenMerkmale:, arg ma * f,, f ]] [[... ]] [[, ]] [[... ]] [[ k k
41 Scheffer/Prasse/Großhans: Sprachtechnologe Scheffer/Prasse/Großhans/Dck: Sprachtechnologe 4 Lernen mt strukturerten Ausgaben MultklassenSVM Jede Klasse hat prvaten Abschntt des Gechtsvektors: ]] [[... ]] [[... ]] [[... ]] [[ ]] [[... ]] [[, k n k n n n k k k
42 Scheffer/Prasse/Großhans: Sprachtechnologe Scheffer/Prasse/Großhans/Dck: Sprachtechnologe 4 Lernen mt strukturerten Ausgaben MultklassenSVM Jede Klasse hat prvaten Abschntt des Gechtsvektors: Bespel: ]] [[ ]] [[ ]] [[, 3 3 3
43 Lernen mt strukturerten Ausgaben Klassfkaton mt aonomen Angenommen de Ähnlchketen der k Klassen snd durch ene Baumstruktur efe d gegeben: Homnn v 3 v 3 Jede Klasse entsprcht enem Pfad m Baum; =,, d. v v v Homnnae v 3 3 Gorlln Pan Homo Gorlla 43
44 Lernen mt strukturerten Ausgaben Klassfkaton mt aonomen Angenommen de Ähnlchketen der k Klassen snd durch ene Baumstruktur efe d gegeben: Homnn v 3 v v Jede Klasse entsprcht enem Pfad m Baum; =,, d. Chmpanzee = Homnnae, Homnn, Pan v 3 v Homnnae v 3 3 Gorlln Pan Homo Gorlla 44
45 Scheffer/Prasse/Großhans: Sprachtechnologe Scheffer/Prasse/Großhans/Dck: Sprachtechnologe 45 Lernen mt strukturerten Ausgaben Klassfkaton mt aonomen Klassen n Baumstruktur:, arg ma * f,, f,..., d... d ]] [[... ]] [[... ]] [[... ]] [[..., d n d d d n d v 3 3 v 3 v 3 v v v
46 Lernen mt strukturerten Ausgaben Klassfkaton mt aonomen kodert z.b. en Dokument = v, v, v 3 3 st en Pfad z.b. n enem hemenbaum Φ, = Λ = v Λ = v Λ = v Λ 3 = v 3 Λ 3 = v 3 Λ 3 = v 3 3 = v 3 v 3 v v v v
47 Lernen mt strukturerten Ausgaben Klassfkaton mt aonomen Jeder Knoten hat enen prvaten Abschntt des Gechtsvektors. Pfade telen sch Abschntte, enn se gemensame Knoten benhalten., d d d [[ ]] [[ ]] [[ k ]] [[ ]] d d d d [[ ]] d [[ ]] k d k d d d [[ k ]] d d d d n[[ k ]] k d d n... n n d k j j 47
48 Lernen mt strukturerten Ausgaben Sequentelle En/Ausgaben Z.B. Wortarterkennung: Egennamenerkennung, Informatonsetrakton: Gemensame Repräsentaton von En und Ausgabe. = Curost klls the cat. = <Noun, Verb, Determner, Noun> = Barbe meets Ken. = <Person,, Person> * arg ma f, f,, 48
49 Lernen mt strukturerten Ausgaben Sequentelle En/Ausgaben Labellabel: Attrbut für jedes Paar benachbarter Labels t und t. 4 φ 3 t, t = [[ t = Noun t = Verb ]] Curost klls the cat t φ t, t. LabelBeobachtung: t φ t, t. Gemensamer Merkmalsvektor,= t,φ 3 t, t,,φ 34 t, t,... Gechtsvektor =, 3,, 34, Attrbut für jedes Paar aus Engabe und Ausgabe. φ 34 t, t = [[ t = Noun t = cat ]] 49
50 Lernen mt strukturerten Ausgaben Sequentelle En/Ausgaben: Dekoderung Um ene Sequenz zu klassfzeren, muss * arg ma f, berechnet erden. Das argma geht über alle möglchen Sequenzen eponentell vele n der Länge. f,, summert über Merkmale benachbarter LabelPaare und Merkmale von Paaren. Mt dnamscher Programmerung kann argma n lnearer Zet berechnet erden Vterb. 50
51 Lernen mt strukturerten Ausgaben Sequentelle En/Ausgaben: Dekoderung Gemensamer Merkmalsvektor,= t,φ 3 t, t,,φ 34 t, t, Fnde argma, effzent mt ranstonsmatr A={a, } und Beobachtungsmatr B ={b t, },, {,N,V,D}: a,n V HM SVM benutzt best Vterb Dekoderung. V φ 3 t, t = [[ t = Noun φ 34 t, t = [[ t = Noun t = Verb ]] t = John ]] N N N N b,n D b,n D D D b 4,N b Curost klls the 3,N cat V V 5
52 Lernen mt strukturerten Ausgaben Bespel: POSaggng Wortarterkennung Satz = Curost klls the cat Geünscht: argma, = <N,V,Det,N> Eplzt:,<N,V,Det,N>,<N,N,N,N>,<N,V,Det,N>,<N,N,N,V>,<N,V,Det,N>,<N,N,V,N>,<N,V,Det,N>,<N,V,N,N> ZU VIELE!!! 5
53 Lernen mt strukturerten Ausgaben ranngsalgorthmus LargeMargnAnsatz: = /. mn ½ C ξ so dass " ",, ξ " ξ 0. Iteratves ranng. Negatve Constrants erden hnzugefügt, enn bem ranng Fehler auftrtt. 53
54 Lernen mt strukturerten Ausgaben ranngsalgorthmus Gegeben: L Wederhole bs alle Sequenzen korrekt vorhergesagt erden. Iterere über alle Bespele,. Bestmme arg ma Wenn,, MargnVerletzung dann füge Constrant,, dem Workng Set hnzu. Löse Optmerungsproblem für Engabe, Ausgabe, und negatve PseudoBespele orkng set. Lefere zurück.,,...,, m m, 54
55 Lernen mt strukturerten Ausgaben Ereterung: Verlustfunkton Problem: Alle Fehler glech. Oft ncht snnvoll bem Strutkurlernen. Lösung: Verlustfunkton. mn ½ C ξ so dass " ",, Δ, " ξ 0. Verlustfunkton Verlustfunkton: Bestraft falsche Vorhersage n Bezug auf das Zellabel. ξ 55
56 Lneare Klassfkatoren Logstsche Regresson SVM: großer Entschedungsfunktonsert ~ hohe Scherhet der Vorhersage. Aber: bem Lernen ncht auf korrekte Kalbrerung der Klassenahrschenlchketen optmert. f=8.3 Rsko enes Fehlers? Problem: Kene korrekt kalbrerten Entschedungsfunktonserte. Lösung: Logstsche Regresson. Logstsche Regresson: Vorhersage der Klassenahrschenlchket. 56
57 Lneare Klassfkatoren Logstsche Regresson Baes Regel: Logodd rato: P a ln p p p p p P p P p P P P P P a ep a 57
58 Scheffer/Prasse/Großhans: Sprachtechnologe Scheffer/Prasse/Großhans/Dck: Sprachtechnologe 58 Lneare Klassfkatoren Logstsche Regresson Lkelhood jeder Klasse normalvertelt, gemensame Kovaranzmatr für bede Klassen. Loggodds rato: ep / / d p 0 ln ln ep ep ln / / / / d d P P P P P P a Normalvertelung
59 Scheffer/Prasse/Großhans: Sprachtechnologe Scheffer/Prasse/Großhans/Dck: Sprachtechnologe 59 Lneare Klassfkatoren Logstsche Regresson Lkelhood jeder Klasse normalvertelt, gemensame Kovaranzmatr für bede Klassen. Loggodds rato: ep / / d p 0 ln P P a
60 Lneare Klassfkatoren Logstsche Regresson Wenn ze Klassen jeels normalvertelte Lkelhood mt derselben Kovaranzmatr haben, dann nmmt P dese Form an: P 0 ep 0 lnearer Klassfkator P 0 logstsche Funkton 60
61 Lneare Klassfkatoren Logstsche Regresson Bsher: Motvaton der Form des logstschen Klassfkatonsmodells. Falls Klassenvertelungen bekannt ären, könnten r und 0 aus, und herleten. Snd aber ncht bekannt. Vertelungsannahme muss auch ncht stmmen. Jetzt: We fnden r tatsächlch Parameter und 0? 6
62 Lneare Klassfkatoren Logstsche Regresson Pror über Parameter: Normalvertelung, ~ N[0, ]. Posteror: Verlustfunkton: N P L p, p N [[ ]] [[ ]] p E, L log p L N [[ ]]log [[ ]]log ' 6
63 Lneare Klassfkatoren Logstsche Regresson Verlustfunkton st konve und dfferenzerbar. Gradentenabsteg führt zum Mnmum. Verlustfunktonen Logstc Regresson und SVM SquaredLoss HngeLoss LogstcLoss 63
64 Fragen? 64
Textklassifikation und Informationsextraktion
Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen etklassfkaton und Informatonsetrakton obas Scheffer Peter Hader Paul Prasse Scheffer/Hader/Prasse: Scheffer/Saade: Sprachtechnologe
MehrHUMBOLDT-UNIVERSITÄT ZU BERLIN. Institut für Informatik Lehrstuhl Wissensmanagement. Textklassifikation. Tobias Scheffer Ulf Brefeld
HUMBOLDTUNIVERSITÄT ZU BERLIN Insttut für Informatk Lehrstuhl Wssensmanagement Textklassfkaton Tobas Scheffer Ulf Brefeld Textklassfkaton Textklassfkator: Ordnet enen Text ener Menge von nhaltlchen Kategoren
MehrKapitel 8: Kernel-Methoden. Maschinelles Lernen und Neural Computation
Kaptel 8: Kernel-Methoden SS 009 Maschnelles Lernen und Neural Computaton 50 Ausgangsbass: Perceptron Learnng Rule Δw y = Kf = 0Ksonst K"target" = Kf Rosenblatt (96) Input wrd dazugezählt (abgezogen),
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Graphsche Modelle els Landwehr Zusammenfassung Pfade Zusammenfassung: en Pfad --Y-Z- st B A E Blockert be Y, wenn Dvergerende Verbndung,
MehrModelle, Version Spaces, Lernen
Unverstät Potsdam Insttut ür Inormatk Lehrstuhl Maschnelles Lernen Maschnelles Lernen Modelle Verson Spaces Lernen Tobas Scheer Mchael Brückner Klasskaton Engabe: Instanz Objekt X. Können durch Attrbut-Vektoren
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen
Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Zusammenfassung: Lernprobleme, Bayes sches Lernen, Evaluerung Chrstoph Sawade/Nels Landwehr/Paul Prasse Slva Makowsk obas Scheffer Überblck
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Graphsche Modelle els Landwehr Überblck Graphsche Modelle: Syntax und Semantk Graphsche Modelle m Maschnellen Lernen Inferenz n Graphschen
MehrBedingte Entropie. Bedingte Entropie. Bedingte Entropie. Kapitel 4: Bedingte Entropie I(X;Y) H(X Y) H(Y) H(X) H(XY)
Bedngte Entrope Kaptel : Bedngte Entrope Das vorherge Theorem kann durch mehrfache Anwendung drekt verallgemenert werden H (... H ( = Ebenso kann de bedngt Entrope defnert werden Defnton: De bedngte Entrope
MehrInformatik II. Minimalpolynome und Implikanten. Minimalpolynome. Minimalpolynome. Rainer Schrader. 27. Oktober Was bisher geschah: Definition
Informatk II Raner Schrader und Implkanten Zentrum für Angewandte Informatk Köln 27. Oktober 2005 1 / 28 2 / 28 Was bsher geschah: jede Boolesche Funkton kann durch enfache Grundfunktonen dargestellt werden
MehrDaten sind in Tabellenform gegeben durch die Eingabe von FORMELN können mit diesen Daten automatisierte Berechnungen durchgeführt werden.
Ene kurze Enführung n EXCEL Daten snd n Tabellenform gegeben durch de Engabe von FORMELN können mt desen Daten automatserte Berechnungen durchgeführt werden. Menüleste Symbolleste Bearbetungszele aktve
MehrDie Annäherung der Binomialverteilung durch die Normalverteilung am Beispiel eines Modells der Schadenversicherung
am Bespel enes Modells der chadenverscherung Für das Modell ener chadenverscherung se gegeben: s w s. n 4 chaden enes Verscherungsnehmers, wenn der chadenfall entrtt Wahrschenlchket dafür, dass der chadenfall
MehrTextklassifikation, Informationsextraktion
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Textklassifikation, Informationsextraktion Tobias Scheffer Thomas Vanck Textklassifikation, Informationsextraktion 2 Textklassifikation,
MehrKlassifikation mit dem Perceptron von Rosenblatt. Vom Perceptron zum Multilagen-Perceptron. Error-Backpropagation Lernregel
Neuronale Verfahren zur Funktonsaromaton Klassfkaton mt em Percetron von Rosenblatt Vom Percetron zum Multlagen-Percetron Error-Backroagaton ernregel Raale Bassfunktonen-Netze PD Dr Martn Stetter, Semens
MehrModelle, Version Spaces, Lernen
Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Maschnelles Lernen Modelle, Verson Spaces, Lernen Chrstoph Sawade/Nels Landwehr Domnk Lahmann Tobas Scheffer Überblck Problemstellungen:
MehrModelle, Version Spaces, Lernen
Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Maschnelles Lernen Modelle, Verson Spaces, Lernen Chrstoph Sawade/Nels Landwehr Slva Makowsk Tobas Scheffer Überblck Problemstellungen:
MehrNäherungsverfahren. Wiederhole den Algorithmusbegriff. Erläutere die Begriffe: Klasse der NP-Probleme. Probleme. Probleme. Approximative Algorithmen
Näherungsverfahren Wederhole den Algorthmusbegrff. Erläutere de Begrffe: Klasse der P-ProblemeP Probleme Klasse der NP-Probleme Probleme Approxmatve Algorthmen Stochastsche Algorthmen ALGORITHMEN Def.:
MehrBayessches Lernen (3)
Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Bayessches Lernen (3) Chrstoph Sawade/Nels Landwehr Jules Rasetaharson Tobas Scheffer Überblck Wahrschenlchketen, Erwartungswerte, Varanz
MehrKapitel 7: Ensemble Methoden. Maschinelles Lernen und Neural Computation
Kaptel 7: Ensemble Methoden 133 Komtees Mehrere Netze haben bessere Performanz als enzelne Enfachstes Bespel: Komtee von Netzen aus der n-fachen Kreuzvalderung (verrngert Varanz) De Computatonal Learnng
MehrStreuungs-, Schiefe und Wölbungsmaße
aptel IV Streuungs-, Schefe und Wölbungsmaße B... Lagemaße von äufgketsvertelungen geben allen weng Auskunft über ene äufgketsvertelung. Se beschreben zwar en Zentrum deser Vertelung, geben aber kenen
MehrStützvektormethode (SVM) Erinnerung: Funktionslernen. Beispiel: Funktionenlernen. Reale Beispiele
technsche unverstät Fakultät für Inforatk technsche unverstät Fakultät für Inforatk Stützvektorethode (SVM) Maxeren der Brete ener separerenden Hyperebene axu argn ethod Transforaton des Datenraus durch
MehrInformation Retrieval: Grundlagen & Modellierung
HUMBOLDT-UNIVERSITÄT ZU BERLIN Insttut für Informatk Lehrstuhl Wssensmanagement Informaton Retreval: Grundlagen & Modellerung Tobas Scheffer Ulf Brefeld Informaton Retreval Repräsentaton, Specherung, Zugrff
Mehr18. Dynamisches Programmieren
8. Dynamsches Programmeren Dynamsche Programmerung we gerge Algorthmen ene Algorthmenmethode, um Optmerungsprobleme zu lösen. We Dvde&Conquer berechnet Dynamsche Programmerung Lösung enes Problems aus
MehrGrundgedanke der Regressionsanalyse
Grundgedanke der Regressonsanalse Bsher wurden durch Koeffzenten de Stärke von Zusammenhängen beschreben Mt der Regressonsrechnung können für ntervallskalerte Varablen darüber hnaus Modelle geschätzt werden
MehrKapitel 4: Unsicherheit in der Modellierung Modellierung von Unsicherheit. Machine Learning in der Medizin 104
Kaptel 4: Unscherhet n der Modellerung Modellerung von Unscherhet Machne Learnng n der Medzn 104 Regresson Modellerung des Datengenerators: Dchteschätzung der gesamten Vertelung, t pt p p Lkelhood: L n
Mehr6. Übung zur Linearen Algebra II
Unverstät Würzburg Mathematsches Insttut Prof. Dr. Peter Müller Dr. Peter Fleschmann SS 2006 30.05.2006 6. Übung zur Lnearen Algebra II Abgabe: Bs Mttwoch, 14.06.2006, 11:00 Uhr n de Brefkästen vor der
MehrDynamisches Programmieren
Marco Thomas - IOI 99 -. Treffen n Bonn - Dynamsches Programmeren - Unverstät Potsdam - 8.02.999 Dynamsches Programmeren 957 R. Bellmann: Dynamc Programmng für math. Optmerungsprobleme Methode für Probleme,.
MehrSortieren. Thomas Röfer. Permutationen Naives Sortieren Sortieren durch Einfügen, Auswählen, Vertauschen, Mischen QuickSort Comparator
Unverstät Bremen Sorteren Thomas Röfer Permutatonen Naves Sorteren Sorteren durch Enfügen, Auswählen, Vertauschen, Mschen QuckSort Comparator Unverstät Bremen Rückblck Suchen Identtät/Flache/Tefe Glechhet
MehrKapitel 2: Klassifikation. Maschinelles Lernen und Neural Computation
Kaptel 2: Klassfkaton Maschnelles Lernen und Neural Computaton 28 En enfacher Fall En Feature, Hstogramme für bede Klassen (z.b. Glukosewert, Dabetes a/nen) Kene perfekte Trennung möglch Entschedung: Schwellwert
MehrDefinition des linearen Korrelationskoeffizienten
Defnton des lnearen Korrelatonskoeffzenten r xy x y y r x xy y 1 x x y y x Der Korrelatonskoeffzent st en Indkator dafür, we gut de Punkte (X,Y) zu ener Geraden passen. Sen Wert legt zwschen -1 und +1.
MehrMaschinelles Lernen (Zusammenfassung)
Unverstät Potsdam Insttut für Informatk Lehrstuhl (Zusammenfassung) Chrstoph Sawade /Nels Landwehr/Paul Prasse Domnk Lahmann Tobas Scheffer Überblck Lernprobleme Entschedungsbäume Bayes sches Lernen Lneare
MehrSortieren. Thomas Röfer. Permutationen Naives Sortieren Sortieren durch Einfügen, Auswählen, Vertauschen, Mischen QuickSort Comparator
Unverstät Bremen Sorteren Thomas Röfer Permutatonen Naves Sorteren Sorteren durch Enfügen, Auswählen, Vertauschen, Mschen QuckSort Comparator Unverstät Bremen Rückblck Suchen Identtät/Flache/Tefe Glechhet
Mehr14 Schätzmethoden. Eigenschaften von Schätzungen ˆθ. Sei ˆθ n eine Schätzung eines Parameters θ, die auf n Beobachtungen beruht.
14 Schätzmethoden Egenschaften von Schätzungen ˆθ Se ˆθ n ene Schätzung enes Parameters θ, de auf n Beobachtungen beruht. ˆθn n θ Konsstenz (Mnmalforderung) Eˆθ n = θ Erwartungstreue Eˆθ n n θ Asymptotsche
MehrSpiele und Codes. Rafael Mechtel
Spele und Codes Rafael Mechtel Koderungstheore Worum es geht Über enen Kanal werden Informatonen Übertragen. De Informatonen werden dabe n Worte über enem Alphabet Q übertragen, d.h. als Tupel w = (w,,
MehrFallstudie 1 Diskrete Verteilungen Abgabe: Aufgabentext und Lösungen schriftlich bis zum
Abgabe: Aufgabentext und Lösungen schrftlch bs zum 15. 6. 2012 I. Thema: Zehen mt und ohne Zurücklegen Lesen Se sch zunächst folgenden Text durch! Wr haben bsher Stchprobenzehungen aus Grundgesamtheten
MehrMultilineare Algebra und ihre Anwendungen. Nr. 6: Normalformen. Verfasser: Yee Song Ko Adrian Jenni Rebecca Huber Damian Hodel
ultlneare Algebra und hre Anwendungen Nr. : Normalformen Verfasser: Yee Song Ko Adran Jenn Rebecca Huber Daman Hodel 9.5.7 - - ultlneare Algebra und hre Anwendungen Jordan sche Normalform Allgemene heore
MehrFacility Location Games
Faclty Locaton Games Semnar über Algorthmen SS 2006 Klaas Joeppen 1 Abstract Wr haben berets sehr häufg von Nash-Glechgewchten und vor allem von deren Exstenz gesprochen. Das Faclty Locaton Game betet
MehrSequential minimal optimization: A fast Algorithm for Training Support Vector machines
Sequental mnmal optmzaton: A fast Algorthm for Tranng Support Vector machnes By John C. Platt (998) Referat von Joerg Ntschke Fall der ncht-trennbaren Tranngs-Daten (/) In der Realtät kommen lnear ncht-trennbare
MehrLineare Optimierung Dualität
Kaptel Lneare Optmerung Dualtät D.. : (Dualtät ) Folgende Aufgaben der lnearen Optmerung heßen symmetrsch dual zuenander: und { z = c x Ax b x } max, 0 { Z b A c } mn =, 0. Folgende Aufgaben der lnearen
MehrResultate / "states of nature" / mögliche Zustände / möglicheentwicklungen
Pay-off-Matrzen und Entschedung unter Rsko Es stehen verschedene Alternatven (Strategen) zur Wahl. Jede Stratege führt zu bestmmten Resultaten (outcomes). Man schätzt dese Resultate für jede Stratege und
MehrLineare Regression (1) - Einführung I -
Lneare Regresson (1) - Enführung I - Mttels Regressonsanalysen und kompleeren, auf Regressonsanalysen aserenden Verfahren können schenar verschedene, jedoch nenander üerführare Fragen untersucht werden:
MehrDie Leistung von Quicksort
De Lestung von Qucsort Jae Hee Lee Zusammenfassung Der Sorteralgorthmus Qucsort st als ens der effzenten Sorterverfahren beannt. In deser Ausarbetung werden wr sene Komplextät zuerst möglchst präzse schätzen
MehrRegressionsgerade. x x 1 x 2 x 3... x n y y 1 y 2 y 3... y n
Regressonsgerade x x x x 3... x n y y y y 3... y n Bem Auswerten von Messrehen wrd häufg ene durch theoretsche Überlegungen nahegelegte lneare Bezehung zwschen den x- und y- Werten gesucht, d.h. ene Gerade
MehrRotation (2. Versuch)
Rotaton 2. Versuch Bekannt snd berets Vektorfelder be denen das Lnenntegral über ene geschlossene Kurve Null wrd Stchworte: konservatve Kraft Potentalfelder Gradentenfeld. Es gbt auch Vektorfelder be denen
MehrLineare Regression. Stefan Keppeler. 16. Januar Mathematik I für Biologen, Geowissenschaftler und Geoökologen
Mathematk I für Bologen, Geowssenschaftler und Geoökologen 16. Januar 2012 Problemstellung Bespel Maß für Abwechung Trck Mnmum? Exponentalfunktonen Potenzfunktonen Bespel Problemstellung: Gegeben seen
MehrKonkave und Konvexe Funktionen
Konkave und Konvexe Funktonen Auch wenn es n der Wrtschaftstheore mest ncht möglch st, de Form enes funktonalen Zusammenhangs explzt anzugeben, so kann man doch n velen Stuatonen de Klasse der n Frage
MehrBeispiel: Textklassifikation
Bespel: Textklassfkaton To: ruepng@ls8.cs.undortmund.de Subject: Astonshng Guaranteed XXX Pctures FREE! Gao In the next mnutes you are gong to learn how to get access to totally FREE xxx pctures. Let me
MehrFunktionsgleichungen folgende Funktionsgleichungen aus der Vorlesung erhält. = e
Andere Darstellungsformen für de Ausfall- bzw. Überlebens-Wahrschenlchket der Webull-Vertelung snd we folgt: Ausfallwahrschenlchket: F ( t ) Überlebenswahrschenlchket: ( t ) = R = e e t t Dabe haben de
Mehr(Theoretische) Konfidenzintervalle für die beobachteten Werte: Die Standardabweichung des Messfehlers wird Standardmessfehler genannt:
(Theoretsche Konfdenzntervalle für de beobachteten Werte: De Standardabwechung des Messfehlers wrd Standardmessfehler genannt: ( ε ( 1- REL( Mt Hlfe der Tschebyscheff schen Unglechung lassen sch be bekanntem
MehrMathematische und statistische Methoden II
Methodenlehre e e Prof. Dr. G. Menhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzet nach Verenbarung und nach der Vorlesung. Mathematsche und statstsche Methoden II Dr. Malte Perske perske@un-manz.de
MehrStützvektormethode (SVM)
Stützvektorethode (SVM) Maeren der Brete ener separerenden Hperebene au argn ethod Transforaton des Datenraus durh Kernfunkton Strukturelle Rskonerung Vladr Vapnk The Nature of Statstal Learnng Theor Sprnger
Mehrbinäre Suchbäume Informatik I 6. Kapitel binäre Suchbäume binäre Suchbäume Rainer Schrader 4. Juni 2008 O(n) im worst-case Wir haben bisher behandelt:
Informatk I 6. Kaptel Raner Schrader Zentrum für Angewandte Informatk Köln 4. Jun 008 Wr haben bsher behandelt: Suchen n Lsten (lnear und verkettet) Suchen mttels Hashfunktonen jewels unter der Annahme,
Mehre dt (Gaußsches Fehlerintegral)
Das Gaußsche Fehlerntegral Φ Ac 5-8 Das Gaußsche Fehlerntegral Φ st denert als das Integral über der Standard-Normalvertelung j( ) = -,5 n den Grenzen bs, also F,5 t ( ) = - e dt (Gaußsches Fehlerntegral)
Mehr5. Gruppenübung zur Vorlesung. Höhere Mathematik 1. Wintersemester 2012/2013
O. Alaya, S. Demrel M. Fetzer, B. Krnn M. Wed 5. Gruppenübung zur Vorlesung Höhere Mathematk Wntersemester /3 Dr. M. Künzer Prof. Dr. M. Stroppel Lösungshnwese zu den Hausaufgaben: Aufgabe H 6. Darstellungen
MehrStandardnormalverteilung / z-transformation
Standardnormalvertelung / -Transformaton Unter den unendlch velen Normalvertelungen gbt es ene Normalvertelung, de sch dadurch ausgeechnet st, dass se enen Erwartungswert von µ 0 und ene Streuung von σ
MehrAnalysis I. Vorlesung 17. Logarithmen. R R, x exp x,
Prof. Dr. H. Brenner Osnabrück WS 2013/2014 Analyss I Vorlesung 17 Logarthmen Satz 17.1. De reelle Exponentalfunkton R R, x exp x, st stetg und stftet ene Bjekton zwschen R und R +. Bewes. De Stetgket
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 009 UNIVERSITÄT KARLSRUHE Blatt 4 Prv.-Doz. Dr. D. Kadelka Dpl.-Math. W. Lao Übungen zur Vorlesung Stochastsche Prozesse Musterlösungen Aufgabe 16: (Success Run, Fortsetzung)
Mehr5 Gemischte Verallgemeinerte Lineare Modelle
5 Gemschte Verallgemenerte Lneare Modelle Wr betrachten zunächst enge allgemene Aussagen für Gemschte Verallgemenerte Lneare Modelle. Se y der beobachtbare Zufallsvektor und u der Vektor der ncht-beobachtbaren
MehrSei T( x ) die Tangente an den Graphen der Funktion f(x) im Punkt ( x 0, f(x 0 ) ) : T( x ) = f(x 0 ) + f (x 0 ) ( x - x 0 ).
Taylorentwcklung (Approxmaton durch Polynome). Problemstellung Se T( x ) de Tangente an den Graphen der Funkton f(x) m Punkt ( x 0, f(x 0 ) ) : T( x ) = f(x 0 ) + f (x 0 ) ( x - x 0 ). Dann kann man de
MehrÜbung zur Vorlesung - Theorien Psychometrischer Tests II
Übung zur Vorlesung - Theoren Psychometrscher Tests II N. Rose 9. Übung (15.01.2009) Agenda Agenda 3-parametrsches logstsches Modell nach Brnbaum Lnkfunktonen 3PL-Modell nach Brnbaum Modellglechung ( =
Mehrnonparametrische Tests werden auch verteilungsfreie Tests genannt, da sie keine spezielle Verteilung der Daten in der Population voraussetzen
arametrsche vs. nonparametrsche Testverfahren Verfahren zur Analyse nomnalskalerten Daten Thomas Schäfer SS 009 1 arametrsche vs. nonparametrsche Testverfahren nonparametrsche Tests werden auch vertelungsfree
MehrÜbungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Lösungen. Übungsklausur Wahrscheinlichkeit und Regression Die Lösungen
Übungsklausur Wahrschenlchket und Regresson De Lösungen. Welche der folgenden Aussagen treffen auf en Zufallsexperment zu? a) En Zufallsexperment st en emprsches Phänomen, das n stochastschen Modellen
MehrModelle, Version Spaces, Lernen
Unverstät Potsdam Insttut für Informatk Lehrstuhl Maschnelles Lernen Maschnelles Lernen Modelle, Verson Spaces, Lernen Chrstoph Sawade/Nels Landwehr Jules Rasetaharson Tobas Scheffer Überblck Problemstellungen:
MehrArbeitsgruppe Radiochemie Radiochemisches Praktikum P 06. Einführung in die Statistik. 1. Zählung von radioaktiven Zerfällen und Statistik 2
ETH Arbetsgruppe Radocheme Radochemsches Praktkum P 06 Enführung n de Statstk INHALTSVERZEICHNIS Sete 1. Zählung von radoaktven Zerfällen und Statstk 2 2. Mttelwert und Varanz 2 3. Momente ener Vertelung
MehrTechnische Universität München Zentrum Mathematik Diskrete Optimierung: Fallstudien aus der Praxis. Das Cutting Stock-Problem
1 Problem Technsche Unverstät München Zentrum Mathematk Dskrete Optmerung: Fallstuden aus der Praxs Barbara Wlhelm Mchael Rtter Das Cuttng Stock-Problem Ene Paperfabrk produzert Paperrollen der Brete B.
MehrBeschreibung des Zusammenhangs zweier metrischer Merkmale. Streudiagramme Korrelationskoeffizienten Regression
Beschrebung des Zusammenhangs zweer metrscher Merkmale Streudagramme Korrelatonskoeffzenten Regresson Alter und Gewcht be Kndern bs 36 Monaten Knd Monate Gewcht 9 9 5 8 3 4 7.5 4 3 6 5 3 6 4 3.5 7 35 5
Mehr1 Finanzmathematik. 1.1 Das Modell. Sei Xt
1.1 Das Modell Se Xt der Pres enes Assets zur Zet t und X = X ) 1 d der Rd +-dmensonale Presprozess. Das Geld kann auch zu dem rskolosen Znssatz r be ener Bank angelegt werden. Der Wert deser Anlage wrd
Mehr-70- Anhang: -Lineare Regression-
-70- Anhang: -Lneare Regressn- Für ene Messgröße y f(x) gelte flgender mathematsche Zusammenhang: y a+ b x () In der Regel läßt sch durch enen Satz vn Messwerten (x, y ) aber kene Gerade zechnen, da de
MehrMultivariate Analysemethoden
Multvarate Analysemethoden q-q-plot Methode zur Prüfung der Multvaraten Normalvertelung Günter Menhardt Johannes Gutenberg Unverstät Manz Prüfung der NV-Annahme Vertelungsanpassung/Prüfung Prüfung der
MehrÜbungsblatt 7 Lösungsvorschläge
Insttut für Theoretsche Informatk Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 7 Lösungsvorschläge Vorlesung Algorthmentechnk m WS 09/10 Problem 1: Mnmale Schnttbass Approxmatonsalgos relatver Gütegarante
MehrDatenaufbereitung und -darstellung III
Datenafberetng nd Darstellng 1 Glederng: Zel der Datenafberetng nd Darstellng Datenverdchtng Tabellen nd grafsche Darstellngen Darstellng nvarater Datenmengen (Abschntt 4.4 Darstellng mltvarater Daten
MehrDiskrete Logarithmen. Teil II
Dskrete Logarthmen Ron-Gerrt Vahle Hendrk Radke Unverstät Potsdam Insttut für Informatk Semnar Kryptographe SS2005 Tel II Glederung Pohlg-Hellman Index-Calculus Theoretsche Grenzen Endlche Körper Eplog
MehrINTELLIGENTE DATENANALYSE IN MATLAB
INTELLIGENTE DATENANALYSE IN MATLAB Collaboratve Flterng Lteratur Benjamn Marln: Collaboratve Flterng A Machne Learnng Perspectve. Thomas Hofmann: Collaboratve Flterng wth P Prvacy va Factor Analyss. Robert
MehrLösungen zum 3. Aufgabenblock
Lösungen zum 3. Aufgabenblock 3. Aufgabenblock ewerber haben n enem Test zur sozalen Kompetenz folgende ntervallskalerte Werte erhalten: 96 131 11 1 85 113 91 73 7 a) Zegen Se für desen Datensatz, dass
Mehr4. Musterlösung. Problem 1: Kreuzende Schnitte **
Unverstät Karlsruhe Algorthmentechnk Fakultät für Informatk WS 05/06 ITI Wagner 4. Musterlösung Problem 1: Kreuzende Schntte ** Zwe Schntte (S, V \ S) und (T, V \ T ) n enem Graph G = (V, E) kreuzen sch,
MehrVorlesung 3 Differentialgeometrie in der Physik 13
Vorlesung 3 Dfferentalgeometre n der Physk 13 Bemerkung. Ist M Manngfaltgket, p M und φ : U R n Karte mt p U, so nennt man U auch Koordnatenumgebung und φ auch Koordnatensystem n p. Bespel 2.4 Seen R >
MehrNullstellen Suchen und Optimierung
Nullstellen Suchen und Optmerung Typsche Probleme: De optmale Bahnkurve De Mnmerung des Erwartungswertes ür den Hamltonan Wr möchten ene Funkton mnmeren oder mameren solch en Problem wrd Optmerung genannt!
MehrÜbersicht der Vorlesung
Überscht der Vorlesung. Enführung. Bldverarbetung 3. Morphologsche Operatonen 4. Bldsegmenterung 5. Merkmale von Objekten 6. Klassfkaton 7. Dredmensonale Bldnterpretaton 8. Bewegungsanalyse aus Bldfolgen
Mehr9 Komplexe Zahlen ( ) ( ) 9.1 Ziele. 9.2 Warum braucht man komplexe Zahlen? 9.3 Darstellung von komplexen Zahlen. r 2. j 2. j 1.
Mathematk I / Komplexe Zahlen 9 Komplexe Zahlen 9. Zele Am Ende deses Kaptels hast Du ene Grundvorstellung was komplexe Zahlen snd. Du kannst se grafsch darstellen und enfache Berechnungen durchführen.
MehrAufgabe 8 (Gewinnmaximierung bei vollständiger Konkurrenz):
LÖSUNG AUFGABE 8 ZUR INDUSTRIEÖKONOMIK SEITE 1 VON 6 Aufgabe 8 (Gewnnmaxmerung be vollständger Konkurrenz): Betrachtet wrd en Unternehmen, das ausschleßlch das Gut x produzert. De m Unternehmen verwendete
MehrAuswertung von Umfragen und Experimenten. Umgang mit Statistiken in Maturaarbeiten Realisierung der Auswertung mit Excel 07
Auswertung von Umfragen und Expermenten Umgang mt Statstken n Maturaarbeten Realserung der Auswertung mt Excel 07 3.Auflage Dese Broschüre hlft bem Verfassen und Betreuen von Maturaarbeten. De 3.Auflage
MehrGauss sche Fehlerrrechnung
Gauss sche Fehlerrrechnung T. Ihn 24. Oktober 206 Inhaltsverzechns Modell und Lkelhood 2 Alle Standardabwechungen σ snd bekannt, bzw. de Kovaranzmatrx der Daten st bekannt: Mnmeren der χ 2 -Funkton. 6
MehrLineare Optimierung Einführung
Kaptel Lneare Optmerung Enführung B... (Dre klasssche Anwendungen) Im Folgenden führen wr de ersten dre klassschen (zvlen) Anwendungen der lnearen Optmerung an: BS... (Produktonsplanoptmerung) En Betreb
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 2 Prv.-Doz. Dr. D. Kadelka Dpl.-Math. W. Lao Übungen zur Vorlesung Stochastsche Prozesse Musterlösungen Aufgabe 7: (B. Fredmans Urnenmodell)
MehrMi , Dr. Ackermann Übungsaufgaben Gewöhnliche Differentialgleichungen Serie 13
M. 3. 5-4. 45, Dr. Ackermann 6..4 Übungsaufgaben Gewöhnlche Dfferentalglechungen Sere 3.) Bestmmung ener homogenen Dfferentalglechung zu gegebenen Funktonen y (partkuläre Lösungen) enes Fundamentalsystems.
MehrFachbereich Mathematik Prof. K. Grosse-Brauckmann D. Frisch WS 2007/08 10./ Gruppenübung
Fachberech Mathematk Prof. K. Grosse-Brauckmann D. Frsch WS 27/8./.. 6. Übungsblatt zur Lnearen Algebra für Physker Gruppenübung Aufgabe G7 (Kern, Bld, Rang und Orthogonaltät) Gegeben se ene lneare Abbldung
Mehr9 Komplexe Zahlen ( ) ( ) 9.1 Ziele. 9.2 Warum braucht man komplexe Zahlen? 9.3 Darstellung von komplexen Zahlen. r 2. j 2. j 1.
Mathematk I / Komplexe Zahlen 9 Komplexe Zahlen 9. Zele Am Ende deses Kaptels hast Du ene Grundvorstellung was komplexe Zahlen snd. Du kannst se grafsch darstellen und enfache Berechnungen durchführen.
MehrTeil XIV. Lösung linearer Gleichungssysteme. Scientific Computing in Computer Science, Technische Universität München
Tel XIV Lösung lnearer Glechungssysteme IN8008, Wntersemester 010/011 89 Gauss Algorthmus Zwe Schrtte: Vorwärtselmnaton und Rückwärtssubsttuton Vorwärtselmnaton Erzeugen ener Stufenform Zelen dürfen mt
MehrBeschreibende Statistik Mittelwert
Beschrebende Statstk Mttelwert Unter dem arthmetschen Mttel (Mttelwert) x von n Zahlen verstehen wr: x = n = x = n (x +x +...+x n ) Desen Mttelwert untersuchen wr etwas genauer.. Zege für n = 3: (x x )
MehrDiskrete Mathematik 1 WS 2008/09
Ruhr-Unverstät Bochum Lehrstuhl für Kryptologe und IT-Scherhet Prof. Dr. Alexander May M. Rtzenhofen, M. Mansour Al Sawad, A. Meurer Lösungsblatt zur Vorlesung Dskrete Mathematk 1 WS 2008/09 Blatt 7 /
Mehr3. Lineare Algebra (Teil 2)
Mathematk I und II für Ingeneure (FB 8) Verson /704004 Lneare Algebra (Tel ) Parameterdarstellung ener Geraden Im folgenden betrachten wr Geraden m eukldschen Raum n, wobe uns hauptsächlch de Fälle n bzw
MehrGrundlagen der Technischen Informatik. 12. Übung. Christian Knell Keine Garantie für Korrekt-/Vollständigkeit
Grundlagen der Technschen Informatk 12. Übung Chrstan Knell Kene Garante für Korrekt-/Vollständgket 12. Übungsblatt Themen Aufgabe 1: Aufgabe 2: Aufgabe 3: Komparator Adderer/Subtraherer Mehr-Operanden-Adderer
Mehr2.1 Einfache lineare Regression 31
.1 Enfache lneare Regresson 31 Regressonsanalyse De Regressonsanalyse gehört zu den am häufgsten engesetzten multvaraten statstschen Auswertungsverfahren. Besonders de multple Regressonsanalyse hat große
MehrProf. Dr. P. Kischka WS 2012/13 Lehrstuhl für Wirtschafts- und Sozialstatistik. Klausur Statistische Inferenz
Prof. Dr. P. Kschka WS 2012/13 Lehrstuhl für Wrtschafts- und Sozalstatstk Klausur Statstsche Inferenz 15.02.2013 Name: Matrkelnummer: Studengang: Aufgabe 1 2 3 4 5 6 7 8 Summe Punkte 6 5 5 5 5 4 4 6 40
Mehr50 Matrixnormen und Eigenwertabschätzungen
50 Matrxnormen und Egenwertabschätzungen 501 Motvaton De Berechnung der Egenwerte ener Matrx st aufwändg (vgl Kaptel 45, Kaptel 51) Kann man de Egenwerte ener Matrx mt gerngem Aufwand abschätzen? Des spelt
MehrSind die nachfolgenden Aussagen richtig oder falsch? (1 Punkt pro korrekter Beantwortung)
LÖSUNG KLAUSUR STATISTIK I Berufsbegletender Studengang Betrebswrtschaftslehre Sommersemester 016 Aufgabentel I: Theore (10 Punkte) Snd de nachfolgenden Aussagen rchtg oder falsch? (1 Punkt pro korrekter
Mehr