Merkmalsequenzen in der Mustererkennung

Größe: px
Ab Seite anzeigen:

Download "Merkmalsequenzen in der Mustererkennung"

Transkript

1 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg Merkmalsequenzen in der Mustererkennung Dynamic Time Warping-Techniken am Beispiel der On-line Handschrifterkennung Claus Bahlmann Institut für Informatik Albert-Ludwigs-Universität Freiburg 23. Januar 2003

2 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg Überblick Einführung Handschrifterkennung Daten- / Merkmalgewinnung in der on-line Handschrifterkennung Dynamic time warping (DTW) Distanz für Merkmalsequenzen Klassifikationstechniken für Merkmalsequenzen Generative Klassifikation CSDTW Cluster generative SDTW Diskriminative Klassifikation SVM-GDTW ein Gauss-DTW-Kern für Support-Vektor-Maschinen (SVM) Anwendung frog on hand CSDTW

3 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 2 Handschrifterkennung Definition Transformation einer Sprache, welche in räumlicher Form von grafischen Markierungen vorliegt, in eine symbolische Repräsentation (Plamondon und Srihari, 2000) [8]

4 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 3 Handschrifterkennung Disziplinen Off-line On-line Erkennungszeitpunkt: nach dem Schreiben während des Schreibens Digitalisierung: Scannen des Bildes Abtasten der Stiftbewegung Datenrepräsentation: 2D-Bild D-Zeitsequenz von 2D-Ortskoordinaten Beispielanwendung: Prozeß- Automatisierung bei Post, Bank, Pen-Computing (PDA, Tablet PC, )

5 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 4 On-line Handschrifterkennung Datengewinnung Umgebung: Digitalisiertablett und (spezieller) Stift (x, y ) (x 2, y 2 ) Vorgehensweise: Abtastung der Ortskoordinaten eines Schriftzugs in zeitlich konstantem Intervall Sequenz von Koordinaten PSfrag replacements (x 4, y 4 ) (x 5, y 5 ) (x 3, y 3 ) (x 6, y 6 ) P = [p,, p N ] = [(x, y ) τ,, (x N, y N ) τ ] (x 9, y 9 ) (x 8, y 8 ) (x 7, y 7 )

6 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 5 On-line Handschrifterkennung Merkmalgewinnung Gewinnung von lage- / skalierungsinvarianten Merkmalen der Koordinatensequenz P = [p,, p N ]: normierte x-koordinate x i = x i µ x σ y normierte y-koordinate ỹ i = y i µ y σ y Tangentensteigungswinkel PSfrag replacements θ i = ang ( i x + i y ) p i+ p i+2 p i p i p i 2 θ i PSfrag replacements p i+ Merkmalvektor t i = ( x i, ỹ i, θ i ) τ Merkmalvektorsequenz T = [ t,, t NT ] p i+2 p i pi p i 2 θ i

7 Probleme: unterschiedlich lange Sequenzen zeitliche Variationen in den Sequenzen Lösungsansatz: Einführung von neuer Zeitachse {,, N} Zuordnungsfunktion Dynamic Time Warping ein Abstandsmass für Merkmalsequenzen Φ : {,, N} ({,, N T } {,, N R }) definiert durch lokale Transitionen Φ = [ φ,, φ N ] Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 6

8 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 7 PSfrag replacements Dynamic Time Warping Problemformulierung Warping Distanz: D Φ (T, R) = N n= d ( ) t φt (n), r φr (n) R r NR. r Φ. DTW-Distanz := Viterbi-Distanz: r D (T, R) = D Φ (T, R) = min Φ {D Φ (T, R)} Lokale Distanz: Quadrierte Euklidische Distanz t t 2 t NT T d (t i, r j ) = t i r j 2

9 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 8 Naive Suche: Dynamic Time Warping Algorithmen zur effizienten Berechnung exponentiell viele Pfade!!! scheidet daher aus Dynamische Programmierung: O (c N T N R ) siehe nächste Folie(n) (c = Anzahl lokaler Transitionen) Strahlsuche (beam search): O (c max{n T, N R )} siehe übernächste Folie

10 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 9 r r 2 r Dynamic Time Warping Dynamische Programmierung () NR..... Di,j : Viterbi-Distanz für Vergleich der Präfixe [t,, t i ] und [r,, r j ].... R T Muster R D NT,N R D N T,N R D NT,N R D NT,N R D (T, R) = DN T,N R = d ( ) t NT, r NR + min D NT,N R D NT,N R D NT,N R Muster T Rekursiver, rückwärtsschauender Aufbau der Viterbi-Matrix D Komplexität O (c N T N R )

11 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 0 Dynamic Time Warping Dynamische Programmierung (2) Lokale Distanzmatrix Viterbi-Matrix

12 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg DTW in Aktion Matlab-Demo

13 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 2 Dynamic Time Warping Strahlsuche Iteratives Verwalten aktiver Pfadhypothesen Abbruch der Verfolgung von nichtwahrscheinlichen Pfadhypothesen Suboptimales Verfahren Komplexität O (c (N T + N R ))

14 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 3 Strahlsuche in Aktion Matlab-Demo

15 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 4 Statistisches DTW PSfrag replacements Idee Bei bekannten Wahrscheinlichkeitsvert., z.b. R (x) = ( (2π) n Σ exp ) 2 (x µ)τ (Σ) (x µ) t t 2 t NT Φ 3 2 Euklid. Distanz log(klassenbedingte Wkt.) r r 2 0 d (t, r) = t r 2 d (t, R) = log P (t R) = F 2 log (2π) + 2 log ( Σ ) r NR..... PSfrag replacements t R T t 2 t NT Φ Statistisches Modell + 2 (t µ)τ (Σ) (t µ) R = (µ, Σ) r r 2 r NR..... R T

16 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 5 Statistisches DTW Idee (2) DTW-Distanz log(klassenbedingte Wkt.) D Φ (T, R) = N tφt (n) r φr (n) n= D Φ (T, R) = log P (T R, Φ) = = Statistisches Modell N n= N n= 2 d ( ) t φt (n), R φr (n) F 2 log (2π) + 2 log ( ΣφR ) (n) + ( ) τ ( ) ( ) t φt (n) µ φr (n) ΣφR 2 (n) t φt (n) µ φr (n) log ( P φr (n) ( φ) ) R j = ( µ j, Σ j, P j ( φ) )

17 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 6 Warping Distanz: Statistisches DTW Problemformulierung r D Φ (T, R) = N n= d ( ) t φt (n), R φr (n) r 2 r NR R R NR. R Φ. SDTW-Distanz := Viterbi-Distanz: R D (T, R) = D Φ (T, R) = min Φ {D Φ (T, R)} Lokale Distanz: log a-posteriori Wahrscheinlichkeit t t 2 t NT T d (t i, R j ) = log P (t i R j )

18 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 7 Generative Klassifikation Cluster generative SDTW (CSDTW) PSfrag replacements PSfrag replacements Testmuster T t t2 tn T Φ r t t2 tn T Φ r r2 r2 R R 2 Allographenmodelle R lk = R NR [ R lk,, R lk N lk ] rn R..... R T R R2 RN R rn R..... R T R R2 RN R T D R A, R A2, R A3 R Z, R Z2 argmin{ } l l = { argmin D ( T, R lk)} l {,...,L},k {,...,K l }

19 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 8 T l Cluster generative SDTW (CSDTW) Training 2 Schritte für jede einzelne Klasse A bis Z ; A A A A A A A A A A Clustering A A A Parameterschätzung A A A A A A A R A j = R A2 j = R A3 j = ( ( ( µ A j µ A2 j µ A3 j ), Σ A j, Pj A ( φ)), Σ A2 j, Pj A2 ( φ)), Σ A3, P A3 ( φ) j j. Häufungspunktanalyse (Clustering) durch hierarchisches, agglomeratives Verfahren und modifiziertem DTW-Abstand 2. Schätzung der statistischen Parameter R lk iterativem Algorithmus (Viterbi-Training): j = ( ) µ lk j, Σlk j, Pj lk ( φ) (a) berechne neue Zuordnungsfunktion aller Beispiele eines Clusters zu Referenzmodell R lk j (t) (b) schätze neues Referenzmodell R lk j (t + ) entlang der berechneten Korrespondenzen mit

20 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 9 CSDTW in Aktion Matlab-Demo

21 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 20 Zwischenstand Überblick Handschrifterkennung Daten- / Merkmalgewinnung Dynamic Time Warping (DTW) Statistische Erweiterung von DTW (SDTW) Generative Klassifikation mit Cluster generative SDTW (CSDTW)

22 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 2 D argmin{ } R R.. 2. R NR. Schätze klassenbedingte R T l A, R A2, R A3 Wahrscheinlichkeitsdichten P ( X) P (X l) für jede Klasse R Z l, R Z2 P (2 X) D 2. Wähle die Klasseargmin{ } mit der höchsten a-posteriori- Wahrscheinlichkeit mit Hilfe der Bayes-Regel Generative vs. diskriminative Klassifikation P (l T ) = P (T l) P (l) P (T ) P (X ) P (X 2) class conditional density P (X ) P (X 2) T l 0.8 P ( X) P (2 X) posterior probability

23 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 22 Diskriminative Klassifikation Support Vektor Maschine (SVM) Kern: K (T, P ) SVM Klassifikation: ( ) Ŝ (T ) = sign α i S i K (T, P i ) + b i SVM Training: Bestimme α i zur Maximierung der Zielfunktion L D = α i 2 i α i α j S i S j K (P i, P j ) i,j unter den Nebenbedingungen 0 α i C and α i S i = 0 i

24 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 23 Support Vektor Maschine (SVM) Kerne Vektorraumdaten Sequenzen T = (7, 5, 8) τ P = (9, 3, 4) τ P = [7, 5, 5, 8] T = [7, 5, 8] Musterbeispiele Kernbeispiele K(T, P ) Gauss-Kern K (T, P ) = exp ( γ T P 2) Gauss-DTW (GDTW)-Kern K (T, P) = exp ( γd (T, P) )

25 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 24 t 2 t NT Φ r r 2 NR... R T t 2 Ṙ T t NT Φ r r 2 NR... R T t 2 Ṙ T t NT Ṙ T SVM Φ r mit Gauss-DTW-Kern Φ r Φ r r 2 r NR... R T t 2 t NT r 2 r NR Beispiele... R T... t 2 R T t NT r 2 r NR... R T.... t.. t 2 R T t NT Φ r r 2 NR... R T K (T, P j ) = exp ( γd (T, P j )) R R 2 R NR R A2, R A3 R Z, R Z2 R R 2 R NR R A, R A2, R A3 R Z, R Z2 D argmin{ } R R 2 R R R R P R 2 P 2 R 2 P 3 P R 4 P 2 R 2 5 R NR R A, R A2, R A3 R Z, R Z2 D R NR R A, R A2, R A3 R Z, R Z2 D R NR R A, R A2, R A3 R Z, R Z2 D R NR R A, R A2, R A3 R Z, R Z D argmin{ } argmin{ } argmin{ } argmin{ } 2 T l 0 2 T l T l T l R R R NR R 30 NR R R A, R A2, R A3 30 NR R R A, R A2, R A3 30 NR R A, R A2, R A3 30 R NR R A, R A2, R A3 30 R A, R A2, R A3 20 D R Z, R Z D R Z, R Z D R Z, R Z D R Z, R Z D R Z, R Z2 0 D 0 argmin{ } argmin{ } argmin{ } argmin{ } argmin{ } argmin{ } T T l 0 2 T l T l T l T l T l D ( T, P j ) K ( T, P j ) R R 2 R R 2 T l R R

26 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 25 R 2 R NR R A, R A2, R A3 R Z, R Z2 D Multi-Klassen SVM DAG (directed argmin{ } acyclic graph)-svm: Kombiniere K (K... ) /2 Zwei-Klassen-SVMs zu einer K-Klassen-SVM T l vs 4 not not vs 4 not 2 not vs 3 not not vs vs 3 vs 2 2 not 3 not 4 not 2 not 3 not not entnommen aus (Platt, 2000) [9]

27 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 26 SVM-GDTW in Aktion Matlab-Demo

28 Fehlerraten Kleinbuchstaben Verfahren Fehlerrate E UNIPEN Database Type CSDTW [] 9.3 % DAG-SVM-GDTW [2] 2.0 % Train-R0/V07 67 %/33 % Train/Test Train-R0/V07 20 %/20 % Train/Test MLP [7] 4.4 % DevTest-R02/V02 HMM-NN hybrid [3] 3.2 % Train-R0/V07 HMM [5] 4. % Train-R0/V06 4 % bad characters removed Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 27

29 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg not not 2 not 3 not 4 vs 4 2 vs 4 3 vs 4 vs 3 2 vs 3 vs 2 frog on hand CSDTW Compaq ipaq Anwendung R MHz Intel StrongARM Prozessor (ohne Fließkomma-Arithmetik) 6 MByte Flash-Speicher ( ˆ= Festplatte in PC) 64 MByte RAM System: Embedded Linux Kernel (Familiar Distribution [4]) Oberfläche: Open Palmtop Integrated Environment (OPIE) [6] R R NR R A, R A2, R A3 R Z, R Z2 D argmin{ } T l not not 2 not 3 not 4 vs 4 2 vs 4 3 vs 4 vs 3 2 vs 3 vs 2

30 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 29 frog on hand CSDTW in Aktion Demo

31 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 30 Zusammenfassung Überblick Handschrifterkennung Daten- / Merkmalgewinnung Dynamic Time Warping (DTW) Statistische Erweiterung von DTW (SDTW) Generative Klassifikation mit Cluster generative SDTW (CSDTW) Diskriminative Klassifikation mit Gauss-DTW-Kern und SVMs (DAG-GDTW-SVM) DTW als vielseitig zu verwendendes Abstandsmass für Sequenzen frog on hand CSDTW auf ipaq Andere Anwendungen: Spracherkennung, Robotik, Gensequenzierung

32 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 3 Literatur Literatur [] Claus Bahlmann. A writer independent on-line handwriting recognition system with cluster-based statistical dynamic time warping. URL mailto:bahlmann@informatik.uni-freiburg.de. In Bearbeitung. (document) [2] Claus Bahlmann, Bernard Haasdonk, and Hans Burkhardt. On-line handwriting recognition with support vector machines a kernel approach. In Proc. 8th Int. Workshop Front. Handwriting Recognition (IWFHR), pages 49 54, Niagara-on-the-Lake, Canada, (document) [3] N. Gauthier, T. Artières, B. Dorizzi, and P. Gallinari. Strategies for combining on-line and off-line information in an on-line handwriting recognition system. In Proc. 6th Int. Conf. Doc. Anal. Recognition (ICDAR), pages 42 46, Seattle, WA, 200. (document)

33 Dipl.-Inf. Claus Bahlmann, LMB, Institut für Informatik, Albert-Ludwigs-Universität Freiburg 32 [4] Handhelds.org. URL Linux distribution for Compaq ipaq. (document) [5] Jianying Hu, Sok Gek Lim, and Michael K. Brown. Writer independent on-line handwriting recognition using an HMM approach. Pattern Recognition, 33:33 47, January (document) [6] OPIE (Open Palmtop Integrated Environment). URL Graphical user interface for Linux Compaq ipaq. (document) [7] Marc Parizeau, Alexandre Lemieux, and Christian Gagné. Character recognition experiments using UNIPEN data. In Proc. 6th Int. Conf. Doc. Anal. Recognition (ICDAR), pages , Seattle, WA, 200. (document) [8] Rejean Plamondon and Sargur N. Srihari. On-line and off-line handwriting recognition: A comprehensive survey. IEEE Trans. Pattern Anal. and Mach. Intell., 22():63 84, January (document) [9] J. C. Platt, N. Cristianini, and J. Shawe-Taylor. Large margin DAGS for multiclass classification. In Advances in Neural Information Processing Systems 2. MIT Press, (document)

Überblick. Classifying The Real World. Textkategorisierung. Textkategorisierung. Textkategorisierung (II)

Überblick. Classifying The Real World. Textkategorisierung. Textkategorisierung. Textkategorisierung (II) Classifying The Real World Sebastian Bitzer (sbitzer@uos.de) Sven Lauer (svlauer@uos.de) Seminar: Neuronale Netze University of Osnabrueck 10. 07. 2003 Anwendungen von Support Vector Machines Überblick

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen Universität Potsdam Institut für Informatik Lehrstuhl Niels Landwehr, Silvia Makowski, Christoph Sawade, Tobias Scheffer Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Übung: Di 10:00-11:30

Mehr

Ein Vergleich von Methoden für Multi-klassen Support Vector Maschinen

Ein Vergleich von Methoden für Multi-klassen Support Vector Maschinen Ein Vergleich von Methoden für Multi-klassen Support Vector Maschinen Einführung Auf binären Klassifikatoren beruhende Methoden One-Against-All One-Against-One DAGSVM Methoden die alle Daten zugleich betrachten

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik Technische Universität Dortmund 12.11.2013 1 von 39 Gliederung 1 Hinführungen zur SVM 2 Maximum Margin Methode Lagrange-Optimierung

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik 8.11.2011 1 von 38 Gliederung 1 2 Lagrange-Optimierung 2 von 38 Übersicht über die Stützvektormethode (SVM) Eigenschaften

Mehr

Hidden-Markov-Modelle

Hidden-Markov-Modelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene

Mehr

Map Matching. Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf.

Map Matching. Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf. Map Matching Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf. Ergebnis mit minimaler Fréchet-Distanz Annahme: Fahrer wählen bevorzugt kürzeste Wege im Straßennetz.

Mehr

Lineare Klassifikatoren IV

Lineare Klassifikatoren IV Universität Potsdam Institut für Informatik Lehrstuhl Lineare Klassifikatoren IV Christoph Sawade, Blaine Nelson, Tobias Scheffer Inhalt Klassifikationsproblem Bayes sche Klassenentscheidung MAP-Modell

Mehr

Hidden Markov Model ein Beispiel

Hidden Markov Model ein Beispiel Hidden Markov Model ein Beispiel Gegeben: Folge von Beobachtungen O = o 1,..., o n = nass, nass, trocken, nass, trocken Menge möglicher Systemzustände: Z = {Sonne, Regen} Beobachtungswahrscheinlichkeiten:

Mehr

Projekt-INF Folie 1

Projekt-INF Folie 1 Folie 1 Projekt-INF Entwicklung eines Testbed für den empirischen Vergleich verschiedener Methoden des maschinellen Lernens im Bezug auf die Erlernung von Produktentwicklungswissen Folie 2 Inhalt Ziel

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen. Tobias Scheffer Michael Brückner

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen. Tobias Scheffer Michael Brückner Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Tobias Scheffer Michael Brückner Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Übung: Mo 10:00-11:30

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Support Vector Machine Nico Piatkowski und Uwe Ligges 30.05.2017 1 von 14 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Strukturelle Modelle Conditional Random Fields Katharina Morik LS 8 Informatik Technische Universität Dortmund 17.12. 2013 1 von 27 Gliederung 1 Einführung 2 HMM 3 CRF Strukturen

Mehr

Support Vector Machines, Kernels

Support Vector Machines, Kernels Support Vector Machines, Kernels Katja Kunze 13.01.04 19.03.2004 1 Inhalt: Grundlagen/Allgemeines Lineare Trennung/Separation - Maximum Margin Hyperplane - Soft Margin SVM Kernels Praktische Anwendungen

Mehr

Zeitreihenanalyse mit Hidden Markov Modellen

Zeitreihenanalyse mit Hidden Markov Modellen Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Zeitreihenanalyse mit Hidden Markov Modellen (nach http://www.cs.cmu.edu/~awm/tutorials VL PLT2

Mehr

Neural Networks: Architectures and Applications for NLP

Neural Networks: Architectures and Applications for NLP Neural Networks: Architectures and Applications for NLP Session 02 Julia Kreutzer 8. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Backpropagation 3. Ausblick 2 Recap

Mehr

Syntaktische und Statistische Mustererkennung. Bernhard Jung

Syntaktische und Statistische Mustererkennung. Bernhard Jung Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel

Mehr

Support Vector Machines (SVM)

Support Vector Machines (SVM) Universität Ulm 12. Juni 2007 Inhalt 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor-

Mehr

9 SLAM Simultaneous Localization and Mapping

9 SLAM Simultaneous Localization and Mapping 9 SLAM Simultaneous Localization and Mapping Einleitung eines der aktivsten Forschungsgebiete innerhalb der Robotik Roboterlokalisierung bei gegebener Karte (Kap. 8 und Karte aus Sensordaten bei bekannter

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Lineare Klassifikatoren

Lineare Klassifikatoren Universität Potsdam Institut für Informatik Lehrstuhl Lineare Klassifikatoren Christoph Sawade, Blaine Nelson, Tobias Scheffer Inhalt Klassifikationsproblem Bayes sche Klassenentscheidung Lineare Klassifikator,

Mehr

Mustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines

Mustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines Mustererkennung R. Neubecker, WS 018 / 019 (SVM) kommen aus der statistischen Lerntheorie gehören zu den optimalen Klassifikatoren = SVMs minimieren nicht nur den Trainingsfehler, sondern auch den (voraussichtlichen)

Mehr

Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel

Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel Dr. Dominik Grimm Probelehrveranstaltung Fakultät für Informatik und Mathematik Hochschule

Mehr

Learning to Rank Sven Münnich

Learning to Rank Sven Münnich Learning to Rank Sven Münnich 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 1 Übersicht 1. Einführung 2. Methoden 3. Anwendungen 4. Zusammenfassung & Fazit 06.12.12 Fachbereich 20 Seminar

Mehr

k-nächste-nachbarn-schätzung

k-nächste-nachbarn-schätzung k-nächste-nachbarn-schätzung Mustererkennung und Klassifikation, Vorlesung No. 7 1 M. O. Franz 29.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3 Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Gliederung Vorlesung Wissensentdeckung Stützvektormethode 1 Hinführungen zur SVM Katharina Morik, Claus Weihs 26.5.2009 2 Maximum Margin Methode Lagrange-Optimierung 3 Weich trennende SVM 1 von 40 2 von

Mehr

Statistics, Data Analysis, and Simulation SS 2017

Statistics, Data Analysis, and Simulation SS 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, May 29, 2017 Dr. Michael O. Distler

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

Hidden Markov Modelle

Hidden Markov Modelle Hidden Markov Modelle in der Sprachverarbeitung Paul Gabriel paul@pogo.franken.de Seminar Sprachdialogsysteme: Hidden Markov Modelle p.1/3 Überblick Merkmalsvektoren Stochastischer Prozess Markov-Ketten

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Vorlesung Wissensentdeckung Stützvektormethode Katharina Morik, Uwe Ligges 10.6.2010 1 von 40 Gliederung 1 Hinführungen zur SVM 2 Maximum Margin Methode Lagrange-Optimierung 3 Weich trennende SVM 2 von

Mehr

Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood

Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood KARLSRUHER INSTITUT FÜR TECHNOLOGIE (KIT) 0 KIT 06.01.2012 Universität des Fabian Landes Hoffmann Baden-Württemberg und nationales Forschungszentrum

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten

Mehr

Informatik II, SS 2014

Informatik II, SS 2014 Informatik II SS 2014 (Algorithmen & Datenstrukturen) Vorlesung 20 (23.7.2014) All Pairs Shortest Paths, String Matching (Textsuche) Algorithmen und Komplexität Vorlesungsevaluation Sie sollten alle eine

Mehr

Flächen- und Volumenmessung lokaler Objekte in DICOM-Bildern und Bildfolgen

Flächen- und Volumenmessung lokaler Objekte in DICOM-Bildern und Bildfolgen Flächen- und Volumenmessung lokaler Objekte in ICOM-Bildern und Bildfolgen Sergei Hludov, Christoph Meinel und Thomas Engel Institut für Telematik Bahnhofsstr. 30-3, 549 Trier Email: hludov@ti.fhg.de Zusammenfassung.

Mehr

Text-Mining: Klassifikation I - Naive Bayes vs. Rocchio

Text-Mining: Klassifikation I - Naive Bayes vs. Rocchio Text-Mining: Klassifikation I - Naive Bayes vs. Rocchio Claes Neuefeind Fabian Steeg 17. Juni 2010 Klassifikation im Text-Mining Klassifikation Textkategorisierung Naive Bayes Beispielrechnung Rocchio

Mehr

SBWL Tourismusanalyse und Freizeitmarketing

SBWL Tourismusanalyse und Freizeitmarketing SBWL Tourismusanalyse und Freizeitmarketing Vertiefungskurs 4: Multivariate Verfahren 2 Teil 3: Mischmodelle / Modellgestützte Clusteranalyse Achim Zeileis & Thomas Rusch Institute for Statistics and Mathematics

Mehr

Einführung in Support Vector Machines (SVMs)

Einführung in Support Vector Machines (SVMs) Einführung in (SVM) Januar 31, 2011 Einführung in (SVMs) Table of contents Motivation Einführung in (SVMs) Outline Motivation Vektorrepräsentation Klassifikation Motivation Einführung in (SVMs) Vektorrepräsentation

Mehr

Hidden Markov Modellen

Hidden Markov Modellen Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Zeitreihenanalyse mit Hidden Markov Modellen (nach http://www.cs.cmu.edu/~awm/tutorials) VL PLT2

Mehr

Programmierung 2 Studiengang MI / WI

Programmierung 2 Studiengang MI / WI Programmierung 2 Studiengang MI / WI Dipl.-Inf., Dipl.-Ing. (FH) Michael Wilhelm Hochschule Harz FB Automatisierung und Informatik mwilhelm@hs-harz.de Raum 2.202 Tel. 03943 / 659 338 Fachbereich Automatisierung

Mehr

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle Mustererkennung Unüberwachtes Lernen R. Neubecker, WS 01 / 01 Übersicht (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren 1 Lernen Überwachtes Lernen Zum Training des Klassifikators

Mehr

Algorithmen zur lageinvarianten Merkmalsgewinnung für Draht gittermodelle

Algorithmen zur lageinvarianten Merkmalsgewinnung für Draht gittermodelle Vortrag zur Diplomarbeit Algorithmen zur lageinvarianten Merkmalsgewinnung für Draht gittermodelle Lehrstuhl für Mustererkennung und Bildverarbeitung Albert Ludwigs Universität Freiburg Marco Reisert Übersicht

Mehr

Data Mining - Wiederholung

Data Mining - Wiederholung Data Mining - Wiederholung Norbert Fuhr 18. Januar 2006 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)

Mehr

MULTI-CLASS PROTEIN CLASSIFICATION USING ADAPTIVE CODES

MULTI-CLASS PROTEIN CLASSIFICATION USING ADAPTIVE CODES 1 MULTI-CLASS PROTEIN CLASSIFICATION USING ADAPTIVE CODES Jérôme Kirchhoff Seminar maschinelles Lernen Einleitung 2 Motivation Ohne Proteine kein Stoffwechsel keine Zellteilung Verstehen der Proteine kein

Mehr

Grundlagen von Support Vector Maschinen und Anwendungen in der Bildverarbeitung

Grundlagen von Support Vector Maschinen und Anwendungen in der Bildverarbeitung Grundlagen von Support Vector Maschinen und Anwendungen in der Bildverarbeitung Jan Eichhorn jan.eichhorn@tuebingen.mpg.de Max-Planck-Institut für biologische Kybernetik 72076 Tübingen Danksagung Olivier

Mehr

Kapitel ML: X (Fortsetzung)

Kapitel ML: X (Fortsetzung) Kapitel ML: X (Fortsetzung) X. Clusteranalyse Einordnung Data Mining Einführung in die Clusteranalyse Hierarchische Verfahren Iterative Verfahren Dichtebasierte Verfahren Cluster-Evaluierung ML: X-31 Cluster

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 3 Maschinelles Lernen und Klassifikation

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 3 Maschinelles Lernen und Klassifikation Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Lösungsblatt 3 Maschinelles Lernen und Klassifikation Aufgabe : Zufallsexperiment

Mehr

Clustering 2010/06/11 Sebastian Koch 1

Clustering 2010/06/11 Sebastian Koch 1 Clustering 2010/06/11 1 Motivation Quelle: http://www.ha-w.de/media/schulung01.jpg 2010/06/11 2 Was ist Clustering Idee: Gruppierung von Objekten so, dass: Innerhalb einer Gruppe sollen die Objekte möglichst

Mehr

EFM-DBSCAN EIN BAUMBASIERTER CLUSTERING- ALGORITHMUS UNTER AUSNUTZUNG ERWEITERTER LEADER-UMGEBUNGEN. Philipp Egert. 08. März 2017

EFM-DBSCAN EIN BAUMBASIERTER CLUSTERING- ALGORITHMUS UNTER AUSNUTZUNG ERWEITERTER LEADER-UMGEBUNGEN. Philipp Egert. 08. März 2017 08. März 2017 EFM-DBSCAN EIN BAUMBASIERTER CLUSTERING- ALGORITHMUS UNTER AUSNUTZUNG ERWEITERTER LEADER-UMGEBUNGEN Philipp Egert Fachgebiet Datenbank- und Informationssysteme Motivation DBSCAN als Vorreiter

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 018 / 019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen 1 Optimierung Optimierungsprobleme Suche nach dem Maximum oder Minimum

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer Organisation Vorlesung/Übung, praktische

Mehr

Algorithmen für Geographische Informationssysteme

Algorithmen für Geographische Informationssysteme Algorithmen für Geographische Informationssysteme 2. Vorlesung: 16. April 2014 Thomas van Dijk basiert auf Folien von Jan-Henrik Haunert Map Matching? Map Matching! Map Matching...als Teil von Fahrzeugnavigationssystemen

Mehr

Varianzkomponentenschätzung

Varianzkomponentenschätzung Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler

Mehr

Informatik II, SS 2016

Informatik II, SS 2016 Informatik II - SS 2016 (Algorithmen & Datenstrukturen) Vorlesung 22 (20.7.2016) Greedy Algorithmen - Datenkompression Algorithmen und Komplexität Greedy Algorithmen Greedy Algorithmen sind eine Algorithmenmethode,

Mehr

Statistics, Data Analysis, and Simulation SS 2017

Statistics, Data Analysis, and Simulation SS 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, 4. Mai 2017 Dr. Michael O. Distler

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Automatisches Layout von Graphen

Automatisches Layout von Graphen Fakultät Informatik» Institut für Angewandte Informatik» Professur für Technische Informationssysteme Automatisches Layout von Graphen Mabel Joselin Brun Chaperon Dresden, 10.06.2011 Inhalt Vortragsübersicht:

Mehr

Übungen zur Vorlesung Grundlagen der Bilderzeugung und Bildanalyse (Mustererkennung) WS 05/06. Musterlösung 11

Übungen zur Vorlesung Grundlagen der Bilderzeugung und Bildanalyse (Mustererkennung) WS 05/06. Musterlösung 11 ALBERT-LUDWIGS-UNIVERSITÄT FREIBURG INSTITUT FÜR INFORMATIK Lehrstuhl für Mustererkennung und Bildverarbeitung Prof. Dr.-Ing. Hans Burkhardt Georges-Köhler-Allee Geb. 05, Zi 0-09 D-790 Freiburg Tel. 076-03

Mehr

Klassifikation und Ähnlichkeitssuche

Klassifikation und Ähnlichkeitssuche Klassifikation und Ähnlichkeitssuche Vorlesung XIII Allgemeines Ziel Rationale Zusammenfassung von Molekülen in Gruppen auf der Basis bestimmter Eigenschaften Auswahl von repräsentativen Molekülen Strukturell

Mehr

Algorithmen und Komplexität

Algorithmen und Komplexität Algorithmen und Komplexität Dynamische Programmierung Markus Ullrich Norbert Baum Fachbereich Informatik - IIb07 Hochschule Zittau/Görlitz 28. Mai 2009 1 / 29 Wie sieht es mit langen Ketten aus? A 1 A

Mehr

Optimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp

Optimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp Optimal-trennende Hyperebenen und die Support Vector Machine Volker Tresp 1 (Vapnik s) Optimal-trennende Hyperebenen (Optimal Separating Hyperplanes) Wir betrachten wieder einen linearen Klassifikator

Mehr

So lösen Sie das multivariate lineare Regressionsproblem von Christian Herta

So lösen Sie das multivariate lineare Regressionsproblem von Christian Herta Multivariate Lineare Regression Christian Herta Oktober, 2013 1 von 34 Christian Herta Multivariate Lineare Regression Lernziele Multivariate Lineare Regression Konzepte des Maschinellen Lernens: Kostenfunktion

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB

INTELLIGENTE DATENANALYSE IN MATLAB INTELLIGENTE DATENANALYSE IN MATLAB Einführungsveranstaltung Überblick Organisation Literatur Inhalt und Ziele der Vorlesung Beispiele aus der Praxis 2 Organisation Vorlesung/Übung + Projektarbeit. 4 Semesterwochenstunden.

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Vorlesung Wissensentdeckung Stützvektormethode Katharina Morik, Uwe Ligges 23.5.2013 1 von 48 Gliederung 1 Geometrie linearer Modelle: Hyperebenen Einführung von Schölkopf/Smola 2 Lagrange-Optimierung

Mehr

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil

Mehr

Hidden Markov Models

Hidden Markov Models Hidden Markov Models Nikolas Dörfler 21.11.2003 1 Einleitung Hauptseminar Machine Learning Nicht alle Vorgänge laufen stehts in einer festen deterministischen Reihenfolge ab und sind somit relativ einfach

Mehr

Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern

Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern Chahine Abid Bachelor Arbeit Betreuer: Prof. Johannes Fürnkranz Frederik Janssen 28. November 2013 Fachbereich Informatik Fachgebiet Knowledge

Mehr

Clustering. Hauptseminar Machine Learning WS 2003/2004. Referent: Can Önder Betreuer: Martin Wagner

Clustering. Hauptseminar Machine Learning WS 2003/2004. Referent: Can Önder Betreuer: Martin Wagner Clustering Hauptseminar Machine Learning WS 2003/2004 Referent: Can Önder Betreuer: Martin Wagner Gliederung Partitionierendes Clustering Hierarchisches Clustering Wahrscheinlichkeitsbasiertes Clustering

Mehr

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Fortgeschrittene Netzwerk- und Graph-Algorithmen Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Probabilistische Nico Piatkowski und Uwe Ligges 22.06.2017 1 von 32 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung

Mehr

1/19. Kern-Methoden zur Extraktion von Informationen. Sebastian Marius Kirsch Back Close

1/19. Kern-Methoden zur Extraktion von Informationen. Sebastian Marius Kirsch Back Close 1/19 Kern-Methoden zur Extraktion von Informationen Sebastian Marius Kirsch skirsch@moebius.inka.de 2/19 Gliederung 1. Verfahren zur Extraktion von Informationen 2. Extraktion von Beziehungen 3. Maschinelles

Mehr

Algorithmen auf Sequenzen

Algorithmen auf Sequenzen Algorithmen auf Sequenzen Fehlertolerante Mustersuche: Distanz- und Ähnlichkeitsmaße Sven Rahmann Genominformatik Universitätsklinikum Essen Universität Duisburg-Essen Universitätsallianz Ruhr Einführung

Mehr

Lineare Klassifikatoren

Lineare Klassifikatoren Lineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 8 1 M. O. Franz 06.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht 1 Nächste-Nachbarn-

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 02.07.2015 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP

Mehr

Informatik II, SS 2018

Informatik II, SS 2018 Informatik II - SS 2018 (Algorithmen & Datenstrukturen) Vorlesung 21 (11.7.2018) String Matching (Textsuche) II Greedy Algorithmen I Algorithmen und Komplexität Textsuche / String Matching Gegeben: Zwei

Mehr

Inhalt. 6.1 Motivation. 6.2 Klassifikation. 6.3 Clusteranalyse. 6.4 Asszoziationsanalyse. Datenbanken & Informationssysteme / Kapitel 6: Data Mining

Inhalt. 6.1 Motivation. 6.2 Klassifikation. 6.3 Clusteranalyse. 6.4 Asszoziationsanalyse. Datenbanken & Informationssysteme / Kapitel 6: Data Mining 6. Data Mining Inhalt 6.1 Motivation 6.2 Klassifikation 6.3 Clusteranalyse 6.4 Asszoziationsanalyse 2 6.1 Motivation Data Mining and Knowledge Discovery zielt darauf ab, verwertbare Erkenntnisse (actionable

Mehr

Informatik II, SS 2018

Informatik II, SS 2018 Informatik II - SS 28 (Algorithmen & Datenstrukturen) Vorlesung 22 (6.7.28) Greedy Algorithmen II (Datenkompression) Algorithmen und Komplexität Datenkompression Reduziert Größen von Files Viele Verfahren

Mehr

Statistische Sprachmodelle

Statistische Sprachmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Statistische Sprachmodelle Tobias Scheffer Thomas Vanck Statistische Sprachmodelle Welche Sätze sind Elemente einer Sprache (durch

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische

Mehr

Clusteranalyse: Gauß sche Mischmodelle

Clusteranalyse: Gauß sche Mischmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB. Einführungsveranstaltung

INTELLIGENTE DATENANALYSE IN MATLAB. Einführungsveranstaltung INTELLIGENTE DATENANALYSE IN MATLAB Einführungsveranstaltung Überblick Organisation. Literatur. Inhalt und Ziele der Vorlesung. Beispiele aus der Praxis. 2 Organisation Vorlesung/Übung + Projektarbeit.

Mehr

Compressed Sensing für Signale aus Vereinigungen von Unterräumen

Compressed Sensing für Signale aus Vereinigungen von Unterräumen Compressed Sensing für Signale aus Vereinigungen von Unterräumen Nadine Pawlitta 21. Januar 2011 Nadine Pawlitta () CS auf Vereinigungen von Unterräumen 21. Januar 2011 1 / 28 Übersicht 1 Grundprinzip

Mehr

Nutzung maschinellen Lernens zur Extraktion von Paragraphen aus PDF-Dokumenten

Nutzung maschinellen Lernens zur Extraktion von Paragraphen aus PDF-Dokumenten Nutzung maschinellen Lernens zur Extraktion von Paragraphen aus PDF-Dokumenten Albert-Ludwigs-Universität zu Freiburg 13.09.2016 Maximilian Dippel max.dippel@tf.uni-freiburg.de Überblick I Einführung Problemstellung

Mehr

Pareto optimale lineare Klassifikation

Pareto optimale lineare Klassifikation Seminar aus Maschinellem Lernen Pareto optimale lineare Klassifikation Vesselina Poulkova Betreuer: Eneldo Loza Mencía Gliederung 1. Einleitung 2. Pareto optimale lineare Klassifizierer 3. Generelle Voraussetzung

Mehr

Entwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion

Entwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion Entwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion Vortrag Seminararbeit David Pogorzelski Aachen, 22.01.2015 Agenda 1 2 3 4 5 Ziel der

Mehr

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Evolutionäre Algorithmen: Überlebenskampf und Evolutionäre Strategien Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überblick Einleitung Adaptive Filter Künstliche

Mehr

Methoden zur Cluster - Analyse

Methoden zur Cluster - Analyse Kapitel 4 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 2015 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm heute 7 Fortgeschrittene Datenstrukturen 8 Such-Algorithmen

Mehr

Algorithmische Bioinformatik 1

Algorithmische Bioinformatik 1 Algorithmische Bioinformatik 1 Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Sommersemester 2009 Übersicht Paarweises

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

HMMs und der Viterbi-Algorithmus

HMMs und der Viterbi-Algorithmus July 8, 2015 Das Problem Wir haben gesehen: wir können P( w q)p( q) ohne große Probleme ausrechnen ( w = b 1...b i, q = q 1...q i. P( w q)p( q) = π(q 1 )τ(b 1, q 1 )δ(q 1, q 2 )τ(b 2, q 2 )...δ(q i 1,

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB

INTELLIGENTE DATENANALYSE IN MATLAB INTELLIGENTE DATENANALYSE IN MATLAB Unüberwachtes Lernen Literatur Chris Bishop: Pattern Recognition i and Machine Learning. Jiaweii Han und Micheline Kamber: Data Mining i Concepts and Techniques. Ulrike

Mehr

Algorithmen und Datenstrukturen

Algorithmen und Datenstrukturen Algorithmen und Datenstrukturen Prof. Dr. Ralf Möller Universität zu Lübeck Institut für Informationssysteme Tanya Braun und Felix Kuhr (Übungen) sowie viele Tutoren Danksagung Die nachfolgenden Präsentationen

Mehr

Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2013 / 2014 Vorlesung 14, Donnerstag, 6.

Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2013 / 2014 Vorlesung 14, Donnerstag, 6. Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2013 / 2014 Vorlesung 14, Donnerstag, 6. Februar 2014 (Editierdistanz, dynamische Programmierung) Junior-Prof.

Mehr

Sprachdialogsystem mit robuster automatischer Spracherkennung

Sprachdialogsystem mit robuster automatischer Spracherkennung Sprachdialogsystem mit robuster automatischer Spracherkennung Hans-Günter Hirsch Hochschule Niederrhein Fachbereich Elektrotechnik und Informatik Digitale Nachrichtentechnik http://dnt.kr.hs-niederrhein.de

Mehr