Teil VIII. Dekodierung mit HMMs. SPEZIELLE MUSTERANALYSESYSTEME Schrift- und Spracherkennung mit Hidden-Markov-Modellen

Größe: px
Ab Seite anzeigen:

Download "Teil VIII. Dekodierung mit HMMs. SPEZIELLE MUSTERANALYSESYSTEME Schrift- und Spracherkennung mit Hidden-Markov-Modellen"

Transkript

1 SPEZIELLE MUSTERANALYSESYSTEME Schrift- und Spracherkennung mit Hidden-Markov-Modellen Vorlesung im Wintersemester 206 Teil VIII Dekodierung mit HMMs Prof. E.G. Schukat-Talamazzini Stand: 5. September 206 Σ Dekodierung ˆ= Maximierungsaufgabe w = argmax {P AM (X w) P LM (w)} w KODIERUNG & ÜBERTRAGUNG DEKODIERUNG Merkmal- Text- quelle w Sprecher/in f berechnung X Erkenner ASM LSM ŵ Massives Resourcenproblem. viele Wörter, Modelle, Verteilungen 2. zerklüfteter Suchraum aufgrund mächtiger Grammatikmodelle 3. Kombinatorik unbekannter Wortgrenzen in kontinuierlicher Sprache

2 Σ Angriffsflächen Lösungsansätze Rekombination von Teillösungen Beschneidung des Suchraums ( pruning ) Sequentielle Dekomposition der Analyse Programmtechnisches Vorgehen Zeitliche Überlagerung bei der Speicherverwaltung Impliziter Suchraumaufbau Datenflußkontrolle: Dichteberechnungen, Cache Risiken und Nebenwirkungen? Modellierungsfehler: Dekodierungsfehler: w gesprochene Wortfolge gefundene Wortfolge w Σ Kompilierte Netzwerke aus HMMs Synchrone Suche Einzelwort Verbundwort Bigramm-Modell Einzelworterkennung Bigramm-Grammatik oder weniger Jedes Wortmodell λ(w ) besitzt je einen E/A-Zustand Vernetzung der Wort-HMMs im Sinne der Grammatik Dekodierung durch Viterbi-Algorithmus auf dem Netzwerk Optimale Zustandsfolge Lösung w /3 /3 /3 λ(w ) λ(w 2 ) λ(w 3 ) λ V Die Modelle aller Wortschatzeinträge werden parallel geschaltet. Synchrone Suche Strikte Verarbeitung des Eingabesignals in Zeitrichtung ( von links nach rechts ) Es können Unigrammwahrscheinlichkeiten eingebracht werden.

3 Σ Verbundworterkennung mit bekannter Satzlänge Verbundworterkennung mit unbekannter Satzlänge ρ... ρ λ V, λ V,m λ V Es werden m Wortmodellbündel in Serie geschaltet. Ein Wortmodellbündel wird zu einer Schleife verschaltet. Eine Fluchtwahrscheinlichkeit ρ regelt die (mittlere) Wortanzahl. Σ Verbundworterkennung mit wortbezogenen Bigrammen Verbundworterkennung mit kategoriebezogenen Bigrammen λ(w ). λ(w L ) P(W i W ) P(W i W L ) Wort HMM λ(w i ) P(W W i ) P(W L W i ) λ(w ). λ(w L ). HMM Bündel einer Wortkategorie P(W j C i ) λ(w j ) λ(c i ) P(C C i ) λ(c ). P(W i ) mit Bigrammübergängen P($ W i ). P(W k C i ) λ(w k ) P(C N C i ) λ(c N ) L Wortmodelle und L 2 Übergangskanten mit Bigramm-W keiten P(W l C i ) λ(w l ) P($ C i ) L Wortmodelle im Falle disjunkter Wortkategorien

4 Σ Wann realisiert ein HMM-Netzwerk eine Grammatik? Für alle Wortfolgen w V muß gelten: P(X λ(w)) P(w)? = P(X, w λ) def = q S T w P(X, q λ) One-Stage/Level-Building Vorwärtsdekodierung PTB (es bezeichnet S T w die Menge aller Zustandsfolgen der Dauer T, welche die Kette w traversieren) Expansion konfluenter Zustände: a,0 a 0,3 a,0 a 0,3 a 2,0 a 0,3 a,0 a 0,4 a 2,0 a 0,4 a 2,0 a 0,4 Σ Welches ist die beste Wortfolge? t 0 t t 2 t 3 t 4 t 5 t 6 Einstufige Verbundwortdekodierung w w 2 w 3 w 4 w 5 w 6 λ( eins ) Viterbi-Wortfolge w VA = w(q ), q = argmax {P(w) P(X, q λ(w))} q S T Optimale Wortsegmentierung λ( zwei ) (t, w ) }{{} w SEG = argmax t,w P(t, w X ) = argmax {P(X, t w) P(w)} t,w λ( drei ) zwei eins drei zwei zwei t Zeit Maximum a posteriori-wortfolge w MAP = argmax {P(w) P(X λ(w))} w V One-stage Algorithmus (Vintsyuk 7, Bridle 82)

5 Σ Algorithmus Mehrstufige Verbundwortdekodierung Vorwärtsdekodierung Algorithmus zwei eins Stufe Stufe 2 λ( eins ) λ( zwei ) INITIALISIERUNG. Setze für alle j =,..., N ϑ (j) = π j b j (x ) und ψ (j) = 0 2 REKURSION. Für alle j =,..., N setze ψ t (j) = argmax i ϑ t (i)a ij sowie max (ϑ t (i)a ij ) b j (x t ) falls s j Wortanfangszustand ist i ϑ t (j) = (ϑ t (i)a ij ) b j (x t ) für alle sonstigen s j i 3 TERMINIERUNG. Setze drei Stufe 3 λ( drei ) P (X λ) = ϑ T (N) und q T = ϑ T (N) 4 RÜCKVERFOLGUNG. Für t = t,..., setze q t = ψ t+ (q t+) Level-building Algorithmus (Myers 8, Rabiner 85) 5 LÖSUNGSWORTKETTE. Setze w = w(q ). Σ t = Schritthaltende Teildekodierung t = t t = t t = T aktuelles Wort Strahlsuche Vorwärts-Rückwärts-Suche Anfangspartien von w bereits eher als in t = T berechnen! Worterkennung vor dem Wortende! q(j, t) = wahrscheinlichste Folge, die in t den Zustand s j erreicht Menge aller Zustände, die zum Zeitpunkt t eingenommen wurden und auf einer optimalen, in t endenden Folge liegen: Q t t = {q t (j, t ) j =,..., N}, t t Zwischenbilanz für Zeitpunkt t, sobald Q t t einelementig ist

6 Σ Algorithmus Viterbi-Algorithmus vorwärts schauend Algorithmus INITIALISIEREN Für alle j {,..., N} setze t und ϑ t (j) π j b j (x t ). 2 VORBESETZEN ϑ t+ (j) 0 ( j) 3 VORWÄRTS FEUERN { } ϑt+ (j) ϑ t+ (j) max ϑ t (i) a ij 4 ABSCHLIEßEN ϑ t+ (j) ϑ t+ (j) b j (x t+ ) ( i, j) ( j) 5 WEITERSCHALTEN Setze t t + oder ENDE. Strahlsuchverfahren Obsolete Maximumoperationen. falls a ij = 0 oder 2. falls ϑ t (i) = 0 Aktive & passive Zustände O t def = {i ϑ t (i) 0} Passive Zustände müssen nicht mehr feuern! Beschneidungsstrategie O B 0 t def = {i ϑ t (i) B 0 Λ t } mit Λ t = max j ϑ t (j) verfolgt nur eine kleine Schar wahrscheinlichster aktueller Zustände die Anzahl der Kandidaten ( Strahlbreite ) ist adaptiv B 0 = Σ Anzahl Zustände Strahlbreite und Hypothesenrang zwei hundert und acht Rg t Sb t zehn Vorwärts-Rückwärts-Suche I Problem Immer noch hohe Kandidatenzahl an den Wortübergängen! Wörter von Strahlsuche aktiviert & gleich wieder deaktiviert. Lösungsansätze getrennte Kandidatenlisten & Strahlkonstanten schnelle Vorauswahl mutmaßlicher Fortsetzungswörter Reduktion der Menge O t aktiver Zustände durch look-ahead : 0 Zeit t Rg t = lokaler Wahrscheinlichkeitsrang der global besten Wortkette Sb t = Anzahl konkurrierender Kandidatenzustände zum Zeittakt t typische Aufwandsreduktion: Faktor 0 20 bei % erhöhter Fehlerrate. Viterbi-Algorithmus vorwärts mit einfachen akustischen und grammatischen Modellen 2. Speichern der aktiven Wahrscheinlichkeitsbewertungen {ϑ t (i) i O t, t T } 3. Viterbi-Algorithmus rückwärts mit komplexeren akustischen und grammatischen Modellen zur Berechnung der zeitinversen Bewertungen ϑ t (i) = max a ij b j (x t+ )ϑ t+(j) j

7 Σ Vorwärts-Rückwärts-Suche II Beschleunigung bei den Rückwärtstransitionen s j s i : Wenn i O t, so ϑ t (i) außerhalb des Suchstrahls {ϑ ϑ B 0 Γ t }. Wenn i O t, so steht ϑ t (i) zur Verfügung. Überprüfe die Ungleichung ϑ t (i) a ij b j (x t+ ) ϑ t+(j) }{{} P (X,q t =s i,q t+ =s j ) B 0 Γ T Graphsuche Kellersuche s m s j s l ϑ t ( ) s i s i s k ϑ t ( ) log P( ) vorwärts s k s j rückwärts Σ Graphsuche Aufgabenstellung Suche bestbewerteten Zielknoten eines gerichteten Graphen Bewerteter gerichteter Graph (K, E, d) Knotenmenge K = {k, k 2,...} Kantenmenge E K K Nichtnegative Kostenfunktion d : E IR + 0 Pfade, Lösungen und ihre Kosten Gerichteter Pfad k = (k,..., k m ) falls alle (k i, k i+ ) E k Lösungspfad falls k K α und k m K ω Kumulative Kosten D(k) def = m d(ki, k i+ ) Heuristisch informierte geordnete Suche INITIALISIERUNG Setze O = K α 2 AUSWAHL Ermittle besten Knoten k = argmin l O ˆf (l) 3 TERMINIERUNG Wenn k K ω dann ENDE 4 EXPANSION Berechne ˆf (k ) für alle (k, k ) E Sortiere die ˆf (k ) in die Schlange O ein 5 ITERATION Gehe 2 Algorithmus Die heuristische Funktion ˆf ( ) schätzt die Erfolgschance der Expansion Algorithmus

8 Σ Spezialfall A*-Algorithmus Eine zulässige & effiziente heurist. inform. Graphsuche. Wahre Zielfunktion f (k) def = argmin {D(k) k k, k Lösung } 2. Additive Zerlegung Weg vom Start nach k Weg von k ins Ziel 3. Dynamische Programmierung f (k) = g(k) + h(k) ĝ(k) def = bislang günstigster Pfad von K α nach k 4. Optimistische Restschätzung ĥ(k) h(k) ( k K) Zulassigkeit & Optimalität des A*-Algorithmus Satz Die geordnete Suche mit ˆf = ĝ + ĥ heißt A*-Algorithmus und besitzt die folgenden Eigenschaften:. Terminierung Algorithmus endet 2. Monotonie nach Expansion von k K gilt ĝ(k) = g(k) 3. Zulässigkeit die erste expandierte Lösung ist die beste 4. Optimale Effizienz min. Anzahl expand. Knoten bzgl. ĥ( ) 5. Anordnung liefert ggf. die n besten Lösungen in Folge Σ Kellersuche ( stack decoding ) K = (V {$}) K α = { } K ω = {w$ w V } K α = { } u u$ v vu vuw vuw$ w vw vw$ K ω Kellersuche und Kostenfunktionen Kumulative Kosten g t (w) def = P(w, x... x t ) = P(w) P(x... x t w) Suchgraph ˆ= Suchbaum ĝ t g t Restwahrscheinlichkeit Lokales Bewertungsprofil h t (w) def = max u V P(u w) P(x t+... x T u) Für f = max t f t gilt: f (w) = Restschätzung f t (w) = g t (w) + h t (w) ( shortfall ) ĥ t (w) = ĥt = { maxu P(wu, X ) w K ω partiell P(w, X ) w K ω vollständig T s=t+ max b j(x s ) j=..n

9 Σ Gestapelte Vorwärtsmatrixberechnung α t (j) bzgl. Modell λ(w) s ω g t (w) s s 2 s 3 g t (w) def = P(x... x t w) def α t (j) bzgl. Modell λ(v) g t (wv) = P(x... x t wv) { b α v w (x ) ( ) t = t () = b (x t ) α v w t () a + g t (w) a 0 t > g t (wv) Suffixäquivalenz Phonetischer Baum Dendrophone Σ Ökonomische Aufgabenstellung Komprimierung des HMM-Wortmodellnetzwerks Reduktion des Speicher- und Berechnungsaufwandes Vorgehensweise Angriffsfläche: die Phonmodellkopien ( 90% Reduktion) Präfixäquivalenz identische α- oder ϑ-wahrscheinlichkeiten auswerten auswertet ausfahre ablehne { } n werte us t a fahre blehne Postfixäquivalenz vorweggenommene Siegerwortentscheidungen { } { } abkaufe ein kau einkaufe ver Kernseife fe Kernsei Präfixäquivalenz & Postfixäquivalenz 3 /r/ { P(X, q ) = max max 2 4 = max t q ( max /n/ P(X, q /to:t/), max q { P (x... x t ) P (x... x t /r/) /to:n/ /to:t/ /ro:t/ } P(X, q /ro:t/) } P (x t+... x T /o:t/) )

10 Σ Phonetischer Lexikonbaum & CD-PLUs Baumstrukturierter Viterbi-Suchraum phonetischer Baum inverser phonetischer Baum phonetischer Rhombus /r/ /n/ /r/ /n/ /r/ /n/ s j α t(j) Triphone Ton o: tn o:/n/ tot o: tt o: rot /r/o: rt o: Zeit t Dendrophone Ton t to:/n/ tot t to: rot /r/ r ro: Speicherplatztopologie der Vorwärtswahrscheinlichkeiten eines phonetischen Lexikonbaums Σ Schrittweise Verfeinerung n beste Wortketten Problem Nicht alle Grammatikformalismen sind HMM-Netzwerk-kompatibel: Pentagramm-Sprachmodelle Zustandsraum = L 4 Kreditkartennummer/Kontrollbedingung 27 teilt k Spielekommandos Springer schlägt Dame auf c3 Lösung = schrittweise Verfeinerung Schnelle Suche zur Erzeugung konkurrierender Zwischenlösungen 2 Sequentielles Ausfiltern vermöge akustischer & grammatischer Neubewertung

11 Σ Zwischenlösungsrepräsentationen für die Satzerkennung Die Systemarchitektur BYBLOS WORTKETTEN WORTGRAPH WORTGITTER. Paula mahlt Kaffee 2. Paula malt Kaffee 3. Pablo malt Kaffee 4. Paula macht Kaffee 5. Paul mahlt Kaffee Paula Pablo mahlt malt Kaffee Wortketten aufzählende Wortfolgeinformation hochredundant Paula Paul Pablo mahlt macht malt Kaffee Tee t STRAHLSUCHE Monophon-ASM Baumstruktur Bigramm-LSM NEUBEWERTUNG Triphon-ASM Wortgrenzen Trigramm-LSM. Wortgraphen explizite Wortfolgeinformation hochökonomisch Wortgitter implizite Wortfolgeinformation durch Zeitstempel übergeneralisierend Die Neubewertung von Wortketten unterliegt keinerlei Einschränkungen hinsichtlich der Struktur akustischer & grammatischer Modelle! Σ n-best Algorithmen Näherungsweise Berechnung der n besten Wortketten mit Varianten des Viterbi-Algorithmus Zustandsbezogener NBVA (Bayer 86) hält in jedem Gitterpunkt (t, j) die n besten Kandidaten in bewertungssortierter Liste D t (j) und berechnet ϑ (k) t { } (j) = max (k) ϑ (l) t (i) a ij b j (x t ) i N, l n }{{} D t (j) Satzbezogener NBVA (Steinbiss 89) rekombiniert konkurrierende Kandidaten für gleiche Wortfolgen Gitterbezogener NBVA (Marino&Monte 89) keine Listen im Wortinneren, nur das dichte Wortgitter { w, ϑ t (w), τ t (w) t =,..., T, w W} ŵ ŵ 2 ŵ 3 ŵ 4 ŵ 5 ŵ 6 ŵ 7 ŵ 8 ŵ 9 ŵ 0 Kettenrekonstruktion aus dem Wortgitter Rekonstruktion der 0 bestbewerteten Wortketten aus dem dichten Wortgitter mit der Rekursion P (t 0... t i, w... w i ) = P (t 0... t i, w... w i ) Zeit t ϑ ti (w i ) max v ϑ ti (v)

12 Σ Der gitterbezogene n-best-viterbi ist suboptimal! Der Tree-Trellis-Algorithmus (Soong) w t = Suchbaum t = T µ 3 µ 2 w 2 asynchron: A* Algorithmus Block Viterbi Algorithmus µ w3 dichtes Wortgitter Rekombination Im Innern des Wortes w 3 werden die Zustandsfolgen µ und µ 2 rekombiniert. Die Wortfolge w w 3 wird fortan durch Pfad µ 3 vertreten, auch wenn P(X, µ 2 ) > P(X, µ 3 ) gelten sollte! synchron: Viterbi Algorithmus Σ An Stelle einer Zusammenfassung EXEMPLARISCHE BERECHNUNGSFOLGE ZUR DEKODIERUNG EINES GESPROCHENEN SATZES Grammatikgesteuerte Spracherkennung Vorverarbeitung des Eingabesignals Diskretisierung Merkmalberechnung Vektorquantisierung 2 Strahlgesteuerter Viterbi-Algorithmus vorwärts Phonemischer Baum, Monophone, Bigramm-Grammatik 3 Wortgitterberechnung rückwärts Inverser Phonemischer Baum, Dendrophone, Bigramm-Grammatik 4 Konstruktion der 00 besten Wortketten A*-Algorithmus oder Dynamische Programmierung 5 Umbewerten & Umsortieren der Wortketten HMM s mit wortgrenzenübergreifenden Polyphonen, Polygramm-Grammatik

Automatische Spracherkennung

Automatische Spracherkennung Ernst Günter Schukat-Talamazzini Automatische Spracherkennung Grundlagen, statistische Modelle und effiziente Algorithmen Technische Universität Darmetadt FACHBEREICH INFORMATIK BIBLIOTHEK MH Invsntar-Nr.:

Mehr

Algorithmen & Komplexität

Algorithmen & Komplexität Algorithmen & Komplexität Angelika Steger Institut für Theoretische Informatik steger@inf.ethz.ch Kürzeste Pfade Problem Gegeben Netzwerk: Graph G = (V, E), Gewichtsfunktion w: E N Zwei Knoten: s, t Kantenzug/Weg

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen

Mehr

4. Kreis- und Wegeprobleme Abstände in Graphen

4. Kreis- und Wegeprobleme Abstände in Graphen 4. Kreis- und Wegeprobleme Abstände in Graphen Abstände in Graphen Definition 4.4. Es sei G = (V,E) ein Graph. Der Abstand d(v,w) zweier Knoten v,w V ist die minimale Länge eines Weges von v nach w. Falls

Mehr

κ Κα π Κ α α Κ Α

κ Κα π Κ α α Κ Α κ Κα π Κ α α Κ Α Ζ Μ Κ κ Ε Φ π Α Γ Κ Μ Ν Ξ λ Γ Ξ Ν Μ Ν Ξ Ξ Τ κ ζ Ν Ν ψ Υ α α α Κ α π α ψ Κ α α α α α Α Κ Ε α α α α α α α Α α α α α η Ε α α α Ξ α α Γ Α Κ Κ Κ Ε λ Ε Ν Ε θ Ξ κ Ε Ν Κ Μ Ν Τ μ Υ Γ φ Ε Κ Τ θ

Mehr

15. Elementare Graphalgorithmen

15. Elementare Graphalgorithmen Graphen sind eine der wichtigste Modellierungskonzepte der Informatik Graphalgorithmen bilden die Grundlage vieler Algorithmen in der Praxis Zunächst kurze Wiederholung von Graphen. Dann Darstellungen

Mehr

Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013

Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013 Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013 Klausurnummer Name: Vorname: Matr.Nummer: Bachelor: Master: Aufgabe 1 2 3 4 5 6 7 8 max. Punkte 10 5 6 7 5 10 9 8 tats. Punkte

Mehr

Bayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008

Bayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008 Bayes sche Klassifikatoren Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 16. Juli 2008 Inhalt Einleitung Grundlagen der Wahrscheinlichkeitsrechnung Noisy-Channel-Modell Bayes sche Klassifikation

Mehr

Vortrag. Suchverfahren der Künstlichen Intelligenz. Sven Schmidt (Technische Informatik)

Vortrag. Suchverfahren der Künstlichen Intelligenz. Sven Schmidt (Technische Informatik) Vortrag Suchverfahren der Künstlichen Intelligenz Sven Schmidt (Technische Informatik) Suchverfahren der Künstlichen Intelligenz Grundlagen Zustandsraumrepräsentation Generische Suche Bewertung von Suchstrategien

Mehr

Vorlesung 4 BETWEENNESS CENTRALITY

Vorlesung 4 BETWEENNESS CENTRALITY Vorlesung 4 BETWEENNESS CENTRALITY 101 Aufgabe! Szenario: Sie arbeiten bei einem sozialen Online-Netzwerk. Aus der Netzwerk-Struktur Ihrer Benutzer sollen Sie wichtige Eigenschaften extrahieren. [http://www.fahrschule-vatterodt.de/

Mehr

Teil II. Automatische Spracherkennung. SPEZIELLE MUSTERANALYSESYSTEME Schrift- und Spracherkennung mit Hidden-Markov-Modellen

Teil II. Automatische Spracherkennung. SPEZIELLE MUSTERANALYSESYSTEME Schrift- und Spracherkennung mit Hidden-Markov-Modellen SPEZIELLE MUSTERANALYSESYSTEME Schrift- und Spracherkennung mit Hidden-Markov-Modellen Vorlesung im Wintersemester 2015 Teil II Automatische Spracherkennung Prof. E.G. Schukat-Talamazzini Stand: 24. Juli

Mehr

Schnelle und genaue Routenplanung

Schnelle und genaue Routenplanung Sanders/Schultes: Routenplanung 1 Schnelle und genaue Routenplanung Peter Sanders Dominik Schultes Institut für Theoretische Informatik Algorithmik II Universität Karlsruhe Uni für Einsteiger, 22. November

Mehr

Aufabe 7: Baum-Welch Algorithmus

Aufabe 7: Baum-Welch Algorithmus Effiziente Algorithmen VU Ausarbeitung Aufabe 7: Baum-Welch Algorithmus Florian Fest, Matr. Nr.0125496 baskit@generationfun.at Claudia Hermann, Matr. Nr.0125532 e0125532@stud4.tuwien.ac.at Matteo Savio,

Mehr

Clusteranalyse: Gauß sche Mischmodelle

Clusteranalyse: Gauß sche Mischmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

9. Heuristische Suche

9. Heuristische Suche 9. Heuristische Suche Prof. Dr. Rudolf Kruse University of Magdeburg Faculty of Computer Science Magdeburg, Germany rudolf.kruse@cs.uni-magdeburg.de S Heuristische Suche Idee: Wir nutzen eine (heuristische)

Mehr

8. A & D - Heapsort. Werden sehen, wie wir durch geschicktes Organsieren von Daten effiziente Algorithmen entwerfen können.

8. A & D - Heapsort. Werden sehen, wie wir durch geschicktes Organsieren von Daten effiziente Algorithmen entwerfen können. 8. A & D - Heapsort Werden sehen, wie wir durch geschicktes Organsieren von Daten effiziente Algorithmen entwerfen können. Genauer werden wir immer wieder benötigte Operationen durch Datenstrukturen unterstützen.

Mehr

Diskriminatives Training, Neue Wort Problem. Sebastian Stüker

Diskriminatives Training, Neue Wort Problem. Sebastian Stüker Institut für Anthropomatik Diskriminatives Training, Neue Wort Problem Sebastian Stüker 03.02.2010 Interactive Systems Labs EM findet gute Modellparameter,indem es maximiert: X T P(X λ) T: Menge der Trainingsäußerungen

Mehr

Uninformierte Suche in Java Informierte Suchverfahren

Uninformierte Suche in Java Informierte Suchverfahren Uninformierte Suche in Java Informierte Suchverfahren Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Suchprobleme bestehen aus Zuständen

Mehr

3 Klassifikation wichtiger Optimierungsprobleme

3 Klassifikation wichtiger Optimierungsprobleme 3 Klassifikation wichtiger Optimierungsprobleme 3.1 Das MIN- -TSP Wir kehren nochmal zurück zum Handlungsreisendenproblem für Inputs (w {i,j} ) 1 i

Mehr

Algorithmen II Vorlesung am

Algorithmen II Vorlesung am Algorithmen II Vorlesung am 0..0 Minimale Schnitte in Graphen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen Der Tragödie IV. Theyl Peter F. Stadler & Konstantin Klemm Bioinformatics Group, Dept. of Computer Science & Interdisciplinary Center for Bioinformatics, University

Mehr

Einführung in die Informatik 1

Einführung in die Informatik 1 Einführung in die Informatik 1 Algorithmen und algorithmische Sprachkonzepte Sven Kosub AG Algorithmik/Theorie komplexer Systeme Universität Konstanz E 202 Sven.Kosub@uni-konstanz.de Sprechstunde: Freitag,

Mehr

Hidden Markov Models

Hidden Markov Models Hidden Markov Models Nikolas Dörfler 21.11.2003 1 Einleitung Hauptseminar Machine Learning Nicht alle Vorgänge laufen stehts in einer festen deterministischen Reihenfolge ab und sind somit relativ einfach

Mehr

Algorithmen und Datenstrukturen 2

Algorithmen und Datenstrukturen 2 Algorithmen und Datenstrukturen 2 Sommersemester 2007 11. Vorlesung Peter F. Stadler Universität Leipzig Institut für Informatik studla@bioinf.uni-leipzig.de Das Rucksack-Problem Ein Dieb, der einen Safe

Mehr

Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp

Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität Volker Tresp 1 Einführung Bisher haben wir uns fast ausschließich mit überwachtem Lernen beschäftigt: Ziel war es, eine (oder mehr als eine)

Mehr

Datenstrukturen. einfach verkettete Liste

Datenstrukturen. einfach verkettete Liste einfach verkettete Liste speichert Daten in einer linearen Liste, in der jedes Element auf das nächste Element zeigt Jeder Knoten der Liste enthält beliebige Daten und einen Zeiger auf den nächsten Knoten

Mehr

Algorithmen und Datenstrukturen 2

Algorithmen und Datenstrukturen 2 Algorithmen und Datenstrukturen 2 Sommersemester 2006 5. Vorlesung Peter F. Stadler Universität Leipzig Institut für Informatik studla@bioinf.uni-leipzig.de Wdhlg.: Dijkstra-Algorithmus I Bestimmung der

Mehr

Einführung in Heuristische Suche

Einführung in Heuristische Suche Einführung in Heuristische Suche Beispiele 2 Überblick Intelligente Suche Rundenbasierte Spiele 3 Grundlagen Es muss ein Rätsel / Puzzle / Problem gelöst werden Wie kann ein Computer diese Aufgabe lösen?

Mehr

Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart

Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart Institut für maschinelle Sprachverarbeitung Universität Stuttgart schmid@ims.uni-stuttgart.de Die Folien basieren teilweise auf Folien von Mark Johnson. Koordinationen Problem: PCFGs können nicht alle

Mehr

Kapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung

Kapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung Gliederung der Vorlesung. Fallstudie Bipartite Graphen. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen. Minimal spannende Bäume. Kürzeste Pfade. Traveling Salesman Problem. Flüsse in Netzwerken

Mehr

Datenstrukturen & Algorithmen

Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Binäre Suchbäume Einführung und Begriffe Binäre Suchbäume 2 Binäre Suchbäume Datenstruktur für dynamische Mengen

Mehr

Einführung in die (induktive) Statistik

Einführung in die (induktive) Statistik Einführung in die (induktive) Statistik Typische Fragestellung der Statistik: Auf Grund einer Problemmodellierung sind wir interessiert an: Zufallsexperiment beschrieben durch ZV X. Problem: Verteilung

Mehr

Der Dreyfus-Wagner Algorithmus für das Steiner Baum Problem

Der Dreyfus-Wagner Algorithmus für das Steiner Baum Problem Der Dreyfus-Wagner Algorithmus für das Steiner Baum Problem Andreas Moser Dietmar Ebner Christian Schauer Markus Bauer 9. Dezember 2003 1 Einführung Der in der Vorlesung gezeigte Algorithmus für das Steiner

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Gliederung Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung.6.015 1 von 33 von 33 Ausgangspunkt: Funktionsapproximation Aufteilen der

Mehr

Hauptklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2011/2012

Hauptklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2011/2012 Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Hauptklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2011/2012 Hier Aufkleber mit Name und Matrikelnr. anbringen

Mehr

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Fortgeschrittene Netzwerk- und Graph-Algorithmen Fortgeschrittene Netzwerk- und Graph-Algorithmen Dr. Hanjo Täubig Lehrstuhl für Eziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester 2007/08

Mehr

Kapitel 2. Suche nach endlich vielen Wörtern. R. Stiebe: Textalgorithmen, Winter 2005/06 113

Kapitel 2. Suche nach endlich vielen Wörtern. R. Stiebe: Textalgorithmen, Winter 2005/06 113 Kapitel 2 Suche nach endlich vielen Wörtern R. Stiebe: Textalgorithmen, Winter 2005/06 113 Übersicht Aufgabenstellung Gegeben: Text T und eine endliche Menge von Wörtern P = {P 1,..., P r }; Gesucht: alle

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Vorlesung "Verteilte Systeme" Sommersemester Verteilte Systeme. 9. Verteilte Algorithmen

Vorlesung Verteilte Systeme Sommersemester Verteilte Systeme. 9. Verteilte Algorithmen Vorlesung "Verteilte Systeme" Sommersemester 999 Verteilte Systeme 9. Verteilte Algorithmen Bereits behandelte Bereiche Logische Uhren Keine globale Uhrensynchronisation möglich (Theorie) Kausalitätserhaltender

Mehr

Bildverarbeitung: Filterung. D. Schlesinger () Bildverarbeitung: Filterung 1 / 17

Bildverarbeitung: Filterung. D. Schlesinger () Bildverarbeitung: Filterung 1 / 17 Bildverarbeitung: Filterung D. Schlesinger () Bildverarbeitung: Filterung 1 / 17 Allgemeines Klassische Anwendung: Entrauschung (Fast) jeder Filter basiert auf einem Modell (Annahme): Signal + Rauschen

Mehr

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Fortgeschrittene Netzwerk- und Graph-Algorithmen Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester

Mehr

Das Heiratsproblem. Definition Matching

Das Heiratsproblem. Definition Matching Das Heiratsproblem Szenario: Gegeben: n Frauen und m > n Männer. Bekanntschaftsbeziehungen zwischen allen Männern und Frauen. Fragestellung: Wann gibt es für jede der Frauen einen Heiratspartner? Modellierung

Mehr

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0

Mehr

Logistik: Transport. Grundlagen, lineare Transportund Umladeprobleme. Von Dr. Wolfgang Domschke. o. Professor für Betriebswirtschaftslehre

Logistik: Transport. Grundlagen, lineare Transportund Umladeprobleme. Von Dr. Wolfgang Domschke. o. Professor für Betriebswirtschaftslehre Logistik: Transport Grundlagen, lineare Transportund Umladeprobleme Von Dr. Wolfgang Domschke o. Professor für Betriebswirtschaftslehre Zweite, ergänzte Auflage TECHNISCH!: MOC cchule DARiviSTAOT j P e

Mehr

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte

Mehr

Optimale Produktliniengestaltung mit Genetischen Algorithmen

Optimale Produktliniengestaltung mit Genetischen Algorithmen Optimale Produktliniengestaltung mit Genetischen Algorithmen 1 Einleitung 2 Produktlinienoptimierung 3 Genetische Algorithmen 4 Anwendung 5 Fazit Seite 1 Optimale Produktliniengestaltung mit Genetischen

Mehr

Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen

Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen 186.172 Algorithmen und Datenstrukturen 1 VL 4.0 Übungsblatt 4 für die Übung

Mehr

4 Greedy-Algorithmen (gierige Algorithmen)

4 Greedy-Algorithmen (gierige Algorithmen) Greedy-Algorithmen (gierige Algorithmen) Greedy-Algorithmen werden oft für die exakte oder approximative Lösung von Optimierungsproblemen verwendet. Typischerweise konstruiert ein Greedy-Algorithmus eine

Mehr

Statistik für Punktprozesse. Seminar Stochastische Geometrie und ihre Anwendungen WS 2009/2010

Statistik für Punktprozesse. Seminar Stochastische Geometrie und ihre Anwendungen WS 2009/2010 Statistik für Punktprozesse Seminar Stochastische Geometrie und ihre Anwendungen WS 009/00 Inhalt I. Fragestellung / Problematik II. Ansätze für a) die Schätzung der Intensität b) ein Testverfahren auf

Mehr

Einstieg in die Informatik mit Java

Einstieg in die Informatik mit Java 1 / 20 Einstieg in die Informatik mit Java Rekursion Gerd Bohlender Institut für Angewandte und Numerische Mathematik Gliederung 2 / 20 1 Überblick 2 Rekursion 3 Rekursive Sortieralgorithmen 4 Backtracking

Mehr

Wiederholung zu Flüssen

Wiederholung zu Flüssen Universität Konstanz Methoden der Netzwerkanalyse Fachbereich Informatik & Informationswissenschaft SS 2008 Prof. Dr. Ulrik Brandes / Melanie Badent Wiederholung zu Flüssen Wir untersuchen Flüsse in Netzwerken:

Mehr

Kürzeste Wege in Graphen. Orte mit Straßenverbindungen. Coma I Rolf Möhring

Kürzeste Wege in Graphen. Orte mit Straßenverbindungen. Coma I Rolf Möhring Kürzeste Wege in Graphen Orte mit Straßenverbindungen Orte als Knoten eines Graphen Straßenverbindungen als Kanten eines Graphen Ungerichteter Graph G = (V,E) Kanten Knoten Knotenmenge V = {,,n} oder {,,n

Mehr

Kapitel 1. Exakte Suche nach einem Wort. R. Stiebe: Textalgorithmen, WS 2003/04 11

Kapitel 1. Exakte Suche nach einem Wort. R. Stiebe: Textalgorithmen, WS 2003/04 11 Kapitel 1 Exakte Suche nach einem Wort R. Stiebe: Textalgorithmen, WS 2003/04 11 Überblick Aufgabenstellung Gegeben: Text T Σ, Suchwort Σ mit T = n, = m, Σ = σ Gesucht: alle Vorkommen von in T Es gibt

Mehr

Programmierkurs Python II

Programmierkurs Python II Programmierkurs Python II Michaela Regneri & tefan Thater FR 4.7 Allgemeine Linguistik (Computerlinguistik) Universität des aarlandes ommersemester 2010 (Charniak, 1997) the dog biscuits N V N V the dog

Mehr

Autonomes Kreuzungsmanagement für Kraftfahrzeuge

Autonomes Kreuzungsmanagement für Kraftfahrzeuge Autonomes Kreuzungsmanagement für Kraftfahrzeuge Trajektorienplanung mittels Dynamischer Programmierung Torsten Bruns, Ansgar Trächtler AUTOREG 2008 / Baden-Baden / 13.02.2008 Szenario Kreuzungsmanagement

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

Dynamische Mengen. Realisierungen durch Bäume

Dynamische Mengen. Realisierungen durch Bäume Dynamische Mengen Eine dynamische Menge ist eine Datenstruktur, die eine Menge von Objekten verwaltet. Jedes Objekt x trägt einen eindeutigen Schlüssel key[x]. Die Datenstruktur soll mindestens die folgenden

Mehr

Mathematik für Naturwissenschaften, Teil 2

Mathematik für Naturwissenschaften, Teil 2 Lösungsvorschläge für die Aufgaben zur Vorlesung Mathematik für Naturwissenschaften, Teil Zusatzblatt SS 09 Dr. J. Schürmann keine Abgabe Aufgabe : Eine Familie habe fünf Kinder. Wir nehmen an, dass die

Mehr

Aufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph.

Aufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph. Aufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph. a) Es seien W 1 = (V, E 1 ), W 2 = (V, E 2 ) Untergraphen von G, die beide Wälder sind. Weiter gelte E 1 > E 2.

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Einführung in die Theorie der Markov-Ketten. Jens Schomaker Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

3 Markov-Eigenschaft der Brownschen Bewegung

3 Markov-Eigenschaft der Brownschen Bewegung Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

Übersicht. Rot-schwarz Bäume. Rot-schwarz Bäume. Beispiel. Eigenschaften. Datenstrukturen & Algorithmen. Rot-schwarz Bäume Eigenschaften Einfügen

Übersicht. Rot-schwarz Bäume. Rot-schwarz Bäume. Beispiel. Eigenschaften. Datenstrukturen & Algorithmen. Rot-schwarz Bäume Eigenschaften Einfügen Datenstrukturen & Algorithmen Übersicht Rot-schwarz Bäume Eigenschaften Einfügen Matthias Zwicker Universität Bern Frühling 2009 2 Rot-schwarz Bäume Binäre Suchbäume sind nur effizient wenn Höhe des Baumes

Mehr

Smart Graphics: Methoden 2 Suche

Smart Graphics: Methoden 2 Suche Smart Graphics: Methoden 2 Suche Vorlesung Smart Graphics LMU München Medieninformatik Butz/Boring Smart Graphics SS2007 Methoden: Suche Folie 1 Themen heute Smart Graphics Probleme als Suchprobleme Suchverfahren

Mehr

Algorithmentheorie Randomisierung. Robert Elsässer

Algorithmentheorie Randomisierung. Robert Elsässer Algorithmentheorie 03 - Randomisierung Robert Elsässer Randomisierung Klassen von randomisierten Algorithmen Randomisierter Quicksort Randomisierter Primzahltest Kryptographie 2 1. Klassen von randomisierten

Mehr

8 Polynominterpolation

8 Polynominterpolation 8 Polynominterpolation Interpolations-Aufgabe: Von einer glatten Kurve seien nur lich viele Punktewerte gegeben. Wähle einen lichdimensionalen Funktionenraum. Konstruiere nun eine Kurve in diesem Funktionenraum

Mehr

23. November Betweenness Centrality Closeness Centrality. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 108

23. November Betweenness Centrality Closeness Centrality. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 108 23. November 2011 Betweenness Centrality Closeness Centrality H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 108 Betweenness Centrality Grundlegende Idee: Ein Knoten ist wichtig, wenn er auf

Mehr

Diskrete Wahrscheinlichkeitstheorie - Probeklausur

Diskrete Wahrscheinlichkeitstheorie - Probeklausur Diskrete Wahrscheinlichkeitstheorie - robeklausur Sommersemester 2007 - Lösung Name: Vorname: Matrikelnr.: Studiengang: Hinweise Sie sollten insgesamt Blätter erhalten haben. Tragen Sie bitte Ihre Antworten

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.

Mehr

Routing Algorithmen. Begriffe, Definitionen

Routing Algorithmen. Begriffe, Definitionen Begriffe, Definitionen Routing (aus der Informatik) Wegewahl oder Verkehrslenkung bezeichnet in der Telekommunikation das Festlegen von Wegen für Nachrichtenströme bei der Nachrichtenübermittlung über

Mehr

Vorlesung 2 KÜRZESTE WEGE

Vorlesung 2 KÜRZESTE WEGE Vorlesung 2 KÜRZESTE WEGE 34 Kürzeste Wege im Graphen Motivation! Heute:! Kürzeste Wege von einem Knoten (SSSP)! Kürzeste Wege zwischen allen Knotenpaaren (APSP)! Viele Anwendungen:! Navigationssysteme!

Mehr

Klausur Stochastik und Statistik 31. Juli 2012

Klausur Stochastik und Statistik 31. Juli 2012 Klausur Stochastik und Statistik 31. Juli 2012 Prof. Dr. Matthias Schmid Institut für Statistik, LMU München Wichtig: ˆ Überprüfen Sie, ob Ihr Klausurexemplar vollständig ist. Die Klausur besteht aus fünf

Mehr

Simulationsmethoden in der Bayes-Statistik

Simulationsmethoden in der Bayes-Statistik Simulationsmethoden in der Bayes-Statistik Hansruedi Künsch Seminar für Statistik, ETH Zürich 6. Juni 2012 Inhalt Warum Simulation? Modellspezifikation Markovketten Monte Carlo Simulation im Raum der Sprungfunktionen

Mehr

3. Das Reinforcement Lernproblem

3. Das Reinforcement Lernproblem 3. Das Reinforcement Lernproblem 1. Agierender Agent in der Umgebung 2. Discounted Rewards 3. Markov Eigenschaft des Zustandssignals 4. Markov sche Entscheidung 5. Werte-Funktionen und Bellman sche Optimalität

Mehr

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong Part-of-Speech Tagging Friedrich-Alexander-Universität Professur für Computerlinguistik Nguyen Ai Huong 15.12.2011 Part-of-speech tagging Bestimmung von Wortform (part of speech) für jedes Wort in einem

Mehr

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit) 3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände

Mehr

Regularitätsresultate für parabolische Gleichungen mit nichtlokalem Operator

Regularitätsresultate für parabolische Gleichungen mit nichtlokalem Operator Universität Bielefeld Regularitätsresultate für parabolische Gleichungen mit nichtlokalem Operator Matthieu Felsinger Universität Bielefeld Mathematisches Kolloquium, TU Clausthal 05. Februar 2014 1 Einleitung

Mehr

Maximale s t-flüsse in Planaren Graphen

Maximale s t-flüsse in Planaren Graphen Maximale s t-flüsse in Planaren Graphen Vorlesung Algorithmen für planare Graphen June 18, 2012 Ignaz Rutter INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg

Mehr

B / B* - Bäume. Guido Hildebrandt Seminar Datenbanksysteme

B / B* - Bäume. Guido Hildebrandt Seminar Datenbanksysteme B / B* - Bäume Guido Hildebrandt Seminar Datenbanksysteme 25.11.2010 Gliederung Einleitung Binärbaum B - Baum B* - Baum Varianten Zusammenfassung Quellen Gliederung Einleitung Binärbaum B - Baum B* - Baum

Mehr

Datenstrukturen & Algorithmen

Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Rot-schwarz Bäume Eigenschaften Rotationen Einfügen (Löschen) 2 Einführung Binäre Suchbäume Höhe h O(h) für Operationen

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:

Mehr

Probleme aus NP und die polynomielle Reduktion

Probleme aus NP und die polynomielle Reduktion Probleme aus NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 15. Dezember 2009 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit

Mehr

Zweizusammenhang und starker Zusammenhang

Zweizusammenhang und starker Zusammenhang .. Zeizusammenhang und starker Zusammenhang Carsten Gutenger Vorlesung Algorithmen und Datenstrukturen WS /. Januar Zeizusammenhang Betrachte ein Netzerk (Graph) Z.B. Computernetzerk, Flug- oder Schienennetzerk

Mehr

Smart Graphics: Methoden 2 Suche

Smart Graphics: Methoden 2 Suche LMU München Medieninformatik Butz/Hilliges Smart Graphics WS2005 23.11.2005 Folie 1 Smart Graphics: Methoden 2 Suche Vorlesung Smart Graphics Andreas Butz, Otmar Hilliges Mittwoch, 23. November 2005 LMU

Mehr

Algorithmische Bioinformatik

Algorithmische Bioinformatik Algorithmische Bioinformatik Hidden-Markov-Modelle Viterbi - Algorithmus Ulf Leser Wissensmanagement in der Bioinformatik Inhalt der Vorlesung Hidden Markov Modelle Baum, L. E. and Petrie, T. (1966). "Statistical

Mehr

Algorithmen für schwierige Probleme

Algorithmen für schwierige Probleme Algorithmen für schwierige Probleme Britta Dorn Wintersemester 2011/12 30. November 2011 Wiederholung Baumzerlegung G = (V, E) Eine Baumzerlegung von G ist ein Paar {X i i V T }, T, wobei T Baum mit Knotenmenge

Mehr

Aufgabe 1: Berechnen Sie für den in Abbildung 1 gegebenen Graphen den. Abbildung 1: Graph für Flussproblem in Übungsaufgabe 1

Aufgabe 1: Berechnen Sie für den in Abbildung 1 gegebenen Graphen den. Abbildung 1: Graph für Flussproblem in Übungsaufgabe 1 Lösungen zu den Übungsaufgaben im Kapitel 4 des Lehrbuches Operations Research Deterministische Modelle und Methoden von Stephan Dempe und Heiner Schreier Aufgabe 1: Berechnen Sie für den in Abbildung

Mehr

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum

Mehr

Unterscheidung: Workflowsystem vs. Informationssystem

Unterscheidung: Workflowsystem vs. Informationssystem 1. Vorwort 1.1. Gemeinsamkeiten Unterscheidung: Workflowsystem vs. Die Überschneidungsfläche zwischen Workflowsystem und ist die Domäne, also dass es darum geht, Varianten eines Dokuments schrittweise

Mehr

Daniel Borchmann. Sommerakademie Görlitz September 2007

Daniel Borchmann. Sommerakademie Görlitz September 2007 Einführung in Semidenite Programmierung Daniel Borchmann Sommerakademie Görlitz 2007 12. September 2007 1 Einleitung Lineare Optimierung Semidenite Optimierung 2 MAX-CUT MAX-BISECTION MAX-2SAT Einleitung

Mehr

Verteilte Systeme. Verteilte Systeme. 5 Prozeß-Management SS 2016

Verteilte Systeme. Verteilte Systeme. 5 Prozeß-Management SS 2016 Verteilte Systeme SS 2016 Universität Siegen rolanda.dwismuellera@duni-siegena.de Tel.: 0271/740-4050, Büro: H-B 8404 Stand: 31. Mai 2016 Betriebssysteme / verteilte Systeme Verteilte Systeme (1/14) i

Mehr

Baumsuche, Partielle Ordnungen und eine neue Familie uninformierter A

Baumsuche, Partielle Ordnungen und eine neue Familie uninformierter A Baumsuche, Partielle Ordnungen und eine neue Familie uninformierter Algorithmen..9 Übersicht Einführung Übersicht - Verfahren - Eigenschaften Übersicht - Verfahren - Eigenschaften Übersicht - Verfahren

Mehr

Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen

Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Optimierungsprobleme

Mehr

Babeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005. Paradigmen im Algorithmenentwurf

Babeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005. Paradigmen im Algorithmenentwurf Babeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005 Paradigmen im Algorithmenentwurf Problemlösen Problem definieren Algorithmus entwerfen

Mehr

Algorithmentheorie. 13 - Maximale Flüsse

Algorithmentheorie. 13 - Maximale Flüsse Algorithmentheorie 3 - Maximale Flüsse Prof. Dr. S. Albers Prof. Dr. Th. Ottmann . Maximale Flüsse in Netzwerken 5 3 4 7 s 0 5 9 5 9 4 3 4 5 0 3 5 5 t 8 8 Netzwerke und Flüsse N = (V,E,c) gerichtetes Netzwerk

Mehr

Bäume. 2006 Jiri Spale, Algorithmen und Datenstrukturen - Bäume 1

Bäume. 2006 Jiri Spale, Algorithmen und Datenstrukturen - Bäume 1 Bäume 2006 Jiri Spale, Algorithmen und Datenstrukturen - Bäume 1 Inhalt Grundbegriffe: Baum, Binärbaum Binäre Suchbäume (Definition) Typische Aufgaben Suchaufwand Löschen allgemein, Methode Schlüsseltransfer

Mehr

Algo&Komp. - Wichtige Begriffe Mattia Bergomi Woche 6 7

Algo&Komp. - Wichtige Begriffe Mattia Bergomi Woche 6 7 1 Kürzeste Pfade Woche 6 7 Hier arbeiten wir mit gewichteten Graphen, d.h. Graphen, deren Kanten mit einer Zahl gewichtet werden. Wir bezeichnen die Gewichtsfunktion mit l : E R. Wir wollen einen kürzesten

Mehr

Die Kopplung von Markovketten und die Irrfahrt auf dem Torus

Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Verena Monschang Vortrag 20.05.20 Dieser Seminarvortrag thematisiert in erster Linie die Kopplung von Markovketten. Zu deren besseren Verständnis

Mehr