2. Die Erkennung gesprochener Sprache. Bei der Verarbeitung gesprochener Sprache gibt es zwei Grundaufgaben:
|
|
- Thomas Pohl
- vor 5 Jahren
- Abrufe
Transkript
1 64 2. Die Erkennung gesprochener Sprache Bei der Verarbeitung gesprochener Sprache gibt es zwei Grundaufgaben: - Ein gegebenes Sprachsignal ist zu verarbeiten, d.h. das System soll mindestens etwas wie eine Transkription erzeugen, eventuell sogar noch die Struktur der Äußerung ermitteln und sie möglicherweise schließlich auch noch verstehen. - Ein gegebener Inhalt ist in eine gesprochene Äußerung umzusetzen. Die einzelnen Schritte dazu werden "in geschriebener Sprache abgewickelt", so daß das Problem der akustischen Synthese ganz an den Schluß verschoben werden kann: Aus einer bereits fertigen und strukturierten schriftlichen Äußerung ist ein akustischer Output herzustellen. Bei vielen Anwendungen (mit kommunikativer Komponente) benötigt man beides. In ihrer Schwierigkeit unterscheiden sich beide Aufgaben beträchtlich - die Synthese ist wesentlich leichter zu realisieren.
2 65 Weiter unten werden einige für die maschinelle Verarbeitung gesprochener Sprache wichtige Modelle und Prozeduren dargestellt. Dabei wird gezeigt, wie die Phonetik/Phonologie als Grundlagendisziplin einzusetzen ist. Die rein technischen Seiten des Gebiets können hier nicht behandelt werden (schon wegen des apparativen Aufwands, der in die Phonetik und nicht in die Computerlinguistik gehört) Allgemeines zu Spracherkennung Hinsichtlich der Schwierigkeiten bei der Spracherkennung ist zunächst festzuhalten, daß eine bei der Synthese befolgte säuberliche Trennung "das Akustische am Schluß" bei der Erkennung nicht unbesehen umgekehrt werden kann. Es läßt sich durch Versuche, bei denen Personen gehörte "Logatome" niederzuschreiben haben, leicht zeigen, daß der akustische Analysator des Menschen sehr unzuverlässig ist. Dies liegt weniger am Analysator als vielmehr am Signal. Dafür gibt es auch viele Beispiele aus dem täglichen Leben (z.b. beim gegenseitigen Bekanntmachen) Daß die Kommunikation dennoch funktioniert, liegt an der Redundanz der Sprache, die aber nur zu einem geringen Teil in der akusti-
3 66 schen Realisierung zu finden ist. Der Mensch greift beim Verstehen einer Äußerung (das Erkennen ist ein Teil davon) auf viele andere Quellen zurück (etwa in einem Gespräch): - Kenntnis des Sprachsystems - Äußerungssituation - Kotext - Deiktisches, Gesten, Mimik - Kommunikationswissen - Hintergrundwissen - individuelle Merkmale des Sprechers Diese Quellen ermöglichen die "Reparatur" der verschiedensten Unbestimmtheiten, aber auch Fehler und Auslassungen in einer Äußerung. So schwer es ist, eine sinnlose aber "einwandfrei" gesprochene Äußerung aufzuschreiben, so leicht ist es, eine sinnvolle, aber ziemlich fehlerhafte und undeutlich gesprochene Äußerung zu verstehen. Die Schwierigkeiten der automatischen Spracherkennung resultieren aus drei Notwendigkeiten, die damit zusammenhängen: 1. Es ist eine Abgrenzung des Outputs der Erkennung zu treffen, d.h. welche Eigenschaften des Sprachsignals soll der Output
4 enthalten und welche Verarbeitungsschritte werden von späteren Stufen ausgeführt Die genannten Quellen müssen für das System verfügbar gemacht werden. 3. Das System muß in die Lage versetzt werden, in einer Entscheidungssituation auf die relevante Quelle oder Information zuzugreifen. Wenn zu viele Entscheidungen offen bleiben oder zu viele Quellen befragt werden müssen, entsteht eine "kombinatorische Explosion", die insbesondere eine Echtzeitverarbeitung unmöglich macht. Die Spracherkennung ist ein ganz typisches Beispiel für die Notwendigkeit, aber auch für die Schwierigkeit, linguistische und mathematisch-technische Methoden adäquat zu verbinden. Die z.t. bestehenden Gegensätze zwischen einem strukturell-linguistischen und einem stochastisch-konnektionistischen Lager können der Computerlinguistik höchstens schaden, wenn keine Integration zustandekommt.
5 Das klassische Schema der Spracherkennung Es beruht auf einem Ablauf, der im wesentlichen mit der linguistischen Ebenenhierarchie korrespondiert und eine Voranstellung der akustischen Analyse favorisiert. Die einzige Wissensquelle ist das Sprachsystem (s.o.), das Schema enthält jedoch nicht die konkreten Kontrollmechanismen für den Einsatz der einzelnen Komponenten. Es besagt auch nichts über die Tatsache, daß jede in einer Stufe nicht beseitigte Unbestimmtheit als eine Alternative an die folgenden weitergereicht wird. Dabei enstehen oft multiplikative Effekte, die kombinatorische Explosion ist vorprogrammiert, wenn man sie nicht durch heuristische Techniken eindämmt. Erläuterungen zum Schema: Zur Darstellung des Sprachsignals und zur Merkmalextraktion s.o. (Phonetik). Die HMM's kommen in dem Schema nicht explizit vor, sie liefern die Worthypothesen (s. 2.5.). Die restlichen Stufen des Schemas entsprechen einer Anwendung von linguistischen LConstraints und LKontrollstrukturen, die sich aus den verschiedenen Ebenen ergeben und in Richtung Sprachverstehen gehen.
6 69
7 Anwendungen der Spracherkennung Bei der Spracherkennung gibt es eine große Skala von Möglichkeiten des Einsatzes, und daraus folgend, sehr unterschiedliche Ansprüche. Es lassen sich mindestens vier Dimensionen unterscheiden: Wortschatz: Wenige Wörter (etwa 50) bis unbeschränkter Wortschatz. Für bestimmte Einsatzfälle (z.b. Kommandos) genügen kleine Wortschätze, für öffentliche Kommunikation läßt sich der Wortschatz kaum beschränken. Syntax: Von einer stark normierten einfachen Syntax bis zum Dschungel der alltäglichen Kommunikation mit fehlerhaften und unvollständigen Sätzen. Viele Systeme verwenden übrigens sehr generelle aber einfache Syntaxmodelle als Kontrollstrukturen für das Ergebnis. Segmentierung: Obligatorische Pausen zwischen den Wörtern bis fließende Rede. Im ersten Fall handelt
8 71 es sich um einen Einzelworterkenner, bei dem gegebenenfalls ein unmittelbares pattern matching mit abgespeicherten "akustischen Wörtern" erfolgen kann. In jedem Fall ersparen die Pausen jedoch die schwierige Erkennung der Wortgrenzen. Unbestimmtheiten bei der Lösung dieser Teilaufgabe haben besonders negative Auswirkungen für die weitere Verarbeitung. Sprecher(un)abhängigkeit: Kleine Menge von Sprechern, auf die das System angelernt wird, bis Sprecherunabhängigkeit. Als Kompromiß die Möglichkeit, das System durch einen Testtext auf den Sprecher zu trainieren. In diesem Zusammenhang ist auch die Möglichkeit der Sprechererkennung zu nennen (unabhängig vom Inhalt). Dies ist z.b. für die Kriminalpolizei von Wichtigkeit und ergäbe einen "akustischen Fingerabdruck" (Telefonat eines Erpressers).
9 Hidden Markov Models (HMM's) (nach Andrei Andrejewitsch Markow ( , St. Petersburg), Begründer der Theorie der (Markowschen) Zufallsprozesse, auch stochastische Prozesse genannt). Die HMM's stellen das wichtigste mathematische Hilfsmittel bei der Erkennung gesprochener Sprache dar. Ihre Anwendung wurde vor allem in den IBM-Laboratorien in Yorktown Heights durch F. Jelinek (JELINEK 1990) vorangetrieben und erreichte Ende der 80er Jahre einen spektakulären Durchbruch Zufallsprozesse Bei einem stochastischen Prozeß nehmen Funktionen (hier X(.)) zufällige (d.h. vorher nicht bekannte oder bestimmbare) Werte an (sie sind Zufallsgrößen). Die Argumente der Funktionen sind "Stellen" oder "Takte" (bei jedem Takt ergibt sich ein Wert). Dies ist eine Annahme, die durch die späteren Anwendungen gerechtfertigt ist. X(t) ist somit der Wert, der sich für die Stelle/den Takt/
10 73 den Versuch t ergibt. Es wird ferner vorausgesetzt, daß die t's Labgezählt werden können und daß sie eine Reihenfolge aufweisen, was die Bezeichnung t n rechtfertigt. Beispiele: 1. Beim Würfeln ergibt sich in jedem Versuch eine natürliche Zahl (bei drei Würfeln zwischen 1 und 18). Die Werte sind nicht gleich wahrscheinlich, so haben 1 und 18 die geringste Wahrscheinlichkeit, die Zahlen `in der Mitte' dagegen eine viel höhere: 18 = = = etc. Der Ausgang jedes Versuchs ist von dem der vorangegangenen Versuche unabhängig, d.h. bei jedem neuen Versuch kann man nur sagen, daß x mit der Wahrscheinlichkeit p(x) eintreten wird, gleichgültig, was man vorher gewürfelt hatte: x = 18: p(x) = 1:216 = 0,0046 x = 17: p(x) = 3:216 = 0,0139 etc. 2. Beim `buchstabenweisen' Lesen von unbekannten dt. Texten hat man wieder eine Menge
11 74 von Werten, die ebenfalls unterschiedlich wahrscheinlich sind (e ist viel häufiger zu erwarten als q). Jede neue Stelle ist ein neuer Versuch, einen Buchstaben zu erhalten. In diesem Fall sind die Versuchsausgänge jedoch nicht unabhängig voneinander. Auch wenn man den Text nicht kennt, kann man gute Wetten darauf abschließen, daß nach einem q ein u kommen wird und nach einem c ein h. Weiß man sogar, daß man eben nacheinander s und c gelesen hatte, so kann man die Wette auf h als nächsten Wert noch erhöhen. Beide Prozesse (Würfeln, Lesen) haben die Eigenschaft, daß ihre Einbettung in die Zeit keinen Einfluß hat (sie sind stationär): Die Verhältnisse ändern sich nicht, wenn man schon eine Stunde gewürfelt hat oder wenn man den Text irgendwo mittendrin beginnt. Dies gilt z.b. für bestimmte Prozesse in der Natur nicht (Wetter, Organismen). Es gibt auch `abstrakte' Prozesse, die nicht stationär sind (etwa selektive "Reduktion"). Ferner gilt für diese Prozesse, daß man - wenn überhaupt - eine beste Voraussage aus den Ergebnissen der unmittelbar vor dem betrachteten Versuch liegenden Versuche ableiten kann: Was 3 Stellen nach q kommt, läßt sich nur noch sehr schwer sagen. Die
12 Vergangenheit wird immer unwichtiger, je weiter sie entfernt ist. Auch das muß eo ipso nicht gelten: t n sind die Jahre, X(.) die Maikäfer-Populationen. 75 Ein konkretes Würfelspiel oder das Lesen eines bestimmten Textes sind Realisierungen des jeweiligen Prozesses. Die Beschreibung des Prozesses ist ein Modell dessen, was man bei einer Realisierung "erwarten" kann. Je besser das Modell, um so bessere Wetten kann man bei jeder Realisierung abschließen. Für das Würfeln und (mit einer gewissen Unsicherheit, die hier keine Rolle spielt) auch für das Lesen kann man Lbedingte Wahrscheinlichkeiten dafür ermitteln, welche Zahl/welcher Buchstabe x n vorkommen wird, wenn man schon einige vorangehende Zahlen/- Buchstaben kennt: P(X(t n ) = x n * X(t n-1 ) = x n-1, X(t n-2 ) = x n-2,...) Dies ist die Wahrscheinlichkeit dafür, beim n!ten Versuch - die Zahl x n zu würfeln, - den Buchstaben x n zu lesen, wenn man in den vorangegangenen Versuchen
13 - die Zahlen... x n!2, x n!1 gewürfelt - die Buchstaben... x n!2, x n!1 gelesen hat. Die Wahrscheinlichkeiten in den folgenden Beispielen mit "." sind "Schätzungen"! Für das Lesen: 76 P(X(t n ) = u * X(t n-1 ) = q). 0,99 P(X(t n ) = h * X(t n-1 ) = q). 0 P(X(t n ) = h * X(t n-1 ) = c, X(t n-2 ) = s,). 0,95 (nicht = 1 wegen Scala, Script,...!) P(X(t n ) = u * X(t n-1 ) = c, X(t n-2 ) = s,). 0 (nicht = 0 wegen Escudo,...!) Für das Würfeln: P(X(t n ) = 18 * X(t n-1 ) = 1) = P(X(t n ) = 18 * X(t n-1 ) = 2) =... P(X(t n ) = 18 * X(t n-1 ) = 18) = 1:216 Beim Würfeln sind die bedingten Wahrscheinlichkeiten überflüssig, beim Lesen keinesfalls. Das Würfeln wird im folgenden nicht mehr betrachtet, da die Struktur dieses
14 77 Prozesses für das zu behandelnde Problem offensichtlich zu einfach ist. Insbesondere gilt beim Würfeln P(áâ) = P(á)P(â) Motivation der HMM's Man kann für derartige Prozesse wie das Lesen eines unbekannten Textes einer bekannten Sprache ein mathematisches Modell schaffen, in dem man die offensichtlich vorhandenen statistischen Gegebenheiten ausnützt. Dieses Modell soll einerseits aussagekräftig genug sein, um - erfolgreiche Wetten zu gestatten, d.h. die "realen" Erwartungen während des Prozesses zu beschreiben; - bestimmte Buchstabenketten als Ausnahmen oder als ungewöhnlich zu kennzeichnen, ohne sie völlig zu verwerfen; - im Falle eines unkenntlichen oder fehlenden Buchstabens eine Ergänzung vornehmen zu können, und zwar so: "Wahrscheinlich steht hier der Buchstabe..., es könnte aber auch... sein." Das Modell soll andererseits nicht zu kompliziert und aufwendig sein. Betrachtet man die oben bereits angegebenen Eigenschaften des "Leseprozesses", so bietet es sich an, dafür als stochastisches Modell
15 78 gerade eines zu wählen, das auf der Kenntnis der bedingten Wahrscheinlichkeiten beruht: P(X(t n ) = x n * X(t n-1 ) = x n-1 ) (die Wahrscheinlichkeit dafür, daß man x n erwarten kann, wenn man gerade x n-1 hatte) Anders formuliert, das Modell gibt vom gerade vorliegenden Wert (d.h. Buchstaben) ausgehend die Wahrscheinlichkeit der unmittelbar nächsten Werte an, der Prozeß wird als ein Prozeß ohne Gedächtnis modelliert, d.h. die fernere Vergangenheit wird ausgeblendet. Seine Basis sind die Wahrscheinlichkeiten der Buchstabenpaare, die man statistisch ermitteln kann (für das Deutsche einschließlich Leerstelle 31x31 Paare): P(a,a) P(a,b) P(a,c)... = P(a) P(b,a) P(b,b) P(b,c)... = P(b) P(c,a) P(c,b) P(c,c)... = P(c) = P(a) = P(b) = P(c) = 1
16 79 In dieser Matrix beträgt die Summe aller Werte Eins. Daraus ergeben sich zunächst die absoluten Wahrscheinlichkeiten der Buchstaben als P(a) = P(a,a) + P(a,b) + P(a,c) +... (Zeilensumme) oder = P(a,a) + P(b,a) + P(c,a) +... (Spaltensumme) Die bedingten Wahrscheinlichkeiten sind schließlich P(â,á) P(X(t n ) = á * X(t n-1 ) = â) = P(â) oder vereinfacht, da stationär: z.b. P(â,á) P(á*â) = P(â) P(q,u) P(u*q) = ,99 P(q) (qu kommt fast so häufig vor wie q, d.h. fast alle q's haben ein u nach sich)
17 80 Man kann ebenso die Matrix der bedingten Wahrscheinlichkeiten bilden: P(a*a) P(b*a) P(c*a)... = 1 P(a*b) P(b*b) P(c*b)... = 1 P(a*c) P(b*c) P(c*c)... = HINWEIS: Man beachte, daß diese Matrix in ihrer Bezeichnung(!) gegenüber der obigen gestürzt ist, da P(á*â) für â,á steht. Dies ist das endgültige Modell für das Lesen eines Textes in einer Sprache, für die diese Matrix zutrifft. Für die Spracherkennung muß ein solches Modell noch um eine Komponente erweitert werden: Der Spracherkenner "liest" (de facto: hört) ja keine ganzen Phoneme oder Laute, sondern Bruchstücke davon, die sich in bestimmter Weise zu diesen größeren Einheiten kombinieren. Die Statistik ist daher auf derartige Stücke zu beziehen, und ferner ist - wieder statistisch - festzulegen, wovon ein bestimmtes Stück welcher Teil sein könnte.
18 Was ist hidden an den HMM's? Damit man zu einer mathematisch handhabbaren Definition kommt, muß man den Leseprozeß in einen Schreibprozeß umwandeln, d.h. ein Modell für die Produktion von Buchstabenfolgen schaffen (d.h. wie beim Würfeln, wo die Folge ja auch erst geschaffen wird). Dies gelingt, indem Zustände eingeführt werden und die bedingten Übergangswahrscheinlichkeiten auf diese Zustände bezogen werden. Zu jedem Zustand müssen außerdem Wahrscheinlichkeiten dafür angegeben werden, welcher Buchstabe bei welchem Zustand als Output erscheint. Das folgende Beispiel aus WHEDDON/ LINGGARD 1990: 212ff. ist ein solches Modell. Es zeigt einen left-right-ablauf, der für HMM's nicht charakteristisch ist, für die Sprachproduktion und -erkennung aber schon. Die Matrix A ist daher eine Dreiecksmatrix. Außerdem zeigen die Zustände ein gewisses "Beharrungsvermögen" - ebenfalls typisch für die gesprochene Sprache, da die betrachteten Intervalle sehr kurz sind. Die Matrix A = [a ij ] gibt die Übergangswahrscheinlichkeiten zwischen den Zuständen an: P(s n * s n-1 ) = a ij
19 z.b. n * state1@t n-1 ) = 0,3 (= a 12 ) 82 s j,s i 0 {1, 2, 3, 4, 5} Die Matrix B = [b jk ] gibt an, mit welcher Wahrscheinlichkeit in einem Zustand ein Symbol ausgegeben wird: P(outputting v k from state s j ) = b jk z.b. P(outputting A from state2) = 0,3 (= b 21 ) v k 0 {A, B, C, Z} Schließlich wird noch eine "Initialzündung" benötigt, um den stochastischen Prozeß in Gang zu setzen. Dies leistet der Vektor ð, der ausdrückt, daß mit einer Wahrscheinlichkeit von je 0,5 der Startzustand 1 oder 2 sein kann, aber nicht 3, 4 oder 5. Außerdem ist festzulegen, bei welchen Zuständen der Prozeß anhalten darf (hier: 5).
20 83
21 84 Folgende Ketten sind für diesen Prozeß - relativ wahrscheinlich: B B A A C B B C B Z Z C C B B B A B B C B B B B Z - extrem unwahrscheinlich, aber möglich: A C C Z C A A C Z - unmöglich: (Anfangsbedingung ð verletzt) Z , (Matrix A verletzt) (Matrix B verletzt)
22 ... A Z ,4... 2,4 (Endbedingung verletzt)... B Der nächste begriffliche Schritt geht davon aus, daß für mögliche Ketten von Ausgabesymbolen die Zustandsfolgen nicht eindeutig bestimmt sein müssen und daß damit stochastische Bewertungen verbunden sind: 0,8 0, B B.... B B.. 0,7 0,7 0,2 0,7 Die linke Zuordnung ist etwa 10mal besser als die rechte (0,056 vs. 0,006). Wenn die Umgebung von "B B" dies erlaubt (wie z.b. am Beginn einer Kette), wird man die linke wählen, da es nach rechts keine Auswirkungen gibt. Im allgemeinen muß man die gesamte Umgebung der betrachteten Teilkette berücksichtigen. Fazit: Zu möglichen Symbolketten gibt es bessere und schlechtere Zustandsfolgen. Die Aufgabe besteht darin, zu einer vorgegebenen Kette eine beste Zustandsfolge zu finden, wenn es überhaupt eine gibt. Diese zunächst
23 verborgene Folge ist dann die/eine beste Korrespondenz dieser Kette zum Modell Anwendung der HMM's Die Artikulation kann vereinfacht als ein Prozeß betrachtet werden, bei dem - eine (geordnete) Folge von (artikulatorischen) Zuständen durchlaufen wird und - jeder Zustand einen gewissen Output liefert. Was man hört, ist der Output, er kann beobachtet werden, was man nicht unmittelbar beobachten kann, sind die Zustände. Einige Zustände sind partiell beobachtbar (man denke etwa an das Lippenlesen und das Synchron-Sprechen, dies ist jedoch marginal). Sowohl bei der Folge der Zustände als auch beim Verhältnis "Zustand - Output" muß man von probabilistischen Beziehungen ausgehen, u.a. auch wegen folgender Aspekte: - individuelle Sprechermerkmale - Unterschiedliches Sprechtempo - prosodische Merkmale (Wort im Satz!) Aufgrund der Komplexität der Artikulation muß die Anzahl der Zustände als sehr groß angenommen werden, insbesondere wenn man in
24 87 einem Modell artikulatorische Übergänge, Assimilationen etc. angemessen berücksichtigen will. Die folgenden Betrachtungen gehen davon aus, daß HMM's auf einzelne Worte bezogen werden. Dabei kann man die Zustandsmenge für das gesamte Vokabular "universell" definieren (bestimmte Zustände kommen bei bestimmten Wörtern dann eben nicht vor). Die Modelle werden in einer Trainingsphase entwickelt. Die entscheidende Voraussetzung dafür ist die `Merkmalisierung' der akustischen Parameter im Sprachsignal (durch Merkmalvektoren). Dies wird u.a. durch eine Quantifizierung von Formanten erreicht (Zuordnung zwischen Frequenzbändern und Intensitäten). Pro Wort gibt es ein HMM (oder mehrere, hier ignoriert), und die Modelle werden bei der Erkennungsphase eingesetzt.
25 88
26 89 Die Anwendung der HMM's geschieht nach folgendem Schema: Es sind (nach der Trainingsphase) vorgegeben: 1. die HMM's M 1, M 2,... M r,... für die Elemente W 1, W 2,... W r,... des Vokabulars. Jedes M r ist als Tripel [A r, B r, ð r ] definiert. Sei M eines dieser HMM's. Für M existieren 2. die Zustandmenge {s 1,... s i,... s j,...}, 3. das Output-Aphabet {v 1,... v k,...}, 4. die Matrix A = [a ij ], 5. die Matrix B = [b jk ], 6. der Vektor ð. Die Output-Symbole v k von M werden in Beziehung gesetzt zu Vektoren O 1,... O m,... d.h. jedes Auftreten eines O m wird als ein v k in das HMM M eingeordnet. Es sei O = O 1,... O t,... O T eine Folge von
27 90 Vektoren, die eine gesprochene Realisierung eines Wortes repräsentiert. Bei Annahme eines M r (oder "universell", s.o.) entsteht daraus eine Folge V von v's mit T Stellen. Für jedes M r ist zu ermitteln, ob diese Folge V bei M r möglich ist und, wenn ja, welche Wahrscheinlichkeiten sich für die einzelnen Zustandsfolgen ergeben. Es sei P(O * M r ) diese Wahrscheinlichkeit bei einer besten Zustandsfolge in M r. Die Sequenz O wird denjenigen Wörtern (gewöhnlich natürlich nur einem) W r zugeordnet, für die P(O * M r ) einen maximalen Wert erreicht, der oberhalb einer gewissen Schwelle liegt (letzteres kann entfallen, wenn O ein Wort aus dem gelernten Vokabular repräsentiert). Die Berechnung von P(O * M r ) (und vorher: für die einzelnen Zustandsfolgen) ergibt bei der realen Anwendung einen sehr hohen Rechenaufwand. Es gibt verschiedene Verfahren, dies abzukürzen. Bei der Erkennung über die Wortgrenzen hinaus kann man sich nicht darauf beschränken, nur die Zuordnung zu berücksichtigen, die auf der Maximierung von P(O * M r ) basiert.
28 91 Andere Kriterien (z.b. Grammatik) können das Ergebnis des Erkenners umstoßen, so daß man dann auf suboptimale Zuordnungen zurückgreifen muß - wie bei der menschlichen Spracherkennung übrigens auch! Die Methode der HMM's hat in den letzten Jahren unerwartet gute Ergebnisse für die Spracherkennung geliefert. Auf dieser Basis gibt es relativ leistungsfähige Systeme. Die Szene ist gegenwärtig etwas unübersichtlich, da sehr in Bewegung. Es gibt bereits relativ leistungsfähige Erkenner auf der Basis von Windows-95. Von besonderer Bedeutung ist das bei IBM in Yorktown Heights von F. Jelinek entwickelte System Tagora, von dem auch eine bei IBM Deutschland entwickelte Version für das Deutsche existiert, deren Leistungsparameter bemerkenswert sind (auch PC-Version von VoiceType) Es gibt auf diesem Gebiet sogar regelmäßige Wettbewerbe zwischen den Systemen. Bei dieser Aufgabe ist dies sinnvoll und objektiv ausführbar.
29 Worthypothesengraphen Wenn es um die Erkennung ganzer Sätze und fließender Rede geht, müssen die im klassischen Schema der Spracherkennung (s. 2.2.) aufgeführten letzten Stufen durchlaufen werden. Die HMM's haben als Output Wortformen mit einer Gewichtung/Bewertung. Jede der Wortformen ist einem oder mehreren Zeitintervallen zugeordnet. Man kehrt die Beziehung besser um und definiert die für den Zweck benötigten Graphen so: Vorgegeben: Ein Zeitintervall T, aufgeteilt in Abschnitte t 1, t 2, t 3,... t N. (konkret: wie üblich 10 ms). Ein Hypothesengraph über T sei eine Menge P von Indexpaaren {[x1,y1], [x2,y2],... [xm,ym]} mit 1 # xm < ym # N für alle 1 # m # M, für die folgendes gilt: Es sei A m das durch t xm, t ym begrenzte Teilintervall und A = {A 1,... A m }. Dann gibt es zu jedem A 0 A Teilintervalle A 1, A 2,... aus A, so daß A, A 1, A 2,... paarweise disjunkt sind und A c A 1 c A 2 c... = T ist (A, A 1, A 2,... ist eine Zerlegung von T). n (=N)
30 m 1 x----x----x (t x1 = 1, t y1 = 3) A 1 2 x----x----x----x----x A 2 3 x----x A 3 4 x----x----x A 4 5 x----x A 5 6 x----x----x A 6 7 x----x A 7 (= M) 93 x x x----x (Störenfried) (Störenfried) Es gibt insgesamt folgende Durchläufe: x----x----x x----x x----x x----x x----x----x x----x----x x----x----x x----x----x----x----x x----x x----x Die harte Bedingung "die A m bilden ein Zerlegung" muß im praktischen Fall abschwächen oder fallen lassen, sie ist nur als Tendenz zu verstehen (s. Beispiel). Ein Worthypothesengraph sei ein Hypothesengraph, bei dem jedem Teilintervall A m eine Wortform zugeordnet ist. Diese Graphen sind ein formales Mittel zur Darstellung des Outputs des Spracherkenners.
31 94 Jedes t entspricht einem Abtastintervall. Die HMM's liefern für bestimmte Intervalle mögliche Phonemketten (hier gleich graphematisch dargestellt) und eine Wahrscheinlichkeit dafür, daß diese Hypothese zutrifft. Die anschließende Analyse muß eine Kette finden, die die gesamte Äußerung überschneidungsfrei abdeckt und den vorgegebenen Beschränkungen hinsichtlich Korrektheit genügt. Das folgende Ergebnis stammt von einem Spracherkenner an der Hamburger Universität und entstand im Projekt ASL (Architectures for Speech and Language). -SIL steht für Stille. Die Bewertungen sind Logarithmen zur Basis von Modellwahrscheinlichkeiten, näher an 0 sind bessere Bewertungen. Die Bewertungen sind längennormalisiert, also direkt vergleichbar.
32 95
33 96
34 97
Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt
Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum
MehrSignalverarbeitung 2. Volker Stahl - 1 -
- 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen
Mehr3 Wahrscheinlichkeitstheorie
Einige mathematische Konzepte 3 Wahrscheinlichkeitstheorie 3.1 Wahrscheinlichkeit Die Wahrscheinlichkeitstheorie modelliert Situationen, in denen Unsicherheit über bestimmte Aspekte der Umwelt vorherrscht.
MehrHidden Markov Modelle
Hidden Markov Modelle (Vorabversion begleitend zur Vorlesung Spracherkennung und integrierte Dialogsysteme am Lehrstuhl Medieninformatik am Inst. f. Informatik der LMU München, Sommer 2005) Prof. Marcus
Mehr= 7! = 6! = 0, 00612,
Die Wahrscheinlichkeit, dass Prof. L. die Wette verliert, lässt sich wie folgt berechnen: Ω = {(i 1,..., i 7 ) : i j {1... 7}, j = 1... 7}, wobei i, j für den Wochentag steht, an dem die Person j geboren
MehrStatistik I für Betriebswirte Vorlesung 2
Statistik I für Betriebswirte Vorlesung 2 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. April 2017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 2 Version: 11.
MehrStatistik I für Betriebswirte Vorlesung 2
Statistik I für Betriebswirte Vorlesung 2 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. April 2018 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 2 Version: 9. April
MehrHidden Markov Models
Hidden Markov Models Kursfolien Karin Haenelt 09.05002 1 Letzte Änderung 18.07002 Hidden Markov Models Besondere Form eines probabilistischen endlichen Automaten Weit verbreitet in der statistischen Sprachverarbeitung
MehrStatistik für Ingenieure Vorlesung 2
Statistik für Ingenieure Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 24. Oktober 2016 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen
MehrHidden Markov Modelle
Hidden Markov Modelle in der Sprachverarbeitung Paul Gabriel paul@pogo.franken.de Seminar Sprachdialogsysteme: Hidden Markov Modelle p.1/3 Überblick Merkmalsvektoren Stochastischer Prozess Markov-Ketten
MehrHidden Markov Models (HMM)
Hidden Markov Models (HMM) Kursfolien Karin Haenelt 1 Themen Definitionen Stochastischer Prozess Markow Kette (Visible) Markov Model Hidden Markov Model Aufgaben, die mit HMMs bearbeitet werden Algorithmen
MehrDynaTraffic Lösungen Einstiegsaufgaben
DynaTraffic Lösungen Einstiegsaufgaben 1. Interpretation von Verkehrssituation und Übergangsgraph a) Die Übergangswahrscheinlichkeit P(A,B)=0.1 bedeutet für ein Auto, das sich auf Spur A befindet, dass
MehrÄquivokationen. In der Spracherkennung. Michael Baumann Seminar (mit Bachelorarbeit)
Äquivokationen In der Spracherkennung Michael Baumann 532 0225336 michael.baumann@student.tuwien.ac.at Seminar (mit Bachelorarbeit) Inhalt Einführung Äquivokation, Ambiguität, Prosodie Signale Beispiele:
MehrSprachsynthese und Spracherkennung
90 Sprachsynthese und Spracherkennung von John N. Holmes Mit 51 Bildern und 69 Übungen mit Lösungshinweisen R. Oldenbourg Verlag München Wien 1991 INHALT Vorwort 11 1 Lautsprachliche Kommunikation 15 1.1
MehrKombinatorik. 1. Beispiel: Wie viele fünfstellige Zahlen lassen sich aus den fünf Ziffern in M = {1;2;3;4;5} erstellen?
1 Kombinatorik Aus einer Grundgesamtheit mit n Elementen wird eine Stichprobe k Elementen entnommen. Dabei kann die Stichprobe geordnet oder ungeordnet sein. "Geordnet" bedeutet, dass die Reihenfolge der
MehrStatistik I für Betriebswirte Vorlesung 2
Statistik I für Betriebswirte Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 11. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrTeil II. Wahrscheinlichkeitsrechnung
Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2014) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse
MehrTeil II. Wahrscheinlichkeitsrechnung. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129
Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse
MehrTeil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse
5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) Teil II Wahrscheinlichkeitsrechnung 5 Zufallsexperimente Ergebnisse Ereignisse Wahrscheinlichkeiten Deskriptive Statistik und Wahrscheinlichkeitsrechnung
MehrSpracherkennung. Gliederung:
Spracherkennung Gliederung: - Einführung - Geschichte - Spracherkennung - Einteilungen - Aufbau und Funktion - Hidden Markov Modelle (HMM) - HMM bei der Spracherkennung - Probleme - Einsatzgebiete und
MehrZusammenfassung Stochastik
Zusammenfassung Stochastik Die relative Häufigkeit Ein Experiment, dessen Ausgang nicht vorhersagbar ist, heißt Zufallsexperiment (ZE). Ein Würfel wird 40-mal geworfen, mit folgendem Ergebnis Augenzahl
MehrAngewandte Stochastik
Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel
MehrKapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen
Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,
MehrZeitreihenanalyse mit Hidden Markov Modellen
Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Zeitreihenanalyse mit Hidden Markov Modellen (nach http://www.cs.cmu.edu/~awm/tutorials VL PLT2
MehrEinführung in die automatische Spracherkennung
Einführung in die automatische Spracherkennung Klausur 30.07.2008 Name:... Vorname:... Matr.-Nr:... Studiengang:... Hinweise: 1. Schreiben Sie bitte auf jedes Zusatz-Blatt Ihren Namen und Ihre Matrikelnummer.
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Statistische Grundlagen Laura Kallmeyer Heinrich-Heine-Universität Düsseldorf Summer 2016 1 / 21 Diskrete Wahrscheinlichkeitsräume (1) Carstensen et al. (2010), Abschnitt
MehrDynaTraffic Modelle und mathematische Prognosen. Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten
DynaTraffic Modelle und mathematische Prognosen Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten Worum geht es? Modelle von Verkehrssituationen Graphen: Kanten, Knoten Matrixdarstellung
Mehr1 Grundprinzipien statistischer Schlußweisen
Grundprinzipien statistischer Schlußweisen - - Grundprinzipien statistischer Schlußweisen Für die Analyse zufallsbehafteter Eingabegrößen und Leistungsparameter in diskreten Systemen durch Computersimulation
MehrPr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.
2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet
MehrKapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente
Mehrstufige Zufallsexperimente Inhalt 6.1 6.1 Mehrstufige Experimente 6.2 6.2 Bedingte Wahrscheinlichkeiten Seite 2 6.1 Mehrstufige Experimente Grundvorstellung: Viele Viele Experimente werden der der
MehrHidden-Markov-Modelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene
MehrWürfelspiele und Zufall
Würfelspiele und Zufall Patrik L. Ferrari 29. August 2010 1 Random horse die Irrfahrt des Pferdchens Betrachte ein Schachbrett mit einem Pferd (Springer), welches sich nach den üblichen Springer-Regeln
MehrDas Spatprodukt 25. Insbesondere ist das Spatprodukt in jedem Faktor linear. a 1 = aa 2 + ba 3
Das Spatprodukt 25 (Sp 4) (aa, b, c) a(a, b, c) Insbesondere ist das Spatprodukt in jedem Faktor linear Montag,3 November 23 Satz 92 Drei Vektoren,, Spatprodukt (,, ) ist sind genau dann linear abhängig,
MehrEinführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte
Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Wahrscheinlichkeit Axiome nach Kolmogorov Gegeben sei ein Zufallsexperiment mit Ergebnisraum
MehrAllgemeine diskrete Wahrscheinlichkeitsräume II
6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete
MehrAllgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)
Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich
MehrAllgemeine diskrete Wahrscheinlichkeitsräume I
6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete
MehrEinführung in die Computerlinguistik Statistische Grundlagen
Diskrete Wahrscheinlichkeitsräume (1) Einführung in die Computerlinguistik Statistische Grundlagen Laura Heinrich-Heine-Universität Düsseldorf Wintersemester 2011/2012 In vielen Bereichen der CL kommt
MehrZufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen
Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Wichtige Tatsachen und Formeln zur Vorlesung Mathematische Grundlagen für das Physikstudium 3 Franz Embacher http://homepage.univie.ac.at/franz.embacher/
MehrÜbungsaufgaben Lösungen
Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij
MehrSpracherkennung TAREQ HASCHEMI HAW-SEMINAR WS16
Spracherkennung TAREQ HASCHEMI HAW-SEMINAR WS16 AGENDA Grundlegendes Sprache Anwendungsbeispiele Schwierigkeit Architektur Spracherkennungssystem Hidden Markov Modell Verbesserung durch Kombination mit
MehrProjektgruppe. Text Labeling mit Sequenzmodellen
Projektgruppe Enes Yigitbas Text Labeling mit Sequenzmodellen 4. Juni 2010 Motivation Möglichkeit der effizienten Verarbeitung von riesigen Datenmengen In vielen Bereichen erwünschte automatisierte Aufgabe:
MehrAufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /
Aufgabenblock 3 Aufgabe ) A sei das Ereignis: schwerer Verkehrsunfall B sei das Ereignis: Alkohol ist im Spiel Herr Walker betrachtet die Wahrscheinlichkeit P(B A) = 0.3 und errechnet daraus P(-B A) =
MehrAlgorithmen mit konstantem Platzbedarf: Die Klasse REG
Algorithmen mit konstantem Platzbedarf: Die Klasse REG Sommerakademie Rot an der Rot AG 1 Wieviel Platz brauchen Algorithmen wirklich? Daniel Alm Institut für Numerische Simulation Universität Bonn August
Mehr1. Gruppen. 1. Gruppen 7
1. Gruppen 7 1. Gruppen Wie schon in der Einleitung erläutert wollen wir uns in dieser Vorlesung mit Mengen beschäftigen, auf denen algebraische Verknüpfungen mit gewissen Eigenschaften definiert sind.
MehrVorlesung Statistik WING ASW Melanie Kaspar, Prof. Dr. B. Grabowski 1
Melanie Kaspar, Prof. Dr. B. Grabowski 1 Aus diesen Eigenschaften lassen sich alle weiteren Eigenschaften ableiten: Beweis zu 1) Melanie Kaspar, Prof. Dr. B. Grabowski 2 Aufgabe Die Wahrscheinlichkeit
MehrKapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen
Kapitel 6 Suffiziente Statistiken In diesem Kapitel untersuchen wir einen weiteren statistischen Begriff, der eng mit Likelihoodfunktionen zusammenhängt und mit der Frage nach eventuell möglicher Datenreduktion
MehrSpracherkennung und Sprachsynthese
Spracherkennung und Sprachsynthese Einführung in die Computerlinguistik Sommersemester 2012 Peter Kolb Spracherkennung / -synthese Spracherkennung (automatic speech recognition, ASR) Sprachsynthese (text-to-speech,
MehrIn einem mathematischen Modell wird dies beschrieben durch einen funktionalen Zusammenhang: x = f (t).
Aktueller Überblick 0 Einführende Worte ( ) 1 Geschichtlicher Überblick ( ) 2 Zufall 3 Perfekte Sicherheit und ihre Grenzen 4 Angriffsszenarien 5 Der komplexitätstheoretische Ansatz 6 Pseudozufallsgeneratoren
MehrMonte-Carlo Tests. Diplomarbeit. Wiebke Werft. Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf
Monte-Carlo Tests Diplomarbeit Wiebke Werft Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Düsseldorf im Dezember 2003 Betreuung: Prof. Dr. Arnold Janssen Inhaltsverzeichnis Einleitung
Mehr5 Eigenwerte und die Jordansche Normalform
Mathematik für Ingenieure II, SS 9 Freitag 6 $Id: jordantex,v 7 9/6/ :8:5 hk Exp $ 5 Eigenwerte und die Jordansche Normalform 5 Die Jordansche Normalform Nachdem wir bisher das Vorgehen zur Berechnung
MehrDWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr
2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,
MehrHidden Markov Model (HMM)
Hidden Markov Model (HMM) Kapitel 1 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig
MehrMustererkennung: Wahrscheinlichkeitstheorie. D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10
Mustererkennung: Wahrscheinlichkeitstheorie D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10 Definitionen (axiomatisch) Wahrscheinlichkeitsraum (Ω, σ, P), mit Ω Die Grundmenge, die Menge der elementaren
MehrUnabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
MehrKapitel 2: Spracherkennung Automatisches Verstehen gesprochener Sprache
Automatisches Verstehen gesprochener Sprache. Spracherkennung Martin Hacker Bernd Ludwig Günther Görz Professur für Künstliche Intelligenz Department Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
MehrAutomatische Spracherkennung
Automatische Spracherkennung 3 Vertiefung: Drei wichtige Algorithmen Teil 3 Soweit vorhanden ist der jeweils englische Fachbegriff, so wie er in der Fachliteratur verwendet wird, in Klammern angegeben.
MehrPlanung von Handlungen bei unsicherer Information
Planung von Handlungen bei unsicherer Information Dr.-Ing. Bernd Ludwig Lehrstuhl für Künstliche Intelligenz Friedrich-Alexander-Universität Erlangen-Nürnberg 20.01.2010 Dr.-Ing. Bernd Ludwig (FAU ER)
Mehr7. Kapitel: Zufallsvorgänge, Ereignisse und Wahrscheinlichkeiten
7. Kapitel: Zufallsvorgänge, Ereignisse und Wahrscheinlichkeiten 7.1 Zufallsvorgänge - zufälliges Geschehen/ Zufallsvorgang/ stochastische Vorgang: aus Geschehen/Vorgang/Experiment (mit gegebener Ausgangssituation)
MehrProseminar Komplexitätstheorie P versus NP Wintersemester 2006/07. Nichtdeterministische Turingmaschinen und NP
Proseminar Komplexitätstheorie P versus NP Wintersemester 2006/07 Vortrag am 17.11.2006 Nichtdeterministische Turingmaschinen und NP Yves Radunz Inhaltsverzeichnis 1 Wiederholung 3 1.1 Allgemeines........................................
MehrMatrizen. Nicht nur eine Matrix, sondern viele 0,5 0,2 0,3 A 0,2 0,7 0,1
Nicht nur eine Matrix, sondern viele Matrizen 0,5 0,2 0,3 A 0,2 0,7 0,1 015 0,15 0,75 075 0,1 01 aber keine Matrize und auch keine Matratzen 1 Wie beschreibt man Prozesse? Makov-Modell Modell Markov- Prozess
MehrStochastik und Markovketten
1 Zentrum für Bioinformatik der Universität des Saarlandes WS 22/23 2 Warum Stochastik? Viele Fragestellungen der Bioinformatik lassen sich auch heutzutage gar nicht oder nicht schnell genug exakt beantworten
Mehr8. Reinforcement Learning
8. Reinforcement Learning Einführung 8. Reinforcement Learning Wie können Agenten ohne Trainingsbeispiele lernen? Auch kennt der Agent zu Beginn nicht die Auswirkungen seiner Handlungen. Stattdessen erhält
MehrMehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
Mehr3. Prozesse mit kontinuierlicher Zeit
3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess
MehrDer Reisebeginn. Alexander Weiß, Humboldt UNI Berlin. Aufgabe aus dem digitalen Adventskalender 2009
Aufgabe aus dem digitalen Adventskalender 2009 Der Weihnachtsmann klappert Deutschland jedes Jahr in einer Rundreise ab. Er startet in einer Großstadt und fliegt dann das Bundesgebiet im Uhrzeigersinn
MehrAutomaten und Formale Sprachen SoSe 2013 in Trier
Automaten und Formale Sprachen SoSe 2013 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 2. Juni 2013 1 Automaten und Formale Sprachen Gesamtübersicht Organisatorisches Einführung Endliche
MehrHMMs und der Viterbi-Algorithmus
July 8, 2015 Das Problem Wir haben gesehen: wir können P( w q)p( q) ohne große Probleme ausrechnen ( w = b 1...b i, q = q 1...q i. P( w q)p( q) = π(q 1 )τ(b 1, q 1 )δ(q 1, q 2 )τ(b 2, q 2 )...δ(q i 1,
MehrVervollständigung Lateinischer Quadrate
Vervollständigung Lateinischer Quadrate Elisabeth Schmidhofer 01.12.2013 Inhaltsverzeichnis 1 Vorwort 3 2 Einleitung 4 2.1 Beispele.............................................. 4 3 Lateinische Quadrate
MehrWelche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff?
2. Übung: Wahrscheinlichkeitsrechnung Aufgabe 1 Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff? a) P ist nichtnegativ. b) P ist additiv. c) P ist multiplikativ.
MehrBayesianische Netzwerke - Lernen und Inferenz
Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel
MehrLineares Gleichungssystem - Vertiefung
Lineares Gleichungssystem - Vertiefung Die Lösung Linearer Gleichungssysteme ist das "Gauß'sche Eliminationsverfahren" gut geeignet - schon erklärt unter Z02. Alternativ kann mit einem Matrixformalismus
Mehr2.1.3 Interpretation von aussagenlogischen Formeln. 1) Intensionale Interpretation
2.1.3 Interpretation von aussagenlogischen Formeln 1) Intensionale Interpretation Definition 11: Eine intensionale Interpretation einer aussagenlogischen Formel besteht aus der Zuordnung von Aussagen zu
Mehr1. Gruppen. 1. Gruppen 7
1. Gruppen 7 1. Gruppen Wie schon in der Einleitung erläutert wollen wir uns in dieser Vorlesung mit Mengen beschäftigen, auf denen algebraische Verknüpfungen mit gewissen Eigenschaften definiert sind.
MehrInhalt. 1. Einführung in die Informatik. 2. Algorithmen Definition, Eigenschaften, Entwurf Darstellung von Algorithmen Beispiele.
1. Einführung in die Informatik Inhalt 2. Algorithmen Definition, Eigenschaften, Entwurf Darstellung von Algorithmen Beispiele Peter Sobe 1 Einführende Beispiele 2. Algorithmen Täglich werden Verarbeitungsvorschriften
MehrNatürliche Häufigkeiten zur intuitiven Einführung der bedingten Wahrscheinlichkeiten Eine Idee für den Mathematikunterricht der gymnasialen Oberstufe
Natürliche Häufigkeiten zur intuitiven Einführung der bedingten Wahrscheinlichkeiten Eine Idee für den Mathematikunterricht der gymnasialen Oberstufe Axel Müller 7. Oktober 2017 1 Der Begriff der bedingten
MehrFabian Heck Perlmutter & Soames Beethovenstr. 15, Raum Sommmersemester 2007
Transformationsgrammatik der 60er/70er Fabian Heck Perlmutter & Soames 1979 Institut für Linguistik Dienstag, 11h15-12h45 Universität Leipzig Beethovenstr. 15, Raum 1.516 Sommmersemester 2007 14. Regelordnungen
MehrBerechnung von W für die Elementarereignisse einer Zufallsgröße
R. Albers, M. Yanik Skript zur Vorlesung Stochastik (lementarmathematik) 5. Zufallsvariablen Bei Zufallsvariablen geht es darum, ein xperiment durchzuführen und dem entstandenen rgebnis eine Zahl zuzuordnen.
MehrSo berechnen Sie einen Schätzer für einen Punkt
htw saar 1 EINFÜHRUNG IN DIE STATISTIK: SCHÄTZEN UND TESTEN htw saar 2 Schätzen: Einführung Ziel der Statistik ist es, aus den Beobachtungen eines Merkmales in einer Stichprobe Rückschlüsse über die Verteilung
MehrFakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2018
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2018 S. Constantin (stefan.constantin@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 4 Maschinelles Lernen und Spracherkennung Abgabe
Mehr2. Symmetrische Gruppen
14 Andreas Gathmann 2 Symmetrische Gruppen Im letzten Kapitel haben wir Gruppen eingeführt und ihre elementaren Eigenschaften untersucht Wir wollen nun eine neue wichtige Klasse von Beispielen von Gruppen
MehrRumpfskript. Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen
Rumpfskript Elementare Wahrscheinlichkeitsrechnung Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen Vorbemerkung Vorbemerkung Das vorliegende Skript heißt nicht nur Rumpf skript, sondern
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
MehrBeispiel für die Minimierung von DEAs
Beispiel für die Minimierung von DEAs nach dem Verfahren aus [] (S. 7ff) Sebastian Wild und Markus E. Nebel 3. März 22 Gegeben sei folgender DEA A= ( {A,B,C,D,E,F,G,H}, {,}, δ, A, {C,F} ) mit start A B
MehrGrundbegriffe der Mengenlehre
Grundbegriffe der Mengenlehre Krzysztof P. Rybakowski Universität Rostock Fachbereich Mathematik 2003 11 07 1 Vorbemerkungen Ohne die Sprache der Mengenlehre lässt sich Mathematik nicht verstehen. Die
MehrBiometrieübung 2 Wahrscheinlichkeitsrechnung
Biometrieübung 2 (Wahrscheinlichkeitsrechnung) - Aufgabe Biometrieübung 2 Wahrscheinlichkeitsrechnung Aufgabe 1. Kartenspiel Wie groß ist die Wahrscheinlichkeit, daß man aus einem Kartenspiel mit 52 Karten
Mehr1. Grundlagen der Wahrscheinlichkeitsrechnung
1. Grundlagen der Wahrscheinlichkeitsrechnung Ereignisse und Wahrscheinlichkeiten Zufälliger Versuch: Vorgang, der (zumindest gedanklich) beliebig oft wiederholbar ist und dessen Ausgang innerhalb einer
MehrSatz 16 (Multiplikationssatz)
Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.
MehrLösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten
Lösungen zu Übungsblatt 0 Höhere Mathematik Master KI Hinweise: Die Aufgaben - beziehen sich auf das Thema Diskrete Zufallsgrößen, Ihre Verteilungen und Erwartungswerte. Siehe dazu auch das auf der Homepage
MehrSatz 18 (Satz von der totalen Wahrscheinlichkeit)
Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A 1,..., A n seien paarweise disjunkt und es gelte
MehrProbe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013
Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013 Klausurnummer Name: Vorname: Matr.Nummer: Bachelor: Master: Aufgabe 1 2 3 4 5 6 7 8 max. Punkte 10 5 6 7 5 10 9 8 tats. Punkte
MehrHidden Markov Modellen
Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Zeitreihenanalyse mit Hidden Markov Modellen (nach http://www.cs.cmu.edu/~awm/tutorials) VL PLT2
MehrBeispielseite (Band 1) 2. Ganzrationale Funktionen 2.4 Nullstellen bei Funktionen 3. Grades
Beispielseite (Band ). Ganzrationale Funktionen.4 Nullstellen bei Funktionen. Grades Funktionen. Grades ohne Absolutglied Bei ganzrationalen Funktionen. Grades ohne Absolutglied beginnt die Nullstellenberechnung
MehrWahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)
Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26 Ein Wahrscheinlichkeitsraum (Ω, P ist eine Menge Ω (Menge aller möglichen Ausgänge eines Zufallsexperiments: Ergebnismenge versehen mit einer Abbildung
Mehr