Sprachsynthese: Graphem-Phonem-Konvertierung

Größe: px
Ab Seite anzeigen:

Download "Sprachsynthese: Graphem-Phonem-Konvertierung"

Transkript

1 Sprachsynthese: Graphem-Phonem- Institut für Phonetik und Sprachverarbeitung Ludwig-Maximilians-Universität München 21. Dezember 2016

2 Table Lookup with Defaults (van den Bosch et al., 1993) Maschinelles Lernen Entscheidungsbäume Silbifizierung in Graphemfolge in Phonemfolge Wortbetonung

3 Notation: Grapheme: in spitzen Klammern; Phoneme in Schrägstriche nach SAM-PA; Graphem/Phonem/Wortvariablen: kursive Kleinbuchstaben; Graphemklassen (Vokal): kursive Großbuchstaben (V); # σ ] = vor Silbengrenze Ist die Abbildung <Graphem> /Phonem/ eindeutig? Nein. Beispiel <s>: <s> /s/ (was) <s> /z/ (Vase) <s> /S/ (stehen) <s> / / (Wasser) weiteres Beispiel: <u> in <Bund> und <Qualle>

4 Graphemkontext <s> /z/ V V ; aber: losen vs. Loserwerb <s> /S/ <t>; aber: Stabilität vs. Rost... reicht nicht aus Silbenstruktur Auslautverhärtung, keine Beeinflussung durch Graphemumgebung über Silbengrenzen hinweg <g> /g k/: Wege, Weg <s> /z s S/: Vase, Häuschen

5 Morphologie morphologischer Einfluß direkt und über die Silbenstruktur manifestiert direkt: Phonem-Identität abhängig von Morphemklasse Beispiele: <er> in Erlöser (/?E6l2:z6/); morph. er prefix + lös verb + er suffix. <er> /?E6/ im Präfix <er> /6/ im Suffix <e> in geben (/ge:b@n/); morph. geb verb + en infl. <e> /e:/ im einsilbigen Verbstamm <e> /@/ in Flektionsendung

6 indirekt: morphologische Struktur bestimmt Silbenstruktur und damit Phonem-Identität Beispiele: <ng> in Angel vs. Angelegenheit morph. angel noun vs. an prefix +ge prefix +leg verb +en suffix +heit suffix. <ng> /N/ keine Silbengrenze <ng> /n.g/ (hier: morphologisch bedingte) Silbengrenze <se> in losen vs. Losentscheid (/lo:s?entsait/): morph. los verb +en infl vs. los noun +ent prefix +scheid verb. <se> keine Silbengrenze <se> /s.?e/ (hier: morphologisch bedingte) Silbengrenze

7 : Grundlagen Zur Gewinnung des -Trainingsmaterials Zuordnung zusammengehöriger Abschnitte in Graphem- und Phonemsequenzen O b e r s c h u l z e u g n i s?+o: b 6 S u: l t+s OY k n I s sproblem formuliert als Minimierung der Distanz zwischen Graphem- und Phonemsequenz

8 : Levenshtein-Distanz Levenshtein-Distanz Minimal nötige Editierkosten um Sequenz v (Grapheme) in Sequenz w (Phoneme) umzuwandeln Standard-Editieroperationen: Substitution von v i durch w j : <u> /u:/ Löschung von v i : <r> Einfügung von w j : /?/

9 : Kostenfunktion Naiv Substitution c(v i, w j ) = Löschung, Einfügung { 0 : vi == w j 1 : else. (1) c(v i, ) = 1 (2) c(, w j ) = 1 (3) brauchbar für Wortvergleiche (z.b. automatische Rechtschreibkorrektur) unbrauchbar für Graphem-Phonem-Alignment: <x> /x/

10 : Table Lookup with Defaults Table Lookup with Defaults (van den Bosch et al., 1993) Training: Speicherung des jeweils kürzesten Graphemkontexts für ein eindeutiges Graphem-Phonem-Mapping in Tabelle G k a m m u ß /a/ /u:/ Sortierung nach Länge der Graphemsequenz 2 Default-Tabellen: Graphem-Fenster + am häufigsten damit ko-okkurierendes Phonem <v i 1 ><v i ><v i+1 > /w j / <v i > /w j /

11 : Table Lookup with Defaults : Suche nach passendem Graphem-Muster (von lang nach kurz) in Tabelle G Falls nicht vorhanden, Rückgriff auf Default-Tabellen Beispiel: zu konvertieren: <u> in Fuß in Tabelle G gefundenes Muster: uß Ausgabe: /u:/ Vorzüge rein datenbasierter Ansatz kein Expertenwissen nötig, sprachunabhängig

12 Maschinelles Lernen Ziel: Erlernen des Zusammenhangs zwischen Zielwerten (Kategorien oder kontinuierliche Werte) für Objekte und deren Eigenschaften. bezogen auf Graphem-Phonem- Objekte: Grapheme Eigenschaften: Graphem-Identität, umgebende Grapheme, Position des Graphems innnerhalb der Silbe,... Zielwerte: Phoneme

13 Maschinelles Lernen Objekte als kategorisierte Merkmalsvektoren (Featurevektoren) repräsentiert. Beispiel: unabhängige Variablen (Attribute) für Graphem v i : [<v i 1 >,<v i >,<v i+1 >, Morphemtyp, # σ ] Attributwerte: [a z, a z, a z, frei gebunden, 0 1] Merkmalsvektor für erstes <e> in geben: [g, e, b, frei, 1] Kategorie (abhängige Variable): /e:/

14 Maschinelles Lernen Variablenwerte: kategorial oder kontinuierlich kategorial: Graphem-Identität, Position in Silbe, Phonemklasse, Wortbetonung kontinuierlich: relative Position des Graphems im Wort, Lautdauer, F0-Wert

15 Maschinelles Lernen Überwachtes Lernen: Werte der abhängigen Variable in Trainingsdaten bekannt; C4.5, CART, neuronale Netze (ANN) Unüberwachtes Lernen: Werte nicht bekannt; Clustering, ANN Variablentypen: C4.5: kategorial/kontinuierlich kategorial; z.b. Akzent CART: kategorial/kontinuierlich kategorial/kontinuierlich; z.b. Lautdauer ANN: kontinuierlich kategorial/kontinuierlich

16 Entscheidungsbäume Quinlan (1993); quinlan Modellierung: Objekt: Pfad durch den Baum Eigenschaften: nonterminale Knoten (Attribute) + Kanten (Werte) Zielwerte: terminale Knoten Vorteil: Transparenz Wissensakquirierung möglich

17 Entscheidungsbäume Beispielausschnitt: s v i f # σ /s/ v i+1 c e h v i+2 a /z/ /S/ /s/

18 Entscheidungsbäume Rekursiver Aufbau des Baums Fall 1: Gehören alle Objekte, die noch nicht durch einen vollständigen Pfad im Baum repräsentiert sind, der gleichen Klasse an, so erzeuge ein Blatt und ordne die Objekte diesem Blatt zu. Fall 2: Verfahre genauso, wenn die Objekte verschiedenen Klassen angehören, sich aber anhand der gegebenen Attribute nicht mehr weiter unterscheiden lassen. Fall 3: Gehören die Objekte verschiedenen Klassen an und unterscheiden sie sich in einer oder mehreren Eigenschaften, so wähle das zur Partitionierung der Objektmenge am besten geeignete Attribut und erzeuge einen Knoten, an dem sich der Baum in mehrere durch Werte des betrachteten Attributs vorgegebene Kanten aufspaltet.

19 Entscheidungsbäume -Anwendung von Entscheidungsbäumen Features: Graphemkontext (n grapheme vorher/nachher) morphologische Features: Morphemklasse, +/ folgende Morphemgrenze Silben-Features: Aufbau der Silbe Onset/kein Onset (bedeckt/nackt), Coda/kein Coda (geschlossen/offen), Position in Silbe (Onset, Nukleus, Coda, Gelenk alle) Phonem-Vorgeschichte (n phoneme vorher) Vorhersage: Phonem, incl. leeres Phonem (/ /), Phonem-Cluster (/?+a:/)

20 Morphologische Zerlegung Voraussetzung: Morphem-Lexikon mit Morphemklassifizierung 1 Teile jedes Wort w rekursiv von links nach rechts in String-Präfixe und -Suffixe bis eine erlaubte Segmentierung möglich ist oder das Wortende erreicht wird. 2 Eine Grenze, die den aktuellen String in Präfix und Suffix unterteilt dann akzeptiert wenn (i) das Präfix im Lexikon zu finden ist, und (ii) eine erlaubte Segmentierung des Suffixes möglich ist, und (iii) die Kombination Präfix-Klasse + Klasse des ersten Suffix-Teils nicht der Morphotaktik widerspricht, und (iv) die Klasse des letzten Suffix-Teils kompatibel ist mit dem POS von w.

21 Morphologische Zerlegung Beispiel: Fassade nkletterer (i) String-Präfix Fassade ist im Lexikon (ii) Rekursion: erlaubte Segmentierung des String-Suffixes nkletterer möglich (n-kletter-er) (iii) Morphemklassen Fassade/NN n/fugenmorphem kompatibel (iv) Morphemklasse des letzten String-Suffixes er/nn-suffix kompatibel mit POS NN des Worts Segmentierung Fassade nkletterer möglich

22 Silbifizierung In Graphemfolge 3 vorherzusagende Klassen: Silbengrenze folgt, folgt nicht, Ambisyllabizität Feature-Auswahl: für jedes Graphem <v i > innerhalb eines auf <v i > zentrierten symmetrischen Graphem-Fensters Graphem, Konsonant/ Vokal ggf. Morphemgrenze (+/ relevant für Silbengrenze)

23 Silbifizierung für Silbifizierung relevante morphologische Grenzen: vor allen Morphemen außer Flexionsendungen, Suffixen, Komparationsmorphemen und Fugen vor Flexionsendungen, Suffixen mit initialem Konsonanten und eigenem Silbenkern (schaffte) vor Flexionsendungen, Suffixen mit initialem Vokal, wenn das vorangehende Morphem auf Vokal endet (bauen)

24 Evaluierung anhand eines Testcorpus mit manueller Transkription (gold standard) Word error rate: Anteil der Wörter, in denen (mindestens) eine Abweichung vom gold standard auftritt Phone error rate: ermittelt über die Levenshtein-Distanz zwischen gewünschter (gold standard) und berechneter Transkription sehr stark abhängig von Sprache / Testkorpus!

Phonetische Lexika Graphem-Phonem-Konvertierung. Uwe Reichel IPS, LMU München 23. Oktober 2007

Phonetische Lexika Graphem-Phonem-Konvertierung. Uwe Reichel IPS, LMU München 23. Oktober 2007 Phonetische Lexika Graphem-Phonem-Konvertierung Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 23. Oktober 2007 Inhalt Abbildungsproblem Einflußfaktoren: Graphemumgebung, Silbenstruktur,

Mehr

Sprachsynthese: Graphem-Phonem-Konvertierung

Sprachsynthese: Graphem-Phonem-Konvertierung Sprachsynthese: Graphem-Phonem- Institut für Phonetik und Sprachverarbeitung Ludwig-Maximilians-Universität München reichelu@phonetik.uni-muenchen.de 2. Dezember 2014 Table Lookup with Defaults (van den

Mehr

Graphem-Phonem- und Phonem-Phonem-Konvertierung. Uwe Reichel IPS, LMU München 3. Mai 2010

Graphem-Phonem- und Phonem-Phonem-Konvertierung. Uwe Reichel IPS, LMU München 3. Mai 2010 Graphem-Phonem- und Phonem-Phonem-Konvertierung Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 3. Mai 2010 Inhalt Graphem-Phonem-Konvertierung Problemstellung Regelbasierte Konvertierung

Mehr

Maschinelles Lernen I Einführung. Uwe Reichel IPS, LMU München 22. April 2008

Maschinelles Lernen I Einführung. Uwe Reichel IPS, LMU München 22. April 2008 Maschinelles Lernen I Einführung Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 22. April 2008 Inhalt Einführung Lernen Maschinelle Lernverfahren im Überblick Phonetische Anwendungsbeispiele

Mehr

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24. Neuronale Netze in der Phonetik: Grundlagen Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 24. Mai 2006 Inhalt Einführung Maschinelles Lernen Lernparadigmen Maschinelles

Mehr

HMM-Synthese (Grundzüge)

HMM-Synthese (Grundzüge) (Grundzüge) Institut für Phonetik und Sprachverarbeitung Ludwig-Maximilians-Universität München reichelu@phonetik.uni-muenchen.de 6. Dezember 2010 Inhalt HMM-Grundlagen HMM und Phonemerkennung HMM-Grundlagen

Mehr

Phonetische Lexika Morphologische Analysen. Uwe D. Reichel IPSK, LMU München 9. Januar 2008

Phonetische Lexika Morphologische Analysen. Uwe D. Reichel IPSK, LMU München 9. Januar 2008 Phonetische Lexika Morphologische Analysen Uwe D. Reichel IPSK, LMU München reichelu@phonetik.uni-muenchen.de 9. Januar 2008 Inhalt Terminologie Finite-State-Methoden Schwierigkeiten der deutschen Morphologie

Mehr

Sprachsynthese: Textnormalisierung

Sprachsynthese: Textnormalisierung Sprachsynthese: Institut für Phonetik und Sprachverarbeitung Ludwig-Maximilians-Universität München reichelu@phonetik.uni-muenchen.de 15. Oktober 2014 Inhalt, Finite-State-Methoden Disambiguierung des

Mehr

Intonation in der Sprachsynthese

Intonation in der Sprachsynthese Institut für Phonetik und Sprachverarbeitung Ludwig-Maximilians-Universität München reichelu@phonetik.uni-muenchen.de 1. Dezember 2010 Das MARY TTS-System TTS: Text-to-Speech MARY: Modular Architecture

Mehr

Hauptseminar KDD SS 2002

Hauptseminar KDD SS 2002 Hauptseminar KDD SS 2002 Prof. Dr. Hans-Peter Kriegel Eshref Januzaj Karin Kailing Peer Kröger Matthias Schubert Session: Clustering HS KDD, Ludwig-Maximilians-Universität München, SS 2002 1 Inhalt Einleitung

Mehr

Hidden Markov Models in Anwendungen

Hidden Markov Models in Anwendungen Hidden Markov Models in Anwendungen Prof Dr. Matthew Crocker Universität des Saarlandes 18. Juni 2015 Matthew Crocker (UdS) HMM Anwendungen 18. Juni 2015 1 / 26 Hidden Markov Modelle in der Computerlinguistik

Mehr

4. Lernen von Entscheidungsbäumen

4. Lernen von Entscheidungsbäumen 4. Lernen von Entscheidungsbäumen Entscheidungsbäume 4. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

VL Morphologie Derivation 2. Anke Lüdeling Sommersemester 2008

VL Morphologie Derivation 2. Anke Lüdeling Sommersemester 2008 VL Morphologie Derivation 2 Anke Lüdeling anke.luedeling@rz.hu-berlin.de Sommersemester 2008 produktiv aktiv stündlich, minütlich, zweimonatlich, täglich Basis: N, gibt Zeitraum an Ergebnis: jedes N produktiv

Mehr

Suchen in Texten. Naives Suchen Verfahren von Knuth-Morris-Pratt Verfahren von Boyer-Moore Ähnlichkeitssuchen Editierdistanz

Suchen in Texten. Naives Suchen Verfahren von Knuth-Morris-Pratt Verfahren von Boyer-Moore Ähnlichkeitssuchen Editierdistanz Suchen in Texten Naives Suchen Verfahren von Knuth-Morris-Pratt Verfahren von Boyer-Moore Ähnlichkeitssuchen Editierdistanz Textsuche Gegeben ist ein Zeichensatz (Alphabet) Σ. Für einen Text T Σ n und

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten

Mehr

Hidden Markov Models in Anwendungen

Hidden Markov Models in Anwendungen Hidden Markov Models in Anwendungen Dr. Vera Demberg Universität des Saarlandes 31. Mai 2012 Vera Demberg (UdS) HMM Anwendungen 31. Mai 2012 1 / 26 Hidden Markov Modelle in der Computerlinguistik Table

Mehr

fuzzy-entscheidungsbäume

fuzzy-entscheidungsbäume fuzzy-entscheidungsbäume klassische Entscheidungsbaumverfahren fuzzy Entscheidungsbaumverfahren Entscheidungsbäume Was ist ein guter Mietwagen für einen Familienurlaub auf Kreta? 27. März 23 Sebastian

Mehr

Algorithmen auf Sequenzen

Algorithmen auf Sequenzen Algorithmen auf Sequenzen Fehlertolerante Mustersuche: Distanz- und Ähnlichkeitsmaße Sven Rahmann Genominformatik Universitätsklinikum Essen Universität Duisburg-Essen Universitätsallianz Ruhr Einführung

Mehr

Algorithmische Bioinformatik 1

Algorithmische Bioinformatik 1 Algorithmische Bioinformatik 1 Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Sommersemester 2009 Übersicht Algorithmen

Mehr

Unit-Selection-Synthese

Unit-Selection-Synthese Institut für Phonetik und Sprachverarbeitung Ludwig-Maximilians-Universität München reichelu@phonetik.uni-muenchen.de 9. Januar 2017 Inhalt Klassische Diphon-Synthese Korpuserstellung Synthese Erweiterungen

Mehr

Maschinelles Lernen II

Maschinelles Lernen II Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen II Niels Landwehr Organisation Vorlesung/Übung 4 SWS. Ort: 3.01.2.31. Termin: Vorlesung: Dienstag, 10:00-11:30.

Mehr

Computational Prosody Prosodische Struktur: Linguistische und Statistische Modelle

Computational Prosody Prosodische Struktur: Linguistische und Statistische Modelle Computational Prosody Prosodische Struktur: Linguistische und Statistische Modelle Uwe D. Reichel IPSK, LMU München reichelu@phonetik.uni-muenchen.de Inhalt regelbasierte vs. statistische Modelle regelbasiert:

Mehr

Textnormalisierung. Uwe Reichel IPS, LMU München 4. Mai 2010

Textnormalisierung. Uwe Reichel IPS, LMU München 4. Mai 2010 Textrmalisierung Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 4. Mai 2010 Inhalt Satzsegmentierung Wortrmalisierung Tokenisierung Token-Zerlegung Outputformat Inhalt 1 Satzsegmentierung

Mehr

Algorithmische Bioinformatik 1

Algorithmische Bioinformatik 1 Algorithmische Bioinformatik 1 Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Sommersemester 2009 Übersicht Paarweises

Mehr

Spracherkennung TAREQ HASCHEMI HAW-SEMINAR WS16

Spracherkennung TAREQ HASCHEMI HAW-SEMINAR WS16 Spracherkennung TAREQ HASCHEMI HAW-SEMINAR WS16 AGENDA Grundlegendes Sprache Anwendungsbeispiele Schwierigkeit Architektur Spracherkennungssystem Hidden Markov Modell Verbesserung durch Kombination mit

Mehr

Plank, WS 03/04, EinfLing, M&S 4b 1 Morphologische Analyse:

Plank, WS 03/04, EinfLing, M&S 4b 1 Morphologische Analyse: Plank, WS 03/04, EinfLing, M&S 4b 1 Morphologische Analyse: Segmentieren in Morphe (gegebenenfalls) Zusammenfassen von Morphen als Realisierungen eines Morphems Erfassen von Allomorphie-Beziehungen (Art

Mehr

{0,1} rekursive Aufteilung des Datenraums in die Quadranten NW, NE, SW und SE feste Auflösung des Datenraums in 2 p 2 p Gitterzellen

{0,1} rekursive Aufteilung des Datenraums in die Quadranten NW, NE, SW und SE feste Auflösung des Datenraums in 2 p 2 p Gitterzellen 4.4 MX-Quadtrees (I) MatriX Quadtree Verwaltung 2-dimensionaler Punkte Punkte als 1-Elemente in einer quadratischen Matrix mit Wertebereich {0,1} rekursive Aufteilung des Datenraums in die Quadranten NW,

Mehr

Ivana Daskalovska. Willkommen zur Übung Einführung in die Computerlinguistik. Morphologie. Sarah Bosch,

Ivana Daskalovska. Willkommen zur Übung Einführung in die Computerlinguistik. Morphologie. Sarah Bosch, Ivana Daskalovska Willkommen zur Übung Einführung in die Computerlinguistik Morphologie Wiederholung Aufgabe 1 Was ist Morphologie, Morphem? 3 Aufgabe 1 Was ist Morphologie, Morphem? Teildisziplin der

Mehr

Sprachsynthese: Textnormalisierung

Sprachsynthese: Textnormalisierung Sprachsynthese: (Änderungen von F. Schiel 2016) Institut für Phonetik und Sprachverarbeitung Ludwig-Maximilians-Universität München reichelu schiel@phonetik.uni-muenchen.de 24. Oktober 2016 Inhalt = Vorverarbeitung

Mehr

σ σ σ R R R O N O N C O N C

σ σ σ R R R O N O N C O N C 1. Silbifizierung malen, Pferd O N O N C O N C [ m a: l n] [pf e r t] Matratze O N O N O N [m a t r a ts ] Nachrichten O N C O N C O N C [n a: x r I ç t n] NB: hier müsste das [x] eigentlich im Onset der

Mehr

Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013

Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013 Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013 Klausurnummer Name: Vorname: Matr.Nummer: Bachelor: Master: Aufgabe 1 2 3 4 5 6 7 8 max. Punkte 10 5 6 7 5 10 9 8 tats. Punkte

Mehr

Repetitive Strukturen

Repetitive Strukturen Repetitive Strukturen Andreas Liebig Philipp Muigg ökhan Ibis Repetitive Strukturen, (z.b. sich wiederholende Strings), haben eine große Bedeutung in verschiedenen Anwendungen, wie z.b. Molekularbiologie,

Mehr

... Text Clustern. Clustern. Einführung Clustern. Einführung Clustern

... Text Clustern. Clustern. Einführung Clustern. Einführung Clustern Clustern Tet Clustern Teile nicht kategorisierte Beispiele in disjunkte Untermengen, so genannte Cluster, ein, so daß: Beispiele innerhalb eines Clusters sich sehr ähnlich Beispiele in verschiedenen Clustern

Mehr

Computerlinguistische Grundlagen. Jürgen Hermes Wintersemester 18/19 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln

Computerlinguistische Grundlagen. Jürgen Hermes Wintersemester 18/19 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Computerlinguistische Grundlagen Jürgen Hermes Wintersemester 18/19 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Morphologie Wort Morphem Allomorph Sprachtypologie anhand

Mehr

8.4 Suffixbäume. Anwendungen: Information Retrieval, Bioinformatik (Suche in Sequenzen) Veranschaulichung: DNA-Sequenzen

8.4 Suffixbäume. Anwendungen: Information Retrieval, Bioinformatik (Suche in Sequenzen) Veranschaulichung: DNA-Sequenzen 8.4 Suffixbäume Ziel: Datenstruktur, die effiziente Operationen auf (langen) Zeichenketten unterstützt: - Suche Teilzeichenkette (Substring) - Präfix - längste sich wiederholende Zeichenkette -... Anwendungen:

Mehr

Einführung in die Phonologie und Graphematik

Einführung in die Phonologie und Graphematik Einführung in die Phonologie und Graphematik Bearbeitet von Nanna Fuhrhop, Jörg Peters 1. Auflage 2013. Buch inkl. Online-Nutzung. XV, 301 S. Softcover ISBN 978 3 476 02373 5 Format (B x L): 15,5 x 23,5

Mehr

System der deutschen Sprache Phonologie und Graphematik

System der deutschen Sprache Phonologie und Graphematik System der deutschen Sprache Phonologie und Graphematik Beat Siebenhaar Frank Liedtke PHONOLOGIE Phonologische Regel: Auslautverhärtung! /bdgvzʒ/ -> [ptkfsʃ]/_#! /bdgvzʒ/ -> [ptkfsʃ]/_$! [-son, +sth] ->

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB

INTELLIGENTE DATENANALYSE IN MATLAB INTELLIGENTE DATENANALYSE IN MATLAB Überwachtes Lernen: Entscheidungsbäume Literatur Stuart Russell und Peter Norvig: Artificial i Intelligence. Andrew W. Moore: http://www.autonlab.org/tutorials. 2 Überblick

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 05 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm heute Einführung Grundlagen von Algorithmen Grundlagen

Mehr

Phonological Analysis in Typed Feature Systems

Phonological Analysis in Typed Feature Systems Phonological Analysis in Typed Feature Systems Autoren: Referenten: Steven Bird*/ Ewan Klein* Anna-Lisa Katthagen Dana Haschke Gliederung Möglichkeiten, wie man die Phonologie in constraintbasierte Formalismen

Mehr

Etikettierungsstrukturen und Abfragen in Emu. Jonathan Harrington

Etikettierungsstrukturen und Abfragen in Emu. Jonathan Harrington Etikettierungsstrukturen und Abfragen in Emu Jonathan Harrington Aufbau & Funktion von Sprachdatenbanken Erstellung Abfrage Analyse Praat, EMU EMU R Digitale Zeitsignale akustisch, artikulatorisch Die

Mehr

Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens

Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 17.04.2015 Entscheidungsprobleme beim Textmining

Mehr

Maschinelles Lernen Entscheidungsbäume

Maschinelles Lernen Entscheidungsbäume Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Paul Prasse Entscheidungsbäume Eine von vielen Anwendungen: Kreditrisiken Kredit - Sicherheiten

Mehr

Automatisierte Strukturerkennung aus Texten - eine Anwendung von Verfahren des Maschinellen Lernens

Automatisierte Strukturerkennung aus Texten - eine Anwendung von Verfahren des Maschinellen Lernens Automatisierte Strukturerkennung aus Texten - eine Anwendung von Verfahren des Maschinellen Lernens Universität zu Köln Philosophisches Institut Seminar: Künstliche Intelligenz II Leitung: Stephan Schwiebert,

Mehr

Teil 111. Chart-Parsing

Teil 111. Chart-Parsing Teil 111 Chart-Parsing 102 Die im ersten Teil des Buches behandelten einfachen Parsingalgorithmen sind, anders als die meisten vor allem im Compilerbau verwendeten Algorithmen (z.b. die LLoder LR-Parsingalgorithmen),

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

Algorithmen und Datenstrukturen Klausur WS 2006/07 Software-Engineering und Technische Informatik Bachelor

Algorithmen und Datenstrukturen Klausur WS 2006/07 Software-Engineering und Technische Informatik Bachelor Klausur WS 2006/07 Software-Engineering und Technische Informatik Bachelor Die Klausur besteht aus 6 Aufgaben und umfasst 60 Punkte. Bitte schreiben Sie die Lösungen auf die Aufgabenblätter. Vergessen

Mehr

Algorithmen und Datenstrukturen II

Algorithmen und Datenstrukturen II Algorithmen und Datenstrukturen II Algorithmen zur Textverarbeitung III: D. Rösner Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke Universität Magdeburg Sommer 2009,

Mehr

5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS)

5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS) 5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS) Sommersemester 2009 Dr. Carsten Sinz, Universität Karlsruhe Datenstruktur BDD 2 1986 von R. Bryant vorgeschlagen zur Darstellung von aussagenlogischen Formeln (genauer:

Mehr

Learning to Optimize Mobile Robot Navigation Based on HTN Plans

Learning to Optimize Mobile Robot Navigation Based on HTN Plans Learning to Optimize Mobile Robot Navigation Based on HTN Plans lernen Betreuer: Freek Stulp Hauptseminar Intelligente Autonome Systeme (WiSe 2004/05) Forschungs- und Lehreinheit Informatik IX 8. Dezember

Mehr

Dynamische Programmierung

Dynamische Programmierung Dynamische Programmierung Claudia Gerhold 9.5.6 Claudia Gerhold Dynamische Programmierung 9.5.6 / 4 Agenda Einführung Dynamische Programmierung Top-Down Ansatz mit Memoization Bottom-Up Ansatz 3 Anwendungsbeispiele

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 1. Übungsblatt Aufgabe 1: Anwendungsszenario Überlegen Sie sich ein neues Szenario des klassifizierenden Lernens (kein

Mehr

Regional Variation and Edges: Glottal Stop Epenthesis and Dissimilation in Standard and Southern Varieties of German Birgit Alber (2001)

Regional Variation and Edges: Glottal Stop Epenthesis and Dissimilation in Standard and Southern Varieties of German Birgit Alber (2001) Regional Variation and Edges: Glottal Stop Epenthesis and Dissimilation in Standard and Southern Varieties of German Birgit Alber (2001) Seminar: Optimalitätstheorie Dozent: P. Gallmann Referenten: Anne-Marie

Mehr

Data Mining - Wiederholung

Data Mining - Wiederholung Data Mining - Wiederholung Norbert Fuhr 18. Januar 2006 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil 6 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 16. Mai 2018 [Letzte Aktualisierung: 18/05/2018,

Mehr

Projektgruppe. Text Labeling mit Sequenzmodellen

Projektgruppe. Text Labeling mit Sequenzmodellen Projektgruppe Enes Yigitbas Text Labeling mit Sequenzmodellen 4. Juni 2010 Motivation Möglichkeit der effizienten Verarbeitung von riesigen Datenmengen In vielen Bereichen erwünschte automatisierte Aufgabe:

Mehr

Sprachsynthese und Spracherkennung

Sprachsynthese und Spracherkennung 90 Sprachsynthese und Spracherkennung von John N. Holmes Mit 51 Bildern und 69 Übungen mit Lösungshinweisen R. Oldenbourg Verlag München Wien 1991 INHALT Vorwort 11 1 Lautsprachliche Kommunikation 15 1.1

Mehr

Computational Prosody: Symbolische Beschreibung von Intonationskonturen. Uwe D. Reichel IPSK, LMU München

Computational Prosody: Symbolische Beschreibung von Intonationskonturen. Uwe D. Reichel IPSK, LMU München Computational Prosody: Symbolische Beschreibung von Intonationskonturen Uwe D. Reichel IPSK, LMU München reichelu@phonetik.uni-muenchen.de Inhalt Tonsequenzansatz Pierrehumbert (1980) Generierung der Intonationskontur

Mehr

Morphologie. Ending Khoerudin Deutschabteilung FPBS UPI

Morphologie. Ending Khoerudin Deutschabteilung FPBS UPI Morphologie Ending Khoerudin Deutschabteilung FPBS UPI Morphologie Was ist ein Wort? Morphologie ist linguistische Teildisziplin, die sich mit dem Gestalt, Flexion (Beugung) und Bildung von Wörtern beschäftigt.

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Finite State Transducers und Morphologie Laura Kallmeyer Heinrich-Heine-Universität Düsseldorf Summer 2016 1 / 18 Morphologische Grundbegriffe (1) Wort / Lexem: abstrakte

Mehr

Geschichte der Psycholinguistik

Geschichte der Psycholinguistik Wörter und Morpheme Buchstaben à Zeichen für Sprachlaute Wörter à Zeichen für Bedeutung, Begriffe oder Konzepte Die Relation von Wort zu Bedeutung ist relativ beliebig (Pinker, 1994); z.b.: Hund = chien

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 07 Dr. Stefanie Demirci Computer Aided Medical Procedures Technische Universität München Programm heute Einführung Grundlagen von Algorithmen

Mehr

1 Einführung. 2 Grundlagen von Algorithmen. 3 Grundlagen von Datenstrukturen. 4 Grundlagen der Korrektheit von Algorithmen

1 Einführung. 2 Grundlagen von Algorithmen. 3 Grundlagen von Datenstrukturen. 4 Grundlagen der Korrektheit von Algorithmen Programm heute Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 0 Dr. Stefanie Demirci Computer Aided Medical Procedures Technische Universität München Einführung Grundlagen von Algorithmen Grundlagen

Mehr

Teil II. Grundlagen und Notationen

Teil II. Grundlagen und Notationen Teil II Grundlagen und Notationen Alphabete, Wörter, Sprachen 1 N := {0, 1, 2, 3...} ist die Menge der natürlichen Zahlen. N >0 := {1, 2, 3...} ist die Menge der positiven natürlichen Zahlen Grundlagen

Mehr

4. Tries und kd-bäume

4. Tries und kd-bäume 4. Tries und kd-bäume Digitale Suchbäume (Tries) kd-bäume Prof. Dr. O. Bittel, HTWG Konstanz Algorithmen und Datenstrukuren Tries und kd-bäume SS 2019 4-1 Tries (1) Problem mit den bisherigen Suchbäumen

Mehr

4.4 Quadtrees. Literatur

4.4 Quadtrees. Literatur 4.4 Quadtrees Überblick Klasse räumlicher Indexstrukturen, die den Datenraum rekursiv in 4 gleich große Zellen unterteilen (Quadranten NW, NE, SW, SE) Verwaltung von Punkten, Kurven, Flächen usw., häufig

Mehr

ADS: Algorithmen und Datenstrukturen 1

ADS: Algorithmen und Datenstrukturen 1 ADS: Algorithmen und Datenstrukturen 1 Teil 13+ɛ Prof. Peter F. Stadler & Dr. Christian Höner zu Siederdissen Bioinformatik/IZBI Institut für Informatik & Interdisziplinäres Zentrum für Bioinformatik Universität

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil 4 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 24. April 2019 [Letzte Aktualisierung: 24/04/2019,

Mehr

3.3 Nächste-Nachbarn-Klassifikatoren

3.3 Nächste-Nachbarn-Klassifikatoren 3.3 Nächste-Nachbarn-Klassifikatoren Schrauben Nägel Klammern Neues Objekt Instanzbasiertes Lernen (instance based learning) Einfachster Nächste-Nachbar-Klassifikator: Zuordnung zu der Klasse des nächsten

Mehr

Maschinelles Lernen II

Maschinelles Lernen II Maschinelles Lernen II! Vorlesung Computerlinguistische Techniken Alexander Koller! 30. Januar 2015 Heute Überwachtes Lernen: Maximum-Entropy-Modelle Unüberwachtes Lernen: Clustering Maximum Entropy: Motivation

Mehr

Einführung in die Linguistik

Einführung in die Linguistik Lösung 4 Einführung in die Linguistik Phonologie Aufgabe 1, Latein Letzte Silbe etrametrikalisch. Parsing: Rechts nach Links Fuß: moraischer Trochäus End-Regel: rechter Fuß wird betont a) lau-'da:-tus

Mehr

Morphologie - Morphematik. Grundbegriffe: Morphem Wurzel Stamm Affix Morphemtypen

Morphologie - Morphematik. Grundbegriffe: Morphem Wurzel Stamm Affix Morphemtypen Morphologie - Morphematik Grundbegriffe: Morphem Wurzel Stamm Affix Morphemtypen Morpheme Das Morphem ist die grundlegende Einheit der Morphologie. Morpheme sind wie die Phoneme oder Lexeme abstrakte Einheiten,

Mehr

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte

Mehr

Teil 12: Wortsegmente im Schriftspracherwerb. Linguistische Einheiten unterhalb des Wortes: Silbe und Morphem

Teil 12: Wortsegmente im Schriftspracherwerb. Linguistische Einheiten unterhalb des Wortes: Silbe und Morphem Schriftspracherwerb: kognitive Grundlagen * SS 2004 1 Schriftspracherwerb: kognitive Grundlagen Teil 12: Wortsegmente im Schriftspracherwerb Linguistische Einheiten unterhalb des Wortes: Silbe und Morphem

Mehr

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 19.12.2013 Allgemeine Problemstellung

Mehr

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0

Mehr

Sprachunabhängige Autorschafts-Verifikation

Sprachunabhängige Autorschafts-Verifikation Sprachunabhängige Autorschafts-Verifikation Oren Halvani, Martin Steinebach, Ralf Zimmermann Fraunhofer Institute for Secure Information Technology (SIT), Darmstadt, Germany Department of Computer Science

Mehr

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,

Mehr

Clausthal C G C C G C. Informatik II Bäume. G. Zachmann Clausthal University, Germany Beispiele.

Clausthal C G C C G C. Informatik II Bäume. G. Zachmann Clausthal University, Germany Beispiele. lausthal Informatik II Bäume. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Beispiele Stammbaum. Zachmann Informatik 2 - SS 06 Bäume 2 Stammbaum Parse tree, Rekursionsbaum Unix file hierarchy

Mehr

Übersicht. Volltextindex Boolesches Retrieval Termoperationen Indexieren mit Apache Lucene

Übersicht. Volltextindex Boolesches Retrieval Termoperationen Indexieren mit Apache Lucene Übersicht Volltextindex Boolesches Retrieval Termoperationen Indexieren mit Apache Lucene 5.0.07 1 IR-System Peter Kolb 5.0.07 Volltextindex Dokumentenmenge durchsuchbar machen Suche nach Wörtern Volltextindex:

Mehr

Informatik II Übung 2

Informatik II Übung 2 Informatik II Übung 2 Gruppe 2 Carina Fuss cfuss@student.ethz.ch 7.3.2018 Carina Fuss 7.3.2018 1 Übersicht Tipps zu Eclipse Nachbesprechung Übung 1 Vorbesprechung Übung 2 Wurzelbäume Sortieralgorithmus

Mehr

Einführung in die Linguistik Butt & Co. Do. 12:15-13:45 Fr. 12:15-13:45

Einführung in die Linguistik Butt & Co. Do. 12:15-13:45 Fr. 12:15-13:45 Einführung in die Linguistik Butt & o. Do. 12:15-13:45 Fr. 12:15-13:45 Infos etc. http://ling.uni-konstanz.de/ Studium Lehrveranstaltungen => Einführung in die Linguistik Einführung in die Linguistik Butt

Mehr

Bipartite Graphen. Beispiele

Bipartite Graphen. Beispiele Bipartite Graphen Ein Graph G = (V, E) heiÿt bipartit (oder paar), wenn die Knotenmenge in zwei disjunkte Teilmengen zerfällt (V = S T mit S T = ), sodass jede Kante einen Knoten aus S mit einem Knoten

Mehr

Die Silbe: phonologische und phonetische Aspekte. Jonathan Harrington

Die Silbe: phonologische und phonetische Aspekte. Jonathan Harrington Die Silbe: phonologische und phonetische Aspekte Jonathan Harrington 1. Sonoritätsprinzip 2. Die interne Struktur der Silbe (Onset/Reim Aufteilung) 3. Phonotaktische Beschränkungen 4. Phonetische Aspekte

Mehr

Einführung in die Computerlinguistik: Morphologie und Automaten I

Einführung in die Computerlinguistik: Morphologie und Automaten I Einführung in die Computerlinguistik: Morphologie und Automaten I WS 2013/2014 Manfred Pinkal Morphologie Morphologie ist der Teilbereich der Linguistik, der sich mit der internen Struktur von Wörtern

Mehr

MafI I: Logik & Diskrete Mathematik (F. Hoffmann)

MafI I: Logik & Diskrete Mathematik (F. Hoffmann) Lösungen zum 14. und letzten Aufgabenblatt zur Vorlesung MafI I: Logik & Diskrete Mathematik (F. Hoffmann) 1. Ungerichtete Graphen (a) Beschreiben Sie einen Algorithmus, der algorithmisch feststellt, ob

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2018

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2018 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2018 S. Constantin (stefan.constantin@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 4 Maschinelles Lernen und Spracherkennung Abgabe

Mehr

4. OBDDs und Modellüberprüfung

4. OBDDs und Modellüberprüfung 4. OBDDs und Modellüberprüfung OBDD Ordered Binary Decision Diagrams Geordnete binäre Entscheidungsdiagramme Binäres Entscheidungsdiagramm: in der einfachsten Form ein binärer Entscheidungsbaum, in dem

Mehr

Einführung in die allgemeine Sprachwissenschaft

Einführung in die allgemeine Sprachwissenschaft WS 2010-11 Einführung in die allgemeine Sprachwissenschaft Bistra Andreeva (nach Materialien von Bill Barry) Mögliche Antworten zu den Aufgaben 1 Suchen Sie Beispielausdrücke, in denen ein stimmhafter

Mehr

Übung: Phonetische Transkription

Übung: Phonetische Transkription Institut für Phonetik, Universität des Saarlandes Übung: Phonetische Transkription 21.01.2015 Phonemische vs. phonetische Transkription; Transkription des Deutschen Prüfungen Klausur: 02.02.2015, 12:00

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 9. Übungsblatt Aufgabe 1: Decision Trees Gegeben sei folgende Beispielmenge: Age Education Married Income Credit?

Mehr

Gleiche Daten, unterschiedliche Erkenntnisziele?

Gleiche Daten, unterschiedliche Erkenntnisziele? Gleiche Daten, unterschiedliche Erkenntnisziele? Zum Potential vermeintlich widersprüchlicher Zugänge zur Textanalyse Universität Hamburg Evelyn Gius Jan Christoph Meister Janina Jacke Marco Petris Universität

Mehr

TU München. Hauptseminar: WS 2002 / Einführung in Suffix - Bäume

TU München. Hauptseminar: WS 2002 / Einführung in Suffix - Bäume TU München Hauptseminar: WS 2002 / 2003 Einführung in Suffix - Bäume Bearbeiterin: Shasha Meng Betreuerin: Barbara König Inhalt 1. Einleitung 1.1 Motivation 1.2 Eine kurze Geschichte 2. Tries 2.1 Basisdefinition

Mehr

6. Algorithmen auf Zeichenketten

6. Algorithmen auf Zeichenketten 6. Algorithmen auf Zeichenketten Motivation Wir lernen nun Algorithmen zur Lösung verschiedener elementarer Probleme auf Zeichenketten zu lösen Zeichenketten spielen eine wichtige Rolle in diversen Gebieten

Mehr

Morphologie. 1. Flexion und Derivation 2. Analyse mittels lexikalischer Regeln

Morphologie. 1. Flexion und Derivation 2. Analyse mittels lexikalischer Regeln Morphologie 1. Flexion und Derivation 2. Analyse mittels lexikalischer Regeln Morphologie Flexion Deklination Flexion der Nomina: Deklination Hund Hund-es Hund-e Hund-en (Stamm + Suffix) Mann Mann-es Männ-er

Mehr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der

Mehr

Klasse räumlicher Indexstrukturen, die den Datenraum rekursiv in 4 gleich große Zellen unterteilen (Quadranten NW, NE, SW, SE)

Klasse räumlicher Indexstrukturen, die den Datenraum rekursiv in 4 gleich große Zellen unterteilen (Quadranten NW, NE, SW, SE) 4.4 Quadtrees Überblick Klasse räumlicher Indexstrukturen, die den Datenraum rekursiv in 4 gleich große Zellen unterteilen (Quadranten NW, NE, SW, SE) Verwaltung von Punkten, Kurven, Flächen usw., häufig

Mehr