Musterlösung zur Probeklausur Multilinguale Mensch Maschine Kommunikation 2013

Größe: px
Ab Seite anzeigen:

Download "Musterlösung zur Probeklausur Multilinguale Mensch Maschine Kommunikation 2013"

Transkript

1 Musterlösung zur Probeklausur Multilinguale Mensch Maschine Kommunikation 2013

2 Aufgabe 1: Divers (10 Punkte) Kreuzen Sie für die folgenden Aussagen an, ob sie wahr oder falsch sind. Hinweis: Für jede richtige Antwort gibt es einen Punkt, für jede falsche Antwort wird ein Punkt abgezogen. Wenn Sie kein Kreuz setzen, bekommen Sie weder Plus- noch Minuspunkt, für das Ankreuzen beider Möglichkeiten wird ein Punkt abgezogen. Die gesamte Aufgabe wird mit mindestens 0 Punkten bewertet. a) Morpheme-basierte Sprachmodelle sind besonders hilfreich bei Sprachen mit wenig Flexion wie z.b. bei Englisch. (für Sprachen mit hoher Morphologie) wahr: falsch: 2

3 b) In der Spracherkennung werden normalerweise ergodische HMMs verwendet. (Left-to-right model) wahr: falsch: 3

4 c) Man benötigt mehr Textdaten um ein Trigramm-Sprachmodell angemessen zu trainieren als ein Bigramm-Sprachmodell angemessen zu trainieren. ( angemessen bedeutet dass alle Parameter ausreichend gut geschätzt werden mit maximal 1% Abweichung ihres tatsächlichen Wertes). wahr: falsch: 4

5 d) Triphone modellieren Phoneme basierend auf deren drei linken und drei rechten Nachbarn. (Triphone basierend auf dem linken und dem rechten Nachbarn) wahr: falsch: 5

6 e) Für eine gegebene Menge an Audiodaten eines Sprechers ist ein Sprecherunabhängiges System besser als ein Sprecher-abhängiges System, weil es robuster ist. (Adaption) wahr: falsch: 6

7 f) Die Wortfehlerrate basiert auf der Summe der Fehler durch Wort-Einfügungen, Löschungen und Substitutionen. wahr: falsch: 7

8 g) Ein typisches 3-State Phonem-HMM (wie in der Vorlesung definiert) zu durchlaufen dauert mindestens 30ms (wenn kein Zustand mit einer Kante übersprungen werden kann). wahr: falsch: 8

9 h) Bei der Adaption mit MAP (maximum a posteriori) werden nur die Parameter geändert, für die Adaptionsdaten vorhanden sind. wahr: falsch: 9

10 i) Der DTW (Dynamic Time Warp) Algorithmus eignet sich gut für die Erkennung von kontinuierlicher Sprache. (generalisiert nicht, Sprecher-abhängig, Beispiele für jedes Wort von jedem Sprecher benötigt, hoher Rechenaufwand bei großen Vokabularen) wahr: falsch: 10

11 j) Die z-transformation ist ein Spezialfall der diskreten Fouriertransformation. (Generalisierung der diskreten Fouriertransformation) wahr: falsch: 11

12 k) Logographische Schriftzeichen stellen für die automatische datengetriebene Aussprachegenerierung ein Problem dar. wahr: falsch: 12

13 Aufgabe 2: Vorverarbeitung (5 Punkte) 1) In der Vorverarbeitung wird ein akustisches Signal in eine Sequenz von Merkmalsvektoren transformiert. Geben Sie eine Sequenz von Schritten an, die nötig sind, um aus dem Audiosignal eine Sequenz von spektralen Merkmalsvektoren zu extrahieren. [2 Punkte] Lösung: (a) Sampling (b) Quantisierung (c) Fensterung (d) Fouriertransformation 13

14 2) Was muss beim Sampling eines analogen Zeitsignals beachtet werden. [1 Punkt] Lösung: Nyquist-Shannon Sampling Theorem: T >= 2B, wobei T die Samplingrate ist und B die Bandbreite des Signals. 14

15 3) Wie kann diese Bedingung erfüllt werden, ohne eine sehr hohe sampling rate? [1 Punkt] Lösung: Begrenzung der Bandbreite durch zum Beispiel einen Tiefpassfilter oder Bandpassfilter. 15

16 4) Warum wird bei der Fensterung anstelle eines Rechteckfensters zum Beispiel ein Hamming Window benutzt? [1 Punkt] Lösung: Fensterung im Zeitbereich verursacht eine Verwischung (blurring) im Frequenzbereich. Wobei die Verwischung beim Hamming Window gegenüber einem Rechteckfenster geringer ausfällt. 16

17 Aufgabe 3: Gauß-Mischverteilungen und DTW (6 Punkte) 1) Notieren Sie die Formel einer mehrdimensionalen Gauß-Mischverteilung mit D Dimensionen. [1 Punkt] Lösung: N(x µ, Σ 2 ) = 1 (2π) D/2 Σ 1/2 exp[ 1 2 (x µ)t Σ 1 (x µ)] 17

18 2) Beschreiben Sie alle Schritte des k-mean Algorithmus. [2 Punkte] Lösung: (a) Initialisieren: Gegeben eines Wertes für k und Beispielsvektoren v 1,..., v T, initialisiere k Mittelwertvektoren (z.b. µ i = v i ) (b) Nächste-Nachbar-Klassifikation: Ordne jeden Vektor v i dem nächstgelegenen Mittelwert µ f(i) zu (c) Codebook-Aktualisierung: Ersetze jeden Mittelwertvektor µ i durch den Mittelwert aller Beispielsvektoren, die ihm zugeordnet wurden (d) Wiederhole ab Schritt 2 bis ein Abbruchkriterium erfüllt ist. Mögliche Abbruchkriterien sind: ˆ eine feste Anzahl Iterationen ˆ die durchschnittliche (maximale) Distanz v i µ f(i) fällt unter einen festen Wert ˆ die Ableitung der Distanz fällt unter einen festen Wert (d.h. es ändert sich nichts mehr) 18

19 3) Welche Probleme können sich ergeben, wenn man zwei unterschiedliche Sprachsegmente miteinander vergleichen will? Nennen Sie zwei Ihrer Wahl. [1 Punkt] Lösung: Mögliche Probleme sind: (a) Man weiß nicht, wann die Sprache anfängt (Endpoint-Detection nötig) (b) Die Sprachsignale können unterschiedliche Länge haben (andere Sprechraten, Pausen vor oder nach der eigentlichen Sprache) 19

20 4) Berechnen Sie die Levinshtein Distanz zwischen S A M S T A G S und S O N N T A G. Notieren Sie alle Zwischenschritte. (Die Distanz für Ersetzen, Einfügen und Löschen ist jeweils 1.) [2 Punkte] Lösung: G A T N N O S S A M S T A G S Die Levinshtein Distanz beträgt 4 (1 Einfügen, 3 Ersetzen). 20

21 Aufgabe 4: Hidden-Markov-Modelle (7 Punkte) Betrachten Sie folgendes HMM: ˆ Zwei Zustände S1, S2 ˆ Zwei Ausgabesymbole X, Y ˆ Emissionswahrscheinlichkeiten: B S1 (X) = 1 B S1 (Y) = 0 B S2 (X) = 4/10 B S2 (Y) = 6/10 ˆ Übergangswahrscheinlichkeiten: A S1,S1 = A S1,S2 = A S2,S1 = A S2,S2 = 1/2. ˆ Anfangswahrscheinlichkeiten: π S1 = 1, π S2 = 0 (das HMM beginnt immer in Zustand S1) 1) Die Ausgabe des HMMs sei XYX. Wie viele Pfade mit von null verschiedener Wahrscheinlichkeit gibt es, die diese Ausgabe erzeugt haben können? Welche sind das? [2 Punkte] Lösung: Es gibt zwei Pfade: S1, S2, S1 und S1, S2, S2. (Begründung: Wir benötigen drei Zustände, der erste Zustand ist nach Voraussetzung immer S1, der zweite muss S2 sein, weil S1 keine Ausgabe Y erzeugen kann. Nur im dritten Zustand gibt es überhaupt zwei Möglichkeiten. 21

22 Betrachten Sie folgendes HMM: ˆ Zwei Zustände S1, S2 ˆ Zwei Ausgabesymbole X, Y ˆ Emissionswahrscheinlichkeiten: B S1 (X) = 1 B S1 (Y) = 0 B S2 (X) = 4/10 B S2 (Y) = 6/10 ˆ Übergangswahrscheinlichkeiten: A S1,S1 = A S1,S2 = A S2,S1 = A S2,S2 = 1/2. ˆ Anfangswahrscheinlichkeiten: π S1 = 1, π S2 = 0 (das HMM beginnt immer in Zustand S1) 2) Berechnen Sie die Gesamtwahrscheinlichkeit der Ausgabe XYX. [2 Punkte] Lösung: Pfad S1,S2,S1: P (XYX S1, S2, S1) = π S1 B S1 (X) A S1,S2 B S2 (Y) A S2,S1 B S1 (X) = = 6 40 Entsprechend ergibt sich für den Pfad S1,S2,S2: P (XYX S1, S2, S2) = Die Gesamtwahrscheinlichkeit ergibt sich durch aufsummieren, also P (XYX) = = ) Die Ausgabe des HMMs sei wie oben XYX. Welche Abfolge von Zuständen ist bei dieser Ausgabe am wahrscheinlichsten durchlaufen worden?[1 Punkt] Lösung: Aus der Lösung der letzten Teilaufgabe ergibt sich, dass der Pfad S1,S2,S1 von den beiden überhaupt möglichen Pfaden am wahrscheinlichsten ist. 22

23 4) Erläutern Sie, warum HMMs bei der kontinuierlichen Spracherkennung ermöglichen, auch Wörter zu erkennen, die im Trainingsmaterial nicht vorgekommen sind. [2 Punkte] Lösung: Jedes Wort setzt sich aus Phonemen zusammen. Da bei HMMs Phonemmodelle trainiert werden, kann man jedes beliebige Wort aus diesem Modellen zusammensetzen, auch wenn das betreffende Wort im Training nicht vorgekommen ist. 23

24 Aufgabe 5: Akustische Modellierung (5 Punkte) 1) Nennen Sie zwei mögliche Spracheinheiten, die man für akustische Modellierung verwenden kann. [1 Punkt] Lösung: z.b. Wörter, Silben, Monophone, Biphone, Triphone,... 24

25 2) Welche Clustering-Methoden gibt es um Kontexte zu clustern? Beschreiben alle Schritte von einer Methode Ihrer Wahl. [2 Punkte] Lösung: Es gibt Bottom-up und top-down Methoden sowie die Möglichkeit, einen Entscheidungsbaum zu verwenden. Beschreibung der Bottom-up-Methode: (a) Beginne mit einer Klasse pro Phonem: C i = {P hone i } (b) Vergleiche alle möglichen Klassenpaare: C i mit C j (j > i) (c) Wenn wir ein C i und C j finden, die ähnlich genug sind, ersetze C i durch C i + C j und lösche C j (d) Wiederhole ab Schritt 2 bis ein Abbruchkritierium erfüllt ist 25

26 3) Stellen Sie sich vor, dass Sie einen Entscheidungsbaum für die Phonemekontexte trainieren wollen. Welche Methode nehmen Sie um die Frage für den Entscheidungsbaum zu bestimmen? [1 Punkt] Lösung: Es gibt verschiedene Möglichkeiten: ˆ wissensbasiert ˆ automatisch erlernt ˆ zufällige Auswahl 26

27 4) Was ist der Unterschied zwischen überwachtem und unüberwachtem Adaptieren? [1 Punkt] Lösung: Im überwachten Fall weiß das System, welche Wörter gesprochen wurden (d.h. die Transkriptionen der Adaptionsdaten sind bekannt), im unüberwachten Fall nicht. Im unüberwachten Fall muss man daher das System selbst benutzen, um die Adaptionsdaten zu transkribieren. 27

28 Aufgabe 6: Sprachmodellierung (10 Punkte) 1) Welche Wahrscheinlichkeit liefert das Sprachmodell bei der Spracherkennung? [1 Punkt] Lösung: Es berechnet die A Priori Wahrscheinlichkeit P(W) 28

29 2) Warum ist ein Sprachmodell bei der Spracherkennung sinnvoll? Nennen Sie drei Gründe. [3 Punkte] Lösung: reduziert die Wortfehlerrate - indem eine andere Wissensquelle hinzugezogen wird, hilft Homophone zu unterscheiden, reduziert den Suchraum 29

30 3) Nennen Sie eine Motivation für Smoothing bei der Sprachmodellierung und zwei Smoothing-Techniken. [2 Punkte] Lösung: ˆ Motivationen: Data sparseness - Schlechte Schätzungen für N-Gramme, deren Historien in den Trainingstexten nicht häufig auftreten. Wenn die Wahrscheinlichkeit einer N-Gramm-Wahrscheinlichkeit gleich 0 ist, wird die Wahrscheinlichkeit für die gesamte Äußerung gleich 0. Um das zu verhindern, möchte man allen N-Grammen eine Wahrscheinlichkeit zuweisen, die ungleich 0 ist. ˆ Smoothing-Techniken: Backoff-Smoothing (z.b. Absolute Discounting, Katz, Kneser-Ney), Linear Interpolation. 30

31 4) Wählen Sie die richtige Antwort aus indem Sie eine Antwort ankreuzen. [1 Punkt] Ein Trigramm-Sprachmodell bestimmt die Häufigkeit mit der ein Wort w i auftritt basierend auf dessen Historie w (i 1), w (i 2),..., w (i n). n hat dabei eine Größe von: (a) 1 (b) 2 (c) 3 Lösung: (b) 31

32 5) Nennen Sie 2 Gründe, wegen denen es sinnvoll ist, das Sprachmodell zu adaptieren. [1 Punkt] Lösung: ˆ... wenn das Sprachmodell nicht in der Zieldomäne ist (Topic relevance). ˆ... wenn das Sprachmodell zeitlich nicht passt (z.b. Sprachstil veraltet, andere Eigennamen für den Task wichtig) (Time relevance) ˆ... wenn der Sprachstil der ASR-Anwender nicht zu dem Sprachmodell passt. 32

33 6) Nennen Sie einen Vorteil und einen Nachteil für der Verwendung einer Grammatik als Sprachmodell, die nur Sätze akzeptiert, die in der Grammatik definiert sind. [2 Punkte] Lösung: ˆ Vorteil: funktioniert gut, wenn die Domäne stark eingeschränkt ist und man wenig Trainingstexte zur Verfügung hat. Sätze, die in der Grammatik definiert sind, werden akzeptiert. ˆ Nachteil: Sprache in offeneren Domänen folgt nicht immer grammatischen Regeln, aber die Grammatik akzeptiert nur Sätze, die in der Grammatik definiert sind. 33

34 Aufgabe 7: Suche (9 Punkte) 1) Welche Probleme ergeben sich bei kontinuierlicher Spracherkennung gegenüber isolierter Worterkennung? Nennen Sie drei Punkte. [3 Punkte] Lösung: (a) Kombinatorische Explosion möglicher Wortfolgen, die gesagt worden sein könnten. (b) Segmentierung: Wo sind die Wortübergänge? (c) Koartikulation (going to > gonna...) (d) Wortwiederholungen (restarts) (e) Wortfragmente (f) Hohe Sprechrate 34

35 2) Erklären Sie kurz den Unterschied zwischen time-synchronous und timeasynchronous Suchstrategien. [1 Punkt] Lösung: In der time-synchronous Suche wird jede Hypothese simultan (Frame für Frame) expandiert, während bei time-asynchronous Suche Teilhypothesen mit unterschiedlicher Länge expandiert werden. 35

36 3) In der Vorlesung wurde zur Optimierung der Suche die Tree Search vorgestellt. Erstellen Sie aus folgenden fünf Wörtern mit Aussprachen den in der Vorlesung definierten prefix-tree für die Tree Search: a) Baum - b a u m b) Bahnhof - b a n h o f c) Banane - b a n a n e d) Bank - b a ng k e) Brot - b r o t [3 Punkte] Lösung: 36

37 4) Wie wird das Language Model bei der Tree Search integriert? [1 Punkt] Lösung: Die Wahrscheinlichkeit für das erkannte Wort wird erst im letzten Zustand hinzuaddiert (, wenn wir uns im log Bereich finden, ansonsten multipliziert). 37

38 5) Erkären Sie was man unter Unigram-Lookahead versteht. [1 Punkt] Lösung: Für jeden Knoten im Suchbaum werden die Unigramwahrscheinlichkeiten für alle Wörter, die in dem aktuellen Teilbaum noch zu erkennen sind aufaddiert und anstelle der Sprachmodelwahrscheinlichkeit benutzt. Sobald das Wort eindeutig erkannt wurde, wird die Unigramwahrscheinlichkeit durch die Bigramwahrscheinlichkeit ersetzt. 38

39 Aufgabe 8: Transferaufgabe (8 Punkte) 1) Nennen Sie drei Herausforderungen die bei der Entwicklung eines Spracherkenners für eine neue Sprache auftreten können. [3 Punkte] Lösung: (a) Aussprachewörterbuch erstellen (b) Segmentierung (c) Textnormalisierung (d) Modellierung von Tönen in tonalen Sprachen (e) Verschriftung, falls keine Schrift in der betreffenden Sprache existiert (f) Sammeln von Audiodaten, bzw. erstellen von Transkriptionen (g) Kulturelle Herausforderungen 39

40 2) Sie wurden beauftragt einen Spracherkenner zur Erkennung von Telefonnummern in einem Callcenter zu entwickeln. a) Welche Komponenten benötigen Sie für Ihren Erkenner? [3 Punkte] Lösung: i. Vorverarbeitung ii. Akustisches Model iii. Aussprachewörterbuch iv. Language Model v. Dekoder b) Worauf müssen Sie achten, wenn der Service einerseits für eine möglichst große Menge von Nutzern funktionieren soll und andererseits auch vom Mobiltelefon aus angerufen wird? [2 Punkte] Lösung: Dem Service muss ein sprecherunabhängiges akustisches Model zugrunde liegen. Außerdem sind gute Modelle für Nebengeräusche erforderlich. 40

Praktikum Maschinelle Übersetzung Language Model

Praktikum Maschinelle Übersetzung Language Model Praktikum Maschinelle Übersetzung Language Model Um die Aufgaben auszuführen, können Sie ihre Daten in folgendem Verzeichnis speichern: /project/smtstud/ss10/systems/username/ Wir werden verschiedene Sprachmodelle

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

Wissensbasierte Systeme

Wissensbasierte Systeme WBS3 Slide 1 Wissensbasierte Systeme Sebastian Iwanowski FH Wedel Kap. 3: Algorithmische Grundlagen der KI WBS3 Slide 2 Suchstrategien Warum sind Suchstrategien so wichtig in Wissensbasierten Systemen?

Mehr

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002)

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) 3. Entscheidungsbäume Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) (aus Wilhelm 2001) Beispiel: (aus Böhm 2003) Wann sind Entscheidungsbäume

Mehr

Wissensbasierte Systeme

Wissensbasierte Systeme WBS4 Slide 1 Wissensbasierte Systeme Vorlesung 4 vom 03.11.2004 Sebastian Iwanowski FH Wedel WBS4 Slide 2 Wissensbasierte Systeme 1. Motivation 2. Prinzipien und Anwendungen 3. Logische Grundlagen 4. Suchstrategien

Mehr

Versuch 3: Anwendungen der schnellen Fourier-Transformation (FFT)

Versuch 3: Anwendungen der schnellen Fourier-Transformation (FFT) Versuch 3: Anwendungen der schnellen Fourier-Transformation (FFT) Ziele In diesem Versuch lernen Sie zwei Anwendungen der Diskreten Fourier-Transformation in der Realisierung als recheneffiziente schnelle

Mehr

Modulationsanalyse. Amplitudenmodulation

Modulationsanalyse. Amplitudenmodulation 10/13 Die liefert Spektren der Einhüllenden von Teilbändern des analysierten Signals. Der Anwender kann damit Amplitudenmodulationen mit ihrer Frequenz, ihrer Stärke und ihrem zeitlichen Verlauf erkennen.

Mehr

Anmerkungen zur Übergangsprüfung

Anmerkungen zur Übergangsprüfung DM11 Slide 1 Anmerkungen zur Übergangsprüfung Aufgabeneingrenzung Aufgaben des folgenden Typs werden wegen ihres Schwierigkeitsgrads oder wegen eines ungeeigneten fachlichen Schwerpunkts in der Übergangsprüfung

Mehr

n-gramm-modelle Vorlesung Computerlinguistische Techniken Alexander Koller 1. Dezember 2014

n-gramm-modelle Vorlesung Computerlinguistische Techniken Alexander Koller 1. Dezember 2014 n-gramm-modelle Vorlesung Computerlinguistische Techniken Alexander Koller 1. Dezember 2014 Wahrscheinlichkeit und Sprache Ausgangsfrage: Nächstes Wort vorhersagen. Sprache als Zufallsprozess: Für jede

Mehr

Datenstrukturen & Algorithmen

Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Binäre Suchbäume Einführung und Begriffe Binäre Suchbäume 2 Binäre Suchbäume Datenstruktur für dynamische Mengen

Mehr

Aufabe 7: Baum-Welch Algorithmus

Aufabe 7: Baum-Welch Algorithmus Effiziente Algorithmen VU Ausarbeitung Aufabe 7: Baum-Welch Algorithmus Florian Fest, Matr. Nr.0125496 baskit@generationfun.at Claudia Hermann, Matr. Nr.0125532 e0125532@stud4.tuwien.ac.at Matteo Savio,

Mehr

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,

Mehr

Algorithmen und Datenstrukturen

Algorithmen und Datenstrukturen Algorithmen und Datenstrukturen Dipl. Inform. Andreas Wilkens aw@awilkens.com Überblick Grundlagen Definitionen Elementare Datenstrukturen Rekursionen Bäume 2 1 Datenstruktur Baum Definition eines Baumes

Mehr

Longitudinale und transversale Relaxationszeit

Longitudinale und transversale Relaxationszeit Longitudinale und transversale Relaxationszeit Longitudinale Relaxationszeit T 1 (Zeit, die das System benötigt, um nach dem rf- Puls zurück ins Gleichgewicht zu kommen) Transversale Relaxationszeit T

Mehr

Datenbankanwendung. Prof. Dr.-Ing. Sebastian Michel TU Kaiserslautern. Wintersemester 2014/15. smichel@cs.uni-kl.de

Datenbankanwendung. Prof. Dr.-Ing. Sebastian Michel TU Kaiserslautern. Wintersemester 2014/15. smichel@cs.uni-kl.de Datenbankanwendung Wintersemester 2014/15 Prof. Dr.-Ing. Sebastian Michel TU Kaiserslautern smichel@cs.uni-kl.de Wiederholung: Anfragegraph Anfragen dieses Typs können als Graph dargestellt werden: Der

Mehr

Vorlesung 3 MINIMALE SPANNBÄUME

Vorlesung 3 MINIMALE SPANNBÄUME Vorlesung 3 MINIMALE SPANNBÄUME 72 Aufgabe! Szenario: Sie arbeiten für eine Firma, die ein Neubaugebiet ans Netz (Wasser, Strom oder Kabel oder...) anschließt! Ziel: Alle Haushalte ans Netz bringen, dabei

Mehr

13. Binäre Suchbäume

13. Binäre Suchbäume 1. Binäre Suchbäume Binäre Suchbäume realiesieren Wörterbücher. Sie unterstützen die Operationen 1. Einfügen (Insert) 2. Entfernen (Delete). Suchen (Search) 4. Maximum/Minimum-Suche 5. Vorgänger (Predecessor),

Mehr

Quelle: www.omekinteractive.com. Ganzkörper- Gestensteuerung. Mit 3-D Sensor (z.b. MS Kinect, ASUS Xtion) Zwischenpräsentation 21.05.

Quelle: www.omekinteractive.com. Ganzkörper- Gestensteuerung. Mit 3-D Sensor (z.b. MS Kinect, ASUS Xtion) Zwischenpräsentation 21.05. Quelle: www.omekinteractive.com Ganzkörper- 1 Gestensteuerung Mit 3-D Sensor (z.b. MS Kinect, ASUS Xtion) Zwischenpräsentation 2 Gliederung Motivation Wozu braucht man eine Gestensteuerung? Aktuelle Anwendungen

Mehr

Algorithmen und Datenstrukturen Balancierte Suchbäume

Algorithmen und Datenstrukturen Balancierte Suchbäume Algorithmen und Datenstrukturen Balancierte Suchbäume Matthias Teschner Graphische Datenverarbeitung Institut für Informatik Universität Freiburg SS 12 Überblick Einführung Einfügen und Löschen Einfügen

Mehr

1 Part-of-Speech Tagging

1 Part-of-Speech Tagging 2. Übung zur Vorlesung NLP Analyse des Wissensrohstoes Text im Sommersemester 2008 Dr. Andreas Hotho, Dipl.-Inform. Dominik Benz, Wi.-Inf. Beate Krause 28. Mai 2008 1 Part-of-Speech Tagging 1.1 Grundlagen

Mehr

Textmining Klassifikation von Texten Teil 1: Naive Bayes

Textmining Klassifikation von Texten Teil 1: Naive Bayes Textmining Klassifikation von Texten Teil 1: Naive Bayes Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten 1: Naive

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische

Mehr

Balancierte Bäume. Martin Wirsing. in Zusammenarbeit mit Moritz Hammer und Axel Rauschmayer. http://www.pst.ifi.lmu.de/lehre/ss06/infoii/ SS 06

Balancierte Bäume. Martin Wirsing. in Zusammenarbeit mit Moritz Hammer und Axel Rauschmayer. http://www.pst.ifi.lmu.de/lehre/ss06/infoii/ SS 06 Balancierte Bäume Martin Wirsing in Zusammenarbeit mit Moritz Hammer und Axel Rauschmayer http://www.pst.ifi.lmu.de/lehre/ss06/infoii/ SS 06 2 Ziele AVL-Bäume als einen wichtigen Vertreter balancierter

Mehr

3.1 Konstruktion von minimalen Spannbäumen Es gibt zwei Prinzipien für die Konstruktion von minimalen Spannbäumen (Tarjan): blaue Regel rote Regel

3.1 Konstruktion von minimalen Spannbäumen Es gibt zwei Prinzipien für die Konstruktion von minimalen Spannbäumen (Tarjan): blaue Regel rote Regel 3.1 Konstruktion von minimalen Spannbäumen Es gibt zwei Prinzipien für die Konstruktion von minimalen Spannbäumen (Tarjan): blaue Regel rote Regel EADS 3.1 Konstruktion von minimalen Spannbäumen 16/36

Mehr

Wissensbasierte Systeme

Wissensbasierte Systeme WBS5 Slide 1 Wissensbasierte Systeme Vorlesung 5 vom 17.11.2004 Sebastian Iwanowski FH Wedel WBS5 Slide 2 Wissensbasierte Systeme 1. Motivation 2. Prinzipien und Anwendungen 3. Logische Grundlagen 4. Suchstrategien

Mehr

Maximizing the Spread of Influence through a Social Network

Maximizing the Spread of Influence through a Social Network 1 / 26 Maximizing the Spread of Influence through a Social Network 19.06.2007 / Thomas Wener TU-Darmstadt Seminar aus Data und Web Mining bei Prof. Fürnkranz 2 / 26 Gliederung Einleitung 1 Einleitung 2

Mehr

Lernen von Entscheidungsbäumen. Volker Tresp Summer 2014

Lernen von Entscheidungsbäumen. Volker Tresp Summer 2014 Lernen von Entscheidungsbäumen Volker Tresp Summer 2014 1 Anforderungen an Methoden zum Datamining Schnelle Verarbeitung großer Datenmengen Leichter Umgang mit hochdimensionalen Daten Das Lernergebnis

Mehr

Part-Of-Speech-Tagging mit Viterbi Algorithmus

Part-Of-Speech-Tagging mit Viterbi Algorithmus Part-Of-Speech-Tagging mit Viterbi Algorithmus HS Endliche Automaten Inna Nickel, Julia Konstantinova 19.07.2010 1 / 21 Gliederung 1 Motivation 2 Theoretische Grundlagen Hidden Markov Model Viterbi Algorithmus

Mehr

YouTube: Video-Untertitel übersetzen

YouTube: Video-Untertitel übersetzen Der Easytrans24.com-Ratgeber YouTube: Video-Untertitel übersetzen Wie Sie mit Hilfe von Easytrans24.com in wenigen Schritten Untertitel für Ihre YouTube- Videos in mehrere Sprachen übersetzen lassen können.

Mehr

Algorithmen und Datenstrukturen Suchbaum

Algorithmen und Datenstrukturen Suchbaum Algorithmen und Datenstrukturen Suchbaum Matthias Teschner Graphische Datenverarbeitung Institut für Informatik Universität Freiburg SS 12 Motivation Datenstruktur zur Repräsentation dynamischer Mengen

Mehr

Social Business Intelligence Text Mining und Hadoop bei DB Fernverkehr AG

Social Business Intelligence Text Mining und Hadoop bei DB Fernverkehr AG Social Business Intelligence Text Mining und Hadoop bei DB Fernverkehr AG DB Fernverkehr AG Dr.-Ing. Axel Schulz, Dr. Matthias Platho P.FMB 2, DB Fernverkehr AG Frankfurt, 22.05.2015 Motivation An meinem

Mehr

Eine Einführung in R: Hochdimensionale Daten: n << p Teil II

Eine Einführung in R: Hochdimensionale Daten: n << p Teil II Eine Einführung in R: Hochdimensionale Daten: n

Mehr

Unterscheidung: Workflowsystem vs. Informationssystem

Unterscheidung: Workflowsystem vs. Informationssystem 1. Vorwort 1.1. Gemeinsamkeiten Unterscheidung: Workflowsystem vs. Die Überschneidungsfläche zwischen Workflowsystem und ist die Domäne, also dass es darum geht, Varianten eines Dokuments schrittweise

Mehr

Voraussetzung wieder: Datenraum mit Instanzen, mehrere Attribute - kein ausgezeichnetes Zielattribut, keine vorgegebenen Klassen

Voraussetzung wieder: Datenraum mit Instanzen, mehrere Attribute - kein ausgezeichnetes Zielattribut, keine vorgegebenen Klassen 7. Clusteranalyse (= Häufungsanalyse; Clustering-Verfahren) wird der multivariaten Statistik zugeordnet Voraussetzung wieder: Datenraum mit Instanzen, mehrere Attribute - kein ausgezeichnetes Zielattribut,

Mehr

ABITURPRÜFUNG 2009 LEISTUNGSFACH INFORMATIK

ABITURPRÜFUNG 2009 LEISTUNGSFACH INFORMATIK ABITURPRÜFUNG 2009 LEISTUNGSFACH INFORMATIK (HAUPTTERMIN) Bearbeitungszeit: 270 Minuten Hilfsmittel: Wörterbuch zur deutschen Rechtschreibung Taschenrechner (nicht programmierbar, nicht grafikfähig) (Schüler,

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume

Mehr

Kompakte Graphmodelle handgezeichneter Bilder

Kompakte Graphmodelle handgezeichneter Bilder Kompakte Graphmodelle handgezeichneter Bilder Einbeziehung in Authentizierung und Bilderkennung Inhaltsverzeichnis Seminar Mustererkennung WS 006/07 Autor: Stefan Lohs 1 Einleitung 1 Das graphische Modell.1

Mehr

Wiederholung ADT Menge Ziel: Verwaltung (Finden, Einfügen, Entfernen) einer Menge von Elementen

Wiederholung ADT Menge Ziel: Verwaltung (Finden, Einfügen, Entfernen) einer Menge von Elementen Was bisher geschah abstrakter Datentyp : Signatur Σ und Axiome Φ z.b. ADT Menge zur Verwaltung (Finden, Einfügen, Entfernen) mehrerer Elemente desselben Typs Spezifikation einer Schnittstelle Konkreter

Mehr

Folge 19 - Bäume. 19.1 Binärbäume - Allgemeines. Grundlagen: Ulrich Helmich: Informatik 2 mit BlueJ - Ein Kurs für die Stufe 12

Folge 19 - Bäume. 19.1 Binärbäume - Allgemeines. Grundlagen: Ulrich Helmich: Informatik 2 mit BlueJ - Ein Kurs für die Stufe 12 Grundlagen: Folge 19 - Bäume 19.1 Binärbäume - Allgemeines Unter Bäumen versteht man in der Informatik Datenstrukturen, bei denen jedes Element mindestens zwei Nachfolger hat. Bereits in der Folge 17 haben

Mehr

EndTermTest PROGALGO WS1516 A

EndTermTest PROGALGO WS1516 A EndTermTest PROGALGO WS1516 A 14.1.2016 Name:................. UID:.................. PC-Nr:................ Beachten Sie: Lesen Sie erst die Angaben aufmerksam, genau und vollständig. Die Verwendung von

Mehr

Kapiteltests zum Leitprogramm Binäre Suchbäume

Kapiteltests zum Leitprogramm Binäre Suchbäume Kapiteltests zum Leitprogramm Binäre Suchbäume Björn Steffen Timur Erdag überarbeitet von Christina Class Binäre Suchbäume Kapiteltests für das ETH-Leitprogramm Adressaten und Institutionen Das Leitprogramm

Mehr

DFT / FFT der Titel der Präsentation wiederholt (Ansicht >Folienmaster) Dipl.-Ing. Armin Rohnen, Fakultät 03, rohnen@hm.edu

DFT / FFT der Titel der Präsentation wiederholt (Ansicht >Folienmaster) Dipl.-Ing. Armin Rohnen, Fakultät 03, rohnen@hm.edu 1 Grundlagen Abtasttheorem Fenster Zeit - Frequenzauflösung Pegelgenauigkeit Overlap Mittelung 2 2 volle Schwingungen 32 Abtastwerte Amplitude = 1 Pascal Signallänge = 1 Sekunde Eine Frequenzline bei 2

Mehr

Der linke Teilbaum von v enthält nur Schlüssel < key(v) und der rechte Teilbaum enthält nur Schlüssel > key(v)

Der linke Teilbaum von v enthält nur Schlüssel < key(v) und der rechte Teilbaum enthält nur Schlüssel > key(v) Ein Baum T mit Knotengraden 2, dessen Knoten Schlüssel aus einer total geordneten Menge speichern, ist ein binärer Suchbaum (BST), wenn für jeden inneren Knoten v von T die Suchbaumeigenschaft gilt: Der

Mehr

Fakultät Wirtschaftswissenschaft

Fakultät Wirtschaftswissenschaft Fakultät Wirtschaftswissenschaft Matrikelnr. Name Vorname KLAUSUR: Entwurf und Implementierung von Informationssystemen (32561) TERMIN: 11.09.2013, 14.00 16.00 Uhr PRÜFER: Univ.-Prof. Dr. Stefan Strecker

Mehr

Heuristiken im Kontext von Scheduling

Heuristiken im Kontext von Scheduling Heuristiken im Kontext von Scheduling Expertenvortrag CoMa SS 09 CoMa SS 09 1/35 Übersicht Motivation Makespan Scheduling Lokale Suche Weitere Metaheuristiken Zusammenfassung Literatur CoMa SS 09 2/35

Mehr

Data Mining Anwendungen und Techniken

Data Mining Anwendungen und Techniken Data Mining Anwendungen und Techniken Knut Hinkelmann DFKI GmbH Entdecken von Wissen in banken Wissen Unternehmen sammeln ungeheure mengen enthalten wettbewerbsrelevantes Wissen Ziel: Entdecken dieses

Mehr

Literatur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS)

Literatur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS) Dominating Set 59 Literatur Dominating Set Grundlagen 60 Dominating Set (DS) M. V. Marathe, H. Breu, H.B. Hunt III, S. S. Ravi, and D. J. Rosenkrantz: Simple Heuristics for Unit Disk Graphs. Networks 25,

Mehr

Vorlesung 04.12.2006: Binäre Entscheidungsdiagramme (BDDs) Dr. Carsten Sinz

Vorlesung 04.12.2006: Binäre Entscheidungsdiagramme (BDDs) Dr. Carsten Sinz Vorlesung 04.12.2006: Binäre Entscheidungsdiagramme (BDDs) Dr. Carsten Sinz Datenstruktur BDD 1986 von R. Bryant vorgeschlagen zur Darstellung von aussagenlogischen Formeln (genauer: Booleschen Funktionen)

Mehr

2.7 Baum-Welch-Training

2.7 Baum-Welch-Training 2.7. BAUM-WELCH-TRAINING 33 Die Evaluierung unserer Modelle soweit sollte eine Word Accuracy im Bereich von 40% ergeben (das ist übrigens schon ziemlich gut, wenn man bedenkt, wie schwierig die Aufgabe

Mehr

Kompakte Graphmodelle handgezeichneter Bilder. Einbeziehung in Autentizierung und Bilderkennung

Kompakte Graphmodelle handgezeichneter Bilder. Einbeziehung in Autentizierung und Bilderkennung Kompakte Graphmodelle handgezeichneter Bilder Einbeziehung in Autentizierung und Bilderkennung Inhaltsverzeichnis 1 Einleitung Das graphische Model.1 Image Thinning................................. 3.

Mehr

Mit KI gegen SPAM. Proseminar Künstliche Intelligenz

Mit KI gegen SPAM. Proseminar Künstliche Intelligenz Mit KI gegen SPAM Proseminar Künstliche Intelligenz SS 2006 Florian Laib Ausblick Was ist SPAM? Warum SPAM-Filter? Naive Bayes-Verfahren Fallbasiertes Schließen Fallbasierte Filter TiMBL Vergleich der

Mehr

Neuronale Netze (I) Biologisches Neuronales Netz

Neuronale Netze (I) Biologisches Neuronales Netz Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung

Mehr

Algorithmen II Vorlesung am 15.11.2012

Algorithmen II Vorlesung am 15.11.2012 Algorithmen II Vorlesung am 15.11.2012 Kreisbasen, Matroide & Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales

Mehr

Kap. 4.2: Binäre Suchbäume

Kap. 4.2: Binäre Suchbäume Kap. 4.2: Binäre Suchbäume Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 11. VO DAP2 SS 2009 26. Mai 2009 1 Zusätzliche Lernraumbetreuung Morteza Monemizadeh:

Mehr

Datenstruktur, die viele Operationen dynamischer Mengen unterstützt

Datenstruktur, die viele Operationen dynamischer Mengen unterstützt Algorithmen und Datenstrukturen 265 10 Binäre Suchbäume Suchbäume Datenstruktur, die viele Operationen dynamischer Mengen unterstützt Kann als Wörterbuch, aber auch zu mehr eingesetzt werden (Prioritätsschlange)

Mehr

Jan Parthey, Christin Seifert. 22. Mai 2003

Jan Parthey, Christin Seifert. 22. Mai 2003 Simulation Rekursiver Auto-Assoziativer Speicher (RAAM) durch Erweiterung eines klassischen Backpropagation-Simulators Jan Parthey, Christin Seifert jpar@hrz.tu-chemnitz.de, sech@hrz.tu-chemnitz.de 22.

Mehr

Klausur für Studiengänge INF und IST

Klausur für Studiengänge INF und IST Familienname: Matrikelnummer: Studiengang: (bitte ankreuzen) INF IST MED Vorname: Email-Adresse: Immatrikulationsjahr: Klausur für Studiengänge INF und IST sowie Leistungsschein für Studiengang Medieninformatik

Mehr

Fachhochschule Düsseldorf. Simulation der Eigenschaften eines CDMA- Systems mittels ADS

Fachhochschule Düsseldorf. Simulation der Eigenschaften eines CDMA- Systems mittels ADS Fachhochschule Düsseldorf Fachbereich Elektrotechnik Simulation der Eigenschaften eines CDMA- Systems mittels ADS Prof. Dr. P. Pogatzki Name: Matr.-Nr.: Testat: 2 Einleitung Ziel dieses Versuches ist es,

Mehr

WS 2009/10. Diskrete Strukturen

WS 2009/10. Diskrete Strukturen WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910

Mehr

Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens

Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 17.04.2015 Entscheidungsprobleme beim Textmining

Mehr

Numerisches Programmieren

Numerisches Programmieren Technische Universität München SS 2012 Institut für Informatik Prof Dr Thomas Huckle Dipl-Inf Christoph Riesinger Dipl-Math Alexander Breuer Dipl-Math Dipl-Inf Jürgen Bräckle Dr-Ing Markus Kowarschik Numerisches

Mehr

Algorithmen und Datenstrukturen 2

Algorithmen und Datenstrukturen 2 Algorithmen und Datenstrukturen 2 Sommersemester 2007 4. Vorlesung Peter F. Stadler Universität Leipzig Institut für Informatik studla@bioinf.uni-leipzig.de Traversierung Durchlaufen eines Graphen, bei

Mehr

Data Mining-Modelle und -Algorithmen

Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining ist ein Prozess, bei dem mehrere Komponenten i n- teragieren. Sie greifen auf Datenquellen, um diese zum Training,

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Vorlesung am 12.01.2012 INSTITUT FÜR THEORETISCHE 0 KIT 12.01.2012 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der Informatik

Mehr

Wie Google Webseiten bewertet. François Bry

Wie Google Webseiten bewertet. François Bry Wie Google Webseiten bewertet François Bry Heu6ge Vorlesung 1. Einleitung 2. Graphen und Matrizen 3. Erste Idee: Ranking als Eigenvektor 4. Fragen: Exisi6ert der Eigenvektor? Usw. 5. Zweite Idee: Die Google

Mehr

Alignment-Verfahren zum Vergleich biologischer Sequenzen

Alignment-Verfahren zum Vergleich biologischer Sequenzen zum Vergleich biologischer Sequenzen Hans-Joachim Böckenhauer Dennis Komm Volkshochschule Zürich. April Ein biologisches Problem Fragestellung Finde eine Methode zum Vergleich von DNA-Molekülen oder Proteinen

Mehr

Wasserfall-Ansätze zur Bildsegmentierung

Wasserfall-Ansätze zur Bildsegmentierung Wasserfall-Ansätze zur Bildsegmentierung von Philipp Jester Seminar: Bildsegmentierung und Computer Vision 16.01.2006 Überblick 1. Problemstellung 2. Wiederholung: Wasserscheiden-Ansätze 3. Der Wasserfall-Ansatz

Mehr

Technische Universität München SS 2006 Fakultät für Informatik 12. Oktober 2006 Prof. Dr. A. Knoll. Aufgabe 1 Transferfragen (Lösungsvorschlag)

Technische Universität München SS 2006 Fakultät für Informatik 12. Oktober 2006 Prof. Dr. A. Knoll. Aufgabe 1 Transferfragen (Lösungsvorschlag) Technische Universität München SS 2006 Fakultät für Informatik 12. Oktober 2006 Prof. Dr. A. Knoll Lösungsvorschläge der Klausur zu Einführung in die Informatik II Aufgabe 1 Transferfragen (Lösungsvorschlag)

Mehr

Ideen der Informatik. Maschinelles Lernen. Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik

Ideen der Informatik. Maschinelles Lernen. Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik Ideen der Informatik Maschinelles Lernen Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik Übersicht Lernen: Begriff Beispiele für den Stand der Kunst Spamerkennung Handschriftenerkennung

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

Grundlagen der Informatik. Prof. Dr. Stefan Enderle NTA Isny

Grundlagen der Informatik. Prof. Dr. Stefan Enderle NTA Isny Grundlagen der Informatik Prof. Dr. Stefan Enderle NTA Isny 2 Datenstrukturen 2.1 Einführung Syntax: Definition einer formalen Grammatik, um Regeln einer formalen Sprache (Programmiersprache) festzulegen.

Mehr

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen 5.1 Lernen mit Entscheidungsbäumen Falls zum Beispiel A = {gelb, rot, blau} R 2 und B = {0, 1}, so definiert der folgende Entscheidungsbaum eine Hypothese H : A B (wobei der Attributvektor aus A mit x

Mehr

Vortrag. Suchverfahren der Künstlichen Intelligenz. Sven Schmidt (Technische Informatik)

Vortrag. Suchverfahren der Künstlichen Intelligenz. Sven Schmidt (Technische Informatik) Vortrag Suchverfahren der Künstlichen Intelligenz Sven Schmidt (Technische Informatik) Suchverfahren der Künstlichen Intelligenz Grundlagen Zustandsraumrepräsentation Generische Suche Bewertung von Suchstrategien

Mehr

Suchen und Sortieren

Suchen und Sortieren (Folie 69, Seite 36 im Skript) 5 6 1 4 Als assoziatives Array geeignet Schlüssel aus geordneter Menge Linke Kinder kleiner, rechte Kinder größer als Elternknoten Externe und interne Knoten Externe Knoten

Mehr

a) Zeichnen Sie in das nebenstehende Streudiagramm mit Lineal eine Regressionsgerade ein, die Sie für passend halten.

a) Zeichnen Sie in das nebenstehende Streudiagramm mit Lineal eine Regressionsgerade ein, die Sie für passend halten. Statistik für Kommunikationswissenschaftler Wintersemester 2009/200 Vorlesung Prof. Dr. Helmut Küchenhoff Übung Cornelia Oberhauser, Monia Mahling, Juliane Manitz Thema 4 Homepage zur Veranstaltung: http://www.statistik.lmu.de/~helmut/kw09.html

Mehr

Einführung in die automatische Spracherkennung

Einführung in die automatische Spracherkennung Einführung in die automatische Spracherkennung Hans-Günter Hirsch http://dnt.kr.hs-niederrhein.de http://dnt.kr.hs-niederrhein.de/asr14/ email: hans-guenter.hirsch@hs-niederrhein.de Folie 1 Persönlicher

Mehr

Statistik I für Wirtschaftswissenschaftler Klausur am 06.07.2007, 14.00 16.00.

Statistik I für Wirtschaftswissenschaftler Klausur am 06.07.2007, 14.00 16.00. 1 Statistik I für Wirtschaftswissenschaftler Klausur am 06.07.2007, 14.00 16.00. Bitte unbedingt beachten: a) Gewertet werden alle 9 gestellten Aufgaben. b) Lösungswege sind anzugeben. Die Angabe des Endergebnisses

Mehr

Standardisierte kompetenzorientierte schriftliche Reifeprüfung. Mathematik. Probeklausur März 2014. Teil-1-Aufgaben

Standardisierte kompetenzorientierte schriftliche Reifeprüfung. Mathematik. Probeklausur März 2014. Teil-1-Aufgaben Standardisierte kompetenzorientierte schriftliche Reifeprüfung Mathematik Probeklausur März 2014 Teil-1-Aufgaben Beurteilung Jede Aufgabe in Teil 1 wird mit 0 oder 1 Punkt bewertet, jede Teilaufgabe in

Mehr

4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum

4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum 4. Lernen von Entscheidungsbäumen Klassifikation mit Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch /Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden.

Mehr

Eine Baumstruktur sei folgendermaßen definiert. Eine Baumstruktur mit Grundtyp Element ist entweder

Eine Baumstruktur sei folgendermaßen definiert. Eine Baumstruktur mit Grundtyp Element ist entweder Programmieren in PASCAL Bäume 1 1. Baumstrukturen Eine Baumstruktur sei folgendermaßen definiert. Eine Baumstruktur mit Grundtyp Element ist entweder 1. die leere Struktur oder 2. ein Knoten vom Typ Element

Mehr

Formeln. Signatur. aussagenlogische Formeln: Aussagenlogische Signatur

Formeln. Signatur. aussagenlogische Formeln: Aussagenlogische Signatur Signatur Formeln Am Beispiel der Aussagenlogik erklären wir schrittweise wichtige Elemente eines logischen Systems. Zunächst benötigt ein logisches System ein Vokabular, d.h. eine Menge von Namen, die

Mehr

Kapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete

Kapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete Kapitel 4: Dynamische Datenstrukturen Algorithmen und Datenstrukturen WS 2012/13 Prof. Dr. Sándor Fekete 4.4 Binäre Suche Aufgabenstellung: Rate eine Zahl zwischen 100 und 114! Algorithmus 4.1 INPUT: OUTPUT:

Mehr

Text Mining und CRM. Hans Hermann Weber Univ. Erlangen IMMD 8, den 12.09.03

Text Mining und CRM. Hans Hermann Weber Univ. Erlangen IMMD 8, den 12.09.03 Text Mining und CRM Hans Hermann Weber Univ. Erlangen IMMD 8, den 12.09.03 Was ist Textmining Unstrukturierte Daten (Text) anreichern mit Strukturinformation: Metadaten hinzufügen Struktur (Segmentinformation)

Mehr

Nutzerhandbuch Softwaresystem Inspirata. Benutzerhandbuch Softwaresystem Inspirata

Nutzerhandbuch Softwaresystem Inspirata. Benutzerhandbuch Softwaresystem Inspirata Benutzerhandbuch Softwaresystem Inspirata 1 Inhaltsverzeichnis 1. Login und Logout... 3 2. Kalender/Buchungen auswählen... 5 3. Betreuer... 7 3.1 Buchung anlegen... 7 3.2 Betreuer zuordnen... 8 3.3 Notiz

Mehr

Pfinder: Real-Time Tracking of the Human Body

Pfinder: Real-Time Tracking of the Human Body Pfinder: Real-Time Tracking of the Human Body Christopher Wren, Ali Azarbayejani, Trevor Darrell, Alex Pentland aus: IEEE Transactions on Pattern Analysis and Machine Intelligence (pp. 780-785) 12. April

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Bearbeitungshinweise. (20 Punkte)

Bearbeitungshinweise. (20 Punkte) Bearbeitungshinweise - Es sind alle Aufgaben zu bearbeiten. - Als Hilfsmittel sind lediglich nicht programmierbare Taschenrechner erlaubt. - Die Klausur darf nicht auseinander genommen werden. - Sämtliche

Mehr

Maschinelles Lernen. Kapitel 5

Maschinelles Lernen. Kapitel 5 Kapitel 5 Maschinelles Lernen Im täglichen Leben begegnet uns das Lernen meist in einer Mischung aus den Aspekten der Vergrößerung von Wissen und der Verbesserung von Fähigkeiten. Beim Erlernen einer Fremdsprache

Mehr

Algorithms for Regression and Classification

Algorithms for Regression and Classification Fakultät für Informatik Effiziente Algorithmen und Komplexitätstheorie Algorithms for Regression and Classification Robust Regression and Genetic Association Studies Robin Nunkesser Fakultät für Informatik

Mehr

Spezielle Themen der KI. NLP Natural Language Processing. Sprachverstehen

Spezielle Themen der KI. NLP Natural Language Processing. Sprachverstehen Spezielle Themen der KI NLP Natural Language Processing Sprachverstehen NLP - Verarbeitungsstufen des Sprachverstehen 47 Phonologie und Phonetik Phonologie Lautlehre oder Sprachgebilde-Lautlehre untersucht

Mehr

MINT-Circle-Schülerakademie

MINT-Circle-Schülerakademie 1 Einführung MINT-Circle-Schülerakademie Kurze Einführung, was Maple ist, wozu es dienen kann, wo es verwendet wird. Zur Einführung die folgenden Aufgaben bearbeiten lassen. Aufgabe 1. Gib unter Maple

Mehr

Monte-Carlo-Simulation

Monte-Carlo-Simulation Modellierung und Simulation Monte-Carlo-Simulation Universität Hamburg Johannes Schlundt 7. Januar 2013 Monte-Carlo-Simulation Johannes S. 1/31 Inhalt Motivation Geschichtliche Entwicklung Monte-Carlo-Simulation

Mehr

4 Greedy-Algorithmen (gierige Algorithmen)

4 Greedy-Algorithmen (gierige Algorithmen) Greedy-Algorithmen (gierige Algorithmen) Greedy-Algorithmen werden oft für die exakte oder approximative Lösung von Optimierungsproblemen verwendet. Typischerweise konstruiert ein Greedy-Algorithmus eine

Mehr

Suchbäume. Annabelle Klarl. Einführung in die Informatik Programmierung und Softwareentwicklung

Suchbäume. Annabelle Klarl. Einführung in die Informatik Programmierung und Softwareentwicklung Suchbäume Annabelle Klarl Zentralübung zur Vorlesung Einführung in die Informatik: http://www.pst.ifi.lmu.de/lehre/wise-13-14/infoeinf WS13/14 Action required now 1. Smartphone: installiere die App "socrative

Mehr

Kürzeste Wege in Graphen. Maurice Duvigneau Otto-von-Guericke Universität Fakultät für Informatik

Kürzeste Wege in Graphen. Maurice Duvigneau Otto-von-Guericke Universität Fakultät für Informatik Kürzeste Wege in Graphen Maurice Duvigneau Otto-von-Guericke Universität Fakultät für Informatik Gliederung Einleitung Definitionen Algorithmus von Dijkstra Bellmann-Ford Algorithmus Floyd-Warshall Algorithmus

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 1 Programm des

Mehr

Idee: Wenn wir beim Kopfknoten zwei Referenzen verfolgen können, sind die Teillisten kürzer. kopf Eine Datenstruktur mit Schlüsselwerten 1 bis 10

Idee: Wenn wir beim Kopfknoten zwei Referenzen verfolgen können, sind die Teillisten kürzer. kopf Eine Datenstruktur mit Schlüsselwerten 1 bis 10 Binäre Bäume Bäume gehören zu den wichtigsten Datenstrukturen in der Informatik. Sie repräsentieren z.b. die Struktur eines arithmetischen Terms oder die Struktur eines Buchs. Bäume beschreiben Organisationshierarchien

Mehr

Nichtlebenversicherungsmathematik Aus welchen Teilen besteht eine Prämie Zufallsrisiko, Parameterrisiko, Risikokapital Risikomasse (VaR, ES) Definition von Kohärenz Zusammengesetze Poisson: S(i) CP, was

Mehr