Vorlesung Digitale Bildverarbeitung Sommersemester 2013

Größe: px
Ab Seite anzeigen:

Download "Vorlesung Digitale Bildverarbeitung Sommersemester 2013"

Transkript

1 Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben Institut für Neuroinformatik

2 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)

3 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)

4 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)

5 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)

6 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)

7 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)

8 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)

9 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)

10 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)

11 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)

12 Feature Extractor Bilder sind komplexe, hochdimensionale Datenstrukturen Feature Extractor Reduziert die Feature-Dimension Implementiert Vorwissen Feature Extractor Vorfahrt / Links abbiegen Klassifikator Gesicht / Kein Gesicht Heim / Auswärts

13 HOG - Methodik

14 Haar(-like) Feature Ähnlich zu den Haar-Wavelets (daher der Name) Gesichtsdetektion (2001) Heute in genereller Objektdetektion einsetzbar

15 Haar(-like) Feature Vorteile: Schnell (sehr schnell) Skalierbarkeit (für größere Bilder kann man die Feature entsprechend skalieren, ohne zusätzlichen Rechenaufwand) Nachteile: nicht so aussagekräftig

16 Detektion Welche Fehler kann ein Detektor machen? Er findet ein Objekt, wo keines ist. (Falsch positiv, FP) Er findet kein Objekt, wo eines ist. (Falsch negativ, FN) Bewertung über zwei Kenngrößen (TP = richtig erkannte Objekte) Verschiedene Einstellungen (Empfindlichkeit) des Detektors können verschiedene Precision-Recall-Wertepaare ergeben

17 Detektion Falsch-Positiv-Rate Anteil der falsch positiven Detektionen an den Objekten, die in Wirklichkeit negativ sind (TN = True Negative)

18 AdaBoost Verwende viele einfache ( schwache ) Klassifikatoren, um einen sehr guten Klassifikator zu konstruieren AdaBoost kann auch für Feature-Selection verwendet werden Einfachster denkbarer Klassifikator:

19 AdaBoost Verwende viele einfache ( schwache ) Klassifikatoren, um einen sehr guten Klassifikator zu konstruieren AdaBoost kann auch für Feature-Selection verwendet werden Einfachster denkbarer Klassifikator: Linearer Klassifikator im 1D-Featureraum (Schwellwert auf einem Skalar)

20 AdaBoost - Beispiel Gegeben sei folgendes Klassifikationsbeispiel Schwache Klassifikatoren sind 1D-Schwellwerte für jedes Feature

21 AdaBoost - Beispiel Gegeben sei folgendes Klassifikationsbeispiel Schwache Klassifikatoren sind 1D-Schwellwerte für jedes Feature

22 AdaBoost - Beispiel Gegeben sei folgendes Klassifikationsbeispiel Schwache Klassifikatoren sind 1D-Schwellwerte für jedes Feature Feature 1 Feature 2 Feature 3

23 AdaBoost - Beispiel Gegeben sei folgendes Klassifikationsbeispiel Schwache Klassifikatoren sind 1D-Schwellwerte für jedes Feature Feature 1 Fehler: 0,0515 Feature 2 Fehler: 0,039 Feature 3 Fehler: 0,09

24 AdaBoost - Beispiel Gegeben sei folgendes Klassifikationsbeispiel Schwache Klassifikatoren sind 1D-Schwellwerte für jedes Feature 1,231 1,5219 0,9658 Feature 1 Fehler: 0,0515 Feature 2 Fehler: 0,039 Feature 3 Fehler: 0,09

25 AdaBoost - Beispiel Gegeben sei folgendes Klassifikationsbeispiel Schwache Klassifikatoren sind 1D-Schwellwerte für jedes Feature Fehler: Neue Trainings-Gewichte: 1,5219 Normieren. Klassifikator-Gewicht: Feature 2 Aktueller starker Klassifikator: Fehler: 0,039

26 AdaBoost Beispiel Aktueller starker Klassifikator:

27 AdaBoost - Beispiel Verbleiben zwei weitere schwache Klassifikatoren Feature 1 Feature 3

28 AdaBoost - Beispiel Verbleiben zwei weitere schwache Klassifikatoren Neue Gewichte! Feature 1 Feature 3

29 AdaBoost - Beispiel Verbleiben zwei weitere schwache Klassifikatoren Neue Gewichte! 1,7577 1,2499 Feature 1 Fehler: 0,0848 Feature 3 Fehler: 0,1523

30 AdaBoost - Beispiel Verbleiben zwei weitere schwache Klassifikatoren Neue Gewichte! 1,7577 1,2499 Feature 1 Fehler: 0,0848 Feature 3 Fehler: 0,1523

31 AdaBoost - Beispiel Gegeben sei folgendes Klassifikationsbeispiel Schwache Klassifikatoren sind 1D-Schwellwerte für jedes Feature Fehler: Neue Trainings-Gewichte: 1,7577 Normieren. Klassifikator-Gewicht: Feature 1 Aktueller starker Klassifikator: Fehler: 0,0848

32 AdaBoost Beispiel Aktueller starker Klassifikator:

33 AdaBoost Beispiel Aktueller starker Klassifikator: Warum sind die Ergebnisse gleich? Vorheriger Klassifikator Aktueller Klassifikator

34 AdaBoost - Beispiel Verbleibt ein weiterer schwacher Klassifikator Neue Gewichte! Feature 3 Fehler: 0,0818

35 AdaBoost Beispiel Aktueller starker Klassifikator: Vorheriger Klassifikator (Fehler: 7,8 %) Aktueller Klassifikator (Fehler: 4,6 %)

36 Viola-Jones-Detektor Schwacher Klassifikator: Schwellwert für ein Haar-Feature Menge der Klassifikatoren: Ein Klassifikator für jedes Haar-Feature (Position, Größe, Typ)

37 Viola-Jones Bei vielen Bildausschnitten kann man schnell (d.h. mit wenigen Features) entscheiden, ob es sich um die relevante Klasse (hier: Gesicht) handelt An diesen einfachen Beispielen sollte man keine Zeit verschwenden Reihenschaltung von mehreren AdaBoost-trainierten Klassifikatoren Jeder starke Klassifikator besteht nur aus wenigen Features Nein Ende Nein Ende Nein Ende Starker Klassifikator Nr. 1 ja Starker Klassifikator Nr. 2 ja Starker Klassifikator Nr. 3 ja

38 Viola-Jones Reihenschaltung von mehreren AdaBoost-trainierten Klassifikatoren Jeder starke Klassifikator besteht nur aus wenigen Features Wähle die Schwelle des starken Klassifikators so, dass ein hoher Recall (z.b. 99%) entsteht Dies verursacht i.d.r. eine schlechte Precision Nein Ende Nein Ende Nein Ende Starker Klassifikator Nr. 1 ja Starker Klassifikator Nr. 2 ja Starker Klassifikator Nr. 3 ja

39 Viola-Jones Wähle die Schwelle des starken Klassifikators so, dass ein hoher Recall (z.b. 99%) entsteht Dies verursacht i.d.r. eine schlechte Precision Somit werden in der ersten Stufe ein große Anzahl an falschen Beispielen aussortiert Nein Ende Nein Ende Starker Klassifikator Nr. 1 ja Starker Klassifikator Nr. 2 ja Starker Klassifikator Nr. 3 Nein Ende ja

40 Viola-Jones Somit werden in der ersten Stufe ein große Anzahl an falschen Beispielen aussortiert Die verbleibenden Beispiele sind schwerer und benötigen weitere Klassifikatoren Nimm beim AdaBoost-Training so lange neue Features hinzu, bis die festgelegte Anforderungen an Recall (z.b. > 99%) und FP-Rate (z.b. < 40%) eintreten Eventuell ist dies nicht möglich (z.b. wenn der Recall zu hoch gewählt ist)! Trainiere spätere Stufe nur auf Beispielen, die alle bisherigen Stufen als relevant klassifiziert haben Nein Ende Nein Ende Nein Ende Starker Klassifikator Nr. 1 ja Starker Klassifikator Nr. 2 ja Starker Klassifikator Nr. 3 ja

41 Viola-Jones Original-Paper 38 Kaskadenstufe 4916 Gesichtsbeispiele Gegenbeispiele pro Stufe Die ersten Kaskadenstufen haben jeweils 1, 10, 25, 25 und 50 Features Insgesamt verwenden alle Stufen 6061 Features Im Durchschnitt müssen nur die ersten 10 Features ausgewertet werden Nein Ende Nein Ende Nein Ende Starker Klassifikator Nr. 1 ja Starker Klassifikator Nr. 2 ja Starker Klassifikator Nr. 3 ja

42 Hallo wach! Viola-Jones Bei einem Viola-Jones-Detektor werden in jeder Stufe genau 60% der Beispiele aussortiert. Insgesamt besteht der Detektor aus 5 Stufen. Die erste Stufe wertet 3 Features aus, die zweite 4, die dritte 5, die vierte 6 und die fünfte 7 Features. Wie viele Features müssen im Durchschnitt pro Beispiel ausgewertet werden?

43 Hallo wach! Viola-Jones Bei einem Viola-Jones-Detektor werden in jeder Stufe genau 60% der Beispiele aussortiert. Insgesamt besteht der Detektor aus 5 Stufen. Die erste Stufe wertet 3 Features aus, die zweite 4, die dritte 5, die vierte 6 und die fünfte 7 Features. Wie viele Features müssen im Durchschnitt pro Beispiel ausgewertet werden?

44 Hallo wach! Viola-Jones Wieso braucht man i.d.r. immer mehr Features in den späteren Kaskadenstufen als in den frühen?

45 Hallo wach! Viola-Jones Wieso braucht man i.d.r. immer mehr Features in den späteren Kaskadenstufen als in den frühen? Die Beispiele werden schwieriger. Hierdurch sind die einzelnen Features weniger aussagekräftig und das Klassifikationsproblem kann nur mit vielen schwachen Klassifikatoren gelöst werden.

46 Hallo wach! Viola-Jones Was geschieht (qualitativ) mit Recall und Precision des Detektors wenn man eine Kaskadenstufe hinten anhängt? Was ist mit der FP- Rate?

47 Hallo wach! Viola-Jones Was geschieht (qualitativ) mit Recall und Precision des Detektors wenn man eine Kaskadenstufe hinten anhängt? Was ist mit der FP-Rate? Der Recall sinkt oder bleibt bestenfalls gleich, da richtige Beispiele fälschlicherweise von der neuen Kaskadenstufe ausgeschlossen werden können. Die Gesamtdetektionsrate ergibt sich als Produkt der Detektionsraten aller Kaskadenstufen. Über die Precision lässt sich keine Aussage machen. Die Erfahrung zeigt, dass sie gerade zu Anfang stark steigt, da viele Gegenbeispiele korrekterweise ausgeschlossen werden. In späteren Kaskadenstufen muss dies nicht mehr der Fall sein. Die FP-Rate bleibt gleich oder sinkt, da falsche Beispiele korrekterweise von der neuen Kaskadenstufen ausgeschlossen werden können. Die gesamte FP-Rate ergibt sich als Produkt der FP-Raten aller Kaskadenstufen.

48 Hallo wach! Viola-Jones Wieso trainiert man nicht nur eine Kaskadenstufe mit sehr vielen Features? Wieso trainiert man nicht sehr viele Kaskadenstufen mit jeweils nur einem Feature?

49 Hallo wach! Viola-Jones Wieso trainiert man nicht nur eine Kaskadenstufe mit sehr vielen Features? Wieso trainiert man nicht sehr viele Kaskadenstufen mit jeweils nur einem Feature? Wenngleich Precision und Recall bessere Werte annehmen sollten, wächst die Laufzeit bei nur einer Kaskadenstufe sehr stark. So stark, dass nicht mehr alle Sliding Windows ausgewertet werden können. Mit nur einem einzigen Feature wird man i.d.r. keine ausreichende Trennung lernen können, d.h. um den gewünschten hohen Recall zu erreichen, müsste man eine unannehmbar hohe FP-Rate in Kauf nehmen.

50 Viola-Jones - Zusammenfassung Kaskade erlaubt frühzeitiges Verwerfen offensichtlich falscher Hypothesen Berechnung der Haar-Features erlaubt schnelle Entscheidung über die meisten Detektionsfenster 40% der Fenster können nach Berechnung von 1-2 Haar-Features verworfen werden Training benötigt viele Beispiele Training benötigt viel Zeit, weil viele schwache Klassifikatoren durchprobiert werden müssen

51 Pro und Contra Viola-Jones Viola-Jones Einfache und schnelle Detektion von Objekten mit bestimmten Eigenschaften Relativ feste Geometrie Geringe perspektivische Veränderung Funktioniert daher gut mit z.b. Gesichtern Schriftzeichen Verkehrsschildern z.t. Fußgängern (aus der Ferne) Ausblick Detektion von beliebigen Objekten (teilweise ungelöst) Fahrzeuge (Perspektive, Geometrie, variable Erscheinung) Fußgängern (Geometrie, nichtrigide Objekte, variable Erscheinung, z.b. Kleidung, Pose) Pflanzen (Geometrie, variable Erscheinung)

52 Ausblick Ausblick Detektion von beliebigen Objekten (teilweise ungelöst) Fahrzeuge (Perspektive, Geometrie, variable Erscheinung) Fußgänger (Geometrie, nichtrigide Objekte, variable Erscheinung, z.b. Kleidung, Pose) Pflanzen (Geometrie, variable Erscheinung) Mit stärkeren Modellen teilweise maschinen-erlernbar Fahrzeugmodelle Skelett- und Gelenkmodelle Part-basierte Ansätze Verwende klassische Detektoren (z.b. Viola-Jones) zur Detektion von Teilen, des Objekts, für die die Einschränkungen (unbeweglich, kaum Perspektive) näherungsweise gelten und erstellt aus den Teilen eine Hypothese des Gesamtobjekts

Vorlesung Digitale Bildverarbeitung Sommersemester 2013

Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches K-Nearest-Neighbour-Klassifizierer

Mehr

Vorlesung Digitale Bildverarbeitung Sommersemester 2013

Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben (Marc Schlipsing) Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches

Mehr

Seminar: Multi-Core Architectures and Programming. Viola-Jones Gesichtsdetektor

Seminar: Multi-Core Architectures and Programming. Viola-Jones Gesichtsdetektor Seminar: Multi-Core Architectures and Programming Viola-Jones Gesichtsdetektor Hardware-Software-Co-Design Universität Erlangen-Nürnberg 1 Übersicht Einleitung Viola-Jones Gesichtsdetektor Aufbau Blockmerkmale

Mehr

Implizite Modellierung zur Objekterkennung in der Fernerkundung

Implizite Modellierung zur Objekterkennung in der Fernerkundung Implizite Modellierung zur Objekterkennung in der Fernerkundung Mitarbeiterseminar 20.01.2011 (IPF) Fakultät für Bauingenieur-, Geo- und Umweltwissenschaften KIT Universität des Landes Baden-Württemberg

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen

INTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und Selektion

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen

INTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und Selektion

Mehr

Computer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10

Computer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10 Computer Vision: AdaBoost D. Schlesinger () Computer Vision: AdaBoost 1 / 10 Idee Gegeben sei eine Menge schwacher (einfacher, schlechter) Klassifikatoren Man bilde einen guten durch eine geschickte Kombination

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB

INTELLIGENTE DATENANALYSE IN MATLAB INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Sh Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und

Mehr

Neue Ansätze für Mustererkennung und automatisches Lernen

Neue Ansätze für Mustererkennung und automatisches Lernen Z Y X Neue Ansätze für Mustererkennung und automatisches Lernen Vortrag im Rahmen des 2. Technologieforums Bildverarbeitung am 03./04. November 2015 Johannes Zügner STEMMER IMAGING GmbH, Puchheim GLIEDERUNG

Mehr

Projektgruppe. Clustering und Fingerprinting zur Erkennung von Ähnlichkeiten

Projektgruppe. Clustering und Fingerprinting zur Erkennung von Ähnlichkeiten Projektgruppe Jennifer Post Clustering und Fingerprinting zur Erkennung von Ähnlichkeiten 2. Juni 2010 Motivation Immer mehr Internet-Seiten Immer mehr digitale Texte Viele Inhalte ähnlich oder gleich

Mehr

Linear nichtseparable Probleme

Linear nichtseparable Probleme Linear nichtseparable Probleme Mustererkennung und Klassifikation, Vorlesung No. 10 1 M. O. Franz 20.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Handdetektion in einem kameragesteuerten Robotersystem durch Auswertung digitaler Bilddaten in Echtzeit

Handdetektion in einem kameragesteuerten Robotersystem durch Auswertung digitaler Bilddaten in Echtzeit Handdetektion in einem kameragesteuerten Robotersystem durch Auswertung digitaler Bilddaten in Echtzeit Andrea.Horch@Student.Reutlingen-University.de Medien- und Kommunikationsinformatik Agenda Einführung

Mehr

Einführung in das Maschinelle Lernen I

Einführung in das Maschinelle Lernen I Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL

Mehr

Bachelorverteidigung Marco Franke

Bachelorverteidigung Marco Franke Bachelorverteidigung Java EE Webservice basiert auf RESTlet, JaxB und JPA/Hibernate zur Bilderkennung mit Hilfe der SURF-Merkmalsextraktion Verantwortlicher Professor: Prof. Dr. rer. nat. Klaus Hering

Mehr

Objekterkennung am Beispiel des Viola-Jones-Objektdetektors

Objekterkennung am Beispiel des Viola-Jones-Objektdetektors Objekterkennung am Beispiel des Viola-Jones-Objektdetektors Medieninformatik IL Andreas Unterweger Vertiefung Medieninformatik Studiengang ITS FH Salzburg Wintersemester 2014/15 Andreas Unterweger (FH

Mehr

Seminar Text- und Datamining Datamining-Grundlagen

Seminar Text- und Datamining Datamining-Grundlagen Seminar Text- und Datamining Datamining-Grundlagen Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 23.05.2013 Gliederung 1 Klassifikationsprobleme 2 Evaluation

Mehr

Kapitel V. V. Ensemble Methods. Einführung Bagging Boosting Cascading

Kapitel V. V. Ensemble Methods. Einführung Bagging Boosting Cascading Kapitel V V. Ensemble Methods Einführung Bagging Boosting Cascading V-1 Ensemble Methods c Lettmann 2005 Einführung Bewertung der Generalisierungsfähigkeit von Klassifikatoren R (c) wahre Missklassifikationsrate

Mehr

6.1. Ein Approximationsalgorithmus für das Rucksackproblem

6.1. Ein Approximationsalgorithmus für das Rucksackproblem 6.1. Ein Approximationsalgorithmus für das Rucksackproblem Wir erinnern uns an das 0-1-Rucksackproblem: Eingabe: Ganzzahlige Volumina a 1,..., a n > 0, Nutzenwerte c 1,..., c n > 0, ganzzahlige Volumenschranke

Mehr

Statistical Learning

Statistical Learning Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in

Mehr

Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens

Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 17.04.2015 Entscheidungsprobleme beim Textmining

Mehr

Von schwachen zu starken Lernern

Von schwachen zu starken Lernern Von schwachen zu starken Lernern Wir nehmen an, dass ein schwacher Lernalgorithmus L mit vielen Beispielen, aber großem Fehler ε = 1 2 θ gegeben ist. - Wie lässt sich der Verallgemeinerungsfehler ε von

Mehr

Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2012 / 2013 Vorlesung 3, Donnerstag 7.

Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2012 / 2013 Vorlesung 3, Donnerstag 7. Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2012 / 2013 Vorlesung 3, Donnerstag 7. November 2013 (O-Notation, Theta, Omega) Junior-Prof. Dr. Olaf Ronneberger

Mehr

Kapitel 16. Invertierbare Matrizen

Kapitel 16. Invertierbare Matrizen Kapitel 16. Invertierbare Matrizen Die drei Schritte des Gauß-Algorithmus Bringe erweiterte Matrix [A b] des Gleichungssystems A x auf Zeilenstufenform [A b ]. Das System A x = b ist genau dann lösbar,

Mehr

k-nächste-nachbarn-schätzung

k-nächste-nachbarn-schätzung k-nächste-nachbarn-schätzung Mustererkennung und Klassifikation, Vorlesung No. 7 1 M. O. Franz 29.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

, Data Mining, 2 VO Sommersemester 2008

, Data Mining, 2 VO Sommersemester 2008 Evaluation 188.646, Data Mining, 2 VO Sommersemester 2008 Dieter Merkl e-commerce Arbeitsgruppe Institut für Softwaretechnik und Interaktive Systeme Technische Universität Wien www.ec.tuwien.ac.at/~dieter/

Mehr

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende

Mehr

Voronoi-Diagramme. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK

Voronoi-Diagramme. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 29.05.2011 Das Postamt-Problem b(p, q) = {x R 2 : xp = xq } p q h(p, q) h(q, p) = {x :

Mehr

Inhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume

Inhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume 4. Klassifikation Inhalt 4.1 Motivation 4.2 Evaluation 4.3 Logistische Regression 4.4 k-nächste Nachbarn 4.5 Naïve Bayes 4.6 Entscheidungsbäume 4.7 Support Vector Machines 4.8 Neuronale Netze 4.9 Ensemble-Methoden

Mehr

Komplexität von Algorithmen Musterlösungen zu ausgewählten Übungsaufgaben

Komplexität von Algorithmen Musterlösungen zu ausgewählten Übungsaufgaben Dieses Dokument soll mehr dazu dienen, Beispiele für die formal korrekte mathematische Bearbeitung von Aufgaben zu liefern, als konkrete Hinweise auf typische Klausuraufgaben zu liefern. Die hier gezeigten

Mehr

die Menge S = {(x,y) : x 2 = y 2 +1,x R} wohl aussehen könnte. Die Antwort ist hier: Interessant ist auch y 2 = x 3 x:

die Menge S = {(x,y) : x 2 = y 2 +1,x R} wohl aussehen könnte. Die Antwort ist hier: Interessant ist auch y 2 = x 3 x: die Menge S = {(x,y) : x 2 = y 2 +1,x R} wohl aussehen könnte. Die Antwort ist hier: Interessant ist auch y 2 = x 3 x: 40 Ganz wichtig für die Wirtschaftswissenschaft ist es, sich Ungleichungen klar zu

Mehr

Technische Universität München Zentrum Mathematik

Technische Universität München Zentrum Mathematik Technische Universität München Zentrum Mathematik Michael Strobel Geometriekalküle WS 217/18 http://www-m1.ma.tum.de/geometriekalkuelews1718 Lösungen zu Aufgabenblatt 7 (29. Februar 217) Aufgabe 1. Abstand

Mehr

KLAUSUR ZUM BACHELORMODUL PROBEKLAUSUR VORLESUNG COMPUTERLINGUISTISCHE ANWENDUNGEN PROBEKLAUSUR, DR. BENJAMIN ROTH KLAUSUR AM

KLAUSUR ZUM BACHELORMODUL PROBEKLAUSUR VORLESUNG COMPUTERLINGUISTISCHE ANWENDUNGEN PROBEKLAUSUR, DR. BENJAMIN ROTH KLAUSUR AM KLAUSUR ZUM BACHELORMODUL PROBEKLAUSUR VORLESUNG COMPUTERLINGUISTISCHE ANWENDUNGEN PROBEKLAUSUR, DR. BENJAMIN ROTH KLAUSUR AM VOR NACH MATRIKELNUMMER: STUDIENGANG: B.Sc. Computerlinguistik, B.Sc. Informatik,

Mehr

Motivation. Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus

Motivation. Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus 3. Klassifikation Motivation Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus Beispiel: Bestimme die Herkunft eines Autos

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Semestralklausur zur Vorlesung Maschinelles Lernen: Symbolische Ansätze Prof. J. Fürnkranz / Dr. G. Grieser Technische Universität Darmstadt Wintersemester 2005/06 Termin: 23. 2. 2006 Name: Vorname: Matrikelnummer:

Mehr

Einführung in die Theoretische Informatik

Einführung in die Theoretische Informatik Technische Universität München Fakultät für Informatik Prof. Tobias Nipkow, Ph.D. Sascha Böhme, Lars Noschinski Sommersemester 2011 Lösungsblatt 9 25. Juli 2011 Einführung in die Theoretische Informatik

Mehr

Feature Selection / Preprocessing

Feature Selection / Preprocessing 1 Feature Selection / Preprocessing 2 Was ist Feature Selection? 3 Warum Feature Selection? Mehr Variablen führen nicht automatisch zu besseren Ergebnissen. Lernen von unwichtigen Daten Mehr Daten notwendig

Mehr

Mathe <> Deutsch. Die 7 verwirrendsten Mathe-Floskeln einfach erklärt! Math-Intuition.de

Mathe <> Deutsch. Die 7 verwirrendsten Mathe-Floskeln einfach erklärt! Math-Intuition.de Mathe Deutsch Die 7 verwirrendsten Mathe-Floskeln einfach erklärt! Inhalt hinreichend & notwendig kanonisch wohldefiniert beliebig paarweise trivial o.b.d.a & o.e. hinreichend & notwendig Bei jeder

Mehr

8 Summen von Quadraten

8 Summen von Quadraten 8 Summen von Quadraten A. Summen von zwei Quadraten. Sei p eine Primzahl. Beispiele. = 1 + 1, 5 = 1 +, 13 = + 3 Aber 3 und 7 sind nicht Summen von zwei Quadraten. 8.1 Satz. Genau dann ist p Summe von zwei

Mehr

Theoretische Informatik und Logik Übungsblatt 1 (2016S) Lösung

Theoretische Informatik und Logik Übungsblatt 1 (2016S) Lösung Theoretische Informatik und Logik Übungsblatt (26S) en Aufgabe. Sei L = {w#w r w {, } }. Geben Sie eine deterministische Turingmaschine M an, welche die Sprache L akzeptiert. Wählen Sie mindestens einen

Mehr

Support Vector Machines, Kernels

Support Vector Machines, Kernels Support Vector Machines, Kernels Katja Kunze 13.01.04 19.03.2004 1 Inhalt: Grundlagen/Allgemeines Lineare Trennung/Separation - Maximum Margin Hyperplane - Soft Margin SVM Kernels Praktische Anwendungen

Mehr

Summen- und Produktzeichen

Summen- und Produktzeichen Summen- und Produktzeichen Ein großer Vorteil der sehr formalen mathematischen Sprache ist es, komplizierte Zusammenhänge einfach und klar ausdrücken zu können. Gerade auch diese Eigenschaft der Mathematik

Mehr

Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2014 / 2015 Vorlesung 3, Donnerstag 6.

Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2014 / 2015 Vorlesung 3, Donnerstag 6. Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2014 / 2015 Vorlesung 3, Donnerstag 6. November 2014 (O-Notation, Theta, Omega) Junior-Prof. Dr. Olaf Ronneberger

Mehr

Theoretische Informatik. nichtdeterministische Turingmaschinen NDTM. Turingmaschinen. Rainer Schrader. 29. April 2009

Theoretische Informatik. nichtdeterministische Turingmaschinen NDTM. Turingmaschinen. Rainer Schrader. 29. April 2009 Theoretische Informatik Rainer Schrader nichtdeterministische Turingmaschinen Zentrum für Angewandte Informatik Köln 29. April 2009 1 / 33 2 / 33 Turingmaschinen das Konzept des Nichtdeterminismus nahm

Mehr

Machine Learning in Azure Hätte ich auf der Titanic überlebt? Olivia Klose Technical Evangelist, Microsoft @oliviaklose oliviaklose.

Machine Learning in Azure Hätte ich auf der Titanic überlebt? Olivia Klose Technical Evangelist, Microsoft @oliviaklose oliviaklose. Machine Learning in Azure Hätte ich auf der Titanic überlebt? Olivia Klose Technical Evangelist, Microsoft @oliviaklose oliviaklose.com 13.06.20 15 SQLSaturday Rheinland 2015 1. Zu komplex: Man kann

Mehr

Erzeugendensystem und Basis

Erzeugendensystem und Basis Erzeugendensystem und Basis Definition Erzeugendensystem und Basis eines Unterraums Sei S F n 2 ein Unterraum. Eine Menge G = {g 1,..., g k } S heißt Erzeugendensystem von S, falls jedes x S als Linearkombination

Mehr

Lineare Klassifikatoren

Lineare Klassifikatoren Lineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 8 1 M. O. Franz 06.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht 1 Nächste-Nachbarn-

Mehr

Volkswagen Data Lab Connected Car Fahrererkennung mit MATLAB

Volkswagen Data Lab Connected Car Fahrererkennung mit MATLAB Volkswagen Data Lab Connected Car Fahrererkennung mit MATLAB K-SI/LD1 Julia Fumbarev München, 27.06.2017 Mega-Trend: Fahrzeugvernetzung Herausforderungen für die OEMs: 4Synchronisierung unterschiedlicher

Mehr

3. Analyse der Kamerabewegung Video - Inhaltsanalyse

3. Analyse der Kamerabewegung Video - Inhaltsanalyse 3. Analyse der Kamerabewegung Video - Inhaltsanalyse Stephan Kopf Bewegungen in Videos Objektbewegungen (object motion) Kameraoperationen bzw. Kamerabewegungen (camera motion) Semantische Informationen

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB. Objekterkennung

INTELLIGENTE DATENANALYSE IN MATLAB. Objekterkennung INTELLIGENTE DATENANALYSE IN MATLAB Objekterkennung Objekterkennung Problemstellung Gegeben: Ein Bild. Fragestellungen: Klassifikationsproblem Ist ein bestimmtes Objekt (z.b. Flugzeug) auf dem Bild? Welches

Mehr

Kapitel 10. Komplexität von Algorithmen und Sortieralgorithmen

Kapitel 10. Komplexität von Algorithmen und Sortieralgorithmen Kapitel 10 Komplexität von Algorithmen und Sortieralgorithmen Arrays 1 Ziele Komplexität von Algorithmen bestimmen können (in Bezug auf Laufzeit und auf Speicherplatzbedarf) Sortieralgorithmen kennenlernen:

Mehr

Titelblatt. Gruppe Wall E. Phasenverantwortlicher: Daniel Rother. Kooperative Steuerung von Modellversuchsfahrzeugen Sommersemester 2008

Titelblatt. Gruppe Wall E. Phasenverantwortlicher: Daniel Rother. Kooperative Steuerung von Modellversuchsfahrzeugen Sommersemester 2008 Titelblatt Phasenverantwortlicher: Daniel Rother Kooperative Steuerung von Modellversuchsfahrzeugen Sommersemester 2008 Institut für Betriebssysteme und Rechnerverbund Technische Universität Braunschweig

Mehr

ÜBUNGSKLAUSUR Studienhalbjahr: 2. Semester. Datum: 16/17. Juli 2015 Bearbeitungszeit: 90 Minuten. Modul: T2INF Dozent: Jan Hladik

ÜBUNGSKLAUSUR Studienhalbjahr: 2. Semester. Datum: 16/17. Juli 2015 Bearbeitungszeit: 90 Minuten. Modul: T2INF Dozent: Jan Hladik Student/in: Unterschrift: Fakultät Studiengang: Jahrgang / Kurs : Technik Angewandte Informatik 2014 B/C/D/K ÜBUNGSKLAUSUR Studienhalbjahr: 2. Semester Datum: 16/17. Juli 2015 Bearbeitungszeit: 90 Minuten

Mehr

Kapitel 4: Data Mining DATABASE SYSTEMS GROUP. Überblick. 4.1 Einleitung. 4.2 Clustering. 4.3 Klassifikation

Kapitel 4: Data Mining DATABASE SYSTEMS GROUP. Überblick. 4.1 Einleitung. 4.2 Clustering. 4.3 Klassifikation Überblick 4.1 Einleitung 4.2 Clustering 4.3 Klassifikation 1 Klassifikationsproblem Gegeben: eine Menge O D von Objekten o = (o 1,..., o d ) O mit Attributen A i, 1 i d eine Menge von Klassen C = {c 1,...,c

Mehr

Object recognition with Boosting

Object recognition with Boosting Object recognition with Boosting Hauptseminar Lernverfahren der Neuroinformatik und Robotik, Universität Ulm, Abteilung Neuroinformatik, SS 2007, Betreuer Friedhelm Schwenker Zusammenfassung Diese Ausarbeitung

Mehr

Grundlagen der Mathematik

Grundlagen der Mathematik Universität Hamburg Winter 2016/17 Fachbereich Mathematik Janko Latschev Lösungsskizzen 3 Grundlagen der Mathematik Präsenzaufgaben (P4) Wir betrachten die Menge M := P({1, 2, 3, 4}). Dann gilt 1 / M,

Mehr

Decision Tree Learning

Decision Tree Learning Decision Tree Learning Computational Linguistics Universität des Saarlandes Sommersemester 2011 28.04.2011 Entscheidungsbäume Repräsentation von Regeln als Entscheidungsbaum (1) Wann spielt Max Tennis?

Mehr

f(x) = x f 1 (x) = x. Aufgabe 2. Welche der folgenden Funktionen sind injektiv, surjektiv, bijektiv?

f(x) = x f 1 (x) = x. Aufgabe 2. Welche der folgenden Funktionen sind injektiv, surjektiv, bijektiv? Umkehrfunktionen Aufgabe 1. Sei A = {1, 2, 3, 4}. Definieren Sie eine bijektive Funktion f A A und geben Sie ihre Umkehrfunktion f 1 an. Lösung von Aufgabe 1. Zum Beispiel f, f 1 A A mit f(x) = x f 1 (x)

Mehr

Seminar für Computerlinguistik Logik in der Praxis Lyubov Nakryyko

Seminar für Computerlinguistik Logik in der Praxis Lyubov Nakryyko Seminar für Computerlinguistik Logik in der Praxis Lyubov Nakryyko Einführung Globale Entitäten/ Relationeninferenz Berechnungsverfahren Experimente Verbesserungsvorschläge Erkennung und Klassifikation

Mehr

Kapitel 9. Komplexität von Algorithmen und Sortieralgorithmen

Kapitel 9. Komplexität von Algorithmen und Sortieralgorithmen 1 Kapitel 9 Komplexität von Algorithmen und Sortieralgorithmen Ziele 2 Komplexität von Algorithmen bestimmen können (in Bezug auf Laufzeit und auf Speicherplatzbedarf) Sortieralgorithmen kennenlernen:

Mehr

Logische und funktionale Programmierung

Logische und funktionale Programmierung Logische und funktionale Programmierung Vorlesung 11: Logikprogramme Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca csacarea@cs.ubbcluj.ro 19. Dezember 2016 1/55 WIEDERHOLUNG: HORN-KLAUSELN

Mehr

Wolkenkamera-basierte Kürzestfristvorhersage der Direktstrahlung

Wolkenkamera-basierte Kürzestfristvorhersage der Direktstrahlung Wolkenkamera-basierte Kürzestfristvorhersage der Direktstrahlung S. Wilbert 1, B. Nouri 1, P. Kuhn 1, D. Schüler 1, C. Prahl 1, N. Kozonek 1, R. Pitz-Paal 1, T. Schmidt 2, N. Kilius 3, M. Schroedter-Homscheidt

Mehr

Diagnostische Verfahren

Diagnostische Verfahren 6. Diagnostische s Jede Registrierung oder Auswertung einer Information mit dem Ziel der Erkennung einer Erung oder eines speziellen Zustandes wird diagnostischer genannt. Beispiele Reaktion auf Ansprechen

Mehr

Mathematik 2 Probeprüfung 1

Mathematik 2 Probeprüfung 1 WWZ Wirtschaftswissenschaftliche Fakultät der Universität Basel Dr. Thomas Zehrt Bitte in Druckbuchstaben ausfüllen: Name Vorname Mathematik 2 Probeprüfung 1 Zeit: 90 Minuten, Maximale Punktzahl: 72 Zur

Mehr

Grundlagen: Algorithmen und Datenstrukturen

Grundlagen: Algorithmen und Datenstrukturen Technische Universität München Fakultät für Informatik Lehrstuhl für Effiziente Algorithmen Dr. Hanjo Täubig Tobias Lieber Sommersemester 2011 Übungsblatt 1 16. September 2011 Grundlagen: Algorithmen und

Mehr

Paare und Kartesische Produkte

Paare und Kartesische Produkte Paare und Kartesische Produkte Aufgabe 1. Stellen Sie das Tripel (a, b, c) als Paar und als Menge dar. Hinweis: Verwenden Sie Farben. Lösung von Aufgabe 1. (a, b, c) = ((a, b), c) Paar Darstellung (a,

Mehr

4.2 Quotientenvektorräume

4.2 Quotientenvektorräume 306 LinAlg II Version 1 6. Juni 2006 c Rudolf Scharlau 4.2 Quotientenvektorräume Zum Verständnis der folgenden Konstruktion ist es hilfreich, sich noch einmal den Abschnitt 1.4 über Restklassen vom Beginn

Mehr

Boole'sches Modell <is web>

Boole'sches Modell <is web> Boole'sches Modell basiert auf Mengentheorie und Boole'scher Algebra sehr einfaches Modell mit klarer Semantik Dokumente als Mengen von Indextermen Termgewichte sind binär: im Dokument enthalten oder nicht

Mehr

3. Aufgabenblatt: Lösungen

3. Aufgabenblatt: Lösungen Brückenkurs Mathematik Dozent: Oellrich. Aufgabenblatt: Lösungen Aufgabe.5 (Umformungen) Bearbeiten Sie die folgenden Aufgaben so wie in. gezeigt. Wenden Sie dabei in jedem Schritt nur eine Umformung oder

Mehr

Implementation Sozialer Auswahlregeln Sommersemester Vorlesung,

Implementation Sozialer Auswahlregeln Sommersemester Vorlesung, Implementation Sozialer Auswahlregeln Sommersemester 2007 12. Vorlesung, 04.07.2007 PD Dr. Jörg Naeve Universität des Saarlandes Lehrstuhl für Nationalökonomie insbes. Wirtschaftstheorie mailto:j.naeve@mx.uni-saarland.de

Mehr

Einführung in die Objektorientierte Programmierung Vorlesung 18: Lineare Datenstrukturen. Sebastian Küpper

Einführung in die Objektorientierte Programmierung Vorlesung 18: Lineare Datenstrukturen. Sebastian Küpper Einführung in die Objektorientierte Programmierung Vorlesung 18: Lineare Datenstrukturen Sebastian Küpper Unzulänglichkeit von Feldern Wenn ein Unternehmen alle Rechnungen eines Jahres verwalten möchte,

Mehr

AlgoDat Fragen zu Vorlesung und Klausur

AlgoDat Fragen zu Vorlesung und Klausur AlgoDat Fragen zu Vorlesung und Klausur Hochschule Fulda FB AI Sommersemester 2018 http://ad.rz.hs-fulda.de Peter Klingebiel, HS Fulda, AI Vorab: Was ist wichtig? AlgoDat - Fragen - Peter Klingebiel -

Mehr

Focusing Search in Multiobjective Evolutionary Optimization through Preference Learning from User Feedback

Focusing Search in Multiobjective Evolutionary Optimization through Preference Learning from User Feedback Focusing Search in Multiobjective Evolutionary Optimization through Preference Learning from User Feedback Thomas Fober Weiwei Cheng Eyke Hüllermeier AG Knowledge Engineering & Bioinformatics Fachbereich

Mehr

Übung Algorithmen und Datenstrukturen

Übung Algorithmen und Datenstrukturen Übung Algorithmen und Datenstrukturen Sommersemester 017 Marc Bux, Humboldt-Universität zu Berlin Agenda 1. Vorrechnen von Aufgabenblatt 1. Wohlgeformte Klammerausdrücke 3. Teile und Herrsche Agenda 1.

Mehr

Projekt Maschinelles Lernen WS 06/07

Projekt Maschinelles Lernen WS 06/07 Projekt Maschinelles Lernen WS 06/07 1. Auswahl der Daten 2. Evaluierung 3. Noise und Pruning 4. Regel-Lernen 5. ROC-Kurven 6. Pre-Processing 7. Entdecken von Assoziationsregeln 8. Ensemble-Lernen 9. Wettbewerb

Mehr

x-beliebig 401 Ein Würfel liegt auf dem Pult. Man kann ihn von allen Seiten betrachten. So sind fünf Würfelflächen sichtbar.

x-beliebig 401 Ein Würfel liegt auf dem Pult. Man kann ihn von allen Seiten betrachten. So sind fünf Würfelflächen sichtbar. x-beliebig 10 1 6 Sichtbare und unsichtbare 401 Ein Würfel liegt auf dem Pult. Man kann ihn von allen Seiten betrachten. So sind fünf sichtbar. Die Fläche am Boden ist verdeckt, also unsichtbar. Ergänze

Mehr

Probeklausur: Programmierung WS04/05

Probeklausur: Programmierung WS04/05 Probeklausur: Programmierung WS04/05 Name: Hinweise zur Bearbeitung Nimm Dir für diese Klausur ausreichend Zeit, und sorge dafür, dass Du nicht gestört wirst. Die Klausur ist für 90 Minuten angesetzt,

Mehr

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Wahrscheinlichkeit Axiome nach Kolmogorov Gegeben sei ein Zufallsexperiment mit Ergebnisraum

Mehr

Named Entity Recognition auf Basis von Wortlisten

Named Entity Recognition auf Basis von Wortlisten Named Entity Recognition auf Basis von Wortlisten EDM SS 2017 Lukas Abegg & Tom Schilling Named Entity Recognition auf Basis von Wortlisten Lukas Abegg - Humboldt Universität zu Berlin Tom Schilling -

Mehr

Chi Quadrat-Unabhängigkeitstest

Chi Quadrat-Unabhängigkeitstest Fragestellung 1: Untersuchung mit Hilfe des Chi-Quadrat-Unabhängigkeitstestes, ob zwischen dem Herkunftsland der Befragten und der Bewertung des Kontaktes zu den Nachbarn aus einem Anderen Herkunftsland

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

Diagnose und Prognose: Kurzfassung 4

Diagnose und Prognose: Kurzfassung 4 Diagnose und Prognose: Kurzfassung 4 Ziele der 4. Vorlesung Inhaltliche Verbindung zwischen inhaltlicher Statistisches Konzept / Problemstellung Problemstellung und statistischem statistische Methode Konzept/Methode

Mehr

Übung Angewandte Biosignalverarbeitung

Übung Angewandte Biosignalverarbeitung Übung Angewandte Biosignalverarbeitung Dr.-Ing. Sebastian Zaunseder e-mail: Sebastian.Zaunseder@tu-dresden.de Telefon: +49 (0)351 463 33786 Raum: Fetscherforum, 1. OG, Raum 32 Die Aufgabe - Schlagdetektion

Mehr

Algorithmen und Datenstrukturen

Algorithmen und Datenstrukturen Universität Innsbruck Institut für Informatik Zweite Prüfung 16. Oktober 2008 Algorithmen und Datenstrukturen Name: Matrikelnr: Die Prüfung besteht aus 8 Aufgaben. Die verfügbaren Punkte für jede Aufgabe

Mehr

Automatiche Teameinteilung für PSE

Automatiche Teameinteilung für PSE Automatiche Teameinteilung für PSE Einführung ILP-Modellierung LEHRSTUHL PROGRAMMIERPARADIGMEN 0 7.12.2016 - PSE/TSE WS 2016/17 KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft LEHRSTUHL PROGRAMMIERPARADIGMEN

Mehr

Einstellung als kurzlebige Bewertungen. von Susanne, Corinna und Jan

Einstellung als kurzlebige Bewertungen. von Susanne, Corinna und Jan Einstellung als kurzlebige Bewertungen von Susanne, Corinna und Jan Als erstes benötigen wir beispielhaft ein paar Einstellungen... Einstellungsobjekte: Fernsehprogramm (Bipolar) Umweltschutz (Unipolar)

Mehr

Bewertung von Wolkenkamerabasiertem Nowcasting der Solarstrahlung

Bewertung von Wolkenkamerabasiertem Nowcasting der Solarstrahlung Bewertung von Wolkenkamerabasiertem Nowcasting der Solarstrahlung P. Kuhn1, S. Wilbert1, C. Prahl1, D. Schüler1, T. Haase1, N. Kozonek1, N. Killius2, N. Hanrieder1, P. Blanc3, R. Pitz-Paal1 1 DLR, Institut

Mehr

Übung zur Vorlesung Diskrete Mathematik (MAT.107) Blatt Beispiellösungen Abgabefrist:

Übung zur Vorlesung Diskrete Mathematik (MAT.107) Blatt Beispiellösungen Abgabefrist: Svenja Hüning, Michael Kerber, Hannah Schreiber WS 2016/2017 Übung zur Vorlesung Diskrete Mathematik (MAT.107) Blatt Beispiellösungen Abgabefrist: Hinweise: Dieses Blatt präsentiert Beispiellösungen zu

Mehr

Lineare Funktionen. Aufgabe 1. Sei f R 2 R definiert durch. x 1 + 3x Beweisen Sie ausführlich, dass f linear ist.

Lineare Funktionen. Aufgabe 1. Sei f R 2 R definiert durch. x 1 + 3x Beweisen Sie ausführlich, dass f linear ist. Lineare Funktionen Aufgabe. Sei f R R definiert durch x f = x x + 3x. Beweisen Sie ausführlich, dass f linear ist. Aufgabe. Die Funktionen (nicht erschrecken sind definiert durch + ( (R n R m (R n R m

Mehr

5. Übungsblatt zu Algorithmen II im WS 2017/2018

5. Übungsblatt zu Algorithmen II im WS 2017/2018 Karlsruher Institut für Technologie Institut für Theoretische Informatik Prof. Dr. Peter Sanders Dr. Thomas Worsch, Dr. Simon Gog Demian Hespe, Yaroslav Akhremstev 5. Übungsblatt zu Algorithmen II im WS

Mehr

2010 Ing. Punzenberger COPA-DATA GmbH. Alle Rechte vorbehalten.

2010 Ing. Punzenberger COPA-DATA GmbH. Alle Rechte vorbehalten. 2010 Ing. Punzenberger COPA-DATA GmbH Alle Rechte vorbehalten. Die Weitergabe und Vervielfältigung dieses Dokuments ist - gleich in welcher Art und Weise nur mit schriftlicher Genehmigung der Firma COPA-DATA

Mehr

2. Hausübung Algorithmen und Datenstrukturen

2. Hausübung Algorithmen und Datenstrukturen Prof. Dr. Gerd Stumme, Folke Eisterlehner, Dominik Benz Fachgebiet Wissensverarbeitung 7.4.009. Hausübung Algorithmen und Datenstrukturen Sommersemester 009 Abgabetermin: Montag, 04.05.009, 10:00 Uhr 1

Mehr

EINI LW. Einführung in die Informatik für Naturwissenschaftler und Ingenieure Vorlesung 2 SWS WS 15/16

EINI LW. Einführung in die Informatik für Naturwissenschaftler und Ingenieure Vorlesung 2 SWS WS 15/16 EINI LW Einführung in die Informatik für Naturwissenschaftler und Ingenieure Vorlesung 2 SWS WS 15/16 Dr. Lars Hildebrand Fakultät für Informatik Technische Universität Dortmund lars.hildebrand@tu-dortmund.de

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Aufgaben zur Klausurvorbereitung

Aufgaben zur Klausurvorbereitung Vorlesung Graphen und Optimierung Sommersemester 2013/14 Prof. S. Lange Aufgaben zur Klausurvorbereitung Hier finden Sie eine Reihe von Übungsaufgaben, die wir an den beiden Vorlesungsterminen am 29.01.2014

Mehr

Online Lernen: Die Themen

Online Lernen: Die Themen Online Lernen: Die Themen (a) Das Online-Spiel: In jeder Runde präsentiert ein Lehrer ein Beispiel, das ein Schüler klassifiziert. Nach wie vielen Runden hat der Schüler das unbekannte Zielkonzept gelernt?

Mehr