Computer Vision: SVM-Anwendungsbeispiele, Generalisierbarkeit
|
|
|
- Friederike Schäfer
- vor 9 Jahren
- Abrufe
Transkript
1 Computer Vision: SVM-Anwendungsbeispiele, Generalisierbarkeit D. Schlesinger TUD/INF/KI/IS Visual Categorization with Bags of Keypoints Recognizing Human Actions: A Local SVM Approach Shape Matching and Object Recognition Using Shape Contexts SkyFinder: Attribute-based Sky Image Search Generalisierbarkeit, VC-Dimension D. Schlesinger CV: () SVM-Anwendungen, VC-Dimension 1 / 11
2 Visual Categorization with Bags of Keypoints Gabriella Csurka, Christopher R. Dance, Lixin Fan, Jutta Willamowski, Cédric Bray... bag of keypoints method is based on vector quantization of affine invariant descriptors of image patches image patches: Bildfragmente (spielen in dieser Arbeit kaum eine Rolle) affine invariant descriptors: Harris+Laplace Detektor, Normalisierung, SIFT vector quantization: Clusterung mit K-Means für 2, mit zufällige Initialisierungen bag of keypoints: Histogramm des Vorkommens der Clusternummern Bildmerkmal Klassifikation: Naïve Bayes und SVM (one-against-all)??? We compared linear, quadratic and cubic SVM s and found that linear method gave the best performance (except in the case of cars where a quadratic SVM gave better results). D. Schlesinger CV: () SVM-Anwendungen, VC-Dimension 2 / 11
3 Visual Categorization with Bags of Keypoints Bilddatenbank: 1776 Bilder, 7 Klassen: faces, buildings, trees, cars, phones, bikes, books D. Schlesinger CV: () SVM-Anwendungen, VC-Dimension 3 / 11
4 Visual Categorization with Bags of Keypoints Confusion Matrix: D. Schlesinger CV: () SVM-Anwendungen, VC-Dimension 4 / 11
5 Recognizing Human Actions: A Local SVM Approach Christian Schüldt, Ivan Laptev, Barbara Caputo D. Schlesinger CV: () SVM-Anwendungen, VC-Dimension 5 / 11
6 Recognizing Human Actions: A Local SVM Approach (Fast) Harris Detektor in 3D (Raum + Zeit + Scale space) Merkmale spatio-temporal jets l = (L x, L y, L t, L xx,..., L tttt ) Alternative K-Means Clusterung + Histogramme SVM mit einem speziell dafür entwickelten Kernel (χ 2 für Histogramme) D. Schlesinger CV: () SVM-Anwendungen, VC-Dimension 6 / 11
7 Shape Matching and Object Recognition Using Shape Contexts Serge Belongie, Jitendra Malik, Jan Puzicha Idee: Abstandsmaß zwischen Shapes (Punktwolken): Merkmal für jeden Shape-Punkt Zwei Shapes bestmöglich auf einander matchen Der Abstand ist die Qualität des Matchings Erkennung anhand des so definierten Abstandsmaßes D. Schlesinger CV: () SVM-Anwendungen, VC-Dimension 7 / 11
8 Shape Matching and Object Recognition Using Shape Contexts Shape Context für einen Punkt p ist das Histogramm (in Polarkoordinaten) der Verschiebungsvektoren von p zu allen anderen Shape-Punkten. Matching ist die Suche nach besten Korrespondenzen (eine zusätzliche geometrische Transformation wird dabei erlaubt). So entstehen die Abstände für alle Paare von Shapes. Die Menge aller Shapes wird mit K-medioids Algorithmus geclustert. Jeder Cluster wird durch einen Shape repräsentiert, der in der Lernstichprobe vorhanden ist. Erkennung Nächste Nachbar. Abstände zu allen Repräsentanten werden berechnet, die Klasse des besten wird übernommen. D. Schlesinger CV: () SVM-Anwendungen, VC-Dimension 8 / 11
9 SkyFinder: Attribute-based Sky Image Search Litian Tao, Lu Yuan, Jian Sun Content Based Image Retrival CBIR Der Nutzer gibt die gewünschte Attribute des gesuchten Bildes an (zum Beispiel Einen Sonnenuntergang mit Wolken ) Die Menge der Bilder wird zurückgeliefert, die diese Attribute haben Die Aufgabe berechne (schnell), ob ein gegebenes Bild die geforderte Eigenschaft besitzt. Lösungsweg: SVM für jeden Attribut (binäre Klassifikation). Besonderheiten neben der SIFT+HSV spezielle Merkmale (z.b. Lage des Horizonts), eine sehr große Lernstichprobe (Internet) D. Schlesinger CV: () SVM-Anwendungen, VC-Dimension 9 / 11
10 Generalisierbarkeit Die Frage: wie genau ist das Lernen? Es gibt eine Wahrscheinlichkeitsverteilung p(x, k) für Klassen k und Beobachtungen x Zum Lernen hat man aber nur eine endliche Lernstichprobe L = ( (x 1, k 1 ), (x 2, k 2 )... (x n, k n) ) Gegeben sei eine Menge der Entscheidungsstrategien, man wähle eine davon. Selbst wenn das bestmögliche mit der Lernstichprobe gemacht wird, gibt es immer noch Fehler bei der Erkennung: 1. Fehler auf der Lernstichprobe das empirische Risiko R e 2. Fehler auf Gesamtmenge aller x das Bayessche Risiko R b Interessant ist der zweite, berechnen kann man nur den ersten. Wie groß muss L sein, damit sich R e und R b nicht wesentlich unterscheiden? Wie schnell (und ob überhaupt) konvergiert R e zu R b mit der wachsenden L? Wie hängt die Konvergenz von der Menge der Entscheidungsstrategien ab? D. Schlesinger CV: () SVM-Anwendungen, VC-Dimension 10 / 11
11 Vapnik Chervonenkis Dimension Obere Schranke für die Differenz der Fehler: { ( ) } h log(2n/h) + 1 log(δ/4) P R b R e < > 1 δ N mit VC-Dimension h ein Maß für die Mächtigkeit der Menge der Entscheidungsstrategien. Klassifizierte Lernstichprobe: L = ( (x 1, k 1 ), (x 2, k 2 )... (x m, k m) ) Tupel von Punkten: (x 1, x 2... x n) nicht klassifizierte Lernstichprobe Menge der Entscheidungsstrategien: E Ein Tupel von Punkten ist beliebig klassifizierbar, wenn für eine beliebige Lernstichprobe mit den Punkten ein Klassifikator aus E existiert, die diese Klassifikation wiedergibt. Die VC-Dimension einer Menge der Strategien ist die kleinste Zahl n so, dass kein (n+1)-tupel von Punkten beliebig klassifizierbar ist. Beispiel: lineare Klassifikatoren im R n, VC=n + 1. D. Schlesinger CV: () SVM-Anwendungen, VC-Dimension 11 / 11
Computer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10
Computer Vision: AdaBoost D. Schlesinger () Computer Vision: AdaBoost 1 / 10 Idee Gegeben sei eine Menge schwacher (einfacher, schlechter) Klassifikatoren Man bilde einen guten durch eine geschickte Kombination
INTELLIGENTE DATENANALYSE IN MATLAB. Objekterkennung
INTELLIGENTE DATENANALYSE IN MATLAB Objekterkennung Objekterkennung Problemstellung Gegeben: Ein Bild. Fragestellungen: Klassifikationsproblem Ist ein bestimmtes Objekt (z.b. Flugzeug) auf dem Bild? Welches
Navigation anhand natürlicher Landmarken mit Hilfe der Scale Invariant Feature Transform. Thorsten Jost INF-M2 AW1 Sommersemester
Navigation anhand natürlicher Landmarken mit Hilfe der Scale Invariant Feature Transform Thorsten Jost INF-M2 AW1 Sommersemester 2008 Agenda Motivation Feature Detection Beispiele Posenbestimmung in Räumen
Inhaltliche Planung für die Vorlesung
Vorlesung: Künstliche Intelligenz - Mustererkennung - P LS ES S ST ME Künstliche Intelligenz Miao Wang 1 Inhaltliche Planung für die Vorlesung 1) Definition und Geschichte der KI, PROLOG 2) Expertensysteme
Scene Reconstruction with Multiple View Geometry
Scene Reconstruction with Multiple View Geometry Anwendungen 2 16.06.2010 Nikolaus Rusitska [email protected] Inhalt Rückblick Techniken Related Work Fazit 1 Rückblick Techniken Related Work Fazit
Betrachtung von Verfahren zur Posenbestimmung und Merkmalsexktraktion. Thorsten Jost INF-MA SR Wintersemester 2008/2009 1.
Betrachtung von Verfahren zur Posenbestimmung und Merkmalsexktraktion Thorsten Jost INF-MA SR Wintersemester 2008/2009 1. Dezember 2008 Agenda Motivation Feature Detection SIFT MOPS SURF SLAM Monte Carlo
Suche nach korrespondierenden Pixeln
Suche nach korrespondierenden Pixeln Seminar Algorithmen zur Erzeugung von Panoramabildern Philip Mildner, Gliederung 1. Motivation 2. Anforderungen 3. Moravec Detektor 4. Harris Detektor 5. Scale Invariant
Neue Ansätze für Mustererkennung und automatisches Lernen
Z Y X Neue Ansätze für Mustererkennung und automatisches Lernen Vortrag im Rahmen des 2. Technologieforums Bildverarbeitung am 03./04. November 2015 Johannes Zügner STEMMER IMAGING GmbH, Puchheim GLIEDERUNG
Vergleich von Distanzen und Kernel für Klassifikatoren zur Optimierung der Annotation von Bildern
Vergleich von Distanzen und Kernel für Klassifikatoren zur Optimierung der Annotation von Bildern Alexander Askinadze Heinrich-Heine-Universität Düsseldorf Universitätsstrasse 1 D-40225 Düsseldorf [email protected]
Computer Vision: Kalman Filter
Computer Vision: Kalman Filter D. Schlesinger TUD/INF/KI/IS D. Schlesinger () Computer Vision: Kalman Filter 1 / 8 Bayesscher Filter Ein Objekt kann sich in einem Zustand x X befinden. Zum Zeitpunkt i
Structure-from-Motion. Christina Mundhenk Leo Sylvio Rüdian Marcel Kliemannel
Structure-from-Motion Christina Mundhenk Leo Sylvio Rüdian Marcel Kliemannel Fahrplan Structure-from Motion Workflow mit SIFT & Bundle Adjustment mit SURE Probleme/ Grenzen Technik Metrik und Vergleich
Modellbasiertes Suchen von Objekten
Modellbasiertes Suchen von Objekten Anwendung 1 Vortrag HAW-Hamburg Betreuende Professoren Hosnia Najem Kai von Luck Gunter Klemke Agenda Welches Projekt? Motivation Szenario Technologische Anforderungen
Ringvorlesung Bildverarbeitung
Ringvorlesung Bildverarbeitung D. Schlesinger Institut für Künstliche Intelligenz, Professur Intelligente Systeme 6. Juli 2012 D. Schlesinger (Institut Ringvorlesung für Künstliche Bildverarbeitung Intelligenz,
Numerisches Lösen von Gleichungen
Numerisches Gesucht ist eine Lösung der Gleichung f(x) = 0. Das sverfahren ist eine numerische Methode zur Bestimmung einer Nullstelle. Es basiert auf dem Zwischenwertsatz: Satz (1.1.1) Zwischenwertsatz:
Vorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik Technische Universität Dortmund 12.11.2013 1 von 39 Gliederung 1 Hinführungen zur SVM 2 Maximum Margin Methode Lagrange-Optimierung
Support Vector Machines, Kernels
Support Vector Machines, Kernels Katja Kunze 13.01.04 19.03.2004 1 Inhalt: Grundlagen/Allgemeines Lineare Trennung/Separation - Maximum Margin Hyperplane - Soft Margin SVM Kernels Praktische Anwendungen
Human Detection Based On Part Models
Human Detection Based On Part Models Seminar: Mobile Human Detection Systems William Basilien Kom MatrNr: 3098186 Institute of Computer Engineering 13. März 2017 1 / 25 Motivation 2 / 25 Inhaltsverzeichnis
3. Analyse der Kamerabewegung Video - Inhaltsanalyse
3. Analyse der Kamerabewegung Video - Inhaltsanalyse Stephan Kopf Bewegungen in Videos Objektbewegungen (object motion) Kameraoperationen bzw. Kamerabewegungen (camera motion) Semantische Informationen
Vorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik 8.11.2011 1 von 38 Gliederung 1 2 Lagrange-Optimierung 2 von 38 Übersicht über die Stützvektormethode (SVM) Eigenschaften
Bildverarbeitung: RANSAC. D. Schlesinger () Bildverarbeitung: RANSAC 1 / 11
Bildverarbeitung: RANSAC D. Schlesinger () Bildverarbeitung: RANSAC 1 / 11 Beispielaufgaben Man suche eine Gerade ax + by = 1 d.h. die unbekannten Parameter a und b anhand einer Lernstichprobe der Punkte
SEMINAR AUTOMATISCHE GESICHTSERKENNUNG
SEMINAR AUTOMATISCHE GESICHTSERKENNUNG OBERSEMINAR AUTOMATISCHE ANALYSE VON GESICHTSAUSDRÜCKEN Organisation, Überblick, Themen Überblick heutige Veranstaltung 1. Organisatorisches 2. Überblick über beide
Mustererkennung: Graphentheorie
Mustererkennung: Graphentheorie D. Schlesinger TUD/INF/KI/IS D. Schlesinger () ME: Graphentheorie 1 / 9 Definitionen Ein Graph ist ein Paar G = (V, E) mit der Menge der Knoten V und der Menge der Kanten:
Algorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
KAPITEL 6. Nichtlineare Ausgleichsrechnung
KAPITEL 6 Nichtlineare Ausgleichsrechnung Beispiel 61 Gedämpfte Schwingung: u + b m u + D m u = 0, Lösungen haben die Form: u(t) = u 0 e δt sin(ω d t + ϕ 0 ) Modell einer gedämpften Schwingung y(t; x 1,
Maschinelles Lernen Vorlesung
Maschinelles Lernen Vorlesung SVM Kernfunktionen, Regularisierung Katharina Morik 15.11.2011 1 von 39 Gliederung 1 Weich trennende SVM 2 Kernfunktionen 3 Bias und Varianz bei SVM 2 von 39 SVM mit Ausnahmen
Einführung in Support Vector Machines (SVMs)
Einführung in (SVM) Januar 31, 2011 Einführung in (SVMs) Table of contents Motivation Einführung in (SVMs) Outline Motivation Vektorrepräsentation Klassifikation Motivation Einführung in (SVMs) Vektorrepräsentation
Bildmerkmalssuche. Seminar Computational Photography. Visual Computing Department of Computer Science
Bildmerkmalssuche Seminar Computational Photography EINFÜHRUNG 2 Einführung Bildmerkmalssuche: sehr wichtiges Thema des künstlichen Sehens Erkennen von Objekten auf dem Bild oder in einer Bildsequenz anhand
6. Übungsblatt Aufgaben mit Lösungen
6. Übungsblatt Aufgaben mit Lösungen Exercise 6: Find a matrix A R that describes the following linear transformation: a reflection with respect to the subspace E = {x R : x x + x = } followed by a rotation
Statistische Verfahren zur Datenreduktion (Clusteranalyse, Hauptkomponentenanalyse)
Statistische Verfahren zur Datenreduktion (, ) Datenreduktion Neben den Verfahren zur Datenbereinigung (Transformation, Ausreißertests) spielt die objektivierbare Reduktion der Datenmenge eine wesentliche
Neuronale Netze. Prof. Dr. Rudolf Kruse
Neuronale Netze Prof. Dr. Rudolf Kruse Computational Intelligence Institut für Intelligente Kooperierende Systeme Fakultät für Informatik [email protected] Rudolf Kruse Neuronale Netze 1 Überwachtes
Klassifikation im Bereich Musik
Klassifikation im Bereich Musik Michael Günnewig 30. Mai 2006 Michael Günnewig 1 30. Mai 2006 Inhaltsverzeichnis 1 Was ist eine Klassifikation? 3 1.1 Arten und Aufbau von Klassifikationen.................
Berechnung der Determinante
Berechnung der Determinante Verhalten der Determinante unter elementaren Zeilenoperationen: Das Vertauschen zweier Zeilen/Spalten der Matrix A ändert nur das Vorzeichen der Determinante, d.h: i, j {1,...,
Syntaktische und Statistische Mustererkennung. Bernhard Jung
Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung [email protected] http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel
1. Was ist eine Wahrscheinlichkeit P(A)?
1. Was ist eine Wahrscheinlichkeit P(A)? Als Wahrscheinlichkeit verwenden wir ein Maß, welches die gleichen Eigenschaften wie die relative Häufigkeit h n () besitzt, aber nicht zufallsbehaftet ist. Jan
Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17
Computer Vision: 3D-Geometrie D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17 Lochkamera Modell C Projektionszentrum, Optische Achse, Bildebene, P Hauptpunkt (optische Achse kreuzt die Bildebene),
Pareto optimale lineare Klassifikation
Seminar aus Maschinellem Lernen Pareto optimale lineare Klassifikation Vesselina Poulkova Betreuer: Eneldo Loza Mencía Gliederung 1. Einleitung 2. Pareto optimale lineare Klassifizierer 3. Generelle Voraussetzung
Algebraische Kurven - Vorlesung 5. Homogene Komponenten
Algebraische Kurven - Vorlesung 5 Homogene Komponenten Definition 1. Sei S ein kommutativer Ring und R = S[X 1,...,X n ] der Polynomring über R in n Variablen. Dann heißt zu einem Monom G = X ν = X ν 1
Vorlesung Wissensentdeckung
Gliederung Vorlesung Wissensentdeckung Stützvektormethode 1 Hinführungen zur SVM Katharina Morik, Claus Weihs 26.5.2009 2 Maximum Margin Methode Lagrange-Optimierung 3 Weich trennende SVM 1 von 40 2 von
Randomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick
Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
Merkmalerkennung am Beispiel SIFT
Merkmalerkennung am Beispiel SIFT Medieninformatik IL Andreas Unterweger Vertiefung Medieninformatik Studiengang ITS FH Salzburg Wintersemester 2014/15 Andreas Unterweger (FH Salzburg) Merkmalerkennung
Gleichungen - Aufgabenstellung und Lösungsstrategien
Gleichungen - Aufgabenstellung und Lösungsstrategien Franz Pauer Institut für Fachdidaktik und Institut für Mathematik Universität Innsbruck Lange Nacht der Mathematik 2013 18. Oktober 2013 Was ist eine
= (n 2 ) 1 (Kurzschreibweise: a n = n 2 ) ergibt die Zahlenfolge 1, 4, 9, 16, 25, 36,.
2 Folgen, Reihen, Grenzwerte 2.1 Zahlenfolgen Definition: Eine Folge ist eine geordnete Menge von Elementen an (den sogenannten Gliedern ), die eindeutig den natürlichen Zahlen zugeordnet sind (n N; auch
Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh ([email protected]) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
Objekterkennung. David Pansch Robert Wieczoreck Seminar Intelligent Robotics Fachbereich Informatik Universität Hamburg
David Pansch Robert Wieczoreck Seminar Intelligent Robotics 05.05.2011 Fachbereich Informatik Universität Hamburg Gliederung 1 Parameter Geometrische und topologische Merkmale Formparameter 2 Klassifikation
Learning to Rank Sven Münnich
Learning to Rank Sven Münnich 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 1 Übersicht 1. Einführung 2. Methoden 3. Anwendungen 4. Zusammenfassung & Fazit 06.12.12 Fachbereich 20 Seminar
Bildverarbeitung: 3D-Geometrie. D. Schlesinger () Bildverarbeitung: 3D-Geometrie 1 / 13
Bildverarbeitung: 3D-Geometrie D. Schlesinger () Bildverarbeitung: 3D-Geometrie 1 / 13 Lochkamera Modell C Projektionszentrum, Optische Achse, Bildebene, P Hauptpunkt (optische Achse kreuzt die Bildebene),
Lineare Algebra II 5. Übungsblatt
Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross / Mai Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Algebraisch abgeschlossener Körper) Ein Körper heißt algebraisch abgeschlossen,
1/19. Kern-Methoden zur Extraktion von Informationen. Sebastian Marius Kirsch Back Close
1/19 Kern-Methoden zur Extraktion von Informationen Sebastian Marius Kirsch [email protected] 2/19 Gliederung 1. Verfahren zur Extraktion von Informationen 2. Extraktion von Beziehungen 3. Maschinelles
Mustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines
Mustererkennung R. Neubecker, WS 018 / 019 (SVM) kommen aus der statistischen Lerntheorie gehören zu den optimalen Klassifikatoren = SVMs minimieren nicht nur den Trainingsfehler, sondern auch den (voraussichtlichen)
4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung
4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax
Aufgabe 2 Nichtlineares Zweitor
Name:.................................. Matrikel-Nr.:................... 5 Aufgabe 2 Nichtlineares Zweitor (16 Punkte) Gegeben sei die Hybridbeschreibung eines nichtlinearen ZweitorsH: ] u 1 = i 2 U T
Optimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp
Optimal-trennende Hyperebenen und die Support Vector Machine Volker Tresp 1 (Vapnik s) Optimal-trennende Hyperebenen (Optimal Separating Hyperplanes) Wir betrachten wieder einen linearen Klassifikator
Companion Technologie
Companion Technologie Emotionen erkennen, verstehen und [email protected] Agenda 1. Einleitung a. Was war nochmal Companion Technologie? b. Teilbereiche c. Warum Emotionen? 2. Ansätze a. Facial
Lösungsvorschlag Klausur MA9801
Lehrstuhl für Numerische Mathematik Garching, den 03.08.2012 Prof. Dr. Herbert Egger Dr. Matthias Schlottbom Lösungsvorschlag Klausur MA9801 Aufgabe 1 [4 Punkte] Seien M, N Mengen und f : M N eine Abbildung.
Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
Distributed Algorithms. Image and Video Processing
Chapter 6 Optical Character Recognition Distributed Algorithms for Übersicht Motivation Texterkennung in Bildern und Videos 1. Erkennung von Textregionen/Textzeilen 2. Segmentierung einzelner Buchstaben
Computer Vision: Segmentierung I
Computer Vision: Segmentierung I D. Schlesinger TUD/INF/KI/IS Der Plan: D. Schlesinger () CV: Segmentierung I 1 / 13 Segmentierung Man hat das... Man braucht das. D. Schlesinger () CV: Segmentierung I
Kapitel IV. Folgen und Konvergenz
Kapitel IV Folgen und Konvergenz Inhalt IV.1 Zahlenfolgen Motivation und Begriffsbestimmungen IV.2 Konvergente Folgen Konvergenz und Grenzwert einer Folge Rechenregeln konvergenter Folgen IV.3 Einige nützliche
Funktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen
5. Klassifikation 5.6 Support Vector Maschines (SVM) übernommen von Stefan Rüping, Katharina Morik, Universität Dortmund Vorlesung Maschinelles Lernen und Data Mining, WS 2002/03 und Katharina Morik, Claus
Parallele Algorithmen in der Bildverarbeitung
Seminar über Algorithmen - SoSe 2009 Parallele Algorithmen in der Bildverarbeitung von Christopher Keiner 1 Allgemeines 1.1 Einleitung Parallele Algorithmen gewinnen immer stärker an Bedeutung. Es existieren
Inhaltsbasierte Bildsuche mit Farbhistogrammen
Fakultät Informatik Fachrichtung Intelligente Systeme, Aufgabenstellungen der Bildanalyse und Mustererkennung Inhaltsbasierte Bildsuche mit Farbhistogrammen Dresden, 19.06.2009 Gliederung Grundlagen CBIR
Nutzung der Oracle Database InMemory Option für SAP BW
Nutzung der Oracle Database InMemory Option für SAP BW Schlüsselworte Oracle, SAP-BW, InMemory, Star-Schema. Jörn Bartels Oracle München Einleitung In SAP BW wurde bisher ein erweitertes Snow Flake Schema
Folgen und Reihen. Bernhard Ganter. Institut für Algebra TU Dresden D Dresden
Folgen und Reihen Bernhard Ganter Institut für Algebra TU Dresden D-0062 Dresden [email protected] Folgen Eine (unendliche) (Zahlen)folge ist eine Abbildung f : N R. Statt f (n) schreibt man
825 e 290 e 542 e 945 e 528 e 486 e 675 e 618 e 170 e 500 e 443 e 608 e. Zeichnen Sie das Box-Plot. Sind in dieser Stichprobe Ausreißer vorhanden?
1. Aufgabe: Eine Bank will die jährliche Sparleistung eines bestimmten Kundenkreises untersuchen. Eine Stichprobe von 12 Kunden ergab folgende Werte: 825 e 290 e 542 e 945 e 528 e 486 e 675 e 618 e 170
Grundlagen von Support Vector Maschinen und Anwendungen in der Bildverarbeitung
Grundlagen von Support Vector Maschinen und Anwendungen in der Bildverarbeitung Jan Eichhorn [email protected] Max-Planck-Institut für biologische Kybernetik 72076 Tübingen Danksagung Olivier
Proseminar "Aufgabenstellungen der Bildanalyse und Mustererkennung"
Fakultät Informatik, Institut für künstliche Intelligenz, Intelligent Systems Proseminar "Aufgabenstellungen der Bildanalyse und Mustererkennung" Lokale Merkmalsdeskriptoren Jens Stormberg - Dresden, 19.06.2009
Visuelle Bildsuche und Bildnavigation. Prof. Dr. Kai Uwe Barthel
Visuelle Bildsuche und Bildnavigation Prof. Dr. Kai Uwe Barthel Übersicht Probleme der Bildsuche Textbasierte Bildsuche Visuelle (Low-Level-)Bildsuche Fusion der Suchprinzipien Automatisches Bildverstehen
Folgen und Reihen. Beschränkte Folge: Es gibt eine Zahl c = const.
Folgen und Reihen Folgen: Def.: Eine Abbildung a N K, n a(n) := a n (K = R C) wird Zahlenfolge genannt. Sie heißt reelle (komplexe) Zahlenfolge, falls K = R(C) ist. Symbole: a n K: Elemente der Folge,
Mathematik I. Vorlesung 25. Der große Umordnungssatz
Prof. Dr. H. Brenner Osnabrück WS 009/010 Mathematik I Vorlesung 5 Der große Umordnungssatz Satz 5.1. (Großer Umordnungssatz) Es sei a i, i I, eine summierbare Familie von komplexen Zahlen mit der Summe
Vom Zeichen zur Schrift Mit Mustererkennung zur automatisierten Schreiberhanderkennung in mittelalterlichen und frühneuzeitlichen Handschriften
Platzhalter für Bild, Bild auf Titelfolie hinter das Logo einsetzen Vom Zeichen zur Schrift Mit Mustererkennung zur automatisierten Schreiberhanderkennung in mittelalterlichen und frühneuzeitlichen Handschriften
Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin
Angewandte Multivariate Statistik Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin Ostap Okhrin 1 of 46 Angewandte Multivariate Statistik A Short Excursion into Matrix Algebra Elementare Operationen
Stochastik Praktikum Markov Chain Monte Carlo Methoden
Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
1 Elemente der Wahrscheinlichkeitstheorie
H.-J. Starkloff Unendlichdimensionale Stochastik Kap. 01 11. Oktober 2010 1 1 Elemente der Wahrscheinlichkeitstheorie 1.1 Messbare Räume Gegeben seien eine nichtleere Menge Ω und eine Menge A von Teilmengen
