Personenerkennung mithilfe von Yolo (v3)

Größe: px
Ab Seite anzeigen:

Download "Personenerkennung mithilfe von Yolo (v3)"

Transkript

1 WP - Lernfähige Systeme, WiSe 2018/19 HAW Hamburg Personenerkennung mithilfe von Yolo (v3) Franek Stark Zusammenfassung Es wurde ein Personenerkennungsystem auf basis des Convolutional Neuronal Nets Yolov3 trainiert. Heraus kam ein Netz mit einer etwas besseren Präzision, aber einem viel niedrigeren Recall, als die von den Yolo-Autoren trainierte Netzvariante. Inhaltsverzeichnis 1 Yolo v Idee hinter Yolo Grid Bounding Boxes Anchor Boxes Class Prediction 1.2 Architektur des Netzes FCN ResNet FPN 1.3 Training Loss-Funktion Multiscale-Training 2 Personenerkennung Daten Anforderungen Dataset Preprocessing 2.2 Training Anchor Boxes Trainigsparameter Ergebnisse 3 Fazit 7 Literatur 9 Einführung Mein Projekt beschäftigt sich mit einer Personenzählung im Miniaturwunderland in Hamburg. Durch die dortige sehr beengte Umgebung ist es für die Betreiber sehr interessant, Besucherflüsse zu erkennen. Eine beginnende Problemstellung ist dabei das Zählen der Besucher in einem Raum. Dies könnte in einem ersten Ansatz durch einfache Lichtschranken geschehen, jedoch sind diese viel zu ungenau bei großen und verwinkelten Durchgängen. Daher galt es nun im Rahmen dieses Projektes eine Personenzählung mithilfe einer Kamera auf Basis eines Neuronalen Netzes, zu testen. Zu Detection von Objekten gibt es bereits einige Ansätze, aufgrund der Geschwindigkeit und Genauigkeit habe ich mich für den Single Shot Detector Yolo, den er bereits in der Version Yolo v3 gibt entschieden. Im Folgenden führe ich zunächst in die Funktionweise und Architektur des Netzes ein. Danach werde ich meine Trainings- und Testergebnisse präsentieren. 1. Yolo v3 Das Problem der Objekterkennung teilt sich in zwei Probleme auf: Objektdetektion: Ist hier ein Objekt und wo ist es? Objektklassifizierung: Um welches Objekt handelt es sich? In üblichen Ansätzen wurden diese Probleme aufgeteilt behandelt: Ein neuronales Netz oder anderer Algorithmus hat mögliche Objekte gesucht und mit so genannten Region-Proposals umrahmt. Ein anderes Netz, der so genannte Classifier wurde auf diese Regionen angewandt und ermittelte so den Typ des Objektes. In ganz frühen Ansätzen wurde sogar der Classifier mittels Sliding-Window Verfahren auf sich ein dadurch ergebendes Raster des Inputs angewandt. Letzteres ist zur Laufzeit sehr langsam und je nach Windowsize ungenau. Der Ansatz mit den getrennten Detektoren und Klassifikatoren ist darüber hinaus schwer zu trainieren. Daher wurden so genannte Single-Shot-Detektoren entwickelt. Dabei handelt es sich um Netze, welche die Detektion und Klassifizierung in einem Netz abhandeln und somit an Geschwindigkeit, und Einfachheit gewinnen. Eines dieser Netze ist Yolo. Die Autoren haben nach der Vorstellung das Netz und die Trainingsmethoden mehrfach verbessert, so dass es inzwischen in der Versionen Yolov3 vorliegt: 1.1 Idee hinter Yolo Grid Yolo legt über das Eingangsbild eine Grid und teilt es somit in SxS Cells auf. Diese Cells definieren einen Zuständigkeitsbereich. Objekte, definieren über ihren Mittelpunkt die Zugehörigkeit in eine Cell Bounding Boxes Typisch für die Objekterkennung sind die so genannten Bounding Boxes. Diese rechteckigen Kästen umrahmen ein erkanntes Objekt. Aus diesen Boxes lässt sich auch einfach der Mittelpunkt eines Objektes und speziell für Yolo darüber die Zugehörigkeit zu einer Cell. Während des Trainings wird über

2 Personenerkennung mithilfe von Yolo (v3) 2/10 Abbildung 1. Beispiel eines Eingabebildes mit einer 11x8 Grid. Quelle: Aus [NDR][ndr.de] diese Boxes die Position der Objekte definiert. Wa hrend des Tests sagt eine Cell eine bestimmte Anzahl B Bounding Boxes voraus. (Bei Yolov1 war B = 5.) Die Boxes ko nnen gro ßer als die Cell sein, aber ihr Mittelpunkt muss in der Cell bleiben. Pro Cell ko nnen nur so viele Objekte erkannt werden, wie Bounding Boxes vorrausgesagt werden Anchor Boxes Das generieren bzw. vorraussagen dieser Bounding Boxes ist sehr komplex in Yolov1 gab es sehr viele Probleme: Die Boxes haben zwar ein Objekt umrahmt, allerdings passten oftmals die Breite und ho he nicht und die Boxen a hnelten sich stark, obwohl die Objekte verschiedene Seitenverha ltnisse hatten. Daher entschied man sich fu r Anchor Boxes. Diese definieren einen Anker fu r die Bounding Boxes durch eine vorgegebene Breite und Ho he und werden beim Desing des Netzes festgelegt. Die Bounding Boxes berechnen sich aus den Anchor Boxes, indem diese (auch antiproportional) skaliert und verschoben werden: bx = σ (tx ) + cx (1) by = σ (ty ) + cy (2) bw = pw etw bh = ph eth (3) (4) bx und by sind die Koordinaten des Mittelpunktes der resultierenden Bounding Box. cx und cy sind die Koordinaten der oberen linken Ecke der Cell. tx und ty sind die Ausgabewert aus dem Netz fu r die Position relativ zur Zelle. bw und bh sind Breite und Ho he der resultierenden Bounding Box. pw und ph sind Breite und Ho he der Anchor Box. tw und th sind die Ausgabewerte des Netzes zur skalierung des Anchors. Fu r die Position wird σ genutzt, da die Position vom Netz relativ zur Cell angegeben werden soll. Die Funktion ha lt die Werte zwischen 0 und 1. Wobei (0, 0) die linke obere Ecke der Cell und (1, 1) die untere Ecke. Abbildung 2. Die Boundingboxes berechnen sich relativ zur Zelle und ihrem vorgegebenen Anchor. Quelle: Aus [RFa] Fu r die Ho he und Breite wird e genutzt, um die Werte positiv zu halten. Außerdem ist somit der Wert fu r (tw,th ) (0, 0) => (1, 1) also keine skalierung des Anchors. In Yolov3 gibt es je Cell die selben drei Anchor Boxes. Außerdem ist festgelegt, dass aus jeder Anchor Box genau eine Bounding Box generiert wird. Somit gibt es pro Cell B = 3 Bounding Boxes. Wenn die Anchors sich in ihren Seitenverha ltnissen und proportionen unterscheiden wird das Netz dazu gezwungen, Bounding Boxes mit verschiedenen Formen zu generieren. Beim Training wird die Anchor Box mit der ho chsten IOU zum Objekt ausgewa hlt. Auswahl der Anchors Um die bestmo glichen Anchor Boxen fu r den Anwendungsfall zu nutzen, empfiehlt Yolo, diese u ber k-means Clustering zu ermitteln. Dabei werden alle Bounding Boxes der Trainingsdaten geclustert um mo glichst n Boxen zu erhalten, die mo glichst auf jedes Objekt passen. Neben den Koordinaten und der Gro ße hat eine Bounding Box weiterhin den Parameter Confidence Score. Diese gibt an, wie wahrscheinlich es ist, dass diese Box u berhaupt ein Objekt umrahmt und wie genau diese den umrahmt. Gerade bei Objekten, die dich u ber mehrere Cells erstrecken, ist letzteres wichtig. Confidence Score thruth box confidence score = Pr(Ob ject) IOU pred Wenn die Box kein Objekt entha lt dann soll con f idence = 0 sein. Wenn die Box ein Objekt entha lt dann soll con f idence = thruth sein. IOU pred

3 Personenerkennung mithilfe von Yolo (v3) 3/10 Passend zu den Koordinaten berechnet sich der Confidence Score: Pr(object) Pr(Ob ject) IOU thruth pred ) = σ(t o) (5) Wobei t o die Ausgabe des Netzes ist Class Prediction Neben der obigen besprochenen Detection eines Objektes, muss dieses auch Klassifiziert werden. In Yolov3 erhält jede Bounding Box C Class Wahrscheinlichkeiten. Diese Wahrscheinlichkeit sagt voraus, dass es sich bei dem Objekt in dieser Box um eines der jeweiligen Class handelt. Aber nur unter der Bedingung, dass die Box überhaupt ein Objekt enthält: Abbildung 3. Residual Block vs. standard Block Quelle: Aus [Jay] conditional class probability = Pr(Class i Ob ject) Resultierender Tensor Am Ausgang des Detections Layers ergibt sich ein Tensor der Dimension dim = N N [B (4 +C + 1)]. Eine einzelne Bounding Box ist 4 +C + 1 groß. X & y, bereite & höhe, die Class Wahrscheinlichkeiten und der Confidence Score. Zusammen ergibt sich für die Wahrscheinlichkeit eines Objektes einer bestimmten Class in einer Box: class confidence score = box confidence score (6) conditional class probability = [Pr(Ob ject) IOU thruth pred ] [Pr(Class i Ob ject)] (7) = Pr(Class i ) IOU thruth pred (8) 1.2 Architektur des Netzes Wie zu Beginn erklärt, teilt sich das Problem der Objekterkennung in Detektion und Klassifizierung auf. Auch das Neuronale Netz Yolov3 besteht generell aus zwei Teilen: Klassifikation Die ersten 75 Layer sind dem Objektklassifizierungsnetz Darknet-53 entnommen und fungieren als Feature Extractor. Detektion Es folgen 32 Layer, die die eigentliche Detektion übernehmen. Hier werden auch die Bounding Boxes und Class Wahrscheinlichkeiten vorhergesagt FCN Yolov3 ist ein Fully Convolutional Network, besteht also nur aus Convolutional Layers. Das macht die Objekterkennung unabhängig von der Größe des Eingangsbildes und schneller ResNet Der Feature Extractor Darknet-53 orientiert sich bei seinem Design zum Teil an [HZRS, ResNet]. Dabei handelt es sich um ein so gennantes Residual Neural Network. Neuronale Netze, die für die Bilderkennung eingesetzt werden, bestehen auf Grund der Komplexität eines Bildes, meist aus sehr vielen Layern. Solch tiefe Netze lassen sich jedoch schwer trainieren. Die vorderen Layer werden unteranderem aufgrund Abbildung 4. Aufbau eines FPNs. Links der Bottom-Up-pathway, rechts der Top-Down Pathway und in der Mitte die Lateral Connections. Quelle: aus [LDG + ] des Vanishing/Exploding-Gradient Problems meist kaum oder schlecht trainiert. Das Residual Neural Network führt so genannte Residual Blocks ein. Dies Blöcke bestehen aus mehreren ßtandard Layern. Wenn am Eingang x anliegt, liegt am Ausgang vereinfacht F(x) an, wobei F die Ausgabefunktion der Layer ist. Neu ist nun ein bypass, shortcut genannt, an dem Block aus Layern vorbei. So liegt am Ausgang nun F(x) + x an. Beim Training können nun die vorderen Layer direkter erreicht werden. So können sehr tiefe Netze trainiert werden FPN Ein Problem von Yolo in den früheren Versionen, war dass kleine Objekte nicht erkannt wurden. Ein Grund dafür findet sich in der Größe der Feature Maps, auf denen die oben erklärte Bounding-Box-Vorhersage arbeitet: Die Feature Map bzw. die Ausgaben der Convolutional Layer verlieren von Layer zu Layer an Auflösung und damit Detailgrad. Für die Objekterkennung ist es so schwer kleine Objekte noch zu erkennen. Um dem Problem zu entgegnen, nutzt der Detektionsteil von Yolov3 Techniken Funktionsweisen eines in 4 dargestellten Feature Pyramid Network: Die Objektdetektion mit der Vorhersage der Bounding Boxes findet nicht nur am Ende des Netzes, sondern auch an zwei weiteren Stellen statt. An diesen Stellen besitzen die Feature Maps noch eine viel höhere Auflösung, allerdings ist der semantische Wert an diesen Ebenen im Netz noch nicht so hoch. Sonst wäre die

4 Personenerkennung mithilfe von Yolo (v3) 4/10 weitere Tiefe des Netzes ja überflüssig. Daher werden nicht die Detektions Layer vorne in das Neuronale Netz gehängt. Stattdessen werden mittels shortcut, wie im ResidualBlock aus dem vorderen Schichten des Klassifizierungsteils die hochauflösenden Ausgänge bzw. Feature Maps nach hinten durchgereicht. An diesen hinteren Stellen müssen wiederum die Feature Maps durch Upsampeling vergrößert werden. Dies erhöht zwar nicht die Auflösung, aber macht es möglich, dass die semantisch hochwertigen Features mit in die Bounding Box Prediction einfließen. Durch diese Shortcuts tritt nebenbei auch in diesem Teil von Yolov3 noch der oben erklärte ResidualNet-Effekt auf. In Yolov3 gibt es die Bounding Box Vorhersage also an drei Stellen im Netz. Für jede Ebene sind dabei durch die Auflösungsunterschiede unterschiedliche Anchor Boxes Vorgesehen. Yolov3 hat also 3 3 = 9 verschiedene Anchor Boxes. Aus den verschiedenen Auflösungstufen, den damit verbunden Grid-Cell-Größen ergibt sich eine maximale Bounding Box Zahl von , die pro Bild vorhergesagt werden kann. 1.3 Training Die Zweiteilung des Netzes in Klassifikation und Detektion spiegelt sich auch im Training des Netzes wieder: Zunächst wird der vordere, klassifizierende Teil des Netzes als herkömmlicher Object Classifier trainiert. Anschließend werden ihm die hinteren Layer, z.b. Fully Connected Layer oder andere Soft Max Layer, entfernt. Anschließend werden an das Netz die Layer zur Detektion angehängt und trainiert Loss-Funktion Die Loss Funktion für das Traning setzt sich aus mehreren teilen zusammen: Im Allgemeinen wird der Sum-Quad-Error berechnet. Box Koordinaten s2 i=0 B j=0 λ coord s 2 B i=0 j=0 1 obj i j [(x i ˆx i ) 2 + (y i ŷ i ) 2 ] Dabei ist: λ coord ein Faktor, um den Fehler zu gewichten. iteriert über alle Bounding Boxes aller Zellen. 1obj i j gibt an, ob der Box Predictor j in Zelle i für dieses Objekt verantwortlich ist. Denn hier müssen keine Boxes bestraft werden, falls es eine andere bessere gibt. x i ist der vom Netz vorhergesagte Wert, ˆx i ist der korrekte Wert. Box Seitenverhältnis Für die Strafe für die Größenabweichung berechnet sich analog dazu: λ coord s 2 B i=0 j=0 1 obj i j [ (w i ŵ i ) 2 + ( h i ĥ i ) 2 ] Objektfehler Wenn ein Objekt erkannt wurde, und diese Box auch für das Objekt zuständig wäre: s 2 B i=0 j=0 1 obj i j (C i Ĉ i ) 2 Dabei ist C i der Confidence Score. Allerdngs müssen die false-positives auch bestraft werden: λ noobj s 2 B i=0 j=0 1 nooobj i j (C i Ĉ i ) 2 Da die meiste Zeit Boxen leer bleiben, kann über λ noobj gesteuert werden, wie stark dieser Faktor eingeht. Klassifizierungsfehler Für die Klassifizierungsangaben wird für alle Klassenangabe in jeder Bounding Box folgendermaßen der Fehler berechnet: s 2 B 1 oobj i j i=0 j=0 c Classes (P j (c) ˆP j (c)) 2 Die Wahrscheinlichkeit P j (c) für die Wahrscheinlichkeit der Klasse c in der Box j. Addiert ergeben diese Therme dann gesamten loss Multiscale-Training Da es sich bei Yolov3, wie oben angedeutet, um ein Fully Convolutional Net handelt, ist die Eingangsgröße egal. Die kann schon zum Trainingszeitpunkt ausgenutzt werden: Alle 10 Batches wird die Eingangsgröße neu gewählt. So kann das Netz besser lernen, zu generalisieren und später auf Objekten und Bildern verschiedener Größen bessere Ergebnisse erzielen. 2. Personenerkennung Um das oben vorgestellte Netz auf den in der Einleitung dargestellten Anwendungsfall zu adaptieren. Wurde nun das Netz trainiert.

5 Personenerkennung mithilfe von Yolo (v3) 5/10 Abbildung 5. Die Yolo v3 Network Architektur. Insgesamt drei Bounding-Box-Prediction Ausgaben. Quelle: Aus [Katc] 2.1 Daten Anforderungen Im Anwendungsfall Personenerkennung im Miniaturwunderland geht es nur um das Erkennen von Personen. Diese treten dort allerdings die meiste Zeit immer als Pulk auf. Teilweise sind nur Köpfe oder Oberkörper einzelner Personen zu erkennen. Je nach Anbringungsort der Kamera kann die Situation verbessert werden: Wird die Kamera beispielsweise auf einen engen Türrahmen gerichtet, zwingt dieser die Personen dazu diesen nicht als Gruppe zu durchqueren. Jedoch zeichnet sich das Miniaturwunderland bzw. das Gebäude, ein alter Kaispeicher in der Hamburger Speicherstadt, vor allem durch Verwinkelungen, große Durchgänge und eine niedrige Deckenhöhe aus. Gerade letzteres erschwert den freien Blick auf alle Personen einer Gruppe. Auch die Tatsache der großen Flächen lässt eigentlich nur einen Anbringungsort der Kamera an der Decke zu. Da aus datenschutz- und aufwandstechnischen Gründen nicht möglich war Trainingsdaten vor Ort aufzuzeichnen, war es nun Ziel einen Trainingsdatensatz zu finden, welcher folgenden Ansprüchen gerecht wird: Hauptsächlich Personen Personen treten Pulkartig auf Der Blickwinkel hauptsächlich von schräg oben Dataset Gewählt wurde der [SZL + 18, CrowdHuman] Datensatz: CrowdHuman is a benchmark dataset to better evaluate detectors in crowd scenarios. The CrowdHuman dataset is large, rich-annotated and contains high diversity. CrowdHuman contains 15000, 4370 and 5000 images for training, validation, and testing, respectively. There are a total of 470K human instances from train and validation subsets and 23 persons per image, with various kinds of occlusions in the dataset. Each human instance is annotated with a head bounding-box, human visible-region bounding-box and human full-body bounding-box. We hope our dataset will serve as a solid baseline and help promote future research in human detection tasks Preprocessing Die Annotation der Bounding Boxes im Datensatz als absolute Werte vor. Yolov3 verlangt jedoch, wie oben beschrieben relative Werte. Außerdem verlangt Yolov3 als Koordinaten der Box den Mittelpunkt, im Datensatz gegeben ist jedoch die obere linke Ecke. Daher mussten diese noch umgerechnet werden: x = (x D + (w D /2))/w I (9) y = (y D + (h D /2))/h I (10) w = w D /w I (11) h = h D /h I (12) x,y,w,h Koordinaten und Größe der berechneten Box. x D,y D,w D,h D Koordinaten und Größe der Box aus dem

6 Personenerkennung mithilfe von Yolo (v3) 6/10 Datensatz. w I,h I Größe des Bildes Darüber hinaus mussten für das das verwendete Framework noch einige weitere Dateioperationen durchgeführt werden. 2.2 Training Zum Testen und trainieren eignet sich das vom Autor des Netztes implementierte Neuronale-Netz-Framework [Pjra, darknet]. Außerdem gibt es für einige tools noch eine Verbesserung [Ale, als Github-Fork]. Es ist in C implementiert und unterstüzt CUDA, um die berechnungen auf NVIDIA-GPUs auszulagern. Leider gab es im Zeitraum meiner Versuche verhäuft Probleme mit der Informatik-Compute-Cloud, so dass ich auf meine heimische NVIDIA GTX G ausweichen musste Anchor Boxes Für den Anwendungsfall wurden nch obig beschriebenem Verfahren, die in 6 dargestellten, Anchor Boxes errechnet. Diese unterscheiden sich von den aus generelleren Daten errechneten, vorgegebenen Anchor Boxes, dargestellt in 7 stark. Alle Boxen sind hochkant, darüber hinaus sind die meisten sehr schmal. Dies ist natürlich durch die Statur des Menschen hervorgerufen. Gut sind aber auch einzelne kleine, fast quadratische Boxen zu erkennen, die zum Beispiel bei nur sichtbarem Kopf genutzt werden. Abbildung 6. Die mittels Clustering ermittelten Anchor Boxes Trainigsparameter Für das obige Setup gibt es eine Objektklasse C = 1, dementsprechend hat der Outputensor an den drei Detektionslayern jeweils eine Dimension von: N N B (4 +C + 1) (13) = N N 3 ( ) (14) = N N 3 (6) (15) = N N 18 (16) Außerdem wurde eine vortrainierte Variante des Objektklassifizierungsnetz Darknet-53 werwendet. Diese ist bereits auf Objekten des Datensatzes MS COCO trainiert. Der Objektklassifizierer wurde dann um die Detektions-Layer erweitert. Diese wurden zufällig belegt und anschließen trainiert. Trainiert wurde mit der empfohlenen Batchsize von 64. Abbildung 7. Einige der durch die Entwickler von Yolov3 auf allgemeineren Daten errechneten Anchor Boxes. Quelle: Aus [RFa]

7 Personenerkennung mithilfe von Yolo (v3) 7/10 Wie im [RFa, Volov2 Paper] empfohlen, wurden desweiteren mit folgenden Parametern trainiert: Anfangsgröße der Bilder von , welche alle 100 Batches zufällig skaliert wird While Validating map avgiou Konstante Learn-Rate von 0.001, die erst bei 9000 Batches verringert wird. percent Alle 100 Batches werden die Weights zwischengespeichert. Die Eingangsbilder werden zufällig skaliert, verschoben und die Farbwerte und Helligkeit wird zufällig verändert. Auf Grund der oben angesprochenen geringen Rechenstärke, konnten die Batches nur in Mini-Batches der Größe 2 aufgeteilt werden Ergebnisse Training Das Training lief 8000 iterationen, also 125 Batches. Der durchschnittliche Loss verringerte sich nach den ersten 2000 von über auf ungefähr 5.5. Dort pendelte er sich für die nächsten 6000 Iterationen ein. While Training Average Loss ,000 4,000 6,000 8,000 Iteration average Lost Validierung Etwa alle 4 Batches wurden das Netz gegen die Validierungsdaten getestet, wobei sich folgende Werte ergaben: 0 0 2,000 4,000 6,000 8,000 Iteration Gut zu erkennen, dass hier die Gefahr eines Overfittings besteht. Während die Trainingslost noch leicht sinkt und sich somit verbessert, verschlechtern sich ab ungefähr 7000 Iterationen die Werte für die durchschnittliche Präzision und die Genauigkeit der Boxen. Test Um einen Vergleich zwischen dem durch mir trainierten und dem Yolov3-standard-trainierten Netz ziehen zu könne, und obige Werte einordnen zu könne. Wurden beide Netze einmal auf ein Bild aus dem Miniaturwunderland angewendet. Jede Bounding Box ist, wie oben mehrfach erklärt, mit einem Wahrscheinlichkeit versehen, dass in ihr ein Objekt für eine Klasse liegt. Standardweise werden in Yolo nur Objekte mit einer Wahrscheinlichkeit x >= 0.25 angezeigt. Für diesen Wert zeigte mein nach 7000 Iterationen (der höchsten Stelle im Graphen) trainiertes Netz keine Ausgabe. Das vom Yolov3-Autor auf dem MSCOCO-Datensatz trainierte Netz, welches 80 verschiedenen Klassen kennt zeigte die Ausgabe in 9. Mein trainiertes Netz zeigt die beste Ausgabe bei ungefähr Iterationen = 2500 (Das erste Maximum im Graphen), zu sehen in Abbildung 8. - Ein klarer Fall von Overfitting. Dennoch schlägt sich das MS-Coco-Netz besser. Dem sei jedoch hinzuzufügen, dass bei niedrigeren Schwellwerten der Box-Wahrscheinlichkeit mein trainiertes Netz führt: Es erkennt bei 10 alle Personen und zwar nur diese. Das Coco-Netz hat bei solchen Werten viele false-positives. 3. Fazit Abschließend ist also zu bemerken, dass auf den ersten Blick das von den Machern von Yolo trainierte Netz das bessereïst. Allerdings sind in den Dokumentationen zu Yolo einige Punkte offen geblieben. Es gibt einige Blog-Einträge, die über weitere Parameter und Layer berichten, die während des Trainings gesetzt bzw. verändert werden um noch bessere

8 Personenerkennung mithilfe von Yolo (v3) 8/10 Ergebnisse zu erzielen. Abbildung 8. Die Ausgabe meines trainierten Netzes bei Iteration2500. Abbildung 9. Die Ausgabe des vom Autor yon Yolov3 trainierten Netzes.

9 Personenerkennung mithilfe von Yolo (v3) 9/10 [Ale] Literatur AlexeyAB. Alexeyab/darknet: Windows and linux version of darknet yolo v3 & v2 neural networks for object detection (tensor cores are used). github.com/alexeyab/darknet. (Accessed on 03/02/2019). [Bou] Christopher Bourez. Bounding box object detectors: understanding yolo, you look only once. io/object/detectors/2017/08/10/ bounding-box-object-detectorsunderstanding-yolo.html. [Des] Adit Deshpande. A beginner s guide to understanding convolutional neural networks adit deshpande cs undergrad at ucla ( 19). github.io/adeshpande3.github.io/a- Beginner s-guide-to-understanding- Convolutional-Neural-Networks/. [ea] enrique a. Object detection with yolo: implementations and how to use them. com/@monocasero/object-detectionwith-yolo-implementations-and-howto-use-them-5da [Hsi] Liang-Chi Hsieh. Yolo: A very simple tutorial liang-chi hsieh medium. [Huia] Jonathan Hui. Real-time object detection with yolo, yolov2 and now yolov3. https: //medium.com/@jonathan_hui/realtime-object-detection-with-yoloyolov2-28b1b93e2088. [Huib] Jonathan Hui. Real-time object detection with yolo, yolov2 and now yolov3. https: //medium.com/@jonathan_hui/realtime-object-detection-with-yoloyolov2-28b1b93e2088. [Huic] Jonathan Hui. Understanding feature pyramid networks for object detection (fpn). understanding-feature-pyramid- networks-for-object-detection-fpn- 45b227b9106c. [HZRS] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. [Jad] Vijay Jadhav. Yolo for detection of bounding boxes - tensorflow kaggle. com/vijaybj/yolo-for-detectionof-bounding-boxes-tensorflow/code. [Jay] Prakash Jay. Understanding and implementing architectures of resnet and resnext for state-of-the-art image com/@14prakash/understanding-andimplementing-architectures-ofresnet-and-resnext-for-state-ofthe-art-image-cf51669e1624. (Accessed on 03/02/2019). [Kapa] Divakar Kapil. Yolo v1 : Part 1 escapades in machine learning medium. with-deep-learning/yolo-v1-part-1- cfb47135f81f. [Kapb] Divakar Kapil. Yolo v1: Part 2 divakar kapil medium /yolo-v1-part-2-bfc686ae5560. [Kata] [Katb] Ayoosh Kathuria. How to implement a yolo (v3) object detector from scratch in pytorch: Part 1. implement-yolo-v3-object-detectorpytorch-part-1.html. Ayoosh Kathuria. How to implement a yolo (v3) object detector from scratch in pytorch: Part 2. [Katc] Ayoosh Kathuria. What s new in yolo v3? towards data science. https: //towardsdatascience.com/yolov3-object-detection-53fb7d3bfe6b. [LCY] [LDG + ] Min Lin, Qiang Chen, and Shuicheng Yan. Network in network. Tsung-Yi Lin, Piotr Dollár, Ross Girshick, Kaiming He, Bharath Hariharan, and Serge Belongie. Feature pyramid networks for object detection. [Mur] Manivannan Murugavel. How to train yolov3 to detect custom objects manivannan murugavel medium. https: //medium.com/@manivannan_data/howto-train-yolov3-to-detect-customobjects-ccbcafeb13d2. [NDR] NDR. miniaturwunderland.jpg. https: //

10 Personenerkennung mithilfe von Yolo (v3) 10/10 [Pjra] [Pjrb] [Pra] [RDGF] hamburg/miniaturwunderland113_vvierspaltig.jpg. 03/02/2019). Pjreddie. pjreddie/darknet: Convolutional neural networks. darknet. Pjreddie. Yolo: Real-time object detection. https: //pjreddie.com/darknet/yolo/. (Accessed on Aaditya Prakash. One by one [ 1 x 1 ] convolution - counter-intuitively useful aaditya prakash (adi) random musings of a deep learning grad student. 03/one-by-one-convolution/. (Accessed on Joseph Redmon, Santosh Divvala, Ross Girshick, and Ali Farhadi. You only look once: Unified, realtime object detection. [Red16] Joseph Redmon. Darknet: Open source neural networks in c. darknet/, [RFa] [RFb] [SLJ + ] Joseph Redmon and Ali Farhadi. Yolo9000: Better, faster, stronger. Joseph Redmon and Ali Farhadi. Yolov3: An incremental improvement. Christian Szegedy, Wei Liu, Yangqing Jia, Pierre Sermanet, Scott Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke, and Andrew Rabinovich. Going deeper with convolutions. [SZL + 18] Shuai Shao, Zijian Zhao, Boxun Li, Tete Xiao, Gang Yu, Xiangyu Zhang, and Jian Sun. Crowdhuman: A benchmark for detecting human in a crowd. arxiv preprint arxiv: , 2018.

Individualisierte Gesichtsdetektion mit YOLOv2 in Darknet

Individualisierte Gesichtsdetektion mit YOLOv2 in Darknet Individualisierte mit YOLOv2 in Darknet Img Src: pjreddie.com/darknet & pjreddie.com/darknet/yolo Darknet ist ein Machine Learning Framework wie Caffe, Tensorflow oder Theano. Darknet ist in C mit Cuda

Mehr

Deep Learning zur Erkennung von Kochprozessen

Deep Learning zur Erkennung von Kochprozessen ZAFH Projekt: In Kooperation mit: Deep Learning zur Erkennung von Kochprozessen M.Eng. Marco Altmann, Hochschule Heilbronn MATLAB Expo, München, 21.6.2018 ZAFH Projekt MikroSens finanziert von EU, EFRE

Mehr

Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung , Dr.-Ing. Steffen Herbort, A.R.T. GmbH

Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung , Dr.-Ing. Steffen Herbort, A.R.T. GmbH Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung 26.10.2016, TP 2: Arbeiten von A.R.T. TP2: Tracking und Umfelderkennung Markerloses Tracking texturierte Objekte Umfelderkennung

Mehr

Neural Networks: Architectures and Applications for NLP

Neural Networks: Architectures and Applications for NLP Neural Networks: Architectures and Applications for NLP Session 02 Julia Kreutzer 8. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Backpropagation 3. Ausblick 2 Recap

Mehr

Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff

Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2 Tom Schelthoff 30.11.2018 Inhaltsverzeichnis Deep Learning Seed-Stabilität Regularisierung Early Stopping Dropout Batch Normalization

Mehr

Individualisierte Gesichtsdetektion mit YOLOv2 in Darknet

Individualisierte Gesichtsdetektion mit YOLOv2 in Darknet Individualisierte mit YOLOv2 in Darknet Img Src: pjreddie.com/darknet & pjreddie.com/darknet/yolo Darknet ist ein Machine Learning Framework wie Caffe, Tensorflow oder Theano. Darknet ist in C mit Cuda

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten

Mehr

Human Detection Based On Part Models

Human Detection Based On Part Models Human Detection Based On Part Models Seminar: Mobile Human Detection Systems William Basilien Kom MatrNr: 3098186 Institute of Computer Engineering 13. März 2017 1 / 25 Motivation 2 / 25 Inhaltsverzeichnis

Mehr

Analyse komplexer Szenen mit Hilfe von Convolutional Neural Networks

Analyse komplexer Szenen mit Hilfe von Convolutional Neural Networks Analyse komplexer Szenen mit Hilfe von Convolutional Anwendungen 1 Vitalij Stepanov HAW-Hamburg 24 November 2011 2 Inhalt Motivation Alternativen Problemstellung Anforderungen Lösungsansätze Zielsetzung

Mehr

Personenerkennung. Harald Hauptseminarpräsentation. Harald Kirschenmann. Department Informatik. Department Informatik.

Personenerkennung. Harald Hauptseminarpräsentation. Harald Kirschenmann. Department Informatik. Department Informatik. Harald Hauptseminarpräsentation Kirschenmann Personenerkennung 1 Inhaltsübersicht Motivation Grundlagen Benchmark Eigene Gesichtserkennung 2 Motivation Baustein einer Microservice Architektur Personenerkennung

Mehr

Maschinelles Sehen für die automatische Erkennung von Baubehelfen

Maschinelles Sehen für die automatische Erkennung von Baubehelfen Maschinelles Sehen für die automatische Erkennung von Baubehelfen Katrin Jahr und Alex Braun Lehrstuhl für Computergestützte Modellierung und Simulation, Technische Universität München, Arcisstr. 21, 80333

Mehr

Faltungsnetzwerke. (Convolutional Neural Networks) Maximilian Schmidt. Faltungsnetzwerke

Faltungsnetzwerke. (Convolutional Neural Networks) Maximilian Schmidt. Faltungsnetzwerke (Convolutional Neural Networks) Maximilian Schmidt 1 Inhalt Deconvolution ConvNet Architektur History Convolution layer Layers ReLu layer Pooling layer Beispiele Feature Engineering 2 Das Ziel Klassifizierung

Mehr

Seminar: Maschinelles Lernen und Deep Learning

Seminar: Maschinelles Lernen und Deep Learning Seminar: Maschinelles Lernen und Deep Learning Sommersemester 2018 Prof. Dr. Xiaoyi Jiang, Sören Klemm, Aaron Scherzinger Institut für Informatik, Arbeitsgruppe Pattern Recognition and Image Analysis (PRIA)

Mehr

Statistical Learning

Statistical Learning Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in

Mehr

Neuronale Netze. Automatische Hinderniserkennung Paul Fritsche

Neuronale Netze. Automatische Hinderniserkennung Paul Fritsche 1 Neuronale Netze Automatische Hinderniserkennung 2 Hintergrund Grundlagen Tensorflow Keras Fazit 3 TTBN 4 TTBN 5 TTBN 6 TTBN 7 Biological Neural Network By BruceBlaus - Own work, CC BY 3.0 8 Artificial

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

KNN für XOR-Funktion. 6. April 2009

KNN für XOR-Funktion. 6. April 2009 KNN für XOR-Funktion G.Döben-Henisch Fachbereich Informatik und Ingenieurswissenschaften FH Frankfurt am Main University of Applied Sciences D-60318 Frankfurt am Main Germany Email: doeben at fb2.fh-frankfurt.de

Mehr

Grundlagen zu neuronalen Netzen. Kristina Tesch

Grundlagen zu neuronalen Netzen. Kristina Tesch Grundlagen zu neuronalen Netzen Kristina Tesch 03.05.2018 Gliederung 1. Funktionsprinzip von neuronalen Netzen 2. Das XOR-Beispiel 3. Training des neuronalen Netzes 4. Weitere Aspekte Kristina Tesch Grundlagen

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Object Recognition with Convolutional Neural Networks

Object Recognition with Convolutional Neural Networks Object Recognition with Convolutional Neural Networks Michael Ziegler Seminar KI: gestern, heute, morgen Angewandte Informatik, Universität Bamberg Zusammenfassung. In dieser Arbeit wird auf Objekterkennung

Mehr

Decision-Tree-Klassifikator

Decision-Tree-Klassifikator D3kjd3Di38lk323nnm Decision-Tree-Klassifikator Decision Trees haben einige Vorteile gegenüber den beiden schon beschriebenen Klassifikationsmethoden. Man benötigt in der Regel keine so aufwendige Vorverarbeitung

Mehr

Rekurrente Neuronale Netze

Rekurrente Neuronale Netze Rekurrente Neuronale Netze Gregor Mitscha-Baude May 9, 2016 Motivation Standard neuronales Netz: Fixe Dimensionen von Input und Output! Motivation In viele Anwendungen variable Input/Output-Länge. Spracherkennung

Mehr

Feature Selection / Preprocessing

Feature Selection / Preprocessing 1 Feature Selection / Preprocessing 2 Was ist Feature Selection? 3 Warum Feature Selection? Mehr Variablen führen nicht automatisch zu besseren Ergebnissen. Lernen von unwichtigen Daten Mehr Daten notwendig

Mehr

Kann SAS Ihre Handschrift lesen? Machine Learning am Beispiel von Stacked Denoising Autoencoders

Kann SAS Ihre Handschrift lesen? Machine Learning am Beispiel von Stacked Denoising Autoencoders Kann SAS Ihre Handschrift lesen? Machine Learning am Beispiel von Stacked Denoising Autoencoders Gerhard Svolba SAS Austria Mariahilfer Straße 116 A-1070 Wien Sastools.by.gerhard@gmx.net Zusammenfassung

Mehr

Kapitel 10. Maschinelles Lernen Lineare Regression. Welche Gerade? Problemstellung. Th. Jahn. Sommersemester 2017

Kapitel 10. Maschinelles Lernen Lineare Regression. Welche Gerade? Problemstellung. Th. Jahn. Sommersemester 2017 10.1 Sommersemester 2017 Problemstellung Welche Gerade? Gegeben sind folgende Messungen: Masse (kg) 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0 Kraft (N) 1.6 2.2 3.2 3.0 4.9 5.7 7.1 7.3 8.1 Annahme: Es gibt eine Funktion

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?

Mehr

Die Datenmatrix für Überwachtes Lernen

Die Datenmatrix für Überwachtes Lernen Die Datenmatrix für Überwachtes Lernen X j j-te Eingangsvariable X = (X 0,..., X M 1 ) T Vektor von Eingangsvariablen M Anzahl der Eingangsvariablen N Anzahl der Datenpunkte Y Ausgangsvariable x i = (x

Mehr

Vorlesung Digitale Bildverarbeitung Sommersemester 2013

Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben Institut für Neuroinformatik Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem

Mehr

(Thema) Optimierung von künstlichen neuronalen Netzen zur Ausfallvorhersage mit Sensordaten. Masterarbeit

(Thema) Optimierung von künstlichen neuronalen Netzen zur Ausfallvorhersage mit Sensordaten. Masterarbeit (Thema) Optimierung von künstlichen neuronalen Netzen zur Ausfallvorhersage mit Sensordaten Masterarbeit zur Erlangung des akademischen Grades Master of Science (M.Sc.) im Studiengang Wirtschaftsingenieur

Mehr

Künstliche Intelligenz

Künstliche Intelligenz Künstliche Intelligenz Data Mining Approaches for Instrusion Detection Espen Jervidalo WS05/06 KI - WS05/06 - Espen Jervidalo 1 Overview Motivation Ziel IDS (Intrusion Detection System) HIDS NIDS Data

Mehr

Lineare Regression. Volker Tresp

Lineare Regression. Volker Tresp Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M

Mehr

Machine Learning. Kurzeinführung Erfahrungen in GIS

Machine Learning. Kurzeinführung Erfahrungen in GIS Machine Learning Kurzeinführung Erfahrungen in GIS Bernd Torchala Anlass advangeo prediction Seit über 10 Jahren entwickelt, angewandt und vertrieben Integriert bislang: Neuronale Netze, Weights of Evidence

Mehr

Artificial Intelligence. Was ist das? Was kann das?

Artificial Intelligence. Was ist das? Was kann das? Artificial Intelligence Was ist das? Was kann das? Olaf Erichsen Tech-Day Hamburg 13. Juni 2017 Sehen wir hier bereits Künstliche Intelligenz (AI)? Quelle: www.irobot.com 2017 Hierarchie der Buzzwords

Mehr

3. Analyse der Kamerabewegung Video - Inhaltsanalyse

3. Analyse der Kamerabewegung Video - Inhaltsanalyse 3. Analyse der Kamerabewegung Video - Inhaltsanalyse Stephan Kopf Bewegungen in Videos Objektbewegungen (object motion) Kameraoperationen bzw. Kamerabewegungen (camera motion) Semantische Informationen

Mehr

Beating Humans in complex Boardgames

Beating Humans in complex Boardgames Beating Humans in complex Boardgames Seminar Neueste Trends in Big Data Analytics Universität Hamburg Eike Nils Knopp 18.12.2017 Eike Nils Knopp 1 / 55 Inhalt Historie IBMs Deep Blue IBMs Watson DeepMinds

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Neuronale Netze. Christian Böhm.

Neuronale Netze. Christian Böhm. Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch

Mehr

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke Der Sprung in die Zukunft! Einführung in neuronale Netzwerke Inhalt 1. Warum auf einmal doch? 2. Welche Einsatzgebiete gibt es? 3. Was sind neuronale Netze und wie funktionieren sie? 4. Wie lernen neuronale

Mehr

Dreidimensionale Objektklassifizierung mithilfe der Convolutional Neuronal Networks. Master Grundseminar WiSe 2014/2015 Victoria Bibaeva

Dreidimensionale Objektklassifizierung mithilfe der Convolutional Neuronal Networks. Master Grundseminar WiSe 2014/2015 Victoria Bibaeva Dreidimensionale Objektklassifizierung mithilfe der Convolutional Neuronal Networks Master Grundseminar WiSe 2014/2015 Victoria Bibaeva Inhalte Einführung Convolutional Neuronal Networks (Faltungsnetzwerke)

Mehr

DOKUMENTENKLASSIFIKATION MIT MACHINE LEARNING

DOKUMENTENKLASSIFIKATION MIT MACHINE LEARNING DOKUMENTENKLASSIFIKATION MIT MACHINE LEARNING Andreas Nadolski Softwareentwickler andreas.nadolski@enpit.de Twitter: @enpit Blogs: enpit.de/blog medium.com/enpit-developer-blog 05.10.2018, DOAG Big Data

Mehr

Frischer Wind für ein bekanntes Thema Klassifikation 4.0

Frischer Wind für ein bekanntes Thema Klassifikation 4.0 Frischer Wind für ein bekanntes Thema Klassifikation 4.0 AK Fernerkundung Heidelberg, 4.-5.10.2018 Ruth Leska, GEOSYSTEMS GmbH GEOSYSTEMS ist Ihr Partner für Geo-IT Lösungen und Hexagon Geospatial Platinum

Mehr

Emotion Recognition of Call Center Conversations Robert Bosch Engineering and Business Solutions Private Limited

Emotion Recognition of Call Center Conversations Robert Bosch Engineering and Business Solutions Private Limited Emotion Recognition of Call Center Conversations Robert Bosch Engineering and Business Solutions Private Limited 1 Agenda 1 Introduction 2 Problem Definition 3 Solution Overview 4 Why Consider Emotions

Mehr

Projekt-INF Folie 1

Projekt-INF Folie 1 Folie 1 Projekt-INF Entwicklung eines Testbed für den empirischen Vergleich verschiedener Methoden des maschinellen Lernens im Bezug auf die Erlernung von Produktentwicklungswissen Folie 2 Inhalt Ziel

Mehr

OPT Optimierende Clusteranalyse

OPT Optimierende Clusteranalyse Universität Augsburg Fakultät für angewandte Informatik Lehrstuhl für Physische Geographie und Quantitative Methoden Übung zum Projektseminar: Wetterlagen und Feinstaub Leitung: Dr. Christoph Beck Referentin:

Mehr

TUD Computer Poker Challenge

TUD Computer Poker Challenge TUD Computer Poker Challenge The Challenge of Poker Björn Heidenreich 31. März 2008 The Challenge of Poker Björn Heidenreich 1 Anforderungen an einen guten Poker-Spieler Hand Strength Hand Potential Bluffing

Mehr

Softwareprojektpraktikum Maschinelle Übersetzung Verbesserungen für Neuronale Übersetzungssysteme

Softwareprojektpraktikum Maschinelle Übersetzung Verbesserungen für Neuronale Übersetzungssysteme Softwareprojektpraktikum Maschinelle Übersetzung Verbesserungen für Neuronale Übersetzungssysteme Julian Schamper, Jan Rosendahl mtprak18@i6.informatik.rwth-aachen.de 04. Juli 2018 Human Language Technology

Mehr

6.2 Feed-Forward Netze

6.2 Feed-Forward Netze 6.2 Feed-Forward Netze Wir haben gesehen, dass wir mit neuronalen Netzen bestehend aus einer oder mehreren Schichten von Perzeptren beispielsweise logische Funktionen darstellen können Nun betrachten wir

Mehr

Vorhersage von nicht-funktionalen Feature-Interaktionen

Vorhersage von nicht-funktionalen Feature-Interaktionen Vorhersage von nicht-funktionalen Feature-Interaktionen Sergiy Kolesnikov, Semah Senkaya, Sven Apel Universität Passau Braunschweig 21.03.2012 In Kooperation mit: Norbert Siegmund, Stefan Sobernig, Jörg

Mehr

Scalable Deep Learning. Big Data, NLP, Machine Perception

Scalable Deep Learning. Big Data, NLP, Machine Perception Scalable Deep Learning Big Data, NLP, Machine Perception 2 Facebook: Accurate, Large Minibatch SGD: Training ImageNet in 1 Hour (2017) Yang You, Zhao Zhang, Cho-Jui Hsieh, James Demmel, Kurt Keutzer: ImageNet

Mehr

Validation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation

Validation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation Validation Oktober, 2013 1 von 20 Validation Lernziele Konzepte des maschinellen Lernens Validierungsdaten Model Selection Kreuz-Validierung (Cross Validation) 2 von 20 Validation Outline 1 Validation

Mehr

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Mustererkennung: Neuronale Netze D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Feed-Forward Netze y 1 y 2 y m...... x 1 x 2 x n Output Schicht i max... Zwischenschicht i... Zwischenschicht 1

Mehr

, Data Mining, 2 VO Sommersemester 2008

, Data Mining, 2 VO Sommersemester 2008 Evaluation 188.646, Data Mining, 2 VO Sommersemester 2008 Dieter Merkl e-commerce Arbeitsgruppe Institut für Softwaretechnik und Interaktive Systeme Technische Universität Wien www.ec.tuwien.ac.at/~dieter/

Mehr

Pareto optimale lineare Klassifikation

Pareto optimale lineare Klassifikation Seminar aus Maschinellem Lernen Pareto optimale lineare Klassifikation Vesselina Poulkova Betreuer: Eneldo Loza Mencía Gliederung 1. Einleitung 2. Pareto optimale lineare Klassifizierer 3. Generelle Voraussetzung

Mehr

Entscheidungsbäume. Minh-Khanh Do Erlangen,

Entscheidungsbäume. Minh-Khanh Do Erlangen, Entscheidungsbäume Minh-Khanh Do Erlangen, 11.07.2013 Übersicht Allgemeines Konzept Konstruktion Attributwahl Probleme Random forest E-Mail Filter Erlangen, 11.07.2013 Minh-Khanh Do Entscheidungsbäume

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?

Mehr

Performance Verbesserung BIRT-BERICHTE

Performance Verbesserung BIRT-BERICHTE ClassiX Software GmbH Performance Verbesserung der BIRT-BERICHTE Tipps zur Performance Verbesserung der Berichte unabhängig von der Engine Jana Fischereit 21.01.2013 1 Inhalt 2 Allgemeine Aussagen... 2

Mehr

Learning to Rank Sven Münnich

Learning to Rank Sven Münnich Learning to Rank Sven Münnich 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 1 Übersicht 1. Einführung 2. Methoden 3. Anwendungen 4. Zusammenfassung & Fazit 06.12.12 Fachbereich 20 Seminar

Mehr

EFS Deep Learning für das Fahren der Zukunft. Anton Junker

EFS Deep Learning für das Fahren der Zukunft. Anton Junker EFS Deep Learning für das Fahren der Zukunft Anton Junker Wer ist die EFS? Wer sind wir? Unternehmen Gründung 2009 Standort Ingolstadt/Wolfsburg Beteiligung GIGATRONIK Gruppe (51%) Audi Electronics Venture

Mehr

JPlus Platform Independent Learning with Environmental Information in School

JPlus Platform Independent Learning with Environmental Information in School JPlus Platform Independent Learning with Environmental Information in School Mario Härtwig, Pierre Karrasch Salzburg, 7. Juli 2010 Genesis Umweltmonitoring als Beitrag zur Umweltbildung an Schulen. Kulturlandschaftsentwicklung

Mehr

Analytics Entscheidungsbäume

Analytics Entscheidungsbäume Analytics Entscheidungsbäume Professional IT Master Prof. Dr. Ingo Claßen Hochschule für Technik und Wirtschaft Berlin Regression Klassifikation Quellen Regression Beispiel Baseball-Gehälter Gehalt: gering

Mehr

... Text Clustern. Clustern. Einführung Clustern. Einführung Clustern

... Text Clustern. Clustern. Einführung Clustern. Einführung Clustern Clustern Tet Clustern Teile nicht kategorisierte Beispiele in disjunkte Untermengen, so genannte Cluster, ein, so daß: Beispiele innerhalb eines Clusters sich sehr ähnlich Beispiele in verschiedenen Clustern

Mehr

Maschinelles Lernen und Data Mining

Maschinelles Lernen und Data Mining Semestralklausur zur Vorlesung Maschinelles Lernen und Data Mining Prof. J. Fürnkranz / Dr. G. Grieser Technische Universität Darmstadt Wintersemester 2004/05 Termin: 14. 2. 2005 Name: Vorname: Matrikelnummer:

Mehr

TensorFlow Open-Source Bibliothek für maschinelles Lernen. Matthias Täschner Seminar Deep Learning WS1718 Abteilung Datenbanken Universität Leipzig

TensorFlow Open-Source Bibliothek für maschinelles Lernen. Matthias Täschner Seminar Deep Learning WS1718 Abteilung Datenbanken Universität Leipzig TensorFlow Open-Source Bibliothek für maschinelles Lernen Seminar Deep Learning WS1718 Abteilung Datenbanken Universität Leipzig Motivation Renaissance bei ML und KNN Forschung bei DNN fortgeschrittene

Mehr

Eine Einführung in R: Hochdimensionale Daten: n << p Teil II

Eine Einführung in R: Hochdimensionale Daten: n << p Teil II Eine Einführung in R: Hochdimensionale Daten: n

Mehr

Machinelles Lernen. «Eine kleine Einführung» BSI Business Systems Integration AG

Machinelles Lernen. «Eine kleine Einführung» BSI Business Systems Integration AG Machinelles Lernen «Eine kleine Einführung» @ZimMatthias Matthias Zimmermann BSI Business Systems Integration AG «Welcher Unterschied besteht zum Deep Blue Schachcomputer vor 20 Jahren?» AlphaGo Hardware

Mehr

Kapitel 4: Data Mining DATABASE SYSTEMS GROUP. Überblick. 4.1 Einleitung. 4.2 Clustering. 4.3 Klassifikation

Kapitel 4: Data Mining DATABASE SYSTEMS GROUP. Überblick. 4.1 Einleitung. 4.2 Clustering. 4.3 Klassifikation Überblick 4.1 Einleitung 4.2 Clustering 4.3 Klassifikation 1 Klassifikationsproblem Gegeben: eine Menge O D von Objekten o = (o 1,..., o d ) O mit Attributen A i, 1 i d eine Menge von Klassen C = {c 1,...,c

Mehr

Neuronale Netze u. Anwendungen, 17. Jan. 2012

Neuronale Netze u. Anwendungen, 17. Jan. 2012 Neuronale Netze u. Anwendungen, 17. Jan. 2012 Backpropagation Implementation Speed, Training Generalization Choice of Architecture Algorithms Backpropagation is Computer Intenstive during Training very

Mehr

Einleitung. Komplexe Anfragen. Suche ist teuer. VA-File Verfeinerungen. A0-Algo. GeVAS. Schluß. Folie 2. Einleitung. Suche ist teuer.

Einleitung. Komplexe Anfragen. Suche ist teuer. VA-File Verfeinerungen. A0-Algo. GeVAS. Schluß. Folie 2. Einleitung. Suche ist teuer. Anwendung Input: Query-Bild, Ergebnis: Menge ähnlicher Bilder. Kapitel 8: Ähnlichkeitsanfragen und ihre effiziente Evaluierung Wie zu finden? Corbis, NASA: EOS Bilddatenbank Folie Folie 2 Ähnlichkeitssuche

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Musterlösung für das 7. Übungsblatt Aufgabe 1 Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity Wind PlayTennis D1? Hot High Weak No D2 Sunny

Mehr

Map Matching. Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf.

Map Matching. Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf. Map Matching Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf. Ergebnis mit minimaler Fréchet-Distanz Annahme: Fahrer wählen bevorzugt kürzeste Wege im Straßennetz.

Mehr

Learning Phrase Representations using RNN Encoder Decoder for Statistical Machine Translation. Yupeng Guo

Learning Phrase Representations using RNN Encoder Decoder for Statistical Machine Translation. Yupeng Guo Learning Phrase Representations using RNN Encoder Decoder for Statistical Machine Translation Yupeng Guo 1 Agenda Introduction RNN Encoder-Decoder - Recurrent Neural Networks - RNN Encoder Decoder - Hidden

Mehr

Lineare Regression. Christian Herta. Oktober, Problemstellung Kostenfunktion Gradientenabstiegsverfahren

Lineare Regression. Christian Herta. Oktober, Problemstellung Kostenfunktion Gradientenabstiegsverfahren Lineare Regression Christian Herta Oktober, 2013 1 von 33 Christian Herta Lineare Regression Lernziele Lineare Regression Konzepte des Maschinellen Lernens: Lernen mittels Trainingsmenge Kostenfunktion

Mehr

Künstliche Intelligenz

Künstliche Intelligenz 1. Juni, 2017 Künstliche Intelligenz Stand der Forschung, Aktuelle Probleme & Herausforderungen Prof. Dr. Roland Kwitt Fachbereich Computerwissenschaften Universität Salzburg Übersicht Begrifflichkeiten

Mehr

SKOPOS Webinar 22. Mai 2018

SKOPOS Webinar 22. Mai 2018 SKOPOS Webinar 22. Mai 2018 Marktforschung 2020: Künstliche Intelligenz und automatische Text Analysen? Christopher Harms, Consultant Research & Development 2 So? Terminator Exhibition: T-800 by Dick Thomas

Mehr

SOLID für.net und JavaScript

SOLID für.net und JavaScript SOLID für.net und JavaScript www.binarygears.de Stefan Dirschnabel Twitter: @StefanDirschnab #dncgn SOFTWARE ENTWICKLUNG BERATUNG SCHULUNG 5 Prinzipien für das Design von Software Wartbarer Code Leicht

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 1. Übungsblatt Aufgabe 1: Anwendungsszenario Überlegen Sie sich ein neues Szenario des klassifizierenden Lernens (kein

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen

INTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und Selektion

Mehr

Combining Manual Feedback with Subsequent MDP Reward Signals for Reinforcement Learning W. Bradley Knox und Peter Stone

Combining Manual Feedback with Subsequent MDP Reward Signals for Reinforcement Learning W. Bradley Knox und Peter Stone Combining Manual Feedback with Subsequent MDP Reward Signals for Reinforcement Learning W. Bradley Knox und Peter Stone 14.12.2012 Informatik FB 20 Knowlegde Engineering Yasmin Krahofer 1 Inhalt Problemstellung

Mehr

Machine Learning Tutorial

Machine Learning Tutorial Machine Learning Tutorial a very fast WEKA Introduction busche@ismll.uni-hildesheim.de 05.01.09 1 Hauptbestandteile von WEKA: Instances Instance Attribute FastVector Classifier Evaluation (Filter) http://weka.wiki.sourceforge.net/

Mehr

Algorithms for graph visualization

Algorithms for graph visualization Algorithms for graph visualization Project - Orthogonal Grid Layout with Small Area W INTER SEMESTER 2013/2014 Martin No llenburg KIT Universita t des Landes Baden-Wu rttemberg und nationales Forschungszentrum

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training eines Künstlich Neuronalen Netzes (KNN) zur Approximation einer Kennlinie in JavaNNS 28.01.2008

Mehr

Neural Networks: Architectures and Applications for NLP

Neural Networks: Architectures and Applications for NLP Neural Networks: Architectures and Applications for NLP Übungssitzung 1: Organisation und Orientierung Julian Hitschler ICL, Universität Heidelberg, WiSe 2016/17 27.10.2016 1 / 1 Inhalt Vorstellung Organisatorisches

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

Künstliche Intelligenz im Maschinen- und Anlagenbau Heilsbringer oder Hypebringer?

Künstliche Intelligenz im Maschinen- und Anlagenbau Heilsbringer oder Hypebringer? ASQF Automation Day 2018 - Predictive Analytics Künstliche Intelligenz im Maschinen- und Anlagenbau Heilsbringer oder Hypebringer? Vasilij Baumann Co-Founder/Co-CEO vasilij.baumann@instrunext.com +49 931

Mehr

DOWNLOAD OR READ : MICROSOFT WINDOWS SHAREPOINT SERVICES QUICK SOURCE GUIDE PDF EBOOK EPUB MOBI

DOWNLOAD OR READ : MICROSOFT WINDOWS SHAREPOINT SERVICES QUICK SOURCE GUIDE PDF EBOOK EPUB MOBI DOWNLOAD OR READ : MICROSOFT WINDOWS SHAREPOINT SERVICES QUICK SOURCE GUIDE PDF EBOOK EPUB MOBI Page 1 Page 2 microsoft windows sharepoint services quick source guide microsoft windows sharepoint services

Mehr

Softwareprojektpraktikum Maschinelle Übersetzung

Softwareprojektpraktikum Maschinelle Übersetzung Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl max.bleu@i6.informatik.rwth-aachen.de Vorbesprechung 5. Aufgabe 22. Juni 2017 Human Language Technology

Mehr

Informatik - Übungsstunde

Informatik - Übungsstunde Informatik - Übungsstunde Jonas Lauener (jlauener@student.ethz.ch) ETH Zürich Woche 08-25.04.2018 Lernziele const: Reference const: Pointer vector: iterator using Jonas Lauener (ETH Zürich) Informatik

Mehr

Mustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines

Mustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines Mustererkennung R. Neubecker, WS 018 / 019 (SVM) kommen aus der statistischen Lerntheorie gehören zu den optimalen Klassifikatoren = SVMs minimieren nicht nur den Trainingsfehler, sondern auch den (voraussichtlichen)

Mehr

Einfaches Framework für Neuronale Netze

Einfaches Framework für Neuronale Netze Einfaches Framework für Neuronale Netze Christian Silberbauer, IW7, 2007-01-23 Inhaltsverzeichnis 1. Einführung...1 2. Funktionsumfang...1 3. Implementierung...2 4. Erweiterbarkeit des Frameworks...2 5.

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik Babeş-Bolyai Universität Fakultät für Mathematik und Informatik Oktober 2018 Im Alltag... Laut den meteorologischen Vorhersagen wird es morgen regnen. Ob ich riskiere und die Wette verlieren werde? Ich

Mehr

FRAGESTUNDE WS 2016/17 QM 2. Dr. Christian Schwarz 1

FRAGESTUNDE WS 2016/17 QM 2. Dr. Christian Schwarz 1 FRAGESTUNDE Dr. Christian Schwarz 1 #2 - Allgemein Q: Müssen wir den Standard Error händisch berechnen können? R: Nein. Q: Hat das Monte Carlo Experiment irgendeine Bedeutung für uns im Hinblick auf die

Mehr

Entwicklung einer Anwendung zur Erkennung von Täuschungsversuchen

Entwicklung einer Anwendung zur Erkennung von Täuschungsversuchen Entwicklung einer Anwendung zur Erkennung von Täuschungsversuchen Theoretische Ausarbeitung Miriam Friedrich Matr.-Nr.: 3062857 1. Prüfer: Prof. Dr. rer. nat. Alexander Voß 2. Prüfer: Bastian Küppers,

Mehr

Projekt Maschinelles Lernen WS 06/07

Projekt Maschinelles Lernen WS 06/07 Projekt Maschinelles Lernen WS 06/07 1. Auswahl der Daten 2. Evaluierung 3. Noise und Pruning 4. Regel-Lernen 5. ROC-Kurven 6. Pre-Processing 7. Entdecken von Assoziationsregeln 8. Ensemble-Lernen 9. Wettbewerb

Mehr

D-BAUG Informatik I. Exercise session: week 1 HS 2018

D-BAUG Informatik I. Exercise session: week 1 HS 2018 1 D-BAUG Informatik I Exercise session: week 1 HS 2018 Java Tutorials 2 Questions? expert.ethz.ch 3 Common questions and issues. expert.ethz.ch 4 Need help with expert? Mixed expressions Type Conversions

Mehr

Learning Linear Ordering Problems for Better Translation

Learning Linear Ordering Problems for Better Translation Learning Linear Ordering Problems for Better Translation Roy Tromble, Google Pittsburgh Jason Eisner, Johns Hopkins August 7, 2009 Overview Monotonic translation is easier Construct sentence-specific Linear

Mehr

Visual Servoing using Mutual Information

Visual Servoing using Mutual Information Visual Servoing using Mutual Information Christian Rupprecht Robotics and Embedded Systems Technische Universität München Outline 1 Visual Servoing Was ist Visual Servoing? Typische Lösungsansätze 2 Mutual

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen

INTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und Selektion

Mehr

Named Entity Recognition auf Basis von Wortlisten

Named Entity Recognition auf Basis von Wortlisten Named Entity Recognition auf Basis von Wortlisten EDM SS 2017 Lukas Abegg & Tom Schilling Named Entity Recognition auf Basis von Wortlisten Lukas Abegg - Humboldt Universität zu Berlin Tom Schilling -

Mehr