Companion Technologie



Ähnliche Dokumente
Februar 06 Uni Basel Seminar Künstliche Intelligenz Stefan Pauwels Emotion Recognition :-)

Wissenschaftliche Arbeit

SEMINAR AUTOMATISCHE GESICHTSERKENNUNG

Sprachsteuerung für einen ROS-basierten Assistenzroboter

Automatische Erkennung der Frustration von Autofahrern. Ergebnisse und Anwendungsmöglichkeiten

Schuldgefühle in Paarbeziehungen

Benutzerwahrnehmung. Elmar Nöth. Lehrstuhl für Mustererkennung Friedrich-Alexander-Universität Erlangen-Nürnberg

Den Hörern in die Augen schauen. Evaluation von Radiowerbung mit der EmotiCam

Ist Mimik kulturübergreifend gleich? Seite 10. Was sind Mikroexpressionen? Seite 15. Was bedeutet Facial Feedback? Seite 18

Vorlesung Digitale Bildverarbeitung Sommersemester 2013

Emotionserkennung mittels Bio-Sensoren

Skriptum. Mimikresonanz Basistraining. sozusagen Mag. Barbara Blagusz Ungargasse Oberpullendorf

Abendworkshop. Microexpressions Mimik Emotionen

Forschungszentrum EMKONT Emotion Kognition Interaktion

Schmerz und Schmerzmimik

Tagesworkshop. Microexpressions Mimik Emotionen Körpersprache

Audio Intelligence.ai

Mimik und Gestik bei virtuellen Charakteren

Lässt sich Empathie simulieren? Ansätze zur Erkennung und Generierung empathischer Reaktionen anhand von Computermodellen

Störungen in der Wahrnehmung von Gesichtern (Prosopagnosie) Grundlagen: Klassische KonditionierungFachbereich, Titel, Datum

Tracking von Gesichtsmimik mit Hilfe von Gitterstrukturen zur Klassifikation von schmerzrelevanten Action Units

Emotionserkennung: Frameworkdesign

Ins Gesicht geschrieben: Softwaregestützte Mimikanalyse zur Messung von Emotionen

Globale und Individuelle Schmerz-Klassifikatoren auf Basis relationaler Mimikdaten

Eine hohe Emotionserkennungsfähigkeit ist der Schlüssel zum Erfolg

das Angebot Was zuckt denn da? Was sagst du nicht?

Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung , Dr.-Ing. Steffen Herbort, A.R.T. GmbH

Telecooperation/RBG. Grundlagen der Informatik I Thema 0: Einführung. Dr. Guido Rößling. Copyrighted material; for TUD student use only

Analyse komplexer Szenen mit Hilfe von Convolutional Neural Networks

EmotiCam März Alexandra Wachenfeld. Aleksa Möntmann. Felix Bernet Leiter Medien/ Onlineforschung

das Angebot Was zuckt denn da? Was sagst du nicht?

Bielefeld Graphics & Geometry Group. Brain Machine Interfaces Reaching and Grasping by Primates

Verschiedene Eye Tracking Systeme

Mimikresonanz. Was uns der Code der Mimik über Gefühle verrät. Fortbildungsleitung: David Holzer.

Experimentelles Design funktioneller Bildgebungsstudien

Emotionen als Aspekt des Nutzungserlebens: Implikation für die Praxis. Sascha Mahlke Technische Universität Berlin Zentrum Mensch-Maschine-Systeme

Überblick. Classifying The Real World. Textkategorisierung. Textkategorisierung. Textkategorisierung (II)

S E H E N, W A S M E N S C H E N N I C H T S A G E N GEFÜHLE SEHEN - MENSCHEN VERSTEHEN

Opinion Mining Herausforderungen und Anwendung in der Politik

Navigation anhand natürlicher Landmarken mit Hilfe der Scale Invariant Feature Transform. Thorsten Jost INF-M2 AW1 Sommersemester

Studie: Awareness of faces is modulated by their emotional meaning Autoren: M.Milders, A.Sahraie, S.Logan & N.Donnellon

Förderung sozialer Kompetenzen bei Menschen mit Autismus- Spektrum-Störungen

richtig emotional werden

Sentiment Analysis (SA) Robert Bärhold & Mario Sänger Text Analytics WS 2012/13 Prof. Leser

Lügen und Emotionen. Mikroausdrücke

Zukunftsplattform Obergurgl

Offene Selbstgespräche im Badmintondoppel: Dienen sie (auch) der Selbstdarstellung und beeinflussen sie den Teampartner?

Computer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10

Neuronale Netze. Christian Böhm.

Computerspiele & Sozialverhalten: Effekte gewalttätiger und prosozialer Computerspiele. Prof. Dr. Tobias Greitemeyer Universität Innsbruck

Multivariate Pattern Analysis. Jan Mehnert, Christoph Korn

Psychologie der Informationsverarbeitung Bachelor- und Master-Thesen

Clusteranalyse für Netzwerke

Zwischen Herausforderung und Bereicherung Veränderungen begreifen und betroffene Menschen wertschätzend begleiten

Oberflächennahe und ferne Gestenerkennung mittels 3D-Sensorik

Functional consequences of perceiving facial expressions of emotion without awareness

Cognitive Solutions und IBM Watson

Personenerkennung. Harald Hauptseminarpräsentation. Harald Kirschenmann. Department Informatik. Department Informatik.

PHP objektorientiert

Automatisierte Schluckerkennung durch EMG und Bioimpedanz

Thumbs up? Sentiment Classification using Machine Learning Techniques

Support Vector Machines, Kernels

löst Emotion aus ressourcenvoll (re)agieren Umgang mit Beziehungen Kommunikative Kompetenz

Zur Bedeutung der Körpersprache in der Lehrer-Schüler-Interaktion

Studienbrief. Psychologischer Berater. Allgemeine Psychologie. Bild: DAN - Fotolia.com

Knospe-ABA GmbH. Die Bedeutung des Eltern-Trainings in ABA

Präsent im Unterricht. Körperausdruck und Körpersprache. Josefine Méndez, Dipl.-Sprechwissenschaftlerin

Arbeitsbedingungen von Frauen und Männern und Unterschiede in der psychischen Gesundheit gibt es einen Zusammenhang?

Sitzen Sie gerade am Schreibtisch oder zu

Kundenfrequenz- Analyse

Exklusivität von Werbemitteln Eine Studie von TOMORROW FOCUS Media in Kooperation mit der Hamburg Media School

Seminar: Multi-Core Architectures and Programming. Viola-Jones Gesichtsdetektor

Inhalt und Überblick. Visuelle Kognition. Visuelle Kognition Adrian Schwaninger Universität Zürich. Visuelle Aufmerksamkeit. Einleitung. 1.

Einführung in die Emotionspsychologie

Reinforcement-Learning

Artificial Intelligence. Was ist das? Was kann das?

Gesichtsanimation (Facial Animation)

Alice and me. Robotik als Antwort auf den demographischen Wandel? Dr. Galia Assadi

Otto-Friedrich-Universität Bamberg. Lehrstuhl für Kognitive Systeme. Ausarbeitung. Im Rahmen des Master-Seminars. Emotion Mining in Images and Text

Einführung in Support Vector Machines (SVMs)

Transkript:

Companion Technologie Emotionen erkennen, verstehen und kai.bielenberg@haw-hamburg.de

Agenda 1. Einleitung a. Was war nochmal Companion Technologie? b. Teilbereiche c. Warum Emotionen? 2. Ansätze a. Facial Action Coding System (FACS) b. Head Pose and Movement Analysis as an Indicator of Depression c. Facial Expression Analysis using Eye Gaze Information d. Analysis of Emotion Recognition using Facial Expressions, Speech and Multimodal Information 3. Weiteres Vorgehen 4. Fragen 5. Literaturverzeichnis 19.06.2014 1

Companion Technologie Nach Wilks[1]: Emotionaler Partner Emotionale Bindung Vertrauenswürdig! Unterstützung in realen/technischer Welt Nicht notwendigerweise ein Roboter 19.06.2014 2 http://www.parorobots.com/

Teilbereiche[3] Planung und Entscheidung Interaktion und Verfügbarkeit Situation und Emotion Umgebungserkennung Emotionserkennung in Sprache Nonverbale Kommunikation: Mimische Emotionen, Kopf- und Körpergestik Transferprojekte Zentralbereich 19.06.2014 3

Warum Emotionen? Spannendes aktuelles Arbeitsfeld Interdisziplinär Interessante Möglichkeiten in HCI Emotionaler Dialog Emo-Bike Kontext bietet direktes Anwendungsbeispiel 19.06.2014 4

Agenda 1. Einleitung a. Was war nochmal Companion Technologie? b. Teilbereiche c. Warum Emotionen? 2. Ansätze a. Facial Action Coding System (FACS) b. Head Pose and Movement Analysis as an Indicator of Depression c. Facial Expression Analysis using Eye Gaze Information d. Analysis of Emotion Recognition using Facial Expressions, Speech and Multimodal Information 3. Weiteres Vorgehen 4. Fragen 5. Literaturverzeichnis 19.06.2014 5

Probleme Erfassen des emotionalen Zustandes Verschiedene Modelle Welche Indikatoren sind ausreichend/sinnvoll? Richtige Deutung des emotionalen Zustandes Kontext Zusammenhang mit Kontext oder Beeinflussung von Außen? 19.06.2014 6

Agenda 1. Einleitung a. Was war nochmal Companion Technologie? b. Teilbereiche c. Warum Emotionen? 2. Ansätze a. Facial Action Coding System (FACS) b. Head Pose and Movement Analysis as an Indicator of Depression c. Facial Expression Analysis using Eye Gaze Information d. Analysis of Emotion Recognition using Facial Expressions, Speech and Multimodal Information 3. Weiteres Vorgehen 4. Fragen 5. Literaturverzeichnis 19.06.2014 7

Facial Action Coding System (FACS) Paul Ekman[3]: Erfinder des FACS zusammen mit Friesen. Hat 1967 gezeigt, dass es sieben universale Basisemotionen gibt Zugehörige Gesichtsausdrücke ebenfalls universal Hierzu gehören auch Micro-Ausdrücke[8] 19.06.2014 8

Fig 1: Universal Emotion Expressions [9] 19.06.2014 9

Fig 2: Sample Action Unit [9] 19.06.2014 10

Agenda 1. Einleitung a. Was war nochmal Companion Technologie? b. Teilbereiche c. Warum Emotionen? 2. Ansätze a. Facial Action Coding System (FACS) b. Head Pose and Movement Analysis as an Indicator of Depression c. Facial Expression Analysis using Eye Gaze Information d. Analysis of Emotion Recognition using Facial Expressions, Speech and Multimodal Information 3. Weiteres Vorgehen 4. Fragen 5. Literaturverzeichnis 19.06.2014 11

Head Pose and Movement Analysis as an Indicator of Depression Idee: Simple Klassifikatoren -> Komplexe emotionale Zustände Depression: Weniger Kopfbewegung Langsamere Kopfbewegung Blickrichtung eher rechts oder unten 19.06.2014 12

Head Pose and Movement Analysis as an Indicator of Depression Features: Yaw, Roll, Pitch Funktionale Werte Dauer der Kopfbewegung Blickrichtungsdauer Blickrichtungsänderungsrate Fig. 3: Yaw, Roll, Pitch [2] 19.06.2014 13

Head Pose and Movement Analysis as an Indicator of Depression Klassifikation: Hybride Klassifikation GMM (Gaussian Mixture Models): Zuordnung zu einer Klasse SVM (Support Vector Maschines): Unterscheidug zweier Klassen GMM zur Feature Reduktion SVM zur endgültigen Klassifikation 19.06.2014 14

Head Pose and Movement Analysis as an Indicator of Depression Versuch: Interview mit Fragen zu positiven und negativen Erinnerungen Gruppe aus 30 depressiven und 30 normalen Probanden 19.06.2014 15

Head Pose and Movement Analysis as an Indicator of Depression Resultate: Durchschnittliche Erkennungsrate: ca. 70% Nur gute Ereignisse Fragen ähnlich gut Bei depressiven Probanden liegt der emotionale Zustand eher im negativen Bereich Positive Emotionen besser zur Klassifikation Zukunft: Mehrere Ansätze gleichzeitig Verwenden 19.06.2014 16

Agenda 1. Einleitung a. Was war nochmal Companion Technologie? b. Teilbereiche c. Warum Emotionen? 2. Ansätze a. Facial Action Coding System (FACS) b. Head Pose and Movement Analysis as an Indicator of Depression c. Facial Expression Analysis using Eye Gaze Information d. Analysis of Emotion Recognition using Facial Expressions, Speech and Multimodal Information 3. Weiteres Vorgehen 4. Fragen 5. Literaturverzeichnis 19.06.2014 17

Idee: Facial Expression Analysis using Eye Gaze Information Verbesserung der Emotionserkennung durch Blickrichtungsinformationen Meisten Fehler durch bestimmte Emotionen wie Ärger und Trauer Direkt gerichtete Emotionen: Freude, Ärger, Überraschung Ausweichende Emotionen: Trauer, Furcht, Ekel 19.06.2014 18

Facial Expression Analysis using Eye Gaze Information Herangehensweise: Zuerst Blickrichtung analysieren Mittels Bildverarbeitung Nur frontale Bilder Blickrichtung anhand des Abstandes/Winkels zu den Nasenlöchern Fig 4: Eyegaze [8] 19.06.2014 19

Facial Expression Analysis using Eye Gaze Information Herangehensweise: Erkennung der Emotion innerhalb der Klasse Fig 5: Klassifikation [8] 19.06.2014 20

Facial Expression Analysis using Eye Gaze Information Resultate: Problematische Emotionen wurden besser erkannt Ärger und Trauer liegen in verschiedenen Klassen, daher bessere Erkennungsrate 19.06.2014 21

Agenda 1. Einleitung a. Was war nochmal Companion Technologie? b. Teilbereiche c. Warum Emotionen? 2. Ansätze a. Facial Action Coding System (FACS) b. Head Pose and Movement Analysis as an Indicator of Depression c. Facial Expression Analysis using Eye Gaze Information d. Analysis of Emotion Recognition using Facial Expressions, Speech and Multimodal Information 3. Weiteres Vorgehen 4. Fragen 5. Literaturverzeichnis 19.06.2014 22

Idee: Analysis of Emotion Recognition using Facial Expressions, Speech and Multimodal Information Verbesserung der Emotionserkennung durch bimodalen Ansatz Fusion von Sprach und Mimik Daten Vergleich verschiedener Zusammenführungszeitpunkte: Feature Level (Vor Klassifikation) Decision Level (Nach Klassifikation) Beide Arten haben die Klassifikation merklich verbessert 19.06.2014 23

Analysis of Emotion Recognition using Facial Expressions, Speech and Multimodal Information Herangehensweise: Eingeschränkt auf vier Zustände: Trauer, Freude, Ärger, Neutral Sprach Emotion Analyse Mimik Emotions Analyse Bimodale Analysen 19.06.2014 24

Analysis of Emotion Recognition using Facial Expressions, Speech and Multimodal Information Sprach Emotion Analyse: Tonhöhe, Intensität Statistische Werte Länge von Wortpausen 11 Dim Feature Vektor 19.06.2014 25

Analysis of Emotion Recognition using Facial Expressions, Speech and Multimodal Information Mimik Emotion Analyse Unterteilung des Gesichts in verschiedene Bereiche Keine Lippen, da Aussprache z.b. als Lachen erkannt werden könnte Pro Block pro Frame ein 10 Dim Feature Vektor Reduktion durch K-Nearest Neighbour Klassifikator 4 Dim Feature Vektor als Ergebnis (inkl. Dauer der Emotion) Jeder Bereich und die Summer aller Bereiche wurden Klassifiziert Erkenntnisse über Emotion/Bereich Zusammenhang 19.06.2014 26

Analysis of Emotion Recognition using Facial Expressions, Speech and Multimodal Information Bimodale Systeme Feature Level Fusion: Einzelner Klassifikator Decision Level Fusion: Max Value Durchschnitt Gewichtet Produkt 19.06.2014 27

Analysis of Emotion Recognition using Facial Expressions, Speech and Multimodal Information Resultat: Mimik Emotion Analyse ist besser als Sprach Emotion Analyse Decision Level Fusion: Bessere Erkennungsraten für Trauer und Freude Feature Level Fusion: Besser Erkennungsraten für Ärger und Neutral 19.06.2014 28

Agenda 1. Einleitung a. Companion Technologie b. Teilbereiche c. Was war nochmal Companion Technologie? 2. Ansätze a. Facial Action Coding System (FACS) b. Head Pose and Movement Analysis as an Indicator of Depression c. Facial Expression Analysis using Eye Gaze Information d. Analysis of Emotion Recognition using Facial Expressions, Speech and Multimodal Information 3. Weiteres Vorgehen 4. Fragen 5. Literaturverzeichnis 19.06.2014 29

Weiteres Vorgehen Gute Emotionserkennung erfordert viele Informationen Mimik, Sprache, Körperhaltung usw. Verbesserung der Emotionserkennung durch mehrere Sensorarten möglich Nutzung des Eyetrackers zur Erweiterung der Emotionserkennung beim Emo-Bike 19.06.2014 30

19.06.2014 31

Fragen? 19.06.2014 32

Literaturverzeichnis [1] Wilks, Yorick et al.; Close Engagements with Artificial Companions: Key Social, Psychological, Ethical and Design Issues [2] http://www.sfb-trr-62.de/ [3] http://www.paulekman.com/paul-ekman/ [4] Alghowinem, S et al.: Head Pose and Movement Analysis as an Indicator of Depression [5] Zhao et al.:facial Expression Analysis using Eye Gaze Information [6] Busso et al.: Analysis of Emotion Recognition using Facial Expressions, Speech and Multimodal Information [7] http://www.cio.com/article/facial-expressions-test [8] Haggard, E. A. and Isaacs, K.S. 1966. Micromomentary Facial Expressions [9] http://www.scholarpedia.org/article/facial_expression_analysis 19.06.2014 33