Evaluations-Techniken

Ähnliche Dokumente
Butz, Krüger: Mensch-Maschine-Interaktion, Kapitel 13 - Evaluation. Mensch-Maschine-Interaktion

Versuchsplanung und Versuchsdesign. Prof. Dr.-Ing. Sebastian Möller

Claudia Hewelt Sarah Waschkewitz

Messen von Usability. Wie kann man eine GUI unter dem Gesichtspunkt Usability bewerten?

Usability Evaluation

USABILITY. kurze Geschichte der Computer Interfaces. web usabilty. Bernhard Bauch, / Digitale Kunst WS 2005/06. download PDF of this document

Emotionen in der Mensch-Technik-Interaktion: Implikation für zukünftige Anwendungen

Sozialwissenschaftliche Methoden und Methodologie. Begriffe, Ziele, Systematisierung, Ablauf. Was ist eine Methode?

User Interface und seine Evaluierung Teil I Eugenie Rerich. Checkliste für das Durchführen einer Usability Evaluation:

Usability Testing. Theorien, Modelle und Methoden der Softwareevaluation. Andreas Simon. Seminar Software Management

Methodenlehre. Vorlesung 5. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

QUANTITATIVE VS QUALITATIVE STUDIEN

Zahlen, Daten, Fakten Mobil

User Interface Guidelines

SE Requirements. Michael Maur, Philipp Zühlke. Fachbereich Informatik Praktische Informatik Prof. Dr. W. Henhapl/ Andreas Kaminski

User-Centered-Design Methoden

Usability als neue Anforderung für Verlage

Attribution. Unterschied zwischen Akteur und Beobachter

Maria Egly Nahed Chaaban Nahlaa Abeiad. Usability von Mobilen Applikationen

USABILITY EVALUATION CHALLENGE 2010/2011 UNSER KONZEPT. Referenten: Janina Hofer, Stefan Latt, Benjamin Pick, Sima Schöning

Konzept-, Struktur-, Prozess- und Ergebnisqualität

Exposé zur Safari-Studie 2002: Der Mensch in IT-Projekten Tools und Methoden für den Projekterfolg durch Nutzerakzeptanz

Software-Usability: So war das aber nicht gedacht

Das richtige Werkzeug macht den Unterschied.

Emotionen als Aspekt des Nutzungserlebens: Implikation für die Praxis. Sascha Mahlke Technische Universität Berlin Zentrum Mensch-Maschine-Systeme

TEIL 4: FORSCHUNGSDESIGNS UND UNTERSUCHUNGSFORMEN

Analyse von Richtlinien und Entwicklung. computergestützten Gruppenprozessen. Team JAMT. WTP/ITPM 11. November 2010

EDV & Multimedia Interaktionsdesign

Qualitatives und Quantitatives Usability Testing ein Hybrider Testansatz

Human-Computer Interaction

Vorbemerkungen/ Einführung

Usability & Usability Engineering. Gerdenitsch Cornelia Seitlinger Paul

Untersuchungsmethoden von Web-Usability: ein kurzer Überblick

Eye-Tracking. Analyse und Optimierung von Kundenzufriedenheit. Das Plus für die Marktforschung

Forschungsmethoden: Definition

Domino Design Thinking Methodiken zur GUI Entwicklung. Benjamin Stein Stuttgart 7. Mai 2015

«Web und Multimedia» <Grundlagen und Technologien> Usability

IMEDONE MOBILE. Mit Usability Engineering zur benutzbaren Patientenkurve auf dem ipad.

Usability. UseTree Berliner Kompetenzzentrum für Usability Maßnahmen. Was verbirgt sich eigentlich dahinter?

Requirements- und Usability- Engineering für Standard-Software: Beispiel StarOffice/OpenOffice.org. Matthias Müller-Prove User Experience Engineer

Augmented Reality. Dresden, 22. Januar. 2013

Functional consequences of perceiving facial expressions of emotion without awareness

Nutzerzentriertes Interaktionsdesign für Zuhause und am Arbeitsplatz

Entwicklung eines Usability Testverfahrens. für Multitouch-Systeme

Jakob Nielsen Usability, alertbox. FH-Aachen VK SS06 Datarama Prof. Gasteier

Szenariobasierter Entwurf Ein Modell zur Gestaltung interaktiver Systeme

User-Experience-Forschung. Ihre App ist immer beim Nutzer. Eine gute Usability verhindert, dass es er es sich anderes überlegt.

Das Experiment als Teil quantitativer Datenerhebung Eine Einführung in die quantitative Erhebungspraxis

Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend

Grenzen des Homo Oeconomicus: Grundprinzipien menschlicher Entscheidungen

Software-Usability: So war das aber nicht gedacht

GizmoRing Help Version 1.07

Lohnt sich Requirements Engineering?

Mit drei Klicks zum Ziel?

Tipps und Tricks bei Gästebefragungen. Tourismus Trend Forum Graubünden 2009

Armin Scholl. Die Befragung. Sozialwissenschaftliche Methode und kommunikationswissenschaftliche Anwendung. UVK Verlagsgesellschaft mbh

Usability-Inspektion und Variationen von Evaluationen

User Experience vs. Retrievaltests Wie lässt sich die Relevanz von Suchergebnissen bewerten?

Intrinsisch motivierte Mitarbeiter als Erfolgsfaktor für das Ideenmanagement: Eine empirische Untersuchung

Usability Metrics. Related Work. Von Torsten Rauschan HAW Hamburg M-Inf2 Anwendungen 2 Betreuer: Prof. Dr.

Primärforschung. Definition. Primärforschung. Definition Grundgesamtheit. Definition Vollerhebung. Definition Teilerhebung

Forschungsdesigns und Untersuchungsformen

der qualitativen Sozialforschung Worum geht es? Methoden - Anwendungsorientiertes Seminar Prof. Dr. Helmut Altenberger, Günes Turan

Aufgaben und Ziele der Wissenschaften

Die Goal-Question-Metric-Methode (GQM)

HTML5 Die neue Silver Bullet für die Verteilung technischer Information?

Was ist ein Test? Grundlagen psychologisch- diagnostischer Verfahren. Rorschach-Test

Session 4: Projektvorstellung Transferprojekt itsowl-tt-ipara 18. August 2015, Gütersloh.

simplyusable Gefördert durch

1.4.1 Lernen mit Podcasts

Techniken der kognitiven Verhaltenstherapie

Comparison of Software Products using Software Engineering Metrics

7 Tipps zur Durchführung von Usability-Tests

Usability Heuristiken. Foliensatz überarbeitet und ergänzt nach M. Dahm: Grundlagen der Mensch-Computer Interaktion

Arbeitstherapie. 2.1 Diagnose

Usability. Hypothekenrechner. Kundenverständnis. Andri Stoffel. Senior Consultant. 18. November 2010

Gut ist, wenn es trotzdem wirkt? Innovative Modelle und Methoden zur Erfolgsmessung

Messung von Kundenzufriedenheit im E-Commerce

Inhalt 1. Einleitung: Kontrollverlust durch Social Media? Unternehmenskommunikation als wirtschaftliches Handeln 21

Markus Heckner Lehrstuhl für Medieninformatik Institut für Information und Medien, Sprache und Kultur Fakultät für Sprach-, Literatur- und

Usability Was ist das?

Mobile Usability. Mobile Usablity Dr. Eric Fehse 25. September 2014 Folie 1

Experimentelle Untersuchungen zur

Mensch-Maschine-Interaktion. Tutorium am 25. Juni

PC Software ETL DataView f. Serie 400, Version 3 Art.-Nr.: Datenmanagement-Paket

Die Nutzer im Mittelpunkt des Software-Entwicklungprozesses

User-centered Design Anwendung von Usability-Methoden bei der Entwicklung von Bibliotheksportalen. Irka Schneider 104. Bibliothekartag

UX Erlebnisse am Frontend

Fallbeispiel WZB II: Usability-Untersuchung des Inter- und Intranetauftritts des Bereichs Bibliothek und wissenschaftliche Information.

Der Forschungsprozess in der Quantitativen Sozialforschung. Crash-Kurs

PROJEKT STATUSMEETING WEBU-UNIFR,

Usability und das Semantic Web

Einführung in Usability. Prof. Dr. Gertrud Grünwied

Erhebungstechniken im RE

Klausur Ingenieurpsychologie Sommersemester 2016

Kontrollüberzeugungen als Prädiktor für subjektive Systembewertungen

Quali-Tool - Ein Qualitätsinstrument für die offene Kinder- und Jugendarbeit (Workshop Nr. 9)

Wizard-of-Oz-Experiment für die Touchscreen-GUI einer Spritzgussmaschine

Performance steigern mit dem Team Relation Performance Management Survey (TRPM) Anforderungen an ein zeitgemäßes Performance Management

Wie erfahren wir mehr über Nutzerwünsche online? Bernd Diekmann (BIS Oldenburg) Kerstin Schoof (BIS Oldenburg)

Transkript:

Evaluations-Techniken Tobias Steimer ISM SS08 (contact@web-inspiration.de) Software-Ergonomie

Aufbau auf vorherigen Kapiteln Interaktions-Design Grundlagen Design Regeln Regeln für Design, goldene Regeln Wie werden Systeme bewertet? Evaluations-Methoden Welche Ansätze gibt es? 2

Agenda 1. Was ist Evaluation 1.1 Evaluations-Zyklus 2. Ziele der Evaluation 3. Evaluation durch Experten 3.1 Kognitiver Durchgang 3.2 Heuristische Bewertung 4. Evaluation durch Nutzer 4.1 Stile der Evaluation 4.2 Evaluation durch Experiment 4.3 Evaluation durch Beobachtung 4.4 Evaluation durch Befragung 4.5 Evaluation durch Messung der Physis 3

Was ist Evaluation?

1. Was ist Evaluation? Testet Usabilty und Funktionalität von Systemen Bewertet Design und Implementierung Identifiziet Probleme mit dem System Messung der Effektivität bei der Nutzung des Systems Was ist Evaluation? 5

1.1 Evaluations-Zyklus Die Evaluation eines Systems sollte während des gesamten Design-Prozesses stattfinden. Veränderung des Designs Bewertung = Formative Evaluation Ergebnis der Bewertung Was ist Evaluation? 6

1. Allgemein gilt: Es ist viel einfacher, das Design in einem früheren Stadium der Entwicklung zu verändern, als in einem Späteren. Was ist Evaluation? 7

Ziele der Evaluation

2. Drei Ziele der Evaluation 1 Bewertung der System-Funktionalität 2 Bewertung der Auswirkungen eines Interface auf Nutzer 3 Identifizierung spezifischer Probleme Ziele der Evaluation 9

2.1 Bewertung der System- Funktionalität 1 Funktionalität des Systems muss den Anforderungen des Nutzers entsprechen D(B(A)) = B(A) Aufgaben sollen einfacherer & schneller zu erledigen sein System sollte den Erfahrungen des Nutzers angepasst werden Schaffung von Analogien Ziele der Evaluation 10

2.1 Beispiel Drag and Drop auf Papierkorb schnell, einfach Herstellung einer Analogie zur realen Welt Ziele der Evaluation 11

2.2 Bewertung der Auswirkungen eines Interface Wie einfach ist es, das System zu erlernen? 2 Ist der Nutzer mit dem System zufrieden? Macht es Spaß, das System zu bedienen? Identifikation von Bereichen, an welchen Nutzer überfordert wird Ziele der Evaluation 12

2.2 Beispiel Welche Word-Version macht bei der Bedienung mehr Spaß und ist intuitiver bedienbar? Wo wird der Nutzer überfordert? Ziele der Evaluation 13

2.3 Aufdecken spezifischer Probleme Identifizierung und Verbesserung von Problemstellen im Design 3 Vermeidung unerwarteter Ergebnisse oder Irritationen bzgl. Funktionalität und Usablility Ziele der Evaluation 14

2.3 Beispiel Hätten Sie beim Klick auf Start die Funktion Herunterfahren erwartet? Ziele der Evaluation 15

Erreichung dieser 3 Ziele Evaluation durch Experten Evaluation durch Nutzer Ziele der Evaluation 16

Evaluation durch Experten 3.1 Kognitiver Durchgang 3.2 Heuristische Bewertung

3. Motivation: Warum Experten-Evaluation Evaluation Erste Bewertung eines Designs vor Implementierung Vermeidung teurer Fehler Bewertung im frühen Stadium Bewertung im späten Stadium kostengünstig kostenintensiv schwer, unvollständige Systeme durch Nutzer zu bewerten Evaluation durch Experten 18

3. Motivation: Warum Experten-Evaluation Evaluation Bewertung des Systems durch Experten Diese bewerten, welche Auswirkungen das Design auf einen typischen Nutzer hat Ziel: Identifikation von Bereichen, in welchen es höchstwahrscheinlich zu Schwierigkeiten kommt. Evaluation durch Experten 19

3. Vor- und Nachteile der Experten- Evaluation Vorteile Relativ billig, da keine Einbeziehung von Nutzern Nachteile Unvollständiges System wird nur nach Usability-Prinzipien untersucht Evaluation durch Experten 20

3. Methoden der Experten- Evaluation 1 Kognitiver Durchgang (Cognitive Walkthrough) 2 Heuristische Evaluation Evaluation durch Experten 21

3.1 Kognitiver Durchgang

3.1 Kognitiver Durchgang Aufgestellt von Polson et al.: Auch Cognitive Walktrough genannt Usability-Inspektionsmethode, die potentielle Usability Probleme aufdeckt Experte versetzt sich in hypothetischen Nutzer Peter Polson Analysiert konkrete Handlungsabläufe Evaluation durch Experten 23

3.1 Kognitiver Durchgang Ist das System leicht erlernbar? Analyse konkreter Handlungsabläufe Ändern der Schriftfarbe Experte als hypothetischer Nutzer Interface / Design Ziel: Test der Erlernbarkeit des Produktes Annahme: Nutzer geht den Weg des geringsten kognitiven Aufwands Evaluation durch Experten 24

3.1 Voraussetzungen für kognitiven Durchgang Prototyp des Systems Mit Bezeichnung & Endgültiger Einteilung Beschreibung der Aufgabe Liste der einzelnen Schritte z.b. Verändern der Schriftfarbe Klick auf Format, Zeichen Durchführung Protokollierung Was ist gut? Was braucht Verbesserung? Beschreibung des Nutzers Erfahrung Wissen Evaluation durch Experten 25

3.2 Heuristische Evaluation

3.2 Heuristische Evaluation Ziel: Auffindung von Usability-Problemen Methode zur Strukturierung der Kritik an einem System Heuristische Evaluation debugt Design Jakob Nielsen relativ kostengünstiger Ansatz ( Discount-Usablility-Technik ) Evaluation durch Experten 27

3.2 Ablauf der heuristischen Unabhängige Experten Evaluation Kritik auf Basis von 10 Heuristiken Beispiel-Heuristiken Visibility of system status Usability- Probleme Match between System system and the real world User control and freedom Aesthetic and minimalist design Wie verbreitet ist das Problem? Wie einfach ist es, es zu bewältigen? Bericht an Design-Team zur Verbesserung des Systems Einmaliges und permanentes Problem? 5 Experten entdecken ca. 75% der Usability Probleme Wie ernst wird das Problem wahrgenommen? Evaluation durch Experten 28

3.2 Beispiel Visibility of system status Match between system and the real world User control and freedom Flexibility and efficiency of use Aesthetic and minimalist design Help and documentation 29

3. Experten-Evaluation Evaluation im gesamter Entwicklungsphase Wird eher in späteren Phasen der Entwicklung eingesetzt Funktionierender Prototyp ist Voraussetzung Frühe Entwicklungsphase Späte Entwicklungsphase Nutzer-Evaluation Experten-Evaluation Evaluation durch Experten 30

Evaluation durch Teilnahme von Nutzern 4.1 Stile der Evaluation 4.2 Evaluation durch Experiment 4.3 Evaluation durch Beobachtung 4.4 Evaluation durch Befragung 4.4 Evaluation durch Messung der Physis Evaluation durch Experten

4.1 Stile der Evaluation Labor-Umgebung Arbeits-Umgebung Vorteile: Spezielles Equipment verfügbar Störungsfreie Umgebung Nachteile: Unnatürliche Umgebung Schwierigkeit, mehrere kooperierender Nutzer zu beobachten Vorteile: Nutzer in natürlicher Umgebung Einfangen besonderer Situationen Langandauernde Untersuchungen möglich Nachteile: Ablenkung (Lärm ) Beeinflussung durch Beobachter / Gerätschaften Aufbau Usability-Labor 32

4.1 Entscheidungskriterium Kosten Untersuchung in natürlicher Umgebung Kosten Untersuch in Labor-Umgebung (weg von Arbeitsplatz ) Evaluation durch Nutzer 33

4.2 Evaluation durch Experiment

4.2 Experimentelle Evaluation Kontrolliertes Experiment Mächtige und verlässliche Methode um Design zu bewerten Empirische Methode Evaluator erstellt zu testende Hypothese auf Hypothese kann durch Messung bestimmter Merkmale (Variablen) im Verhalten des Nutzers belegt / wiederlegt werden Evaluation durch Nutzer 35

4.2 Experimentelle Faktoren Hypothese Variablen Teilnehmer Experimentelles Design Was? Modifikation Wer? Wie? Evaluation durch Nutzer 36

4.2 Hypothesen Vorhersage über das Ergebnis eines Experiments Beispiel: Mehrere Menü-Punkte erhöhen die Navigations- Geschwindigkeit Null-Hypothese Ein bestimmter Zusammenhang besteht nicht Beispiel: Mehrere Menü-Punkte erhöhen nicht die Navigations- Geschwindigkeit Ziel: Null-Hypothese widerlegen Evaluation durch Nutzer 37

4.2 Experimentelle Faktoren Hypothese Variablen Teilnehmer Experimentelles Design Was? Modifikation Wer? Wie? Evaluation durch Nutzer 38

4.2 Variablen Bestimmung der Einflussfaktoren Unabhängige Variablen (UV) Manipulation um verschiedene Bedingungen herzustellen Ihr Einfluss wird untersucht Anzahl Menü- Punkte Abhängige Variablen (AV) Werden gemessen Wird von UV beeinflusst Navigations- Geschwindig keit Evaluation durch Nutzer 39

4.2 Experimentelle Faktoren Hypothese Variablen Teilnehmer Experimentelles Design Was? Modifikation Wer? Wie? Evaluation durch Nutzer 40

4.2 Teilnehmer Entscheidend für den Erfolgs eines jeden Experiments Möglichst übereinstimmend mit späterer Zielgruppe Gleiches Alter Gleicher Bildungsstand Computer-Erfahrung Größe Möglichst repräsentativ Evaluation durch Nutzer 41

4.2 Experimentelle Faktoren Hypothese Variablen Teilnehmer Experimentelles Design Was? Modifikation Wer? Wie? Evaluation durch Nutzer 42

4.2 Experimentelles Design Between-subjects: Jeder Nutzer nimmt nur unter einer Bedingung teil Experiment (Manipulation der V.) Kontrolle (keine Manipulation der V.) Within-subjects: Jeder Nutzernimmt unter allen Bedingungen teil Vorteil: Kostengünstiger, da weniger Teilnehmer von Nöten Nachteil: Lern-Prozess möglich Evaluation durch Nutzer 43

4.2 Steigende Komplexität bei Nutzer-Gruppen Personen Große Anzahl von Testpersonen teuer Schwer zeitlich zu organisieren Datenerfassung Mehrere Videokameras + Protokollierung Aufnahme jeder Teilnehmer- Perspektive Analyse enorme Variationen zwischen Gruppen schwer zu vergleichen Lösung: within groups Experimente Evaluation durch Nutzer 44

4.3 Evaluation durch Beobachtung Laut Denken / Think Aloud Kooperative Evaluation Protokol Analyse Automatisierte Analyse Post-task walkthroughs

4.3 Thinking Aloud / Laut Denken Nutzer bekommt Aufgabe: (z.b.: Fügen Sie in Word eine Grafik ein ) Nutzer wird aufgefordert, laut mitzudenken Haben sie dieses Verhalten erwartet? Können Sie uns sagen, was sie gerade denken? Voraussetzung: interaktiver Prototyp Evaluation durch Nutzer 46

4.3 Thinking Aloud / Laut Denken Vorteile Einfacheit - benötigt wenig Fachwissen Gibt wertvolle Einblicke in Probleme mit Interface Zeigt, wie das System tatsächlich genutzt wird subjektiv Nachteile Nutzer entscheidet, was er beschreibt Erzählen beeinflusst die Aufgaben-Ausführung Effizienz nicht messbar Evaluation durch Nutzer 47

4.3 Think-Aloud Aloud: Beispiel Beispiel Think-Aloud Zusammenschnitt der Firma Corel http://www.youtube.com/watch?v=ppnrqd06ggy Minute 2:15

4.3 Kooperative Bewertung Variation von Laut denken Nutzer = Mitarbeiter (kein Experiment-Teilnehmer) Experte kann Nutzer Fragen stellen Nutzer kann Bewerter zurückfragen Dialog Zusätzliche Vorteile Weniger Einschränkungen Nutzer ist motiviert, das System zu kritisieren Evaluator kann Klärung herbeiführen Evaluation durch Nutzer 49

4.3 post-task task walkthroughs Nutzer kommentiert getätigte Aktionen im Nachhinein (z.b. bei Videoaufzeichnung) Notwendig wenn Think Aloud nicht möglich ist (Aufgabe zu fordernd) Vorteile: Experte hat Zeit, sich auf Aktionen des Nutzers zu konzentrieren Experte hat Zeit, Fragen im Nachhinein zu erstellen Aufgabe des Nutzers wird nicht unterbrochen Evaluation durch Nutzer 50

4.3 Protokoll-Analyse Festhalten der Beobachtungen: Papier & Bleistift billig Detaillierte Infos durch Schreibgeschw. beschränkt Audio Gut für Laut Denken Schwer den Aktionen zuzuordnen Video Computer logging User Notebook Eine Kamera für Hände & Gesicht Eine Kamera für Bildschirm Tasten-Tracking Große Daten-Mengen Nutzer beschreibt Aktionen selbst subjektiv Besonders sinnvoll bei langandauernden Studien Evaluation durch Nutzer 51

4.3 Automatisierte Analyse EVA Manuelle Analyse von Audio- und Video-Aufnahmen ist zeitaufwendig EVA = Experimental Video Annotator Automatisches Analyse-Tool von Videos Erlaubt taggen interessanter Stellen während der Aufnahme Z.B. Fehler, fehlgeschlagener Versuch Hinzufügen von Notizen zum Video Nachteil: evtl. Wichtige Stellen werden verpasst Evaluation durch Nutzer 52

4.4 Evaluation durch Befragung Interviews Fragebögen

4.4 Interviews Experte befragt Nutzer Fragen sind im Vorfeld vorbereitet = strukturiertes Interview Informativ, subjektiv Vorteile Interessante Aspekte können tiefer befragt werden Nonverbale Reaktionen relativ kostengünstig flexibel Nachteile Sehr subjektiv Zeitaufwändig Eingeschränkte Anonymität Evaluation durch Nutzer 54

4.4 Fragebögen Vorgefertigte Fragen werden Nutzern in Form von Fragebögen gestellt Ziel Informationen über Nutzer-Wünsche, Präferenzen und Erfahrungen Vorteile Weniger Analyse-Aufwand (oft quantitativ) erreicht große Anzahl von Nutzern Nachteile Weniger flexibel (Fragen schon im Voraus aufgestellt) Evaluation durch Nutzer 55

4.4 Fragebögen Fragetypen Allgemeine Fragen (Alter, Geschlecht, Erfahrungen mit Computer ) Offene Fragen (Meinung, subjekte Informationen) Geschlossene Fragen (sind leichter zu analysieren) Skalierte Fragen (Bewertung) Wie leicht ist das System zu erlernen: 1=Sehr leicht; 2 = Sehr Schwer Multiple Choice-Fragen Rang(Ordinal)-Fragen: Ordnen sie folgende Antworten nach erstens zweitens drittens Evaluation durch Nutzer 56

4.5 Evaluation durch Messung der Physis Eye tracking Physiologische Messung

4.5 Eye-Tracking Augen-Bewegungen werden augezeichnet (Sakkaden, Fixation) Equipment am Kopf (head-mounted) oder Schreibtisch (remote- Eye-Tracker) montiert Ziel Erforschung kognitiver Prozesse am Bildschirm Identifikation von leicht bzw. schwer zu verstehenden Bereichen im Bildschirm Messung von Anzahl der Fixationen Dauer der Fixation Scan-Pfad: Bewegung der Augen auf ein Ziel mit kurzer Fixation ist optimal Evaluation durch Nutzer 58

4.5 Eye-Tracking in der Praxis Grafische Landkarte Head-mounted Kamera Evaluation durch Nutzer 59

Beispiel Eye-Tracking Software 60

4.5 Physiologische Messungen Messung emotionaler Reaktionen des Nutzers ggb. einem Interface Messung beinhaltet: Herzaktivität: Blutdruck, Volumen, Puls Aktivität der Schweißdrüsen Elektrische Aktivität der Muskeln (EMG) Aktivität des Gerhirns (EEG) Herausforderung: Zusammenhang zwischen körperlicher Reaktion und Aufgabe (Stress, Freude ) Evaluation durch Nutzer 61

Wahl der Evaluations-Methode Prozess-Schritt: Evaluations-Typ: Wie objektiv: Mess-Art: Informationstiefe: Verfügbare Ressourcen: Design vs. Implementierung Labor vs. Feld / Arbeitsplatz subjektiv vs. objektiv qualitativ vs. quantitativ hoch vs. gering Zeit, Personen, Equipment, Geld 62

Wissenswerte Quellen Usability Engineering: Rosson, Carrol, Morgan Kaufmann Verlag, ISBN 1558607129 Software Ergonomie: Herczeg, Oldenbourg Verlag ISBN 3486275658 Skript: Evaluationstechniken http://www.evaluationstechniken.de/pdf/book.pdf Methoden zur Evaluation von Software http://www.social-sciencegesis.de/publikationen/berichte/iz_arbeitsberichte/pdf/ab_29.pdf 63

Danke für die Aufmerksamkeit! Fragen? 64