INTELLIGENTE DATENANALYSE IN MATLAB



Ähnliche Dokumente
Zeitreihenanalyse. Steffen Bickel

Masse, Kraft und Beschleunigung Masse:

3.2 Autoregressive Prozesse (AR-Modelle) AR(p)-Prozesse

3.3 Moving-Average-Prozesse (MA-Modelle)

Zeitreihenökonometrie

3. Echtzeit-Scheduling Grundlagen

Zeitreihenökonometrie

Prof. Dr. W. Zucchini 06 Wiederholung Kap. 1-4 Zeitreihenanalyse Sommer 2003

Editierabstand und der 4-Russen-Trick

Motivation: Sampling. (14) Sampling. Motivation: Sampling. Beispiele. Beispiel Kreisscheibe. Beispiel: Kreisscheibe

Überblick. Beispielexperiment: Kugelfall Messwerte und Messfehler Auswertung physikalischer Größen Darstellung von Ergebnissen

Zeitreihenökonometrie

Diskrete Integratoren und Ihre Eigenschaften

(2) Kinematik. Vorlesung Animation und Simulation S. Müller U N I V E R S I T Ä T KOBLENZ LANDAU

Differentialgleichungen

Prognoseverfahren: Gewogener gleitender Durchschnitt, Exponentielle Glättung erster und zweiter Ordnung

Typ A: Separierbare Differentialgleichungen I. Separierbare Differentialgleichungen II. Beispiel einer separierbaren Dgl

Multiple Regression: Übung 1

Analysis: Ganzrationale Funktionen Analysis Ganzrationale Funktionen Differenzialrechnung, Extrem- und Wendepunkte

MATLAB: Kapitel 4 Gewöhnliche Differentialgleichungen

Zeit (in h) Ausflussrate (in l/h)

MEHRWERK. Logistik Optimierung in SAP mit Dispositions- Lösung Forecast

Systemtheorie Teil A. - Zeitkontinuierliche Signale und Systeme - Musterlösungen. Manfred Strohrmann Urban Brunner

Strömung im Rohr. Versuch: Inhaltsverzeichnis. Fachrichtung Physik. Physikalisches Grundpraktikum. 1 Aufgabenstellung 2

Universität Ulm Samstag,

Versuch 1 Schaltungen der Messtechnik

Integralrechnung. Grundidee der Integralrechnung. Einführung des Riemann- Integrals

Kapitel 11 Produktion, Sparen und der Aufbau von Kapital

Leibnizschule Hannover

REX und REXP. - Kurzinformation -

Theoretische Grundlagen

Technische Universität München. Lösung Montag SS 2012

Untersuchung von Gleitentladungen und deren Modellierung durch Funkengesetze im Vergleich zu Gasentladungen

Exponential- und Logarithmusfunktionen

Mathematik III DGL der Technik

Phillips Kurve (Blanchard Ch.8) JKU Linz Riese, Kurs Einkommen, Inflation und Arbeitslosigkeit SS 2008

The Matlab ODE Suite. Simone Bast Martin Vogt

Name: Klasse: Datum: Signale - Einführung Werner-von-Siemens-Schule Arbeitsblatt

Versicherungstechnik

3.6 Prognosen mit ARMA-Modellen

Grenzwertsätze für Zeitreihen

Mathematische Methoden in den Ingenieurwissenschaften 4. Übungsblatt

Aufgaben zur Zeitreihenanalyse (Kap. 5)

Gewöhnliche Differentialgleichungen (DGL)

INTELLIGENTE DATENANALYSE IN MATLAB

14 Kurven in Parameterdarstellung, Tangentenvektor und Bogenlänge

Mathematik: Mag. Schmid Wolfgang Arbeitsblatt 6 5. Semester ARBEITSBLATT 6 PARAMETERDARSTELLUNG EINER GERADEN

Kurs 9.3: Forschungsmethoden II

Thema 6: Kapitalwert bei nicht-flacher Zinsstruktur:

Abiturprüfung Mathematik 2009 (Baden-Württemberg) Berufliche Gymnasien ohne TG Analysis, Aufgabe 1

Berechnungen am Wankelmotor

DIE LINEARE DIFFERENTIALGLEICHUNG ZWEITER ORDNUNG MIT KONSTANTEN KOEF- FIZIENTEN

Praktikum Grundlagen der Elektrotechnik Versuch 5. Matrikelnummer:

P. v. d. Lippe Häufige Fehler bei Klausuren in "Einführung in die ökonometrische Datenanalyse" Duisburg

Abiturprüfung 2017 ff Beispielaufgabe Grundkurs Mathematik; Analysis Beispiel Wirkstoff

Versicherungstechnik

Mathematische Methoden der klassischen Physik Zusammenfassung Differentialgleichungen

Ganzrationale Funktionenscharen. 4. Grades. Umfangreiche Aufgaben. Lösungen ohne CAS und GTR. Alle Methoden ganz ausführlich. Datei Nr.

Kapitel : Exponentiell-beschränktes Wachstum

Kapitel : Exponentielles Wachstum

Latente Wärme und Wärmeleitfähigkeit

Aufgaben: Repetition Ökonometrie I - Lösungen

Zeitreihenanalyse. Seminar Finanzmathematik. Andreas Dienst SS Einleitung - Begrüßung - Motivation - Inhaltsangabe. 2.

Übung zu Quantitative Methoden der Marktanalyse. Tests zu den Annahmen der OLS-Schätzung. 1. Annahmen zur OLS-Schätzung. 1. Annahmen zur OLS-Schätzung

Lineare Algebra I - Lösungshinweise zur Klausur

1 Lokale Änderungsrate und Gesamtänderung

Geradlinige Bewegung Krummlinige Bewegung Kreisbewegung

4. Quadratische Funktionen.

Stationarität/Ergodizität

Stammgruppe trifft sich zum Museumsrundgang Experte erklärt jeweils sein Plakat

Grundgebiete der Elektrotechnik II Feedbackaufgabe: Transiente Vorgänge

Übungen zur Finanzwirtschaft der Unternehmung

Westfälische Hochschule - Fachbereich Informatik & Kommunikation - Bereich Angewandte Naturwissenschaften. 2. Mechanik

Zwei Rechenbeispiele für die einfache lineare Regression

Transkript:

INTELLIGENTE DATENANALYSE IN MATLAB Sequenzanalyse

Überblick Sh Schrie der Daenanalyse: Daenvorverarbeiung Problemanalyse Problemlösung Anwendung der Lösung Aggregaion und Selekion von Daen. Inegraion und Säuberung der Daen. Feaure- Erakion. Besimmen von gegeb./gesuchen Größen. Wahl des Performanzmaß/ Zielkrieriums. Modellraum und Modellannahmen. Algorihmen für das Opimieren des Zielkrieriums finden. Implemenieren der Algorihmen. Modell-Selekion & -Anpassung. Training & Evaluaion des Modells auf gegebenen Daen. Vorhersage für neue Daen. 2

Überblick Problemsellungen. ll Eigenschafen von Sequenzen. Modellierung von Sequenzen. Sequenzvorhersage. Lernen aus sequenziellen Daen. 3

Problemsellungen Eingabe: Sequenz von Daenpunken (Beobachungen, Messpunke) wie bspw. Zeireihen. Tägliche Messung der Temperaur an einem Or. EKG eines Paienen. Enwicklung der Einwohnerzahl eines Landes. Akienkurse an aufeinanderfolgenden Börsenagen. Gesuch: Modell welches Sequenz erklär wie z.b.. f : 1 4

Problemsellungen: Beispiel Vorhersage der Preisenwicklung: i 1,8 1,6? 1,4 1,2 1 0,8 0,6 0,4 0,2 0-0,2? Preis (erware) Preis Veränderung (erware) Veränderung 5

Problemsellungen: Aufgaben der Sequenzanalyse Beschreibung/Eigenschafen: h Unersuchen der Charakerisika der Sequenz über Kennzahlen und Diagramme. Modellierung und Prognose: Formulierung eines sochasischen Modells und Schäzung der Modellparameer. Vorhersage zukünfiger Were aufgrund des angepassen Modells. Konrolle und Regelung: Opimale Seuerung des daenerzeugenden Prozesses. 6

Problemsellungen: Aufgaben der Sequenzanalyse Klassifikaion i sequenzieller Daen: z.b. Klassifikaion von EKG-Zeireihen zur Vorhersage von Herzproblemen. Kernel-Modelle benöigen Kernel (Ähnlichkeisfunkion zwischen Zeireihen). Anomalie-Erkennung: z.b. Erdbeben-/Tsunami-Vorhersage. Clusering (Gruppieren von ähnlichen Zeireihen). Rerieval/Suche: z.b. Query-by-Humming. 7

Eigenschafen von Sequenzen: Darsellung und Kenngrößen Sequenz wird durch Paare S, definier. i i gib Posiion innerhalb der Sequenz an. Äquidisane Folge (gleiche Absände ): i 1 i Nich-äquidisane Folge: i i S : i 1... n i S : 1... n Kenngrößen: Mielwer bis Posiion : () 1 ( ) i 1 i n Varianz bis Posiion : 1 () () 2 i i1 2 2 2 ( ) n 8

Eigenschafen von Sequenzen: Korrelaion Korrelaion = lineare Abhängigkei i zwischen verschiedenen Zeipunken/Zeireihen. Empirische Kovarianz: 1 n, y y n 1 c y Empirischer i Korrelaionskoeffizien: r y, c, y y 1 n k k n k 1 Auokovarianzfunkion: c k Auokorrelaionsfunkion: r k k c 2 9

Eigenschafen von Sequenzen: Korrelaion Beispiel 10

Modellierung von Sequenzen Ki Keine Abhängigkeien: iki Direke Abhängigkeien (Markov-Kee): Erser Ordnung: Zweier Ordnung: Indireke Abhängigkeien gg (Hidden-Markov-Modell): 11

Modellierung von Sequenzen: Keine Abhängigkeien Annahmen: Aufenhalsor zum Zeipunk is unabhängig vom Aufenhalsor zu einem vorherigen Zeipunk. Beispiel: Rauschen (Whie Noise) Mielwer: () 0 Varianz: Auokovarianzfunkion: () c 2 2 k 0 12

Modellierung von Sequenzen: Direke Abhängigkeien Annahmen: Aufenhalsor zum Zeipunk häng direk von den k Aufenhalsoren zu den Zeipunken k,, 1 ab. Beispiel: Random Walk Mielwer: () 0 Varianz: Bese Prognose: () 2 2 E( ) Var( ) k 2 k k 13

Modellierung von Sequenzen: Direke Abhängigkeien Beispiel i für Markov-Kee (1. Ordnung): Random Walk Aufenhalsor zum Zeipunk = Aufenhalsor zum Zeipunk 1 zuzgl. eine zufällige Srecke. Whie Noise 14

Modellierung von Sequenzen: Indireke Abhängigkeien Annahmen: Aufenhalsor zum Zeipunk häng direk vom Zusand z zum Zeipunk ab. Zusand z zum Zeipunk häng direk von den k Zusänden zu den Zeipunken k,, 1 ab. Zusände sind unbekann/unbeobache. 15

Modellierung von Sequenzen: Indireke Abhängigkeien Beispiel i für HMM (1. Ordnung): Worarenerkennung Zuordnung eines Wors zu Worar (Zusand z). 16

Modellierung von Sequenzen: Indireke Abhängigkeien Einsazmöglichkeien i von HMMs: Vorhersagen zukünfiger Beobachungen. z.b. welches Wor wird als nächses eigegeben, Auovervollsändigung. Vorhersagen über zukünfige/vergangene Zusände bzw. wahrscheinlichse Zusandsfolge einer Sequenz. z.b. Spracherkennung (Beobachung = Audiosignale, Zusände = Wörer). Parameerschäzung/Lernen des HMMs. 17

Sequenzvorhersage Sequenzvorhersage an den Beispielen i Moving-Average-Prozess (MA). A Auoregressiver Prozess (AR). Auoregressiver Moving-Average-Prozess (ARMA). Grundidee: Sequenz is Linearkombinaion von Weren aus einer Sequenz von Rauschen (Whie Noise). Sequenz Sq von n unabhängigen gg Rauschweren r,...,, 1 r n. Ziel: Fakoren dieser Linearkombinaion aus Daen schäzen. 18

Sequenzvorhersage: Moving-Average-Prozess Annahmen: Aufenhalsor zum Zeipunk is das gewichee Miel aus den q +1 Rauschweren zu den Zeipunken q,,: q j j j1 r r 2 mi Rauschweren r i wobei Er ( ) 0 und Var( r ). Ziel: Berechnung der Gewiche j. i r i r 19

Sequenzvorhersage: Moving-Average-Prozess Beispiel: i Ein Eisverkäufer möche Verkaufszahlen von Eiscreme vorhersagen. Nur bisherige Verkaufszahlen gegeben. Annahme: Kunden essen nur Eis wenn in den lezen Tagen die Sonne of zu sehen war. Modell: (Unbeobachee) Rauschwere r sind die Sonnensunden pro Tag normier auf Mielwer 0. Beispiel für Modell mi Modellparameern: r 0,8r 0,5r 0, 2r 1 2 3 20

Sequenzvorhersage: Moving-Average-Prozess Berechnung der Gewiche j am Beispiel i eines MA(1)-Prozesses: r r 1 1 Umformung des Prozesses ergib: r r j j 1 j1 r j j 1 j 11 r j 2 r r j1 j 1 1 j 2 r 1 1 r r j j 1 j1 j1 rj α 1 1 2 i0 r j 1 j1 1 j2 Idee: Minimieren der Varianz der Rauschfolge 2 Var( r ) mi Mielwer Er ( ) 0: r α * 1 arg min α rj r arg minrjα 2 2 j1 α j1 i ji Opimierungs- krierium 21

Sequenzvorhersage: Moving-Average-Prozess Ieraives Lösen des Minimierungsproblems i i mi 0 0 Sarlösung r 0 j 1... und 0 1.... j j j q Taylor-Approimaion der Rauscherme r j in der l-en Ieraion: l 1 ( ) l l T r l j α rj r j α αα Gradien von r j an der Selle l Minimieren der Varianz durch Null-Sezen der 1 Ableiung 2 l l rj ( α ) l minr 0 ( und Besimmen 1 j α α ) l von l+1 j1 j1 α. Wiederholung bis konvergier. 22

Sequenzvorhersage: Auoregressiver Prozess Annahmen: Aufenhalsor zum Zeipunk is die Summe aus dem Rauschwer zum Zeipunk und dem gewicheen Miel der p Aufenhalsore zu den Zeipunken p,, 1: r j j j1 p 2 mi Rauschweren r wobei Er ( ) 0 und Var( r ). Ziel: Berechnung der Gewiche β j. r 23

Sequenzvorhersage: Auoregressiver Prozess Beispiel: i Ein Eisverkäufer möche Verkaufszahlen von Eiscreme vorhersagen. Nur bisherige Verkaufszahlen gegeben. Annahme: Kunden essen nur Eis wenn sie in den lezen Tagen wenig Eis gegessen haben. Modell: Verkaufszahl is nur abhängig von den vorherigen Verkaufszahlen und einem Rauschwer r (Laune der Kunden). Beispiel für Modell mi Modellparameern: r 0,7 0,6 0,1 1 2 3 24

Sequenzvorhersage: Auoregressiver Prozess Berechnung der Gewiche j eines AR-Prozesses: p r j j j1 Idee: Minimieren des mileren quadraischen Fehlers. β * 1 2 2 p p arg min i ri i arg min i j j ji j β p 1 ip1 j1 β ip1 j1 Erwarungswer Null & konsane Varianz β * 1 1 1 1 p p p p 2 p 1 p 2 2 arg min β n 1 n 2 n np p 2 β Ay * + Pseudo-Inverse von A y A 25

Sequenzvorhersage: Auoregressiver Moving-Average-Prozess Moivaion: i Fas jeder endliche Daensaz gu an MA- oder AR-Modell mi hoher Ordnung anpassbar. Je größer die Ordnung, deso mehr Parameer. Ziel: Modell mi möglichs wenigen Parameern welches zudem reale Bedeuung (Inerpreaion) ha. Idee: Kombinaion von MA- und AR-Modellen zu ARMA(p,q)-Prozess. q r r j j j j j1 j1 p 26

Sequenzvorhersage: Auoregressiver Moving-Average-Prozess Überlagerungssaz von ARMA-Prozessen: und y seien zwei unabhängige ARMA-Prozesse der Ordnung (p 1,q 1 ) und (p 2,q 2 ). Summe z = + y is wieder ein ARMA-Prozess der Ordnung (p,q). Für AR-Ordung gil: p p 1 + p 2 Für MA-Ordung gil: q ma(p 1 + q 2, p 2 + q 1 ) Folgerung: Summe zweier MA-Prozesse ergib wieder MA-Prozess. Summe zweier AR-Prozesse ergib ARMA-Prozess. 27

Sequenzvorhersage: Auoregressiver Moving-Average-Prozess Beispiel: i Vorhersage der Werbeausgaben b zweier konkurrierender Unernehmen. Nur bisherige Werbeausgaben und y gegeben. Modell: Werbeausgabe is abhängig von der vorherigen Werbeausgabe des Konkurrenen y -1 und einem Rauschwer. Werbeausgabe y is abhängig von der vorherigen Werbeausgabe des Konkurrenen -1 und einem Rauschwer. r y 1 1 y r 1 1 r r r r 1 1 1 2 1 1 2 2 ARMA(2,1)-Prozess 28

Sequenzvorhersage: Auoregressiver Moving-Average-Prozess Berechnung der Gewiche j und j eines ARMA- Prozesses analog zu MA-Prozessen. Erweierungen von ARMA-Prozessen: ARIMA: Is nach d-maligem Anwenden des Differenzen- filers ein saionärer ARMA(p,q) q)-prozess, so bezeichne man den Prozess als ARIMA(p,d,q)-Prozess. ARMAX: Abhängigkeien zwischen den Rauschweren. 29

Sequenzvorhersage: Auoregressiver Moving-Average-Prozess Vorhersage miels angepassem ARMA-Prozess (Prognose für +h ):, -1, 1 ensprechen den asächlichen Beobachungen. +h, +1 werden durch ihre Prognosen ersez. Sörerme r, r -1 1, r r 1 ensprechen den Prognosefehlern der 1-Schriprognosen in der Vergangenhei. Sörungen r +h, r +1 werden durch ihren Erwarungswer Null ersez. 30

Lernen aus sequenziellen Daen: Problemsellung Gegeben: sequenzielle Trainingsdaen i mi bekannen Zielaribuen (gelabele Daen). Eingabe: Sequenz von Aribu-Belegungen. Ausgabe: Belegung des/der Zielaribu(e) y. Gesuch: Modell f : y. Ansaz: Verwendung von Kernel-Modellen basierend auf Sequenz-Kernel. Quadraische Euklidische Disanz (RBF-Kernel). Dynamic Time Warping (DTW-Kernel). Ediierdisanz. 31

Lernen aus sequenziellen Daen: Quadraische Euklidische Disanz Für numerische Aribue. Sequenzen als Vekoren auffassen und quadraischen euklidischen Absand besimmen: 2 RBF (, y) ( i i ) RBF (, y) ep RBF (, y) i 1 D y k D Verschobene/gedehne Moive werden nich berücksichig. 32

Lernen aus sequenziellen Daen: Dynamic Time Warping Für numerische Aribue. Zuordungsfunkionen () i [1, ] und () i [1, ]. DTW-Disanz is Minimum des verschobenen (quadraischen euklidischen) Absands: 2 DTW ( y, ) min ( () ()) (, ) ep (, ), i y i DTW y DTW y y i1 D y k D y y 33

Lernen aus sequenziellen Daen: Dynamic Time Warping Berechnung mi dynamischer Programmierung, rekursive Definiion: Sei ( i, j) minimale (verschobene) quadriere euklidische Disanz bis zu den Zeipunken i und j: 2 (, i j) ( y ) min ( i1, j1), ( i1, j), (, i j1) Algorihmus: i j DTW(Sequenzen und y) Seze (0,0) 0) 0, i i, j ( i,0), (0, j) FOR i = 1 FOR j = 1 y 2 ( i, j) ( i yj) min ( i 1, j 1), ( i 1, j ), ( i, j 1) RETURN (, ) y 34

Lernen aus sequenziellen Daen: Ediierdisanz Für nominale und ordinale Aribue (Sonderform von Dynamic Time Warping). Ediierdisanz is i minimale ii Anzahl an Operaionen (Einfügen, Löschen, Ersezen) um zwei Sequenzen ineinander zu überführen. Berechnung mi dynamischer Programmierung, rekursive Definiion: Sei (, i j) minimale Ediierdisanz zu den Zeipunken i und j: ( i, j) y min ( i1, j1), ( i1, j), ( i, j1) i j 35

Zusammenfassung Zahlreiche h Problemsellungen/Anwendungsgebiee ll bi Charakerisierung, Visualisierung, Beschreibung. Lernen von/aus sequenziellen Daen. Modellierung direker Abhängigkeien (Markov-Kee). Modellierung indireker Abhängigkeien i (HMM). Vorhersage univariaer Sequenzen durch sochasische Prozesse (z.b. MA, AR, ARMA usw.) Sequenz-Kernel (z.b. DTW). 36