Methode der kleinsten Quadrate DSV2, 2007, Least-Squares, Rumc, 1
|
|
- Käte Walter
- vor 6 Jahren
- Abrufe
Transkript
1 Methode der kleinsten Quadrate DSV2, 2007, Least-Squares, Rumc, 1 Problem der linearen Annäherung im Skalarprodukt-Raum Finde für einen beliebigen Vektor y eine Linearkombination y e der Vektoren 1, 2,..., M, so dass der Fehlervektor e = y y e minimale Länge hat bzw. die Summe der Fehlerquadrate der Komponenten II y y e II 2 = Σ n=1,...,n Ie n I 2 minimal ist (Least-Squares bzw. LS-Lösung). Beispiel y gegeben 2 y = = = e y e LS-Lösung 2 y e = 2 0 = minimiert II y y e II 2
2 Orthogonalitätsprinzip DSV2, 2007, Least-Squares, Rumc, 2 Alternative Problemformulierung Finde für jeden N1-Spaltenvektor y = [y 1,,y N ] T die Linearkombination y e = b 1 1 b M M = A b bzw. den optimalen M1-Koeffizientenvektor b, so dass der Fehlervektor e = y - y e minimale Länge hat. A = [ M ] nennt man Datenmatri und b = [ b 1... b M ] T Gewichts- oder Koeffizientenvektor. Orthogonalitätsprinzip Die Linearkombination y e = A b minimiert genau dann die Summe der Fehlerquadrate II y y e II 2, wenn der Fehlervektor e senkrecht auf allen Datenvektoren m, m = 1,...,M, steht, d.h. e orthogonal zu allen m ist, d.h. für alle Skalarprodukte gilt ( m ) T e = 0.
3 Normalgleichung DSV2, 2007, Least-Squares, Rumc, 3 Orthogonalitätsprinzip in Matriform A T e = 0, Normalgleichung ( 1 ) T A T = ( M ) T e = y - A b oben einsetzen gibt A T (y - A b LS ) = 0 Bedingung für optimale Koeffizienten wenn A T A invertierbar ist A T A b LS = A T y b LS = (A T A) -1 AT y deterministisches Gegenstück zum Wienerfilter Aufgabe überprüfe b LS im Beispiel auf Folie 1 wenn A T A nicht invertierbar ist b opt = A # y A # ist die Moore-Penrose-Pseudoinverse von A Matlab pinv(), Berechnung via Singulärwert-Zerlegung typisch Anzahl -Vektoren M < Dimension N
4 Einfache lineare Regression DSV2, 2007, Least-Squares, Rumc, 4 Problem N verrauschte Messwerte y n = β 1 β 2 n z n, n = 1,,N Annahmen zum Rauschen z n sind unkorreliert und E{(z n ) 2 } = σ 2 Finde b 1 und b 2 so dass Σ n Iy n (b 1 b 2 n )I 2 minimal ist Beispiel y e4 Lineares Modell β 1 = 0, β 2 = 0.75 Rauschen AWGN mit σ = 0.2 T = [ ] y T = [ ] y e1 y e2 y e3 Lösungsansatz y e = A b = b LS-Lösung Ursprungsgerade mit Steigung b LS = Matlab bls = regress(y,)
5 Mehrfache lineare Regression DSV2, 2007, Least-Squares, Rumc, 5 Problem N Messwerte y n = β 0 β 1 1n β M Mn z n, n = 1,,N Annahmen zum Rauschen z n sind unkorreliert und E{(z n ) 2 } = σ 2 Finde b so dass Σ n Iy n (b 0 b 1 1n b M Mn )I 2 minimal ist LS-Lösung b LS muss die Normalgleichung auf Folie 3 erfüllen. Die Datenmatri A sieht wie folgt aus A = N M1 MN
6 LS-Schätzung mit FIR-Filter DSV2, 2007, Least-Squares, Rumc, 6 Schätzproblem mit FIR-Filter [n] b 0 [n-1] b 1 b M-1 b M [n-m] desired signal d[n] LS-Gütefunktion y[n] - minimiere J N (b) = Σ N n=m e 2 [n] Kovarianz-Methode keine Annahme über Daten ausserhalb [0,N] es gibt andere Methoden mit anderen Annahmen e[n] estimation error (Residuum) FIR-Filterung y[m] 1] y[n] y[m = [M] [M 1] [N] [M 1] [M] [N 1] [0] [1] [N M] b b b 0 1 M y = A b
7 LS-Schätzung mit FIR-Filter DSV2, 2007, Least-Squares, Rumc, 7 Fehler-Vektor e = d -y d = [ d[m] d[m1]... d[n] ] T LS-Lösung b LS = (A T A) -1 AT d bzw. b LS = A # d optimal bezüglich der bis zum Zeitpunkt N vorhandenen Daten deterministisches Analogon zum Wiener-Filter stationäre (ergodische) Umgebung lim N-> b LS = b MMSE schneller Recursive Least-Squares- (RLS)-Algorithmus eisitiert oft aber auch blockweise Verarbeitung 1. Berechnung der LS-Koeffizienten b LS = A # d 2. FIR-Filterung (z.b. zur Fehlerbestimmung)
8 Lineare Prädiktion DSV2, 2009, Least-Squares, Rumc, 8 Analysefilter A(z) = 1-b 1 - -b M [n] [n-1] [n-m] b 1 b 2 b M-1 b M d[n] y[n] - e[n] e[n] Synthesefilter H(z) = 1/A(z) = 1 / (1-b 1 - -b M ) Allpolfilter [n]
9 Beispiel Lineare Prädiktion DSV2, 2007, Least-Squares, Rumc, 9 Lineare Prädiktion eines Sinus-Signals [n] = sin(2π f 0 nt s ) [n] [n-1] [n-2] b 1 b 2 d[n] y[n] - Fehlersignal e[n] Resultat (vgl. Uebungsaufgabe) Der LS-Prädiktor mit 2 Koeffizienten kann [n] perfekt schätzen! Analyse- und Synthese-Filter Analyse E(z) = X(z) A(z) wobei A(z) = 1-b 1LS -b 2LS z -2 Synthese X(z) = E(z) H(z) wobei H(z) = 1/A(z) ein Allpol-Filter ist
10 Beispiel Lineare Prädiktion DSV2, 2007, Least-Squares, Rumc, 10 e[n]=0 [n] = sin(2π f 0 nt s ), n 2 [-1] = sin(2π f 0 /f s ) b 1LS [-2] = 0 b 2LS IIR-Filter H(z) = b 1LS -b 2LS z -2 generiert Sinus mit Frequenz f 0 wenn die Anfangswerte [-1] [-2] richtig gewählt worden sind. (Achtung Numerik)
Kapitel 10: Methode der kleinsten Quadrate
ZHAW, DSV2, 2009, Rumc, 0- Inhaltsverzeichnis Kapitel 0: Methode der kleinsten Quadrate. EINLEITUNG... 2. NORMALGLEICHUNG... 2 3. LINEARE REGRESSION... 5 3. LINEARE REGRESSION... 5 4. LEAST-SQUARES FIR-FILTER...
MehrÜbung 7: Methode der kleinsten Quadrate
ZHAW, DSV2, 2007, Rumc, 1/8 Übung 7: Methode der kleinsten Quadrate Aufgabe 1: Lineare Annäherung im Skalarprodukt-Raum. Finden Sie für den Vektor y = [2 2 2] T eine Linearkombination y e der Vektoren
MehrMethode der kleinsten Quadrate
Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,
MehrKapitel 8: Zeitdiskrete Zufallssignale
ZHAW, DSV2, 2007, Rumc, 8-1 Kapitel 8: Zeitdiskrete Zufallssignale Inhaltsverzeichnis 1. STOCHASTISCHER PROZESS...1 2. STATISTISCHE EIGENSCHAFTEN EINER ZUFALLSVARIABLEN...2 3. STATISTISCHE EIGENSCHAFTEN
MehrAdaptive LMS-Filter DSV, 2005/10, Rur, adaptive LMS-Filter, 1
Adaptive LMSFilter DSV, 2005/10, Rur, adaptive LMSFilter, 1 Ein Filter ist ein zeitvariantes System. kann Filterparameter an unbekannte Anforderungen anpassen mit rekursivem AdaptationsAlgorithmus (selfdesigning)
MehrKapitel 2 Kurvenanpassung
Kapitel 2 Kurvenanpassung 2 2 2 Kurvenanpassung 2.1 Approximation... 26 2.1.1 Approximation mit orthonormalen Funktionensystemen.. 26 2.1.1.1 Approximation mit der Fourier-Reihe... 29 2.1.1.2 Approximation
MehrStatistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536
fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
Mehr10.2 Linearkombinationen
147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition
MehrInhaltsverzeichnis. Daniel von Grünigen. Digitale Signalverarbeitung. mit einer Einführung in die kontinuierlichen Signale und Systeme
Inhaltsverzeichnis Daniel von Grünigen Digitale Signalverarbeitung mit einer Einführung in die kontinuierlichen Signale und Systeme ISBN (Buch): 978-3-446-44079-1 ISBN (E-Book): 978-3-446-43991-7 Weitere
MehrKapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell
Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften
MehrLineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte
Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)
MehrÜberbestimmte Gleichungssysteme, Regression
Überbestimmte Gleichungssysteme, Regression 8. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas MUL 16. Mai 2013 C. Brand, E. Hausenblas 8. Vorlesung 1 / 19 Gliederung 1 Überbestimmte
MehrComputergrafik Inhalt Achtung! Kapitel ist relevant für CG-2!
Computergrafik Inhalt Achtung! Kapitel ist relevant für CG-2! 0 2 3 4 5 6 7 8 Historie, Überblick, Beispiele Begriffe und Grundlagen Objekttransformationen Objektrepräsentation und -Modellierung Sichttransformationen
Mehr3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
MehrÜberbestimmte Gleichungssysteme
Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare
Mehr1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
MehrAufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010
Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und
MehrLineare Algebra. 10. Übungsstunde. Steven Battilana.
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,
MehrDer CG-Algorithmus (Zusammenfassung)
Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine
MehrLineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.
Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion
Mehr12. R n als EUKLIDISCHER VEKTORRAUM
12. R n als EUKLIDISCHER VEKTORRAUM 1 Orthogonalität in der Ebene. Die Vektoren in der Ebene, die (im üblichen Sinne) senkrecht zu einem Vektor x = (x 1, x 2 ) T stehen, lassen sich leicht angeben. Sie
Mehrd) Produkte orthogonaler Matrizen sind wieder orthogonal.
Die orthogonale Matrizen Definition: Eine Matrix Q R n n heißt orthogonal, falls QQ T = Q T Q = I gilt. Die Eigenschaften orthogonaler Matrizen: a) det(q) = ±1; b) Qx 2 = x 2 für alle x R n, also Q 2 =
Mehr, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.
154 e Gegeben sind die Vektoren v 1 = ( 10 1, v = ( 10 1. Sei V 1 = v 1 der von v 1 aufgespannte Vektorraum in R 3. 1 Dann besteht V 1 aus allen Vielfachen von v 1, V 1 = { c v 1 c R }. ( 0 ( 01, v 3 =
MehrDigitale Signalverarbeitung
Daniel Ch. von Grünigen Digitale Signalverarbeitung mit einer Einführung in die kontinuierlichen Signale und Systeme 4. Auflage Mit 222 Bildern, 91 Beispielen, 80 Aufgaben sowie einer CD-ROM mit Lösungen
MehrDabei bezeichnet x die Einflussgrösse (Regressor), y die Zielvariable (die eine Folge der Ursache x ist) und die Störung. Die n = 3 Beobachtungen
Lineare Regression und Matrizen. Einführendes Beispiel Der im Kapitel Skalarprodukt gewählte Lösungsweg für das Problem der linearen Regression kann auch mit Matrizen formuliert werden. Die Idee wird zunächst
MehrHilfsblätter Lineare Algebra
Hilfsblätter Lineare Algebra Sebastian Suchanek unter Mithilfe von Klaus Flittner Matthias Staab c 2002 by Sebastian Suchanek Printed with L A TEX Inhaltsverzeichnis 1 Vektoren 1 11 Norm 1 12 Addition,
MehrStatistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 20
Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 20 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)
MehrÜbung 3: Einfache Graphiken und Näherungen durch Regression
Übung 3: Einfache Graphiken und Näherungen durch Regression M. Schlup, 9. August 010 Aufgabe 1 Einfache Graphik Für die abgegebene Leistung P = UI eines linearen, aktiven Zweipols mit Leerlaufspannung
MehrDie Datenmatrix für Überwachtes Lernen
Die Datenmatrix für Überwachtes Lernen X j j-te Eingangsvariable X = (X 0,..., X M 1 ) T Vektor von Eingangsvariablen M Anzahl der Eingangsvariablen N Anzahl der Datenpunkte Y Ausgangsvariable x i = (x
MehrGrundlagen der Statistischen Nachrichtentheorie
Grundlagen der Statistischen Nachrichtentheorie - Prof. Dr.-Ing. Thomas Sikora - Name:............................ Vorname:......................... Matr.Nr:........................... Ich bin mit der
MehrVom Zeit- zum Spektralbereich: Fourier-Analyse
Vom Zeit- zum Spektralbereich: Fourier-Analyse Ergebnis der Analyse Zerlegung eines beliebigen periodischen Signals in einem festen Zeitfenster in eine Summe von Sinoidalschwingungen Ermittlung der Amplituden
MehrOrthonormalbasis. Orthogonalentwicklung
Orthonormalbasis Eine Orthogonal- oder Orthonormalbasis des R n (oder eines Teilraums) ist eine Basis {v,..., v n } mit v i = und v i, v j = für i j, d. h. alle Basisvektoren haben Norm und stehen senkrecht
MehrÜberbestimmte Systeme, Approximation
Überbestimmte Systeme, Approximation 7. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 3. April 2014 Gliederung 1 Überbestimmte Systeme Wiederholung:
MehrÜbung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010
MehrKapitel 2.1: Die stochastische Sicht auf Signale Georg Dorffner 67
Kapitel 2.1: Die stochastische Sicht auf Signale 215 Georg Dorffner 67 Stochastische Prozesse Stochastische Prozesse sind von Zufall geprägte Zeitreihen x n f x, n 1 xn2,... n vorhersagbarer Teil, Signal
MehrLineare Prädiktion. Stephan Arlinghaus 9. November 2006
Stephan Arlinghaus 9. November 2006 Gliederung 1 Einleitung Sprachanalyse... etwas Mathematik 2 Das autoregressive Modell (AR) (LP) 3 Kovarianzmethode Autokorrelationsmethode Methodenvergleich 4 5 Der
MehrLineare Algebra II 8. Übungsblatt
Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.
MehrVektorräume. 1. v + w = w + v (Kommutativität der Vektoraddition)
Vektorräume In vielen physikalischen Betrachtungen treten Größen auf, die nicht nur durch ihren Zahlenwert charakterisiert werden, sondern auch durch ihre Richtung Man nennt sie vektorielle Größen im Gegensatz
MehrSerie 10: Inverse Matrix und Determinante
D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die
MehrMatrixzerlegungen. Überbestimmte Systeme
Matrixzerlegungen. Überbestimmte Systeme 6. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 27. März 2014 Gliederung 1 Matrixzerlegungen Links-Rechts-Zerlegung
MehrStatistik, Datenanalyse und Simulation
Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 31. Mai 2011 4. Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der
MehrMultiple Regressionsanalyse - Kurzabriss
Multiple Regressionsanalyse - Kurzabriss Ziele: Schätzung eines Kriteriums aus einer Linearkombination von Prädiktoren Meist zu Screening-Untersuchungen, um den Einfluß von vermuteten Ursachenvariablen
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
MehrLineare Regression. Volker Tresp
Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M
MehrDas (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell
1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs
MehrStatistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II
Statistik II Lineare Regressionsrechnung Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II - 09.06.2006 1 Mit der Kovarianz und dem Korrelationskoeffizienten können wir den statistischen
MehrWiederholung von Linearer Algebra und Differentialrechnung im R n
Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:
MehrLösung Semesterendprüfung (Nachprüfung)
MLAE Mathematik: Lineare Algebra für Ingenieure Frühlingssemester 6 Dr. Christoph Kirsch ZHAW Winterthur Lösung Semesterendprüfung (Nachprüfung Aufgabe : Aufgabe : a Gemäss Def. der Vorlesung müssen wir
Mehr2. Spezielle anwendungsrelevante Funktionen
2. Spezielle anwendungsrelevante Funktionen (1) Affin-lineare Funktionen Eine Funktion f : R R heißt konstant, wenn ein c R mit f (x) = c für alle x R existiert linear, wenn es ein a R mit f (x) = ax für
MehrP AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3
Matrixpotenzen In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden Ist die Matrix diagonalisierbar, dann kann diese Berechnung wie folgt vereinfacht werden Sei A eine diagonalisierbare
Mehr43 Unitäre Vektorräume
43 Unitäre Vektorräume 43 1 Zusammenfassung In diesem Paragrafen werden die gleichen Themen wie in 41 abgehandelt, jetzt allerdings für den komplexen Fall. Die Aussagen entsprechen sich weitgehend, daher
MehrInhaltsverzeichnis. 4 Statistik Einleitung Wahrscheinlichkeit Verteilungen Grundbegriffe 98
Inhaltsverzeichnis 1 Datenbehandlung und Programmierung 11 1.1 Information 11 1.2 Codierung 13 1.3 Informationsübertragung 17 1.4 Analogsignale - Abtasttheorem 18 1.5 Repräsentation numerischer Daten 20
MehrNumerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen
Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen
MehrBildverarbeitung: Filterung. D. Schlesinger () Bildverarbeitung: Filterung 1 / 17
Bildverarbeitung: Filterung D. Schlesinger () Bildverarbeitung: Filterung 1 / 17 Allgemeines Klassische Anwendung: Entrauschung (Fast) jeder Filter basiert auf einem Modell (Annahme): Signal + Rauschen
MehrGewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h
5. Die partielle Autokorrelationsfunktion 5.1 Definition, Berechnung, Schätzung Bisher: Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h ρ X (h) = Corr(X t, X
Mehr44 Orthogonale Matrizen
44 Orthogonale Matrizen 44.1 Motivation Im euklidischen Raum IR n haben wir gesehen, dass Orthonormalbasen zu besonders einfachen und schönen Beschreibungen führen. Wir wollen das Konzept der Orthonormalität
MehrVektoren und Matrizen
Universität Basel Wirtschaftswissenschaftliches Zentrum Vektoren und Matrizen Dr. Thomas Zehrt Inhalt: 1. Vektoren (a) Einführung (b) Linearkombinationen (c) Länge eines Vektors (d) Skalarprodukt (e) Geraden
MehrSeminar Optimierung - Approximation and fitting. Christian Bretzke
Seminar Optimierung - Approximation and fitting Christian Bretzke 1 Inhaltsverzeichnis 1 Norm Approximation 3 1.1 Verschiedene Interpretation.................................. 3 1.2 Gewichtete NAP........................................
MehrKAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten:
KAPITEL 4 Lineare Ausgleichsrechnung Beispiel 41 Das Ohmsche Gesetz: Eine Meßreihe von Daten: U = RI (U i, I i ) (Spannung, Stromstärke), i = 1,, m Aufgabe: man bestimme aus diesen Meßdaten den Widerstand
MehrAufgabenkomplex 3: Vektoren und Matrizen
Technische Universität Chemnitz 15. November 010 Fakultät für Mathematik Höhere Mathematik I.1 Aufgabenkomplex : Vektoren und Matrizen Letzter Abgabetermin: 9. Dezember 010 in Übung oder Briefkasten bei
MehrSerie 5. ETH Zürich - D-MAVT Lineare Algebra II. Prof. Norbert Hungerbühler
Prof. Norbert Hungerbühler Serie 5 ETH Zürich - D-MAVT Lineare Algebra II. a) Die Abbildung V n R n, v [v] B, die jedem Vektor seinen Koordinatenvektor bezüglich einer Basis B zuordnet, ist linear. Sei
MehrÜbungsblatt
Übungsblatt 3 3.5.27 ) Die folgenden vier Matrizen bilden eine Darstellung der Gruppe C 4 : E =, A =, B =, C = Zeigen Sie einige Gruppeneigenschaften: a) Abgeschlossenheit: Berechnen Sie alle möglichen
MehrÜbung 5: Zufallssignale
ZHAW, DSV2, 2009, Rumc, 1 Übung 5: Zufallssignale Aufgabe 1: Analyse eines Rauschsignals. Betrachten und analysieren Sie die Rauschsignale Z w [n] und Z c [n] am Eingang und am Ausgang des folgen FIR-Filters.
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrSkalarprodukt. Das gewöhnliche Skalarprodukt ist für reelle n-tupel folgendermaßen erklärt: Sind. und v := reelle n-tupel, dann ist
Orthogonalität p. 1 Skalarprodukt Das gewöhnliche Skalarprodukt ist für reelle n-tupel folgendermaßen erklärt: Sind u := u 1 u 2. u n reelle n-tupel, dann ist und v := v 1 v 2. v n u v := u 1 v 1 + u 2
MehrGrundlagen der Statistischen Nachrichtentheorie
- Prof. Dr.-Ing. Thomas Sikora - Name:............................ Vorname:......................... Matr.Nr:........................... Ich bin mit der Veröffentlichung des Klausurergebnisses unter meiner
Mehr7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012)
Technische Universität München Zentrum Mathematik, M1 Prof. Dr. Boris Vexler Dr. Ira Neitzel Dipl.-Math. Alana Kirchner 7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Diese Auswahl
MehrVektoren. Kapitel 13 Vektoren. Mathematischer Vorkurs TU Dortmund Seite 114 / 1
Vektoren Kapitel 13 Vektoren Mathematischer Vorkurs TU Dortmund Seite 114 / 1 Vektoren 131 Denition: Vektoren im Zahlenraum Ein Vektor (im Zahlenraum) mit n Komponenten ist ein n-tupel reeller Zahlen,
Mehr10 ARIMA-Modelle für nicht-stationäre Zeitreihen
10 ARIMA-Modelle für nicht-stationäre Zeitreihen In diesem Abschnitt untersuchen wir einige praktische Aspekte bei der Wahl eines geeigneten Modells für eine beobachtete Zeitreihe X 1,...,X n. Falls die
MehrTests einzelner linearer Hypothesen I
4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen
Mehr9. Vorlesung Lineare Algebra, SVD und LSI
9. Vorlesung Lineare Algebra, SVD und LSI Grundlagen lineare Algebra Vektornorm, Matrixnorm Eigenvektoren und Werte Lineare Unabhängigkeit, Orthogonale Matrizen SVD, Singulärwerte und Matrixzerlegung LSI:Latent
MehrRückwärts-Einsetzen. Bei einem linearen Gleichungssystem in oberer Dreiecksform, nacheinander bestimmt werden: r n,n x n = b n. = x n = b n /r n,n
Rückwärts-Einsetzen Bei einem linearen Gleichungssystem in oberer Dreiecksform, r 1,1 r 1,n x 1 b 1..... =., } 0 {{ r n,n } x n b n R mit det R = r 1,1 r n,n 0 können die Unbekannten x n,..., x 1 nacheinander
Mehrkleinsten Quadraten Session 4: Angewandte Geodäsie und GNSS Geodätische Woche, 29. September 2011, Nürnberg
von von Session 4: Angewandte Geodäsie und GNSS Corinna Harmening Jens-André Geodätisches Institut Leibniz Universität Hannover Geodätische Woche, 29. September 2011, Nürnberg 1 / 12 Motivation von Abb.
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
MehrTest = 28 Punkte. 1: 2: 3: 4: 5: Punkte: Note:
ZHAW, DSV1, FS2010, Rumc, 1 Test 1 5 + 5 + 5 + 8 + 5 = 28 Punkte Name: Vorname: 1: 2: : 4: 5: Punkte: Note: Aufgabe 1: AD-DA-System. + 1 + 1 = 5 Punkte Das analoge Signal x a (t) = cos(2πf 0 t), f 0 =750
Mehr4 Lineare Abbildungen
17. November 2008 34 4 Lineare Abbildungen 4.1 Lineare Abbildung: Eine Funktion f : R n R m heißt lineare Abbildung von R n nach R m, wenn für alle x 1, x 2 und alle α R gilt f(αx 1 ) = αf(x 1 ) f(x 1
MehrDas magische Quadrat für stochastische Prozesse
. Geodätische Woche Das magische Quadrat für stochastische Prozesse 1 Institut für Geodäsie und Geoinformation Professur für Theoretische Geodäsie - Universität Bonn Ina Krasbutter, Boris Kargoll, Wolf-Dieter
MehrKapitel 1. Matrizen und lineare Gleichungssysteme. 1.1 Matrizenkalkül (Vektorraum M(n,m); Matrixmultiplikation;
Kapitel 1 Matrizen und lineare Gleichungssysteme 11 Matrizenkalkül (Vektorraum M(n,m; Matrixmultiplikation; Transposition; Spalten- und Zeilenvektoren Matrizen sind im Prinzip schon bei der schematischen
MehrÜbersicht Kapitel 9. Vektorräume
Vektorräume Definition und Geometrie von Vektoren Übersicht Kapitel 9 Vektorräume 9.1 Definition und Geometrie von Vektoren 9.2 Teilräume 9.3 Linearkombinationen und Erzeugendensysteme 9.4 Lineare Abhängigkeiten
MehrBeispiele. Grundlagen. Kompakte Operatoren. Regularisierungsoperatoren
Beispiele Grundlagen Kompakte Operatoren Regularisierungsoperatoren Transportgleichung Dierenzieren ( nx ) (f δ n ) (x) = f (x) + n cos, x [0, 1], δ Regularisierung!! Inverse Wärmeleitung Durc f (f δ n
Mehr[5], [0] v 4 = + λ 3
Aufgabe 9. Basen von Untervektorräumen. Bestimmen Sie Basen von den folgenden Untervektorräumen U K des K :. K = R und U R = span,,,,,.. K = C und U C = span + i, 6, i. i i + 0. K = Z/7Z und U Z/7Z = span
MehrAnhang B. Regression
Anhang B Regression Dieser Anhang rekapituliert die in der Analysis und Statistik wohlbekannte Methode der kleinsten Quadrate, auch Regression genannt, zur Bestimmung von Ausgleichsgeraden Regressionsgeraden
MehrLineare Abbildungen L : R 2 R 2
Lineare Abbildungen Lineare Abbildungen L : R 2 R 2 Eine Abbildung Eine Abbildung ordnet jedem Element aus einer Menge A Eine Abbildung ordnet jedem Element aus einer Menge A ein Element aus einer Menge
MehrAusgewählte Lösungen zu den Übungsblättern 9-10
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt
MehrSkalarprodukt und Orthogonalität
Skalarprodukt und Orthogonalität Skalarprodukt und Orthogonalität in R n Wir erinnern an das euklidische Skalarprodukt im R 2 : Wir erinnern an das euklidische Skalarprodukt im R 2 : < a, b >:= α 1 β 1
MehrSparse Hauptkomponentenanalyse
Sparse Referent: Thomas Klein-Heßling LMU München 20. Januar 2017 1 / 36 1 Einführung 2 3 4 5 2 / 36 Einführung Ziel: vorhandene Datenmenge verstehen Daten komprimieren Bei der Sparse (SPCA) handelt es
MehrSingulärwertzerlegung
LMU München Centrum für Informations- und Sprachverarbeitung WS 10-11: 13.12.2010 HS Matrixmethoden im Textmining Dozent: Prof.Dr. Klaus U. Schulz Referat von: Erzsébet Galgóczy Singulärwertzerlegung 1
MehrKlausur zur Vorlesung Höhere Mathematik I
Name: 30. Januar 200,.00-3.00 Uhr Allgemeine Hinweise: Dauer der Klausur: Zugelassene Hilfsmittel: 20 min, 2 Zeitstunden Skript, Vorlesungsmitschrift Schreiben Sie bitte auf dieses Deckblatt oben rechts
MehrMatrizen, Determinanten, lineare Gleichungssysteme
Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n
MehrProf. Dr. Stefan Weinzierl SNR V = P signal P noise
Audiotechnik II Digitale Audiotechnik: 5. Tutorium Prof. Dr. Stefan Weinzierl 0.11.01 Musterlösung: 1. November 01, 15:50 1 Dither a) Leiten sie den SNR eines idealen, linearen -bit Wandlers her. Nehmen
MehrMatrizen. Stefan Keppeler. 19. & 26. November Mathematik I für Biologen, Geowissenschaftler und Geoökologen
Mathematik I für Biologen, Geowissenschaftler und Geoökologen 19. & 26. November 2008 Definition, Summe & Produkt Transponierte Beispiel: Einwohnerzahlen Leslie-Populationsmodell Beispiel Addition Multiplikation
Mehr2. Stochastische ökonometrische Modelle. - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen
.1. Stochastische ökonometrische Modelle.1 Einführung Ziele: - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen - Numerische Konkretisierung ökonomischer Modelle und deren Analse. . Variierende
MehrLösungen Serie 6 (Vektorräume, Skalarprodukt)
Fachhochschule Nordwestschweiz (FHNW Hochschule für Technik Institut für Geistes- und Naturwissenschaft Lösungen Serie 6 (Vektorräume, Skalarprodukt Dozent: Roger Burkhardt Klasse: Studiengang ST Büro:
MehrHöhere Mathematik für Ingenieure Band II
Teubner-Ingenieurmathematik Höhere Mathematik für Ingenieure Band II Lineare Algebra Bearbeitet von Klemens Burg, Herbert Haf, Friedrich Wille, Andreas Meister 1. Auflage 2012. Taschenbuch. xvii, 417 S.
MehrKapitel 2: Fourieranalyse. Analoge, periodische Signale
ZHW, NM, 5/, Rur Kapitel : Fourieranalyse Analoge, periodische Signale Inhaltsverzeichnis. EINLEIUNG.... LINEARER MIELWER... 3. LEISUNG UND EFFEKIVWER...3 4. WINKELFUNKIONEN...3 5. FOURIERREIHE...4 6.
MehrLineare Algebra und Numerische Mathematik für D-BAUG
P Grohs T Welti F Weber Herbstsemester 25 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 8 Aufgabe 8 Basen für Bild und Kern Gegeben sind die beiden 2 Matrizen:
MehrÜberbestimmte lineare Gleichungssysteme
Überbestimmte lineare Gleichungssysteme Fakultät Grundlagen September 2009 Fakultät Grundlagen Überbestimmte lineare Gleichungssysteme Übersicht 1 2 Fakultät Grundlagen Überbestimmte lineare Gleichungssysteme
MehrProf. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006
Empirische Softwaretechnik Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 1 Experiment zur Vererbungstiefe Softwaretechnik: die Vererbungstiefe ist kein guter Schätzer für den Wartungsaufwand
Mehr& sind die Vektorkomponenten von und sind die Vektorkoordinaten von. A x. a) Der Betrag eines Vektors
Einführu hnung Was ist ein Vektor? In Bereichen der Naturwissenschaften treten Größen auf, die nicht nur durch eine Zahlenangabe dargestellt werden können, wie Kraft oder Geschwindigkeit. Zur vollständigen
MehrLineare Gleichungssysteme und die Methode der kleinsten Quadrate
Ludwig-Maximilians-Universität München Department für Computerlinguistik WS 2010/11 Hauptseminar Matrixmethoden in Textmining Dozent: Prof. Dr. Klaus Schulz Referentin: Sarah Söhlemann Lineare Gleichungssysteme
Mehr