Datenmodelle, Regression
|
|
- Werner Sachs
- vor 5 Jahren
- Abrufe
Transkript
1 Achte Vorlesung, 15. Mai 2008, Inhalt Datenmodelle, Regression Anpassen einer Ausgleichsebene Polynomiale Regression rationale Approximation, Minimax-Näherung MATLAB: polyfit, basic fitting tool Regression mit anderen Basisfunktionen Spezielle Methoden zur linearen Regression (robuster Fit, andere Fehlernormen) 1
2 Lineares Modell in mehreren Variablen (siehe Üb-unterlagen!) Angenommen, eine Größe y hängt von zwei Parametern x 1 und x 2 ab. Folgende Messwerte liegen vor (Beispieldaten aus der Matlab-Hilfe): x 1 : x 2 : y : Wir nehmen ein lineares Modell y = a 0 + a 1 x 1 + a 2 x 2 an und setzen die gegebenen Datentripel ein führt auf ein System von 6 linearen Gleichungen in den 3 unbekannten Koeffizienten a 0, a 1, a 2. Kleinste-Quadrate-Lösung liefert Ebene mit bestmöglicher Anpassung an Daten 2
3 Lineares Modell: Magnetische Deklinationswerte in Österreich Wien 3 00 Eisenstadt 3 02 St.Pölten 2 54 Graz 2 47 Linz 2 33 Klagenfurt 2 30 Salzburg 2 15 Innsbruck 1 53 Bregenz 1 24 Daten: ZAMG Kleinste-Quadrate-Anpassung liefert Modell: δ = λ φ 3
4 Polynomiale Regression Gegeben: m + 1 Wertepaare (x i, y i ), i = 0,..., m Gesucht: p(x), ein Polynom n-ten Grades, n < m, so dass die Summe der Fehlerquadrate minimal wird. m i=0 (p(x i ) y i ) 2 Salopp formuliert: y = p(x) approximiert möglichst gut die Datenpunkte. 4
5 Anwendung: Approximation eines Oberflächen-Querschnittes, Erkennen von Oberflächen-Defekten MUL Dissertation Ingo Reindl, 2006 Pixeldaten aus Oberflächenerfassung der abgerundeten Kante eines rohgewalzten Stahlblocks Polynom Referenzquerschnitt Abweichg. Oberflächendefekte 5
6 Direkter Lösungsweg: Ansatz des Polynoms mit unbestimmten Koeffizienten p(x) = a 0 + a 1 x + a 2 x a n 1 x n 1 + a n x n. Einsetzen der gegebenen Wertepaare führt auf ein System von m linearen Gleichungen in den n+1 unbekannten Koeffizienten a 0, a 1,..., a n. Sofern n < m liegt in der Regel ein überbestimmtes System vor. Lösung nach der Methode der Normalengleichungen. Besser: Lösung durch QR-Zerlegung (Standardverfahren) 6
7 Formel für die Normalengleichungen Bei polynomialer Regression haben die Normalengleichungen spezielle Form; man kann die Koeffizienten direkt angeben. s 0 a 0 + s 1 a s n a n = t 0 s 1 a 0 + s 2 a s n+1 a n = t 1... s n a 0 + s n+1 a s 2n a n = t n mit s k = m x k i, t k = i=0 m x k i y i i=0 7
8 Spezialfall: Lineare Regression Anpassen einer Geraden an Datenpunkte. Die Ausgleichsgerade nach der Methode der kleinsten Quadrate lässt sich von den wenigen Ausreissern stark ablenken. Minimieren des absoluten Fehlers legt eine wesentlich plausiblere Gerade durch die Daten. 8
9 Was kann dabei schon passieren... Normalengleichungen für größere n schlecht konditioniert Abhilfe: Daten skalieren. Anderere Lösungswege (QR-Zerlegung, Singulärwertzerlegung), andere Ansatzfunktionen (Orthogonalpolynome) Methode der kleinsten Quadrate wird durch Ausreißer stark irritiert Abhilfe: Robuste Methoden, Minimierung der Summe der absoluten Fehler (Minimierung in der 1-Norm statt in der 2-Norm) 9
10 Statistische Zusammenhänge Kl. Quadr. liefern maximum likelihood-schätzung der Parameter wenn die Daten mit unabhängigen, zufälligen, normalverteilten Fehlern mit gleicher Standardabweichung behaftet sind. Ist C = (A T A) 1 die inverse Matrix des Systems der Normalengleichungen, und ist die Varianz der Daten gleich σ 2, so ist σ 2 C die Kovarianzmatrix der Parameter. 10
11 Total Least Squares für lin. Regression (mit SVD) Standardverfahren minimiert Summe der Abstandsquadrate in y-richtung TLS minimiert Quadratsumme der Normalabstände 1 Bestimme Schwerpunkt [ x, ȳ] der Daten. x = 1 x i, ȳ = 1 y i n n i=1,n Verschiebe die Daten i=1,n x i = x i x, y i = y i ȳ Bilde Singulärwertzerlegung U S V T = x 1 y 1.. x n y n TLS-Gerade geht durch den Schwerpunkt in Richtung des ersten Spaltenvektors von V. 11
12 Regression in MATLAB Die Vorlesung bringt Beispiele zur polynomialen Regression mit den Befehlen polyfit und polyval mit dem Basic-Fitting-Tool Fallstudie in der MATLAB-Hilfe 12
13 Approximation (polynomiale Regression) Datenpunkte sind gegeben. Ein Approximationspolynom vierten Grades modelliert den Verlauf der Daten ganz passabel. Es hängt vom Modell ab, ob es Sinn macht, mehr Parameter (höheren Grad) zu verwenden. Ein Polynom 15. Grades (16 freie Parameter) könnte die Daten exakt modellieren, aber... 13
14 Datenanpassung mit zu hohem Polynomgrad Der Fehler an den Datenpunkten verschwindet zwar, das Polynom oszilliert aber heftig. Typisch für Polynome hohen Grades. Nur sehr glatte Funktionen lassen sich gut durch Polynome hohen Grades gut annähern, und auch das nur in kleinen Bereichen (Beispiel: Potenzreihen) 14
15 Woher die Daten kommen Ob eine Approximation ausreichend gut ist, hängt unter anderem auch davon ab, was die Daten beschreiben sollen
Regression, Interpolation, numerische. Integration
,, numerische 9. Vorlesung 170004 Methoden I Clemens Brand 20. Mai 2010 Gliederung : Aufgabenstellung Gesucht ist ein Polynom, das die Datenpunkte möglichst gut approximiert Gegeben m+1 Wertepaare (x i,
MehrÜberbestimmte Systeme, Approximation
Überbestimmte Systeme, Approximation 7. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 3. April 2014 Gliederung 1 Überbestimmte Systeme Wiederholung:
MehrÜberbestimmte Systeme, Datenmodelle, Polynomiale Regression
Überbestimmte Systeme, Datenmodelle, Polynomiale Regression 6. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 26. April 2018 Überbestimmte Systeme,
MehrApproximation, Interpolation, numerische Integration
Approximation, Interpolation, numerische Integration 7. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 12. Mai 2016 Approximation, Interpolation, numerische
MehrÜberbestimmte Gleichungssysteme
Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare
MehrFinden Sie für diese Daten eine Anpassung der Form. t(d,t 0 ) = a 1 +a 2 d+a 3 T 0 +a 4 dt 0
170 00 Übungen zu Numerische Methoden I Siebente Übungseinheit 16., 17. und 18. Mai 2011 Inhalt der siebten Übungseinheit: Lineare Datenmodelle überbestimmte nichtlineare Systeme Basic Fitting Tool 7.1
Mehrd a Den drei Gleichungen entsprechen drei Kreise imr 2. Sie haben keinen gemeinsamen Schnittpunkt
G Siebte Übungseinheit Inhalt der siebten Übungseinheit: Überbestimmte nichtlineare Systeme MATLAB-Werkzeuge zum Anpassen von Funktionen an Daten Alternativen zur Minimierung der Fehlerquadrate: Robuste
Mehr2x + y = 19 4x + 4y = 13 4x y = 17
170 00 Übungen zu Numerische Methoden I Sechste Übungseinheit 1., 1. und 16. Mai 2012 Inhalt der sechsten Übungseinheit: Überbestimmte lineare Systeme Isolinien-Diagramme Lineare Datenmodelle Überbestimmte
MehrMathematik in den technischen Wissenschaften
Mathematik in den technischen Wissenschaften eine Themen-Auswahl Clemens Brand Montanuniversität Leoben AG-Tagung AHS Mathematik St. Pölten, 19. März 2014 Gliederung 1 Numerische Lineare Algebra Überbestimmte
MehrMatrixzerlegungen. Überbestimmte Systeme
Matrixzerlegungen. Überbestimmte Systeme 6. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 27. März 2014 Gliederung 1 Matrixzerlegungen Links-Rechts-Zerlegung
MehrAusgleichsproblem. Definition (1.0.3)
Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst
MehrInhalt der fünften Übungseinheit: Modelle an Daten anpassen Lineare Datenmodelle Nichtlineare Datenmodelle
E Fünfte Übungseinheit Inhalt der fünften Übungseinheit: Modelle an Daten anpassen Lineare Datenmodelle Nichtlineare Datenmodelle Der erste Abschnitt ist eine Schritt-für-Schritt-Anleitung, die Sie selbständig
MehrÜberbestimmte Systeme
5 Überbestimmte Systeme Ein lineares Gleichungssystem Ax = b mit mehr Gleichungen als Unbekannten heißt überbestimmt. In so einem Fall ist A eine n m-matrix mit n > m, also rechteckig, mit mehr Zeilen
MehrComputergrafik Inhalt Achtung! Kapitel ist relevant für CG-2!
Computergrafik Inhalt Achtung! Kapitel ist relevant für CG-2! 0 2 3 4 5 6 7 8 Historie, Überblick, Beispiele Begriffe und Grundlagen Objekttransformationen Objektrepräsentation und -Modellierung Sichttransformationen
MehrMatrix-Zerlegungen, überbestimmte Systeme, iterative Löser
Matrix-Zerlegungen, überbestimmte Systeme, iterative Löser 5. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 22. März 2018 Matrix-Zerlegungen, überbestimmte
MehrMatrixzerlegungen. 6. Vorlesung Numerische Methoden I. Clemens Brand. 2. April Nachträge und Wiederholung. Links-Rechts- Zerlegung
Matrixzerlegungen. 6. Vorlesung 170004 Numerische Methoden I Clemens Brand QR- QR- 2. April 2009 Gliederung Elimination faktorisiert A = L R QR- QR- QR- QR- Eine Zusammenfassung der Folien 6 14 der letzten
MehrTheorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte
Hochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann Probe-Klausur zur Vorlesung Ökonometrie Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte (die eigentliche Klausur wird
MehrStatistische Methoden
Modeling of Data / Maximum Likelyhood methods Institut für Experimentelle und Angewandte Physik Christian-Albrechts-Universität zu Kiel 22.05.2006 Datenmodellierung Messung vs Modell Optimierungsproblem:
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate
Mehr3. Lineare Ausgleichsrechnung
3 Lineare Ausgleichsrechnung 1 Ausgleichsrechnung (1) Definition 31 (Ausgleichsproblem) Gegeben sind n Wertepaare (x i,y i ), i = 1,,n mit x i x j für i j Gesucht ist eine stetige Funktion f, die in einem
MehrGliederung. Links-Rechts-Zerlegung Elimination faktorisiert A = L R. Determinante Inverse. Kleinste Quadrate. Lösung durch. Links-Rechts- Zerlegung
Matrixzerlegungen. 7. Vorlesung 170004 Numerische Methoden I Clemens Brand 29. April 2010 Gliederung Elimination faktorisiert A = L R Die A = L R Faktorisieren: Zerlege A in ein Produkt (einfacherer) Angenommen,
MehrNichtlineare Klassifikatoren
Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrHochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann. 8. Übungsblatt zur Vorlesung Ökonometrie
Hochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann 8. Übungsblatt zur Vorlesung Ökonometrie Aufgabe 1: In der Vorlesung haben wir das lineare Regressionsproblem als statistisches Problem formuliert:
MehrFehler- und Ausgleichsrechnung
Fehler- und Ausgleichsrechnung Daniel Gerth Daniel Gerth (JKU) Fehler- und Ausgleichsrechnung 1 / 12 Überblick Fehler- und Ausgleichsrechnung Dieses Kapitel erklärt: Wie man Ausgleichsrechnung betreibt
MehrEGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN
1 EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN UFBAU 1 Historie 2 Anwendungen / Ziele 3 Lineare Regression/ Beispiel KQ 4 Nichtlineare Regression 5 Eigenschaften der Schätzer istorie früheste Form
MehrLineare Algebra. 10. Übungsstunde. Steven Battilana.
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,
Mehr2. Spezielle anwendungsrelevante Funktionen
2. Spezielle anwendungsrelevante Funktionen (1) Affin-lineare Funktionen Eine Funktion f : R R heißt konstant, wenn ein c R mit f (x) = c für alle x R existiert linear, wenn es ein a R mit f (x) = ax für
Mehr(c) Gegeben sei der zweidimensionale Raum L mit den Basisfunktionen. [ φ i, φ j ] 3 i,j=1 =
1. (a) i. Wann besitzt A R n n eine eindeutige LR-Zerlegung mit R invertierbar? ii. Definieren Sie die Konditionszahl κ(a) einer Matrix A bzgl. einer Norm.! iii. Welche Eigenschaften benötigt eine Matrix
MehrForschungsstatistik I
Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/
MehrStatistik, Datenanalyse und Simulation
Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 31. Mai 2011 4. Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der
Mehry (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)
9 Ausgleichsrechnung 9.1 Problemstelllung Eine Reihe von Experimenten soll durchgeführt werden unter bekannten Versuchsbedingungen z Ê m. Es sollen Größen x Ê n bestimmt werden, für die ein Gesetz gelten
MehrDie Maximum-Likelihood-Methode
Vorlesung: Computergestützte Datenauswertung Die Maximum-Likelihood-Methode Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft
MehrÜberbestimmte Gleichungssysteme, Regression
Überbestimmte Gleichungssysteme, Regression 8. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas MUL 16. Mai 2013 C. Brand, E. Hausenblas 8. Vorlesung 1 / 19 Gliederung 1 Überbestimmte
MehrBivariater Zusammenhang bei metrischen Variablen: Regression und Korrelation
Bivariater Zusammenhang bei metrischen Variablen: Regression und Korrelation PEΣO 12. November 2001 Von der Tabellenanalyse zur Regression Die bivariate Verteilung zweier metrischer Variablen kann konzeptionell
MehrStatistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536
fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
MehrDeskriptive Beschreibung linearer Zusammenhänge
9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung
MehrFinite Elemente Methoden (aus der Sicht des Mathematikers) Alfred Schmidt
Finite Elemente Methoden (aus der Sicht des Mathematikers) Alfred Schmidt Übersicht Partielle Differentialgleichungen, Approximation der Lösung Finite Elemente, lineare und höhere Ansatzfunktionen Dünn
MehrMusterlösung. Modulklausur Multivariate Verfahren
Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn
MehrEinführung in die biologische Datenanalyse mit Matlab SS 2009 Tag8
Tag 8: Modellbildung A) Kurvenanpassung B) Variation von Modellparametern C) Hausaufgaben A) Kurvenanpassung Kurvenanpassung dient dazu, Messdaten durch eine Kurve - also einen mathematisch beschreibbare
MehrNumerische Methoden I Schriftliche Prüfung Gruppe A 23. Jan :00-14:00 (120 min)
Lehrstuhl für Angewandte Mathematik Montanuniversität Leoben 70 004 Numerische Methoden I Schriftliche Prüfung Gruppe A 23. Jan. 207 2:00-4:00 (20 min) Name Matrikelnummer Mündliche Prüfung: Bitte markieren
MehrStatistikpraktikum. Carsten Rezny. Sommersemester Institut für angewandte Mathematik Universität Bonn
Statistikpraktikum Carsten Rezny Institut für angewandte Mathematik Universität Bonn Sommersemester 2014 Mehrdimensionale Datensätze: Multivariate Statistik Multivariate Statistik Mehrdimensionale Datensätze:
MehrMAV-NUM Applied Numerics Frühlingssemester Serie 14. a) (1 Punkt) Berechnen Sie die LR-Zerlegung der Matrix und geben Sie L, R und P an.
MAV-NUM Applied Numerics Frühlingssemester 208 Dr. Evelyne Knapp ZHAW Winterthur Aufgabe (6 Punkte): Serie 4 a) ( Punkt) Berechnen Sie die LR-Zerlegung der Matrix und geben Sie L, R und P an. 6 2 5 A =
MehrLineare Näherung. Anwendungen
Lineare Näherung. Anwendungen Jörn Loviscach Versionsstand: 1. Januar 2010, 17:15 1 Lineare Näherung Ist eine Funktion f an der Stelle x 0 differenzierbar, existiert dort ihre Ableitung f und es gilt:
MehrInterpolation, numerische Integration
Interpolation, numerische Integration 8. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 8. Mai 2014 Gliederung 1 Interpolation polynomial Spline 2 Numerische
MehrStatistik II für Betriebswirte Vorlesung 12
Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 12 11. Januar 2013 7.3. Multiple parameterlineare Regression Im Folgenden soll die
Mehrd) Produkte orthogonaler Matrizen sind wieder orthogonal.
Die orthogonale Matrizen Definition: Eine Matrix Q R n n heißt orthogonal, falls QQ T = Q T Q = I gilt. Die Eigenschaften orthogonaler Matrizen: a) det(q) = ±1; b) Qx 2 = x 2 für alle x R n, also Q 2 =
MehrEinführung in die Gitterfreien Methoden
Einführung in die Gitterfreien Methoden Domenik Beres October 22, 2013 Domenik Beres Einführung in die Gitterfreien Methoden October 22, 2013 1 / 40 Inhaltsverzeichnis 1 Was versteht man unter Datenapproximation?
MehrAnpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood
Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood KARLSRUHER INSTITUT FÜR TECHNOLOGIE (KIT) 0 KIT 06.01.2012 Universität des Fabian Landes Hoffmann Baden-Württemberg und nationales Forschungszentrum
MehrInterpolation, numerische Integration, Eigenwerte
Neunte Vorlesung, 29. Mai 2008, Inhalt Interpolation, numerische Integration, Eigenwerte Polynomiale Interpolation (Lagrange, Newton, Neville) Splines und weitere Interpolationsverfahren numerische Integration
MehrLineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 9. Aufgabe 9.1. Herbstsemester Dr. V. Gradinaru D. Devaud A.
Dr V Gradinaru D Devaud A Hiltebrand Herbstsemester 2014 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie 9 Aufgabe 91 91a) Sei A eine n n-matrix Das Gleichungssystem Ax
MehrD-INFK Lineare Algebra HS 2018 Özlem Imamoglu Olga Sorkine-Hornung. Serie 11
D-INFK Lineare Algebra HS 2018 Özlem Imamoglu Olga Sorkine-Hornung Serie 11 1. In dieser Aufgabe wollen wir die Parameter einer gewissen Modellfunktion aus ein paar gemessenen Werten bestimmen. Das Modell
MehrD-CHAB Frühlingssemester 2017 T =
D-CHAB Frühlingssemester 17 Grundlagen der Mathematik II Dr Marcel Dettling Lösung 13 1) Die relevanten Parameter sind n = 3, x = 1867, σ x = und µ = 18 (a) Die Teststatistik T = X µ Σ x / n ist nach Annahme
MehrR E G R E S S I O N S A N A L Y S E Terminologie
Seite 1 von 40 R E G R E S S I O N S A N A L Y S E Terminologie Regression Statistische Regressionsmodelle dienen dazu, einen funktionalen Zusammenhang in einem Datensatz (x i, y i ), i = 1,, k zwischen
Mehr1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
Mehr5 Interpolation und Approximation
5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)
MehrUnter den endlich vielen Maschinenzahlen gibt es zwangsläufig eine größte und eine kleinste:
1.1 Grundbegriffe und Gleitpunktarithmetik 11 Aufgaben 1.4 Bestimmen Sie alle dualen 3-stelligen Gleitpunktzahlen mit einstelligem Exponenten sowie ihren dezimalen Wert. Hinweis: Sie sollten 9 finden.
MehrÜberbestimmte lineare Gleichungssysteme
Überbestimmte lineare Gleichungssysteme Fakultät Grundlagen September 2009 Fakultät Grundlagen Überbestimmte lineare Gleichungssysteme Übersicht 1 2 Fakultät Grundlagen Überbestimmte lineare Gleichungssysteme
MehrLösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016
Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b
Mehr4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers
4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis
MehrAnwendungen der Differentialrechnung
KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle
MehrLinear nichtseparable Probleme
Linear nichtseparable Probleme Mustererkennung und Klassifikation, Vorlesung No. 10 1 M. O. Franz 20.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrKlausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min
Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,
MehrInterpolation und Approximation von Funktionen
Kapitel 6 Interpolation und Approximation von Funktionen Bei ökonomischen Anwendungen tritt oft das Problem auf, dass eine analytisch nicht verwendbare (oder auch unbekannte) Funktion f durch eine numerisch
MehrBiometrieübung 10 Lineare Regression. 2. Abhängigkeit der Körpergröße von der Schuhgröße bei Männern
Biometrieübung 10 (lineare Regression) - Aufgabe Biometrieübung 10 Lineare Regression Aufgabe 1. Düngungsversuch In einem Düngeversuch mit k=9 Düngungsstufen x i erhielt man Erträge y i. Im (X, Y)- Koordinatensystem
MehrÜbungsblatt 3 Musterlösung
Numerik gewöhnlicher Differentialgleichungen MA4 - SS6 Übungsblatt Musterlösung Sei M,N N und f C M+N+ (B) eine komplexe Funktion, B eine kompakte Menge. Die Padé Approximation PN M (f)(x) ist die rationale
MehrFakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.
Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;
Mehr[5], [0] v 4 = + λ 3
Aufgabe 9. Basen von Untervektorräumen. Bestimmen Sie Basen von den folgenden Untervektorräumen U K des K :. K = R und U R = span,,,,,.. K = C und U C = span + i, 6, i. i i + 0. K = Z/7Z und U Z/7Z = span
MehrAusgleichsprobleme. 3 Nichtlineare Ausgleichsprobleme
1 Normalengleichung Ausgleichsprobleme A T A T = AA 2 Orthogonalisierungsverfahren A = Q R 3 Nichtlineare Ausgleichsprobleme Typeset by FoilTEX 1 Motivation Ausgleichsprobleme treten meist dann auf, wenn
Mehr6. Polynom-Interpolation
6. Polynom-Interpolation 1 6.1. Klassische Polynom-Interpolation 2 6.2. Lösung mit Hilfe Lagrange scher Basisfunktionen 3 6.3. Lösung mit Hilfe Newton scher Basisfunktionen 4 6.4. Fehlerabschätzung für
MehrTeil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller
Woche 10: Lineare Regression Patric Müller Teil XII Einfache Lineare Regression ETHZ WBL 17/19, 03.07.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Wahrscheinlichkeit
MehrNichtlineare Gleichungen in einer und mehreren Unbekannten
Gleichungen in einer und mehreren Unbekannten 2. Vorlesung 170004 Numerische Methoden I Clemens Brand 26. Februar 2009, Gliederung,, Gleichungen in einer Variablen Was ist... Wie geht... eine lineare (nichtlineare,
MehrSeminar Optimierung - Approximation and fitting. Christian Bretzke
Seminar Optimierung - Approximation and fitting Christian Bretzke 1 Inhaltsverzeichnis 1 Norm Approximation 3 1.1 Verschiedene Interpretation.................................. 3 1.2 Gewichtete NAP........................................
MehrAlgebra. Roger Burkhardt Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft
Algebra Roger Burkhardt roger.burkhardt@fhnw.ch Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft FS 2010 Roger Burkhardt roger.burkhardt@fhnw.ch Algebra
Mehr1 Messfehler. 1.1 Systematischer Fehler. 1.2 Statistische Fehler
1 Messfehler Jede Messung ist ungenau, hat einen Fehler. Wenn Sie zum Beispiel die Schwingungsdauer eines Pendels messen, werden Sie - trotz gleicher experimenteller Anordnungen - unterschiedliche Messwerte
MehrAusgleichsrechnung: Methode der kleinsten Quadrate
kleinsten Quadrate Historische Bemerkung In der Neujahrsnacht 1801 entdeckte Giuseppe Piazzi den Zwergplaneten Ceres in der Lücke zwischen Mars und Jupiter. Allerdings verlor man Ceres danach wieder aus
MehrDatenanalyse. (PHY231) Herbstsemester Olaf Steinkamp
Datenanalyse PHY31 Herbstsemester 016 Olaf Steinkamp 36-J- olafs@physik.uzh.ch 044 63 55763 Vorlesungsprogramm Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung
MehrKapitel 2 Kurvenanpassung
Kapitel 2 Kurvenanpassung 2 2 2 Kurvenanpassung 2.1 Approximation... 26 2.1.1 Approximation mit orthonormalen Funktionensystemen.. 26 2.1.1.1 Approximation mit der Fourier-Reihe... 29 2.1.1.2 Approximation
MehrAnhang B. Regression
Anhang B Regression Dieser Anhang rekapituliert die in der Analysis und Statistik wohlbekannte Methode der kleinsten Quadrate, auch Regression genannt, zur Bestimmung von Ausgleichsgeraden Regressionsgeraden
MehrStatistik II für Betriebswirte Vorlesung 11
Statistik II für Betriebswirte Vorlesung 11 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 07. Januar 2019 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 11 Version:
MehrMethode der kleinsten Quadrate DSV2, 2007, Least-Squares, Rumc, 1
Methode der kleinsten Quadrate DSV2, 2007, Least-Squares, Rumc, 1 Problem der linearen Annäherung im Skalarprodukt-Raum Finde für einen beliebigen Vektor y eine Linearkombination y e der Vektoren 1, 2,...,
MehrMathematik. für das Ingenieurstudium. 10 Funktionen mit mehreren Variablen. Jürgen Koch Martin Stämpfle.
10 Funktionen mit mehreren Variablen www.mathematik-fuer-ingenieure.de 2010 und, Esslingen Dieses Werk ist urheberrechtlich geschützt. Alle Rechte, auch die der Übersetzung, des Nachdruckes und der Vervielfältigung
MehrÜber- und unterbestimmte Systeme
Über- und unterbestimmte Systeme Über- und unterbestimmte Systeme (verallgemeinerte Lösungen) Ax = b ist genau dann für alle b R m eindeutig lösbar, wenn m = n und rk A = n. Falls m n oder rk A < min{m,
MehrAllgemeine Chemie Computer Praktikum Frühjahrssemester Regressions-Tutorial Lineare und nicht-lineare Regression
1 Einführung Allgemeine Chemie Computer Praktikum Frühjahrssemester Regressions-Tutorial Lineare und nicht-lineare Regression Datenauswertung In einem naturwissenschaftlichen Experiment werden Sie meist
MehrLineare Regression. Volker Tresp
Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M
MehrDie Funktion f wird als Regressionsfunktion bezeichnet.
Regressionsanalyse Mit Hilfe der Techniken der klassischen Regressionsanalyse kann die Abhängigkeit metrischer (intervallskalierter) Zielgrößen von metrischen (intervallskalierten) Einflussgrößen untersucht
MehrInterpolation und Integration mit Polynomen
Interpolation und Integration mit Polynomen Philipp Andrea Zardo Universität Kassel 23. Februar 2006 / Kassel Outline 1 Einleitung Was ist numerische Mathematik? Die eulersche e-funktion Ein Wurzelalgorithmus
MehrD-MATH Numerische Methoden FS 2018 Dr. Vasile Gradinaru Kjetil Olsen Lye. Serie 8
D-MATH Numerische Methoden FS 2018 Dr. Vasile Gradinaru Kjetil Olsen Lye Serie 8 Abgabedatum: Di. 22.05 / Mi. 23.05, in den Übungsgruppen, oder im HG J 68. Koordinatoren: Kjetil Olsen Lye, HG G 56.1 kjetil.lye@sam.math.ethz.ch
Mehr1 Beispiel zur Methode der kleinsten Quadrate
1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25
MehrComputer in der Wissenschaft
Dr. Michael O. Distler distler@uni-mainz.de Mainz, 8. Januar 2014 Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der kleinsten
MehrSechste Übungseinheit
F Sechste Übungseinheit Inhalt der sechsten Übungseinheit: MATLAB-Werkzeuge zum Anpassen von Funktionen an Daten (Bonus-Material) Alternativen zur Minimierung der Fehlerquadrate: Robuste Regression, Total
MehrÜBUNGSAUFGABEN ZUR NUMERIK 1
ÜBUNGSAUFGABEN ZUR NUMERIK 1 MARTIN EHLER, WS 2015/16 Teil 1. Matlab,... Aufgabe 1. Arbeiten Sie die Matlab Einführung von Waltraud Huyer durch, die unter dem Link http://www.mat.univie.ac.at/ huyer/matlab.pdf
MehrAufgaben zu Kapitel 20
Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Verständnisfragen Aufgabe 20 Sind die folgenden Produkte Skalarprodukte? (( R ) 2 ( R 2 )) R : v w,, v v 2 w w 2 (( R ) 2 ( R 2 )) R : v w, 3 v v 2 w w + v
MehrSimultane Mehrgleichungssysteme: Parameterschätzung
Simultane Mehrgleichungssysteme: Parameterschätzung Stichwörter: Eigenschaften des OLS-Schätzers Hilfsvariablenschätzer 2SLS limited information Methoden 3SLS FIML full information Methoden o1-21.tex/0
MehrMathematik für Biologen
Dirk Horstmann Mathematik für Biologen 2. überarbeitete und ergänzte Auflage & Springer Spektrum 1 Einstieg und grafische Darstellungen von Messdaten 1 1.1 Grafische Darstellung von Daten und unterschiedliche
MehrEinfache lineare Regression. Statistik (Biol./Pharm./HST) FS 2015
Einfache lineare Regression Statistik (Biol./Pharm./HST) FS 2015 Wdh: Korrelation Big picture: Generalized Linear Models (GLMs) Bisher: Population wird mit einer Verteilung beschrieben Bsp: Medikament
MehrAlgebraische Kurven. Vorlesung 25
Prof. Dr. H. Brenner Osnabrück SS 2012 Algebraische Kurven Vorlesung 25 Lösung in Potenzreihen für algebraische Kurven Sei F 0 ein Polynom, das die ebene algebraische Kurve C beschreibe, und sei P = (0,0)
Mehr7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien
Statistik 7.1 Korrelationsanalyse Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Sommersemester 2012 7 Regressions- und Korrelationsanalyse Kovarianz Pearson-Korrelation Der (lineare)
MehrÜbung V Lineares Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung
Mehr