Anhang B. Regression



Ähnliche Dokumente
Eine zweidimensionale Stichprobe

(a) Zunächst benötigen wir zwei Richtungsvektoren der Ebene E; diese sind zum Beispiel gegeben durch die Vektoren

Ausgleichsproblem. Definition (1.0.3)

Anwendungen der Differentialrechnung

Lineare Gleichungssysteme

1 Singulärwertzerlegung und Pseudoinverse

2. Spezielle anwendungsrelevante Funktionen

Übungsaufgaben zur Linearen Funktion

Höhere Mathematik III WS 05/06 Lösungshinweis Aufgabe G 11 Blatt 2

Aufgabe 1 (LGS mit Parameter): Bestimmen Sie die Lösungsmengen des folgenden LGS in Abhängigkeit vom Parameter :

Lineare Algebra II 5. Übungsblatt

TEIL 13: DIE EINFACHE LINEARE REGRESSION

3. Lineare Ausgleichsrechnung

Multivariate Analysis

18.2 Implizit definierte Funktionen

16. FUNKTIONEN VON MEHREREN VARIABLEN

1.4 Gradient, Divergenz und Rotation

Kurzzusammenstellung der in der Vorlesung behandelten impliziten Gleichungen und deren Ableitungen

24.1 Überblick Beispiele. A. Bestimmen einer ganzrationalen Funktion. 24. Interpolation mit Ableitungen

Übungen zu Einführung in die Lineare Algebra und Geometrie

Mathematik. für das Ingenieurstudium. 10 Funktionen mit mehreren Variablen. Jürgen Koch Martin Stämpfle.

Eigenwerte und Eigenvektoren

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 9. Aufgabe 9.1. Herbstsemester Dr. V. Gradinaru D. Devaud A.

Kapitel III. Lineare Abbildungen

Lineare Algebra I (WS 12/13)

Lineare Gleichungssysteme

Kapitel 9: Lineare Gleichungssysteme

MATHEMATIK 2 FÜR DIE STUDIENGÄNGE CHE- MIE UND LEBENSMITTELCHEMIE

Verteilungsfunktionen (in Excel) (1)

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

Kap 1: VEKTORRÄUME. (c) (λµ) v = λ (µ v) (b) λ (v + w) = (λ v) + (λ w) (d) 1 v = v

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung

TEIL 13: DIE LINEARE REGRESSION

Musterlösung zu Blatt 1

Überbestimmte lineare Gleichungssysteme

Rückblick auf die letzte Vorlesung. Bemerkung

Mathematik II: Übungsblatt 03 : Lösungen

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

KAPITEL 5. Damit wird F n (B) selbst zu einer Booleschen Algebra und es gilt f(x) := f(x) 0(x) := 0 B 1(x) := 1 B

Dynamische Systeme und Zeitreihenanalyse // Komplexe Zahlen 3 p.2/29

Einführung in die numerische Mathematik

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $

Lösen einer Gleichung

Folgerungen aus dem Auflösungsatz

Corinne Schenka Vorkurs Mathematik WiSe 2012/13

6.3 Exakte Differentialgleichungen

Eigenwerte und Eigenvektoren von Matrizen

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

1 Umkehrfunktionen und implizite Funktionen

f : x y = mx + t Der Graph einer linearen Funktion ist eine Gerade, welche die y-achse im Punkt S schneidet. = m 2 x 2 m x 1

Lineare Gleichungen. Mathematik-Repetitorium. 3.1 Eine Unbekannte. 3.2 Zwei oder drei Unbekannte. 3.3 Allgemeine lineare Gleichungssysteme

Lineare Gleichungen Lineare Gleichungssysteme. Lineare Algebra 5. Ein Trainingsheft für Schüler

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit

Optimieren unter Nebenbedingungen

Implizite Funktionen. Ist für eine stetig differenzierbare Funktion f : R n R m R n. so lässt sich das Gleichungssystem

LAF Mathematik. Näherungsweises Berechnen von Nullstellen von Funktionen

Tutorium: Analysis und Lineare Algebra. Vorbereitung der Bonusklausur am (Teil 1, Lösungen)

5 Interpolation und Approximation

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Statistik II für Betriebswirte Vorlesung 12

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor)

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG

Klausurenkurs zum Staatsexamen (WS 2014/15): Lineare Algebra und analytische Geometrie 1

3 a) Berechnen Sie die normierte Zeilenstufenform der Matrix A = normierte Zeilenstufenform:

( ) Lineare Gleichungssysteme

Über- und unterbestimmte

Mathematische Funktionen

Klausur zum Fach Mathematik 1 Teil 1

Datenmodelle, Regression

M U = {x U f 1 =... = f n k (x) = 0}, (1)

Basiswissen Matrizen

9 Differentialrechnung für Funktionen in n Variablen

Lineare Algebra. 10. Übungsstunde. Steven Battilana.

Lineare Gleichungssysteme. 1-E Ma 1 Lubov Vassilevskaya

HTWD, FB Informatik/Mathematik. Mathematik für Bauingenieure. Wiederholungsaufgaben: Mathematik I

KAPITEL 6. Nichtlineare Ausgleichsrechnung

9. Übung zur Linearen Algebra II -

Vektorgeometrie Ebenen 1

1 Einführung Gleichungen und 2 Unbekannte Gleichungen und 3 Unbekannte... 4

Theorie und Praxis geometrischer Algorithmen Seminarvortrag. Resultanten. von. Manuel Caroli

Lineare Algebra I. Probeklausur - Lösungshinweise

Bivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.154

Mathematik für Informatiker 1 Wintersemester 2013/14 Übungsblatt 12

Lagebeziehung von Ebenen

Übungsaufgaben zum Aufstellen von ganzrationalen Funktionsgleichungen

9.2 Invertierbare Matrizen

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Transkript:

Anhang B Regression Dieser Anhang rekapituliert die in der Analysis und Statistik wohlbekannte Methode der kleinsten Quadrate, auch Regression genannt, zur Bestimmung von Ausgleichsgeraden Regressionsgeraden und allgemein Ausgleichpolynomen Die Darstellung folgt im wesentlichen [Heuser 1988] Physikalische Meßdaten zeigen selten exakt den gesetzmäßigen Zusammenhang der gemessenen Größen, da sie unweigerlich mit Fehlern behaftet sind Will man den Zusammenhang der gemessenen Größen dennoch wenigstens näherungsweise bestimmen, so steht man vor der Aufgabe, eine Funktion zu finden, die sich den Meßdaten möglichst gut anpaßt, so daß die Meßfehler ausgeglichen werden Natürlich sollte dazu bereits eine Hypothese über die Art des Zusammenhangs vorliegen, um eine Funktionenklasse wählen und dadurch das Problem auf die Bestimmung der Parameter einer Funktion eines bestimmten Typs reduzieren zu können Erwartet man zb bei zwei Größen x und y einen linearen Zusammenhang zb weil ein Diagramm der Meßpunkte einen solchen vermuten läßt, so muß man die Parameter a und b der Gerade y gx a + bx bestimmen Wegen der unvermeidlichen Meßfehler wird es jedoch ia nicht möglich sein, eine Gerade zu finden, so daß alle gegebenen n Meßpunkte x i, y i, 1 i n, genau auf dieser Geraden liegen Vielmehr wird man versuchen müssen, eine Gerade zu finden, von der die Meßpunkte möglichst wenig abweichen Es ist daher plausibel, die Parameter a und b so zu bestimmen, daß die Abweichungsquadratsumme F a, b gx i y i 2 181 a + bx i y i 2

182 ANHANG B REGRESSION minimal wird Dh, die aus der Geradengleichung berechneten y-werte sollen in der Summe möglichst wenig von den gemessenen abweichen Die Gründe für die Verwendung des Abweichungsquadrates sind iw die gleichen wie die in Abschnitt 33 angeführten: Ersten ist die Fehlerfunktion durch die Verwendung des Quadrates überall stetig differenzierbar, während die Ableitung des Betrages, den man alternativ verwenden könnte, bei 0 nicht existiert/unstetig ist Zweitens gewichtet das Quadrat große Abweichungen von der gewünschten Ausgabe stärker, so daß vereinzelte starke Abweichungen von den Meßdaten tendenziell vermieden werden 1 Eine notwendige Bedingung für ein Minimum der oben definierten Fehlerfunktion F a, b ist, daß die partiellen Ableitungen dieser Funktion nach den Parametern a und b verschwinden, also a b 2a + bx i y i 0 und 2a + bx i y i x i 0 gilt Aus diesen beiden Gleichungen erhalten wir nach wenigen einfachen Umformungen die sogenannten Normalgleichungen na + n x i a + n x i b x 2 i b y i x i y i, also ein lineares Gleichungssystem mit zwei Gleichungen und zwei Unbekannten a und b Man kann zeigen, daß dieses Gleichungssystem eine eindeutige Lösung besitzt, es sei denn, die x-werte aller Meßpunkte sind identisch dh, es ist x 1 x 2 x n, und daß diese Lösung tatsächlich ein Minimum der Funktion F beschreibt [Heuser 1988] Die auf diese Weise bestimmte Gerade y gx a + bx nennt man die Ausgleichsgerade oder Regressionsgerade für den Datensatz x 1, y 1,, x n, y n 1 Man beachte allerdings, daß dies auch ein Nachteil sein kann Enthält der gegebene Datensatz Ausreißer das sind Meßwerte, die durch zufällig aufgetretene, unverhältnismäßig große Meßfehler sehr weit von dem tatsächlichen Wert abweichen, so wird die Lage der berechneten Ausgleichsgerade uu sehr stark von wenigen Meßpunkten eben den Ausreißern beeinflußt, was das Ergebnis unbrauchbar machen kann

183 y 6 5 4 3 2 1 0 0 1 2 3 4 5 6 7 8 x Abbildung B1: Beispieldaten und mit der Methode der kleinsten Quadrate berechnete Ausgleichsgerade Zur Veranschaulichung des Verfahrens betrachten wir ein einfaches Beispiel Gegeben sei der aus acht Meßpunkten x 1, y 1,, x 8, y 8 bestehende Datensatz, der in der folgenden Tabelle gezeigt ist [Heuser 1988]: x 1 2 3 4 5 6 7 8 y 1 3 2 3 4 3 5 6 Um das System der Normalgleichungen aufzustellen, berechnen wir 8 x i 36, 8 x 2 i 204, 8 y i 27, 8 x i y i 146 Damit erhalten wir das Gleichungssystem Normalgleichungen das die Lösung a 3 4 und b 7 12 8a + 36b 27, 36a + 204b 146, besitzt Die Ausgleichsgerade ist also y 3 4 + 7 12 x Diese Gerade ist zusammen mit den Datenpunkten, von denen wir ausgegangen sind, in Abbildung B1 dargestellt Das gerade betrachtete Verfahren ist natürlich nicht auf die Bestimmung von Ausgleichsgeraden beschränkt, sondern läßt sich mindestens auf Ausgleichspolynome erweitern Man sucht dann nach einem Polynom y px a 0 + a 1 x + + a m x m

184 ANHANG B REGRESSION mit gegebenem, festem Grad m, das die n Meßpunkte x 1, y 1,, x n y n möglichst gut annähert In diesem Fall ist F a 0, a 1,, a m px i y i 2 a 0 + a 1 x i + + a m x m i y i 2 zu minimieren Notwendige Bedingung für ein Minimum ist wieder, daß die partiellen Ableitungen nach den Parametern a 0 bis a m verschwinden, also a 0 0, 0,, 0 a 1 a m gilt So ergibt sich das System der Normalgleichungen [Heuser 1988] n na 0 + x i a 1 + + a m n x i a 0 + x m i a 0 + x 2 i x m+1 i a 1 + + a 1 + + x m i x m+1 i x 2m i a m a m y i x i y i x m i y i, aus dem sich die Parameter a 0 bis a m mit den üblichen Methoden der linearen Algebra zb Gaußsches Eliminationsverfahren, Cramersche Regel, Bildung der Inversen der Koeffizientenmatrix etc berechnen lassen Das so bestimmte Polynom px a 0 + a 1 x + a 2 x 2 + + a m x m heißt Ausgleichspolynom oder Regressionspolynom m-ter Ordnung für den Datensatz x 1, y 1,, x n, y n Weiter läßt sich die Methode der kleinsten Quadrate nicht nur verwenden, um, wie bisher betrachtet, Ausgleichspolynome zu bestimmen, sondern kann auch für Funktionen mit mehr als einem Argument eingesetzt werden In diesem Fall spricht man von multipler oder multivariater Regression Wir untersuchen hier beispielhaft nur den Spezialfall der multilinearen Regression, wobei wir uns außerdem zunächst auf eine Funktion mit zwei Argumenten beschränken Dh, wir betrachten, wie man zu einem gegebenen Datensatz x 1, y 1, z 1,, x n, y n, z n eine Ausgleichsfunktion der Form z fx, y a + bx + cy

185 so bestimmen kann, daß die Summe der Abweichungsquadrate minimal wird Die Ableitung der Normalgleichungen für diesen Fall ist zu der Ableitung für Ausgleichspolynome völlig analog Wir müssen F a, b, c fx i, y i z i 2 a + bx i + cy i z i 2 minimieren Notwendige Bedingungen für ein Minimum sind a b c 2a + bx i + cy i z i 0, 2a + bx i + cy i z i x i 0, 2a + bx i + cy i z i y i 0 Also erhalten wir das System der Normalgleichungen n na + x i b + y i c n x i a + x 2 i b + n y i a + x i y i b + n x i y i c y 2 i c z i z i x i z i y i aus dem sich a, b und c leicht berechnen lassen Im allgemeinen Fall der multilinearen Regression Funktion mit m Argumenten ist ein Datensatz x 11,, x m1, y 1,, x 1n,, x mn, y n oder auch dargestellt als x 1, y 1,, x n, y n mit einem Eingabevektor x i und der zugehörigen Ausgabe y i, 1 i n gegeben, für den eine lineare Ausgleichsfunktion m y fx 1,, x m a 0 + a k x k gesucht ist Zur Ableitung der Normalgleichungen stellt man in diesem Fall das zu minimierende Funktional bequemer in Matrixform dar, nämlich als k1 F a X a y X a y,

186 ANHANG B REGRESSION wobei 1 x 11 x 1m X 1 x n1 x nm und y y 1 y n den Datensatz wiedergeben und a a 0, a 1,, a m der Vektor der zu bestimmenden Koeffizienten ist 2 Man beachte, daß die Einsen in der ersten Spalte der Matrix X dem Koeffizienten a 0 zugehören Wieder ist eine notwendige Bedingung für ein Minimum, daß die partiellen Ableitungen nach den Koeffizienten a k, 0 k m, verschwinden, was wir mit Hilfe des Differentialoperators gesprochen: nabla schreiben können als a F a d d a F a a 0 F a, a 1 F a,, F a 0 a m Die Ableitung läßt sich am leichtesten berechnen, wenn man sich klar macht wie man durch elementweises Ausschreiben leicht nachrechnet, daß sich der Differentialoperator a,,, a 0 a 1 a m formal wie ein Vektor verhält, der von links an die Summe der Fehlerquadrate heranmultipliziert wird Alternativ kann man die Ableitung komponentenweise ausschreiben Wir verwenden hier jedoch die erstere, wesentlich bequemere Methode und erhalten 0 a X a y X a y a X a y X a y + X a y a X a y a X a y X a y + a X a y X a y 2X X a y 2X X a 2X y, woraus sich unmittelbar das System X X a X y 2 bedeutet die Transponierung eines Vektors oder einer Matrix, also die Vertauschung von Zeilen und Spalten

187 der Normalgleichungen ergibt Dieses System ist offenbar lösbar, wenn X X invertierbar ist Dann gilt a X X 1 X y Den Ausdruck X X 1 X nennt man auch die Moore-Penrose- Pseudoinverse der Matrix X [Albert 1972] Mit ihr kann man unmittelbar die Lösung der Regressionsaufgabe angeben Es dürfte klar sein, daß sich die Methode der kleinsten Quadrate auch auf Polynome in mehreren Variablen erweitern läßt Am einfachsten geht man dabei ebenfalls von der oben verwendeten Matrixdarstellung aus, wobei man in die Matrix X als Eingangsgrößen auch die zu verwendenden Potenzprodukte der unabhängigen Variablen einträgt Die Ableitung der Normalgleichungen kann dann einfach übernommen werden Ein Programm zur multipolynomialen Regression, das zur schnellen Berechnung der benötigten Potenzprodukte eine auf Ideen der dynamischen Programmierung beruhende Methode benutzt, findet man unter http://fuzzycsuni-magdeburgde/~borgelt/softwarehtml#regress Wie sie sich unter bestimmten Umständen die Regression auch noch auf andere Funktionenklassen erweitern läßt, ist in Abschnitt 43 anhand der logistischen Regression gezeigt