Methode der kleinsten Quadrate
|
|
|
- Eike Kurzmann
- vor 8 Jahren
- Abrufe
Transkript
1 Kapitel 7 Methode der kleinsten Quadrate Im Folgenden wird die Methode der kleinsten Quadrate (LS = least square, die auf dem χ -Test beruht, für die Anpassung von parametrisierten Funktionen an normalverteilte (oder annähernd normalverteilte Messwerte eingeführt. Im vorigen Kapitel hatten wir bereits darauf hingewiesen, dass diese Methode der Maximum- Likelihood-Methode im Falle normalverteilter Wahrscheinlichkeiten entspricht. 7.1 Prinzip der Methode der kleinsten Quadrate Gegeben sei eine Stichprobe mit folgenden Messwerten und der parametrisierten Beschreibung der Messwerte: y i : Messwerte an den (ohne Fehler bekannten Punkten x i (unabhängige Variable, kann auch ein Vektor sein, i = 1,..., n; σ i : Fehler von y i, Standardabweichung; η i : η i = f(x i θ ist der Erwartungswert von y i, wenn die Abhängigkeit von x i durch f(x θ beschrieben wird; θ j : Parameter der Funktion f, die so optimiert werden sollen, dass f(x i θ = η i die Messwerte y i möglichst gut beschreibt (j = 1,..., m. Das LS-Prinzip lautet: Bestimme die Schätzwerte ˆθ der Parameter θ = (θ 1,..., θ m durch Minimierung der Summe der Quadrate der auf die Fehler normierten Abweichungen: (y i η i (y i f(x i θ S = = (7.1 Wenn die Messwerte korreliert sind, cov(y i, y j 0, muss man die gesamte Kovarianzmatrix V ij (y der y-werte benutzen: S = (y i η i V 1 ij (y (y j η j (7. Wenn die Messwerte y i einer Normalverteilung mit einer Breite σ i um den wahren Wert η i = f(x i θ folgen, dann folgt die LS-Funktion S einer χ -Verteilung 91
2 9 KAPITEL 7. METHODE DER KLEINSTEN QUADRATE mit n F = n m Freiheitsgraden (Anzahl der Messungen minus Anzahl der aus den Messungen bestimmten Parametern. Da der Erwartungswert von E(χ = n F ist, ist die Erwartung für die Verminderung von χ bei Hinzunahme eines Parameters E( χ 1. Das heisst χ vermindert sich im Mittel um 1, selbst wenn der zusätzliche Parameter nicht notwendig ist. Die Signifikanz für die Notwendigkeit eines Parameters ergibt sich aus χ. Für den betrachteten Fall normalverteilter Messwerte ergibt sich die Likelihood- Funktion: n 1 L = e (y i η i σ i (7.3 πσ i Daraus berechnet sich die Log-Likelihood-Funktion: L = (y i η i ln (πσi = 1 S + const. (7.4 In diesem Fall entspricht also die Parameteroptimierung durch Maximierung von L genau der Optimierung durch Minimierung der LS-Funktion S, das heisst die MLund LS-Methoden sind für normalverteilte Messwerte äquivalent. Das LS-Prinzip wird allerdings häufig auch für andere Verteilungen der Messwerte benutzt, weil die formelmässige Behandlung des Problems in der Regel einfacher ist. 7. Lineare Anpassung In der Praxis kommt häufig der Fall vor, dass die Anpassungsfunktion f(x θ eine lineare Funktion der Parameter θ = (θ 1,..., θ m ist: f(x θ = θ 1 f 1 (x θ m f m (x (7.5 Die f j können beliebige (also auch nicht-lineare Funktionen von x sein Anpassung der Messwerte an eine Gerade Für die Hypothese, dass die Messwerte auf einer Geraden liegen sollen, ergibt sich die Anpassungsfunktion (f 1 (x = 1, f (x = x: f(x θ = θ 1 + x θ (7.6 Die Messungen ergeben die n Tripel (x i, y i, σ i (Abb Wenn die y i unabhängig sind erhält man die LS-Funktion: S = (y i η i = (y i θ 1 x i θ Die Minimierung von S als Funktion der Parameter fordert: (7.7 S θ 1 = (y i θ 1 x i θ = 0 S θ = x i (y i θ 1 x i θ = 0 (7.8
3 7.. LINEARE ANPASSUNG 93 Abbildung 7.1: Messwerte y i als Funktion von x mit normalverteilten Fehlern. Die Anpassung einer Geraden an die 10 Datenpunkte liefert für Achsenabschnitt und Steigung: θ 1 = 1.37 ± 0.36, θ = 0.93 ± 0.05 und χ = 11.4 bei 8 Freiheitsgraden, entsprechend einem Vertrauensniveau von etwa 0%. Die Anpassung wurde mit dem CERN-Programm MINUIT durchgeführt.
4 94 KAPITEL 7. METHODE DER KLEINSTEN QUADRATE Aus der Minimierungsbedingung ergibt sich ein lineares inhomogenes Gleichungssystem für die θ i. Zur weiteren Behandlung bilden wir folgende Summen, die zum Beispiel auch in entsprechenden Computer-Programmen gebildet werden: S 1 = 1 S x = x i S y = y i (7.9 S xx = x i S xy = x i y i Damit folgt aus (7.8 für die LS-Schätzung ˆθ: Mit der Determinante der Koeffizientenmatrix S 1 ˆθ 1 + S x ˆθ = S y S x ˆθ 1 + S xx ˆθ = S xy (7.10 D = S 1 S xx S x (7.11 ergeben sich durch Auflösung von (7.10 die LS-Schätzwerte der Parameter: ˆθ 1 = 1 D (S xx S y S x S xy ˆθ = 1 D (S 1 S xy S x S y (7.1 Kovarianzmatrix der Parameter: Die Fehler der Parameter ergeben sich aus der Relation (6.4: V 1 ij = L θ i θ j = + 1 S (7.13 θ=ˆθ θ i θ j Die einzelnen Matrixelemente sind: θ=ˆθ 1 1 S θ1 S = 1 θ 1 θ = x i 1 S θ = x i = S 1 = S x = S xx (7.14 Die inverse Kovarianzmatrix ist also: ( V 1 S1 S (θ = x S x S xx (7.15 Die Kovarianzmatrix erhält man aus der Inversion: V (θ = 1 ( Sxx S x D S x S 1 (7.16
5 7.. LINEARE ANPASSUNG 95 Extrapolationsfehler: Damit lässt sich der y-wert zu jedem beliebigen x-wert berechnen: y = ˆθ 1 + x ˆθ (7.17 Der Fehler von y ergibt sich durch Fehlerfortpflanzung: σ (y = V 11 + x V + x V 1 = 1 D (S xx + x S 1 x S x (7.18 Güte der Anpassung: Die Größe χ = S min = S(ˆθ (7.19 folgt einer χ -Verteilung mit n F = n m = n Freiheitsgraden (Anzahl der Messungen minus Anzahl der Parameter mit dem Erwartungswert E(χ = n F. (7.0 Für das Ergebnis der Anpassung (oder des Fits kann man dann das Vertrauensniveau α wie in Abschnitt 4.3 (Gl und Abb. 4. bestimmen, wenn die Messwerte normalverteilt sind. Zum Beispiel ist bei 1 Messungen n F = 10 und man liest folgende Vertrauensniveaus α für χ = S min ab: S min α [%] Mit dem Folgenden Python-Skript kann diese Tabelle reproduziert werden: from scipy import * for x in [8.,10.,1.,16] : print x, stats.chi.sf(x,10. Geringe Vertrauensniveaus können die gleichen Gründe haben, wie in Abschnitt 4.3 angeführt (falsches Modell, falsche Fehler, Untergrund. Wenn das Gauss-Modell nicht zutrifft, kann die Variation von χ um das Minimum immer noch ein gutes Mass für die Bestimmung der Parameter sein. Wie in Abschnitt ausgeführt, erhält man eine Schätzung der Standardabweichung eines Parameters, wenn man diesen Parameter so variiert (die anderen Parameter bleiben fest, dass sich χ um χ = 1 (7.1 ändert. 7.. Anpassung einer allgemeinen linearen Funktion der Parameter Wir wollen jetzt die LS-Anpassung einer allgemeinen linearen Funktion von m Parametern betrachten: f(x θ = θ 1 f 1 (x θ m f m (x (7.
6 96 KAPITEL 7. METHODE DER KLEINSTEN QUADRATE Die LS-Anpassung an n Messwerte y i an den Punkten x i hat n F = n m Freiheitsgrade. Es wird zugelassen, dass die Messwerte nicht unabhängig sind, dass also die Kovarianzmatrix V (y nicht-verschwindende cov(y i, y j -Terme hat. Die Erwartungswerte für die n Messwerte y i sind dann: m η i = θ 1 f 1 (x i θ m f m (x i = θ j f j (x i (7.3 Um eine kompakte Schreibweise zu erhalten, definieren wir die n m-matrix H: Damit wird (7.3: η i = H ij = f j (x i (7.4 m H ij θ j η = H θ (7.5 Mit der Kovarianzmatrix V (y der Messwerte ergibt sich dann die LS-Funktion (zur Abkürzung soll im Folgenden V (y = V gesetzt werden; die Kovarianzmatrix der Parameter wird dann V (θ genannt: S = ( y H θ T V 1 ( y H θ (7.6 Die Minimierungsbedingung fordert, dass der Gradient von S bezüglich der Parameter verschwindet: θ S = H T V 1 ( y H θ = 0 (7.7 Daraus ergibt sich ein lineares Gleichungssystem für θ: H T V 1 H θ = H T V 1 y (7.8 Wenn H T V 1 H nicht singulär und damit invertierbar ist, ist die Lösung: ˆθ = (H T V 1 H 1 H T V 1 y (7.9 Durch Matrixinversionen lassen sich die Lösungen im Prinzip exakt bestimmen. Allerdings wird man bei m > 3 auf numerische Methoden für die Matrixinversionen zurückgreifen müssen. Kovarianzmatrix der Parameter: Nach (7.9 ergeben sich die Parameter θ aus einer linearen Transformation der Messwerte: ˆθ = (H T V 1 H 1 H T V 1 y = A y (7.30 Dann ergibt sich nach (3.63 die Kovarianzmatrix der Parameter θ durch Fehlerfortpflanzung als lineare Transformation der Kovarianzmatrix der Messwerte y: Nach Einsetzen von A erhält man: V (θ = A V (y A T (7.31 V (θ = A V (y A T = (H T V 1 H 1 H T V 1 V [ (H T V 1 H 1 H T V 1] T = (H T V 1 H 1 V (θ = (H T V 1 H 1 (7.3 Der Ausdruck (H T V 1 H 1 ist bereits zur Lösung der Gleichung (7.9 für die Parameter berechnet worden.
7 7.. LINEARE ANPASSUNG 97 Die beste An- Zusammenfassung der Formeln für die lineare Anpassung: passung ergibt sich fuer die Parameter nach (7.9: Die Parameter haben die Kovarianzmatrix (7.3 Der χ -Wert der Anpassung ist: ˆθ = (H T V 1 H 1 H T V 1 y (7.33 V (θ = (H T V 1 H 1 (7.34 χ min = S( ˆθ = ( y H ˆθ T V 1 ( y H ˆθ (7.35 In MATLAB (oder mit Python lassen sich diese Formeln mit den Matrixoperationen sehr einfach programmieren. Ein Beispiel ist in Abb. 7. gezeigt. Beispiel: Wir betrachten den Fall, den wir im vorigen Abschnitt 7..1 bereits speziell behandelt haben: Geradengleichung (m =, unabhängige Messungen y i : H = 1 x 1 1 x 1 x n, V 1 = 1 σ σ n (7.36 Die benötigten Produkte dieser Matrizen sind: V 1 H = 1 σ 1 x 1 σ 1 1 σ n x n σ n = ( H T V 1 T H T V 1 y = H T V 1 H = ( 1 σi xi σi xi σi x i σi Damit wird also die Gleichung (7.10 reproduziert: ( S1 S x S x S xx ( θ1 θ = ( yi xi y i ( S1 S = x ( Sy S xy S x S xx = ( Sy S xy (7.37 (7.38 (7.39 Anpassung an ein orthogonales Funktionensystem: unabhängig sind, also ihre Kovarianzmatrix diagonal, Wenn die Messwerte y i V ij (y = (y δ ij, (7.40
8 98 KAPITEL 7. METHODE DER KLEINSTEN QUADRATE Fit mit Parametern y= a0 + a1*x Parameter mit Fehlern: Kovarianzmatrix: / / chi = chi/nf = Fit mit 3 Parametern y= a0 + a1*x +a*x^ Parameter mit Fehlern: Kovarianzmatrix: / / / chi = chi/nf = Abbildung 7.: Beispiel für eine lineare Anpassung (mit einem MATLAB- Programm: Ein Polynom 1. Grades (durchgezogene Linie oder. Grades (gestrichelt wird an 10 Messwerte mit normalverteilten Fehlern angepasst. Die Messwerte sind ursprünglich entlang einer Geraden erzeugt worden. Man sieht an dem Fehler des Koeffizienten a des quadratischen Terms, dass dieser Beitrag nicht signifikant ist.
9 7.. LINEARE ANPASSUNG 99 ergibt sich aus (7.3 für die inverse Kovarianzmatrix der Parameter: V 1 ij (θ = H ki V 1 1 f i (x k f j (x k kl H lj = f i (x k σ k=1 l=1 k=1 l=1 k (yδ klf j (x l = σ k=1 k (y (7.41 Die Parameter sind unkorreliert, wenn die Diagonalelemente von V 1 (θ Null sind: V 1 ij (θ = k=1 f i (x k f j (x k σ k (y = 1 (θ δ ij. (7.4 Wenn die Fehler der Messwerte alle gleich sind, σk (y = σ (y, folgt aus (7.4 die Orthogonalität der Funktionen f i in Bezug auf die Messwerte: f i (x k f j (x k = σ (y σi (θ δ ij. (7.43 k=1 Im Grenzfall einer unendlich großen Stichprobe geht die Summe in (7.43 in ein Integral über den Definitionsbereich Ω der f i über: f i (x f j (x dx δ ij. (7.44 Ω Dieses Integral definiert ein Skalarprodukt in dem Raum der Funktionen f i und (7.44 bedeutet, dass die f i orthogonale Basisvektoren sind. Eine Anpassung mit orthogonalen Funktionen, erlaubt die sukzessive Hinzunahme weiterer Terme, ohne die bisher bestimmten Parameter wesentlich zu verändern. Das ist zum Beispiel wichtig für die Beurteilung der Signifikanz des Beitrags eines f i -Terms. Orthogonale Funktionen sind zum Beispiel die sin- und cos-funktionen einer Fourier-Zerlegung, die Legendre-Polynome, die Kugelflächenfunktionen usw. Beispiel: Für eine Geradengleichung mit f 1 = 1; f = x ergibt sich: f 1 (x k f (x k = x k = n x (7.45 k Mit der Transformation k f f = x x (7.46 ergibt sich: f 1 (x k f (x k = (x k x = n x n x = 0 (7.47 k k Daraus folgt, dass man den Ursprung der x-koordinate am günstigsten in den Schwerpunkt x zwischen den Messwerten legt (siehe Übungsaufgabe. Mit den Anpassungfunktionen kann man nun y für belie- Extrapolationsfehler: bige x-werte berechnen: y = m ˆθ j f j (x (7.48 Der Fehler in y ergibt sich durch Fehlerfortpflanzung: m σ y y m (y = V ij (θ = f i (x f j (x V ij (θ (7.49 θ i θ j
10 100 KAPITEL 7. METHODE DER KLEINSTEN QUADRATE Güte der Anpassung: Die Güte der Anpassung wird wieder über das minimale χ = S min, wie in im vorigen Abschnitt 7..1 besprochen, abgeschätzt. 7.3 Anpassung nicht-linearer Funktionen der Parameter Wir betrachten jetzt die Anpassung einer beliebigen Funktion f(x θ an die n Messwerte y i. Die LS-Funktion lautet wie in (7.: S = (y i η i V 1 ij (y (y j η j (7.50 Diese Funktion soll wieder als Funktion der Parameter minimalisiert werden. Im allgemeinen muss die Lösung ˆθ = (ˆθ 1,..., ˆθ m, die S minimiert, mit numerischen Methoden iterativ gesucht werden. Es sei im ν-ten Iterationsschritt eine Näherung von ˆθ ge- Iterationsverfahren: funden: θ ν = (θ ν 1,..., θ ν m. (7.51 Gesucht ist ein Inkrement θ ν, das zu der nächsten Näherung für die Parameter führt, und das die Näherung verbessert: θ ν+1 = θ ν + θ ν, (7.5 S(θ ν+1 < S(θ ν (7.53 Das Verfahren wird abgebrochen, wenn Konvergenz erreicht ist. Als Konvergenzkriterium verlangt man in der Regel, dass S sich von einem Schritt zum nächsten um weniger als einen kleinen Betrag ɛ ändert: S(θ ν+1 S(θ ν < ɛ (7.54 Es gibt verschiedenen Verfahren, die Inkremente θ ν zu bestimmen, um das Minimum von S zu finden. Bei vielen Parametern und etwas komplexer strukturierten LS-Funktionen können solche multi-dimensionalen Optimierungsprobleme zu einer mathematischen Herausforderung werden. In der Teilchenphysik wird sehr viel das beim CERN entwickelte Programm MINUIT benutzt, das verschiedene Verfahren zur Auswahl anbietet (Abb Bei komplexen Problemen ist es notwendig, dass der Benutzer die verschiedenen Möglichkeiten kennt und steuernd eingreift. Wichtig sind gute Startwerte θ 0, die man häufig nur durch ein gutes Gespür erhält, um eventuelle Nebenminima im Parameterraum zu vermeiden (Abb Man muss deshalb immer überprüfen, ob die Lösung von den Startwerten abhängt.
11 7.3. ANPASSUNG NICHT-LINEARER FUNKTIONEN DER PARAMETER 101 S S θ k θ k Abbildung 7.3: Beispiel für den Verlauf einer LS-Funktion im Parameterraum. Gradientenverfahren: Eine naheliegende Möglichkeit, Extremwerte einer Funktion zu finden, ist das Gradientenverfahren: Man geht mit einer vorgewählten Schrittweite θ in Richtung des Gradienten der Funktion, im Fall der Minimierung in Richtung des negativen Gradienten (Abb Häufig wird die Schrittweite proportional dem Gradienten gewählt: ( θ ν+1 = η θ S (7.55 θ ν Die Wahl der Schrittweite proportional zum Gradienten von S scheint vernünfig zu sein, weil im Minimum von S Konvergenz erreicht wird und die Schrittweite dann tatsächlich gegen Null geht. Häufig wird der Schrittparameter η aber auch dynamisch angepasst, um zum Beispiel nicht zu lange in Gebieten mit flachem Funktionsverlauf zu verweilen (große Schritte oder in Bereichen steiler Gradienten auch das Minimum finden zu können (kleine Schritte. Wenn sich in einem Iterationsschritt das Vorzeichen des Gradienten ändert, das Extremum also überschritten wurde, sollte man die Schrittweite verkleinern. Linearisierung der Anpassungsfunktion: Durch Entwicklung der Anpassungsfunktion nach den Parametern bis zu den linearen Termen, kann man das Problem auf lineare Anpassungen mit Iterationen zurückführen: ( η i (θ = η i (θ ν + θ η i θ ν +... (7.56 θ=θ ν In der ν-ten Iteration sind die Abweichungen der Messwerte von dem Anpassungswert ( Residuen : y ν i = y i η i (θ ν (7.57 Mit der Definition der Matrix H ergibt sich dann die LS-Funktion in der ν-ten Iteration: H ij = η i θ j (7.58 S ν = ( y ν H θ ν T V 1 ( y ν H θ ν (7.59 Diese LS-Funktion entspricht völlig derjenigen für die lineare Anpassung (7.6, wenn man die Ersetzung macht. y y ν ; θ θ ν (7.60
12 10 KAPITEL 7. METHODE DER KLEINSTEN QUADRATE ********************************************** * * * Function minimization by SUBROUTINE HFITV * * Variable-metric method * * ID = 0 CHOPT = S * * * ********************************************** Convergence when estimated distance to minimum (EDM.LT. 0.10E+01 FCN= FROM MIGRAD STATUS=CONVERGED 37 CALLS 38 TOTAL EDM= 0.3E-05 STRATEGY= 1 ERROR MATRIX ACCURATE EXT PARAMETER STEP FIRST NO. NAME VALUE ERROR SIZE DERIVATIVE 1 P E-0 P E E-03 CHISQUARE = E+01 NPFIT = 9 Abbildung 7.4: Beispiel für die Anwendung des Programmes MINUIT. Unter der graphischen Darstellung ist der Ausdruck des Programmes MINUIT gezeigt. Eine nicht-lineare Funktion der Parameter, angegeben in der Graphik, wird an Messwerte angepasst.
Methode der kleinsten Quadrate
Kapitel 6 Methode der kleinsten Quadrate In den einführenden Worten zur Maximum-Likelihood-Methode im vorigen Kapitel wurde darauf hingewiesen, dass die Parameteroptimierung mit Hilfe des χ -Tests bei
Statistik, Datenanalyse und Simulation
Dr. Michael O. Distler [email protected] Mainz, 31. Mai 2011 4. Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der
Numerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate
Die Maximum-Likelihood-Methode
Vorlesung: Computergestützte Datenauswertung Die Maximum-Likelihood-Methode Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft
1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
Überbestimmte Gleichungssysteme
Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare
Statistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
7.1 Matrizen und Vektore
7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit
5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
Numerische Lineare Algebra
Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)
3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
Methode der kleinsten Quadrate
1. Phase: Methode der kleinsten Quadrate Einführung Im Vortrag über das CT-Verfahren hat Herr Köckler schon auf die Methode der kleinsten Quadrate hingewiesen. Diese Lösungsmethode, welche bei überbestimmten
Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.
Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion
Lineare Algebra: Determinanten und Eigenwerte
: und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b
Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell
Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften
Mathematischer Vorkurs Lösungen zum Übungsblatt 5
Mathematischer Vorkurs Lösungen zum Übungsblatt 5 Prof. Dr. Norbert Pietralla/Sommersemester 2012 [email protected] Aufgabe 1: Berechnen Sie den Abstand d der Punkte P 1 und
FACHHOCHSCHULE ESSLINGEN - HOCHSCHULE FÜR TECHNIK
FACHHOCHSCHULE ESSLINGEN - HOCHSCHULE FÜR TECHNIK Sommersemester 006 Zahl der Blätter: 5 Blatt 1 s. unten Hilfsmittel: Literatur, Manuskript, keine Taschenrechner und sonstige elektronische Rechner Zeit:
Dualitätssätze der linearen Optimierung
Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =
Fehler- und Ausgleichsrechnung
Fehler- und Ausgleichsrechnung Daniel Gerth Daniel Gerth (JKU) Fehler- und Ausgleichsrechnung 1 / 12 Überblick Fehler- und Ausgleichsrechnung Dieses Kapitel erklärt: Wie man Ausgleichsrechnung betreibt
6 Symmetrische Matrizen und quadratische Formen
Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn
Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern
18 Höhere Ableitungen und Taylorformel
8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a
Lineare Algebra und Numerische Mathematik für D-BAUG
P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen
Folgerungen aus dem Auflösungsatz
Folgerungen aus dem Auflösungsatz Wir haben in der Vorlesung den Satz über implizite Funktionen (Auflösungssatz) kennen gelernt. In unserer Formulierung lauten die Resultate: Seien x 0 R m, y 0 R n und
Messunsicherheit und Fehlerrechnung
Messunsicherheit und Fehlerrechnung p. 1/25 Messunsicherheit und Fehlerrechnung Kurzeinführung Peter Riegler [email protected] Fachhochschule Braunschweig/Wolfenbüttel Messunsicherheit und
Tutorium Mathematik II, M Lösungen
Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +
1 Messfehler. 1.1 Systematischer Fehler. 1.2 Statistische Fehler
1 Messfehler Jede Messung ist ungenau, hat einen Fehler. Wenn Sie zum Beispiel die Schwingungsdauer eines Pendels messen, werden Sie - trotz gleicher experimenteller Anordnungen - unterschiedliche Messwerte
Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.
Systeme von Differentialgleichungen Beispiel : Chemische Reaktionssysteme System aus n Differentialgleichungen Ordnung: y (x = f (x, y (x,, y n (x Kurzschreibweise: y y 2 (x = f 2(x, y (x,, y n (x y n(x
1 Gemischte Lineare Modelle
1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst
Lineare Gleichungssysteme
Brückenkurs Mathematik TU Dresden 2016 Lineare Gleichungssysteme Schwerpunkte: Interpretation und Verständnis der Gleichungen Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik unter
Theoretische Physik 1, Mechanik
Theoretische Physik 1, Mechanik Harald Friedrich, Technische Universität München Sommersemester 2009 Mathematische Ergänzungen Vektoren und Tensoren Partielle Ableitungen, Nabla-Operator Physikalische
Optimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
Der CG-Algorithmus (Zusammenfassung)
Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine
1.Übung Mathematik I
1Übung Mathematik I 1) Ist folgende Aussage eine Implikation? ( Begründung!) (( A B) -> ( A C) ) = > (C A) 2 Onkel Dagobert wurde Geld aus seinem Geldspeicher gestohlen Er hat drei Tatverdächtige: Die
A2.3 Lineare Gleichungssysteme
A2.3 Lineare Gleichungssysteme Schnittpunkte von Graphen Bereits weiter oben wurden die Schnittpunkte von Funktionsgraphen mit den Koordinatenachsen besprochen. Wenn sich zwei Geraden schneiden, dann müssen
Extremwerte von Funktionen mehrerer reeller Variabler
Extremwerte von Funktionen mehrerer reeller Variabler Bei der Bestimmung der Extrema von (differenzierbaren) Funktionen f : R n R ist es sinnvoll, zuerst jene Stellen zu bestimmen, an denen überhaupt ein
Statistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
Proseminar Lineare Algebra II, SS 11. Blatt
Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2
Statistik II für Betriebswirte Vorlesung 12
Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 12 11. Januar 2013 7.3. Multiple parameterlineare Regression Im Folgenden soll die
Mathematische und statistische Methoden II
Statistik & Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte
Die Steigung m ist ein Quotient zweier Differenzen und heißt daher Differenzenquotient.
Seite Definition lineare Funktion Eine Funktion f mit dem Funktionsterm f(x) = m x + b, also der Funktionsgleichung y = m x + b, heißt lineare Funktion. Ihr Graph G f ist eine Gerade mit der Steigung m
Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009
Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.
5 Lineare Algebra (Teil 3): Skalarprodukt
5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale
Übungsaufgaben. Mathematik I für Informatiker WS 2006/07 Otto-von-Guericke Universität Magdeburg Prof. Dr. M. Henk, Dr. M. Höding
Mathematik I für Informatiker WS 2006/07 Otto-von-Guericke Universität Magdeburg Prof. Dr. M. Henk, Dr. M. Höding Übungsaufgaben Aufgabe 0.1 Ermitteln Sie x R aus folgenden Gleichungen (a) log 2 (x + 14)
Lösungen zu den Hausaufgaben zur Analysis II
Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin
Die n-dimensionale Normalverteilung
U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung
Analytische Geometrie II
Analytische Geometrie II Rainer Hauser März 212 1 Einleitung 1.1 Geradengleichungen in Parameterform Jede Gerade g in der Ebene oder im Raum lässt sich durch einen festen Punkt auf g, dessen Ortsvektor
Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang
Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen
Teil I. Lineare Optimierung
Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,
Zusammenfassung zum Thema Vektor- und Matrizenrechnung
Zusammenfassung zum Thema Vektor- und Matrizenrechnung Mathematischer Vorkurs für Physiker und Naturwissenschaftler WS 2014/2015 Grundbegriffe der Linearen Algebra Viele physikalische Größen (Geschwindigkeit,
ETH Zürich Analysis I Zwischenprüfung Winter 2014 D-BAUG Musterlösungen Dr. Meike Akveld
ETH Zürich Analysis I Zwischenprüfung Winter 2014 D-BAUG Musterlösungen Dr. Meike Akveld Bitte wenden! 1. Die unten stehende Figur wird beschrieben durch... (a) { (x, y) R 2 x + y 1 }. Richtig! (b) { (x,
7. Wie lautet die Inverse der Verkettung zweier linearer Abbildungen? 9. Wie kann die Matrixdarstellung einer linearen Abbildung aufgestellt werden?
Kapitel Lineare Abbildungen Verständnisfragen Sachfragen Was ist eine lineare Abbildung? Erläutern Sie den Zusammenhang zwischen Unterräumen, linearer Unabhängigkeit und linearen Abbildungen! 3 Was ist
Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell
1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs
Nichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
Statistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II
Statistik II Lineare Regressionsrechnung Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II - 09.06.2006 1 Mit der Kovarianz und dem Korrelationskoeffizienten können wir den statistischen
Demokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik
Demokurs Modul 3741 Vertiefung der Wirtschaftsmathematik und Statistik Kurs 41 Vertiefung der Statistik 15. Juli 010 Seite: 14 KAPITEL 4. ZUSAMMENHANGSANALYSE gegeben, wobei die Stichproben(ko)varianzen
Matrizen und Determinanten, Aufgaben
Matrizen und Determinanten, Aufgaben Inhaltsverzeichnis 1 Multiplikation von Matrizen 1 11 Lösungen 3 2 Determinanten 6 21 Lösungen 7 3 Inverse Matrix 8 31 Lösungen 9 4 Matrizengleichungen 11 41 Lösungen
Überbestimmte lineare Gleichungssysteme
Überbestimmte lineare Gleichungssysteme Fakultät Grundlagen September 2009 Fakultät Grundlagen Überbestimmte lineare Gleichungssysteme Übersicht 1 2 Fakultät Grundlagen Überbestimmte lineare Gleichungssysteme
3.6 Eigenwerte und Eigenvektoren
3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse
Klassifikation von Daten Einleitung
Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung
Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:
Tangentengleichung Wie Sie wissen, gibt die erste Ableitung einer Funktion deren Steigung an. Betrachtet man eine fest vorgegebene Stelle, gibt f ( ) also die Steigung der Kurve und somit auch die Steigung
Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth
Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter
3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
16. FUNKTIONEN VON MEHREREN VARIABLEN
16. FUNKTIONEN VON MEHREREN VARIABLEN 1 Reelle Funktionen auf dem R 2 Wir betrachten Funktionen f(x 1, x 2 ) von zwei reellen Variablen x 1, x 2, z.b. f(x 1, x 2 ) = x 2 1 + x2 2, g(x 1, x 2 ) = x 2 1
10.2 Linearkombinationen
147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition
Verarbeitung von Messdaten
HTL Steyr Verarbeitung von Messdaten Seite von 8 Bernhard Nietrost, HTL Steyr Verarbeitung von Messdaten Mathematische / Fachliche Inhalte in Stichworten: Regression, Polynominterpolation, Extremwertberechnung,
Einführung in die biologische Datenanalyse mit Matlab SS 2009 Tag8
Tag 8: Modellbildung A) Kurvenanpassung B) Variation von Modellparametern C) Hausaufgaben A) Kurvenanpassung Kurvenanpassung dient dazu, Messdaten durch eine Kurve - also einen mathematisch beschreibbare
Anpassungstests VORGEHENSWEISE
Anpassungstests Anpassungstests prüfen, wie sehr sich ein bestimmter Datensatz einer erwarteten Verteilung anpasst bzw. von dieser abweicht. Nach der Erläuterung der Funktionsweise sind je ein Beispiel
9.2 Invertierbare Matrizen
34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
6 Symmetrische Matrizen und quadratische Formen
Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation
Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
Exponential Family, Maximum Likelihood, EM Algorithmus und Gaussian Mixture Models
Exponential Family, Maximum Likelihood, EM Algorithmus und Gaussian Mixture Models Korbinian Schwinger 3. November 003 Inhaltsverzeichnis Inhaltsverzeichnis Exponential Family 3. Definition...............................
Normalengleichungen. Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b,
Normalengleichungen Für eine beliebige m n Matrix A erfüllt jede Lösung x des Ausgleichsproblems Ax b min die Normalengleichungen A t Ax = A t b, Normalengleichungen 1-1 Normalengleichungen Für eine beliebige
Klausurlösung Einführung in Numerische Methoden und FEM Universität Siegen, Department Maschinenbau,
Universität Siegen, Department Maschinenbau, 7.7. Aufgabe y 3 l 3 3 F l l x Das dargestellte Fachwerk soll statisch mit Hilfe der FEM untersucht werden. Die Knoten und Elemente sind in der Abbildung nummeriert.
8 Extremwerte reellwertiger Funktionen
8 Extremwerte reellwertiger Funktionen 34 8 Extremwerte reellwertiger Funktionen Wir wollen nun auch Extremwerte reellwertiger Funktionen untersuchen. Definition Es sei U R n eine offene Menge, f : U R
Lösungen der Aufgaben zu Kapitel 10
Lösungen der Aufgaben zu Kapitel 10 Abschnitt 10.2 Aufgabe 1 (a) Die beiden Funktionen f(x) = 1 und g(y) = y sind auf R definiert und stetig. 1 + x2 Der Definitionsbereich der Differentialgleichung ist
Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen
Kurztest zur Numerik I WiR AG, Dep. Mathematik, NT-Fakultät, Universität Siegen Wintersemester 2012/201 Zwischentest Teil 1: 1. Was bedeuten die Bezeichnungen O(h) und o(h)? (Definition) (siehe Skript!)
Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II. x 2
Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II Wiederholungsblatt: Analysis Sommersemester 2011 W. Werner, F. Springer erstellt von: Max Brinkmann Aufgabe 1: Untersuchen Sie, ob die
8 Blockbild und Hohenlinien
Mathematik fur Ingenieure Institut fur Algebra, Zahlentheorie und Diskrete Mathematik Dr. Dirk Windelberg Universitat Hannover Stand: 18. August 008 http://www.iazd.uni-hannover.de/windelberg/teach/ing
Das Skalarprodukt zweier Vektoren
Beim Skalarprodukt zweier Vektoren werden die Vektoren so multipliziert, dass sich ein Skalar eine Zahl ergibt. Die Berechnung des Skalarproduktes ist ziemlich einfach, aber die weiteren Eigenschaften
( ) Lineare Gleichungssysteme
102 III. LINEARE ALGEBRA Aufgabe 13.37 Berechne die Eigenwerte der folgenden Matrizen: ( ) 1 1 0 1 1 2 0 3 0 0, 2 1 1 1 2 1. 1 1 0 3 Aufgabe 13.38 Überprüfe, ob die folgenden symmetrischen Matrizen positiv
3.6 Approximationstheorie
3.6 Approximationstheorie Bisher haben wir uns im Wesentlichen mit der Interpolation beschäftigt. Die Approximation ist weiter gefasst: wir suchen eine einfache Funktion p P (dabei ist der Funktionenraum
Hypothesen: Fehler 1. und 2. Art, Power eines statistischen Tests
ue biostatistik: hypothesen, fehler 1. und. art, power 1/8 h. lettner / physik Hypothesen: Fehler 1. und. Art, Power eines statistischen Tests Die äußerst wichtige Tabelle über die Zusammenhänge zwischen
2.2 Lineare Gleichungssysteme (LGS)
2.2 Lineare Gleichungssysteme (LGS) Definition 2.2.. Ein LGS über einem Körper K von m Gleichungen in n Unbekannten x,..., x n ist ein Gleichungssystem der Form a x + a 2 x 2 +... + a n x n = b a 2 x +
Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix
Inhaltsverzeichnis Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix Auf dieser Seite werden Matrizen und Vektoren fett gedruckt, um sie von Zahlen zu unterscheiden. Betrachtet wird das
Eine zweidimensionale Stichprobe
Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,
Zeitreihenökonometrie
Zeitreihenökonometrie Kapitel 8 Impuls-Antwort-Funktionen Interpretation eines VAR-Prozesses 2 Fall eines bivariaten Var(p)-Prozess mit 2 Variablen und ohne Konstante 1 1 p p 1,t α11 α 12 1,t-1 α11 α 12
Rang einer Matrix. 1-E1 Ma 1 Lubov Vassilevskaya
Rang einer Matrix 1-E1 Ma 1 Lubov Vassilevskaya Unterdeterminante einer nichtquadratischen Matrix M ist eine nichtquadratische 2,3-Matrix: M = 6 2 3 0 5 7 Durch Streichen einer der drei Spalten kann man
Technische Universität München Zentrum Mathematik. Übungsblatt 12
Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 1 Hausaufgaben Aufgabe 1.1 Sei f : R R gegeben durch f(x 1, x ) = x 3
10. Die Normalverteilungsannahme
10. Die Normalverteilungsannahme Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Bisher haben wir vorausgesetzt, daß die Beobachtungswerte normalverteilt sind. In diesem Fall kann man
Vorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
Kapitel 8 Einführung der Integralrechnung über Flächenmaße
8. Flächenmaße 8.1 Flächenmaßfunktionen zu nicht negativen Randfunktionen Wir wenden uns einem auf den ersten Blick neuen Thema zu, der Ermittlung des Flächenmaßes A von Flächen A, die vom nicht unterhalb
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
(x 1. Vektoren. g: x = p + r u. p r (u1. x 2. u 2. p 2
Vektoren Mit der Vektorrechnung werden oft geometrische Probleme gelöst. Wenn irgendwelche Aufgabenstellungen geometrisch darstellbar sind, z.b. Flugbahnen oder Abstandsberechnungen, dann können sie mit
Regression und Korrelation
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen
Studientag zur Algorithmischen Mathematik
Studientag zur Algorithmischen Mathematik Aufgaben zur nicht-linearen Optimierung Teil II Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Aufgabe 5 Bestimmen
Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
1.6 Implizite Funktionen
1 1.6 Implizite Funktionen Wir werden uns jetzt mit nichtlinearen Gleichungen beschäftigen, f(x) = 0, wobei f = (f 1,..., f m ) stetig differenzierbar auf einem Gebiet G R n und m < n ist. Dann hat man
