Methode der kleinsten Quadrate DSV2, 2007, Least-Squares, Rumc, 1

Größe: px
Ab Seite anzeigen:

Download "Methode der kleinsten Quadrate DSV2, 2007, Least-Squares, Rumc, 1"

Transkript

1 Methode der kleinsten Quadrate DSV2, 2007, Least-Squares, Rumc, 1 Problem der linearen Annäherung im Skalarprodukt-Raum Finde für einen beliebigen Vektor y eine Linearkombination y e der Vektoren 1, 2,..., M, so dass der Fehlervektor e = y y e minimale Länge hat bzw. die Summe der Fehlerquadrate der Komponenten II y y e II 2 = Σ n=1,...,n Ie n I 2 minimal ist (Least-Squares bzw. LS-Lösung). Beispiel y gegeben 2 y = = = e y e LS-Lösung 2 y e = 2 0 = minimiert II y y e II 2

2 Orthogonalitätsprinzip DSV2, 2007, Least-Squares, Rumc, 2 Alternative Problemformulierung Finde für jeden N1-Spaltenvektor y = [y 1,,y N ] T die Linearkombination y e = b 1 1 b M M = A b bzw. den optimalen M1-Koeffizientenvektor b, so dass der Fehlervektor e = y - y e minimale Länge hat. A = [ M ] nennt man Datenmatri und b = [ b 1... b M ] T Gewichts- oder Koeffizientenvektor. Orthogonalitätsprinzip Die Linearkombination y e = A b minimiert genau dann die Summe der Fehlerquadrate II y y e II 2, wenn der Fehlervektor e senkrecht auf allen Datenvektoren m, m = 1,...,M, steht, d.h. e orthogonal zu allen m ist, d.h. für alle Skalarprodukte gilt ( m ) T e = 0.

3 Normalgleichung DSV2, 2007, Least-Squares, Rumc, 3 Orthogonalitätsprinzip in Matriform A T e = 0, Normalgleichung ( 1 ) T A T = ( M ) T e = y - A b oben einsetzen gibt A T (y - A b LS ) = 0 Bedingung für optimale Koeffizienten wenn A T A invertierbar ist A T A b LS = A T y b LS = (A T A) -1 AT y deterministisches Gegenstück zum Wienerfilter Aufgabe überprüfe b LS im Beispiel auf Folie 1 wenn A T A nicht invertierbar ist b opt = A # y A # ist die Moore-Penrose-Pseudoinverse von A Matlab pinv(), Berechnung via Singulärwert-Zerlegung typisch Anzahl -Vektoren M < Dimension N

4 Einfache lineare Regression DSV2, 2007, Least-Squares, Rumc, 4 Problem N verrauschte Messwerte y n = β 1 β 2 n z n, n = 1,,N Annahmen zum Rauschen z n sind unkorreliert und E{(z n ) 2 } = σ 2 Finde b 1 und b 2 so dass Σ n Iy n (b 1 b 2 n )I 2 minimal ist Beispiel y e4 Lineares Modell β 1 = 0, β 2 = 0.75 Rauschen AWGN mit σ = 0.2 T = [ ] y T = [ ] y e1 y e2 y e3 Lösungsansatz y e = A b = b LS-Lösung Ursprungsgerade mit Steigung b LS = Matlab bls = regress(y,)

5 Mehrfache lineare Regression DSV2, 2007, Least-Squares, Rumc, 5 Problem N Messwerte y n = β 0 β 1 1n β M Mn z n, n = 1,,N Annahmen zum Rauschen z n sind unkorreliert und E{(z n ) 2 } = σ 2 Finde b so dass Σ n Iy n (b 0 b 1 1n b M Mn )I 2 minimal ist LS-Lösung b LS muss die Normalgleichung auf Folie 3 erfüllen. Die Datenmatri A sieht wie folgt aus A = N M1 MN

6 LS-Schätzung mit FIR-Filter DSV2, 2007, Least-Squares, Rumc, 6 Schätzproblem mit FIR-Filter [n] b 0 [n-1] b 1 b M-1 b M [n-m] desired signal d[n] LS-Gütefunktion y[n] - minimiere J N (b) = Σ N n=m e 2 [n] Kovarianz-Methode keine Annahme über Daten ausserhalb [0,N] es gibt andere Methoden mit anderen Annahmen e[n] estimation error (Residuum) FIR-Filterung y[m] 1] y[n] y[m = [M] [M 1] [N] [M 1] [M] [N 1] [0] [1] [N M] b b b 0 1 M y = A b

7 LS-Schätzung mit FIR-Filter DSV2, 2007, Least-Squares, Rumc, 7 Fehler-Vektor e = d -y d = [ d[m] d[m1]... d[n] ] T LS-Lösung b LS = (A T A) -1 AT d bzw. b LS = A # d optimal bezüglich der bis zum Zeitpunkt N vorhandenen Daten deterministisches Analogon zum Wiener-Filter stationäre (ergodische) Umgebung lim N-> b LS = b MMSE schneller Recursive Least-Squares- (RLS)-Algorithmus eisitiert oft aber auch blockweise Verarbeitung 1. Berechnung der LS-Koeffizienten b LS = A # d 2. FIR-Filterung (z.b. zur Fehlerbestimmung)

8 Lineare Prädiktion DSV2, 2009, Least-Squares, Rumc, 8 Analysefilter A(z) = 1-b 1 - -b M [n] [n-1] [n-m] b 1 b 2 b M-1 b M d[n] y[n] - e[n] e[n] Synthesefilter H(z) = 1/A(z) = 1 / (1-b 1 - -b M ) Allpolfilter [n]

9 Beispiel Lineare Prädiktion DSV2, 2007, Least-Squares, Rumc, 9 Lineare Prädiktion eines Sinus-Signals [n] = sin(2π f 0 nt s ) [n] [n-1] [n-2] b 1 b 2 d[n] y[n] - Fehlersignal e[n] Resultat (vgl. Uebungsaufgabe) Der LS-Prädiktor mit 2 Koeffizienten kann [n] perfekt schätzen! Analyse- und Synthese-Filter Analyse E(z) = X(z) A(z) wobei A(z) = 1-b 1LS -b 2LS z -2 Synthese X(z) = E(z) H(z) wobei H(z) = 1/A(z) ein Allpol-Filter ist

10 Beispiel Lineare Prädiktion DSV2, 2007, Least-Squares, Rumc, 10 e[n]=0 [n] = sin(2π f 0 nt s ), n 2 [-1] = sin(2π f 0 /f s ) b 1LS [-2] = 0 b 2LS IIR-Filter H(z) = b 1LS -b 2LS z -2 generiert Sinus mit Frequenz f 0 wenn die Anfangswerte [-1] [-2] richtig gewählt worden sind. (Achtung Numerik)

Kapitel 10: Methode der kleinsten Quadrate

Kapitel 10: Methode der kleinsten Quadrate ZHAW, DSV2, 2009, Rumc, 0- Inhaltsverzeichnis Kapitel 0: Methode der kleinsten Quadrate. EINLEITUNG... 2. NORMALGLEICHUNG... 2 3. LINEARE REGRESSION... 5 3. LINEARE REGRESSION... 5 4. LEAST-SQUARES FIR-FILTER...

Mehr

Übung 7: Methode der kleinsten Quadrate

Übung 7: Methode der kleinsten Quadrate ZHAW, DSV2, 2007, Rumc, 1/8 Übung 7: Methode der kleinsten Quadrate Aufgabe 1: Lineare Annäherung im Skalarprodukt-Raum. Finden Sie für den Vektor y = [2 2 2] T eine Linearkombination y e der Vektoren

Mehr

Methode der kleinsten Quadrate

Methode der kleinsten Quadrate Versus QR Matrizen mit vollem Rang 27. Mai 2011 Versus QR Inhaltsverzeichnis 1 2 3 Beispiel 4 Beispiel 5 6 Versus QR Kondition Vergleich Beispiel Versus QR Zu finden: Gerade, die den Punkten (0, 6), (1,

Mehr

Kapitel 8: Zeitdiskrete Zufallssignale

Kapitel 8: Zeitdiskrete Zufallssignale ZHAW, DSV2, 2007, Rumc, 8-1 Kapitel 8: Zeitdiskrete Zufallssignale Inhaltsverzeichnis 1. STOCHASTISCHER PROZESS...1 2. STATISTISCHE EIGENSCHAFTEN EINER ZUFALLSVARIABLEN...2 3. STATISTISCHE EIGENSCHAFTEN

Mehr

Adaptive LMS-Filter DSV, 2005/10, Rur, adaptive LMS-Filter, 1

Adaptive LMS-Filter DSV, 2005/10, Rur, adaptive LMS-Filter, 1 Adaptive LMSFilter DSV, 2005/10, Rur, adaptive LMSFilter, 1 Ein Filter ist ein zeitvariantes System. kann Filterparameter an unbekannte Anforderungen anpassen mit rekursivem AdaptationsAlgorithmus (selfdesigning)

Mehr

Kapitel 2 Kurvenanpassung

Kapitel 2 Kurvenanpassung Kapitel 2 Kurvenanpassung 2 2 2 Kurvenanpassung 2.1 Approximation... 26 2.1.1 Approximation mit orthonormalen Funktionensystemen.. 26 2.1.1.1 Approximation mit der Fourier-Reihe... 29 2.1.1.2 Approximation

Mehr

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

10.2 Linearkombinationen

10.2 Linearkombinationen 147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition

Mehr

Inhaltsverzeichnis. Daniel von Grünigen. Digitale Signalverarbeitung. mit einer Einführung in die kontinuierlichen Signale und Systeme

Inhaltsverzeichnis. Daniel von Grünigen. Digitale Signalverarbeitung. mit einer Einführung in die kontinuierlichen Signale und Systeme Inhaltsverzeichnis Daniel von Grünigen Digitale Signalverarbeitung mit einer Einführung in die kontinuierlichen Signale und Systeme ISBN (Buch): 978-3-446-44079-1 ISBN (E-Book): 978-3-446-43991-7 Weitere

Mehr

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften

Mehr

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)

Mehr

Überbestimmte Gleichungssysteme, Regression

Überbestimmte Gleichungssysteme, Regression Überbestimmte Gleichungssysteme, Regression 8. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas MUL 16. Mai 2013 C. Brand, E. Hausenblas 8. Vorlesung 1 / 19 Gliederung 1 Überbestimmte

Mehr

Computergrafik Inhalt Achtung! Kapitel ist relevant für CG-2!

Computergrafik Inhalt Achtung! Kapitel ist relevant für CG-2! Computergrafik Inhalt Achtung! Kapitel ist relevant für CG-2! 0 2 3 4 5 6 7 8 Historie, Überblick, Beispiele Begriffe und Grundlagen Objekttransformationen Objektrepräsentation und -Modellierung Sichttransformationen

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

Überbestimmte Gleichungssysteme

Überbestimmte Gleichungssysteme Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010 Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und

Mehr

Lineare Algebra. 10. Übungsstunde. Steven Battilana.

Lineare Algebra. 10. Übungsstunde. Steven Battilana. Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D. Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion

Mehr

12. R n als EUKLIDISCHER VEKTORRAUM

12. R n als EUKLIDISCHER VEKTORRAUM 12. R n als EUKLIDISCHER VEKTORRAUM 1 Orthogonalität in der Ebene. Die Vektoren in der Ebene, die (im üblichen Sinne) senkrecht zu einem Vektor x = (x 1, x 2 ) T stehen, lassen sich leicht angeben. Sie

Mehr

d) Produkte orthogonaler Matrizen sind wieder orthogonal.

d) Produkte orthogonaler Matrizen sind wieder orthogonal. Die orthogonale Matrizen Definition: Eine Matrix Q R n n heißt orthogonal, falls QQ T = Q T Q = I gilt. Die Eigenschaften orthogonaler Matrizen: a) det(q) = ±1; b) Qx 2 = x 2 für alle x R n, also Q 2 =

Mehr

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }. 154 e Gegeben sind die Vektoren v 1 = ( 10 1, v = ( 10 1. Sei V 1 = v 1 der von v 1 aufgespannte Vektorraum in R 3. 1 Dann besteht V 1 aus allen Vielfachen von v 1, V 1 = { c v 1 c R }. ( 0 ( 01, v 3 =

Mehr

Digitale Signalverarbeitung

Digitale Signalverarbeitung Daniel Ch. von Grünigen Digitale Signalverarbeitung mit einer Einführung in die kontinuierlichen Signale und Systeme 4. Auflage Mit 222 Bildern, 91 Beispielen, 80 Aufgaben sowie einer CD-ROM mit Lösungen

Mehr

Dabei bezeichnet x die Einflussgrösse (Regressor), y die Zielvariable (die eine Folge der Ursache x ist) und die Störung. Die n = 3 Beobachtungen

Dabei bezeichnet x die Einflussgrösse (Regressor), y die Zielvariable (die eine Folge der Ursache x ist) und die Störung. Die n = 3 Beobachtungen Lineare Regression und Matrizen. Einführendes Beispiel Der im Kapitel Skalarprodukt gewählte Lösungsweg für das Problem der linearen Regression kann auch mit Matrizen formuliert werden. Die Idee wird zunächst

Mehr

Hilfsblätter Lineare Algebra

Hilfsblätter Lineare Algebra Hilfsblätter Lineare Algebra Sebastian Suchanek unter Mithilfe von Klaus Flittner Matthias Staab c 2002 by Sebastian Suchanek Printed with L A TEX Inhaltsverzeichnis 1 Vektoren 1 11 Norm 1 12 Addition,

Mehr

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 20

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 20 Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 20 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)

Mehr

Übung 3: Einfache Graphiken und Näherungen durch Regression

Übung 3: Einfache Graphiken und Näherungen durch Regression Übung 3: Einfache Graphiken und Näherungen durch Regression M. Schlup, 9. August 010 Aufgabe 1 Einfache Graphik Für die abgegebene Leistung P = UI eines linearen, aktiven Zweipols mit Leerlaufspannung

Mehr

Die Datenmatrix für Überwachtes Lernen

Die Datenmatrix für Überwachtes Lernen Die Datenmatrix für Überwachtes Lernen X j j-te Eingangsvariable X = (X 0,..., X M 1 ) T Vektor von Eingangsvariablen M Anzahl der Eingangsvariablen N Anzahl der Datenpunkte Y Ausgangsvariable x i = (x

Mehr

Grundlagen der Statistischen Nachrichtentheorie

Grundlagen der Statistischen Nachrichtentheorie Grundlagen der Statistischen Nachrichtentheorie - Prof. Dr.-Ing. Thomas Sikora - Name:............................ Vorname:......................... Matr.Nr:........................... Ich bin mit der

Mehr

Vom Zeit- zum Spektralbereich: Fourier-Analyse

Vom Zeit- zum Spektralbereich: Fourier-Analyse Vom Zeit- zum Spektralbereich: Fourier-Analyse Ergebnis der Analyse Zerlegung eines beliebigen periodischen Signals in einem festen Zeitfenster in eine Summe von Sinoidalschwingungen Ermittlung der Amplituden

Mehr

Orthonormalbasis. Orthogonalentwicklung

Orthonormalbasis. Orthogonalentwicklung Orthonormalbasis Eine Orthogonal- oder Orthonormalbasis des R n (oder eines Teilraums) ist eine Basis {v,..., v n } mit v i = und v i, v j = für i j, d. h. alle Basisvektoren haben Norm und stehen senkrecht

Mehr

Überbestimmte Systeme, Approximation

Überbestimmte Systeme, Approximation Überbestimmte Systeme, Approximation 7. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 3. April 2014 Gliederung 1 Überbestimmte Systeme Wiederholung:

Mehr

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010

Mehr

Kapitel 2.1: Die stochastische Sicht auf Signale Georg Dorffner 67

Kapitel 2.1: Die stochastische Sicht auf Signale Georg Dorffner 67 Kapitel 2.1: Die stochastische Sicht auf Signale 215 Georg Dorffner 67 Stochastische Prozesse Stochastische Prozesse sind von Zufall geprägte Zeitreihen x n f x, n 1 xn2,... n vorhersagbarer Teil, Signal

Mehr

Lineare Prädiktion. Stephan Arlinghaus 9. November 2006

Lineare Prädiktion. Stephan Arlinghaus 9. November 2006 Stephan Arlinghaus 9. November 2006 Gliederung 1 Einleitung Sprachanalyse... etwas Mathematik 2 Das autoregressive Modell (AR) (LP) 3 Kovarianzmethode Autokorrelationsmethode Methodenvergleich 4 5 Der

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

Vektorräume. 1. v + w = w + v (Kommutativität der Vektoraddition)

Vektorräume. 1. v + w = w + v (Kommutativität der Vektoraddition) Vektorräume In vielen physikalischen Betrachtungen treten Größen auf, die nicht nur durch ihren Zahlenwert charakterisiert werden, sondern auch durch ihre Richtung Man nennt sie vektorielle Größen im Gegensatz

Mehr

Serie 10: Inverse Matrix und Determinante

Serie 10: Inverse Matrix und Determinante D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die

Mehr

Matrixzerlegungen. Überbestimmte Systeme

Matrixzerlegungen. Überbestimmte Systeme Matrixzerlegungen. Überbestimmte Systeme 6. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 27. März 2014 Gliederung 1 Matrixzerlegungen Links-Rechts-Zerlegung

Mehr

Statistik, Datenanalyse und Simulation

Statistik, Datenanalyse und Simulation Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 31. Mai 2011 4. Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der

Mehr

Multiple Regressionsanalyse - Kurzabriss

Multiple Regressionsanalyse - Kurzabriss Multiple Regressionsanalyse - Kurzabriss Ziele: Schätzung eines Kriteriums aus einer Linearkombination von Prädiktoren Meist zu Screening-Untersuchungen, um den Einfluß von vermuteten Ursachenvariablen

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr

Lineare Regression. Volker Tresp

Lineare Regression. Volker Tresp Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M

Mehr

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell 1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs

Mehr

Statistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II

Statistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II Statistik II Lineare Regressionsrechnung Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II - 09.06.2006 1 Mit der Kovarianz und dem Korrelationskoeffizienten können wir den statistischen

Mehr

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Wiederholung von Linearer Algebra und Differentialrechnung im R n Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:

Mehr

Lösung Semesterendprüfung (Nachprüfung)

Lösung Semesterendprüfung (Nachprüfung) MLAE Mathematik: Lineare Algebra für Ingenieure Frühlingssemester 6 Dr. Christoph Kirsch ZHAW Winterthur Lösung Semesterendprüfung (Nachprüfung Aufgabe : Aufgabe : a Gemäss Def. der Vorlesung müssen wir

Mehr

2. Spezielle anwendungsrelevante Funktionen

2. Spezielle anwendungsrelevante Funktionen 2. Spezielle anwendungsrelevante Funktionen (1) Affin-lineare Funktionen Eine Funktion f : R R heißt konstant, wenn ein c R mit f (x) = c für alle x R existiert linear, wenn es ein a R mit f (x) = ax für

Mehr

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3 Matrixpotenzen In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden Ist die Matrix diagonalisierbar, dann kann diese Berechnung wie folgt vereinfacht werden Sei A eine diagonalisierbare

Mehr

43 Unitäre Vektorräume

43 Unitäre Vektorräume 43 Unitäre Vektorräume 43 1 Zusammenfassung In diesem Paragrafen werden die gleichen Themen wie in 41 abgehandelt, jetzt allerdings für den komplexen Fall. Die Aussagen entsprechen sich weitgehend, daher

Mehr

Inhaltsverzeichnis. 4 Statistik Einleitung Wahrscheinlichkeit Verteilungen Grundbegriffe 98

Inhaltsverzeichnis. 4 Statistik Einleitung Wahrscheinlichkeit Verteilungen Grundbegriffe 98 Inhaltsverzeichnis 1 Datenbehandlung und Programmierung 11 1.1 Information 11 1.2 Codierung 13 1.3 Informationsübertragung 17 1.4 Analogsignale - Abtasttheorem 18 1.5 Repräsentation numerischer Daten 20

Mehr

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen

Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang. Institut für Geometrie und Praktische Mathematik RWTH Aachen Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

Bildverarbeitung: Filterung. D. Schlesinger () Bildverarbeitung: Filterung 1 / 17

Bildverarbeitung: Filterung. D. Schlesinger () Bildverarbeitung: Filterung 1 / 17 Bildverarbeitung: Filterung D. Schlesinger () Bildverarbeitung: Filterung 1 / 17 Allgemeines Klassische Anwendung: Entrauschung (Fast) jeder Filter basiert auf einem Modell (Annahme): Signal + Rauschen

Mehr

Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h

Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h 5. Die partielle Autokorrelationsfunktion 5.1 Definition, Berechnung, Schätzung Bisher: Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h ρ X (h) = Corr(X t, X

Mehr

44 Orthogonale Matrizen

44 Orthogonale Matrizen 44 Orthogonale Matrizen 44.1 Motivation Im euklidischen Raum IR n haben wir gesehen, dass Orthonormalbasen zu besonders einfachen und schönen Beschreibungen führen. Wir wollen das Konzept der Orthonormalität

Mehr

Vektoren und Matrizen

Vektoren und Matrizen Universität Basel Wirtschaftswissenschaftliches Zentrum Vektoren und Matrizen Dr. Thomas Zehrt Inhalt: 1. Vektoren (a) Einführung (b) Linearkombinationen (c) Länge eines Vektors (d) Skalarprodukt (e) Geraden

Mehr

Seminar Optimierung - Approximation and fitting. Christian Bretzke

Seminar Optimierung - Approximation and fitting. Christian Bretzke Seminar Optimierung - Approximation and fitting Christian Bretzke 1 Inhaltsverzeichnis 1 Norm Approximation 3 1.1 Verschiedene Interpretation.................................. 3 1.2 Gewichtete NAP........................................

Mehr

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten:

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten: KAPITEL 4 Lineare Ausgleichsrechnung Beispiel 41 Das Ohmsche Gesetz: Eine Meßreihe von Daten: U = RI (U i, I i ) (Spannung, Stromstärke), i = 1,, m Aufgabe: man bestimme aus diesen Meßdaten den Widerstand

Mehr

Aufgabenkomplex 3: Vektoren und Matrizen

Aufgabenkomplex 3: Vektoren und Matrizen Technische Universität Chemnitz 15. November 010 Fakultät für Mathematik Höhere Mathematik I.1 Aufgabenkomplex : Vektoren und Matrizen Letzter Abgabetermin: 9. Dezember 010 in Übung oder Briefkasten bei

Mehr

Serie 5. ETH Zürich - D-MAVT Lineare Algebra II. Prof. Norbert Hungerbühler

Serie 5. ETH Zürich - D-MAVT Lineare Algebra II. Prof. Norbert Hungerbühler Prof. Norbert Hungerbühler Serie 5 ETH Zürich - D-MAVT Lineare Algebra II. a) Die Abbildung V n R n, v [v] B, die jedem Vektor seinen Koordinatenvektor bezüglich einer Basis B zuordnet, ist linear. Sei

Mehr

Übungsblatt

Übungsblatt Übungsblatt 3 3.5.27 ) Die folgenden vier Matrizen bilden eine Darstellung der Gruppe C 4 : E =, A =, B =, C = Zeigen Sie einige Gruppeneigenschaften: a) Abgeschlossenheit: Berechnen Sie alle möglichen

Mehr

Übung 5: Zufallssignale

Übung 5: Zufallssignale ZHAW, DSV2, 2009, Rumc, 1 Übung 5: Zufallssignale Aufgabe 1: Analyse eines Rauschsignals. Betrachten und analysieren Sie die Rauschsignale Z w [n] und Z c [n] am Eingang und am Ausgang des folgen FIR-Filters.

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Skalarprodukt. Das gewöhnliche Skalarprodukt ist für reelle n-tupel folgendermaßen erklärt: Sind. und v := reelle n-tupel, dann ist

Skalarprodukt. Das gewöhnliche Skalarprodukt ist für reelle n-tupel folgendermaßen erklärt: Sind. und v := reelle n-tupel, dann ist Orthogonalität p. 1 Skalarprodukt Das gewöhnliche Skalarprodukt ist für reelle n-tupel folgendermaßen erklärt: Sind u := u 1 u 2. u n reelle n-tupel, dann ist und v := v 1 v 2. v n u v := u 1 v 1 + u 2

Mehr

Grundlagen der Statistischen Nachrichtentheorie

Grundlagen der Statistischen Nachrichtentheorie - Prof. Dr.-Ing. Thomas Sikora - Name:............................ Vorname:......................... Matr.Nr:........................... Ich bin mit der Veröffentlichung des Klausurergebnisses unter meiner

Mehr

7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012)

7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Technische Universität München Zentrum Mathematik, M1 Prof. Dr. Boris Vexler Dr. Ira Neitzel Dipl.-Math. Alana Kirchner 7. Übungs-/Wiederholungsblatt zu Einführung in die Numerik (SS 2012) Diese Auswahl

Mehr

Vektoren. Kapitel 13 Vektoren. Mathematischer Vorkurs TU Dortmund Seite 114 / 1

Vektoren. Kapitel 13 Vektoren. Mathematischer Vorkurs TU Dortmund Seite 114 / 1 Vektoren Kapitel 13 Vektoren Mathematischer Vorkurs TU Dortmund Seite 114 / 1 Vektoren 131 Denition: Vektoren im Zahlenraum Ein Vektor (im Zahlenraum) mit n Komponenten ist ein n-tupel reeller Zahlen,

Mehr

10 ARIMA-Modelle für nicht-stationäre Zeitreihen

10 ARIMA-Modelle für nicht-stationäre Zeitreihen 10 ARIMA-Modelle für nicht-stationäre Zeitreihen In diesem Abschnitt untersuchen wir einige praktische Aspekte bei der Wahl eines geeigneten Modells für eine beobachtete Zeitreihe X 1,...,X n. Falls die

Mehr

Tests einzelner linearer Hypothesen I

Tests einzelner linearer Hypothesen I 4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen

Mehr

9. Vorlesung Lineare Algebra, SVD und LSI

9. Vorlesung Lineare Algebra, SVD und LSI 9. Vorlesung Lineare Algebra, SVD und LSI Grundlagen lineare Algebra Vektornorm, Matrixnorm Eigenvektoren und Werte Lineare Unabhängigkeit, Orthogonale Matrizen SVD, Singulärwerte und Matrixzerlegung LSI:Latent

Mehr

Rückwärts-Einsetzen. Bei einem linearen Gleichungssystem in oberer Dreiecksform, nacheinander bestimmt werden: r n,n x n = b n. = x n = b n /r n,n

Rückwärts-Einsetzen. Bei einem linearen Gleichungssystem in oberer Dreiecksform, nacheinander bestimmt werden: r n,n x n = b n. = x n = b n /r n,n Rückwärts-Einsetzen Bei einem linearen Gleichungssystem in oberer Dreiecksform, r 1,1 r 1,n x 1 b 1..... =., } 0 {{ r n,n } x n b n R mit det R = r 1,1 r n,n 0 können die Unbekannten x n,..., x 1 nacheinander

Mehr

kleinsten Quadraten Session 4: Angewandte Geodäsie und GNSS Geodätische Woche, 29. September 2011, Nürnberg

kleinsten Quadraten Session 4: Angewandte Geodäsie und GNSS Geodätische Woche, 29. September 2011, Nürnberg von von Session 4: Angewandte Geodäsie und GNSS Corinna Harmening Jens-André Geodätisches Institut Leibniz Universität Hannover Geodätische Woche, 29. September 2011, Nürnberg 1 / 12 Motivation von Abb.

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Test = 28 Punkte. 1: 2: 3: 4: 5: Punkte: Note:

Test = 28 Punkte. 1: 2: 3: 4: 5: Punkte: Note: ZHAW, DSV1, FS2010, Rumc, 1 Test 1 5 + 5 + 5 + 8 + 5 = 28 Punkte Name: Vorname: 1: 2: : 4: 5: Punkte: Note: Aufgabe 1: AD-DA-System. + 1 + 1 = 5 Punkte Das analoge Signal x a (t) = cos(2πf 0 t), f 0 =750

Mehr

4 Lineare Abbildungen

4 Lineare Abbildungen 17. November 2008 34 4 Lineare Abbildungen 4.1 Lineare Abbildung: Eine Funktion f : R n R m heißt lineare Abbildung von R n nach R m, wenn für alle x 1, x 2 und alle α R gilt f(αx 1 ) = αf(x 1 ) f(x 1

Mehr

Das magische Quadrat für stochastische Prozesse

Das magische Quadrat für stochastische Prozesse . Geodätische Woche Das magische Quadrat für stochastische Prozesse 1 Institut für Geodäsie und Geoinformation Professur für Theoretische Geodäsie - Universität Bonn Ina Krasbutter, Boris Kargoll, Wolf-Dieter

Mehr

Kapitel 1. Matrizen und lineare Gleichungssysteme. 1.1 Matrizenkalkül (Vektorraum M(n,m); Matrixmultiplikation;

Kapitel 1. Matrizen und lineare Gleichungssysteme. 1.1 Matrizenkalkül (Vektorraum M(n,m); Matrixmultiplikation; Kapitel 1 Matrizen und lineare Gleichungssysteme 11 Matrizenkalkül (Vektorraum M(n,m; Matrixmultiplikation; Transposition; Spalten- und Zeilenvektoren Matrizen sind im Prinzip schon bei der schematischen

Mehr

Übersicht Kapitel 9. Vektorräume

Übersicht Kapitel 9. Vektorräume Vektorräume Definition und Geometrie von Vektoren Übersicht Kapitel 9 Vektorräume 9.1 Definition und Geometrie von Vektoren 9.2 Teilräume 9.3 Linearkombinationen und Erzeugendensysteme 9.4 Lineare Abhängigkeiten

Mehr

Beispiele. Grundlagen. Kompakte Operatoren. Regularisierungsoperatoren

Beispiele. Grundlagen. Kompakte Operatoren. Regularisierungsoperatoren Beispiele Grundlagen Kompakte Operatoren Regularisierungsoperatoren Transportgleichung Dierenzieren ( nx ) (f δ n ) (x) = f (x) + n cos, x [0, 1], δ Regularisierung!! Inverse Wärmeleitung Durc f (f δ n

Mehr

[5], [0] v 4 = + λ 3

[5], [0] v 4 = + λ 3 Aufgabe 9. Basen von Untervektorräumen. Bestimmen Sie Basen von den folgenden Untervektorräumen U K des K :. K = R und U R = span,,,,,.. K = C und U C = span + i, 6, i. i i + 0. K = Z/7Z und U Z/7Z = span

Mehr

Anhang B. Regression

Anhang B. Regression Anhang B Regression Dieser Anhang rekapituliert die in der Analysis und Statistik wohlbekannte Methode der kleinsten Quadrate, auch Regression genannt, zur Bestimmung von Ausgleichsgeraden Regressionsgeraden

Mehr

Lineare Abbildungen L : R 2 R 2

Lineare Abbildungen L : R 2 R 2 Lineare Abbildungen Lineare Abbildungen L : R 2 R 2 Eine Abbildung Eine Abbildung ordnet jedem Element aus einer Menge A Eine Abbildung ordnet jedem Element aus einer Menge A ein Element aus einer Menge

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

Skalarprodukt und Orthogonalität

Skalarprodukt und Orthogonalität Skalarprodukt und Orthogonalität Skalarprodukt und Orthogonalität in R n Wir erinnern an das euklidische Skalarprodukt im R 2 : Wir erinnern an das euklidische Skalarprodukt im R 2 : < a, b >:= α 1 β 1

Mehr

Sparse Hauptkomponentenanalyse

Sparse Hauptkomponentenanalyse Sparse Referent: Thomas Klein-Heßling LMU München 20. Januar 2017 1 / 36 1 Einführung 2 3 4 5 2 / 36 Einführung Ziel: vorhandene Datenmenge verstehen Daten komprimieren Bei der Sparse (SPCA) handelt es

Mehr

Singulärwertzerlegung

Singulärwertzerlegung LMU München Centrum für Informations- und Sprachverarbeitung WS 10-11: 13.12.2010 HS Matrixmethoden im Textmining Dozent: Prof.Dr. Klaus U. Schulz Referat von: Erzsébet Galgóczy Singulärwertzerlegung 1

Mehr

Klausur zur Vorlesung Höhere Mathematik I

Klausur zur Vorlesung Höhere Mathematik I Name: 30. Januar 200,.00-3.00 Uhr Allgemeine Hinweise: Dauer der Klausur: Zugelassene Hilfsmittel: 20 min, 2 Zeitstunden Skript, Vorlesungsmitschrift Schreiben Sie bitte auf dieses Deckblatt oben rechts

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

Prof. Dr. Stefan Weinzierl SNR V = P signal P noise

Prof. Dr. Stefan Weinzierl SNR V = P signal P noise Audiotechnik II Digitale Audiotechnik: 5. Tutorium Prof. Dr. Stefan Weinzierl 0.11.01 Musterlösung: 1. November 01, 15:50 1 Dither a) Leiten sie den SNR eines idealen, linearen -bit Wandlers her. Nehmen

Mehr

Matrizen. Stefan Keppeler. 19. & 26. November Mathematik I für Biologen, Geowissenschaftler und Geoökologen

Matrizen. Stefan Keppeler. 19. & 26. November Mathematik I für Biologen, Geowissenschaftler und Geoökologen Mathematik I für Biologen, Geowissenschaftler und Geoökologen 19. & 26. November 2008 Definition, Summe & Produkt Transponierte Beispiel: Einwohnerzahlen Leslie-Populationsmodell Beispiel Addition Multiplikation

Mehr

2. Stochastische ökonometrische Modelle. - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen

2. Stochastische ökonometrische Modelle. - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen .1. Stochastische ökonometrische Modelle.1 Einführung Ziele: - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen - Numerische Konkretisierung ökonomischer Modelle und deren Analse. . Variierende

Mehr

Lösungen Serie 6 (Vektorräume, Skalarprodukt)

Lösungen Serie 6 (Vektorräume, Skalarprodukt) Fachhochschule Nordwestschweiz (FHNW Hochschule für Technik Institut für Geistes- und Naturwissenschaft Lösungen Serie 6 (Vektorräume, Skalarprodukt Dozent: Roger Burkhardt Klasse: Studiengang ST Büro:

Mehr

Höhere Mathematik für Ingenieure Band II

Höhere Mathematik für Ingenieure Band II Teubner-Ingenieurmathematik Höhere Mathematik für Ingenieure Band II Lineare Algebra Bearbeitet von Klemens Burg, Herbert Haf, Friedrich Wille, Andreas Meister 1. Auflage 2012. Taschenbuch. xvii, 417 S.

Mehr

Kapitel 2: Fourieranalyse. Analoge, periodische Signale

Kapitel 2: Fourieranalyse. Analoge, periodische Signale ZHW, NM, 5/, Rur Kapitel : Fourieranalyse Analoge, periodische Signale Inhaltsverzeichnis. EINLEIUNG.... LINEARER MIELWER... 3. LEISUNG UND EFFEKIVWER...3 4. WINKELFUNKIONEN...3 5. FOURIERREIHE...4 6.

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P Grohs T Welti F Weber Herbstsemester 25 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 8 Aufgabe 8 Basen für Bild und Kern Gegeben sind die beiden 2 Matrizen:

Mehr

Überbestimmte lineare Gleichungssysteme

Überbestimmte lineare Gleichungssysteme Überbestimmte lineare Gleichungssysteme Fakultät Grundlagen September 2009 Fakultät Grundlagen Überbestimmte lineare Gleichungssysteme Übersicht 1 2 Fakultät Grundlagen Überbestimmte lineare Gleichungssysteme

Mehr

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 Empirische Softwaretechnik Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 1 Experiment zur Vererbungstiefe Softwaretechnik: die Vererbungstiefe ist kein guter Schätzer für den Wartungsaufwand

Mehr

& sind die Vektorkomponenten von und sind die Vektorkoordinaten von. A x. a) Der Betrag eines Vektors

& sind die Vektorkomponenten von und sind die Vektorkoordinaten von. A x. a) Der Betrag eines Vektors Einführu hnung Was ist ein Vektor? In Bereichen der Naturwissenschaften treten Größen auf, die nicht nur durch eine Zahlenangabe dargestellt werden können, wie Kraft oder Geschwindigkeit. Zur vollständigen

Mehr

Lineare Gleichungssysteme und die Methode der kleinsten Quadrate

Lineare Gleichungssysteme und die Methode der kleinsten Quadrate Ludwig-Maximilians-Universität München Department für Computerlinguistik WS 2010/11 Hauptseminar Matrixmethoden in Textmining Dozent: Prof. Dr. Klaus Schulz Referentin: Sarah Söhlemann Lineare Gleichungssysteme

Mehr