Praktikumsbeispiele zum Lehrgebiet WR II, Numerische Mathematik und CAS Serie LGS. b 1 b 2... b n. n a ij x j = b i, i = 1, 2,..., n.

Ähnliche Dokumente
Einführung in die Vektor- und Matrizenrechnung. Matrizen

Gleitkommaarithmetik und Pivotsuche bei Gauß-Elimination. Lehrstuhl für Angewandte Mathematik Wintersemester 2009/

Vorlesung bzw. 23. Januar Determinanten 1. Cramersche Regel

Lineare Algebra - alles was man wissen muß

KAPITEL 3. Lineare Gleichungssysteme, direkte Lösungsverfahren

6 Lösung linearer Gleichungssysteme I: LR-Zerlegung und Verwandte

Elemente der Analysis II

Leitfaden Lineare Algebra: Determinanten

2 Lineare Gleichungssysteme

A Matrix-Algebra. A.1 Definition und elementare Operationen

Lineare Algebra (Mathe I) für Wirtschaftsinformatiker; Zusammenfassung

Mathematik 1. Inhaltsverzeichnis. Prof. Dr. K. Melzer.

3.3 Eigenwerte und Eigenräume, Diagonalisierung

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow

Kapitel 15. Lösung linearer Gleichungssysteme

Lineare Ausgleichsprobleme. Lineare Ausgleichsprobleme. Normalgleichungen. Normalgleichungen

7 Die Determinante einer Matrix

Lineare Gleichungssysteme und Gauß'scher Algorithmus

LU-Zerlegung. Zusätze zum Gelben Rechenbuch. Peter Furlan. Verlag Martina Furlan. Inhaltsverzeichnis. 1 Definitionen.

Lösung des Kleinste-Quadrate-Problems

Numerisches Programmieren

Dünn besetzte Matrizen. Unterschiede in Speicherbedarf und Rechenzeit im Vergleich zu voll besetzten Matrizen. Besetzungsmuster mit spy.

Bestimmung einer ersten

Schnelle Lösung großer Gleichungssysteme

7 Lineare Abbildungen und Lineare Gleichungssysteme

Fakultät für Mathematik und Informatik. Seminar über angewandte Analysis. Sommersemester Der Kreissatz von Gerschgorin

Im Jahr t = 0 hat eine Stadt Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.

1. Pflicht-Übung Num. Mathematik 2 SFT (SS02)

Lineare Gleichungssysteme. Lineare Gleichungssysteme. LR Zerlegung ohne Pivotsuche. Zerlegung regulärer Matrizen

Eigenwerte und Eigenvektoren von Matrizen

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten:

Numerische Behandlung des Eigenwertproblems

Zur Numerik linearer Gleichungssysteme. Werner Vogt Technische Universität Ilmenau Institut für Mathematik Postfach Ilmenau

Lernzettel Mathe Inhaltsverzeichnis

Matrixalgebra. mit einer Einführung in lineare Modelle. Stefan Lang Institut für Statistik Ludwigstrasse 33

Inhaltsverzeichnis 1 Lineare Gleichungssysteme I

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Kurs 1575, Musterlösung zur Winter Klausur 2003/04

Höhere Mathematik für Ingenieure IV. Volker John

OPERATIONS-RESEARCH (OR)

2 Die Darstellung linearer Abbildungen durch Matrizen

Numerisches Programmieren

Lineare Gleichungssysteme I (Matrixgleichungen)

Übung 4: Einführung in die Programmierung mit MATLAB

Berechnung von Eigenwerten und Eigenvektoren

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Lösungen zum 3. Aufgabenblatt

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Praktische Informatik I Der Imperative Kern Mathematiknachhilfe

Praktikum Wissenschaftliches Rechnen 3. Aufgabenblatt

Skript zur Vorlesung Höhere Mathematik für Bachelorstudiengänge. Prof. Dr. R. Herzog. gehalten im SS2013 Technische Universität Chemnitz

Zur Numerik großdimensionaler Eigenwertprobleme. Werner Vogt Technische Universität Ilmenau Institut für Mathematik Postfach Ilmenau

Wichtige Scilab-Befehle

Parallele Algorithmen mit OpenCL. Universität Osnabrück, Henning Wenke,

Lineare Gleichungssysteme

16. All Pairs Shortest Path (ASPS)

Erinnerung/Zusammenfassung zu Abbildungsmatrizen

5.2 Das All-Pairs-Shortest-Paths-Problem (APSP-Problem) Kürzeste Wege zwischen allen Knoten. Eingabe: Gerichteter Graph G =(V, E, c)

Mathematik III für Ingenieure

Einführung in MATLAB

EDA-Methoden. Versuch 12 im Informationselektronischen Praktikum. Studiengang Elektrotechnik und Informationstechnik

Beispiel Wenn p ein Polynom vom Grad größer gleich 1 ist, ist q : C Ĉ definiert durch q (z) =

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Statistische Methoden

6 Symmetrische Matrizen und quadratische Formen

Optimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli Fachbereich für Mathematik und Statistik Universität Konstanz

Konzepte der Informatik

Untersuchung dünnbesetzter QR-Verfahren bei der Berechnung dünnbesetzter approximativer Inverser

BONUS MALUS SYSTEME UND MARKOV KETTEN

Multivariate Statistik

1 Lineare Gleichungssysteme

Computer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10

Beispiel zur Lösung eines Gleichungssystems : 6 y + z = x + 3 y 3 z = x 3 y =

Algorithmen II Vorlesung am

Klausuraufgabensammlung Mathematik. Klausuraufgaben zur Mathematik 1-3 von Wolfgang Langguth

Bildverarbeitung Herbstsemester Kanten und Ecken

II. Klein Gordon-Gleichung

Mathematik 1 für Wirtschaftsinformatik

48 3 EXCEL: Mathematik

Sortieren durch Einfügen. Prof. Dr. W. Kowalk Sortieren durch Einfügen 1

2.1 Codes: einige Grundbegriffe

Mathematik für ChemikerInnen I

Programmieren ++ Begleitende Übungen zu Veranstaltungen + Umsetzen des Algorithmus in ein lauffähiges Programm

Grundlagen der Programmiersprache C für Studierende der Naturwissenschaften

Matlab - eine kurze Einführung

Der Golay-Code und das Leech-Gitter

> Seminar, Erlangen > Achim Basermann DSC Erlangen Basermann.pptx >

Darstellung eines VAR(p)-Prozesses als VAR(1)-Prozess

Lösungsvorschläge zu ausgewählten Übungsaufgaben aus Storch/Wiebe: Lehrbuch der Mathematik Band 2, 2.Aufl. (Version 2010), Kapitel 5

Lineare Gleichungssysteme

MATTHIAS GERDTS NUMERISCHE MATHEMATIK I. Universität Würzburg WiSe 2009/2010

PageRank-Algorithmus

Induktive Limiten. Arpad Pinter, Tobias Wöhrer. 30. Jänner 2010

Transkript:

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: pb lgs.tex Praktikumsbeispiele zum Lehrgebiet WR II, Numerische Mathematik und CAS Serie LGS Lineare Gleichungssyteme Ax = b, A(n, n = (a ij n i,j= regulär, a ij, b i R, A = (a ij Inverse, x = A b Lösung a a 2 a n a 2 a 22 a 2n... a n a n2 a nn x x 2... x n = b b 2... b n, n a ij x j = b i, i =, 2,..., n j= Algorithmen für direkte Verfahren. Gauß-Algorithmus ohne Pivotstrategie als Resttableau-Algorithmus bzw. Gauß-Reduktion (am Platz S : Vorwärtselimination k =, 2,..., n p = a kk i = k +, k + 2,..., n s = a ik /p p, s Hilfsgrößen a ij = a ij sa kj, j = k +, k + 2,..., n b i = b i sb k S2 : Rückwärtssubstitution k = n, n,..., h = b k h = h a ki x i, i = k +, k + 2,..., n x k = h/a kk Bemerkungen - Die Strategie der Reduktion ist durchführbar bei a kk 0, k =, 2,..., n. - Das LGS ist lösbar, wenn weiterhin a nn 0 ist. - Falls ein a kk =0 ist, dann ist die Anwendung von Pivotstrategien mit Zeilen- und/oder Spaltenvertauschungen ( Permutationsvektoren erforderlich. - Die Determinante berechnet sich aus det(a = n a kk. - Die Matrix wird systematisch durch die Resttableaus überschrieben. - Die Nullelemente unterhalb der Hauptdiagonalen sind künstlich auf Null zu setzen. - Der Platz unterhalb der Hauptdiagonalen (streng untere Dreiecksmatrix könnte für die Speicherung von Hilfsgrößen, wie z. B. von s genutzt werden. - Die erzeugte obere Dreiecksmatrix U sowie die unterhalb der Hauptdiagonalen gespeicherten Informationen ergänzt durch Einsen auf der Diagonale, die zusammen die untere Dreiecksmatrix L bilden, definieren eine Dreiecksfaktorisierung der Matrix gemäß LU. - Anstelle der Erzeugung der Resttableaus der Dimension n,...,2, ist es möglich, jeweils sukzessiv nur eine Zeile und Spalte zu berechnen Verketteter Gauß-Algorithmus (VGA. k=

2. Gauß-Algorithmus mit Spaltenpivotisierung und Zeilenvertauschung als Verketteter Gauß-Algorithmus (Turbo Pascal Prozedur 2 procedure VGA(n:integer; var a:matrix; var b,x:vektor; eps,detmax:float; var det:float; var p:vektor; var t,ind:integer; { Verketteter Gauss-Algorithmus mit Spaltenpivotisierung und Zeilenvertauschung Ax=b.. PAx=-CBx=LUx=Pb.. Bx=c det(a Determinante eps Toleranz fuer Test auf Singularitaet a[i,i]<... detmax Toleranz fuer Test auf det(a>... p Permutationsvektor der Zeilenvertauschung t Indikator : 0..default..Abbruch mit eps 2..Abbruch mit detmax ind Stufe (m,m bei vorzeitigem Abbruch } var i,j,m,index:integer; s,max:float; { Zerlegung und Vorwaertsrechnung, Vorwaertselimination } det:=; t:=0; ind:=0; for i:= to n do p[i]:=i; { Permutationsvektor --> P } for m:= to n do { Pivotsuche } max:=0; index:=m; for i:=m to n do s:=a[i,m]; for j:= to m- do s:=s+a[i,j]*a[j,m]; a[i,m]:=s; if abs(s>abs(max then max:=s; index:=i end { Test auf Singularitaet und grosses det(a } det:=det*max; if abs(max<eps then ind:=m; det:=0; t:=; EXIT if abs(det>detmax then ind:=m; t:=2; EXIT { Zeilenvertauschung } if index>m then det:=-det; for i:= to n do s:=a[m,i]; a[m,i]:=a[index,i]; a[index,i]:=s s:=b[m]; b[m]:=b[index]; b[index]:=s; i:=p[m]; p[m]:=p[index]; p[index]:=i { Bestimmung der Elemente der m-ten Spalte } for i:=m+ to n do a[i,m]:=-a[i,m]/max; { Bestimmung der Elemente der m-ten Zeile mit rechter Seite } for i:=m+ to n do s:=a[m,i]; for j:= to m- do s:=s+a[m,j]*a[j,i]; a[m,i]:=s s:=b[m]; for j:= to m- do s:=s+a[m,j]*b[j]; b[m]:=s { Rueckrechnung, Rueckwaertssubstitution } for i:=n downto do s:=-b[i]; for j:=n downto i+ do s:=s+a[i,j]*x[j]; x[i]:=-s/a[i,i] end

3. Gauß-Algorithmus mit impliziter Skalierung als relative Pivotwahl mit Zeilenbetragssummen (relative Kolonnenmaximumstrategie 3 procedure Zerlegung_Gauss_rel_Pivot2(n:integer; var a:matrix; eps,detmax:float; var det:float; var ip:vektor; var t,stufe:integer; { Zerlegung von A =P*A(n,n=L*U auf dem Platz bei relativer Spaltenpivotisierung und Zeilenvertauschung, sowie impliziter Skalierung ( --> Permutationsmatrix P auf der Basis des Permutationsvektors ip det(a Determinante eps Toleranz fuer Test auf Singularitaet n a[i,i] <...,sum a[i,j] <... j=i detmax Toleranz fuer Test auf det(a >... ip t stufe Permutationsvektor der Zeilenvertauschung Indikator : 0..default..Abbruch mit eps 2..Abbruch mit detmax Stufe (m,m bei vorzeitigem Abbruch Lit.: H.R.Schwarz. Numerische Mathematik. B.G.Teubner Stuttgart 988. } var i,j,l,k:integer; q,s,max:float; det:=; stufe:=0; t:=0; for i:= to n do ip[i]:=i; { Permutationsvektor --> P } for k:= to n do { Schritte k=,2,...,n } { relative Pivotwahl mit Kolonnenmaximumstrategie } max:=0; for i:=k to n do s:=0; for j:=k to n do s:=s+abs(a[i,j]; if s<eps then { Matrix A bzw. Teiltableau hat "Fast-Null-Zeile" } stufe:=i; det:=0; t:=; EXIT; q:=abs(a[i,k]/s; if q>max then max:=q; l:=i; { Test auf Singularitaet (Nullspalte und grosses det(a } if max<eps then stufe:=k; det:=0; t:=; EXIT; max:=a[l,k]; det:=det*max; if abs(det>detmax then stufe:=k; t:=2; EXIT; { Zeilenvertauschung } if l>k then det:=-det; for j:= to n do s:=a[k,j]; a[k,j]:=a[l,j]; a[l,j]:=s; j:=ip[k]; ip[k]:=ip[l]; ip[l]:=j; { Bestimmung der Elemente des Resttableaus } for i:=k+ to n do { Zeilen } s:=a[i,k]/max; a[i,k]:=s; for j:=k+ to n do a[i,j]:=a[i,j]-s*a[k,j]; { Spalten }

4. Gauß-Algorithmus mit impliziter Skalierung als relative Pivotwahl mit der Zeilennorm 2 (relative Kolonnenmaximumstrategie und Buchhaltervektor 4 procedure Zerlegung_Gauss_rel_Pivot(n:integer; var a:matrix; eps,detmax:float; var det:float; var ip:vektor; var t,stufe:integer; { Zerlegung von A =P*A(n,n=L*U auf dem Platz bei relativer Spaltenpivotisierung und Zeilenvertauschung sowie impliziter Skalierung, Buchhaltervektor ( --> Permutationsmatrix P auf der Basis des Permutationsvektors ip det(a Determinante eps Toleranz fuer Test auf Singularitaet n a[i,i] <...,sum a[i,j]^2<... j= detmax Toleranz fuer Test auf det(a >... ip t stufe Permutationsvektor der Zeilenvertauschung Indikator : 0..default..Abbruch mit eps 2..Abbruch mit detmax Stufe (m,m bei vorzeitigem Abbruch Lit.: N.Koeckler. Numerische Algorithmen in Softwaresystemen. B.G.Teubner Stuttgart 990.} var i,j,l,k:integer; s,max,max:float; ph:vektor; det:=; stufe:=0; t:=0; for i:= to n do ip[i]:=i; { Permutationsvektor --> P } s:=0; for j:= to n do s:=s+sqr(a[i,j]; if s<eps then { Matrix A hat "Fast-Null-Zeile" } stufe:=i; det:=0; t:=; EXIT ph[i]:=/sqrt(s; { Vektor der Kehrwerte der euklidischen Norm der n Zeilenvektoren von A, Buchhaltervektor } for k:= to n do { Schritte k=,2,...,n } { relative Pivotwahl mit Buchhaltervektor } max:=0; max:=0; l:=k; for i:=k to n do s:=a[i,k]; if abs(s*ph[i]>abs(max then max:=s; max:=s*ph[i]; l:=i; end { Test auf Singularitaet und grosses det(a } det:=det*max; if abs(max<eps then stufe:=k; det:=0; t:=; EXIT; if abs(det>detmax then stufe:=k; t:=2; EXIT; { Zeilenvertauschung } if l>k then det:=-det; for j:= to n do s:=a[k,j]; a[k,j]:=a[l,j]; a[l,j]:=s; ph[l]:=ph[k]; j:=ip[k]; ip[k]:=ip[l]; ip[l]:=j; { Bestimmung der Elemente des Resttableaus } for i:=k+ to n do { Zeilen } s:=a[i,k]/max; a[i,k]:=s; for j:=k+ to n do a[i,j]:=a[i,j]-s*a[k,j]; { Spalten }

Algorithmen für iterative Verfahren. Gesamtschrittverfahren (GSV, Jacobi-IV (JA Voraussetzung sei a ii 0, i=,..., n, was durch eventuelle Zeilenvertauschungen erreichbar ist. Mit der Zerlegung der Koeffizientenmatrix N P = D (E + F, D, E, F entsprechend Diagonalmatrix, linke Dreiecksmatrix bzw. rechte Dreiecksmatrix, ergeben sich die Matrizen a 0 0 0 a 2 a n N = D = 0 a 22 0..., P = E + F = a 2 0 a 2n.... 0 0 a nn a n a n2 0 Komponentenweise Darstellung des GSV x (m+ i = n b i a ij x (m j, i =, 2,..., n, m = 0,, 2,... a ii j =, j i Matrix-Vektor-Form des GSV x (m+ = D [b + (E + Fx (m ] x (m+ H = J = D (E + Fx (m + D b, c = D b = D (D Ax (m + D b = (I D Ax (m + D b = D [b (A Dx (m ] = x (m D (Ax (m b = x (m + D r (m, mit r (m = b Ax (m als Residuum, = I D A Iterationsmatrix, W = D Wichtung, Skalierungsmatrix, D r (m gewichtetes Residuum (weighted residual, Verbesserung (update für x (m. Für reguläres D sind die Darstellungen Ax = b und x = Hx + c mit den Beziehungen für H und c konsistent, d. h. dass die Lösung bzw. der Grenzvektor des konvergenten GSV auch der Normalform genügt. Bei einer Programmierung des Verfahrens ist der Speicheraufwand der für die Matrix A und zweier aufeinander folgender Iterationsvektoren. Konvergenzkriterien Das GSV konvergiert, falls die Matrix A streng diagonaldominant ist, d. h., für ihre Elemente n a ij gilt a ii > a ij, i =, 2,..., n. j =, j i Die Konvergenz des GSV ist gegeben, falls für die Iterationsmatrix H = J mit ihren Elementen h ii = 0, h ij = a ij /a ii, i j, die Ungleichungen n a ij <, i =, 2,..., n, bzw. H < Zeilensummen-Kriterium, oder j = j i n i = i j a ii a ij a ii <, j =, 2,..., n, bzw. H < Spaltensummen-Kriterium, erfüllt sind, wobei im Zeilensummen-Kriterium genau die Diagonaldominanz von A steckt. 5

2. Einzelschrittverfahren (ESV, Gauß-Seidel-IV (GS Voraussetzung sei wiederum a ii 0, i =, 2,..., n. Mit der Zerlegung der Koeffizientenmatrix N P = (D E F, D, E, F wie im GSV, ergeben sich die Matrizen N =D E = a 0 0 0 a 2 a 22 0 0 a 3 a 32 a 33 0... a n a n2 a n3 a nn, P =F = Komponentenweise Darstellung des ESV x (m+ i = b i a ii i j= a ij x (m+ j Matrix-Vektor-Form des ESV n j=i+ x (m+ = D (b + Ex (m+ + Fx (m (D Ex (m+ = Fx (m + b x (m+ = (D E [(D E Ax (m + b] 0 a 2 a 3 a n 0 0 a 23 a 2n 0 0 0 a 3n... 0 0 0 0. a ij x (m, i = ; 2,..., n, m = 0,, 2,.... j = (I (D E Ax (m + (D E b, c = (D E b, E = DL = {I [D(I L] A}x (m + [D(I L] b = x (m [D(I L] (Ax (m b x (m+ = x (m + (D E r (m, wobei r (m = b Ax (m, 6 H = H = I [D(I L] I (D E A Iterationsmatrix, W = D(I L = D E Wichtung, Skalierungsmatrix, (D E r (m gewichtetes Residuum, Verbesserung für x (m. Die Verbesserung für den Iterationsvektor x (m ergibt sich somit aus der Lösung des LGS (D E x (m = r (m, x (m = x (m+ x (m, mit dem Residuum auf der rechten Seite, wobei bei vorausgesetzter Konvergenz r (m 0 für wachsendes m gilt. Im Gegensatz zum GSV wird beim ESV eine neu berechnete Komponente des Iterationsvektors x (m+ sofort für die Berechnung der nächsten einbezogen. Somit ist bez. des Speicheraufwands bei der Programmierung neben der Matrix nur ein Vektor zu merken. Konvergenzkriterien Das ESV konvergiert, falls die Matrix A streng diagonaldominant ist, bzw. falls die Elemente h ij der Iterationsmatrix H = H wie beim GSV das Zeilensummen- oder das Spaltensummen- Kriterium erfüllen. Das ESV konvergiert immer, falls A T > 0.

Beispiele 7. A streng diagonaldominant, damit regulär x = (, T ( 0.7 0.4 0.2 0.5 2. A regulär, schlecht konditioniert x = (, T ( 0.780 0.563 0.93 0.659, b = (0.3, 0.3 T, b = 3. A regulär, sehr schlecht konditioniert x = (, T (.44 969.040 807.040 807 0.75 250 ( 0.27 0.254 4. A T parameterabhängig, ε > 0, ε ( ε ε ( 0.40 62, b = 0.289 557, b = (, 0 T bzw. b = (, 0 T x = ε 2 (ε, T bzw. x = (, ε 2 εt 5. A T parameterabhängig, ε > 0 x = (0, T ( ε 0, b = (, 0 T 6. A streng diagonaldominant, indefinit ( 2 3, b = (3, T x = 7 (0, T 7. A streng diagonaldominant x = (, T ( 2 0 3, b = (3, 3 T 8. A T > 0 streng diagonaldominant ( 2 3, b = (, 2 T x = 5 (, 3T

9. A T regulär 2 3 3 6, b = (3, 6, 0 T 8 x = (,, T 0. A T regulär 3 3 3 5 2 2, b = (, 0, 0 T x = (,, T. A regulär x = (,, T 2 4 4 2 2. A regulär, schlecht konditioniert x = (5,, T 3. A T > 0 x = (,, T, b = (, 4, 2 T 2. 252 256.3 8.8 7.6 0.9 6.2 4.6 2 3 2 8 22 3 22 82, b = (6, 32, 07 T, b = (6.5, 5.3, 2.9 T 4. A T > 0 tridiagonal, schwach diagonaldominant 4 0 2, b = (3, 0, 3 T 0 4 x = (,, T 5. A T > 0 tridiagonal, streng diagonaldominant 4 0 4, b = (2, 6, 2 T 0 4 x = (, 2, T

6. A T regulär, streng diagonaldominant, indefinit 3 3 3, b = (3,, 3 T 9 x = (,, T 7. A T regulär, indefinit x = (,, T 0 3 3 8. A streng diagonaldominant, b = (0,, 3 T 2 2 3 8 2, b = (8, 32, 6 T 3 2 x = 2 (660, 4326, 742T = (0.545 004 29, 3.572 254 335,.438 480 595 T 9. A regulär x = (,, T 20. A regulär x = (2,, 2 T 2. A regulär x = (,, T 22. A T > 0 4 3 2 2 4 2 0 3 4 0 0 2 4 2 4 4 4 2 3 3 3, b = (6, 3, 4 T, b = (4, 0, 0 T, b = ( 3, 5, 2 T, b = (, 2, 3 T x = 0 (, 4, 9T

23. A regulär 2 2 2 2, b = (,, 3 T 0 x = (,, T 24. A regulär x = (,, T /2 /2 25. A regulär, streng diagonaldominant x = (,, T 26. A regulär x = (,,, T 27. A regulär x = (,,, T 28. A regulär 2 0 0 3 2 4 x = (, 0,, 2 T 29. A regulär x = (,,, T 0 3 2 4 8 3 0 3 4 2 0 8 5, b = (/2,, 5/2 T, b = (3, 4, 7 T 5 6 22 6 2 2 0 2 5 2 0 0 3 3 0 5 2 0 3 2 4 8 3 0 3 4 2 0 8 5, b = (6, 6, 6, 5T, b = ( 2, 22, 5, 9T, b = ( 2, 0,, 2T, b = (6, 6, 6, 5T

30. A regulär 2 3 0 4 2 4 2 2 2 2 5 4 2, b = (9, 9, 8, 29T x = (, 3, 2, 2 T 3. A T > 0 x = (2,, 3, 2 T 32. A regulär 5 3 9 5 26 6 47 3 6 4 35 9 47 35 95 2 3 20 3 2 20 0 2 0 2 3, b = ( 2, 62, 38, 4T, b = ( 0, 5, 5, 0T x = 0299 (3550, 2800, 5565, 790T = (0.344 693 660, 0.27 87 055, 0.540 343 723, 0.698 26 032 T 33. A regulär und untere Dreiecksmatrix x = (,, 0, 0 T 34. A regulär x = (,,, T 0 0 0 2 0 0 3 2 0 4 3 2 0 2 2 3 3 2 35. A regulär mit Bandstruktur x = (,,, T 0 2 0 0 2 6 0 0 0 2, b = (,,, T, b = (3, 3, 3, 3T, b = (3, 4, 8, T

36. A regulär mit Bandstruktur 0 0 2 0 2 4 0 0 2, b = (2, 3, 5, T 2 x = (,,, T 37. A regulär x = (,,,, T 38. A regulär x = ( 5, 2, 4, 3, 2 T 39. A regulär 3 2 4 7 6 9 6 8 4 2 6 8 8 5 9 3 4 4 2 5 2 4 2 3 28 3 2 4 7 6 9 6 8 4 2 6 8 8 5 9 3 4 4 2 5 2 4 2 3 28 2 3 2 4 4 7 2 5 6 6 9 4 4 0 2 4 3 2 3 2 5 3 2 x = ( 209/6, 34, 24, 58/3, 28/3 T 40. A regulär x = (4, 4, 3, 0, 2 T 4. A T > 0 x = (,,, 2, 2, 2 T 2 3 2 4 4 6 2 5 6 6 9 3 4 0 2 4 3 2 3 2 5 3 2, b = (2, 3, 2, 0, 5T, b = (6, 4, 9, 33, 67T, b = (7, 0, 7, 5, T 7 23 36 70 60 6 02 33 40 20 23 02 35 8 0 60 36 33 8 35 22 60 70 40 0 22 48 24 60 20 60 60 24 44, b = (7, 0, 7, 5, T, b = (87, 94, 360, 45, 432, 0 T

42. A T > 0 tridiagonal 3 A(7, 7 = tridiag(, 2,, b = (2, 7,, 3, 8, 2, 5 T x = (, 0, 6,, 9, 9, 7 T 43. A T > 0 68 24 338 27 27 53 7 80 24 78 69 72 53 03 7 80 338 69 77 92 62 08 48 80 27 72 92 25 2 24 36 80 27 53 62 2 222 70 46 00 53 03 08 24 70 78 34 00 7 7 48 36 46 34 34 00 80 80 80 80 00 00 00 400 b = (229, 29, 790, 24, 06, 276, 26, 600 T x = (,,,, 2, 2, 2, 2 T 44. A(n, n = A T > 0 tridiagonal 2 0 0 2 0 0 0 2 0 0... = tridiag(, 2, 0 0 0 2 0 0 0 2 A = (A T = (a ij, a ij = A = n n + b = (, 0, 0,...,0, T x = (,,..., T (n n + 2 (n n + i(n + j n + (n 2 n + 2 (n 2 n + 3 (n 2 n + > 0, i j n 2 n + 2 2 n + 3 2 n +.... 2 n n + n + 2 n + 3 n +. n n + n n + 45. A(n, n = A T > 0 2 0 0 4 0 0 0 4 0 0..., b = (n, 4, 6,...,2(n, n + 2 T 0 0 0 4 0 0 2 x = (, 2, 3,..., n T

46. A(n, n = A T > 0 tridiagonal, parameterabhängig, c 0 4 tridiag(, 2, + ci, I (n n Einheitsmatrix b = ( + c, c,..., c, + c T x = (,,..., T 47. A(n, n = A T parameterabhängig, α reell A(n, n = x = (,,..., T 48. Boothroyd-Dekker-Matrix (a ij n i,j=, a ij = b = (,,..., T x = (,,,,... T A(4, 4 = + α... + α... + α......... + α 4 6 4 0 20 5 4 20 45 36 0 35 84 70 20 ( n n + i i + j i, A =, b = (n + α, n + α,..., n + αt ( n n j 49. Zielke-Matrix A T indefinit, parameterabhängig, α reell, A = (a ij a ij = a ij = α + für i = (n, j = (n i, α für i = j = n, α sonst α für i = j =, α für i =, j = n und i = n, j =, α für i = j = n, für i = (n, j = n i, für i = 2(n, j = n i +, 0 sonst N, a ij = ( i+j a ij 4 6 4 0 20 5 4 20 45 36 0 35 84 70 20 A(5, 5 = α+ α+ α+ α+ α α+ α+ α+ α α α+ α+ α α α α+ α α α α α α α α α b = (4 + 5α,3 + 5α,2 + 5α, + 5α, + 5α T x = (,,,, T, A = α 0 0 α 0 0 0 0 0 0 0 0 0 α 0 0 0 α

50. Hilbert-Matrix A T > 0, a ij = b = (b, b 2,..., b n T, b i = n x = (,,..., T i + j, a ij = ( i+j i + j γ iγ j, γ i = a ij j= (n + i! (i! 2, i, j =, 2,..., n (n i! 5 5. Matrix A(4, 4 = x = (,, 0 8, T 52. Wilkinson-Matrix A(4, 4 = 2 30 0 2. 3 80 4.74 0 8 752 0 0.4 3.986 0 8 4.2 0 0.7 9 0 9, b = 53. 849.74 7.786 2.6 0 8 0.943 0 4 0 0 0 0.8762 0.756 0 4 0 0 0.7943 0.843 0.9504 0 4 0 0.807 0.623 0.765 0.723 0 4 b = (0.000 09 43, 0.876 27 56,.608 695 04, 2.30 57 23 T x = (,,, T 53. A regulär mit Blockstruktur ( A B Ax = b, A(4, 4, C A, A (7, 7, B(7, 7, C(7, 7 B, b ij = ã 8 i,j, A = (ã ij 5 4 7 5 6 7 5 4 2 8 7 8 8 6 7 8 0 9 8 7 7 A = 5 7 9 9 7 5, C = 6 8 8 9 0 8 9 7 8 7 7 8 0 0 5 6 7 5 9 0 0 8 9 0 9 0 0 2 2 3 7 5 2 3 5 3 6 5 6 0 0 0 5 0 0 0 0 0 6 0 0 0 0 0 7 0 0 0 0 0 8 0 0 0 0 0 0 b = (b, b 2,..., b n T, b i = n x = (,,..., T a ij j= 54. A(n 2, n 2 = A T > 0 mit Blockstruktur B I I B I........., B = B(n, n =...... I I B 4 4............... 4 I = I(n, n Einheitsmatrix, b = (b, b 2,..., b n T, b i = n x = (,,..., T a ij j=

55. A(n 2, n 2 = A T > 0 mit Blockstruktur, parameterabhängig, c reell B I 4 I B I 4 c I(n 2, n 2 +........., B = B(n, n =............... I...... I B 4 I = I(n, n, I(n 2, n 2 Einheitsmatrizen b = (b, b 2,..., b n T, b i = n x = (,,..., T a ij j= 56. A T singulär (a ij, a ij = 2 i+j 2, b = (b, b 2,..., b n T, b i = x = (,,..., T n j= a ij 6 57. A singulär, rang(a = 2 2 2 2 2 4, b = (, 0, 3 T x = (2c, c, T, u. a. (,, T 58. A singulär, rang(a = 2 keine Lösung 2 2 2 3 0 2 4, b = (5, 4, 7 T