Fakultät für Mathematik und Informatik. Seminar über angewandte Analysis. Sommersemester Der Kreissatz von Gerschgorin

Save this PDF as:
 WORD  PNG  TXT  JPG

Größe: px
Ab Seite anzeigen:

Download "Fakultät für Mathematik und Informatik. Seminar über angewandte Analysis. Sommersemester 2007. Der Kreissatz von Gerschgorin"

Transkript

1 Fakultät für Mathematik und Informatik Lehrgebiet angewandte Mathematik Prof. Dr. H. Linden Dipl.-Math. H.-J. Schäfer Seminar über angewandte Analysis Sommersemester 2007 Der Kreissatz von Gerschgorin Adem Kahrıman Matrikel-Nr Hagen, 17. Juni 2007

2

3 Inhaltsverzeichnis 1 Einführung 1 2 Eigenwerte und Eigenvektoren 5 3 Gerschgorin-Kreise 13 4 Beispiele 17 5 Kreissatz von Gerschgorin 21 6 Verfeinerung des Kreissatzes von Gerschgorin 29 7 Zusammenfassung 35 Literatur 37

4

5 1 Einführung In der Praxis werden z.b. kleine Bewegungen eines Systems mit endlich vielen Freiheitsgraden durch das Eigenwertproblem Ax i = λ i x i (i = 1,,n) dargestellt, dabei ist A eine quadratische Matrix. Das Problem ist gelöst, wenn wir n linear unabhängige Vektoren x 1,,x n, also Eigenvektoren, und zugehörige Zahlen λ 1,,λ n, also Eigenwerte, gefunden haben, die diese Gleichung erfüllen. Wir gelangen nur dann zu einer befriedigenden Lösung für dieses Problem, wenn wir (auch im Falle einer reellen Matrix A) komplexe Werte λ i und komplexe Vektoren x i als Lösungen zulassen. Der naheliegende Weg zur Berechnung der Eigenwerte einer komplexen Matrix A wäre die Bestimmung des charakteristischen Polynoms von A und die anschließende Berechnung dessen Nullstellen, da die Eigenwerte von A genau die Nullstellen des charakteristischen Polynoms sind, wie wir aus der linearen Algebra wissen (vgl. [9], Kapitel 1.3). Bei der numerischen Berechnung der Eigenwerte einer Matrix geht man jedoch meistens nicht den Weg über das charakteristische Polynom und die Berechnung seiner Nullstellen. Da die Koeffizienten des charakteristischen Polynoms nämlich i.a. explizit sehr schwierig zu berechnen sind, und deshalb nur näherungsweise bestimmt werden können und die Nullstellen des charakteristischen Polynoms, insbesondere, wenn sie mehrfach sind, sehr empfindlich von den Koeffizienten abhängen, führt dieses Verfahren zu ungenauen Resultaten. Wir werden deshalb die Berechnung des charakteristischen Polynoms vermeiden und dafür einen Satz kennenlernen, der eine genaue Lokalisierung aller Eigenwerte einer Matrix ohne viel Rechnung gestattet. Der Satz stammt vom russischen Mathematiker Semjon Aranowitsch Gerschgorin (geb. am in Pruzhany (Weißrussland), gest. am in St. Petersburg). Er studierte seit 1923 am Petersburger Technologischen Institut und wurde 1930 Professor am Leningrader Maschinenbauinstitut. Er arbeitete in den mathematischen Teilgebieten der Algebra, Funktionentheorie, numerischen Mathematik und der Theorie der Differenzialgleichungen. Zunächst werden wir die Eigenwerte und das charakteristische Polynom von A definieren. Als nächstes führen wir die Gerschgorin-Kreise und die Gerschgorin Menge von

6 2 1 Einführung A ein. Mit ihrer Hilfe können einfach Gebiete angegeben werden, in welchen sich die Eigenwerte einer Matrix befinden und unter besonderen Bedingungen sogar wieviele Eigenwerte in diesen enthalten sind. Dazu geben wir aber zunächst die Zeilensumme und das Spektrum von A an. Zur Demonstration zeigen wir drei Beispiele, aus denen wir die Gerschgorin-Kreise und die Lage der Eigenwerte der Matrizen ersehen können. Mithilfe dieser Beispiele wollen wir die möglichen Lagen der Eigenwerte von A beschreiben. Wir berechnen hierzu explizit die jeweiligen charakteristischen Polynome und deren Nullstellen mit Hilfe des Computer-Algebra Systems Maxima, also die Eigenwerte der jeweiligen Matrizen. Anhand dieser Beispiele wollen wir anschaulich den Satz von Gerschgorin demonstrieren, der den Kern dieses Vortrags bildet. Diesen sog. Kreissatz von Gerschgorin, den er im Jahre 1931 in seiner Arbeit Über die Abgrenzung der Eigenwerte einer Matrix in deutscher Sprache veröffentlicht hat, wollen wir einschließlich den Äquivalenzen und Folgerungen beweisen. Er besagt also, dass alle Eigenwerte einer quadratischen komplexen Matrix A in der Vereinigung der Gerschgorin-Kreise liegen. Die Grundlage für diesen Vortrag bildet das Buch [10]. Zunächst werden wir eine erste gröbere Abschätzung der Eigenwerte von A mit Hilfe von Matrixnorm angeben. Dazu definieren wir aber zunächst die Norm und werden sie anschließend mit Hilfe von linearen Abbildungen auf Matrizen übertragen. Schließlich beweisen wir diese Abschätzung als ein Korollar des Kreissatzes von Gerschgorin nochmals, indem wir als Matrixnorm die sog. Zeilensummennorm wählen. Eine Äquivalenz des Kreissatzes von Gerschgorin ist die Regularität einer strikt diagonaldominanten Matrix A. Dieses Resultat ist sogar älter als der Kreissatz von Gerschgorin, das wir ebenfalls beweisen werden. Zuletzt werden wir eine Verschärfung des Kreissatzes von Gerschgorin zeigen, die angibt, wieviel Eigenwerte von A unter besonderen Bedingungen in den Gerschgorin- Kreisen liegen. Für den Beweis benötigen wir die stetige Abhängigkeit der Eigenwerte von den Einträgen von A (siehe z.b. [7]). Um dies beweisen zu können, werden wir die stetige Abhängigkeit der Nullstellen eines Polynoms von den Koeffizienten zeigen.

7 Kreissatz von Gerschgorin 3 Semjon Aranowitsch Gerschgorin

8

9 2 Eigenwerte und Eigenvektoren In diesem Kapitel stellen wir Hilfsmittel aus der linearen Algebra und der Funktionalanalysis zusammen, die wir in unseren Beweisen benutzen werden. Als Grundlage für diese Zusammenstellung habe ich mir [1], [8], und [9] zugrunde gelegt. Es sei K n der n-dimensionale Vektorraum aller Spaltenvektoren v = (v 1,,v n ) T mit v i K für i = 1,,n. Für K n = R n sei v > 0 genau dann, wenn i = 1,,n : v i > 0 Mit M(m,n, K) bezeichnen wir die Menge der Matrizen mit m Zeilen und n Spalten und Einträgen in K, wobei K der Körper der reellen Zahlen R oder der komplexen Zahlen C ist. Dass M(m,n, K) ein K-Vektorraum ist, wissen wir aus der linearen Algebra (vgl. z.b. [8], Beispiel (a)). Für A M(m,n, K) setzen wir A = (a ij ) mit a ij K für i = 1,,m und j = 1,,n. Dabei bezeichne I mn die (m n)-einheitsmatrix und I n die quadratische (n n)-einheitsmatrix. Ferner setzen wir für n N der Einfachheit halber N := {1,,n}. Die Abbildung det : M(n,n, K) K, A det(a) heißt Determinante. Wir bezeichnen das Körperelement det(a) K als Determinante der quadratischen Matrix A M(n,n, K) (vgl. [8], Definition 4.1.1) und mit Spur(A) := n k=1 a kk die Summe der Diagonalelemente von A (vgl. [9], Definition 1.2.8). Es seien V und W K-Vektorräume. Eine Abbildung T : V W heißt linearer Operator bzw. K-lineare Abbildung, falls gilt T(αv 1 + βv 2 ) = αtv 1 + βtv 2 v 1, v 2 V, α, β K Mit Hom K (V,W) bezeichnen wir die Menge der linearen Abbildungen von V nach W, und sie ist ein K-Vektorraum (vgl. [8], Proposition 6.4.2).

10 6 2 Eigenwerte und Eigenvektoren Definition 2.1 (Eigenwert und Eigenvektor eines Operators) Es sei V ein K-Vektorraum. Weiterhin sei T : V V ein linearer Operator. Ein Körperelement λ K heißt ein Eigenwert von T, falls es einen Vektor v V \ {0} gibt mit Tv = λv. Jedes solche v heißt ein Eigenvektor zum Eigenwert λ. Beachten wir, dass gemäß dieser Definition die Zahl 0 K zwar als Eigenwert infrage kommt, der Nullvektor 0 V jedoch niemals Eigenvektor sein kann. Ein Eigenvektor eines Operators ist also ein vom Nullvektor verschiedener Vektor, dessen Richtung durch die Abbildung nicht verändert wird, d.h. der Vektor v hat dieselbe Richtung wie T v. Ein Eigenvektor wird also nur gestreckt bzw. gestaucht, und man bezeichnet den Streckungs- bzw. Stauchungsfaktor als Eigenwert dieses Vektors. Eigenwerte charakterisieren wesentliche Eigenschaften von Operatoren, etwa ob ein entsprechendes lineares Gleichungssystem eindeutig lösbar ist oder nicht. In vielen Anwendungen beschreiben Eigenwerte auch physikalische Eigenschaften eines mathematischen Modells, z.b. in Quantenmechanik, wie wir in der Einführung schon erwähnt haben. Jeder Matrix A M(n,n, K), die zugehörige lineare Abbildung K n K n zuzuordnen, definiert ein Isomorphismus, d.h. eine bijektive lineare Abbildung T : M(n,n, K) Hom K (K n, K n ), A = (a ij ) i,j N T (A) := T mit ( ) T : K n K n, x = (x j ) j N Tx := Ax = a ij x j j N i N (vgl. [8], Satz ). Deshalb können wir die quadratischen Matrizen auch als lineare Abbildungen bzw. lineare Operatoren von K n nach K n auffassen. Deswegen geben wir den für uns wichtigsten Spezialfall an, nämlich die Definition des Eigenvektors und des Eigenwertes einer Matrix. Dazu die folgende Definition 2.2 (Eigenwert und Eigenvektor einer Matrix) Es sei A M(n,n, K). Dann heißt ein Körperelement λ K ein Eigenwert von A, falls es einen Vektor x K n, x 0, gibt mit Ax = λx. Jedes solche x heißt ein Eigenvektor zum Eigenwert λ. Ab sofort sei K der Körper der komplexen Zahlen C.

11 Kreissatz von Gerschgorin 7 Definition 2.3 (Spektrum, Eigenraum und Spektralradius) Es sei A M(n,n, C). Dann heißt σ(a) := {λ C : Ax = λx für 0 x C n } (2.1) das Spektrum von A. D.h. σ(a) ist die Menge aller Eigenwerte von A. Ist λ σ(a) ein Eigenwert von A, so heißt der Untervektorraum E λ := Kern(A λi n ) von C n der Eigenraum zum Eigenwert λ und seine Dimension heißt geometrische Vielfachheit des Eigenwertes. Ferner bezeichnen wir mit ρ(a) := max{ λ : λ σ(a)} den Spektralradius von A. Ist λ σ(a) ein Eigenwert von A, so ist E λ die Menge der Eigenvektoren zum Eigenwert λ -zuzüglich Nullvektor, da wir sonst kein Untervektorraum mehr hätten- (vgl. [9], Bemerkung ). Der Kreis K := {z C : z ρ(a)} ist der kleinste Kreis um den Nullpunkt, der alle Eigenwerte von A enthält. Bei kleinen Matrizen können die Eigenwerte symbolisch mit Hilfe des sog. charakteristischen Polynoms berechnet werden. Bei großen Matrizen ist dies oft nicht möglich, sodass hier Verfahren der numerischen Mathematik -wie der Kreissatz von Gerschgorin- zum Einsatz kommen. Dazu die folgende Definition 2.4 (Charakteristisches Polynom) Es sei A M(n,n, C). Dann heißt die Determinante det(a λi n ) das charakteristische Polynom von A und wir bezeichnen es mit χ A. Dass das charakteristische Polynom χ A einer Matrix A M(n,n, C) ein normiertes Polynom vom Grad n N mit Koeffizienten c i C (i = 0,,n 1) χ A (λ) = c 0 + c 1 λ + c 2 λ c n 1 λ n 1 + λ n ist, sieht man, wenn wir die Determinante χ A (λ) = det(a λi n ) z.b. nach der i-ten Zeile wie folgt entwickeln, es sei dabei B := A λi n gesetzt mit B := (b ij ), n = 1 : det(b) := b 11 n > 1 : det(b) := n ( 1) i+j b ij det(b ij ) j=1

12 8 2 Eigenwerte und Eigenvektoren wobei B ij M(n 1,n 1, C) dadurch entsteht, indem wir die i-te Zeile und die j-te Spalte aus A streichen, und schließlich nach Potenzen von λ ordnen. Für die Koeffizienten von χ A gilt dann (vgl. [9], Proposition 1.2.9) c n 1 = Spur(A) c 0 = ( 1) n det(a) (2.2) Bemerkung 2.5 Da für jede Matrix A M(n,n, C) das charakteristische Polynom χ A nach dem Fundamentalsatz der Algebra in Linearfaktoren zerfällt, gilt mit λ i C für alle i N χ A (λ) = c 0 + c 1 λ + c 2 λ c n 1 λ n 1 + λ n = n (λ λ i ) i=1 setzen wir jetzt λ = 0 oben ein, so erhalten wir schließlich n c 0 = ( 1) n λ i (2.3) i=1 was dann aus (2.2) und (2.3) zusammen folgt det(a) = λ 1 λ n (2.4) Somit haben wir gezeigt, dass die Determinante von A das Produkt der Nullstellen des charakteristischen Polynoms χ A ist. Im folgenden Satz zeigen wir nun den Zusammenhang zwischen den Nullstellen des charakteristischen Polynoms χ A und den Eigenwerten von A. Satz 2.6 (Eigenwerte sind Nullstellen des charakteristischen Polynoms) Es sei A M(n,n, C). Genau dann gibt es einen Eigenvektor x E λ, x 0, zum Eigenwert λ σ(a), wenn λ Nullstelle des charakteristischen Polynoms χ A von A ist. Beweis: Es sei λ σ(a) ein Eigenwert von A. Dann gilt mit Definition 2.2 und Definition 2.4 stets χ A (λ) = 0 det(a λi n ) = 0 Das lineare Gleichungssystem (A λi n )x = 0 hat mindestens eine Lösung x C n mitx 0 Es gibt ein x C n, x 0, mitax = λx Es gibt einen Eigenvektor x E λ, x 0, von A zum Eigenwertλ

13 Kreissatz von Gerschgorin 9 Ist λ σ(a) ein Eigenwert von A M(n,n, C), dann ist die algebraische Vielfachheit von λ, die Vielfachheit von λ als Nullstelle des charakteristischen Polynoms χ A (vgl. [9], Definition ). Nach Bemerkung 2.5 und Satz 2.6 ist die Determinante einer Matrix A M(n,n, C) gleich dem Produkt ihrer Eigenwerte. Definition 2.7 (Reguläre Matrix) Es sei A M(n,n, C). A heißt regulär, wenn ihre Determinante einen von Null verschiedenen Wert besitzt, d.h. det(a) 0. Andernfalls heißt sie singulär. Bemerkung 2.8 Es sei A M(n,n, C) und λ 1,,λ n ihre Eigenwerte. Nach (2.4) gilt ja für die Determinante det(a) = λ 1 λ n. Also ist A nach Definition 2.7 genau dann regulär, wenn λ i 0 für alle i N gilt, d.h. A ist genau dann regulär, wenn 0 nicht Eigenwert von A ist. Mit den sog. ähnlichen Matrizen ist es oft möglich, die Eigenwerte einer Matrix (eventuell) genauer abzuschätzen. Deswegen geben wir die folgende Definition 2.9 (Ähnliche Matrizen) Zwei Matrizen A, B M(n,n, C) heißen ähnlich, wenn es eine reguläre Matrix X M(n,n, C) gibt, so dass das Diagramm C n X = C n A C n X = B C n kommutativ ist, d.h. B = X 1 AX gilt. Die Ähnlichkeit ist eine Äquivalenzrelation auf der Klasse der quadratischen Matrizen. Ähnliche Matrizen beschreiben dieselbe lineare Abbildung (linearen Operator) bei Verwendung unterschiedlicher Basen. Sie haben dieselben Eigenwerte, wie wir im nächsten Satz sehen werden, aber nicht notwendigerweise dieselben Eigenvektoren. Satz 2.10 Es seien A, B M(n,n, C) ähnlich. Dann besitzen sie dasselbe charakteristische Polynom. Sie haben dieselben Eigenwerte einschließlich ihrer algebraischen und geometrischen Vielfachheiten.

14 10 2 Eigenwerte und Eigenvektoren Beweis: Es sei X M(n,n, C) regulär, und damit auch invertierbar (vgl. [8], Korollar 4.3.4), d.h. es existiert die inverse Matrix X 1 M(n,n, C) mit X 1 X = I n. Für B = X 1 AX gilt dann mit dem Determinantenmultiplikationssatz (vgl. [8], Satz ) χ B (λ) = det(b λi n ) = det(x 1 AX λx 1 X) = det(x 1 (A λi n )X) = det(x 1 ) det(a λi n ) det(x) = det(a λi n ) = χ A (λ) Damit stimmen die charakteristischen Polynome von A und B und damit auch die Eigenwerte einschließlich ihrer algebraischen Vielfachheiten überein. Definition 2.11 (Vektornorm) Eine Abbildung : C n R heißt (Vektor-)Norm auf dem Vektorraum C n, wenn 1. x 0 für alle x C n, und x = 0 genau dann,wenn x = 0 Definitheit 2. αx = α x Homogenität 3. x + y x + y Dreiecksungleichung für alle x, y C n und α C gilt. Aufgrund der Bemerkung nach Definition 2.1 können wir Normen, die für Operatoren definiert sind, mittels der linearen Abbildung T : Hom C (C n, C n ) M(n,n, C) auf Matrizen übertragen (vgl. [1], Bemerkung und Bemerkung (a)). Dazu die folgende Definition 2.12 (Zugeordnete Matrixnorm) Es sei eine Norm auf C n. Auf dem Vektorraum M(n,n, C) der komplexen quadratischen Matrizen definieren wir die Abbildung : M(n, n, C) R durch Ax A := sup x 0 x und nennen diese die der Vektornorm zugeordnete Matrixnorm. Definition 2.13 (Matrixnorm) Es sei eine Norm auf C n bzw. zugeordnete Matrixnorm auf M(n,n, C). Sie heißt Matrixnorm, wenn sie submultiplikativ ist, d.h. wenn A, B M(n,n, C) : A B A B

15 Kreissatz von Gerschgorin 11 Eine Matrixnorm M heißt verträglich mit einer gegebenen (Vektor-)Norm V auf C n (vgl. [1], Definition 2.5.2), wenn A M(n,n, C), x C n : Ax V A M x V (2.5) Matrixnormen haben einige nützliche Eigenschaften, so ist beispielsweise der Spektralradius einer Matrix (der betragsgrößte Eigenwert, vgl. Definition 2.3) niemals größer als der Wert einer beliebigen Matrixnorm. Diese erste Lokalisierung der Eigenwerte einer Matrix wollen wir im nächsten Satz genauer formulieren und anschließend beweisen. Dazu der folgende Satz 2.14 Es sei A M(n,n, C). Weiterhin sei eine mit einer (Vektor-)Norm verträgliche Matrixnorm auf M(n,n, C). Für jeden beliebigen Eigenwert λ σ(a) von A gilt dann λ A (2.6) Beweis: Die Matrixnorm M sei verträglich mit der Vektornorm V. Es sei λ σ(a) ein beliebiger Eigenwert von A und x E λ, x 0, ein durch x V = 1 normierter, zugehöriger Eigenvektor. Dann gilt mit (2.5) λ = λ 1 = λ x V = λx V = Ax V A M x V = A M 1 = A M Da λ beliebig war, folgt somit unsere Behauptung (2.6). Satz 2.15 Die der Maximumnorm x := max i N x i, x C n zugeordnete Matrixnorm ist gegeben durch die Zeilensummennorm A := max a ij (2.7) i N j N Beweis: Für x = (x k ) C n gilt mit der Dreicksungleichung Ax = max a i N ij x j j N a ij x j max i N ( max i N j N ) a ij x j N

16 12 2 Eigenwerte und Eigenvektoren und daher gilt A max i N a ij (2.8) j N Es sei max i N a ij = a kj j N j N die maximale Zeilenbetragssumme trete also in der k-ten Zeile auf. Ist a kj = 0 für alle j N, so ist A = 0, und unsere Behauptung ist richtig. Andernfalls definieren wir ˆx C n durch a kj falls a a ˆx j := kj kj 0 0 sonst für j N. Dann gilt ˆx = 1. Benutzen wir die Definition des Betrages einer komplexen Zahl z C z := + z z z 2 = z z z = z z z so gilt anderseits unter Benutzung von (2.5) max a ij = a kj i N j N j N = a kj a kj a kj j N = j N a kjˆx j = a kjˆx j j N Aˆx A ˆx } {{ } =1 = A (2.9) Insgesamt erhalten wir aus (2.8) und (2.9) unsere Behauptung (2.7).

17 3 Gerschgorin-Kreise In diesem Kapitel wollen wir die Gerschgorin-Kreise Γ i (A) (i N) und die Gerschgorin- Menge Γ(A) einer Matrix A definieren, die auf den Mathematiker Semjon Aranowitsch Gerschgorin (1931) zurückgehen. Schließlich werden wir deren topologischen Eigenschaften beweisen. Dazu stellen wir zunächst die topologischen Begriffe zusammen, die aus der Analysis weitgehend bekannt sind (siehe z.b. [3]). Definition 3.1 (Gerschgorin-Kreise) Es sei A M(n,n, C) mit A = (a ij ) i,j N. Für i N heißt r i (A) := a ij (3.1) j N\{i} die i-te absolute Zeilensumme von A. Für N := {1} setzen wir r 1 (A) := 0. Wir nennen die Menge Γ i (A) := {z C : z a ii r i (A)} (3.2) den i-ten Gerschgorin-Kreis mit dem Mittelpunkt a ii und dem Radius r i (A). Die Menge Γ(A) := Γ i (A) (3.3) i N heißt die Gerschgorin-Menge von A. Ist A eine Diagonalmatrix A = diag[a 11,,a nn ], so sind die Gerschgorin-Kreise Γ i (A) bis auf ihre Mittelpunkte zusammengeschrumpft. Definition 3.2 (Offene und abgeschlossene Kugel) Es sei (M,d) ein metrischer Raum mit der Metrik d : M M R und x 0 M. Ferner sei ε > 0. Dann heißt die Menge U ε (x 0 ) := {x M : d(x,x 0 ) < ε} die offene Kugel mit dem Radius ε und dem Mittelpunkt x 0. Entsprechend definieren wir die abgeschlossene Kugel durch K ε (x 0 ) := {x M : d(x,x 0 ) ε}

18 14 3 Gerschgorin-Kreise Definition 3.3 (Offene, abgeschlossene und beschränkte Mengen) Es sei (M,d) ein metrischer Raum. Weiterhin sei X M eine Teilmenge von M. X heißt offen, wenn zu jedem x X eine offene Kugel U ε (x) existiert mit U ε (x) X. X heißt abgeschlossen, wenn das Komplement von X bzgl. M (also die Menge C M (X) := M \ X) offen ist. X heißt beschränkt, wenn sie in einer Kugel K r (x 0 ) = {x M : d(x,x 0 ) r} mit einem r R, r > 0, und einem x 0 M enthalten ist, d.h. X K r (a). Satz 3.4 Für jedes ε > 0 und x 0 M ist die abgeschlossene Kugel K ε (x 0 ) abgeschlossen. Beweis: Gilt K ε (x 0 ) = M, so ist K ε (x 0 ) abgeschlossen. Es sei jetzt K ε (x 0 ) M und x 1 {K ε (x 0 )} C, dann gilt δ := d(x 0,x 1 ) ε > 0. Wir betrachten nun die offene Kugel U δ (x 1 ) mit dem Radius δ und dem Mittelpunkt x 1. Für alle x U δ (x 1 ) gilt dann mit der Dreiecksungleichung d(x 0,x) = d(x 0,x) + d(x,x 1 ) d(x 1,x) d(x 0,x 1 ) d(x 1,x) > d(x 0,x 1 ) δ = ε Also gilt U δ (x 1 ) {K ε (x 0 )} C, daher ist {K ε (x 0 )} C nach Definition 3.3 offen und somit ist K ε (x 0 ) abgeschlossen. Bemerkung 3.5 Wählen wir für alle z 1,z 2 C die Metrik d(z 1,z 2 ) := z 1 z 2 (die sog. euklidische Metrik, vgl. [1], Beispiel (c)), so definieren die Gerschgorin - Kreise Γ i (A) (i = 1,,n) einer Matrix A M(n,n, C) in (3.2) abgeschlossene Kreise in C, und somit sind sie nach Satz 3.4 abgeschlossen. Satz 3.6 Jede endliche Vereinigung beschränkter Mengen ist beschränkt.

19 Kreissatz von Gerschgorin 15 Beweis: Es seien X 1,,X n beschränkte Teilmengen des metrischen Raumes M mit der Metrik d. Weiterhin sei x 0 > 0 gegeben. Da die Mengen X 1,,X n beschränkt sind, gibt es wegen Definition 3.3 stets r 1,,r n mit r i > 0 (i = 1,,n), so dass gilt X i K ri (x 0 ) (i = 1,,n). Setzen wir r := max{r 1,,r n }, so gilt r > 0 und es folgt n n X := X i K ri (x 0 ) K r (x 0 ) i=1 i=1 Also ist X wegen Definition 3.3 beschränkt. Bemerkung 3.7 Da die Gerschgorin-Kreise Γ i (A) (i = 1,,n) wegen Definition 3.3 selbst beschränkt sind, so ist die Gerschgorin - Menge Γ(A) als endliche Vereinigung der Gerschgorin - Kreise nach Satz 3.6 beschränkt. Satz 3.8 Jede endliche Vereinigung abgeschlossener Mengen ist abgeschlossen. Beweis: Zunächst zeigen wir, dass die endliche Vereinigung offener Mengen offen ist und werden danach mit den Regeln von DeMorgan auf die Abgeschlossenheit schließen. 1. Dazu seien X 1,,X n offene Teilmengen des metrischen Raumes (M,d). Wir setzen X := n i=1 X i Ist X =, so ist X offen. Es sei also X und x 0 X. Dann gilt x 0 X i (i = 1,,n). Da jedes X i offen ist, existieren ε 1,,ε n mit ε i > 0 (i = 1,,n), so dass gilt U εi (x 0 ) X i (i = 1,,n). Setzen wir ε := min{ε 1,,ε n }, so ist ε > 0 und es folgt U ε (x 0 ) X i. Somit folgt schließlich n U ε (x 0 ) X i =: X i=1 Wegen Definition 3.3 ist also X offen. 2. Es seien X 1,,X n abgeschlossen. Wir setzen ˆX := n i=1 X i

20 16 3 Gerschgorin-Kreise Nach den Regeln von DeMorgan gilt dann ˆX C = n i=1 X C i Da die Mengen X1 C,,Xn C nach Voraussetzung und Definition 3.3 offen sind, so ist ˆX C wegen des ersten Teils des Beweises offen, also ist ˆX wegen Definition 3.3 abgeschlossen. Bemerkung 3.9 Da die Gerschgorin-Kreise Γ i (A) (i = 1,,n) nach Bemerkung 3.5 abgeschlossen sind, so ist die Gerschgorin-Menge Γ(A) nach Satz 3.8 als endliche Vereinigung abgeschlossener Mengen abgeschlossen. Ist (M,d) ein metrischer Raum mit der Metrik d : M M R definiert durch d(x,y) := x y so können wir unsere Resultate auch auf normierte Vektorräume übertragen (vgl. [1], Satz 2.1.2). Vorzugsweise wählt man dann 0 als den Mittelpunkt.

21 4 Beispiele Wir wollen nun den Kreissatz von Gerschgorin vorbereitend anhand von Beispielen untersuchen. Stellen wir dann sowohl die zugehörigen Gerschgorin-Kreise und die Eigenwerte der jeweiligen Matrizen grafisch dar, so können wir die Lage der Eigenwerte auf den Gerschgorin-Kreisen ersehen. Zur Berechnung der Eigenwerte und der charakteristischen Polynome habe ich das freie Computer-Algebra System Maxima ( benutzt und die Eigenwerte auf sechs Stellen nach dem Komma gerundet. Beispiel 4.1 Es sei die Matrix A 1 gegeben durch ( ) 1 1 A 1 = 1 1 Nach Definition 2.4 ist dann das charakteristische Polynom von A 1 gegeben durch χ A1 (λ) = λ 2 und somit sind die Eigenwerte von A 1 nach Satz 2.6 λ 1 = λ 2 = Abbildung 4.1: Gerschgorin-Kreise und Eigenwerte der Matrix A 1 Betrachten wir jetzt die Abbildung 4.1, so sehen wir, dass der Eigenwert λ 1 bzw. λ 2 von A 1 auf dem Rand des jeweiligen Gerschgorin-Kreises liegt. Beispiel 4.2 Es sei jetzt die Matrix A 2 gegeben durch 1 i 0 A 2 = 1/2 4 i/

22 18 4 Beispiele Dann erhalten wir das charakteristische Polynom χ A2 (λ) von A 2 χ A2 (λ) = 1 2 {2λ3 24λ 2 + (78 i) λ + 7i 55} und damit die Eigenwerte von A 2 λ 1 = i λ 2 = i λ 3 = i Wir stellen nun die Gerschgorin-Kreise und die Eigenwerte von A 2 grafisch dar durch die folgende Abbildung Abbildung 4.2: Gerschgorin-Kreise und Eigenwerte der Matrix A 2 Hier liegt auf jedem Gerschgorin-Kreis genau ein Eigenwert von A 2. Beispiel 4.3 Schließlich sei die Matrix A 3 gegeben durch A 3 = 0 0 1/8 i 1/ /4 2i 1/ /2 1/ /2 9/2 Wir erhalten also das charakteristische Polynom χ A3 (λ) = 1 64 {64λ iλ λ 5 ( i) λ 4 + ( i) λ 3 + ( i) λ 2 ( i) λ 21320}

23 Kreissatz von Gerschgorin 19 und die Eigenwerte von A 3 sind gegeben durch λ 1 λ 2 = i = i λ 3 = λ 4 = λ 5 = 2 λ 6 = λ 7 = Stellen wir nun wieder die Gerschgorin-Kreise und die Eigenwerte von A 3 grafisch dar so erkennen wir, dass in manchen Gerschgorin-Kreisen gar keine Eigenwerte von A 3 Abbildung 4.3: Gerschgorin-Kreise und Eigenwerte der Matrix A 3 und in manchen mehrere Eigenwerte von A 3 liegen. Betrachten wir nun die aufgeführten Beispiele, so erkennen wir, dass wir nicht garantieren können, dass in jedem Gerschgorin-Kreis mindestens ein Eigenwert enthalten ist, aber dafür alle Eigenwerte einer Matrix in der Vereinigung der Gerschgorin-Kreise liegen, unabhängig davon, wie die einzelnen Eigenwerte in dieser Vereinigung verstreut sind.

24 20 4 Beispiele Diesen sog. Kreissatz von Gerschgorin wollen wir nun im nächsten Kapitel genauer formulieren und anschließend beweisen. Somit ist eine Abschätzung von Eigenwerten einer Matrix ohne viel Rechnung möglich.

25 5 Kreissatz von Gerschgorin Wir haben schon gesehen, dass wir die Eigenwerte einer Matrix A M(n,n, C) durch eine Matrixnorm A abschätzen können (vgl. Satz 2.14), d.h. dass für jeden beliebigen Eigenwert λ σ(a) gilt λ A Nun wollen wir einen Satz kennenlernen, der eine bessere Abschätzung der Eigenwerte ermöglicht. Satz 5.1 (Kreissatz von Gerschgorin) Es sei A M(n,n, C). Zu jedem Eigenwert λ σ(a) von A gibt es dann ein k N, so dass gilt λ a kk r k (A) (5.1) Beweis: Es sei λ σ(a) ein beliebiger Eigenwert von A und x = (x 1,,x n ) T E λ x 0, zugehöriger Eigenvektor, d.h. es gilt Ax = λx, also a ij x j = λx i (i N) (5.2) j N Da x als Eigenvektor nach Definition ist, gibt es ein k N mit 0 < x k = max i N x i Für diesen Index gilt dann mit der Eigenwertgleichung (5.2) a ki x i = λx k i N was gleichbedeutend ist mit a k1 x a k,k 1 x k 1 + a kk x k + a k,k+1 x k a kn x n = λx k a k1 x a k,k 1 x k 1 + a k,k+1 x k a kn x n = λx k a kk x k a ki x i = (λ a kk ) x k (5.3) i N\{k}

26 22 5 Kreissatz von Gerschgorin Mit der Dreiecksungleichung folgt dann aus (5.3) (λ a k ) x k = a ki x i i N\{k} λ a k x k a ki x i a ki x k λ a kk i N\{k} i N\{k} a ki = r k (A) i N\{k} was unsere Behauptung (5.1) beweist. Wegen (3.2) bedeutet unsere Behauptung (5.1) λ Γ k (A), also auch λ Γ(A) nach (3.3). Da unsere Behauptung für jeden beliebigen Eigenwert gilt, folgt σ(a) Γ(A). Satz 5.1 besagt also, dass alle Eigenwerte einer Matrix A M(n,nC) in der Vereinigung der Gerschgorin-Kreise Γ(A) liegen, aber nicht garantiert, dass in jedem Gerschgorin- Kreis mindestens ein Eigenwert von A liegt. Beispiel 5.2 Die Matrix ( ) 0 1 A 4 = 2 0 hat die Eigenwerte λ 1/2 = ± 2, liegt aber im Gerschgorin-Kreis Γ 1 (A 4 ) = {z C : z 1} kein Eigenwert von A 4. Abbildung 5.1: Gerschgorin-Kreise und Eigenwerte der Matrix A 4

27 Kreissatz von Gerschgorin 23 Betrachten wir unser Beispiel 4.3, so sehen wir, dass auch hier im Gerschgorin-Kreis Γ 2 (A 3 ) = {z C : z 2 1} kein Eigenwert von A 3 liegt. Der Kreissatz von Gerschgorin gestattet eine genauere Abschätzung der Eigenwerte als (2.6). Definition 5.3 (Diagonaldominante Matrix) Es sei A M(n,n, C). A heißt strikt diagonaldominant, falls für alle i N gilt a ii > r i (A) (5.4) Beispiel 5.4 Sind die Einträge einer Matrix A M(n,n, C) außerhalb der Diagonalen sehr klein, d.h. je stärker die Diagonaldominanz der Matrix A ist, so erkennen wir, dass die Eigenwerte von A ungefähr mit den Diagonalelementen übereinstimmen. Als Beispiel betrachten wir die Matrix 0, , 1 0, 4 0, 2 A = 0 0, , 1 0, 5 0, , 2 0, 2 0, 1 0, 3 Sind nun λ 1, λ 2, λ 3 C die Eigenwerte von A, so erhalten wir nach dem Kreissatz von Gerschgorin die Abschätzungen λ 1 ( 0, 9 + 0, ) 0, (5.5) λ 2 ( 0, 4 + 0, ) 0, (5.6) λ 3 ( 0, 2 + 0, ) 0, (5.7) Die Eigenwerte von A stimmen also ungefähr mit den Diagonalelementen von A überein. Die Diagonalelemente einer Matrix sind also Näherungen für die Eigenwerte, und zwar umso besser, je stärker diagonaldominant die Matrix ist. Dies ist die zentrale Aussage des Kreissatzes von Gerschgorin. Bemerkung 5.5 Ist B M(n,n, C) mit b ii = a ii und r i (B) = r i (A) für alle i N, so liegen auch alle Eigenwerte von B in Γ(A).

28 24 5 Kreissatz von Gerschgorin Beweis: Es sei µ σ(b) ein Eigenwert von B. Nach Satz 5.1 existiert dann ein k N mit µ b kk r k (B) Wegen den Voraussetzungen an B folgt daraus µ a kk r k (A) und somit liegen alle Eigenwerte von B in Γ(A), also es gilt σ(b) Γ(A). Wählen wir in Satz 2.14 als Maximumnorm die Zeilensummennorm (2.7), so folgt aus Satz 5.1 das folgende Korollar 5.6 Es sei A M(n,n, C). Dann gilt ρ(a) max a ij (5.8) i N j N Beweis: Es sei λ σ(a). Nach Satz 5.1 existiert ein k N, so dass gilt λ a kk r k (A) Mit der sog. Dreiecksungleichung nach unten folgt dann und somit λ a kk λ a kk r k (A) λ r k (A) + a kk j N\{k} a kj + a kk = j N a kj max i N a ij Da diese Ungleichung für jeden Eigenwert λ von A gilt, ist somit unsere Behauptung (5.8) bewiesen. Wir wollen jetzt eine Äquivalenz des Kreissatzes von Gerschgorin beweisen. Satz 5.7 Es sei A M(n, n, C) strikt diagonaldominant. Dann ist A regulär. Beweis: Wegen Bemerkung 2.8 genügt es zu zeigen, dass A nicht den Eigenwert 0 hat. Es sei also λ σ(a) ein beliebiger Eigenwert von A. Nach Satz 5.1 gibt es dann ein k N, so dass gilt λ a kk i N\{k} a ki = r k (A) j N

29 Kreissatz von Gerschgorin 25 Aufgrund der Diagonaldominanz (5.4) von A folgt schließlich daraus λ a kk < a kk was unmittelbar λ 0 zur Folge hat. Da nun λ beliebig war, ist somit unsere Behauptung bewiesen. Wir haben gezeigt, dass Satz 5.7 aus Satz 5.1 folgt. Im Folgenden werden wir zeigen, dass auch die Umkehrung richtig ist. Dies werden wir indirekt beweisen. Es gelte also Satz 5.7 und wir nehmen an, dass die Ungleichung (5.1) in Satz 5.1 nicht gilt, also für eine Matrix A M(n,n, C) existiere ein Eigenwert λ σ(a), so dass für alle k N gilt λ a kk > r k (A) (5.9) Setzen wir B := λi n A mit B = (b ij ), d.h. 1 0 a 11 a 1n B = λ a n1 a nn λ a 11 a 1n =..... a n1 λ a nn b 11 b 1n =..... b n1 b nn so ist B singulär. Denn: B = λi n A = (A λi n ). Da λ nach Voraussetzung ein Eigenwert von A ist, gilt nach Satz 2.6 det(a λi n ) = 0 und folglich auch det(b) = 0. Somit ist B wegen Definition 2.7 singulär. Wegen Definition von B gilt r 1 (B) = a 12 + a a 1n = r 1 (A) r 2 (B) = a 21 + a a 2n = r 2 (A). Für alle k N gilt also r k (B) = r k (A) (5.10)

30 26 5 Kreissatz von Gerschgorin Anderseits gilt auch für alle k N λ a kk = b kk (5.11) Aus (5.9), (5.10) und (5.11) zusammen folgt dann λ a kk = b kk > r k (A) = r k (B) Wegen Definition 5.3 ist somit B strikt diagonaldominant und nach Satz 5.7 regulär, im Widerspruch zur Singularität von B. Somit haben wir gezeigt, dass Satz 5.1 und Satz 5.7 äquivalent sind. Satz 5.1 ist sozusagen die geometrische Interpretation des Satzes 5.7. Bemerkung 5.8 Es sei x R n mit x > 0. Wir definieren die Matrix X M(n,n, R) durch X = diag[x] = diag[x 1,,x n ]. Nach Definition 2.7 ist dann X regulär und die Matrizen B = X 1 AX definiert durch b ij = a ij xj x i und A sind nach Definition 2.9 ähnlich. Sie haben also nach Satz 2.10 die gleichen Eigenwerte, d.h. es gilt σ(b) = σ(x 1 AX) = σ(a) Definieren wir analog zu Definition 3.1 die gewichtete Zeilensumme durch r i (A) := r i(b) = a ij xj (i N) (5.12) x i j N\{i} den i-ten gewichteten Gerschgorin-Kreis durch Γ r i (A) := {z C : z a ii r i } (5.13) und schließlich die gewichtete Gerschgorin-Menge durch Γ r (A) := i N Γ r i (A) (5.14) so können wir die Eigenwerte von A auch durch die gewichteten Zeilensummen (5.12) mit Hilfe des Satzes 5.1 (eventuell genauer) abschätzen. Dazu das folgende Korollar 5.9 Es sei A M(n,n, C) und x R n mit x > 0 (siehe (5.12), (5.13) und (5.14)). Dann gilt σ(a) Γ r (A) (5.15)

31 Kreissatz von Gerschgorin 27 Beweis: Es sei λ σ(a) ein Eigenwert von A. Betrachten wir die zu A ähnliche Matrix B und ist µ σ(b) ein Eigenwert von B, so gibt es nach Satz 5.1 ein k N mit µ b kk r k (B) Da B und A nach Satz 2.2 die gleichen Eigenwerte haben, folgt λ b kk r k (B) was unsere Behauptung (5.15) beweist. Indem wir also A mittels einer Ähnlichkeitstranformation X nach Definition 2.9 zu einer nahezu diagonalen Matrix B := X 1 AX transformieren und den Satz 5.1 auf die Matrix B anwenden, können wir unsere Abschätzung (5.1) beliebig genau machen. Wir betrachten dazu das folgende Beispiel 5.10 Wir betrachten unser Beispiel 5.4. Da nach Satz 2.10 ähnliche Matrizen dieselben Eigenwerte haben, können wir also die Abschätzungen der Eigenwerte von A (5.5), (5.6) und (5.7) mittels Korollar 5.9 noch wesentlich verbessern, indem wir eine zu A ähnliche Matrix B betrachten. Setzen dazu nach Bemerkung 5.8 X := diag[10 5, 1, 1]. Da X als eine Diagonalmatrix mit Diagonaleinträgen 0 nach Definition 2.7 regulär ist, gilt 0, B := X 1 AX = 0 0, , 2 + 0, , , , 1 0, , , 2 0, , Nach Korollar 5.9 erhalten wir dann für den Eigenwert λ 1 die bessere Abschätzung λ 1 ( 0, 9 + 0, ) 0, Entsprechend können wir auch die Abschätzung für die beiden anderen Eigenwerte von A verbessern. Den Kreissatz von Gerschgorin können wir auf jede Matrix B := X 1 AX mit einer beliebigen regulären Matrix X M(n,n, C) anwenden, um die Eigenwerte von A (eventuell genauer) abzuschätzen. Das Korollar 5.9 ist hier nur ein (wichtiger) Spezialfall mit einer Diagonalmatrix X := diag[x] = diag[x 1,,x n ], x > 0, erfordert jedoch mehr Rechenaufwand, die gewichteten Zeilensummen r i (A) zu bestimmen. Falls X sogar eine volle reguläre (komplexe) Matrix ist, gestaltet sich die Bestimmung der gewichteten Zeilensummen noch schwieriger. Anderseits aber wissen wir aus der

32 28 5 Kreissatz von Gerschgorin linearen Algebra, dass jede Matrix A ähnlich ist zu einer Jordan scher Normalform, d.h. es existiert eine reguläre Matrix S M(n,n, C), so dass S 1 AS =: J eine Jordan sche Normalform ist, aus der wir dann die Eigenwerte von A aus den Diagonalelementen von J ablesen können (vgl. [9], Kapitel 3.3). Sie hat die folgende Form J 1 0 J := S 1 AS =... 0 J n Die J i sind die sog. Jordan-Blöcke λ i 1 0 λ i 1 J i = λ i 1 0 λ i Die λ i sind dabei die Eigenwerte von A. Zu jedem Eigenwert λ i gibt es seiner geometrischen Vielfachheit entsprechend viele Jordan-Blöcke. Die geometrische Vielfachheit ist dabei bestimmt durch die Anzahl linear unabhängiger Eigenvektoren zum Eigenwert λ i (vgl. Definition 2.3). Die Gesamtdimension aller Jordan-Blöcke eines Eigenwertes entspricht seiner algebraischen Vielfachheit, d.h. seiner Vielfachheit im charakteristischen Polynom.

33 6 Verfeinerung des Kreissatzes von Gerschgorin In diesem letzten Kapitel wollen wir eine Verfeinerung des Kreissatzes von Gerschgorin (siehe Satz 5.1) kennenlernen. Lassen wir eine beliebige Matrix A M(n,n, C) durch stetige Änderung der Elemente außerhalb der Hauptdiagonalen aus der Matrix ihrer Diagonalmatrix entstehen, so erkennen wir, dass damit die einhergehende stetige Änderung der Nullstellen des charakteristischen Polynoms zu einer Verfeinerung des Satzes 5.1 führt, die wir jetzt beweisen werden. Nach Satz 2.6 sind die Eigenwerte einer Matrix A M(n,n, C) genau die Nullstellen des zugehörigen charakteristischen Polynoms. Um die stetige Abhängigkeit der Eigenwerte von A von ihren Einträgen zu beweisen, genügt es daher zu zeigen, dass die Nullstellen eines Polynoms stetig von den Koeffizienten abhängen. Diese Aussage werden wir im folgenden Satz genauer formulieren und anschließend beweisen, da wir sie für unseren Hauptsatz dieses Kapitels benötigen werden. Satz 6.1 (Stetige Abhängigkeit der Nullstellen eines Polynoms) Es sei p(z) := z n + a n 1 z n a 1 z + a 0 ein normiertes Polynom mit den Nullstellen λ 1,,λ n C (der Vielfachheit nach gezählt). Dann gibt es zu jedem ε > 0 ein δ = δ(ε) > 0 mit folgender Eigenschaft: Ist q(z) := z n + b n 1 z n b 1 z + b 0 ein normiertes Polynom mit den Nullstellen µ 1,,µ n C (der Vielfachheit nach gezählt) mit b j a j < δ für alle j = 0, 1,,n 1, so können die Nullstellen von q so nummeriert werden, dass µ j λ j < ε für alle j = 0, 1,,n 1 gilt. Beweis: Wir betrachten die Polynome p und q mit n n n n p(z) := a j z j = (z λ j ), q(z) := b j z j = (z µ j ) j=1 j=1 j=1 j=1

34 30 6 Verfeinerung des Kreissatzes von Gerschgorin Da p und q nach Voraussetzung normiert sind, gilt a n = b n = 1. Es sei λ N p := {λ 1,...,λ n } eine beliebige Nullstelle von p. Wir zeigen, dass λ von den Koeffizienten a j von p abhängt. Es gilt zunächst n n 1 (λ µ j ) = q(λ) = q(λ) 0 = q(λ) p(λ) = (b j a j )λ j (6.1) j=1 Gehen wir zu den Beträgen über und bilden die n-ten Wurzel, so folgt aus (6.1) min λ µ j n 1 n b j a j λ j (6.2) j=1,,n j=0 Wählen wir nun zu gegebenem ε > 0 ein δ = δ(ε) > 0 mit δ := ε n n j=1 λ j j=0 so folgt aus (6.2): Zur Nullstelle λ von p und ε > 0 gibt es ein δ = δ(ε) > 0, so dass zu jedem normierten Polynom q(z) := z n + b n 1 z n b 1 z + b 0 für dass b j a j < δ für alle j = 0, 1,,n 1 gilt, eine Nullstelle µ j von q gibt mit λ µ j < ε. Als unmittelbare Folgerung notieren wir das Korollar 6.2 (Stetige Abhängigkeit der Eigenwerte einer Matrix) Es sei A M(n,n, C) mit den Eigenwerten λ 1,,λ n σ(a) (der Vielfachheit nach gezählt) und ferner sei eine Matrixnorm gemäß Definition Dann gibt es zu jedem ε > 0 ein δ = δ(ε) > 0 mit folgender Eigenschaft: Ist B M(n,n, C) eine Matrix mit B A < δ, so können wir die Eigenwerte µ 1,,µ n σ(b) (der Vielfachheit nach gezählt) von B so nummerieren, dass für alle j = 1,,n gilt µ j λ j < ε. Für n > 2 sei S eine echte Teilmenge von N, d.h. S N. Mit S bezeichnen wir die Anzahl der Elemente von S und nennen die Kardinalität von S. Es sei A M(n,n, C) und x R n mit x > 0. Analog zu (5.12)-(5.14) definieren wir durch Γ r S (A) := Γ r i (A) (6.3) i S

35 Kreissatz von Gerschgorin 31 die Zusammenhangskomponente von Γ r (A), die mit allen übrigen Kreisen einen leeren Durchschnitt hat und selbst nicht in zwei disjunkte Kreisvereinigungen zerfällt, d.h. es gilt Γ r S (A) Γ r N\S(A) = (6.4) Wir erhalten abschließend zu diesem Vortrag nun eine Verfeinerung des Kreissatzes von Gerschgorin. Satz 6.3 (Verfeinerung des Kreissatzes von Gerschgorin) Es sei A M(n,n, C), n > 2, und x R n, x > 0, die (6.4) für eine echte Teilmenge S von N erfüllt. Dann enthält die Zusammenhangskomponente Γ r S (A) genau S Eigenwerte von A. Beweis: Es sei D := diag[a 11,,a nn ] eine Diagonalmatrix mit den Diagonalelementen von A. Für t [0, 1] definieren wir die Matrix A(t) := D + t(a D) Durch einen Stetigkeitsschluss wollen wir mit Hilfe des Korollars 6.2 aus der Gültigkeit der Behauptung für A(0) = D auf die Matrix A(1) = A schließen. Hierzu beachten wir zunächst, dass die zu A(t) gehörigen Gerschgorin-Kreise mit Γ r i (A(t)) = {z C : z a ii r i (A)} Γ r i (A(t)) Γ r i (A) (6.5) gegeben sind, denn es gilt für alle t [0, 1] r i (A(t)) = j N\{i} = = t j N\{i} j N\{i} = t r i (A) r i (A) a ij (t) x j x i t a ij x j x i a ij x j x i also gilt (6.5). Aus (5.15) folgt anderseits σ(a(t)) Γ r (A(t))

36 32 6 Verfeinerung des Kreissatzes von Gerschgorin für alle t [0, 1], d.h. alle Eigenwerte von A(t) liegen in Γ r (A(t)). Wir definieren I := {t [0, 1] : Genau S Eigenwerte von A(t) liegen in Γ r S (A)} und zeigen, dass 1 I gilt, also dass genau S Eigenwerte von A(1) = A in Γ r S (A) liegen. Hierzu setzen wir t 0 := sup{t : t I}, ε := 1 { } 2 min z 1 z 2 : z 1 Γ r S (A(t)); z 2 Γ r N\S(A(t)) Wir beweisen unsere Behauptung nun in drei Schritten: 1. Für t = 0 ist A(0) = D eine Diagonalmatrix, so dass die Eigenwerte von A(0) genau die Diagonalelemente a 11,,a nn von A sind. Somit liegen in Γ r S (A(0)) = {a ii : i S} genau S Eigenwerte von A(0). 2. Wir zeigen, dass t 0 I gilt. Es seien dazu λ 1 (t 0 ),,λ n (t 0 ) die Eigenwerte von A(t 0 ). Wegen A(t) A(t 0 ) = D + t(a D) = D(t 0 t) A(t 0 t) = (t 0 t)(d A) = t 0 t D A und nach Korollar 6.2 existiert zu ε > 0 ein δ = δ(ε) > 0 derart, dass es zu jedem t [0, 1] mit t t 0 < δ eine Nummerierung der Eigenwerte λ 1 (t 0 ),,λ n (t 0 ) von A(t) gibt mit λ i (t) λ i (t 0 ) < ε für alle i = 1,,n. Nach Definition von t 0 existiert ein t [t 0 δ,t 0 ] I. D.h. genau S Eigenwerte λ i (A) von A(t) liegen in Γ r S (A(t)) und die reslichen in Γ r N\S (A(t)). Wegen λ i (t) λ i (t 0 ) < ε

37 Kreissatz von Gerschgorin 33 sowie der Definition von ε als dem halben Abstand zwischen Γ r S (A(t)) und Γ r N\S(A(t)) gilt das entsprechende für die Eigenwerte λ i (t 0 ) von A(t 0 ) und daher gilt t 0 I. 3. Im dritten und letzten Schritt nehmen wir im Widerspruch zur Behauptung t 0 < 1 an. Mit δ > 0 wie im Schritt (2) und t ]t 0,t 0 δ] [0, 1] können wir die Eigenwerte λ 1 (t),,λ n (t) von A(t) so nummerieren, dass λ i (t) λ i (t 0 ) < ε für alle i = 1,,n gilt. Wegen t 0 I und der Definition von ε ist aber auch t I, im Widerspruch zur Definition von t 0. Somit haben wir insgesamt unsere Behauptung bewiesen. Bemerkung 6.4 Falls ein (gewichteter) Gerschgorin-Kreis Γ r i (A) für ein i N disjunkt ist zu den restlichen Kreisen Γ r j (A), d.h. wenn S = {i} ist, so besagt Satz 6.3, dass in Γ r i (A) genau ein Eigenwert von A liegt. Betrachten wir dazu das Beispiel 4.2, so sind die drei Gerschgorin-Kreise paarweise disjunkt, und so liegt in jedem Gerschgorin-Kreis Γ i (A 2 ) (i = 1, 2, 3) nach Satz 6.3 genau ein Eigenwert von A 2.

38

39 7 Zusammenfassung Mit dem Kreissatz von Gerschgorin haben wir eine Abschätzung kennengelernt, die sämtliche Eigenwerte einer Matrix A ohne mühsame Rechnung liefert. Durch die Betrachtung von ähnlichen Matrizen konnten wir die Eigenwerte mit dem Kreissatz von Gerschgorin noch wesentlich verbessern. Eine Verschärfung des Satzes von Gerschgorin lieferte unter gewissen Voraussetzungen auch die Anzahl der Eigenwerte einer Matrix in den Gerschgorin-Kreisen. In vielen praktisch auftretenden Fällen, z.b. Wertpapieranalyse (stock-market-analysis) oder das Studium des Verhaltens dynamischer Systeme, interessiert man sich jedoch gar nicht für alle Eigenwerte, sondern nur für einige, insbesondere für den oder die betragsgrößten bzw. betragskleinsten Eigenwerte. Es hat deshalb Sinn, sich nach Möglichkeiten umzusehen, nur diese auf möglichst einfache Art zu gewinnen. Eines dieser Verfahren ist z.b. die Potenzmethode (auch Von-Mises-Iteration genannt). Sie ist ein numerisches Verfahren zur Berechnung des betragsgrößten Eigenwertes einer Matrix. Interessiert man sich hingegen für alle Eigenwerte und Eigenvektoren, so benutzt man z.b. den QR-Algorithmus. Der QR-Algorithmus ist ein numerisches Verfahren zur Berechnung aller Eigenwerte und eventuell der Eigenvektoren einer quadratischen Matrix.

40

41 Literaturverzeichnis [1] Boos, Johann: Anwendungsorientierte Funktionalanalysis, Scriptum zum Kurs an der FernUniversität in Hagen, 2001 [2] Eisenreich, G. / Sube, R.: Dictionary of Mathematics, Verlag Harri Deutsch, 1994 [3] Endl, K. / Luh, W.: Analysis I, Aula-Verlag, 1989 [4] Endl, K. / Wießner, M.: Aufgabensammlung Analysis, Band 1, Aula- Verlag, 1991 [5] Hämmerlin, G. / Hoffmann, K.-H.: Numerische Mathematik, Springer, 1994 [6] Locher, Franz: Numerische Mathematik II, Scriptum zum Kurs an der FernUniversität in Hagen, 1999 [7] Rahman, Q.I. / Schmeisser, G.: Analytic Theory of Polynomials, Clarendon Press - Oxford, London Mathematical Society Monographs, 2002 [8] Unger, Luise: Lineare Algebra I, Scriptum zum Kurs an der FernUniversität in Hagen, 2003 [9] Unger, Luise: Lineare Algebra II, Scriptum zum Kurs an der FernUniversität in Hagen, 2006 [10] Varga, R.S.: Geršgorin and His Circles, Springer, 2004 [11] Voß, H. / Mackens W.: Scriptum zur Vorlesung Lineare Algebra II an der Technischen Universität Hamburg-Harburg im Sommersemester 2007 [12] Werner, Jochen: Numerische Mathematik I, Vieweg, 1992 [13] Werner, Jochen: Numerische Mathematik II, Vieweg, 1992

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Physiker II, SS Mittwoch 8.6 $Id: jordan.tex,v.6 /6/7 8:5:3 hk Exp hk $ 5 Eigenwerte und die Jordansche Normalform 5.4 Die Jordansche Normalform Wir hatten bereits erwähnt, dass eine n n

Mehr

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist. Matrizennorm Es seien r,s N Mit M r,s (R bezeichnen wir die Menge der reellen r s- Matrizen (also der linearen Abbildungen R s R r, und setze M s (R := M s,s (R (also die Menge der linearen Abbildungen

Mehr

Eigenwerte und Eigenvektoren von Matrizen

Eigenwerte und Eigenvektoren von Matrizen Eigenwerte und Eigenvektoren von Matrizen Das Eigenwertproblem Sei A eine quadratische Matrix vom Typ m,m. Die Aufgabe, eine Zahl λ und einen dazugehörigen Vektor x zu finden, damit Ax = λx ist, nennt

Mehr

1.9 Eigenwerte und Eigenvektoren

1.9 Eigenwerte und Eigenvektoren .9. EIGENWERTE UND EIGENVEKTOREN 0.9 Eigenwerte und Eigenvektoren Alles in diesem Abschnitt bezieht sich auf quadratische reelle oder komplexe n n-matrizen. Statt E n (n n-einheitsmatrix) wird kurz E geschrieben..

Mehr

Musterlösungen zur Linearen Algebra II Blatt 5

Musterlösungen zur Linearen Algebra II Blatt 5 Musterlösungen zur Linearen Algebra II Blatt 5 Aufgabe. Man betrachte die Matrix A := über dem Körper R und über dem Körper F und bestimme jeweils die Jordan- Normalform. Beweis. Das charakteristische

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

Fachschaft Mathematik und Informatik (FIM) LA I VORKURS. Herbstsemester 2015. gehalten von Harald Baum

Fachschaft Mathematik und Informatik (FIM) LA I VORKURS. Herbstsemester 2015. gehalten von Harald Baum Fachschaft Mathematik und Informatik (FIM) LA I VORKURS Herbstsemester 2015 gehalten von Harald Baum 2. September 2015 Inhaltsverzeichnis 1. Stichpunkte zur Linearen Algebra I 2. Körper 3. Vektorräume

Mehr

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume?

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Bernhard Ganter Institut für Algebra TU Dresden D-01062 Dresden bernhard.ganter@tu-dresden.de WS 2013/14 Isomorphie Zwei Graphen (V 1, E 1 ) und (V

Mehr

Kapitel 15. Lösung linearer Gleichungssysteme

Kapitel 15. Lösung linearer Gleichungssysteme Kapitel 15. Lösung linearer Gleichungssysteme Lineare Gleichungssysteme Wir befassen uns nun mit der Lösung im allgemeinen nichthomogener linearer Gleichungssysteme in zweifacher Hinsicht. Wir studieren

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u.

u + v = v + u. u + (v + w) = (u + v) + w. 0 V + v = v + 0 V = v v + u = u + v = 0 V. t (u + v) = t u + t v, (t + s) u = t u + s u. Universität Stuttgart Fachbereich Mathematik Prof. Dr. C. Hesse PD Dr. P. H. Lesky Dipl. Math. D. Zimmermann Msc. J. Köllner FAQ 3 Höhere Mathematik I 4..03 el, kyb, mecha, phys Vektorräume Vektorräume

Mehr

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen

Mehr

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt - 17 - Die Frage ist hier also: Für welche x R gilt x = x + 1? Das ist eine quadratische Gleichung für x. Es gilt x = x + 1 x x 3 = 0, und man kann quadratische Ergänzung machen:... ( ) ( ) x x + = 3 +

Mehr

Mathematik für Studierende der Biologie und des Lehramtes Chemie Wintersemester 2013/14. Auswahl vorausgesetzter Vorkenntnisse

Mathematik für Studierende der Biologie und des Lehramtes Chemie Wintersemester 2013/14. Auswahl vorausgesetzter Vorkenntnisse UNIVERSITÄT DES SAARLANDES FACHRICHTUNG 6.1 MATHEMATIK Dipl.-Math. Kevin Everard Mathematik für Studierende der Biologie und des Lehramtes Chemie Wintersemester 2013/14 Auswahl vorausgesetzter Vorkenntnisse

Mehr

Lösungen zum 3. Aufgabenblatt

Lösungen zum 3. Aufgabenblatt SS, Lineare Algebra Die Lösungen wurden erstellt von: Isabel Voigt, Vanessa Lamm und Matthias Rehder Hinweis: Eine Liste der zur Bearbeitung verwendeten Literatur ist unter www.mathematiwelt.com aufrufbar.

Mehr

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011 Mathematik für Informatiker II Christoph Eisinger Sommersemester 211 Beispiellösungen zur Probeklausur Aufgabe 1 Gegeben sind die Polynome f, g, h K[x]. Zu zeigen: Es gibt genau dann Polynome h 1 und h

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

Vorlesung 12 22. bzw. 23. Januar 2014. Determinanten 1. Cramersche Regel

Vorlesung 12 22. bzw. 23. Januar 2014. Determinanten 1. Cramersche Regel Vorlesung 2 22 bzw 23 Januar 204 Lineares Gleichungssystem a a 2 b b 2 = F a a 2 a 3 b b 2 b 3 c c 2 c 3 = V V =< a, b c > c b a b a F V Seite 70 a x + a 2 x 2 + a 3 x 3 b = 0 < a x + a 2 x 2 + a 3 x 3

Mehr

Frohe Weihnachten und ein gutes neues Jahr!

Frohe Weihnachten und ein gutes neues Jahr! Frohe Weihnachten und ein gutes neues Jahr! Die mit dem Stern * gekennzeichneten Übungen sind nicht verpflichtend, aber sie liefern zusätzliche Punkte. Unten wird immer mit I das reelle Intervall [0, 1]

Mehr

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen.

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen. 13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen. Sie heißt linear, wenn sie die Form y (n) + a n 1 y (n 1)

Mehr

7 Rechnen mit Polynomen

7 Rechnen mit Polynomen 7 Rechnen mit Polynomen Zu Polynomfunktionen Satz. Zwei Polynomfunktionen und f : R R, x a n x n + a n 1 x n 1 + a 1 x + a 0 g : R R, x b n x n + b n 1 x n 1 + b 1 x + b 0 sind genau dann gleich, wenn

Mehr

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow LINEARE ALGERA Ferienkurs Hanna Schäfer Philipp Gadow INHALT Eigenwerte und Eigenvektoren. asiswechsel.2 Eigenwertgleichung 2.3 Diagonalisierbarkeit 5.4 Trigonalisierung 8.5 Zusatzmaterial 8 Aufgaben 9

Mehr

Ergänzungen zur Analysis I

Ergänzungen zur Analysis I 537. Ergänzungsstunde Logik, Mengen Ergänzungen zur Analysis I Die Behauptungen in Satz 0.2 über die Verknüpfung von Mengen werden auf die entsprechenden Regelnfür die Verknüpfung von Aussagen zurückgeführt.

Mehr

7. Ringe und Körper. 7. Ringe und Körper 49

7. Ringe und Körper. 7. Ringe und Körper 49 7. Ringe und Körper 49 7. Ringe und Körper In den bisherigen Kapiteln haben wir nur Gruppen, also insbesondere nur Mengen mit lediglich einer Verknüpfung, untersucht. In der Praxis gibt es aber natürlich

Mehr

11. Primfaktorzerlegungen

11. Primfaktorzerlegungen 78 Andreas Gathmann 11 Primfaktorzerlegungen Euch ist sicher aus der Schule bekannt, dass sich jede positive ganze Zahl a als Produkt a = p 1 p n von Primzahlen schreiben lässt, und dass diese Darstellung

Mehr

A Matrix-Algebra. A.1 Definition und elementare Operationen

A Matrix-Algebra. A.1 Definition und elementare Operationen A Matrix-Algebra In diesem Anhang geben wir eine kompakte Einführung in die Matrizenrechnung bzw Matrix-Algebra Eine leicht lesbare Einführung mit sehr vielen Beispielen bietet die Einführung in die Moderne

Mehr

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Übungen zum Ferienkurs Lineare Algebra WS 14/15 Übungen zum Ferienkurs Lineare Algebra WS 14/15 Linearkombinationen, Basen, Lineare Abbildungen 2.1 Lineare Unabhängigkeit Sind die folgenden Vektoren linear unabhängig? (a) 1, 2, 3 im Q Vektorraum R (b)

Mehr

8. Quadratische Reste. Reziprozitätsgesetz

8. Quadratische Reste. Reziprozitätsgesetz O Forster: Prizahlen 8 Quadratische Reste Rezirozitätsgesetz 81 Definition Sei eine natürliche Zahl 2 Eine ganze Zahl a heißt uadratischer Rest odulo (Abkürzung QR, falls die Kongruenz x 2 a od eine Lösung

Mehr

Betragsgleichungen und die Methode der Fallunterscheidungen

Betragsgleichungen und die Methode der Fallunterscheidungen mathe online Skripten http://www.mathe-online.at/skripten/ Betragsgleichungen und die Methode der Fallunterscheidungen Franz Embacher Fakultät für Mathematik der Universität Wien E-mail: franz.embacher@univie.ac.at

Mehr

Erinnerung/Zusammenfassung zu Abbildungsmatrizen

Erinnerung/Zusammenfassung zu Abbildungsmatrizen Erinnerung/Zusammenfassung zu Abbildungsmatrizen Thomas Coutandin (cthomas@student.ethz.ch) 7. November 2 Abbildungsmatrizen Im Folgenden betrachten wir stets endlich dimensionale K-Vektorräume (K irgend

Mehr

Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme

Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme Übung Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme Diese Übung beschäftigt sich mit Grundbegriffen der linearen Algebra. Im Speziellen werden lineare Abbildungen, sowie

Mehr

Lösungsvorschlag für die Probeklausuren und Klausuren zu Algebra für Informations- und Kommunikationstechniker bei Prof. Dr.

Lösungsvorschlag für die Probeklausuren und Klausuren zu Algebra für Informations- und Kommunikationstechniker bei Prof. Dr. Lösungsvorschlag für die Probeklausuren und Klausuren zu Algebra für Informations- und Kommunikationstechniker bei Prof. Dr. Kurzweil Florian Franzmann André Diehl Kompiliert am 10. April 2006 um 18:33

Mehr

Komplexe Zahlen. Kapitel 1. 1.1 Definitionen 18.4.01

Komplexe Zahlen. Kapitel 1. 1.1 Definitionen 18.4.01 Kapitel Komplexe Zahlen Motivation: die Gleichung x = hat offensichtlich keine reellen Lösungen, da x 0 für jedes reelle x gilt Um auch diese Gleichung lösen zu können, muß man neue Zahlen einführen: die

Mehr

LU-Zerlegung. Zusätze zum Gelben Rechenbuch. Peter Furlan. Verlag Martina Furlan. Inhaltsverzeichnis. 1 Definitionen.

LU-Zerlegung. Zusätze zum Gelben Rechenbuch. Peter Furlan. Verlag Martina Furlan. Inhaltsverzeichnis. 1 Definitionen. Zusätze zum Gelben Rechenbuch LU-Zerlegung Peter Furlan Verlag Martina Furlan Inhaltsverzeichnis Definitionen 2 (Allgemeine) LU-Zerlegung 2 3 Vereinfachte LU-Zerlegung 3 4 Lösung eines linearen Gleichungssystems

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

Leitfaden Lineare Algebra: Determinanten

Leitfaden Lineare Algebra: Determinanten Leitfaden Lineare Algebra: Determinanten Die symmetrische Gruppe S n. Eine Permutation σ der Menge S ist eine bijektive Abbildung σ : S S. Ist S eine endliche Menge, so reicht es zu verlangen, dass σ injektiv

Mehr

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte 50. Mathematik-Olympiade. Stufe (Regionalrunde) Klasse 3 Lösungen c 00 Aufgabenausschuss des Mathematik-Olympiaden e.v. www.mathematik-olympiaden.de. Alle Rechte vorbehalten. 503 Lösung 0 Punkte Es seien

Mehr

Einführung in die Algebra

Einführung in die Algebra Prof. Dr. H. Brenner Osnabrück SS 2009 Einführung in die Algebra Vorlesung 13 Einheiten Definition 13.1. Ein Element u in einem Ring R heißt Einheit, wenn es ein Element v R gibt mit uv = vu = 1. DasElementv

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Sei K ein Körper, a ij K für 1 i m, 1 j n. Weiters seien b 1,..., b m K. Dann heißt a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x 2 +... + a 2n x n = b 2... a m1

Mehr

7 Die Determinante einer Matrix

7 Die Determinante einer Matrix 7 Die Determinante einer Matrix ( ) a11 a Die Determinante einer 2 2 Matrix A = 12 ist erklärt als a 21 a 22 det A := a 11 a 22 a 12 a 21 Es ist S 2 = { id, τ}, τ = (1, 2) und sign (id) = 1, sign (τ) =

Mehr

Minimale Darstellungen, Kommutator- und Fixräume, projektive Geometrie

Minimale Darstellungen, Kommutator- und Fixräume, projektive Geometrie Notation Die in dieser Arbeit verwendete Notation ist im Wesentlichen Standard, so wie sie beispielsweise in [As] zu nden ist. Einige Abweichungen hiervon, Klarstellungen und zusätzliche Notationen (sofern

Mehr

Algebraische Kurven. Vorlesung 26. Die Schnittmultiplizität

Algebraische Kurven. Vorlesung 26. Die Schnittmultiplizität Prof. Dr. H. Brenner Osnabrück SS 2012 Algebraische Kurven Vorlesung 26 Die Schnittmultiplizität Es seien zwei ebene algebraische Kurven C,D A 2 K gegeben, die keine Komponente gemeinsam haben. Dann besteht

Mehr

Höhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik

Höhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik Höhere Mathematik 3 Apl. Prof. Dr. Norbert Knarr FB Mathematik Wintersemester 2015/16 4. Homogene lineare Dierentialgleichungen 4.1. Grundbegrie 4.1.1. Denition. Es sei J R ein Intervall und a 0 ; : :

Mehr

Primzahlen und RSA-Verschlüsselung

Primzahlen und RSA-Verschlüsselung Primzahlen und RSA-Verschlüsselung Michael Fütterer und Jonathan Zachhuber 1 Einiges zu Primzahlen Ein paar Definitionen: Wir bezeichnen mit Z die Menge der positiven und negativen ganzen Zahlen, also

Mehr

Vorlesung Analysis I / Lehramt

Vorlesung Analysis I / Lehramt Vorlesung Analysis I / Lehramt TU Dortmund, Wintersemester 2012/ 13 Winfried Kaballo Die Vorlesung Analysis I für Lehramtsstudiengänge im Wintersemester 2012/13 an der TU Dortmund basiert auf meinem Buch

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

1 Lineare Gleichungssysteme

1 Lineare Gleichungssysteme MLAN1 1 LINEARE GLEICHUNGSSYSTEME 1 Literatur: K Nipp/D Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4 Auflage, 1998, oder neuer 1 Lineare Gleichungssysteme Zu den grundlegenden

Mehr

2 Die Darstellung linearer Abbildungen durch Matrizen

2 Die Darstellung linearer Abbildungen durch Matrizen 2 Die Darstellung linearer Abbildungen durch Matrizen V und V seien Vektorräume über einem Körper K. Hom K (V, V ) bezeichnet die Menge der K linearen Abbildungen von V nach V. Wir machen Hom K (V, V )

Mehr

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Einführung in die Vektor- und Matrizenrechnung. Matrizen Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:

Mehr

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren

Mehr

Lösungen zu Kapitel 7

Lösungen zu Kapitel 7 Lösungen zu Kapitel 7 Lösung zu Aufgabe 1: Nach Definition 7.1 ist eine Verknüpfung auf der Menge H durch eine Abbildung : H H H definiert. Gilt H = {a 1,..., a m }, so wird eine Verknüpfung auch vollständig

Mehr

Lineare Algebra und analytische Geometrie II (Unterrichtsfach)

Lineare Algebra und analytische Geometrie II (Unterrichtsfach) MATHEMATISCHES INSTITUT DER UNIVERSITÄT MÜNCHEN Prof. Dr. D. Rost SS 0 Blatt.06.0 Übungen zur Vorlesung Lineare Algebra und analytische Geometrie II (Unterrichtsfach) Abgabe: Dienstag, 0. Juli 0, bis 4:00

Mehr

Lineare Gleichungssysteme I (Matrixgleichungen)

Lineare Gleichungssysteme I (Matrixgleichungen) Lineare Gleichungssysteme I (Matrigleichungen) Eine lineare Gleichung mit einer Variable hat bei Zahlen a, b, die Form a b. Falls hierbei der Kehrwert von a gebildet werden darf (a 0), kann eindeutig aufgelöst

Mehr

Zusatztutorium, 25.01.2013

Zusatztutorium, 25.01.2013 Zusatztutorium, 25.01.2013 David Müßig muessig[at]mi.fu-berlin.de http://page.mi.fu-berlin.de/def/tutorium/ WiSe 12/13 1 Der Homomorphiesatz Der Homomorphiesatz scheint für viele eine Art rotes Tuch zu

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren Lineargleichungssysteme: Additions-/ Subtraktionsverfahren W. Kippels 22. Februar 2014 Inhaltsverzeichnis 1 Einleitung 2 2 Lineargleichungssysteme zweiten Grades 2 3 Lineargleichungssysteme höheren als

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG KLAUSUR ZUR LINEAREN ALGEBRA I Wiederholungsprüfung MUSTERLÖSUNG. April 2008 Name: Studiengang: Aufgabe 2 3 4 5 6 Summe Punktzahl /50 Allgemeine Hinweise: Bitte schreiben Sie Ihre Lösungen jeweils unter

Mehr

Lineare Algebra - alles was man wissen muß

Lineare Algebra - alles was man wissen muß Statistik für Bioinformatiker SoSe 3 Rainer Spang Lineare Algebra - alles was man wissen muß Der Titel ist natürlich gelogen, aber was wir hier zusammengetragen haben ist zumindest ein Anfang. Weniger

Mehr

Vorwort. Günter M. Gramlich. Lineare Algebra. Eine Einführung ISBN: 978-3-446-43035-8. Weitere Informationen oder Bestellungen unter

Vorwort. Günter M. Gramlich. Lineare Algebra. Eine Einführung ISBN: 978-3-446-43035-8. Weitere Informationen oder Bestellungen unter Vorwort Günter M. Gramlich Lineare Algebra Eine Einführung ISBN: 978-3-446-43035-8 Weitere Informationen oder Bestellungen unter http://www.hanser.de/978-3-446-43035-8 sowie im Buchhandel. Carl Hanser

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

5.1 Drei wichtige Beweistechniken... 55 5.2 Erklärungen zu den Beweistechniken... 56

5.1 Drei wichtige Beweistechniken... 55 5.2 Erklärungen zu den Beweistechniken... 56 5 Beweistechniken Übersicht 5.1 Drei wichtige Beweistechniken................................. 55 5. Erklärungen zu den Beweistechniken............................ 56 Dieses Kapitel ist den drei wichtigsten

Mehr

2.11 Eigenwerte und Diagonalisierbarkeit

2.11 Eigenwerte und Diagonalisierbarkeit 2.11. EIGENWERTE UND DIAGONALISIERBARKEIT 127 Die Determinante eines Endomorphismus Wir geben uns jetzt einen endlichen erzeugten K-Vektorraum V und einen Endomorphismus ϕ : V V vor. Wir wollen die Determinante

Mehr

3. Zusammenhang. 22 Andreas Gathmann

3. Zusammenhang. 22 Andreas Gathmann 22 Andreas Gathmann 3. Zusammenhang Eine der anschaulichsten Eigenschaften eines topologischen Raumes ist wahrscheinlich, ob er zusammenhängend ist oder aus mehreren Teilen besteht. Wir wollen dieses Konzept

Mehr

Kapitel III. Lineare Abbildungen

Kapitel III. Lineare Abbildungen Kapitel III. Lineare Abbildungen Beispiele: 1 Lineare Abbildungen a) Seien c 1,..., c n K vorgegeben. Betrachte die Funktion F (x 1,..., x n ) = c 1 x 1 + c 2 x 2 +... + c n x n in den Variablen x 1,...,

Mehr

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren. Basis und Dimension Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren. Definition. Sei V ein K-Vektorraum und (v i ) i I eine Familie von Vektoren

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Eines der am häufigsten auftretenden Standardprobleme der angewandten Mathematik ist das Lösen linearer Gleichungssysteme, etwa zur Netzwerkberechnung in der Elektrotechnik oder

Mehr

Lineare Algebra - Übungen 7 WS 2017/18

Lineare Algebra - Übungen 7 WS 2017/18 Prof. Dr. A. Maas Institut für Physik N A W I G R A Z Lineare Algebra - Übungen 7 WS 017/18 Aufgabe P0: Paulimatrizen Präsenzaufgaben 14. Dezember 017 Berechnen Sie für die Paulimatrizen σ 1 = ( ) 0 1,

Mehr

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt Methoden und Techniken an Beispielen erklärt Georg Anegg 5. November 009 Beispiel. Die Folge {a n } sei wie folgt definiert (a, d, q R, q ): a 0 a, a n+ a n q + d (n 0) Man bestimme eine explizite Darstellung

Mehr

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Sommer 4 Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT. [ Punkte] Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in

Mehr

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen 1. Quadratische Gleichungen Quadratische Gleichungen lassen sich immer auf die sog. normierte Form x 2 + px + = 0 bringen, in

Mehr

Mathematischer Vorbereitungskurs für Ökonomen

Mathematischer Vorbereitungskurs für Ökonomen Mathematischer Vorbereitungskurs für Ökonomen Dr. Thomas Zehrt Wirtschaftswissenschaftliches Zentrum Universität Basel Gleichungen Inhalt: 1. Grundlegendes 2. Lineare Gleichungen 3. Gleichungen mit Brüchen

Mehr

Expander Graphen und Ihre Anwendungen

Expander Graphen und Ihre Anwendungen Expander Graphen und Ihre Anwendungen Alireza Sarveniazi Mathematisches Institut Universität Göttingen 21.04.2006 Alireza Sarveniazi (Universität Göttingen) Expander Graphen und Ihre Anwendungen 21.04.2006

Mehr

6 Lösungsverfahren für lineare Gleichungssysteme

6 Lösungsverfahren für lineare Gleichungssysteme 6 Lösungsverfahren für lineare Gleichungssysteme Jörn Loviscach Versionsstand:. März 04, :07 Die nummerierten Felder sind absichtlich leer, zum Ausfüllen beim Ansehen der Videos: http://www.jl7h.de/videos.html

Mehr

1 Mathematische Grundlagen

1 Mathematische Grundlagen Mathematische Grundlagen - 1-1 Mathematische Grundlagen Der Begriff der Menge ist einer der grundlegenden Begriffe in der Mathematik. Mengen dienen dazu, Dinge oder Objekte zu einer Einheit zusammenzufassen.

Mehr

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009 I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe

Mehr

Vorlesung. Funktionen/Abbildungen 1

Vorlesung. Funktionen/Abbildungen 1 Vorlesung Funktionen/Abbildungen 1 1 Grundlagen Hinweis: In dieser Vorlesung werden Funktionen und Abbildungen synonym verwendet. In der Schule wird eine Funktion häufig als eindeutige Zuordnung definiert.

Mehr

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema 2x 4 + x 3 + x + 3 div x 2 + x 1 = 2x 2 x + 3 (2x 4 + 2x 3 2x 2 ) x 3 + 2x 2 + x + 3 ( x

Mehr

11 Normalformen von Matrizen

11 Normalformen von Matrizen 11 Normalformen von Matrizen Wir wenden uns in diesem Kapitel noch einmal der Untersuchung linearer Abbildungen auf endlichdimensionalen Vektorräumen und deren Darstellung mittels Matrizen zu Speziell

Mehr

Seminararbeit für das SE Reine Mathematik- Graphentheorie

Seminararbeit für das SE Reine Mathematik- Graphentheorie Seminararbeit für das SE Reine Mathematik- Graphentheorie Der binäre Rang, der symplektische Graph, die Spektralzerlegung und rationale Funktionen Vortrag am 24.01.2012 Heike Farkas 0410052 Inhaltsverzeichnis

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können

Mehr

Kapitel 4. Euklidische Ringe und die Jordansche Normalform. 4.1 Euklidische Ringe

Kapitel 4. Euklidische Ringe und die Jordansche Normalform. 4.1 Euklidische Ringe Kapitel 4 Euklidische Ringe und die Jordansche Normalform 4.1 Euklidische Ringe Die Ringe der ganzen Zahlen, Z, sowie Polynomringe über Körpern, K[X], wobei K ein Körper ist, haben die folgenden Gemeinsamheiten:

Mehr

Übungsklausur Lineare Algebra

Übungsklausur Lineare Algebra Übungsklausur Lineare Algebra Sommersemester 2010 Johannes Gutenberg-Universität Mainz Diese Übungsklausur ist sehr lang (gut zum Üben). In der richtigen Klausur finden Sie eine Multiple Choice aufgabe

Mehr

Vorlesung. Komplexe Zahlen

Vorlesung. Komplexe Zahlen Vorlesung Komplexe Zahlen Motivation Am Anfang der Entwicklung der komplexen Zahlen stand ein algebraisches Problem: die Bestimmung der Lösung der Gleichung x 2 + 1 = 0. 1 Mit der Lösung dieses Problems

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel

Mehr

Bin Packing oder Wie bekomme ich die Klamotten in die Kisten?

Bin Packing oder Wie bekomme ich die Klamotten in die Kisten? Bin Packing oder Wie bekomme ich die Klamotten in die Kisten? Ich habe diesen Sommer mein Abi gemacht und möchte zum Herbst mit dem Studium beginnen Informatik natürlich! Da es in meinem kleinen Ort keine

Mehr

Mathematik für Physiker, Informatiker und Ingenieure

Mathematik für Physiker, Informatiker und Ingenieure Mathematik für Physiker, Informatiker und Ingenieure Folien zu Kapitel V SS 2010 G. Dirr INSTITUT FÜR MATHEMATIK UNIVERSITÄT WÜRZBURG dirr@mathematik.uni-wuerzburg.de http://www2.mathematik.uni-wuerzburg.de

Mehr

5 Lineare Algebra (Teil 3): Skalarprodukt

5 Lineare Algebra (Teil 3): Skalarprodukt 5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale

Mehr

13.5 Der zentrale Grenzwertsatz

13.5 Der zentrale Grenzwertsatz 13.5 Der zentrale Grenzwertsatz Satz 56 (Der Zentrale Grenzwertsatz Es seien X 1,...,X n (n N unabhängige, identisch verteilte zufällige Variablen mit µ := EX i ; σ 2 := VarX i. Wir definieren für alle

Mehr

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016, Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren

Mehr

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1) 34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)

Mehr

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 205/6): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

Induktive Limiten. Arpad Pinter, Tobias Wöhrer. 30. Jänner 2010

Induktive Limiten. Arpad Pinter, Tobias Wöhrer. 30. Jänner 2010 Induktive Limiten Arpad Pinter, Tobias Wöhrer 30. Jänner 2010 1 Inhaltsverzeichnis 1 Induktiver Limes von Mengen 2 2 Induktiver Limes von Vektorräumen 4 3 Lokalkonvexe topologische Vektorräumen 7 4 Induktiver

Mehr

TEILWEISE ASYNCHRONE ALGORITHMEN

TEILWEISE ASYNCHRONE ALGORITHMEN TEILWEISE ASYNCHRONE ALGORITHMEN FRANK LANGBEIN Literatur: D. Berseas, J. Tsitsilis: Parallel and distributed computatoin, pp. 48 489 URI: http://www.langbein.org/research/parallel/ Modell teilweiser asynchroner

Mehr

Numerische Behandlung des Eigenwertproblems

Numerische Behandlung des Eigenwertproblems Numerische Behandlung des Eigenwertproblems Zusammenfassung Das Ziel dieses Vortrages ist, zwei gute Methoden für die numerische Bestimmung der Eigenwerte zu zeigen und wie man diese mit Matlab anwenden

Mehr