Untersuchung dünnbesetzter QR-Verfahren bei der Berechnung dünnbesetzter approximativer Inverser

Größe: px
Ab Seite anzeigen:

Download "Untersuchung dünnbesetzter QR-Verfahren bei der Berechnung dünnbesetzter approximativer Inverser"

Transkript

1 Technische Universität München Institut für Informatik Untersuchung dünnbesetzter QR-Verfahren bei der Berechnung dünnbesetzter approximativer Inverser Diplomarbeit im Fach Informatik Andreas Roy Aufgabensteller : Univ.-Prof. Dr. Thomas Huckle Betreuer : Dipl.-Tech. Math. Alexander Kallischko Abgabedatum :

2 ii Erklärung zur Diplomarbeit Ich versichere, dass ich diese Diplomarbeit selbständig verfasst und nur die angegebenen Quellen und Hilfsmittel verwendet habe. Garching, den

3 iii Wenn der Weise stets dumm erscheint, können seine Fehler nicht enttäuschen und sein Erfolg ist eine angenehme Überraschung Levi bar Alphäus, Die Bibel nach Biff

4 iv

5 v Inhaltsverzeichnis Vorwort 1 1 Grundlagen Lineare Gleichungsysteme Kondition und Vorkonditionierung Jacobi- und Gauss-Seidel-Vorkonditionierer SPAI -Vorkonditionierer Lineare Ausgleichsrechnung Lösung mittels Normalengleichung Lösung mittels Orthogonalisierungsverfahren Householder-Reflektion Givens-Rotation Gram-Schmidt-Verfahren Modifikationen bei der Berechnung des SPAI Dünnbesetzte Verfahren Dünnbesetzte Speicherstrukturen Dünnbesetzte Methoden Minimum-Degree mit Eliminationsgraphen Minimum-Degree mit Quotientengraphen Concise Sparse Package QR-Updates Einfügen neuer Spalten Einfügen neuer Zeilen QR-Updates im SPAI Implementierung QR-Zerlegung in einfacher Präzision mit iterativer Nachverfeinerung Numerische Ergebnisse LAPACK versus CSparse Bandmatrizen Permutierte Bandmatrizen

6 vi Inhaltsverzeichnis  - Testreihen Vorpermutation durch AMD oder reverse Cuthill-McKee QR-Updates Extremfälle des Patternupdates Patternupdates mit Orsirr 2 und Sherman Patternupdates mit Pores 2 als Ausgangspattern Float versus Double Zusammenfassung und Ausblick 79 Literaturverzeichnis 81

7 1 Vorwort [...]Das indirecte Verfahren läßt sich halb im Schlaf ausführen, oder man kann während dessen an andere Dinge denken.[...] Brief von Gauss an Gerling, 1823 Das Lösen linearer Gleichungssysteme gehört zu den wichtigsten Methoden in der Mathematik. Das einfachste Verfahren zum Lösen solcher Systeme wurde 263 nach Christus von Liu Hui 263 in seinem Werk Mathematik in neun Büchern niedergeschrieben. Einen Popularitätsschub hat das Verfahren durch die Beschreibung von Carl Friedrich Gauss ( ) erhalten. Der nach Gauss benannte Algorithmus besteht aus 2 Schritten: Vorwärtselimination, Rücksubstitution. Die Vorwärtselimination bringt die Matrix mit Hilfe von Zeilenvertauschungen und Additionen geeigneter Vielfacher von Zeilen in obere Dreiecksform. Die Rückwärtssubstitution bestimmt sukzessive alle Lösungskomponenten, sodass nach diesem Schritt die exakte Lösung des Gleichungssystems vorliegt. Der Nachteil des Algorithmus ist neben der hohen Laufzeit von O(n 3 ), wobei n der Matrixdimension entspricht, der Verlust der Dünnbesetztheit bei grossen dünnbesetzten Matrizen im Verlauf der Vorwärtselimination und die Exaktheit der Lösung. Häufig ist man mit einem Ergebnis zufrieden, das auf einer gewissen Anzahl von Nachkommastellen genau ist. Um die Nachteile zu umgehen, bieten sich iterative Verfahren an. Bei diesen Verfahren wird ausgehend von einer Startlösung mittels Fixpunktiteration neue bessere Lösungen gesucht, bis das Residuum der gefundenen Lösung unter eine gewünschte ɛ- Schranke fällt. Die Konvergenz der iterativen Verfahren ist von der Kondition des Gleichungssystems abhängig. Um eine schnelle Konvergenz bzw. überhaupt Konvergenz zu erhalten, muss bei den Gleichungsystemen die Kondition verbessert werden. Dies wird durch den Einsatz von Vorkonditionierern erreicht.

8 2 0 Vorwort Die Auswahl der Vorkonditionierer bzw. der Vorkonditionierverfahren ist mannigfaltig. In dieser Arbeit wird dem Sparse Approximate Inverse Vorkonditionierer, kurz SPAI, mit Hilfe verschiedener Techniken zu mehr Performanz verholfen. Der Performanzgewinn soll mittels Ersetzung der herkömmlichen QR- Zerlegung durch dünnbesetzte QR-Zerlegung und QR-Updates erreicht werden. Eine weitere Performanzsteigerung wird von der float-basierten Rechnung erwartet, bei der alle Rechnungen im float-datentyp durchgeführt werden. Anschliessend wird mit Hilfe von Nachverfeinerungsschritten die Genauigkeit des Ergebnisses erhöht, sodass diese das ungefähre Niveau des double-datentyps erreicht.

9 3 1 Grundlagen Die Themen, die dieses Kapitel behandelt, liefern den mathematischen Hintergrund der vorliegenden Arbeit. Der Startpunkt durch das Grundlagenkapitel sind lineare Gleichungssysteme und wie man sie löst. Anschliessend wird auf die Kondition von Gleichungssystemen eingegangen und wie man diese durch Vorkonditionierung verbessert. Konkret wird dabei die SPAI -Vorkonditionierung betrachtet. Die Vorkonditionierung bestimmt durch die Verwendung der QR- Zerlegung das letzte Thema dieses Kapitels, die lineare Ausgleichsrechnung mit ihren Lösungsmöglichkeiten. 1.1 Lineare Gleichungsysteme Der Hintergrund regiert den Vordergrund Gottfried Niebaum, In vielen Bereichen der Forschung und Praxis treten lineare Gleichungssyteme der Form a 11 x 1 + a 12 x a 1n x n = b 1 a 21 x 1 + a 22 x a 2n x n = b 2... a n1 x 1 + a n2 x a nn x n = b n kurz Ax = b auf, mit A R n n, x R n und b R n. Diese Aufgabenstellung schnell und effizient zu lösen ist eine Hauptaufgabe in der Mathematik und Informatik. Das berühmteste Verfahren zum Lösen linearer Gleichungssysteme ist der Gauss-Algorithmus. Hier wird das System mittels Additionen von geeigneten Vielfachen einer Zeile auf eine andere Zeile in ein äquivalentes einfacheres System transformiert. Ziel der Umformung ist die Erzeugung eines

10 4 1 Grundlagen Gleichungssystems in Zeilenstufenform. Nach der Umformung kann das System mit Hilfe von x n = b n und x i = b i n j=i+1 a ijx j mit i = n 1,...,1 (1.1) a nn a ii gelöst werden. Das Verfahren benötigt zum Lösen des Gleichungssystems #Flops = 2n3 3. Die Anzahl der Flops kann verringert werden, wenn die Matrix A symmetrisch positiv definit, kurz spd, ist. In diesem Fall kann das Cholesky-Verfahren nach André-Louis Cholesky ( ) angewandt werden. Bei diesem Verfahren verwendet man eine eindeutige Zerlegung A = LDL T, wobei L eine untere Dreiecksmatrix ist, deren Werte auf der Diagonalen den Wert Eins annehmen. D ist eine Diagonalmatrix mit positiven Einträgen. Diese Zerlegung existiert für alle spd Matrizen. Aufgrund der positiven Einträge kann die Matrix D zerlegt werden in D = D 1 2 D 1 2 mit D 1 2 = dii für i = 1...n. (1.2) Mit Hilfe von (1.2) kann man die Cholesky-Zerlegung bestimmen. A = GG T mit G = LD 1 2. (1.3) Die Zerlegung kann man gewinnbringend zur Lösung des Gleichungssystems Ax = b verwenden. Bei vorhandener Cholesky-Zerlegung löst man y = G T x b = Gy, da b = Gy = G(G T x) = Ax gilt. Die Anzahl der benötigten Flops für das Cholesky-Verfahren beträgt #Flops = n3 3 und damit nur halb soviele wie beim Gauss-Verfahren. Die beiden vorangegangenen Verfahren werden auch als direkte Löser bezeichnet. Der Nachteil dieser Verfahren ist, dass sie für grosse dünnbesetzte Matrizen, wie sie beim

11 1.1 Lineare Gleichungsysteme 5 Lösen von partiellen Differentialgleichungen nach einer entsprechenden Diskretisierung häufig vorkommen, recht unpraktikabel sind, da sie die dünnbesetzte Struktur der Matrix A bei der Berechnung nicht ausnutzen sondern zerstören. Eine andere Klasse von Gleichungssystemlösern sind die iterativen Verfahren. Diese Methoden berechnen über x k+1 = φ(x k ) = Sx k +c, wobei S ein Splitting der Matrix A ist, einen Fixpunkt. Dieser Fixpunkt ist gleichzeitig Lösung des Gleichungsystems Ax = b. Damit das Verfahren konvergiert muss der Spektralradius von S kleiner als 1 sein [DH93, Seite 257]. Ausgehend von einer Startlösung x (0) wird eine Folge von Lösungen berechnet, wobei x (0) x (1)... lim i x (i) = x ist. Bei iterativen Verfahren wird die Lösung so lange berechnet bis die Norm des Residuum r (i), mit r (i) = b Ax i, eine ɛ-schranke unterschreitet. Die iterativen Verfahren unterteilen sich in Relaxations- und Krylovraumverfahren. Die Relaxationsverfahren gehen dabei von einer Startlösung x (0) aus und bestimmen mit Hilfe der Iterationsfunktion φ(x) eine Folge von neuen genaueren Lösungen. Das einfachste Verfahren sei hier kurz dargestellt, das Richardson- Verfahren. Es verwendet als Iterationsfunktion Das führt auf die Iterationsvorschrift φ(x) = b + (I A)x. (1.4) x (k+1) = x (k) + (b Ax (k) ) = φ(x (k) ). Betrachtet man (b Ax (k) ) als Residuum r, dann wird bei diesem Verfahren das Residuum als Korrektur zur Verbesserung der Näherung x (k) verwendet. Die Iterationsfunktion (1.4) lässt sich mit b = Ax = (A + I I)x = Ax + Ix Ix = (A I)x + x begründen. Das Verfahren konvergiert gegen die gesuchte Lösung, wenn A I 2 < 1. (1.5) Der Beweis befindet sich in [HS06, Seite 250]. Durch (1.5) ist das Verfahren nur sinnvoll für eine Ausgangsmatrix A, die nahe an der Einheitsmatrix I liegt. Dieses Verfahren ist der Ausgangspunkt für erfolgversprechendere Verfahren bei denen die Matrix A nicht nahe an der Einheitsmatrix I liegen muss, um

12 6 1 Grundlagen zu konvergieren. Ein anderer Ansatz, um das Gleichungssystem Ax b zu lösen, ist die Minimierung der Funktion f(x) = 1 2 xt Ax b T x f (x) = Ax b. (1.6) Voraussetzung dafür ist, dass A spd ist. Die Funktion aus (1.6) kann als Paraboloid interpretiert werden. z 3.0 z x y x y x z y Abbildung 1.1: Darstellung eines Paraboloiden sowie der Höhenlinien des Paraboloiden Die Lösung von (1.6) ist gekennzeichnet dadurch, dass die Ableitung an dieser Stelle Null ist. Ausgehend von einem Punkt auf dem Paraboloid sucht man das Minimum des Paraboloiden. Das lässt sich als iteratives Verfahren der Form x (k+1) = x (k) + a (k) d (k) (1.7) beschreiben, mit d (k) als k-te Suchrichtung und a (k) als Länge der Suchrichtung d (k). Die einzelnen Strategien zum Lösen des Problems, wie z.b. die Methode des steilsten Abstieges, die Methode der konjugierten Richtungen und die Methode der konjugierten Gradienten, unterscheiden sich durch die Bestimmung der Suchrichtung. Das Verfahren des steilsten Abstieges verwendet den negativen Gradienten f(x) als Suchrichtung. Siehe [HS06, Seiten ]. Die Methode der konjugierten Gradienten (CG-Verfahren) benutzt statt der negativen Gradienten Suchrichtungen, die A-orthogonal zueinander sind. Zwei Vektoren p, q R n sind A-orthogonal, wenn p, Aq = 0 gilt [HS06, Seite

13 1.2 Kondition und Vorkonditionierung 7 257]. Die A-orthogonalen Suchrichtungen spannen den Raum U k auf, der pro Iteration um einen Basisvektor vergrössert wird [DH93, Seite 271]. U k = span{r (0), Ar(0),...,A k 1 r (0) } für k = 1,, n. (1.8) Der Raum U k wird auch als Krylovraum bezeichnet. In der Iteration k wird im Raum x 0 +U k die beste Approximation gesucht. Nach spätestens n Iterationen entspricht die Approximation x n der gesuchten Lösung, da dann im gesamten Raum die Lösung gesucht wird. Die Gradientenverfahren konvergieren schnell gegen die Lösung, wenn der Paraboloid wenig verzerrt ist. Der Idealfall wird in der Abbildung 1.1 gezeigt. Hierbei bilden die Höhenlinien des Paraboloiden konzentrische Kreise um den Nullpunkt. Unter diesem Umstand kann die Lösung in einer Iteration berechnet werden. Der Grad der Verzerrung des Paraboloiden wird durch die Kondition der Ausgangsmatrix A bestimmt. Wie man die Kondition der Matrix verbessern kann, wird im folgenden Abschnitt beschrieben. 1.2 Kondition und Vorkonditionierung just dropped in to see what condition my condition was in... Mickey Newbury, Um auftretende Fehler einer Problemstellung analysieren zu können, bedarf es eines Maßstabes, der festlegt wie stark sich Störungen der Eingabedaten auf die Lösung des Problems auswirken. Um den Zusammenhang zu beschreiben, wurde der Begriff der Kondition eines Problems und damit einhergehend die Konditionszahl eingeführt. Die Konditionszahl κ(a) einer Matrix A lautet κ(a) := max Ax x =1 (1.9) min Ax. x =1 und bestimmt den Grad der Verzerrung der Normkugel nach Anwendung der Matrix A. Für Matrizen mit einer existierenden Inversen A 1 kann (1.9) umgeformt werden zu der kurzen prägnanten Darstellung κ(a) = A A 1. Siehe [DH93, Seite 35]. Um die Kondition der Matrix A zu verbessern, bieten sich Vorkonditionierer an. Unter Vorkonditionierung eines Gleichungssystems versteht man in der numerischen Mathematik die Umformung eines Systems

14 8 1 Grundlagen Ax = b in ein äquivalentes System, das eine bessere Kondition aufweist. Dabei kann zwischen einer Linksvorkonditionierung (1.10), einer Rechtsvorkonditionierung (1.11) und einer beidseitigen Vorkonditionierung (1.12) unterschieden werden: M 1 Ax = M 1 b (1.10) AM 1 y = b, x = M 1 y (1.11) M1 1 1 AM 2 y = M 1 1 b, x = M 1 2 y (1.12) Für die Vorkonditioniermatrix M verwendet man nicht-singuläre Matrizen, die A bzw. A 1 approximieren. Die Transformation verbessert dann für die eingesetzten iterativen Methoden die Kondition des Problems, wodurch eine bessere Konvergenzgeschwindigkeit bzw. überhaupt erst Konvergenz erreicht wird. Ziel ist es, ein M zu finden, so dass κ(m 1 A) κ(a). Trotz des ersichtlichen Vorteils des schnelleren Lösens muss darauf geachtet werden, dass dieser Vorteil nicht durch den zusätzlichen Aufwand aufgehoben wird. Auf die Lösung hat die Vorkonditionierung keine Auswirkungen. Überlicherweise wird das Produkt der Matrix A mit der Matrix M 1 nie explizit gebildet, stattdessen beschränkt man sich auf die einzelnen Vektorprodukte. Am Beispiel des CG-Verfahrens lässt sich die Auswirkung der Kondition auf die Konvergenz gut veranschaulichen. Für das CG-Verfahren gilt ( ) k κ 1 x x k A 2 x x 0 A, k = 1, 2,..., n, (1.13) κ + 1 wobei κ = cond(a) = λmax(a), die Energienorm x λ min (A) A= x T Ax und x der exakten Lösung entspricht. Für die Herleitung von (1.13) siehe [DH93, Seiten ]. Je kleiner der Faktor κ 1 κ+1 ist, desto schneller wird der Fehler x x k A verringert, d.h. man erhält eine bessere Konvergenzgeschwindigkeit, wenn κ(m 1 A) möglichst nahe an Eins liegt Jacobi- und Gauss-Seidel-Vorkonditionierer Ein einfach zu implementierender Vorkonditionierer ist der Jacobi-Vorkonditionierer. Diese Methode verwendet als Vorkonditioniermatrix M = D, wobei D

15 1.2 Kondition und Vorkonditionierung 9 der Diagonalen der Matrix A entspricht. Im Falle der Linksvorkonditionierung verwendet man folgendes Gleichungssystem: (D 1 A)x = (D 1 b). (1.14) Wendet man die Jacobi-Vorkonditionierung auf das Richardson-Verfahren (1.4) an, erhält man φ(x) = D 1 b + (I D 1 A)x. (1.15) Als hinreichende Bedingung für die Konvergenz von (1.15) gilt, dass A strikt diagonal dominant ist, d.h a ii > n a ij mit i = 1,...,n i j [Saa00, Seite 111]. Eine weitere einfache Möglichkeit ist der Gauss-Seidel- Vorkonditionierer. Dieser verwendet als Vorkonditioniermatrix M = (L + D), (1.16) wobei D der Diagonalen von A und L der unteren Dreiecksmatrix von A entspricht. Analog zum Jacobi-Vorkonditionierer lautet das Gleichungssystem und auf das Richardson-Verfahren angewandt ((D + L) 1 A)x = ((D + L) 1 b) (1.17) φ(x) = (D + L) 1 b + (I (D + L) 1 A)x. (1.18) Mit Hilfe der Gauss-Seidel-Vorkonditionierung konvergiert das Verfahren für jede Matrix A, die spd ist. Der Beweis lässt sich in [DH93, Seiten ] finden SPAI-Vorkonditionierer 1997 wurde von Grote und Huckle in [GH97] ein Vorkonditionierer vorgestellt, der eine dünnbesetzte approximierte Inverse erzeugt und diese Inverse als Vorkonditioniermatrix verwendet. Im Folgenden wird dieser Vorkonditionierer als SPAI bezeichnet. Neben der Verbesserung der Kondition einer Matrix ist ein weiteres Hauptmerkmal des Verfahrens die leichte Parallelisierbarkeit. Für die Berechnung der approximierten Inversen M A 1 wird neben der Ausgangsmatrix A R n n ein Muster (Pattern) P benötigt, das der Besetztheit von M entspricht. Das Pattern P enthält die Positionen an denen M Einträge haben

16 10 1 Grundlagen darf. Die SPAI -Methode erzeugt eine Matrix M für die AM I gilt. Um eine gute Approximation der Inversen zu berechnen, minimiert das Verfahren AM I F. Die Norm m A F = i=1 n a ij (1.19) einer Matrix A wird als Frobenius-Norm bezeichnet. Der Vorteil bei der Verwendung der Frobenius-Norm liegt in der einfachen Parallisierbarkeit der Berechnung: n AM I 2 F = (AM I)e k 2 2, (1.20) k=1 wobei e k dem k-ten Einheitsvektor entspricht. Die Umformung (1.20) führt das Ausgangsproblem auf n Minimierungsprobleme der Form j=1 min m k Am k e k 2 mit k = 1...n (1.21) zurück. Aufgrund der Unabhängigkeit der Summanden beim Berechnen der Norm, können die Minimierungsaufgaben parallel gelöst werden. Ausgehend vom Muster P werden die Besetztheitsstrukturen der einzelnen m k bestimmt. Das vorgegebene Muster kann mit Hilfe des Patternupdates um zusätzliche Einträge erweitert werden bis die Norm Am k e k 2 kleiner als eine gewählte ɛ-schranke ist oder die maximale Besetztheit erreicht wurde. Durch die Vorgaben des Pattern P ergibt sich die Möglichkeit das Minimierungsproblem (1.21) zu reduzieren und die Werte des Vektors m k effizient zu bestimmen. min m k Am k e k 2 min ˆm k Âk ˆm k ê k 2. (1.22) Um Âk, ˆm k und ê k zu erzeugen, sind zwei Indexmengen I k und J k nötig. In der Menge J k sind alle Indizes j aufgeführt, für die gilt m k (j) 0. Die Reduzierung von m k auf die Indizes j liefert ˆm k. Die Einträge i der Menge I k entsprechen den Zeilenindizes der Matrix A, die A(i, J k ) 0 erfüllen. Die Eliminierung aller Nullzeilen der Matrix A(., J k ) liefert Âk. Durch die Beschränkung des Einheitsvektors auf die Menge I k entsteht ê k A(I k, J k ) = Âk e k (I k ) = ê k.

17 1.2 Kondition und Vorkonditionierung 11 Das folgende Beispiel soll den Vorgang verdeutlichen: A = , P = Die Besetztheitstruktur des Vektors m 1 entspricht dem ersten Vektor von P. Die Indexmenge J 1 entspricht J 1 = {1, 4, 5} Die Matrix A, eingeschränkt auf die Spalten der Menge J 1, wird durch die Einträge mit Balken dargestellt A(., J 1 ) = Die Menge I 1 der Zeilenindizes umfasst I 1 = {1, 2, 3, 4, 5}. Mit Hilfe der beiden Mengen kann die Matrix Â1 bestimmt werden  1 = A(I 1, J 1 ) Die restlichen Âk, m k und e k werden analog gebildet. Das Lösen der einzelnen Minimierungsprobleme (1.22) erfolgt mit Hilfe der QR- Zerlegung. Das Verfahren der QR -Zerlegung wird im Kapitel behandelt: min m k  ˆm k ê k 2 = min m k QR ˆm k ê k 2 = min m k R ˆm k Q T ê k 2. (1.23) Die Lösung für (1.23) ist ˆm k = R 1 Q T ê k. Die Gesamtheit aller Lösungen m k, k = 1,...,n liefert eine approximierte Inverse M von A.

18 12 1 Grundlagen Um die Approximation der Inversen zu verbessern, kann das Pattern erweitert werden. Die Vergrösserung des Pattern und die daraus resultierende Verbesserung der Approximation der Inversen kann man als Verringerung von AM I F auffassen. Um die Norm AM I F zu verringern, müssen die einzelnen Minimierungsprobleme (1.21) gelöst werden. Ausgangspunkt der weiteren Verringerung der Norm ist das Residuum r k r k =  ˆm k ê k. (1.24) Zur besseren Übersicht wird das weitere Verfahren exemplarisch für einen Spaltenvektor m k beschrieben. Auf allen anderen Spalten lässt sich das Verfahren analog anwenden. Für die Verbesserung werden zwei neue Indexmengen L und N benötigt. Die Menge L umfasst alle Indizes l für die gilt r k (l) 0. Für alle l L werden alle Indizes g bestimmt für die gilt A(l, g) 0 und g / J. Alle gefundenen g werden zur jeweiligen Menge N l zusammengefasst. Die Menge aller Indizes J, die zu einer Verbesserung beitragen können, lässt sich formulieren als J = l L N l. (1.25) Im Falle des obigen Beispiels für k = 1 und einem Residuum, bei dem alle Elemente ungleich Null sind, würde die Menge J sich aus der Vereinigung der Indizes der Einträge mit Balken zusammensetzen P = , J = {2, 3}. 0 Aus dieser Menge wird der Index gesucht, der r k 2 am stärksten verringert. Man erhält das Minimierungsproblem min µ j  ˆm k ê k + µ j A(I,.)e j 2 2 = min µ j  ˆm k ê k + µ j â j 2 2 = min r k + µ j â j 2 2, j J. µ j (1.26) Das Minimierungsproblem (1.26) kann, unter Verwendung der Eigenschaften des Skalarproduktes, wie folgt gelöst werden: r k + µ j â j 2 2 = r k µ j r k, â j + µ 2 j â j 2 2 d r k + µ j â j 2 2 dµ = 2 r k, â j + 2µ j â j 2! 2= 0, j

19 1.3 Lineare Ausgleichsrechnung 13 mit der Lösung µ j = rt k âj â j. Mit den berechneten µ 2 j können die neuen Residuen berechnet werden. Die w Indizes aus j J, die die kleinsten Residuen 2 erzeugen, werden der Menge J hinzugefügt. Mit der vergrösserten Indexmenge J werden die Lösungen von (1.21) erneut berechnet. Wenn das Ergebnis von (1.21) die vorgebene ɛ-schranke nicht erreicht und die maximale Besetztheit noch nicht erreicht wurde, kann das Patternupdate solange durchgeführt werden, bis eine der beiden Bedingungen erfüllt wird. Die Residuen r k + µâ j 2 2 verbessern sich aufgrund der Tatsache, dass r k + µâ j 2 2 = r k 2 2 r 2 rk T k, âj â â j 2 j + rk T âj 2 â 2 â j 2 j 2 2 = r k rt k âj r â j 2 k T â j + (rt k âj) 2 â 2 â j 4 j = r k 2 2 (rt k âj) 2 â j 2 2 gilt. Weitere Informationen unter [GH97, Seiten ]. 1.3 Lineare Ausgleichsrechnung I wish to God these calculations had been executed by steam Charles Babbage, 1821 Wie im vorherigen Abschnitt gezeigt, verwendet der SPAI die lineare Ausgleichsrechnung in Form der QR-Zerlegung, um die einzelnen Spaltenvektoren m k zu berechnen. Der folgende Abschnitt befasst sich mit der linearen Ausgleichsrechnung im Allgemeinen. Anschliessend werden verschiedene Möglichkeiten zum Lösen linearer Ausgleichsprobleme betrachtet. In vielen Bereichen werden durch Messungen und Beobachtungen Sachverhalte beschrieben. Diese Sachverhalte sollen mit Hilfe einer Gesetzmässigkeit ausgedrückt werden, d.h. man sucht ein mathematisches Modell, das die Daten am besten approximiert. Von den Messungen ausgehend erhält man m Messwerte, welche in einem Vektor zusammengefasst werden. Die gesuchten Modellparameter werden in einen zweitem Vektor der Länge n untergebracht. Der Zusammenhang zwischen Modellparameter und den Messwerten wird durch eine Matrix beschrieben. Man erhält das lineare Gleichungssystem Ax = b, wobei A R m n, x R n und b R m ist, sowie m > n. Das überbestimmte Gleichungssystem hat im Normalfall keine eindeutige Lösung, man möchte

20 14 1 Grundlagen aber das Gleichungssystem mit einem möglichst kleinen Fehler lösen. Daher versucht man das Residuum r = Ax b zu minimieren. Das führt zu dem Minimierungsproblem min Ax b x R n 2. (1.27) Statt der 2-Norm kann auch eine andere Norm, wie die 1-Norm oder die -Norm, verwendet werden. Die Verwendung der genannten Normen führt auf andere Problemstellungen, wie das Standardproblem der linearen Optimierung (Verwendung der 1-Norm) oder das Problem der Tschebyscheffschen Ausgleichsrechnung (Verwendung der -Norm). Siehe [DH93, Seite 70]. Das Problem (1.27) lässt sich auf mehreren Wegen lösen. Eine Möglichkeit ist das Lösen mit Hilfe der Normalengleichung, eine andere Möglichkeit löst das Problem mittels Orthogonalisierungsverfahren Lösung mittels Normalengleichung Das Verfahren zum Lösen des linearen Ausgleichsproblems mit Hilfe der Normalengleichung verwendet als Ausgangspunkt die Äquivalenz der beiden Minimierungsprobleme min Ax b x R n 2 und min Ax b x R 2 n 2, d.h. der Lösungsvektor x ist bei beiden Problemen identisch, wobei A R m n, der Rang(A) = n und b R m. Ausgehend von der quadrierten Form kann man folgenden Zusammenhang herstellen min Ax b x R 2 n 2 = Ax b, Ax b = (Ax b) T (Ax b) = x T A T Ax 2x T A T b + b T b. (1.28) Das Ergebnis der Umformung (1.28) ist eine quadratische Gleichung und stellt einen nach oben geöffneten Paraboloiden dar. Durch Ableiten der Gleichung nach x und Nullsetzen kann die Lösung des ursprünglichen Minimierungsproblems bestimmt werden. Das führt auf 2A T Ax 2A T b = 0 bzw. A T Ax = A T b, (1.29) wobei A T Ax = A T b als Normalengleichung bezeichnet wird. Das entstandene Gleichungssystem ist symmetrisch und kann mit der in Kapitel 1.1 beschriebenen Cholesky-Zerlegung gelöst werden. Das Verfahren liefert den Lösungsvektor

21 1.3 Lineare Ausgleichsrechnung 15 x für (1.27) [Sch93, Seiten ]. Dieser Algorithmus benötigt zum Lösen des Systems #Flops = (m + n/3)n 2. (1.30) Der Nachteil dieser Methode ist im Allgemeinen die Verschlechterung der Kondition des Problems. Es kann gezeigt werden, dass die Kondition κ(a T A) = κ(a) 2 ist [DH93, Seite 73]. Im folgenden Abschnitt werden Verfahren behandelt, die (1.27) lösen aber keine Verschlechterung der Kondition des Problems wie die Normalengleichung zur Folge haben Lösung mittels Orthogonalisierungsverfahren Diese Methode nutzt die Zerlegung A = QR aus, wobei A R m n, Q R m m eine orthogonale Matrix, d.h. Q T Q = I, und R R m n eine obere Dreiecksmatrix ist, so dass gilt Q T A = = ( ) R. (1.31) 0 Der Vorteil dieser Zerlegung liegt in der Invarianz von Q bezüglich der 2-Norm, d.h die Kondition bleibt damit unverändert. Qy 2 = y 2, mit Q 2 = 1 (1.32) Um (1.32) zu zeigen, betrachtet man die quadrierte Form von Qy 2 : Für die Kondition gilt Qy 2 2= Qy, Qy = Q T Qy, y = y, y = y 2 2. κ(qa) = κ(a). (1.33) Weitere Informationen zu (1.33) siehe [DH93, Seite 77]. Die Normalengleichung (1.29) hingegen verschlechtert die Kondition. Der Nachteil der Orthogonalisierungsverfahren ist jedoch der höhere Aufwand, der bei der QR-Zerlegung geleistet werden muss. Darauf wird in den verschiedenen Methoden zur QR-Zerlegung genauer eingegangen. Auf das lineare Ausgleichsproblem angewandt, ergibt sich folgender Zusammenhang: min x R n Ax b 2= min x R n QRx b 2= min x R n Rx QT b 2, (1.34)

22 16 1 Grundlagen wobei Q T b = ( b1 b 2 ), b 1 R n und b 2 R m n. Die Lösung des Minimierungsproblems (1.34) ist x = R 1 b 1. Dies zeigt sich in Ax b 2 = Q T (Ax b) 2 ( ) ( = Rx b1 2 0 b 2) = Rx b b 2 2. (1.35) Der erste Summand in (1.35) verschwindet genau dann, wenn x = R 1 b 1 ist. Der minimale Abstand bzw. Wert des Residuums r = Ax b ist festgelegt durch b 2 2. Im Folgenden werden drei Methoden der QR-Zerlegung beschrieben. Die wichtigsten Verfahren sind die Householder-Reflektion, die Givens-Rotation und das Gram-Schmidt-Verfahren. Bei der Householder-Reflektion und der Givens- Rotation wird die Matrix Q nicht explizit aufgebaut. Die Gram-Schmidt- Methode hingegen konstruiert die Matrix Q verfahrensbedingt Householder-Reflektion Die Householder-Reflektion wurde von Alston Scott Householder im Jahr 1958 vorgestellt. Es handelt sich dabei um eine Spiegelung des Vektors a an einer Ebene l, die durch den Ursprung verläuft, sodass der Vektor auf ein Vielfaches eines Einheitsvektors gespiegelt wird: 2 v 1 a e 1 αe l 2 vt a v T v Abbildung 1.2: Spiegelung eines Vektor a an einer Ebene auf ein Vielfaches des Einheitsvektors Bei der Householder-Reflektion wird eine Matrix der Form ) H = (I 2 vvt v T v (1.36)

23 1.3 Lineare Ausgleichsrechnung 17 verwendet. Den Vektor v = a + αe 1 (1.37) bezeichnet man als Householder-Vektor. Das Ziel der Reflektion ist das Erzeugen eines Vielfachen vom ersten Einheitsvektor durch Elimination von Einträgen des Ausgangsvektors a. Es soll gelten Ha = αe 1 ) Ha = (I 2 vvt a = a 2 vt a v T v v T v v (a + αe 1 ) T a = a 2 = (a + αe 1 ) T (a + αe 1 ) (a + αe 1) ) x ( 1 2aT a + 2αa 1 a T a + 2αa 1 + α 2 2α(a + αe 1 )a (a + αe 1 ) T (a + αe 1 ) e 1. (1.38) Der Minuend aus Gleichung (1.38) wird Null, wenn α = a 2 entspricht. Der Vektor a wird somit auf ein Vielfaches des ersten Einheitsvektors abgebildet. Für den Householder-Vektor v ergibt sich daraus v = a a 2 e 1. Um eventuell auftretende Auslöschung zu verhindern, wenn a nahe an e 1 liegt, bestimmt man v = (a a 2 n) a 1 + a 2. (1.39) In der QR-Zerlegung wird für jeden Spaltenvektor von A, der Reihe nach die Householder-Matrix aufgebaut und auf A angewandt. Startpunkt des Verfahrens ist der erste Spaltenvektor von A. Mit diesem Vektor wird die Householder- Matrix bestimmt und auf A angewandt. Im nächsten Schritt nimmt man den zweiten Spaltenvektor des neu entstandenen A und verfährt analog. Dies wird bis zum letzten Vektor wiederholt. Durch diese Vorgangsweise wird die Ausgangsmatrix A Schritt für Schritt in die obere Dreiecksmatrix R überführt. A = H 1A = R Die Matrix Q setzt sich aus dem Produkt der einzelnen Householder-Matrizen zusammen. Damit ergibt sich H 1 H 2 H n = Q.

24 18 1 Grundlagen Q wird in der Praxis für gewöhnlich nicht explizit aufgebaut, stattdessen werden die einzelnen Householder-Vektoren gespeichert. Platz für die Householder- Vektoren bieten die Elemente des Ausgangsvektors die eliminiert wurden, damit das erste Element nicht mit dem jeweiligen Diagonalelement kollidiert, wird der Vektor so umgeformt bzw. so erzeugt, dass das erste Element den Wert Eins enthält. Die Kosten für die QR-Zerlegung mittels Householder-Reflektion betragen #Flops = 4n 2 (m n/3) Givens-Rotation Bei den Givens-Rotationen (nach Walace Givens 1958) handelt es sich um Drehungen in der Ebene. Mit Hilfe der Rotationen können die einzelnen Richtungskomponenten des Vektors a eliminiert werden, sodass am Ende der Vektor auf ein Vielfaches des ersten Einheitsvektor e 1 gedreht wird. Abbildung 1.3 stellt den einfachsten Fall dar. Hier genügt es den Vektor a R 2 mit einer einzigen Drehung um den Winkel θ auf den Einheitsvektor zu drehen. 2 1 a θ e 1 αe Abbildung 1.3: Drehung eines Vektors a auf ein Vielfaches des Einheitsvektors Um die Drehung des Vektors a auf ein Vielfaches αe 1 des Einheitsvektors e 1 durchzuführen, verwendet man das Gleichungssystem ( cosθ sin θ sin θ cosθ ) ( ) a1 = α a 2 ( ) 1. 0 Die Givens-Rotation arbeitet im Vergleich zur Householder-Reflektion selektiver. Man wählt die einzelnen Einträge der Matrix bzw. des Vektors, die auf Null gesetzt werden sollen, aus und eliminiert sie Schritt für Schritt. Um den Eintrag der i-ten Spalten und k-ten Zeile zu eliminieren, verwendet man die

25 1.3 Lineare Ausgleichsrechnung 19 Matrix G ij : c s 0 i. G ij = s c 0 j i j Um die Werte für c (Cosinus) und s (Sinus) zu wählen, betrachtet man folgendes Gleichungssystem ( ) ( ) ( ) c s xi cxi sx j =. (1.40) s c sx i + cx j Für die beiden Gleichungen aus (1.40) soll gelten, dass x j sx i + cx j = y j = 0 (1.41) und cx i sx j = y i = x 2 i + x2 j. (1.42) Die Gleichung (1.42) muss gelten, da die Givens-Rotation die Norm erhalten soll. Alle Werte ausser y i und y j bleiben unverändert, deshalb muss der Anteil von x j zu y i hinzugefügt werden. Durch Kombination der Gleichungen (1.41) und (1.42) lässt sich der Wert für c und s einfach bestimmen. c = x i x 2 i + x2 j und s = x j x 2 i + x2 j. (1.43) Für eine stabilere und vor einem Überlauf geschützte Methode zur Berechnung der Givens-Rotation siehe [GvL96, Seite 216]. Während der QR-Zerlegung, wendet man die Givens-Rotationen auf alle Elemente unterhalb der Diagonalen von A an, deren Wert ungleich Null ist und eliminiert diese. A = = G 12A = = G 12 G 13 G 14 G 23 G 24 G 34 R 0 =

26 20 1 Grundlagen Die Matrix Q resultiert aus dem Produkt aller Givens-Rotationen. Wie schon beim Householder-Verfahren wird Q nicht explizit berechnet, stattdessen berechnet man nur eine einfache Gleitkommazahl k für jede Rotation und speichert diesen Wert an der Stelle, die in der Ausgangsmatrix eliminiert wurde. Es ergibt sich somit kein höherer Speicheraufwand für die Givens-Rotationen und die Givens-Rotationen G ij lassen sich schnell rekonstruieren [GvL96, Seiten ]. Der Aufwand für die Anwendung der Givens-Rotationen, während der QR- Zerlegung, auf eine vollbesetzte Matrix A R m n beträgt 3n 2 (m n/3) Flops. (1.44) Das Householder-Verfahren ist im Vergleich zum Givens-Verfahren um ein Drittel schneller. Kostensenkend in Bezug auf die Laufzeit des Verfahrens kann sich der Einsatz der Givens-Rotationen bei dünnbesetzten Matrizen auswirken. Ein Standardbeispiel ist die Faktorisierung einer sogenannten Hessenberg Matrix 0 0 0, bei der die Kosten auf #Flops = 3n 2 sinken, da nur die (n 1) Subdiagonalelemente eliminiert werden müssen. Neben der punktweisen Auswahl der Transformationen und den geringeren Kosten bei einigen dünnbesetzten Problemen ist die freiwählbare Ausführungsreihenfolge der Givens-Rotationen ein weiterer Vorteil, d.h. man kann die Drehung eines Vektors a R n auf den ersten Einheitsvektors auf mehreren Wegen erreichen Gram-Schmidt-Verfahren G 1n G 13 G 12 a = αe 1 oder G 12 G 23 G n 1,n a = αe 1 Als drittes Verfahren zur Orthogonalisierung wird das Gram-Schmidt-Verfahren betrachtet. Bei diesem Verfahren wird die Matrix Q explizit erstellt, wodurch das Verfahren mehr Speicherplatz als die Householder- bzw. Givens- Methode benötigt. Das allgemeine Gram-Schmidt-Verfahren hat schlechte numerische Eigenschaften, welche zum Verlust der Orthogonalität, während der

27 1.3 Lineare Ausgleichsrechnung 21 Orthogonalisierung, führen können. Das allgemeine Verfahren verwendet man nur mit Reorthogonalisierungsschritten. Im Folgenden wird nur das modifizierte Gram-Schmidt-Verfahren (MGS) näher untersucht. Bei diesem Verfahren wurden die schlechten numerischen Eigenschaften entfernt durch die Änderung des Zeitpunktes der Normierung im Algorithmus. Hierbei wird die Ausgangsmatrix A R m n in die Matrix Q R m n überführt. A A (1) A (n) = Q Für die einzelnen Matrizen A (k) k n gilt A (k) = (q 1, q 2,, q k 1, a (k) k,, a(k) n ), wobei die Vektoren (q 1,, q k 1 ) zueinander orthogonal sind. Die restlichen Vektoren (a (k) k,, a(k) n ) müssen im weiteren Verlauf noch orthogonalisiert werden. Vor der eigentlichen Orthogonalisierung der k-ten Spalte erfolgt erst eine Normierung der Spalte: q k = a(k) k a (k) k 2 Der Wert a (k) k 2 wird als Diagonalelement r kk in der Matrix R gespeichert. Nach der Normierung von q k erfolgt die Orthogonalisierung mit den Vektoren (a (k) k+1,, a(k) n ) r kj = q T, a (k) j a (k+1) j = a j r kj q k, wobei j = k + 1,, n. Der Algorithmus zur QR-Zerlegung mittels Gram-Schmidt kostet #Flops = 2mn 2. (1.45) Der Vorgang lässt sich auf 2 Arten durchführen, je nachdem ob die Matrix R zeilenweise oder spaltenweise aufgebaut wird. Die beiden Arten werden im Folgenden kurz schematisch skizziert. Das zeilenweise MGS: A... q 1 ã 2 ã q 1 q 2 â = Q = R.

28 22 1 Grundlagen Die Berechnung des spaltenweisen MGS verläuft: A... q 1 a 2 a q 1 q 2 a = Q = R. Die entsprechenden Algorithmen zur Berechung des zeilen- bzw. spaltenweisen MGS und weitere Informationen finden sich in [Bjö96, Seite 62]. Im anschliessenden Kapitel wird beschrieben, wie man dünnbesetzte Verfahren einsetzen kann, um die QR-Faktorisierung einer dünnbesetzten Matrix effizient durchzuführen. Weiterhin wird eine Möglichkeit aufgezeigt, wie man eine vorhandene Zerlegung einer Matrix A verwenden und anpassen muss, wenn man der Matrix A Zeilen bzw. Spalten hinzufügt. Der Vorteil dieser Methode ist, dass die QR-Zerlegung nicht mehr komplett neu berechnet werden muss, sondern die schon vorhandene Zerlegung wieder verwendet werden kann.

29 23 2 Modifikationen bei der Berechnung des SPAI Häufig wird der SPAI -Vorkonditionierer auf dünnbesetzte Matrizen angewendet, weshalb die entstehenden Matrizen Âi, siehe 1.2.2, ebenfalls häufig dünnbesetzt sind. Daher bietet es sich an, die intern verwendete QR-Zerlegung mittels dünnbesetzter Verfahren durchzuführen. Der Abschnitt 2.1 behandelt dieses Thema. Eine weitere Verbesserung der Laufzeit des SPAI kann durch Optimierung des Patternupdates erreicht werden. Um die Approximation der Inversen, die der SPAI berechnet, zu verbessern, wird das Ausgangspattern um neue Spalten erweitert, siehe dazu Abschnitt Da die vorherige Zerlegung vorliegt, kann durch das QR-Update-Verfahren auf einfache Art und Weise die Zerlegung aktualisiert werden. Die Vorgehensweise wird in Abschnitt 2.2 beschrieben. Ein anderer Ansatz zur Optimierung des SPAI ist die QR- Zerlegung und das Lösen des Least-Squares-Problemes auf Basis des Datentyps float durchzuführen und dann die Genauigkeit der Lösung mit Hilfe iterativer Nachverfeinerung zu erhöhen. 2.1 Dünnbesetzte Verfahren [...]Immer und immer wieder bitte ich: weniger Zahlen, dafür gescheitere.[...] Wladimir Iljitsch Uljanow, 1921 Um lineare Gleichungssysteme der Form Ax = b mit Hilfe von Rechnern zu lösen, kann man selbst Löser programmieren oder auf Bibliotheken zurückgreifen. Eine der meist verwendeten Bibliotheken ist das Lineare Algebra Package, kurz LAPACK genannt. Die Bibliothek und die dazugehörige Dokumentation ist auf verfügbar. Sie realisiert Fortran77-Routinen zum Lösen von linearen Gleichungssystemen, Least Squares Problemen, Eigenwertproblemen und Singulärwertproblemen. In den Routinennamen ist festgelegt mit welcher Genauigkeit bzw. welchem Datentyp gerechnet wird. Die Genauigkeit bzw. der Datentyp wird mit dem ersten Buchstaben des verwendeten

30 24 2 Modifikationen bei der Berechnung des SPAI Funktionsnamen bestimmt. Es stehen zur Auswahl: d = doppelte Genauigkeit, reell s = einfache Genauigkeit, reell z = doppelte Genauigkeit, komplex c = einfache Genauigkeit, komplex Allgemein lauten die Funktionen xfunktion(parameter 1,..., Parameter n), wobei x {d, s, z, c} ist. Im SPAI werden hauptsächlich die Routinen xgeqrf, xormqr und xtrtrs verwendet, da mit ihnen die QR-Zerlegung, die Anwendung von Q T auf einen Vektor und Rx = Q T b realisiert werden können. Die Funktionen werden im Folgenden kurz vorgestellt. Weitere Information finden sich unter [ABB + 99]. xgeqrf xormqr Mit dieser Funktion wird die Zerlegung der Matrix A R m n in A = QR durchgeführt. Die Zerlegung wird, wie in Abschnitt beschrieben, ausgeführt. Die Matrix Q wird nicht explizit aufgebaut, sondern in Form der Householder- Vektoren unterhalb der Diagonalen von A gespeichert. h i,j entspricht der i-ten Komponente im j-ten Householder- Vektor. R 1,1 R 1,2 R 1,n h 2,1 R 2, Rn,n h n+1,1 h n,2... h 2,n... h m,1 h m 1,2... h m n,n Die Funktion überschreibt die Ursprungsmatrix A mit der Zerlegung. Mit xormqr wird Q bzw. Q T, auf eine Matrix C bzw. einen Vektor b angewandt. Die Anwendung von Q = H 1 H 2...H n auf C erfolgt intern durch die Anwendung der Householder- Matrix H i für i = 1,..., n auf C. xtrtrs xtrtrs löst das System Ax = b durch Rücksubstitution, wobei A in Form einer oberen Dreiecksmatrix vorliegt. Das Ergebnis der Rücksubstitution liegt am Ende in den ersten n Einträgen von b vor. Die einzelnen Parameter der Funktionen xgeqrf, xormqr und xtrtrs sind auf

31 2.1 Dünnbesetzte Verfahren 25 dokumentiert und können dort nachgelesen werden. In LAPACK werden die Matrizen immer voll gespeichert, d.h. es werden alle Werte inklusive der Nullen in einem eindimensionalen Feld abgelegt. Da Fortran mehrdimensionale Strukturen im Gegensatz zu C spaltenweise speichert, ist das LAPACK-Speicherformat für Matrizen ebenfalls spaltenweise. Die Matrix a 11 a 12 a 13 a 21 a 22 a 23 A = a 31 a 32 a 33 a 41 a 42 a 43 a 51 a 52 a 53 ist intern als folgendes Feld realisiert: a a 31 a 41 a 51 a 12 a 22 a 32 a 42 a 52 a 13 a 23 a 33 a 43 a 53 Nachfolgend wird der Algorithmus zur Lösung eines Least-Squares-Problemes mittels LAPACK grob skizziert. Die Zerlegung wird in einer C-Struktur QRS gespeichert. Die Struktur speichert neben der Zerlegung die Matrixdimension, die Startindizes der Matrixspalten, die gewählten Zeilen, die gewählten Spalten und noch weitere Steuerinformationen. Data : Matrix A, Vektor b, Zeilen, Spalten, gewählte Zeilen, gewählte Spalten Result : Lösung x Initialisierung der Variablen QRC qrc anlegen und initialisieren Lösen von Ax = b Zerlegen der Matrix mit Hilfe von xgeqrf Anwenden von Q T auf b durch xormqr Lösen von Rx = Q T b mit dtrtrs Speichern der Informationen qrc Zerlegung = QR-Zerlegung qrc beta = beta = Beta-Vektor der Zerlegung Bestimmen der Anfangsindizes der Spalten qrc Anfangsindizes = Anfangsindizes Algorithmus 1 : Lösen eines Least-Squares-Problemes in LAPACK

32 26 2 Modifikationen bei der Berechnung des SPAI Dieses Verfahren funktioniert bei vollen und bei dünnbesetzten Matrizen, wobei es sich eher für volle Matrizen eignet, da der Speicherplatzbedarf bei vollen Matrizen nicht reduziert werden kann. Bei dünnbesetzten Matrizen wird jedoch eine Menge Speicherplatz dazu verwendet, Nullen zu speichern. Da Nullen keine Informationen enthalten, ist dieser Speicherplatz unnötiger Weise belegt. Im nächsten Abschnitt werden Speicherstrukturen und Verfahren angegeben, die keine unnötigen Nullen speichern und verwenden. An diese Speicherstrukturen müssen auch die jeweiligen Implementierungen der Verfahren angepasst werden Dünnbesetzte Speicherstrukturen Der SPAI wird häufig auf dünnbesetzte Matrizen A angewendet, sodass auch die dabei vorkommenden Matrizen Â, siehe Abschnitt 1.2.2, dünnbesetzt sind. Daher ist es angebracht nur die Nichtnull-Elemente zu speichern, um Speicherplatz zu sparen. Es gibt verschiedene Speicherformate, um eine Matrix dünnbesetzt zu speichern. Die einfachste Methode, ist die Matrix in Tripletform zu speichern. Hier werden drei Vektoren benötigt. Ein Vektor zum Speichern der Werte, ein Vektor für die Spaltenindizes und ein Vektor für die Zeilenindizes. Insgesamt belaufen sich die Speicherkosten auf O(3 nz(a)) anstatt von O(m n) im vollen Fall. Der Wert nz(a) entspricht der Anzahl der Elemente der Matrix A, die ungleich Null sind. Ein verbessertes Verfahren ist das Compress Sparse Column Verfahren, kurz CSC. Hierbei werden zwei Vektoren x und i der Länge nz(a) benötigt und ein dritter Vektor p der Länge n + 1. n entspricht der Anzahl der Spaltenvektoren. Der Vektor x enthält die numerischen Werte und i die jeweilige Zeilenindizes. Die Einträge der Matrix werden spaltenweise gespeichert. Der Vektor p enthält den Startindex der Matrixspalten A = In CSC gespeichert ergeben sich folgende Vektoren: x = {5, 4, 9.9, 3.5, 0.53, 3, 1.2, 67.8, 2.3,6.2, 0.1, 1} i = {1, 4, 5, 1, 3, 4, 6, 2, 5, 1, 2, 5} p = {0, 4, 8, 10, 13}.

33 2.1 Dünnbesetzte Verfahren 27 Weitere Speicherstrukturen sind Compress Sparse Row, welches analog zu CSC aufgebaut ist, das Modified Sparse Row (MSR) und das Ellpack-Itpack-Schema. Informationen zu den letztgenannten Speicherschemen finden sich in [Saa00, Seiten 85-86] Dünnbesetzte Methoden Beim Wechsel vom LAPACK-Speicherschema, bei dem alle Elemente der Matrix, auch die Nullen explizit gespeichert, hin zur Verwendung dünnbesetzter Speicherschema müssen die ursprünglich verwendeten Funktionen angepasst werden. Die Methode c = Ab, wobei A R m n im LAPACK-Format gespeichert ist, lautet: for i = 0...m do for j = 0...n do c[i] += A[i m + j] b[j] ; end end Algorithmus 2 : c = Ab im vollbesetzten Speicherschema Dieser Algorithmus für c = Ab benötigt O(mn) Schritte zur Berechnung von c. Nachfolgend derselbe Algorithmus abgewandelt für die Verwendung einer im CSR-Format gespeicherten Matrix A R m n : for k = 0...n 1 do for j = p[i]...p[i + 1] 1 do c[k] += x[j] b[i[j]] ; end end Algorithmus 3 : c = Ab mit CSC-Schema Hier wird die Berechnung in O(nz(A)) Schritten durchgeführt, nachteilig wirkt sich jedoch die indirekte Indizierung der Elemente von b auf die Laufzeit aus. Im Allgemeinen ist man bei dünnbesetzten Methoden, wie auch bei Verfahren mit vollen Matrizen, auf eine hohe Effizienz aus. Daher versucht man bei Faktorisierungen von Matrizen so wenig Fill-In wie möglich zu erzeugen, um einen größtmöglichen Nutzen aus dem dünnbesetzten Speicherschema zu ziehen. Fill- In ist die verfahrensbedingte Erzeugung von Nichtnullkomponenten, die beim

34 28 2 Modifikationen bei der Berechnung des SPAI Start des Verfahrens Null waren. Um den Fill-In bei einer Zerlegung zu verringern, sucht man eine Permutationen P der Matrix, sodass bei einer Faktorisierung möglichst wenig Fill-In entsteht. Dieses Problem ist NP-vollständig. Der Beweis findet sich in [Yan81]. Daher verwendet man Heuristiken. Eine Möglichkeit, eine solche Permutation P zu finden, besteht in graphentheoretischen Verfahren. Eine Methode ist das Minimum-Degree-Verfahren, das zur Klasse der Greedy-Algorithmen gehört. Im Folgenden werden zwei Varianten des Verfahrens näher vorgestellt Minimum-Degree mit Eliminationsgraphen Das Pattern der Nichtnulleinträge einer symmetrischen Matrix A R n n kann als Graph G = G 0 = (V, E) aufgefaßt werden, wobei V = V 0 = {1...n} der Knotenmenge entspricht und E der Kantenmenge. Eine Kante (i, j) ist genau dann in E enthalten, wenn die Komponente a ij 0 ist, a ij A. Um Schleifen zu vermeiden, gilt zusätzlich i j. Während der Faktorisierung wird im Eliminationsschritt b der Knoten k V b 1 aus G b entfernt. G b entspricht dem Graphen nach dem b-ten Schritt. Alle Knoten, die adjazent zum entfernten Knoten k sind, werden durch neue Kanten miteinander verbunden und bilden einen vollständigen Untergraphen, eine Clique. Diese neuen Kanten werden der Menge E b 1 hinzugefügt. E b = E b 1 E neu V b = V b 1 \ {k} mit E neu enthält die neuen Kanten Die neuen Kanten, die E b hinzugefügt werden entsprechen dem Fill-In im Schritt b. Um den Fill-In zu verringern, wird immer das Element k der Menge V b 1 gewählt mit minimalem Grad d(k). d(k) ist die Anzahl der Kanten des Knoten k. Die Reihenfolge der gewählten Komponenten am Ende der Faktorisierung entspricht der gesuchten Permutation P. Im Folgenden Beispiel wird das Verfahren für die ersten drei Schritte gezeigt. Ausgehend von folgender Besetztheitsstruktur Pattern(A) ergibt sich der Graph G 0 : G P attern(a) =

35 2.1 Dünnbesetzte Verfahren 29 In Abbildung 2.1 wird das schrittweise Entfernen von Knoten und Einfügen neuer Kanten dargestellt. Im ersten Eliminationsschritt wird der Knoten 1 als Pivotelement gewählt, im zweiten Schritt der Knoten 3, im dritten Schritt der Knoten 4 usw. Der Vorgang wird solange durchgeführt bis nur noch ein Element vorhanden ist. Dann ist die Elimination abgeschlossen. Die Reihenfolge der entfernten Knoten entspricht dabei der Permutation P. G 1 2 G 2 2 G Abbildung 2.1: Schrittweise Elimination von Knoten aus dem Graphen Die gestrichelten Linien entsprechen den neu eingefügten Kanten pro Eliminationsschritt. Das Verfahren liefert nicht die optimale Lösung aber eine obere Grenze für den Fill-In, der durch das b-te Pivotelelement verursacht wird, [ADD96, Seiten ]. Der Nachteil bei dieser Methode ist, dass keine Aussagen im Voraus getroffen werden können, wieviel Fill-In in der Matrix erzeugt wird und somit wieviel Platz während Berechnung für den Graph benötigt wird. Das folgende Quotientengraph-Verfahren hingegen kommt mit einer festen vorausberechenbaren Speichermenge aus Minimum-Degree mit Quotientengraphen Mit Hilfe des Quotientengraphen werden die oben beschriebenen Cliquen nicht explizit gebildet, d.h. es werden keine neuen Kanten eingefügt sondern die Cliquen durch Knotenmengen beschrieben. Der Quotientengraph ist definiert als G b = (V b, V b, E b, Ēb ), wobei V b der Menge der Knoten des Graphen entspricht, die noch nicht bis zum b-ten Schritt entfernt wurden. Die Knoten, die bis zum b-ten Schritt entfernt wurden, sind in der Menge V b enthalten. Die Menge der Kanten im Graph G b wird ebenfalls

36 30 2 Modifikationen bei der Berechnung des SPAI in zwei Teilmengen aufgeteilt: E b V b V b Ē b V b V b Der Quotientengraph G 0 entspricht dem Eliminationsgraph G 0, d.h. V0 und Ē 0 sind leere Mengen. Die einzelnen Knoten k V b des Graphen werden durch zwei weitere Mengen charakterisiert: A k = {j (k, j) E}, T k = {j (k : j) Ē}. A k entspricht der Menge der Knoten w V b die adjazent mit k in G b sind. Analog dazu ist T k definiert. Die Menge L e des Elementes e V b enthält die Knoten k V b, die adjazent zu e sind: L e = {k (k, e) Ē}. Der Grad d k des Knoten k lässt sich bestimmen mit d k = L k = (A k L e ) \ k e T k (2.1) Bei der Elimination des b-ten Pivotelements wird das p V b mit minimalem d k entfernt und die Mengen V b = V b 1 \ p V b = V b 1 p verringert bzw. erweitert. Die Mengen E b und Ēb werden durch A k, T k für alle k V b sowie L e für alle e V b dargestellt. Die adjazenten Knoten k zum Knoten p werden nicht mit neuen Kanten verbunden wie im Eliminationsgraphen, sondern durch die Menge L p = (A p e T p L e ) \ p repräsentiert. Die existierenden Kanten im Graph G b zwischen den Knoten r, s L p werden aus der Menge E entfernt, da die Information redundant ist. Betrachtet man den Eliminationsgraphen G b, entsprechen die Einträge von L p genau den Knoten, die eine neue Clique nach dem Entfernen von p in G b

37 2.1 Dünnbesetzte Verfahren 31 bilden. Die Kante zwischen r und s im G b wird durch Entfernen von s aus A r und r aus A s erreicht: A k = (A k \ L p ) \ p, k L p. Die Menge A k enthält alle Einträge der Spalte k der Ausgangsmatrix A, die bis zum b-ten Schritt nicht verändert wurden. Alle Elemente der Menge V, die adjazent mit dem Knoten p waren, werden mit p vereinigt. Alle Referenzen der verschmolzenen Elemente in den verschiedenen T k werden auf p gesetzt. In allen Mengen T k mit k V und k adjazent zu p wird p eingetragen: T k = (T k \ T p ) p, k L p Zuletzt werden A p, T p und alle L e mit e T p entfernt. Das folgende Beispiel wurde aus [ADD96, Seiten ] entnommen und die ersten vier Schritte etwas ausführlicher durchgeführt. Ausgangspunkt ist die Besetztheitsstruktur einer Matrix A: P attern(a) = (2.2) Der Quotientengraph G 0 entspricht, wie oben erwähnt, dem Eliminationsgraphen G 0. Im Folgenden werden nur die Mengen dargestellt, die sich während der Elimination ändern. Die durchgezogenen Linien stellen die Kanten von E dar. Die gestrichelten Linien entsprechen den Elementen von Ē. Die durchgezogenen Kreise entsprechen den Elementen der Menge V. Die Elemente der Menge V werden durch gestrichelte Kreise dargestellt. Die Abbildung 2.2 zeigt den zum Pattern(A) (2.2), gehörenden Quotientengraphen G 0. In den Mengen A i sind die jeweiligen adjazenten Knoten aufgeführt. Alle anderen Mengen entsprechen der leeren Menge.

LU-Zerlegung. Zusätze zum Gelben Rechenbuch. Peter Furlan. Verlag Martina Furlan. Inhaltsverzeichnis. 1 Definitionen.

LU-Zerlegung. Zusätze zum Gelben Rechenbuch. Peter Furlan. Verlag Martina Furlan. Inhaltsverzeichnis. 1 Definitionen. Zusätze zum Gelben Rechenbuch LU-Zerlegung Peter Furlan Verlag Martina Furlan Inhaltsverzeichnis Definitionen 2 (Allgemeine) LU-Zerlegung 2 3 Vereinfachte LU-Zerlegung 3 4 Lösung eines linearen Gleichungssystems

Mehr

Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme

Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme Übung Lineare Algebra und Lösung linearer zeitinvarianter Differentialgleichungssysteme Diese Übung beschäftigt sich mit Grundbegriffen der linearen Algebra. Im Speziellen werden lineare Abbildungen, sowie

Mehr

Kevin Caldwell. 18.April 2012

Kevin Caldwell. 18.April 2012 im Rahmen des Proseminars Numerische Lineare Algebra von Prof.Dr.Sven Beuchler 18.April 2012 Gliederung 1 2 3 Mathematische Beschreibung von naturwissenschaftlich-technischen Problemstellungen führt häufig

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Eines der am häufigsten auftretenden Standardprobleme der angewandten Mathematik ist das Lösen linearer Gleichungssysteme, etwa zur Netzwerkberechnung in der Elektrotechnik oder

Mehr

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren Lineargleichungssysteme: Additions-/ Subtraktionsverfahren W. Kippels 22. Februar 2014 Inhaltsverzeichnis 1 Einleitung 2 2 Lineargleichungssysteme zweiten Grades 2 3 Lineargleichungssysteme höheren als

Mehr

Kapitel 15. Lösung linearer Gleichungssysteme

Kapitel 15. Lösung linearer Gleichungssysteme Kapitel 15. Lösung linearer Gleichungssysteme Lineare Gleichungssysteme Wir befassen uns nun mit der Lösung im allgemeinen nichthomogener linearer Gleichungssysteme in zweifacher Hinsicht. Wir studieren

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den

Mehr

OECD Programme for International Student Assessment PISA 2000. Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland

OECD Programme for International Student Assessment PISA 2000. Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland OECD Programme for International Student Assessment Deutschland PISA 2000 Lösungen der Beispielaufgaben aus dem Mathematiktest Beispielaufgaben PISA-Hauptstudie 2000 Seite 3 UNIT ÄPFEL Beispielaufgaben

Mehr

Lineare Gleichungssysteme I (Matrixgleichungen)

Lineare Gleichungssysteme I (Matrixgleichungen) Lineare Gleichungssysteme I (Matrigleichungen) Eine lineare Gleichung mit einer Variable hat bei Zahlen a, b, die Form a b. Falls hierbei der Kehrwert von a gebildet werden darf (a 0), kann eindeutig aufgelöst

Mehr

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte 50. Mathematik-Olympiade. Stufe (Regionalrunde) Klasse 3 Lösungen c 00 Aufgabenausschuss des Mathematik-Olympiaden e.v. www.mathematik-olympiaden.de. Alle Rechte vorbehalten. 503 Lösung 0 Punkte Es seien

Mehr

4 Vorlesung: 21.11. 2005 Matrix und Determinante

4 Vorlesung: 21.11. 2005 Matrix und Determinante 4 Vorlesung: 2111 2005 Matrix und Determinante 41 Matrix und Determinante Zur Lösung von m Gleichungen mit n Unbekannten kann man alle Parameter der Gleichungen in einem rechteckigen Zahlenschema, einer

Mehr

Die reellen Lösungen der kubischen Gleichung

Die reellen Lösungen der kubischen Gleichung Die reellen Lösungen der kubischen Gleichung Klaus-R. Löffler Inhaltsverzeichnis 1 Einfach zu behandelnde Sonderfälle 1 2 Die ganzrationale Funktion dritten Grades 2 2.1 Reduktion...........................................

Mehr

Primzahlen und RSA-Verschlüsselung

Primzahlen und RSA-Verschlüsselung Primzahlen und RSA-Verschlüsselung Michael Fütterer und Jonathan Zachhuber 1 Einiges zu Primzahlen Ein paar Definitionen: Wir bezeichnen mit Z die Menge der positiven und negativen ganzen Zahlen, also

Mehr

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen Gleichungen Lösen Was bedeutet es, eine Gleichung zu lösen? Was ist überhaupt eine Gleichung? Eine Gleichung ist, grundsätzlich eine Aussage über zwei mathematische Terme, dass sie gleich sind. Ein Term

Mehr

Gleitkommaarithmetik und Pivotsuche bei Gauß-Elimination. Lehrstuhl für Angewandte Mathematik Wintersemester 2009/10. 14.

Gleitkommaarithmetik und Pivotsuche bei Gauß-Elimination. Lehrstuhl für Angewandte Mathematik Wintersemester 2009/10. 14. Gleitkommaarithmetik und Pivotsuche bei Gauß-Elimination Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Wintersemester 2009/0 4. Januar 200 Instabilitäten

Mehr

Welche Lagen können zwei Geraden (im Raum) zueinander haben? Welche Lagen kann eine Gerade bezüglich einer Ebene im Raum einnehmen?

Welche Lagen können zwei Geraden (im Raum) zueinander haben? Welche Lagen kann eine Gerade bezüglich einer Ebene im Raum einnehmen? Welche Lagen können zwei Geraden (im Raum) zueinander haben? Welche Lagen können zwei Ebenen (im Raum) zueinander haben? Welche Lagen kann eine Gerade bezüglich einer Ebene im Raum einnehmen? Wie heiÿt

Mehr

Eigenwerte und Eigenvektoren von Matrizen

Eigenwerte und Eigenvektoren von Matrizen Eigenwerte und Eigenvektoren von Matrizen Das Eigenwertproblem Sei A eine quadratische Matrix vom Typ m,m. Die Aufgabe, eine Zahl λ und einen dazugehörigen Vektor x zu finden, damit Ax = λx ist, nennt

Mehr

1 topologisches Sortieren

1 topologisches Sortieren Wolfgang Hönig / Andreas Ecke WS 09/0 topologisches Sortieren. Überblick. Solange noch Knoten vorhanden: a) Suche Knoten v, zu dem keine Kante führt (Falls nicht vorhanden keine topologische Sortierung

Mehr

V 2 B, C, D Drinks. Möglicher Lösungsweg a) Gleichungssystem: 300x + 400 y = 520 300x + 500y = 597,5 2x3 Matrix: Energydrink 0,7 Mineralwasser 0,775,

V 2 B, C, D Drinks. Möglicher Lösungsweg a) Gleichungssystem: 300x + 400 y = 520 300x + 500y = 597,5 2x3 Matrix: Energydrink 0,7 Mineralwasser 0,775, Aufgabenpool für angewandte Mathematik / 1. Jahrgang V B, C, D Drinks Ein gastronomischer Betrieb kauft 300 Dosen Energydrinks (0,3 l) und 400 Liter Flaschen Mineralwasser und zahlt dafür 50, Euro. Einen

Mehr

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Einführung in die Vektor- und Matrizenrechnung. Matrizen Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Algorithmen II Vorlesung am 15.11.2012

Algorithmen II Vorlesung am 15.11.2012 Algorithmen II Vorlesung am 15.11.2012 Kreisbasen, Matroide & Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales

Mehr

Lineare Funktionen. 1 Proportionale Funktionen 3 1.1 Definition... 3 1.2 Eigenschaften... 3. 2 Steigungsdreieck 3

Lineare Funktionen. 1 Proportionale Funktionen 3 1.1 Definition... 3 1.2 Eigenschaften... 3. 2 Steigungsdreieck 3 Lineare Funktionen Inhaltsverzeichnis 1 Proportionale Funktionen 3 1.1 Definition............................... 3 1.2 Eigenschaften............................. 3 2 Steigungsdreieck 3 3 Lineare Funktionen

Mehr

Musterlösungen zur Linearen Algebra II Blatt 5

Musterlösungen zur Linearen Algebra II Blatt 5 Musterlösungen zur Linearen Algebra II Blatt 5 Aufgabe. Man betrachte die Matrix A := über dem Körper R und über dem Körper F und bestimme jeweils die Jordan- Normalform. Beweis. Das charakteristische

Mehr

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung. Lineare Gleichungen mit einer Unbekannten Die Grundform der linearen Gleichung mit einer Unbekannten x lautet A x = a Dabei sind A, a reelle Zahlen. Die Gleichung lösen heißt, alle reellen Zahlen anzugeben,

Mehr

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über Güte von s Grundlegendes zum Konzept der Güte Ableitung der Gütefunktion des Gauss im Einstichprobenproblem Grafische Darstellung der Gütefunktionen des Gauss im Einstichprobenproblem Ableitung der Gütefunktion

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Physiker II, SS Mittwoch 8.6 $Id: jordan.tex,v.6 /6/7 8:5:3 hk Exp hk $ 5 Eigenwerte und die Jordansche Normalform 5.4 Die Jordansche Normalform Wir hatten bereits erwähnt, dass eine n n

Mehr

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist. Matrizennorm Es seien r,s N Mit M r,s (R bezeichnen wir die Menge der reellen r s- Matrizen (also der linearen Abbildungen R s R r, und setze M s (R := M s,s (R (also die Menge der linearen Abbildungen

Mehr

Mathematischer Vorbereitungskurs für Ökonomen

Mathematischer Vorbereitungskurs für Ökonomen Mathematischer Vorbereitungskurs für Ökonomen Dr. Thomas Zehrt Wirtschaftswissenschaftliches Zentrum Universität Basel Gleichungen Inhalt: 1. Grundlegendes 2. Lineare Gleichungen 3. Gleichungen mit Brüchen

Mehr

Behörde für Bildung und Sport Abitur 2008 Lehrermaterialien zum Leistungskurs Mathematik

Behörde für Bildung und Sport Abitur 2008 Lehrermaterialien zum Leistungskurs Mathematik Abitur 8 II. Insektenpopulation LA/AG In den Tropen legen die Weibchen einer in Deutschland unbekannten Insektenpopulation jedes Jahr kurz vor Beginn der Regenzeit jeweils 9 Eier und sterben bald darauf.

Mehr

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen 1. Quadratische Gleichungen Quadratische Gleichungen lassen sich immer auf die sog. normierte Form x 2 + px + = 0 bringen, in

Mehr

Plotten von Linien ( nach Jack Bresenham, 1962 )

Plotten von Linien ( nach Jack Bresenham, 1962 ) Plotten von Linien ( nach Jack Bresenham, 1962 ) Ac Eine auf dem Bildschirm darzustellende Linie sieht treppenförmig aus, weil der Computer Linien aus einzelnen (meist quadratischen) Bildpunkten, Pixels

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme 1 Zwei Gleichungen mit zwei Unbekannten Es kommt häufig vor, dass man nicht mit einer Variablen alleine auskommt, um ein Problem zu lösen. Das folgende Beispiel soll dies verdeutlichen

Mehr

Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b

Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b Aufgabe 1: Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. (a) Nehmen Sie lineares Wachstum gemäß z(t) = at + b an, wobei z die Einwohnerzahl ist und

Mehr

Einführung in die Algebra

Einführung in die Algebra Prof. Dr. H. Brenner Osnabrück SS 2009 Einführung in die Algebra Vorlesung 13 Einheiten Definition 13.1. Ein Element u in einem Ring R heißt Einheit, wenn es ein Element v R gibt mit uv = vu = 1. DasElementv

Mehr

1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. Bäume / Graphen 5. Hashing 6. Algorithmische Geometrie

1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. Bäume / Graphen 5. Hashing 6. Algorithmische Geometrie Gliederung 1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. äume / Graphen 5. Hashing 6. Algorithmische Geometrie 4/5, olie 1 2014 Prof. Steffen Lange - HDa/bI

Mehr

Konzepte der Informatik

Konzepte der Informatik Konzepte der Informatik Vorkurs Informatik zum WS 2011/2012 26.09. - 30.09.2011 17.10. - 21.10.2011 Dr. Werner Struckmann / Christoph Peltz Stark angelehnt an Kapitel 1 aus "Abenteuer Informatik" von Jens

Mehr

6.2 Scan-Konvertierung (Scan Conversion)

6.2 Scan-Konvertierung (Scan Conversion) 6.2 Scan-Konvertierung (Scan Conversion) Scan-Konvertierung ist die Rasterung von einfachen Objekten (Geraden, Kreisen, Kurven). Als Ausgabemedium dient meist der Bildschirm, der aus einem Pixelraster

Mehr

1 Mathematische Grundlagen

1 Mathematische Grundlagen Mathematische Grundlagen - 1-1 Mathematische Grundlagen Der Begriff der Menge ist einer der grundlegenden Begriffe in der Mathematik. Mengen dienen dazu, Dinge oder Objekte zu einer Einheit zusammenzufassen.

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN

TECHNISCHE UNIVERSITÄT MÜNCHEN TECHISCHE UIVERSITÄT MÜCHE Zentrum Mathematik PRF. R.R. JÜRGE RICHTER-GEBERT, VAESSA KRUMMECK, MICHAEL PRÄHFER Höhere Mathematik für Informatiker I (Wintersemester 003/004) Aufgabenblatt 1 (4. ktober 003)

Mehr

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort: Tangentengleichung Wie Sie wissen, gibt die erste Ableitung einer Funktion deren Steigung an. Betrachtet man eine fest vorgegebene Stelle, gibt f ( ) also die Steigung der Kurve und somit auch die Steigung

Mehr

Zeichen bei Zahlen entschlüsseln

Zeichen bei Zahlen entschlüsseln Zeichen bei Zahlen entschlüsseln In diesem Kapitel... Verwendung des Zahlenstrahls Absolut richtige Bestimmung von absoluten Werten Operationen bei Zahlen mit Vorzeichen: Addieren, Subtrahieren, Multiplizieren

Mehr

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen.

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen. 13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen. Sie heißt linear, wenn sie die Form y (n) + a n 1 y (n 1)

Mehr

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume?

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Bernhard Ganter Institut für Algebra TU Dresden D-01062 Dresden bernhard.ganter@tu-dresden.de WS 2013/14 Isomorphie Zwei Graphen (V 1, E 1 ) und (V

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel

Mehr

7 Rechnen mit Polynomen

7 Rechnen mit Polynomen 7 Rechnen mit Polynomen Zu Polynomfunktionen Satz. Zwei Polynomfunktionen und f : R R, x a n x n + a n 1 x n 1 + a 1 x + a 0 g : R R, x b n x n + b n 1 x n 1 + b 1 x + b 0 sind genau dann gleich, wenn

Mehr

Lösungsvorschlag für die Probeklausuren und Klausuren zu Algebra für Informations- und Kommunikationstechniker bei Prof. Dr.

Lösungsvorschlag für die Probeklausuren und Klausuren zu Algebra für Informations- und Kommunikationstechniker bei Prof. Dr. Lösungsvorschlag für die Probeklausuren und Klausuren zu Algebra für Informations- und Kommunikationstechniker bei Prof. Dr. Kurzweil Florian Franzmann André Diehl Kompiliert am 10. April 2006 um 18:33

Mehr

1 Lineare Gleichungssysteme

1 Lineare Gleichungssysteme MLAN1 1 LINEARE GLEICHUNGSSYSTEME 1 Literatur: K Nipp/D Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4 Auflage, 1998, oder neuer 1 Lineare Gleichungssysteme Zu den grundlegenden

Mehr

DIFFERENTIALGLEICHUNGEN

DIFFERENTIALGLEICHUNGEN DIFFERENTIALGLEICHUNGEN GRUNDBEGRIFFE Differentialgleichung Eine Gleichung, in der Ableitungen einer unbekannten Funktion y = y(x) bis zur n-ten Ordnung auftreten, heisst gewöhnliche Differentialgleichung

Mehr

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen Prof. Dr. Volker Schulz Universität Trier / FB IV / Abt. Mathematik 8. November 2010 http://www.mathematik.uni-trier.de/ schulz/elan-ws1011.html

Mehr

Die Laufzeit muss nun ebenfalls in Monaten gerechnet werden und beträgt 25 12 = 300 Monate. Damit liefert die Sparkassenformel (zweiter Teil):

Die Laufzeit muss nun ebenfalls in Monaten gerechnet werden und beträgt 25 12 = 300 Monate. Damit liefert die Sparkassenformel (zweiter Teil): Lösungen zur Mathematikklausur WS 2004/2005 (Versuch 1) 1.1. Hier ist die Rentenformel für gemischte Verzinsung (nachschüssig) zu verwenden: K n = r(12 + 5, 5i p ) qn 1 q 1 = 100(12 + 5, 5 0, 03)1, 0325

Mehr

Anmerkungen zur Übergangsprüfung

Anmerkungen zur Übergangsprüfung DM11 Slide 1 Anmerkungen zur Übergangsprüfung Aufgabeneingrenzung Aufgaben des folgenden Typs werden wegen ihres Schwierigkeitsgrads oder wegen eines ungeeigneten fachlichen Schwerpunkts in der Übergangsprüfung

Mehr

www.mathe-aufgaben.com

www.mathe-aufgaben.com Abiturprüfung Mathematik Baden-Württemberg (ohne CAS) Pflichtteil Aufgaben Aufgabe : ( VP) Bilden Sie die erste Ableitung der Funktion f mit sin() f() =. Aufgabe : ( VP) Berechnen Sie das Integral ( )

Mehr

Fachschaft Mathematik und Informatik (FIM) LA I VORKURS. Herbstsemester 2015. gehalten von Harald Baum

Fachschaft Mathematik und Informatik (FIM) LA I VORKURS. Herbstsemester 2015. gehalten von Harald Baum Fachschaft Mathematik und Informatik (FIM) LA I VORKURS Herbstsemester 2015 gehalten von Harald Baum 2. September 2015 Inhaltsverzeichnis 1. Stichpunkte zur Linearen Algebra I 2. Körper 3. Vektorräume

Mehr

Informationsblatt Induktionsbeweis

Informationsblatt Induktionsbeweis Sommer 015 Informationsblatt Induktionsbeweis 31. März 015 Motivation Die vollständige Induktion ist ein wichtiges Beweisverfahren in der Informatik. Sie wird häufig dazu gebraucht, um mathematische Formeln

Mehr

Dokumentation zum Projekt Multimediale Lehre Fluidmechanik an der Technischen Universität Graz

Dokumentation zum Projekt Multimediale Lehre Fluidmechanik an der Technischen Universität Graz Dokumentation zum Projekt Multimediale Lehre Fluidmechanik an der Technischen Universität Graz Andreas Aigner email: andreasa@sbox.tu-graz.ac.at. Januar 00 Inhaltsverzeichnis Theorie. Stromfunktion...........................

Mehr

Handbuch Fischertechnik-Einzelteiltabelle V3.7.3

Handbuch Fischertechnik-Einzelteiltabelle V3.7.3 Handbuch Fischertechnik-Einzelteiltabelle V3.7.3 von Markus Mack Stand: Samstag, 17. April 2004 Inhaltsverzeichnis 1. Systemvorraussetzungen...3 2. Installation und Start...3 3. Anpassen der Tabelle...3

Mehr

Aufgabe 1. Zunächst wird die allgemeine Tangentengleichung in Abhängigkeit von a aufgestellt:

Aufgabe 1. Zunächst wird die allgemeine Tangentengleichung in Abhängigkeit von a aufgestellt: Aufgabe 1 1.1. Bestimmung von D max : 1. Bedingung: x >0 ; da ln(x) nur für x > 0 definiert ist. 2. Bedingung: Somit ist die Funktion f a nur für x > 0 definiert und sie besitzt eine Definitionslücke an

Mehr

Das Briefträgerproblem

Das Briefträgerproblem Das Briefträgerproblem Paul Tabatabai 30. Dezember 2011 Inhaltsverzeichnis 1 Problemstellung und Modellierung 2 1.1 Problem................................ 2 1.2 Modellierung.............................

Mehr

3. LINEARE GLEICHUNGSSYSTEME

3. LINEARE GLEICHUNGSSYSTEME 176 3. LINEARE GLEICHUNGSSYSTEME 90 Vitamin-C-Gehalt verschiedener Säfte 18,0 mg 35,0 mg 12,5 mg 1. a) 100 ml + 50 ml + 50 ml = 41,75 mg 100 ml 100 ml 100 ml b) : Menge an Kirschsaft in ml y: Menge an

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

www.mathe-aufgaben.com

www.mathe-aufgaben.com Abiturprüfung Mathematik 008 Baden-Württemberg (ohne CAS) Pflichtteil Aufgaben Aufgabe 1: ( VP) x Gegeben ist die Funktion f mit f(x). x Bilden Sie die Ableitung von f und fassen Sie diese so weit wie

Mehr

Vorkurs Mathematik Übungen zu Differentialgleichungen

Vorkurs Mathematik Übungen zu Differentialgleichungen Vorkurs Mathematik Übungen zu Differentialgleichungen Als bekannt setzen wir die folgenden Umformungen voraus: e ln(f(x)) = f(x) e f(x)+c = e f(x) e c e ln(f(x)) +c = f(x) e c = f(x) c f ( g(x) ) g (x)

Mehr

Lösungsmethoden gewöhnlicher Differentialgleichungen (Dgl.)

Lösungsmethoden gewöhnlicher Differentialgleichungen (Dgl.) Lösungsmethoden gewöhnlicher Dierentialgleichungen Dgl) Allgemeine und partikuläre Lösung einer gewöhnlichen Dierentialgleichung Eine Dierentialgleichung ist eine Gleichung! Zum Unterschied von den gewöhnlichen

Mehr

Übungsklausur. Bitte wählen Sie fünf Aufgaben aus! Aufgabe 1. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr.

Übungsklausur. Bitte wählen Sie fünf Aufgaben aus! Aufgabe 1. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr. Gert Zöller Übungsklausur Hilfsmittel: Taschenrechner, Formblatt mit Formeln. Lösungswege sind stets anzugeben. Die alleinige Angabe eines

Mehr

Lösungen zum 3. Aufgabenblatt

Lösungen zum 3. Aufgabenblatt SS, Lineare Algebra Die Lösungen wurden erstellt von: Isabel Voigt, Vanessa Lamm und Matthias Rehder Hinweis: Eine Liste der zur Bearbeitung verwendeten Literatur ist unter www.mathematiwelt.com aufrufbar.

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

Einfache Varianzanalyse für abhängige

Einfache Varianzanalyse für abhängige Einfache Varianzanalyse für abhängige Stichproben Wie beim t-test gibt es auch bei der VA eine Alternative für abhängige Stichproben. Anmerkung: Was man unter abhängigen Stichproben versteht und wie diese

Mehr

3. Anwendungen. 3.1. Chemische Reaktionen. Aufgabe: Die Gleichung + +

3. Anwendungen. 3.1. Chemische Reaktionen. Aufgabe: Die Gleichung + + 1 3. Anwendungen 3.1. Chemische Reaktionen Aufgabe: Die Gleichung + + beschreibt die Verbrennung von Ammoniak zu Stickstoffoxid und Wasser Für welche möglichst kleine natürliche Zahlen x1, x2, x3 und x4

Mehr

!(0) + o 1("). Es ist damit möglich, dass mehrere Familien geschlossener Orbits gleichzeitig abzweigen.

!(0) + o 1(). Es ist damit möglich, dass mehrere Familien geschlossener Orbits gleichzeitig abzweigen. Bifurkationen an geschlossenen Orbits 5.4 167 der Schnittabbldung konstruiert. Die Periode T (") der zugehörigen periodischen Lösungen ergibt sich aus =! + o 1 (") beziehungsweise Es ist also t 0 = T (")

Mehr

Stackelberg Scheduling Strategien

Stackelberg Scheduling Strategien Stackelberg Scheduling Strategien Von Tim Roughgarden Präsentiert von Matthias Ernst Inhaltsübersicht Einleitung Vorbetrachtungen Stackelberg Strategien Ergebnisse Seminar Algorithmische Spieltheorie:

Mehr

Gitterherstellung und Polarisation

Gitterherstellung und Polarisation Versuch 1: Gitterherstellung und Polarisation Bei diesem Versuch wollen wir untersuchen wie man durch Überlagerung von zwei ebenen Wellen Gttterstrukturen erzeugen kann. Im zweiten Teil wird die Sichtbarkeit

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Sei K ein Körper, a ij K für 1 i m, 1 j n. Weiters seien b 1,..., b m K. Dann heißt a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x 2 +... + a 2n x n = b 2... a m1

Mehr

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011

Mathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011 Mathematik für Informatiker II Christoph Eisinger Sommersemester 211 Beispiellösungen zur Probeklausur Aufgabe 1 Gegeben sind die Polynome f, g, h K[x]. Zu zeigen: Es gibt genau dann Polynome h 1 und h

Mehr

Abiturprüfung Mathematik 2008 (Baden-Württemberg) Berufliche Gymnasien ohne TG Analysis, Aufgabe 1

Abiturprüfung Mathematik 2008 (Baden-Württemberg) Berufliche Gymnasien ohne TG Analysis, Aufgabe 1 Abiturprüfung Mathematik (Baden-Württemberg) Berufliche Gymnasien ohne TG Analysis, Aufgabe Für jedes t f t () + t R ist die Funktion f t gegeben durch = mit R. Das Schaubild von f t heißt K t.. (6 Punkte)

Mehr

Lernmaterial für die Fernuni Hagen effizient und prüfungsnah

Lernmaterial für die Fernuni Hagen effizient und prüfungsnah Lernmaterial für die Fernuni Hagen effizient und prüfungsnah www.schema-f-hagen.de Sie erhalten hier einen Einblick in die Dokumente Aufgaben und Lösungen sowie Erläuterungen Beim Kauf erhalten Sie zudem

Mehr

Kapitel 6: Graphalgorithmen Gliederung

Kapitel 6: Graphalgorithmen Gliederung Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen

Mehr

Sowohl die Malstreifen als auch die Neperschen Streifen können auch in anderen Stellenwertsystemen verwendet werden.

Sowohl die Malstreifen als auch die Neperschen Streifen können auch in anderen Stellenwertsystemen verwendet werden. Multiplikation Die schriftliche Multiplikation ist etwas schwieriger als die Addition. Zum einen setzt sie das kleine Einmaleins voraus, zum anderen sind die Überträge, die zu merken sind und häufig in

Mehr

Tipp III: Leiten Sie eine immer direkt anwendbare Formel her zur Berechnung der sogenannten "bedingten Wahrscheinlichkeit".

Tipp III: Leiten Sie eine immer direkt anwendbare Formel her zur Berechnung der sogenannten bedingten Wahrscheinlichkeit. Mathematik- Unterrichts- Einheiten- Datei e. V. Klasse 9 12 04/2015 Diabetes-Test Infos: www.mued.de Blutspenden werden auf Diabetes untersucht, das mit 8 % in der Bevölkerung verbreitet ist. Dabei werden

Mehr

Einführung in. Logische Schaltungen

Einführung in. Logische Schaltungen Einführung in Logische Schaltungen 1/7 Inhaltsverzeichnis 1. Einführung 1. Was sind logische Schaltungen 2. Grundlegende Elemente 3. Weitere Elemente 4. Beispiel einer logischen Schaltung 2. Notation von

Mehr

SUDOKU - Strategien zur Lösung

SUDOKU - Strategien zur Lösung SUDOKU Strategien v. /00 SUDOKU - Strategien zur Lösung. Naked Single (Eindeutiger Wert)? "Es gibt nur einen einzigen Wert, der hier stehen kann". Sind alle anderen Werte bis auf einen für eine Zelle unmöglich,

Mehr

1.9 Eigenwerte und Eigenvektoren

1.9 Eigenwerte und Eigenvektoren .9. EIGENWERTE UND EIGENVEKTOREN 0.9 Eigenwerte und Eigenvektoren Alles in diesem Abschnitt bezieht sich auf quadratische reelle oder komplexe n n-matrizen. Statt E n (n n-einheitsmatrix) wird kurz E geschrieben..

Mehr

Repetitionsaufgaben Wurzelgleichungen

Repetitionsaufgaben Wurzelgleichungen Repetitionsaufgaben Wurzelgleichungen Inhaltsverzeichnis A) Vorbemerkungen B) Lernziele C) Theorie mit Aufgaben D) Aufgaben mit Musterlösungen 4 A) Vorbemerkungen Bitte beachten Sie: Bei Wurzelgleichungen

Mehr

6 Allgemeine Theorie des elektromagnetischen Feldes im Vakuum

6 Allgemeine Theorie des elektromagnetischen Feldes im Vakuum 6 ALLGEMEINE THEORIE DES ELEKTROMAGNETISCHEN FELDES IM VAKUUM 25 Vorlesung 060503 6 Allgemeine Theorie des elektromagnetischen Feldes im Vakuum 6.1 Grundaufgabe der Elektrodynamik Gegeben: Ladungsdichte

Mehr

Skript und Aufgabensammlung Terme und Gleichungen Mathefritz Verlag Jörg Christmann Nur zum Privaten Gebrauch! Alle Rechte vorbehalten!

Skript und Aufgabensammlung Terme und Gleichungen Mathefritz Verlag Jörg Christmann Nur zum Privaten Gebrauch! Alle Rechte vorbehalten! Mathefritz 5 Terme und Gleichungen Meine Mathe-Seite im Internet kostenlose Matheaufgaben, Skripte, Mathebücher Lernspiele, Lerntipps, Quiz und noch viel mehr http:// www.mathefritz.de Seite 1 Copyright

Mehr

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt - 17 - Die Frage ist hier also: Für welche x R gilt x = x + 1? Das ist eine quadratische Gleichung für x. Es gilt x = x + 1 x x 3 = 0, und man kann quadratische Ergänzung machen:... ( ) ( ) x x + = 3 +

Mehr

Lineare Algebra und analytische Geometrie II (Unterrichtsfach)

Lineare Algebra und analytische Geometrie II (Unterrichtsfach) MATHEMATISCHES INSTITUT DER UNIVERSITÄT MÜNCHEN Prof. Dr. D. Rost SS 0 Blatt.06.0 Übungen zur Vorlesung Lineare Algebra und analytische Geometrie II (Unterrichtsfach) Abgabe: Dienstag, 0. Juli 0, bis 4:00

Mehr

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!. 040304 Übung 9a Analysis, Abschnitt 4, Folie 8 Die Wahrscheinlichkeit, dass bei n - maliger Durchführung eines Zufallexperiments ein Ereignis A ( mit Wahrscheinlichkeit p p ( A ) ) für eine beliebige Anzahl

Mehr

Mathematik 1 für Wirtschaftsinformatik

Mathematik 1 für Wirtschaftsinformatik Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration

Mehr

7 Die Determinante einer Matrix

7 Die Determinante einer Matrix 7 Die Determinante einer Matrix ( ) a11 a Die Determinante einer 2 2 Matrix A = 12 ist erklärt als a 21 a 22 det A := a 11 a 22 a 12 a 21 Es ist S 2 = { id, τ}, τ = (1, 2) und sign (id) = 1, sign (τ) =

Mehr

Programme im Griff Was bringt Ihnen dieses Kapitel?

Programme im Griff Was bringt Ihnen dieses Kapitel? 3-8272-5838-3 Windows Me 2 Programme im Griff Was bringt Ihnen dieses Kapitel? Wenn Sie unter Windows arbeiten (z.b. einen Brief schreiben, etwas ausdrucken oder ein Fenster öffnen), steckt letztendlich

Mehr

Quadratische Gleichungen

Quadratische Gleichungen Quadratische Gleichungen Aufgabe: Versuche eine Lösung zu den folgenden Zahlenrätseln zu finden:.) Verdoppelt man das Quadrat einer Zahl und addiert, so erhält man 00..) Addiert man zum Quadrat einer Zahl

Mehr

Lineare Differentialgleichungen erster Ordnung erkennen

Lineare Differentialgleichungen erster Ordnung erkennen Lineare Differentialgleichungen erster Ordnung In diesem Kapitel... Erkennen, wie Differentialgleichungen erster Ordnung aussehen en für Differentialgleichungen erster Ordnung und ohne -Terme finden Die

Mehr

Hauptprüfung Abiturprüfung 2015 (ohne CAS) Baden-Württemberg

Hauptprüfung Abiturprüfung 2015 (ohne CAS) Baden-Württemberg Hauptprüfung Abiturprüfung 205 (ohne CAS) Baden-Württemberg Wahlteil Analysis Hilfsmittel: GTR und Formelsammlung allgemeinbildende Gymnasien Alexander Schwarz www.mathe-aufgaben.com März 205 Aufgabe A

Mehr

Universität Bonn, Institut für Angewandte Mathematik. WS 2012/2013 Prüfung Angewandte Mathematik und Statistik - Agrarwiss. /ELW

Universität Bonn, Institut für Angewandte Mathematik. WS 2012/2013 Prüfung Angewandte Mathematik und Statistik - Agrarwiss. /ELW Universität Bonn, Institut für Angewandte Mathematik Dr. Antje Kiesel WS 2012/2013 Prüfung Angewandte Mathematik und Statistik - Agrarwiss. /ELW 08.03.2013 Matrikelnummer Platz Name Vorname 1 2 3 4 5 6

Mehr

2 Darstellung von Zahlen und Zeichen

2 Darstellung von Zahlen und Zeichen 2.1 Analoge und digitale Darstellung von Werten 79 2 Darstellung von Zahlen und Zeichen Computer- bzw. Prozessorsysteme führen Transformationen durch, die Eingaben X auf Ausgaben Y abbilden, d.h. Y = f

Mehr

Erstellen einer GoTalk-Auflage

Erstellen einer GoTalk-Auflage Erstellen einer GoTalk-Auflage 1. Bei dem Startbild Vorlage öffnen wählen 2. In dem folgenden Fenster Geräte Schablonen doppelt anklicken. - und schon öffnet sich der gesamte Katalog der verfügbaren Talker-Auflagen...eigentlich

Mehr