Andreas Platen

Ähnliche Dokumente
Geometrisch ergibt sich deren Graph als Schnitt von G mit der senkrechten Ebene y = b bzw. x = a:

Geometrische Mehrgitterverfahren. Annabell Schlüter

Musterlösung zu Übungsblatt 1

Numerische Simulation von Differential-Gleichungen der Himmelsmechanik

Über Formen des konvektiven Terms in Finite-Elemente-Diskretisierungen der inkompressiblen Navier-Stokes-Gleichungen

6. Die Exponentialfunktionen (und Logarithmen).

Mathematik 1 für Studierende der Biologie Teil II: Limes & Konvergenz

Das Mehrgitterverfahren

122 KAPITEL 7. POTENZREIHEN

2 Ein Beispiel und der Haken an der Sache

3.2 Polarkoordinaten und exponentielle Darstellung

Linear. Halbkreis. Parabel

Teil 1. 2 Gleichungen mit 2 Unbekannten mit Textaufgaben. und 3 Gleichungen mit 2 Unbekannten. Datei Nr Friedrich Buckel. Stand 11.

Skulptur. 0,25 m. 1,65 m 1,7 m Sockel. 0,6 m 0,6 m 10 m. Aufgabe 1: Die Skulptur

ANALYSIS Differenzialrechnung Kapitel 1 5

Á 4. Differenzierbarkeit, Stetigkeit

3.2 Spline Interpolation

Numerische Simulation in der Luft- und Raumfahrttechnik

Einstiegsphase Analysis (Jg. 11)

7.2. Ableitungen und lineare Approximation

Übungsaufgaben zu Analysis 2 Lösungen von Blatt V vom f(x, y) = 2(x + y) + xy + 3x 2, g(x, y) = xy + e xy.

Was haben Beschleunigungs-Apps mit der Quadratur des Kreises zu tun?

Rudolphs Schlitten. Aufgabe. Autor: Jochen Ricker

Das Delta-Potential. Gruppe PLANCK. Anton Hörl Thomas Kloiber Bernd Kollmann Miriam Mutici Jakob Schwarz. Quantenmechanik Projekt 2

Charaktere. 1 Wiederholung. 2 Charaktere verschiedener Darstellungen. 1.1 Zerlegung von Darstellungen. 1.2 Schursches Lemma

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

Übungsaufgaben zur Kursarbeit

Finite Elemente I 2. 1 Variationstheorie

4.1 Motivation von Variationsmethoden Variationsmethoden im Sobolevraum Motivation von Variationsmethoden

Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester

Manfred Burghardt. Allgemeine Hochschulreife und Fachhochschulreife in den Bereichen Erziehung, Gesundheit und Soziales

Übersicht. Einführung Universelles Hashing Perfektes Hashing

Tangentensteigung. Gegeben ist die Funktion f(x) = x 2.

Produktregel (Ableitung von f g)

Extremwerte von Funktionen mehrerer reeller Variabler

Folgerungen aus dem Auflösungsatz

RWTH Aachen, Lehrstuhl für Informatik IX Kapitel 3: Suchen in Mengen - Datenstrukturen und Algorithmen - 51

Zentrale schriftliche Abiturprüfungen im Fach Mathematik

5 Interpolation und Approximation

Differentialrechnung

4 Fehlerabschätzungen und Konvergenz der FEM

4 Fehlerabschätzungen und Konvergenz der FEM

30 Metriken und Normen

Technische Universität München Zentrum Mathematik. Übungsblatt 12

Funktionen mehrerer Variabler

Teil I. Lineare Optimierung

9 Anhang. 9.1 Verhältnisgleichungen. 9.2 Strahlensätze. Elemente der Geometrie 22

Differenzieren kurz und bündig

Analysis: Klausur Analysis

Rückblick auf die letzte Vorlesung. Bemerkung

Iterative Verfahren, Splittingmethoden

5.10. Mehrdimensionale Extrema und Sattelpunkte

Mathematische Grundlagen der Ökonomie Übungsblatt 13

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren Thomas Brox, Fabian Kuhn

Musterlösung. TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Klausur Mathematik für Physiker 3 (Analysis 2) I... II...

Klausur zu Analysis II - Lösungen

Physik I Übung 7, Teil 2 - Lösungshinweise

Kurze Einführung in die Finite-Elemente-Methode

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Diagramm 1 Diagramm 2

Einführung in die Differentialrechnung

PACKAGING DESIGN LIMBIC SCHMIDT SPIELE KNIFFEL MASTER

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen

18.4 Das Newton-Verfahren

Lösungen zu Übungsblatt 9

Kraft F in N Dehnung s in m

Höhere Mathematik II für die Fachrichtung Informatik. Lösungsvorschläge zum 3. Übungsblatt

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.

ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS

Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Numerik partieller Differenzialgleichungen

Optimale Steuerung, Prof.Dr. L. Blank 1. II Linear-quadratische elliptische Steuerungsprobleme

Mathematische Behandlung der Natur- und Wirtschaftswissenschaften I. f(x) := e x + x.

Der CG-Algorithmus (Zusammenfassung)

Numerische und stochastische Grundlagen der Informatik

1.6 Implizite Funktionen

Optimalitätskriterien

Mathematik I. J. Hellmich

Thema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen

18 Höhere Ableitungen und Taylorformel

4 Differentialrechnung in einer Variablen

Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II. x 2

Binäre Suchbäume. 6. Binäre Suchbäume. Einfügen in binären Suchbäumen

Elemente der Analysis II

5 Stetigkeit und Differenzierbarkeit

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge

e-funktion und natürlicher Logarithmus

Mathematik 1 für Wirtschaftsinformatik

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

3 Optimierung mehrdimensionaler Funktionen f : R n R

Mathematik 3 für Informatik

3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z

Kapitel 3. Konvergenz von Folgen und Reihen

Heute schon gepoppt?

ε δ Definition der Stetigkeit.

17. Penalty- und Barriere-Methoden

Übungen zum Mathematik-Abitur. Geometrie 1

Mathematik für Wirtschaftswissenschaftler II (Analysis) 2. Klausur Sommersemester

Transkript:

Seminar zur Approximationsteorie im Wintersemester 2009/2010 Monge-Ampère-Gleicung Numerisce Verfaren zur Lösung der Monge-Ampère-Gleicung, Teil II Andreas Platen 29.01.2010 1

Inaltsverzeicnis Inaltsverzeicnis 1 Einleitung 3 2 Monge-Ampère-Gleicung 3 3 Dritte Metode: Erweiterte Lagrange-Metode 4 3.1 Einfürung der erweiterten Lagrange-Metode............... 4 3.1.1 Lagrange-Funktion........................... 5 3.1.2 Strafterm-Metode........................... 8 3.1.3 Erweiterte Lagrange-Funktion..................... 10 3.2 Sattelpunktproblem.............................. 10 3.2.1 Sattelpunkt-Formulierung der Monge-Ampère-Gleicung...... 11 3.2.2 Lösungsverfaren für das Sattelpunktproblem............ 14 3.2.3 Konvergenz des Algoritmus..................... 15 3.2.4 Lösen von Teilproblem (21)...................... 15 3.2.5 Lösen von Teilproblem (22)...................... 15 3.3 Finite-Elemente-Approximation........................ 18 3.3.1 Finite-Elemente-Metode....................... 18 3.3.2 Gemiscte Finite-Elemente-Approximation von (1)......... 20 3.3.3 Iteratives Lösen von Problem (36).................. 22 3.3.4 Lösen von Teilproblem (39)...................... 23 3.3.5 Lösen von Teilproblem (40)...................... 26 4 Numerisce Experimente 26 4.1 Beispiele..................................... 26 4.2 Vergleic..................................... 30 5 Ausblick 30 2

1 Einleitung In dieser Ausarbeitung get es um numerisce Verfaren zur Lösung der Monge-Ampère- Gleicung mit Diriclet-Randbedingung im Zweidimensionalen. Es wird dabei direkt an Yasemin Hafizogullaris Ausarbeitung [16] angeknüpft. Dort wurden bereits in Kapitel 1 und 2 die Grundlagen geklärt und in Kapitel 3 und 4 zwei versciedene numerisce Verfaren vorgestellt. Das erste dieser beiden Verfaren ist ein Finite-Differenzen-Verfaren und beim zweiten Verfaren wurde das Lösen der nictlinearen Monge-Ampère-Gleicung auf ein iteratives Lösen von Poisson-Gleicungen, welce linear sind, reduziert. Beide Verfaren stammen von Benamou, Froese und Oberman [1]. In dieser Ausarbeitung wird das von Dean und Glowinski [5, 6, 7] vorgesclagene Verfaren vorgestellt. Sie formulierten das Diriclet-Problem der Monge-Ampère-Gleicung mit Hilfe eines erweiterten Lagrange-Funktionals in ein Sattelpunktproblem um, welces anscließend mit einem Uzawa-Douglas-Racford-Algoritmus gelöst werden kann. Für eine Implementierung wälen sie zur Diskretisierung der Problemstellung eine gemiscte Finite-Elemente-Metode. In Kapitel 2 wird zunäcst noc einmal die Problemstellung wiederolt. Anscließend folgt in Kapitel 3 die Vorstellung des Verfarens von Dean und Glowinski [5, 6, 7]. Im letzten Kapitel werden dann alle drei numeriscen Verfaren, das eißt die beiden Verfaren von Benamou, Froese und Oberman [1] und das ier vorgestellte, miteinander verglicen. 2 Monge-Ampère-Gleicung Sei R 2 ein Gebiet mit Rand. Die Monge-Ampère-Gleicung im Zweidimensionalen mit Diriclet-Randbedingung ist durc det D 2 u = u xx u yy u 2 xy = f in, u = v auf definiert, wobei D 2 u die Hessematrix von u : R bezeicne und v C 0 ( ) und f > 0 gegebene Funktionen seien. Bemerkung 1. (Zusammenang zwiscen Monge-Ampère- und Poisson-Gleicung) Das Poisson-Diriclet-Problem auf lautet u = Spur D 2 u = f in, u = v auf. Seien λ +, λ : R mit λ + λ die beiden Eigenwerte der Hessematrix D 2 u : R 2 2 in den entsprecenden Punkten aus. Für das Diriclet-Problem der Monge- } } (1) (2) 3

3 Dritte Metode: Erweiterte Lagrange-Metode Ampère-Gleicung (1) kann man nun auc und für die Poisson-Gleicung λ + λ = f in, u = v auf } (λ + + λ ) = f in, u = v auf } (3) (4) screiben. Da die Monge-Ampère-Gleicung mit f > 0 betractet wird, aben die Eigenwerte das gleice Vorzeicen. Damit zeigt die Monge-Ampère-Gleicung (3) eine Verbindung zum geometriscen und die Poisson-Gleicung (4) zum aritmetiscen Mittel der Eigenwerte der Hessematrix D 2 u. Im folgenden Abscnitt wird sic zeigen, dass man mit geeigneten iterativen Metoden und gemiscten Finite-Elemente-Verfaren das Diriclet-Problem der Monge-Ampère- Gleicung (1) auf das Lösen einer Folge von diskreten Varianten des Poisson-Diriclet- Problems (2) und (4) reduzieren kann. 3 Dritte Metode: Erweiterte Lagrange-Metode Die in diesem Abscnitt vorgestellte Metode zur Lösung der Monge-Ampère-Gleicung mit Diriclet-Randbedingung (1) stammt von Dean und Glowinski [5, 6, 7]. Zunäcst wird zu dem Problem (1) ein Sattelpunktproblem formuliert, wobei dies mit Hilfe eines erweiterten Lagrange-Funktionals gesciet. Aus diesem Grund wird zunäcst die erweiterte Lagrange-Funktion in Abscnitt 3.1 in seiner ursprünglicen Form eingefürt. Danac folgt in Abscnitt 3.2 die Formulierung des Sattelpunktproblems für (1) und ein Algoritmus, mit dem man dieses Lösen kann. Der Abscnitt 3.3 befasst sic scließlic mit einer Diskretisierung der Problemstellung und der Lösungsmetode aus Abscnitt 3.2, um dieses Verfaren auf einem Recner umsetzen zu können. 3.1 Einfürung der erweiterten Lagrange-Metode Die folgende Motivation der erweiterten Lagrange-Metode stammt von Hestenes [17], Abscnitt 2 und 3. Powell [20] veröffentlicte im gleicen Jar ebenfalls einen Artikel über diese Metode, wobei dort mer auf eine Metode zur Lösung eines Minimierungsproblems mit Nebenbedingung mit Hilfe der erweiterten Lagrange-Metode und um Konvergenzaussagen als auf eine Herleitung eingegangen wird. 4

3.1 Einfürung der erweiterten Lagrange-Metode Sei zu gegebenen n N und Funktionen J, g C 2 (R n ) das folgende Minimierungsproblem gegeben: Finde x R n, mit J( x) = min {x R n : g(x)=0} J(x) (5) unter der Nebenbedingung g( x) = 0. Die Funktion g kann auc vektorwertig sein, wobei man dies dann als merere Nebenbedingungen auffassen kann. Im folgenden wird jedoc der Einfaceit alber lediglic eine einzelne Nebenbedingung verwendet. Mit Hilfe der erweiterten Lagrange-Funktion kann man das Problem (5) in eine Problemstellung one Nebenbedingung umscreiben. Um dies zu motivieren, werden in Abscnitt 3.1.1 und 3.1.2 zwei weitere Verfaren vorgestellt, welce scließlic gemeinsam die Metode mit der erweiterten Lagrange-Funktion liefern, siee dazu Abscnitt 3.1.3. 3.1.1 Lagrange-Funktion Das Ziel ist es, die Problemstellung (5) mit der geforderten Nebenbedingung g( x) = 0 zu lösen. Bei Minimierungsproblemen one Nebenbedingung kann auf bekannte Verfaren, wie dem Newton-Verfaren, siee zum Beispiel [8], Abscnitt 5.5, zurückgegriffen werden. Die Lagrange-Funktion ist dabei eine Möglickeit von versciedenen, vergleice dazu zum Beispiel den näcsten Unterabscnitt, die Nebenbedingung g(x) = 0 von (5) mit der Funktion J als neue Funktion L zu verknüpfen und eine zugeörige Problemstellung aufzustellen. Dieses neue Problem soll dabei keine Nebenbedingung mer entalten und die Funktion L so gewält werden, dass die ursprünglice Nebenbedingung g(x) = 0 automatisc durc das Lösen des neuen Problems erfüllt wird. Als erstes folgt ein Hilfssatz, der als Motivation für die Lagrange-Funktion dient. Satz 1. (Lagrange-Multiplikator, vergleice [21], Proposition 1.19) Seien n N, J, g C 2 (R n ) und x R n eine Lösung von (5). Falls g( x) 0 gilt, dann existiert ein Lagrange-Multiplikator λ R, so dass für gilt, dass L wird auc Lagrange-Funktion des Problems (5) genannt. L(x, λ) := J(x) + λg(x) (6) L( x, λ) = 0. (7) Beweis. Da g( x) 0 ist, existiert ein 0 R n, so dass c := ( g( x)) T 0 gilt. Definiere zu einem beliebigen aber festen y R n die Funktionen Φ(ε, t) := J( x + εy + t) Γ(ε, t) := g( x + εy + t). und 5

3 Dritte Metode: Erweiterte Lagrange-Metode Es gilt Γ(0, 0) = g( x) = 0 und Γ t (0, 0) = ( g( x)) T = c 0. Mit dem Satz über implizite Funktionen folgt, dass ein 0 < ε 0 R und eine Funktion τ = τ(ε) C 1 (( ε 0, ε 0 )) mit τ(0) = 0 existieren, so dass Γ(ε, τ(ε)) = 0 für alle ε ( ε 0, ε 0 ) gilt. Differentiation nac ε liefert 0 = d Γ(ε, τ(ε)) = Γ ε (0, 0) + Γ t (0, 0)τ ε (0) = ( g( x)) T y + cτ ε (0) dε ε=0 und damit τ ε (0) = 1 c ( g( x))t y, da c 0 ist. Nac Voraussetzung ist x ein Minimum von J unter der Nebenbedingung g(x) = 0. Da sämtlice x + εy + τ(ε) für ε ( ε 0, ε 0 ) die Nebenbedingung erfüllen und τ sowie J und g stetig differenzierbar sind, gilt Φ(0, 0) Φ(ε, τ(ε)) für alle ε ( ε 0, ε 0 ) und damit 0 = d Φ(ε, τ(ε)) = Φ ε (0, 0) + Φ t (0, 0)τ ε (0) dε ε=0 [ = ( J( x)) T y + 1 ] c ( J( x))t ( g( x)) T y. (8) }{{} =:λ Der Wert λ = ( J( x))t ist unabängig von y, so dass (8) für alle Rictungsableitungen ( g( x)) T in den x-koordinaten von L(x, λ) = J(x) + λg(x) gilt. Nac Voraussetzung gilt bereits L λ ( x, λ) = g( x) = 0, woraus scließlic L( x, λ) = 0 folgt. Bemerkung 2. In Satz 1 kann λ := ( J( x))t g( x) g( x) 2 gewält werden, da im Beweis := g( x) die Bedingung ( g( x)) T 0 erfüllt. Satz 1 bietet jedoc nur eine notwendige Bedingung an die Lösung von (5), da für ein Maximierungsproblem wie (5), wobei lediglic das min durc max ersetzt wird, Satz 1 völlig analog bewiesen werden kann. Das eißt also, falls ( x, λ) R n R Gleicung (7) erfüllt, dann kann dies eine Lösung von (5) sein, aber auc vom analogen Maximierungsproblem. Eine Möglickeit, um an eine inreicende Bedingung zu gelangen, ist das Aufstellen eines Sattelpunktproblems. Dazu folgt zunäcst die Definition eines Sattelpunktes, welce speziell an diese Situation angepasst ist. 6

3.1 Einfürung der erweiterten Lagrange-Metode Definition 1. (Sattelpunkt, vergleice [9], Teil Eins, Kapitel 3, Definition 3.2) Seien m, n N und die Funktion L : R n R m R gegeben. Ein Punkt ( x, λ) R n R m mit der Eigenscaft wird Sattelpunkt von L genannt. L( x, λ) L( x, λ) L(x, λ) für alle (x, λ) R n R m (9) Nun folgt das Resultat, welces eine Problemstellung one Nebenbedingung liefert, dessen Lösung das Minimierungsproblem (5) löst. Satz 2. (vergleice [9], Teil Eins, Kapitel 3, Proposition 3.1) Sei das Minimierungsproblem (5) gegeben. Dann gilt für jeden Sattelpunkt ( x, λ) R n R von dass x eine Lösung von (5) ist. Beweis. Sei ( x, λ) ein Sattelpunkt von L. Dann gilt L(x, λ) := J(x) + λg(x), (10) L( x, λ) L( x, λ) für alle λ R λg( x) λg( x) für alle λ R g( x) = 0. Die zweite Ungleicung des Sattelpunkts liefert unter Berücksictigung von g( x) = 0, dass L( x, λ) L(x, λ) für alle x R n J( x) J(x) + λg(x) für alle x R n Insbesondere folgt dann J( x) J(x) für alle x R n mit g(x) = 0, so dass x scließlic eine Lösung von (5) ist. Satz 2 zeigt also, dass man anstelle einer Minimierung unter einer Nebenbedingung auc versucen kann ein geeignetes Sattelpunktproblem one Nebenbedingung zu lösen. Für die Rückrictung, das eißt für den Nacweis der Existenz eines λ R, so dass für eine Lösung x von (5) der Punkt ( x, λ) ein Sattelpunkt von (10) ist, verlangt jedoc einige Voraussetzungen, vergleice dazu zum Beispiel [9], Teil Eins, Kapitel 3, Proposition 3.1. Sei nun speziell das Problem (5) mit der symmetrisc positiv definiten Matrix A R n n, den Vektoren b, c R n und den Funktionen J(x) := 1 2 xt Ax b T x, g(x) := c T x 7

3 Dritte Metode: Erweiterte Lagrange-Metode gegeben. Das zugeörige Sattelpunktproblem aus Satz 2 kann dann beispielsweise mit dem sogenannten Uzawa-Algoritmus, vergleice [10], Gleicungen (2.1) bis (2.3) für r = 0, und [2], Kapitel 4, 5, berecnet werden. Es andelt sic dabei um ein iteratives Verfaren zur Lösung solcer Sattelpunktprobleme, welces von besonderem Interesse ist, da Dean und Glowinski eine Abwandlung dieses Algoritmus für das Lösen der Monge-Ampère-Gleicung verwenden. Es zeigt sic jedoc, dass man die Konvergenz- Eigenscaften verbessern kann, indem man die Lagrange-Funktion durc einen weiteren Term ergänzt. Um diese Ergänzung zu motivieren, wird zunäcst noc eine weitere Metode zur Lösung von (5) eingefürt. 3.1.2 Strafterm-Metode Neben der Umformulierung von (5) in ein Sattelpunktproblem der Lagrange-Funktion aus Satz 2, ist es möglic, die Nebenbedingung als sogenannten Strafterm zur Minimierungsbedingung zu addieren. Man wält dazu einen Parameter r > 0 und minimiert nun L r (x) := J(x) + r 2 g2 (x). (11) Auf diese Weise entstet wieder ein Optimierungsproblem one Nebenbedingung. Der Unterscied von (11) zur Lagrange-Funktion (10) ist, dass der Zusatzterm nun nict negativ werden kann, so dass ier tatsäclic wieder wie in der ursprünglicen Problemstellung eine Minimierungsaufgabe zu lösen ist. Bemerkung 3. Die Funktion g 2 in (11) ist der sogenannte quadratisce Strafterm. Man kann auc eine beliebige Funktion g C 1 (R) nemen, so dass g g 0 auf ganz R n und g(g(x)) = 0 g(x) = 0 gilt. Die Ableitung ist dann gerade durc ( g g)(x) = g (g(x)) g(x) gegeben. Speziell die Funktion g(g(x)) := g 2 (x) liefert damit eine ser einfac zu bestimmende Ableitung, wesalb diese äufig in der Literatur und auc in dieser Ausarbeitung verwendet wird. Es zeigt sic aber, dass Lösungen von (11), das eißt Minimierer, für beliebiges r > 0 im Allgemeinen keine Lösung von (5) sind. Um dies zu zeigen, folgt ein kleines Gegenbeispiel. Beispiel 1. (Lösung von (11) ist im Allgemeinen keine Lösung von (5)) Seien J(x) := x 2, g(x) := x 1 und r = 2. Dann ist x = 1 die einzige Lösung von (5), da es als einziges die Bedingung g(x) = 0 erfüllt. Aber es gilt ( L r (x) = x 2 + (x 1) 2 = 2x 2 2x + 1 = 2 x 1 ) 2 1 + 2 2 8

3.1 Einfürung der erweiterten Lagrange-Metode mit Minimum an der Stelle 1 2 und damit ( 1 ) L r = 1 2 2 < 1 = L r( x), ( 1 g = 2) 1 2 0. Das bedeutet, dass das Minimum von L r die Nebenbedingung g(x) = 0 nict erfüllt und damit keine Lösung von (5) sein kann. Mit Hilfe der Funktion L r aus (11) kann man jedoc trotzdem an die Lösung von (5) gelangen: Seien für r > 0 der Punkt x r R n ein Minimierer von L r und x eine Lösung von (5). Dann gilt L r (x r ) = J(x r ) + r 2 g2 (x r ) L r ( x) = J( x) + r 2 g2 ( x) = J( x) (12) }{{} =0 für alle r > 0. Auf der linken Seite der Ungleicung muss g 2 (x r ) jedoc nict Null sein, da J(x r ) < J( x) gelten und damit die Ungleicung weiterin gültig sein kann, siee Beispiel 1. Um mit Hilfe von L r an x zu gelangen, kann der Grenzwert für r gegen betractet werden, falls g(x r ) 0 für alle r > 0 ist. Der Grund dafür ist folgender: In (12) ängt die recte Seite nict mer von r ab, woraus scließlic [ lim L r(x r ) = lim J(x r ) + r ] r r 2 g2 (x r ) J( x) < (13) folgt. Dann muss lim r g2 (x r ) = 0 r gelten, da sonst lim r 2 g2 (x r ) = und damit lim r J(x r ) + r 2 g2 (x r ) = gilt, was ein Widerspruc zu (13) ist. Falls nun lim r x r existiert, setze ˆx := lim r x r. Da g und J stetig sind, minimiert ˆx R n die Funktion J mit Nebenbedingung g(ˆx) = 0 und ist damit eine Lösung von (5). Es muss jedoc nict x = ˆx gelten, es sei denn die Lösung von (5) ist eindeutig. Beim Ausfüren einer solcen Metode auf einem Recner treten jedoc für ser große r aufgrund der Mascinengenauigkeit starke Rundungsfeler im Term r 2 g2 auf. Dadurc lässt sic nur ein ser ungenaues Ergebnis der x r für große r und scließlic auc für x erwarten. Bemerkung 4. (Verbindung zum Lagrange-Multiplikator) Da x r jeweils ein Minimum von L r one Nebenbedingung und L r stetig differenzierbar ist, gilt 0 = L r (x r ) = J(x r ) + rg(x r ) g(x r ). Wenn nun g( x) 0 ist, dann konvergiert λ r := rg(x r ) gegen einen Lagrange-Multiplikator λ aus Satz 1, da dann die geforderte Eigenscaft in (7) erfüllt sind. 9

3 Dritte Metode: Erweiterte Lagrange-Metode 3.1.3 Erweiterte Lagrange-Funktion Die ursprünglice Motivation, die zur sogenannten erweiterten Lagrange-Funktion gefürt at, war es, eine Metode zur Lösung von (5) zu entwickeln, die das Problem der einfac anzuwendenden Strafterm-Metode für große r beseitigt. Hestenes [17] und Powell [20] verfolgten dabei den gleicen Ansatz und erielten als erstes das folgende Resultat: Satz 3. (erweiterte Lagrange-Funktion, siee [17], Teorem 2.1) Sei x R n eine Lösung von (5). Dann existiert ein Multiplikator λ R und eine Konstante r > 0, so dass x zusätzlic ein Minimum von L r (x) = J(x) + λg(x) + 1 2 r(g(x))2 (14) ist. Umgekert gilt, dass jedes Minimum x von L r mit g( x) = 0 eine Lösung von (5) ist. L r ist die erweiterte Lagrange-Funktion zum Problem (5). Man siet, dass dies eine Miscung aus Strafterm und Lagrange-Funktion ist, vergleice (6) und (11). Bemerkung 5. Betractet man die Funktion L r (x, λ) := J(x) + λg(x) + 1 2 r(g(x))2, (15) dann gilt Satz 2 völlig analog mit der Funktion L r anstelle von L in (10), da der Zusatzterm 1 2 r(g(x))2 unabängig von λ ist und im Sattelpunkt ( x, λ), wobei x gleiczeitig Problem (5) löst, verscwindet und damit an dieser Stelle sein Minimum annimmt. Auf den ersten Blick at die erweiterte Lagrange-Funktion ser änlice Eigenscaften zur Lagrange-Funktion und es ist daer nict klar, aus welcem Grund man diese neue Funktion wälen sollte. Jedoc beziet sic der in Abscnitt 3.1.1 erwänte Uzawa- Algoritmus in [10], Gleicungen (2.1) bis (2.3), gerade auf L r und damit auc auf L 0 = L. Es zeigt sic, dass sic die Konvergenz-Eigenscaften des Uzawa-Algoritmus für r > 0 verbessern, siee dazu [10], Abscnitt 2.3. Aufgrund dieser Verbesserung, wird im späteren Verlauf eine erweiterte Lagrange-Funktion mit zugeörigem Sattelpunktproblem verwendet. 3.2 Sattelpunktproblem Es wird nun in Abscnitt 3.2.1 ein Sattelpunktproblem für das Diriclet-Problem der Monge-Ampère-Gleicung (1) aufgestellt. Zur Lösung dieser neuen Problemstellung wird in Abscnitt 3.2.2 ein Lösungsverfaren vorgestellt, wobei dort das Lösen zweier Teilprobleme gefordert wird, womit sic Abscnitt 3.2.4 und 3.2.5 befassen. Zur Konvergenz des Verfarens folgen in Abscnitt 3.2.3 einige Bemerkungen. 10

3.2 Sattelpunktproblem 3.2.1 Sattelpunkt-Formulierung der Monge-Ampère-Gleicung Es werden nun starke Lösungen des Diriclet-Problems der Monge-Ampère-Gleicung (1) betractet, das eißt die Lösungen u sind in H 2 (). Um einen Überblick über die im Verlaufe dieses Abscnittes benötigten Mengen zu eralten, werden diese bereits zu Beginn durc Q := { q (L 2 ()) 2 2 : q = (q ij ) 1 i,j 2, q 21 = q 12 }, Q f := { q Q : det q = f fast überall in }, V v := { u : R : u H 2 (), u = v auf }, E f,v := { u V v : det D 2 u = f fast überall in }, E f,v := { {u, q} V v Q f : q = D 2 u fast überall in } (16) definiert, wobei D 2 u im Sinne der scwacen Ableitungen zu versteen ist. Bemerkung 6. a) Wenn v H 3 2 ( ) ist, dann ist der Raum V v nict leer. b) Falls f L 1 (), dann ist Q f. Beweis. a) Diese Aussage folgt aus der Umkerung des Spursatzes für Sobolev-Räume, siee [19], Teorem 4.2.4. b) Wält man zu f L 1 () eine Funktion q : R 2 2 mit { f(x), falls f(x) 0, q 1,1 (x) := q 2,2 (x) := 0, falls f(x) < 0 und q 1,2 (x) := q 2,1 (x) := { 0, falls f(x) 0, f(x), falls f(x) < 0, dann folgt für i, j {1, 2}, dass q i,j 2 L 2 () = q i,j (x) 2 dx f(x) dx f L1 () < und damit q Q ist. Zudem gilt { } f(x), falls f(x) 0, det q(x) = = f(x) f(x), falls f(x) < 0 für alle x und damit q Q f, das eißt Q f. 11

3 Dritte Metode: Erweiterte Lagrange-Metode Sei nun E fv, das eißt (1) at Lösungen in V v, wobei an dieser Stelle keine Aussage über die Eindeutigkeit der Lösung gemact wird. Es mact also Sinn, folgendes Problem aus der Variationsrecnung zu betracten: Finde ũ E f,v, mit J(ũ) J(u) (17) für alle u E f,v, wobei J(u) := 1 2 u 2 dx = 1 2 u 2 L 2 (). Es wird dabei der Laplace-Operator gewält, da dies später auf das iterative Lösen von Poisson-Gleicungen fürt, welce lineare partielle Differentialgleicungen sind und damit im Vergleic zur Monge-Ampère-Gleicung leicter zu lösen sind. Die folgenden Ideen wurde unter anderem durc Fortin und Glowinski [11], eine Anwendung zusammen mit Marrocco [12] und Glowinski [13], Kapitel 6, motiviert. Das Problem (17) wird zunäcst umgescrieben, so dass man in einem weiteren Scritt die Nebenbedingung det D 2 u = f von u trennen kann. Aus (17) wird dann mit q = D 2 ũ und q = D 2 u die äquivalente Problemstellung: wobei Finde {ũ, q} E f,v, mit j(ũ, q) j(u, q) für alle {u, q} E f,v, j(u, q) := J(u) = 1 2 u 2 dx. Ziel ist es nun, das Variationsproblem (18), welces die Nebenbedingung D 2 u q = 0 fast überall in beinaltet, zu lösen. Dazu wird mit Hilfe des erweiterten Lagrange-Funktionals, änlic wie in (15), die Nebenbedingung in das zu minimierende Funktional gescrieben und der Lagrange-Multiplikator variabel gealten, so dass man wieder ein Sattelpunktproblem aufstellen kann, um die Idee von Satz 2 auszunutzen. Zu einem positiven Parameter r und {{u, q}, µ} (V v Q f ) Q sei das erweiterte Lagrange-Funktional durc L r (u, q; µ) := 1 u 2 dx + r D 2 u q 2 F dx + µ : (D 2 u q) dx (19) 2 2 mit µ : q = 2 i,j=1 µ ijq ij und der Frobeniusnorm D 2 u 2 F = 2 i,j=1 u x i x j 2 definiert. Der Term D 2 u q kann dabei als Störung von D 2 u aufgefasst werden, da für die Lösung von (18) gerade D 2 u = q gelten soll. Es wird also die gestörte Hessematrix von u betractet, (18) 12

3.2 Sattelpunktproblem welces ein typiscer Ansatz in der konvexen Analysis und der Variationsrecnung zur Lösung von Minimierungsproblemen ist, vergleice dazu zum Beispiel [9], Teil Eins, Kapitel 3, Abscnitt 1 3. Folgendes Resultat sagt aus, dass ein Sattelpunkt des erweiterten Lagrange-Funktionals eine gesucte Lösung ist, vergleice dazu auc Satz 2. Satz 4. (Sattelpunktproblem, vergleice [11], Teorem 2.1) Seien L r wie in (19), die Mengen V v, Q f und Q wie in (16) definiert und folgendes Sattelpunktproblem gegeben: Finde {{ũ, q}, µ} (V v Q f ) Q, mit L r (ũ, q; µ) L r (ũ, q; µ) L r (u, q; µ) (20) für alle {{u, q}, µ} (V v Q f ) Q. Falls {{ũ, q}, µ} eine Lösung von (20) ist, das eißt {{ũ, q}, µ} ist ein Sattelpunkt von L r, dann löst {ũ, q} Problem (18) und scließlic ũ das Diriclet-Problem der Monge- Ampère-Gleicung (1). Beweis. Aus der ersten Ungleicung L r (ũ, q; µ) L r (ũ, q; µ) folgt sofort, dass µ : (D 2 ũ q) dx µ : (D 2 ũ q) dx für alle µ Q und damit 0 ( µ µ) : (D 2 ũ q) dx für alle µ Q. Sei S Q, so dass jeder Eintrag von S gerade das Vorzeicen des entsprecenden Eintrags von (D 2 ũ q) sei, das eißt S i,j = sgn(d 2 ũ q) i,j, für i, j {1, 2}. Setzt man µ = µ S Q, dann ergibt sic 2 0 (D 2 ũ q) i,j dx. i,j=1 } {{ } 0 Es muss also D 2 ũ = q fast überall in und damit {ũ, q} E f,v gelten. Die zweite Ungleicung L r (ũ, q; µ) L r (u, q; µ) liefert scließlic j(ũ, q) = 1 ũ 2 dx 1 u 2 dx = j(u, q) für alle {u, q} E f,v, 2 2 da die Zusatzterme wegen {ũ, q}, {u, q} E f,v, das eißt D 2 ũ = q und D 2 u = q fast überall in, verscwinden. Damit ist {ũ, q} E f,v eine Lösung von (18) und ũ löst dann nac Definition von E f,v das Diriclet-Problem der Monge-Ampère-Gleicung (1). Mit (20) ist also das Sattelpunktproblem gegeben, mit dem eine Lösung von (1) bestimmt werden soll. Im näcsten Abscnitt wird ein Algoritmus vorgestellt, um das Sattelpunktproblem (20) iterativ zu lösen. 13

3 Dritte Metode: Erweiterte Lagrange-Metode 3.2.2 Lösungsverfaren für das Sattelpunktproblem Für Sattelpunktprobleme von der Form (20) existieren bereits versciedene iterative Lösungsmetoden, vergleice dazu [11], Abscnitt 3, [13], Kapitel 6, Abscnitt 3, und [14], Algoritmus (4.20)-(4.23). Dean und Glowinski [5, 6], Abscnitt 3 respektive 4, wälten zur Lösung von (20) auf Grund seiner Einfaceit den sogenannten Algoritmus ALG2 aus der oben genannten Literatur. Es andelt sic dabei um einen Uzawa-Douglas- Racford-Algoritmus, welcer speziell an die Problemstellung (20) angepasst wurde, siee dazu Algoritmus 1. Algoritmus 1 Uzawa-Douglas-Racford-Algoritmus/ALG2 zur Lösung des Sattelpunktproblems (20), siee [6], Abscnitt 4.1 1: Wäle Startvektor {u ( 1), µ (0) } V v Q. 2: for n = 0 to n max do n max ist maximale Anzal an Iterationen 3: Löse Minimierungsproblem Finde q (n) Q f, mit L r (u (n 1), q (n) ; µ (n) ) L r (u (n 1), q; µ (n) ) für alle q Q f. (21) 4: Löse Minimierungsproblem Finde u (n) V v, mit L r (u (n), q (n) ; µ (n) ) L r (u, q (n) ; µ (n) ) für alle u V v. (22) 5: 6: end for 7: return {{u (nmax), q (nmax) }, µ (nmax) } µ (n+1) µ (n) + r(d 2 u (n) q (n) ) (23) Bemerkung 7. Dean und Glowinski [6], Remark 4.1, empfelen für den Algoritmus 1 als Startvektor µ (0) = 0 und u ( 1) definiert durc die Lösung des Poisson-Diriclet- Problems u ( 1) = f in, (24) u ( 1) = v auf. Dies kann dadurc motiviert werden, dass man der Einfaceit alber annimmt, dass in Bemerkung 1 die Eigenwerte der Hessematrix von u gleic seien, das eißt λ + = 14

3.2 Sattelpunktproblem λ =: λ gilt. Dann gilt für die Monge-Ampère-Gleicung gerade λ {± f} und damit 2λ = λ + +λ = u {±2 f}. Es mact also Sinn als recte Seite in (24) die Funktion 2 f zu wälen. Laut Dean und Glowinski [6], Remark 4.1, verbessert dies jedoc nict die Konvergenz des Algoritmus. Das Vorzeicen der Wurzel ängt davon ab, ob die Lösung konvex oder konkav sein soll. Dean und Glowinski experimentierten unter anderem auc mit Beispielen, die eine konkave Lösung verlangen, was das negative Vorzeicen erklärt. 3.2.3 Konvergenz des Algoritmus Angenommen man ersetzt in (21) die Menge Q f durc eine abgesclossene, konvexe und nictleere Teilmenge K von Q und die Wal von µ (n+1) in (23) durc µ (n+1) := µ (n) + ρ(d 2 u (n) q (n) ) mit 0 < ρ < r 1+ 5 2. Falls L r aus (19) ein Sattelpunkt in (V v K) Q besitzt, dann wurde von Fortin und Glowinski [11], Teorem 5.1, und Glowinski [13], Kapitel 6, Teorem 5.1, bewiesen, dass {{u (n), q (n) }, µ (n) } n N aus Algoritmus 1 in (V v K) Q gegen einen Sattelpunkt von L r konvergiert. Die Menge Q f Q ist jedoc nict konvex, da für zwei ungleice p, q Q f gilt, dass ( 1 det 2 p + 1 ) im Allgemeinen 2 q 1 2 det(p) + 1 det(q) = f, 2 woraus folgt, dass Q f im Allgemeinen nict konvex ist. Aufgrund der Erfarung mit nictlinearen Problemen der finiten Elastizität, auf denen Algoritmen wie Algoritmus 1 angewandt wurden, siee zum Beispiel [14], Kapitel 7, erwarten Dean und Glowinski [6], siee Abscnitt 4.2, für r > 0 auc ier die Konvergenz. 3.2.4 Lösen von Teilproblem (21) Die Idee zur Lösung von Teilproblem (21) ist es, nict das Integral zu minimieren, sondern den Integranden. Dies gesciet punktweise an endlic vielen Punkten in. Die Wal dieser Punkte ängt mit der Diskretisierung des Sattelpunktproblems (20) zusammen, was erst in Abscnitt 3.3 beandelt wird. Aus diesem Grund folgen die Details erst in Abscnitt 3.3.4. 3.2.5 Lösen von Teilproblem (22) Das Teilproblem (22) kann mit Mitteln der Variationsrecnung umgescrieben werden. Sei dazu u (n) V v eine Lösung von (22) und ϕ H 2 () H0 1 (). Sei weiter ε > 0. Nac 15

3 Dritte Metode: Erweiterte Lagrange-Metode Definition ist klar, dass u (n) + εϕ V v ist, da ϕ 0 ist. Weil u (n) eine Lösung von (22) ist, gilt L r (u (n), q (n) ; µ (n) ) L r (u (n) + εϕ, q (n) ; µ (n) ) für alle ϕ H 2 () H0 1 (), ε > 0. }{{} =:V 0 Sei Φ(ε) := L r (u (n) + εϕ, q (n) ; µ (n) ) [ 1 = 2 u(n) + ε ϕ 2 + r 2 D2 u (n) + εd 2 ϕ q (n) 2 F ] + µ (n) : (D 2 u (n) + εd 2 ϕ q (n) ) dx. Da nac Voraussetzung für ε = 0 ein Minimum vorliegt und Φ C 1 (R) ist, muss 0 = Φ (0) [ ] = u (n) ϕ + r(d 2 u (n) q (n) ) : D 2 ϕ + µ (n) : D 2 ϕ dx [ ] = u (n) ϕ + rd 2 u (n) : D 2 ϕ dx + (µ (n) rq (n) ) : D 2 ϕ dx } {{ } =: L n(ϕ) gelten, wobei das Funktional L n ( ) linear und stetig auf V 0 ist. Daer lautet die zu lösende Aufgabe: Finde u (n) V v, mit u(n) ϕ dx + r D2 u (n) : D 2 ϕ dx = L n (ϕ) (25) für alle ϕ V 0, Dieses Problem kann mit dem Algoritmus der konjugierten Gradienten gelöst werden, wobei auf den Räumen V v und V 0 mit dem Skalarprodukt (u, w) u w und zugeöriger induzierter Norm gearbeitet wird. Als Resultat erält man Algoritmus 2, was im folgenden noc erläutert wird. Das Verfaren der konjugierten Gradienten (CG-Verfaren) ist ursprünglic für das Lösen linearer Gleicungssysteme Ax = b zu gegebener symmetrisc positiv definiter Matrix A R n n, Vektor b R n und der gesucten Lösung x R n vorgeseen, siee dazu [18], Abscnitt 3. Das Ergebnis der Recenoperation Ax wird nun durc das Problem (27) bescrieben. Die recte Seite b entsprict dem Funktional L n ( ), so dass das Residuum Ax b durc Problem (26) ersetzt wird. Zu beacten ist nun, dass der Startvektor u n,0 bereits die Randbedingung u n,0 v erfüllen soll. Wenn man nun den Korrekturscritt (28) durcfürt, muss die Randbedingung weiterin erfüllt bleiben, das 16

3.2 Sattelpunktproblem Algoritmus 2 Algoritmus zum Lösen von Problem (25), siee [6], Abscnitt 4.4 1: Wäle Startvektor u n,0 V v. zum Beispiel u n,0 := u (n 1) 2: Löse das bi-armonisce Problem Finde g n,0 V 0, mit gn,0 ϕ dx = un,0 ϕ dx + r D2 u n,0 : D 2 ϕ dx L n (ϕ) für alle ϕ V 0. (26) 3: w n,0 g n,0. 4: for k = 0 to k max do k max ist maximale Iterationsanzal 5: Löse das bi-armonisce Problem Finde ḡ n,k V 0, mit ḡn,k ϕ dx = wn,k ϕ dx + r D2 w n,k : D 2 ϕ dx (27) für alle ϕ V 0. 6: Berecne vergleice CG-Verfaren, siee [18], Abscnitt 3 ρ n,k 2 dx ḡn,k w n,k dx, 7: if 8: gn,k+1 2 dx gn,0 2 dx ε ten u n,k+1 u n,k ρ n,k w n,k, (28) g n,k+1 g n,k ρ n,k ḡ n,k. u (n+1) u n,k+1, break. 9: else 10: γ n,k gn,k+1 2 dx gn,k 2 dx, w n,k+1 g n,k+1 + γ n,k w n,k. 11: end if 12: end for 13: return u (n+1) 17

3 Dritte Metode: Erweiterte Lagrange-Metode eißt die Randwerte von w müssen Null sein. Aus diesem Grund wird in Problem (26) und (27) im Raum V 0 anstelle von V v gesuct. Nac diesen Veränderung der ursprünglicen Problemstellung Ax = b entsprict Algoritmus 2 gerade dem Verfaren der konjugierten Gradienten, vergleice dazu [18], Gleicungen (3:1a) (3:1f). Um ein solcen Algoritmus implementieren zu können, bedarf es vor allem zum Lösen von (26) und (27) einer geeigneten Diskretisierung. Eine Möglickeit dazu wird im folgenden Abscnitt bescrieben. 3.3 Finite-Elemente-Approximation Laut Satz 4 kann das Sattelpunktproblem (20) anstelle der Monge-Ampère-Gleicung (1) mit der Diriclet-Randbedingung gelöst werden. Das Lösungsverfaren aus Abscnitt 3.2 zur Lösung dieses Sattelpunktproblems kann in dieser Form jedoc nict implementiert werden, da zum Beispiel im Algoritmus 2 der unendlic-dimensionale Funktionenraum H 2 () H0 1 () verwendet wird und Integrale berecnet werden müssen. Als geeignete Diskretisierung des Problems (1) verwenden Dean und Glowinski [6], Kapitel 5, eine Metode basierend auf einem Finite-Elemente-Verfaren. Daer werden in Abscnitt 3.3.1 zunäcst einige allgemeine Bemerkungen zur Finite-Elemente-Metode gemact. Anscließend folgt in Abscnitt 3.3.2 das diskretisierte Diriclet-Problem der Monge-Ampère-Gleicung (1) und daraufin in Abscnitt 3.3.3 nac dem Scema von Abscnitt 3.2.1 ein zugeöriges Sattelpunktproblem. Zusätzlic wird in Abscnitt 3.3.3 ein iteratives Lösungsverfaren vorgestellt, welces ein diskretisiertes Analogon zu dem in Abscnitt 3.2.2 darstellt. Am Ende müssen wieder, wie in Abscnitt 3.2.4 und 3.2.5, zwei Teilprobleme gelöst werden. Dies gesciet in Abscnitt 3.3.4 und 3.3.5. 3.3.1 Finite-Elemente-Metode In irer einfacsten Form ist die Finite-Elemente-Metode, zur Lösung eines Problems auf einem geeigneten unendlic-dimensionalen Funktionenraum V auf dem Gebiet R 2, durc die folgenden drei Grundaspekte carakterisiert, vergleice dazu [3], Einleitung von Kapitel 2 und Abscnitt 2.1, und [4], Abscnitt 12.4: a) Die abgesclossene Menge wird in endlic viele abgesclossene Teilmengen T i für i {1, 2,..., M}, wie zum Beispiel in Dreiecke, zerlegt. Sei Ti := diam(t i ) der Durcmesser der Teilmenge T i für i = 1,..., M. Dann bezeicnet man mit := max i {1,2,...,M} Ti die Menge T := {T 1, T 2,..., T M } als Triangulierung von. b) Es wird ein endlic-dimensionaler Finite-Elemente-Raum V V gewält, zum Beispiel V := {v C 0 ( ) : v K P k für alle K T }, wobei P k der Raum der Polynome in mereren Variablen vom Totalgrad kleiner oder gleic k sei. Anscließend kann die diskrete Problemstellung aufgestellt werden. Die Funktionen in V werden als Finite-Elemente bezeicnet. 18

3.3 Finite-Elemente-Approximation c) Es sollte eine Basis von V existieren, dessen Elemente einen möglicst kleinen Träger besitzen, um eine Lokalitätseigenscaft zu eralten. Das eißt, dass jedes Element aus V als endlic viele Koeffizienten aus R, welce eindeutig mit dem entsprecenden Basiselement identifiziert sind, aufgefasst werden kann. Eine Änderung oder Störung eines Koeffizienten wirkt sic dann nur auf den kleinen Träger des zugeörigen Basiselements aus, so dass die übrigen Bereice unverändert bleiben. Mit Hilfe dieser Basis kann dann ein entsprecendes diskretisiertes Lösungsverfaren entwickelt werden, welces scließlic implementiert werden kann. In der Literatur werden äufig Dreiecke für die Zerlegung von verwendet, da sic jedes polygonale Gebiet in Dreiecke zerlegen lässt und eine solce Zerlegung im Allgemeinen leicter zu bestimmen ist, als zum Beispiel die Zerlegung in Vierecke, falls dies möglic ist. Dean und Glowinski [5, 6, 7] wälten ebenfalls eine Zerlegung in Dreiecke. Dazu folgen nun zwei wictige Definitionen. Definition 2. (Zulässige und uniforme Triangulierung, siee [2], Kapitel 2, Definition 5.1) Sei R 2 ein Gebiet. a) Eine Triangulierung T = {T 1,..., T M } von in Dreiecke eißt zulässig, wenn folgende Eigenscaften erfüllt sind: (i) Es gilt = M i=1 T i. (ii) Bestet T i T j aus genau einem Punkt, so ist dieser ein Eckpunkt sowol von T i als auc von T j. (iii) Bestet T i T j für i j aus mer als einem Punkt, so ist T i T j eine Kante sowol von T i als auc von T j. b) Eine Familie von Zerlegungen {T } von eißt uniform, wenn es eine Zal κ > 0 gibt, so dass jedes Element T von T einen Kreis mit Radius R T κ entält. Ein Beispiel einer unzulässigen Triangulierung ist in Abbildung 1 (a) zu seen, da so die Bedingung (iii) in Definition 2 verletzt ist. Die Definition einer uniformen Familie von Triangulierungen ist unter anderem eine Art Winkelbedingung. Sie sagt aus, dass die Winkel der Dreiecke nict beliebig spitz werden dürfen, siee dazu Abbildung 1 (b), denn je spitzer ein Winkel im Dreieck, desto kleiner ist sein Innenkreisradius, welcer durc κ nac unten bescränkt ist. Ebenso wird die Größe bzw. der Durcmesser der Dreiecke von dem Dreieck mit dem größten Durcmesser nac unten bescränkt, da bei scrumpfendem Durcmesser der Innenkreisradius ebenfalls kleiner wird. 19

3 Dritte Metode: Erweiterte Lagrange-Metode (a) Hängender Knoten (b) Der Innenkreisradius ist bei gleicem Durcmesser abängig von den Winkeln. Abbildung 1: Unzulässige Triangulierung und Scaubild für uniforme Familie von Triangulierungen. 3.3.2 Gemiscte Finite-Elemente-Approximation von (1) Es wird nun eine gemiscte Finite-Elemente-Metode verwendet, vergleice dazu [3], Kapitel 7 und [15], Kapitel 4, Abscnitt 4.5, und Appendix 4, Abscnitt 3. Sei R 2 der Einfaceit alber wieder ein polygonales Gebiet, so dass es in Dreiecke zerlegt werden kann, und T eine zulässige Triangulierung von in Dreiecke. Der Raum der Polynome in zwei Variablen vom maximalen Totalgrad eins sei durc P 1 := {P : R 2 R, (x, y) a 1 x + a 2 y + a 3 : a 1, a 2, a 3 R} definiert. Von T ausgeend werden die Räume L 2 (), H 1 () und H 2 () durc den endlic dimensionalen Raum V := {w C 0 ( ) : w T P 1 für alle T T } approximiert. Da im Algoritmus 2 auc H0 1 () gebrauct wird, sei V 0, := V H 1 0 () = {w V : w 0}. Zu einer genügend oft scwac differenzierbaren Funktion u seien die Ableitungen durc D i (u) := u x i und D 2 ij(u) := 2 u x i x j 20

3.3 Finite-Elemente-Approximation für i, j {1, 2} definiert, wobei x 1 := x und x 2 := y jeweils die entsprecenden Koordinaten seien. Aus der Greenscen Formel, siee [3], Gleicung (1.2.4), folgt, dass Dii(u)ϕ 2 dx = D i (u)d i (ϕ) dx für alle ϕ H0 1 () und alle i {1, 2} (29) und D 2 12(u)ϕ dx = 1 2 [D 1 (u)d 2 (ϕ) + D 2 (u)d 1 (ϕ)] dx für alle ϕ H 1 0 () (30) gilt. Sei nun u V. Die Funktion u ist dann Lipscitz-stetig und damit auc in H 1 (). Es muss jedoc nict notwendigerweise u H 2 () gelten. Mit Hilfe von (29) und (30) wird das diskrete Analogon Dij 2 des Differentialoperators D2 ij so definiert, dass D2 ij (u) V 0, für i, j {1, 2} und Dii 2 (u)ϕ dx = D i (u)d i (ϕ) dx für alle ϕ V 0, und alle i {1, 2} (31) bzw. D 2 12 (u)ϕ dx = 1 2 [D 1 (u)d 2 (ϕ) + D 2 (u)d 1 (ϕ)] dx für alle ϕ V 0, (32) gilt. Aus [2], Kapitel 2, Satz von Lax-Milgram und Satz 2.2, folgt, dass die Funktionen Dij 2 (u) eindeutig durc (31) und (32) festgelegt sind. Um die diskreten zweiten Ableitungen auf der linken Seite der Integrale in (31) und (32) zu berecnen, wird das Integral mit der Trapezregel approximiert. Dabei wird wie folgt vorgegangen: a) Zunäcst werden die Menge der Knoten Σ von T, das eißt Σ ist die Menge aller Eckpunkte von den Dreiecken in T, und Σ 0, := {P Σ : P / } definiert. Die Anzal der Elemente beider Mengen wird durc N := #Σ und N 0, := #Σ 0, definiert. Dann gilt dim V = N und dim V 0, = N 0,. Seien nun Σ 0, = {P k } N 0, k=1 und Σ = Σ 0, {P k } N k=n 0, +1. b) Zu einem Punkt P k Σ ist die Funktion w k V durc { 1, falls i = k, w k (P i ) = 0, falls i {1,..., N } und i k eindeutig definiert, da so in jedem Dreieck T drei Funktionswerte festgelegt werden und damit das Polynom w k T P 1 eindeutig bestimmt ist. Die Stetigkeit an den Kanten der Dreiecke folgt aus der Linearität der Polynome, so dass tatsäclic w k V gilt. 21

3 Dritte Metode: Erweiterte Lagrange-Metode Die Mengen B := {w k } N k=1 und B 0, := {w k } N 0, k=1 sind dann jeweils Basen von V respektive V 0,, da die Dimension der Basen mit dem zugeörigen Raum übereinstimmt und die Elemente in den Mengen linear unabängig sind, siee auc [2], Kapitel 2, Abscnitt Dreieckelemente mit vollständigen Polynomen. c) Da nun eine Basis für V 0, bekannt ist und die Integrale in (31) und (32) linear in ϕ sind, reict es diese Gleiceiten lediglic für die Basiselemente in B 0, zu prüfen. Diese Basisfunktionen sind jeweils an allen bis auf einen Knoten gleic Null. Um dies auszunutzen, wird die Trapezregel verwendet, da ier lediglic Funktionswerte an den Knoten benötigt werden, welce noc dazu die Werte sind, an denen später eine diskrete Variante der Monge-Ampère-Gleicung (1) erfüllt sein soll. Sei dazu A k der Fläceninalt des Gebiets, welces die Vereinigung der Elemente aus T ist, die den Eckpunkt P k aben. Wendet man nun auf (31) und (32) die Trapezregel mit ϕ := w k an, so erält man für i {1, 2} gerade Dii 2 (u)(p k) = 3 D i (u)d i (w k ) dx, (33) A k D 2 12 (u)(p k) = D 2 21 (u)(p k) = 3 2A k [D 1 (u)d 2 (w k ) + D 2 (u)d 1 (w k )] dx (34) für alle k {1, 2,..., N 0, }. Das Lösen der Integrale auf der recten Seite von (33) und (34) ist dann weitestgeend nur noc die Berecnung der Fläceninalte der Dreiecke aus T, da die Ableitungen von u und w k stückweise konstant sind. An dieser Stelle kann nun das Diriclet-Problem der Monge-Ampère-Gleicung (1) diskretisiert werden. Angenommen die Funktion v, welce die Randbedingung vorgibt, ist stetig und f sei eine Näerung von f aus (1), welce ebenfalls stetig ist. Dann werden die Mengen Q, Q f und V v aus (16) durc Q := { q (V 0, ) 2 2 : q = (q ij ) 1 i,j 2, q 21 = q 12 }, Q f, := { q Q : det q(p k ) = f (P k ) für alle k {1, 2,..., N 0, }}, V v, := { u V : u(p ) = v(p ) für alle P Σ }. approximiert. Die Diskretisierung von (1) lautet scließlic: Finde u V v,, mit D11 2 (u )(P k )D22 2 (u )(P k ) (D12 2 (u )(P k )) 2 = f (P k ) für alle k {1, 2,..., N 0, } (35) (36) 3.3.3 Iteratives Lösen von Problem (36) Motiviert durc Abscnitt 3.2 wird nun eine diskrete Variante des Algoritmus 1 vorgestellt. Als erstes muss dazu das Sattelpunktproblem (20) und damit auc das erweiterte 22

3.3 Finite-Elemente-Approximation Lagrange-Funktional L r in (19) approximiert werden. Das Funktional L r wird dabei für {{u, q}, µ} (V Q f, ) Q mit u := D 2 11 (u) + D2 22 (u), (w, w) := 1 3 ((s, t)) := 1 3 N 0, k=1 N 0, k=1 D (u) := (D 2 ij (u)) 1 i,j 2, A k w(p k ) w(p k ), w := (w, w) 1 2, A k s(p k ) : t(p k ), für alle w, w V 0, und alle s, t Q durc s := ((s, s)) 1 2 L r, (u, q; µ) := 1 2 u 2 + r 2 D2 (u) q 2 + ((µ, D2 (u) q)) (37) definiert. Anscließend kann das diskrete Sattelpunktproblem wie folgt definiert werden: Finde {{ũ, q }, µ } (V v, Q f, ) Q, mit L r, (ũ, q ; µ) L r, (ũ, q ; µ ) L r, (u, q; µ ) (38) für alle {{u, q}, µ} (V v, Q f, ) Q. Zur Lösung dieses Sattelpunktproblems wird eine diskrete Variante des Algoritmus 1 benutzt, siee Algoritmus 3. Bemerkung 8. Dean und Glowinski [6], Gleicung (5.29), wälten als Startwert für den Algoritmus 3 eine diskrete Variante der Wal aus Bemerkung 7. Es wird µ 0 = 0 gesetzt und u 1 V v, als Lösung von definiert. ( u 1 )T ϕ dx = 1 N 0, A k f (P k )ϕ(p k ) für alle ϕ V 0, 3 3.3.4 Lösen von Teilproblem (39) k=1 Für das Teilproblem (39) muss das Funktional L r, (u (n 1), q; µ (n) ) aus (37) in der Variable q Q f, minimiert werden. Da der erste Summand in L r, nict von q abängt, muss lediglic der Ausdruck r 2 D2 (u(n 1) ) q 2 + ((µ(n) = A k 3 N 0, k=1 ( r 2 (D2 (u(n 1), D2 (u(n 1) ) q)) ) ) q)(p k ) 2 F + µ (n) (P k) : (D 2 (u(n 1) ) q)(p k ) 23

3 Dritte Metode: Erweiterte Lagrange-Metode Algoritmus 3 Diskretisierung von Algoritmus 1 zur Lösung des Sattelpunktproblems (38), siee [6], Abscnitt 5.3 1: Wäle Startvektor {u ( 1), µ (0) } V v, Q. 2: for n = 0 to n max do n max ist maximale Anzal an Iterationen 3: Löse Minimierungsproblem q (n) Finde Q f,, mit L r, (u (n 1), q (n) für alle q Q f,. ; µ(n) ) L r,(u (n 1), q; µ (n) ) (39) 4: Löse Minimierungsproblem Finde V v,, mit L r, (u (n) für alle u V v,. u (n), q(n) ; µ(n) ) L r,(u, q (n) ; µ(n) ) (40) 5: µ (n+1) 6: end for 7: return {{u (nmax), q (nmax) }, µ (nmax) µ (n) } + r(d 2 u(n) q (n) ). in q minimiert werden. Dies wiederum ist ein System von N 0, ungekoppelten Minimierungsproblemen, denn es reict, wenn jeder einzelne Summand einzeln minimiert wird. Problem (39) ist damit äquivalent zum Minimieren von r 2 (D2 u (n 1) q)(p k ) 2 F + µ (n) (P k ) : (D 2 u (n 1) q)(p k ) = = r 2 2 (D 2 u (n 1) (P k ) q(p k )) 2 i,j + µ (n) i,j 2 (P k)(d 2 u (n 1) (P k ) q(p k )) i,j = i,j=1 2 i,j=1 r 2 q i,j(p k ) 2 i,j=1 i,j=1 2 [ 2 r ] 2 (D2 u (n 1) ) i,j (P k ) + µ (n) i,j (P k) q i,j (P k ) + r 2 D2 u (n 1) (P k ) 2 + µ (n) (P k ) : D 2 u (n 1) (P k ) (41) 24

3.3 Finite-Elemente-Approximation für alle k {1, 2,..., N 0, }. Seien nun b (n) 1 (P k) := r(d 2 u (n 1) (P k )) 1,1 + µ (n) 1,1 (P k), b (n) 2 (P k) := r(d 2 u (n 1) (P k )) 2,2 + µ (n) 2,2 (P k), b (n) 3 (P k) := r(d 2 u (n 1) (P k )) 1,2 + µ (n) 1,2 (P k) + r(d 2 u (n 1) (P k )) 2,1 + µ (n) 2,1 (x), z k := (z 1,k, z 2,k, z 3,k ) T R 3, z 1,k := q 1,1 (P k ), z 2,k := q 2,2 (P k ), z 3,k := q 1,2 (P k ) = q 2,1 (P k ), wobei letztere Gleiceit wegen der Symmetrie von q gilt. Da die beiden Summanden in (41) nict mer von q abängen, muss also punktweise 2 i,j=1 r 2 q i,j(p k ) 2 2 i,j=1 unter der Nebenbedingung [ 2 r ] 2 (D2 u (n 1) ) i,j (P k ) + µ (n) i,j (P k) q i,j (P k ) = r 2 (z2 1,k + z2 2,k + 2z2 3,k ) b(n) 1 (P k)z 1,k b (n) 2 (P k)z 2,k b (n) 3 (P k)z 3,k z 1,k z 2,k z 2 3,k = f(p k) minimiert werden. Um die Nebenbedingung zu beseitigen, wird gemäß Abscnitt 3.1.1, siee Satz 1, die Lagrange-Funktion L(z k, λ) := r 2 (z2 1,k + z2 2,k + 2z2 3,k ) b(n) 1 (P k)z 1,k b (n) 2 (P k)z 2,k b (n) 3 (P k)z 3,k λ(z 1,k z 2,k z 2 3,k f(p k)) betractet. Für einen stationären Punkt { z k, λ k } R 3 R von L(, ) gilt dann r z 1,k λ k z 2,k b (n) 1,k (P k) L( z k, λ k ) = r z 2,k λ k z 1,k b (n) 2,k (P k) 2r z 3,k + 2 λ k z 3,k b (n) 3,k (P = 0. (42) k) z 1,k z 2,k z 3,k 2 f(p k) Dieses nictlineare Gleicungssystem mit den Unbekannten z 1,k, z 2,k, z 3,k und λ k kann man beispielsweise mit dem Newton-Verfaren oder einem Quasi-Newton-Verfaren, vergleice dazu [8], Kapitel 5 respektive 6, lösen. 25

4 Numerisce Experimente 3.3.5 Lösen von Teilproblem (40) An dieser Stelle wird änlic wie in Abscnitt 3.2.5 vorgegangen. Das Teilproblem (40) ist äquivalent zu dem endlic-dimensionalen linearen Variationsproblem Finde u n V v,, mit ( u n ϕ) + r((d 2 (un ), D2 (ϕ))) = L n,(ϕ) (43) für alle ϕ V 0,, wobei L n, ( ) in V 0, linear ist. Auc ier wird der Algoritmus des Verfarens der konjugierten Gradienten verwendet, wobei das Skalarprodukt (u, w) ( u, w) benutzt wird. Es ergibt sic damit für Problem (43) eine diskrete Variante des Algoritmus 2, siee dazu Algoritmus 4. Mittels des Algoritmus 3 wurde das Diriclet-Problem der Monge-Ampère-Gleicung (1) auf das Lösen folgender zwei Problemstellungen reduziert: a) Das Lösen einer Folge von nictlinearen Gleicungssystemen, siee Abscnitt 3.3.4 bzw. Abscnitt 3.2.4 und b) das Lösen einer Folge von diskreten Poisson-Diriclet-Problemen, siee (44) und (45). 4 Numerisce Experimente Benamou, Froese und Oberman [1], Abscnitt 3, aben ire beiden Metoden, siee dazu auc [16], Metode 1 und Metode 2, miteinander verglicen. Sie aben dabei unter anderem die gleicen Beispiele gewält, wie scon zuvor Dean und Glowinski [5, 6, 7]. Diese Beispiele werden daer in Abscnitt 4.1 kurz vorgestellt. Anscließend werden die drei Metoden in Abscnitt 4.2 miteinander verglicen, siee dazu auc [1], Abscnitt 3.1 und 3.2. Metode 1 und 2 bezeicnen dabei die Verfaren in [16], Kapitel 3 respektive 4, und Metode 3 die erweiterte Lagrange-Metode aus Kapitel 3. 4.1 Beispiele Als Startwerte wälten Benamou, Froese und Oberman [1] stets die Funktion u, welce u = 2f löst. Dean und Glowinski wälten stets r = 1 und als Startfunktion u die Lösung von u = f mit vorgegebener Diriclet-Randbedingung, siee Bemerkung 7. Zudem verwendeten sie eine uniforme Familie von Triangulierung. 26

4.1 Beispiele Algoritmus 4 Algoritmus zum Lösen von Problem (43), siee [6], Abscnitt 5.5 1: Wäle Startvektor u n,0 V v,. zum Beispiel u n,0 2: Löse das diskrete bi-armonisce Problem Finde g n,0 V 0,, mit ( g n,0 für alle ϕ V 0,., ϕ) = ( u n,0 := u (n 1), ϕ) + r((d 2 (un,0 ), D2 (ϕ))) L n (ϕ) 3: w n,0 g n,0 4: for k = 0 to k max do k max ist maximale Iterationsanzal 5: Löse das bi-armonisce Problem Finde ḡ n,k V 0,, mit ( ḡ n,k, ϕ) = ( w n,k, ϕ) + r((d 2 (wn,k ), D2 (ϕ))) (45) für alle ϕ V 0,. 6: Berecne vergleice CG-Verfaren, siee [18], Abscnitt 3 ρ n,k u n,k+1 g n,k+1 ( ḡ n,k g n,k 2, w n,k u n,k ρ n,k w n,k, g n,k ρ n,k ḡ n,k. ), (44) 7: if 8: g n,k+1 2 g n,0 2 ε ten u (n+1) break. u n,k+1, 9: else 10: γ n,k g n,k+1 w n,k+1 2 g n,k 2 g n,k+1, + γ n,k w n,k. 11: end if 12: end for 13: return u (n+1) 27

4 Numerisce Experimente Beispiel 1: klassisce und starke Lösung Es wurde das Gebiet = (0, 1) (0, 1) gewält. Die recte Seite der Monge-Ampère-Gleicung und die Diriclet-Randbedingung aus (1) wurden mit f(x, y) := (1 + x 2 + y 2 )e x2 +y 2 und v(x, y) := e 1 2 (x2 +y 2 ) definiert, siee dazu [1], Abscnitt 4.1, und [6], first test problem in Abscnitt 6. Dabei ist v sowol klassisce als auc starke Lösung des Problems. Hier konvergieren alle drei Verfaren gegen die exakte Lösung v, wobei Metode 2 deutlic scneller arbeitet als Metode 1. Beispiel 2: klassisce und starke Lösung Hier wurde ebenfalls das Gebiet = (0, 1) (0, 1) gewält. Die Funktionen sind durc f(x, y) := 1 und v(x, y) := 2 2 x 2 + y 2 3 (x2 + y 2 ) 3 4 gegeben, siee dazu [1], Abscnitt 4.2, und [6], tird test problem in Abscnitt 6. Auc ier ist v gleiczeitig eine klassisce und starke Lösung von (1). Im Nullpunkt weist f eine Singularität auf, was bedeutet, dass die recte Seite der Monge-Ampère-Gleicung unbescränkt ist. Hier ist die gleice Situation wie in Beispiel 1 zu beobacten, das eißt alle Verfaren konvergieren und Metode 2 ist viel scneller als Metode 1. Beispiel 3: keine glatte Lösung In [1] wurde = ( 1, 1) ( 1, 1) und in [6] = (0, 1) (0, 1) gewält. Die Monge-Ampère-Gleicung und die Diriclet-Randbedingung wurden durc f(x, y) := 1 und v(x, y) := 1 in [1], Abscnitt 5.3, v(x, y) := 0 in [6], fourt test problem in Abscnitt 6, festgelegt. Für dieses Beispiel existiert trotz glatter Daten f und v keine exakte Lösung. Hier zeigt sic bei allen drei Verfaren, dass die berecnete Lösung im Inneren konvex bzw. konkav ist, wie es auc gewünsct ist, jedoc in der Näe des Randes von dieser Form abweict, da keine exakte Lösung existiert. Bei diesem Beispiel arbeitet dieses mal Metode 1 deutlic scneller als Metode 2. Beispiel 4: klassisce aber keine starke Lösung In diesem Beispiel verwendeten beide Quellen wieder = (0, 1) (0, 1). Sie verwendeten die gleice recte Seite der Monge- Ampère-Gleicung, aber untersciedlice Randbedingungen. Diese Funktionen wurden 28

4.1 Beispiele durc f (x, y) := 2 x2 (2 y 2 )2 p v(x, y) := 2 x2 y 2 p v(x, y) := 2 x2 y 2 und in [1], Abscnitt 5.4, in [6], second test problem in Abscnitt 6, definiert. Die klassisce L osung v ist dabei nur noc in H 1 (Ω) und damit keine L osung im starken Sinne. Metode 3 divergiert bei diesem Beispiel f ur jedes r > 0. Die anderen beiden konvergieren gegen v, wobei die zweite Metode scneller ist. (a) Exakte L osung von Beispiel 1 (b) Starke L osung von Beispiel 2 (c) Berecnete L osung von Beispiel 3 und Nullrandwerten mit Metode 3 (d) L osung von Beispiel 4 und der zweiten Wal von v Abbildung 2: Die Bilder wurden aus [6], siee Abbildung 6.1, 6.2, 6.4 und 6.5, entnommen. 29

Literatur 4.2 Vergleic Metode 1 und 2, siee [16], Kapitel 3 und 4, konvergieren bei allen Beispielen aus Abscnitt 4.1 gegen eine Lösung von (1). Bei Metode 3 siet es änlic aus, nur dass dies bei Beispiel 4 für beliebiges r > 0 divergiert. Metode 2 und 3 benötigen grob gesagt die gleice Anzal an Iterationen bis die berecnete Lösung nae an der exakten Lösung ist. Dean und Glowinski [5, 6, 7] aben keine Recenzeiten angegeben. Es wird jedoc vermutet, dass Metode 2 scneller arbeitet, da bei dieser in jeder Iteration lediglic eine Poisson-Gleicung gelöst werden muss, woingegen in Metode 3 noc weitere Berecnungen erforderlic sind. Metode 2 arbeitet bei glatten Lösungen scneller als Metode 1. Bei Lösungen die viele Singularitäten entält ist Metode 1 scneller. Wärend die erste Metode immer ungefär die gleice Anzal an Iterationen unabängig von der Glatteit der Lösung benötigt, nimmt die Recenzeit für Metode 2 bei Abname der Glatteit zu. Weitere Details und Ergebnisse zu den Beispielen sind in [1], Abscnitt 4 und 5 und 6, und [6], Abscnitt 4, zu finden. 5 Ausblick Das Ziel der Ausarbeitung von Yasemin Hafizogullari [16] und dieser war es, drei numerisce Löser für das Diriclet-Problem der Monge-Ampère-Gleicung vorzustellen. Die ersten beiden Metoden stammen von Benamou, Froese und Oberman [1] und die dritte von Dean und Glowinski [5, 6, 7]. Es at sic dabei gezeigt, dass die ersten beiden Metoden im Vergleic zur dritten leicter zu implementieren sind. Es stellte sic zudem eraus, dass die zweite der dritten Metode vorzuzieen ist, da Metode 2 vermutlic scneller arbeitet, ungefär die gleice Anzal an Iterationen benötigt und sogar in Beispiel 4 konvergiert, bei welcem Metode 3 divergiert. Benamou, Froese und Oberman [1], Abscnitt 8, empfelen die zweite Metode, wenn bekannt ist, dass die Lösungen in H 2 () oder in C 2 () sind. Falls die Glatteit der Lösung unbekannt ist, sollte Metode 1 gewält werden. Da jedoc biser noc nicts über die Konvergenz dieser Verfaren bekannt ist, kann man im näcsten Scritt versucen, dies genauer zu untersucen. Literatur [1] Benamou, Jean-David, Brittany D. Froese und Adam M. Oberman: Two numerical metods for te elliptic Monge-Ampère equation. Preprint, Simon Fraser University, 2009. ttp://www.divbyzero.ca/froese/w/images/4/40/ma.pdf. [2] Braess, Dietric: Finite Elemente. Springer, Heidelberg, 2. Auflage, 1997. 30