Optimierung I. Prof. Dr. Christoph Helmberg. 15. Februar 2004

Größe: px
Ab Seite anzeigen:

Download "Optimierung I. Prof. Dr. Christoph Helmberg. 15. Februar 2004"

Transkript

1 Optimierung I Prof. Dr. Christoph Helmberg 15. Februar 24

2

3 Inhaltsverzeichnis Einführung 3.1 Konvexe Optimierung Lineare Optimierung Nichtlineare Optimierung Optimalitätsbedingungen für freie nichtlineare Optimierung Methoden der freien nichtlinearen Optimierung Lineare Optimierung Lineare Programme Der Simplexalgorithmus Der (primale) Simplex Algorithmus Zulässigkeit und Fundamentalsatz der Linearen Optimierung Zwei-Phasen-Methode Groß-M/(Big-M)-Methode Dualität Schwache Dualität Sensitivität Spaltengenerierung und Schnittebenenverfahren Spaltengenerierung (column generation) Schnittebenenverfahren Ganzzahligkeit von Basislösungen

4 2 INHALTSVERZEICHNIS Anwendung: Bipartite Paarung (Matching/Zuweisungsproblem) Flüsse in Netzwerken Konvexe Analysis Konvexe Mengen Grundlegende Operationen auf konvexen Mengen Konvexkombinationen und konvexe Hüllen Abschluss und relatives Inneres Projektion auf abgeschlossene konvexe Mengen Separierung konvexer Mengen Seitenflächen und Extrempunkte Tangenten- und Normalenkegel Konvexe Funktionen Das Subdifferential einer konvexen Funktion Optimalitätsbedingungen für Aufgaben mit Nebenbedingungen Sattelpunkte Lagrangefunktion und Dualität Innere-Punkte-Verfahren Motivation Algorithmus von Monteiro und Adler Zentrierter Startpunkt (keine Annahmen über Zulässigkeit) Quadratische Optimierung Lineare Optimierung über dem quadratischen Kegel Semidefinite Optimierung Nichtglatte Optimierungsverfahren Das Subgradientenverfahren

5 Kapitel Einführung Optimierung beschäftigt sich mit Aufgaben min f(x) Zielfunktion s.t. subject to (OA) h i (x) =, i E Gleichheitsnebenbedingungen g i (x), i I Ungleichungsnebenbedingungen x Ω Grundmenge, wobei meist Ω R n f, h, g : R n R E, I < Definition..1 (Lösungsbegriffe). Für eine Optimierungsaufgabe der Form (OA) heißt X = {x Ω : h i (x) = i E, g i (x) i I} die Menge der zulässigen Punkte/Lösungen oder die zulässige Menge (feasible set). Falls X = heißt das Problem unzulässig (infeasible). Ein x X heißt zulässiger Punkt/zulässige Lösung oder einfach zulässig. Ein x X heißt globales Optimum oder globale Optimallösung, falls f(x ) f(x) x X. Ein x X heißt lokales Optimum, wenn es eine Umgebung U ε (x ) gibt mit f(x ) f(x) x X U ε (x ). 3

6 4 KAPITEL. EINFÜHRUNG Der Wert f = inf {f(x) : x X } heißt Optimalwert. Er ist, falls X =. Ist der Wert, so heißt das Problem unbeschränkt. Fragestellungen: Wann existieren und wie erkennt man Optimallösungen? Wie bestimmt man sie algorithmisch (möglicherweise annähernd)? Wie effizient sind die Algorithmen? Ganz allgemein ist da nicht viel zu machen, selbst ohne Nebenbedingungen. Daher untersucht man Optimierungsprobleme mit Zusatzforderungen an f, g, h und Ω..1 Konvexe Optimierung f, g i sind konvexe Funktionen. h i sind lineare Funktionen. Ω ist konvexe Menge. Definition.1.1. Eine Menge C R n heißt konvex, falls mit zwei Elementen x, y C die gesamte Verbindungsstrecke [x, y] in C ist, d.h. wenn gilt: x, y C αx + (1 α)y C α (, 1). Beispiel.1.1. ; R n ; für a R n, b R der Halbraum H a,b := {x R n : a τ x b}; affine Unterräume Definition.1.2 (Konvexe Funktionen). Eine Funktion f : R n R { } heißt konvex, wenn f(αx + (1 α)y) αf(x) + (1 α)f(y), α (, 1), x, y R. Sie heißt eigentlich konvex, falls f konvex und x R n : f(x) <. Sie heißt streng konvex, falls die strenge Ungleichung gilt. Sie heißt konkav, wenn f konvex ist. Die Funktion f heißt quasikonvex, falls f(αx+(1 α)y) max {f(x), f(y)} α (, 1). Sie heißt streng quasikonvex, wenn die strenge Ungleichung gilt. Definition.1.3. Der Epigraph einer Funktion f : R n R ist die Menge epif := {(x, r) R n+1 : r f(x)}. Die Niveaumenge einer Funktion f : R n R zum Niveau r ist die Menge S r (f) := {x R n : f(x) r}.

7 .1. KONVEXE OPTIMIERUNG 5 Beobachtung.1.1. f : R n R epif konvex. Beweis. Seien (x, r), (y, p) epif f(x) r, f(y) p. Für alle α (, 1) gilt nun f(αx + (1 α)y) αf(x) + (1 α)f(y) αr + (1 α)p, also ist (αx + (1 α)y, αr + (1 α)p) = α(x, r) + (1 α)(y, p) epif. Mit (x, f(x)) und (y, f(y)) ist für α (, 1) (αx + (1 α)y, αf(x) + (1 α)f(y)) epif, also ist f(αx + (1 α)y) αf(x) + (1 α)f(y) α (, 1). Beobachtung.1.2. Der Schnitt einer Familie konvexer Mengen ist konvex. Beweis. Seien x, y C := i I C i mit C i konvex für i I. Dann sind x, y C i i I, also auch [x, y] C i i I und damit [x, y] C. Beobachtung.1.3. Die Niveaumengen einer konvexen Funktion sind konvex. Beweis. Bilde S r = epif {(x, r) : x R n }; S r ist nach Beobachtung.1.2 konvex. S r (f) = {x : (x, r) S r} verbleibt dem Leser als Übung. Wir betrachten jetzt: min f(x) h i (x) =, i E g i (x), i I x Ω Die zulässige Menge X = Ω {x : h i (x) = } {x : g i E i (x) } i I konvex affiner Unterraum nach Beobachtung.1.3 konvex ist nach Beobachtung.1.2 konvex. Satz.1.4. In einem konvexen Optimierungsproblem ist jedes lokale Optimum auch globales Optimum. Beweis. Sei x ein lokales und x ein globales Optimum und x x. Da X konvex ist, ist auch [x, x ] zulässig. Wähle x (x, x ) U(x); dann existiert α (, 1) : x = αx + (1 α)x und f(x) = f(αx + (1 α)x ) fkonvex also ist f(x) = f(x ) = f(x). αf(x) + (1 α)f(x ) x global optimal f(x) x lokal optimal f(x),

8 6 KAPITEL. EINFÜHRUNG Insbesondere gilt: Die Menge der Optimallösungen ist konvex; denn sei X die zulässige Menge und f = inf {f(x) : x X }, dann ist die Menge der Optimallösungen S f (f) X als Schnitt zweier konvexer Mengen konvex. Sie kann aber leer sein, selbst wenn f endlich ist. Beispiel: f : R R; X = R + ; f(x) = 1 x Die Existenz von Optimallösungen hat immer etwas mit der Abgeschlossenheit der Mengen und Epigraphen zu tun. Wir werden uns bald mit einem besonders wichtigen Spezialfall beschäftigen, wo das kein Problem ist..1.1 Lineare Optimierung f, g, h sind lineare Funktionen, also von der Form a τ x + b, Ω ist der nichtnegative Orthant. Lineares Programm in Standardform : min c τ x s.t. Ax = b x..1.2 Nichtlineare Optimierung Die Funktionen müssen genügend glatt sein, Ω ist meist R n. Einteilung in: freie/unrestringierte nichtlineare Optimierung (unconstrained optimisation): E = I =, Ω = R n restringierte nichtlineare Optimierung (contrained optimisation) E + I > Der Anspruch beschränkt sich auf das Auffinden eines lokalen Optimums. In der nichtlinearen Optimierung kreist man die richtige Kombination von Abstiegsrichtungen mit dem Newton- Verfahren ein..2 Optimalitätsbedingungen für freie nichtlineare Optimierung Betrachten für f C 2 (R n ) die Aufgabe min x R n f(x). In einem Punkt x steht zur Verfügung: lineares Modell : f(x) f(x) ( steilster Anstieg ) f(x) + f(x) τ (x x) beschreibt die Tangentialebene

9 .2. OPTIMALITÄTSBEDINGUNGEN FÜR FREIE NICHTLINEARE OPTIMIERUNG 7 quadratisches Modell : zusätzlich 2 f(x) (2. Ableitung; Hessematrix; symmetrisch) f(x) + f(x) τ (x x) (x x)τ 2 f(x)(x x) Satz von Taylor: Seien x, p R n, f : R n R, f C 1 (R n ), so gilt für ein t (, 1): f(x + p) = f(x) + f(x + tp) τ p. Ist f C 2 (R n ), so gilt für ein t (, 1): f(x + p) = f(x) f(x + sp)pds (MW S) f(x + p) = f(x) + f(x) τ p pτ 2 f(x + tp)p. Satz.2.1 (Notwendige Bedingung 1. Ordnung). Ist x ein lokales Minimum und f stetig differenzierbar auf einer Umgebung U(x ) von x, dann ist f(x ) =. Beweis. Sei f(x ), setze p = f(x ). Daher ist p τ f(x ) = f(x ) 2 (L 2 ) <. Da f(x ) stetig, existiert ein α >, so dass p τ f(x + tp) < t (, α). Für beliebiges t (, α] ist nach Taylor nun für ein gewisses t (, t) f(x + tp) = f(x ) + tp τ f(x + tp) < f(x ) < Widerspruch. Definition.2.1. Ist f(x) =, so nennt man x einen stationären Punkt von f. Satz.2.2 (Notwendige Bedingung 2. Ordnung). Ist x ein lokales Minimum von f und 2 f ist stetig auf einer Umgebung U(x ), dann ist f(x ) = und 2 f(x ) positiv semidefinit. Beweis. Nach Satz.2.1 folgt f(x ) =. Sei 2 f(x ) nicht positiv semidefinit p : p τ 2 f(x )p <. Wegen der Stetigkeit von 2 f existiert ein α >, so dass p τ 2 f(x + tp)p < t (, α). Für beliebiges t (, α] ist nach Taylor nun für ein gewisses t (, t) f(x + tp) = f(x ) + tp τ f(x ) + t 2 p τ 2 f(x + tp)p < f(x ). = < Dies ist im allgemeinen nicht hinreichend, z.b.: f(x, y) = x 2 y 4 ( ) ( ) 2x f(, ) = 4y 3 = ( ) (,) 2 2 f(, ) =

10 8 KAPITEL. EINFÜHRUNG Satz.2.3 (Hinreichende Bedingung). 2 f sei stetig auf einer Umgebung U(x ). Ist dann f(x ) = und 2 f(x ) positiv definit, dann ist x ein lokales Minimum. Beweis. Da 2 f stetig auf U(x ), existiert ein r >, so dass 2 f(x) positiv definit x B r (x ) = {x : x x < r}. Für beliebiges p mit x + p B r (x ) gilt nach Taylor für ein t (, 1): f(x + p) = f(x ) + p τ f(x ) pτ 2 f(x + tp)p > f(x ). = > Für konvexe differenzierbare Funktionen ist die Lage viel leichter! Satz.2.4. Ist f konvex und differenzierbar und ist x stationärer Punkt, so ist x globales Minimum. Beweis. Ann.: x mit f(x) < f(x ). Dann ist und f(x + t(x x )) (1 t)f(x ) + tf(x) = f(x ) + t(f(x) f(x )) = f(x ) τ (x x f(x ) = lim +t(x x )) f(x ) t t lim t t(f(x) f(x )) t = (f(x) f(x )) <..3 Methoden der freien nichtlinearen Optimierung In der nichtlinearen Optimierung versucht man mit Abstiegsverfahren möglichst nah an ein lokales Optimum zu kommen, hofft, dass dort die Funktion lokal streng konvex ist und das quadratische Modell eine gute Approximation darstellt, bestimmt iterativ das Minimum des quadratischen Modells. Satz.3.1. Sei f C 2, x genüge den hinreichenden Optimalitätsbedingungen aus Satz.2.3 und 2 f sei Lipschitzstetig in einer Umgebung U(x ), das heißt: L > : 2 f(x) 2 f(x) L x x x, x U(x ). Dann gilt für die durch x k+1 = x k [ 2 f(x k )] 1 f(x k ) festgelegte Folge:

11 .3. METHODEN DER FREIEN NICHTLINEAREN OPTIMIERUNG 9 1. Ist Startpunkt x nahe genug bei x, dann x k x. 2. Die Konvergenzrate ist dann quadratisch, also x k+1 x c x k x 2 für ein c >. 3. Die Folge der Gradientennormen f(x k ) konvergiert quadratisch gegen. Interpretation: Für x k nahe genug an x ist die Hessematrix des quadratischen Modells 2 f(x k ) positiv definit; folglich ist q(x) = f(x k ) + f(x k ) τ (x x k ) (x x k) τ 2 f(x k )(x x k ) streng konvex und hat eine eindeutige Optimallösung, den stationären Punkt x von q: = q(x) = f(x k ) + 2 f(x k )(x x k ) x = x k [ 2 f(x k )] 1 f(x k ). Alternativ kann man das Newton-Verfahren als Methode zur Bestimmung der Nullstelle einer vektorwertigen Funktion F : R n R m auffassen; gesucht ist x mit F (x) =. Baue lineares Modell an F in x k und bestimme dessen Nullstelle: F (x k ) + J F (x k )(x x k ) =. Ist J F (x k ) invertierbar, so ist x = x k J F (x k ) 1 F (x k ). Für die Optimierung: F = f. Das Newton- Verfahren sucht einen stationären Punkt, der in der Nähe des Startpunktes liegt. Beweis von Satz.3.1. Sei x die Optimallösung; f k := f(x k ), 2 f k := 2 f(x k ). x k+1 x = x k 2 f 1 k f k x = 2 f 1 k ( 2 f k (x k x ) ( f k f )) = f k f = 1 2 f(x k + t(x x k ))(x k x )dt 2 f k (x k x ) ( f k f ) = 1 [ 2 f k 2 f(x k + t(x x k ))](x k x )dt 1 2 f k 2 f(x k + t(x x k )) x k x dt L x k x 2 1 tdt = 1 2 L x k x 2 Schranke für 2 f 1 k : 2 f k ist positiv definit und Lipschitzstetig, also existiert r >, so dass 2 f 1 (x) 2 2 f 1 x U(x ) : x x r. Mit obigen Abschätzungen gilt nun x k+1 x L f 1 x k x 2 x U(x ) : x k x r. { } Falls x x 1 < min r,, dann geht x L 2 f 1 k x mit quadratischer Konvergenz 1. und 2. gelten.

12 1 KAPITEL. EINFÜHRUNG 3. f k+1 = f k+1 f k 2 f k (x k+1 x k ) = = 1 2 f(x k + t(x k+1 x k ))(x k+1 x k )dt 2 f k (x k+1 x k ) 1 2 f(x k + t(x k+1 x k )) 2 f(x k ) x k+1 x k dt L x k+1 x k 2 1 tdt = 1L x 2 k+1 x k 2 = 2 f 1 k f k 1 1 L f 2 k 2 f k 2 2L f 1 2 f k 2. Probleme bei Newton: lokales Verfahren, im Allgemeinen keine Abstiegsrichtung. Negativer Gradient ist immer Abstiegsrichtung! Definition.3.1. Eine Schrittrichtung p heißt Abstiegsrichtung in x, wenn ( f(x)) τ p <. Typische Optimierungsverfahren Berechne eine Schrittrichtung p k = B 1 k f k mit B k positiv definit, dann ist f τ k p k = f τ k B 1 k f k <, wenn f k. Suche entlang dem Halbstrahl x k + αp k annähernd das Minimum von f (man muss nur hinreichenden Abstieg garantieren, sufficient decrease ) Setze x k+1 = x k + α k p k. Nutze die Schrittinformation um B k zu verbessern. Klasse der line search Algorithmen 1. B k = I ist steepest descent Steilster Abstieg hat schlechte Konvergenzeigenschaften für konvexe quadratische Funktionen f = 1 2 xτ Qx + c τ x. Problem bei steepest decsent: stark skalierungsabhängig Vorteil bei Newton: p k = ( 2 f(x k )) 1 f k = Q 1 Qx k = x k 2. Setzt man B k = 2 f(x k ), dann erhält man das Newtonverfahren mit line search. Funktioniert, wenn 2 f positiv definit, also bei lokal konvexem f. Sonst B k = 2 f + λi mit λ > min{, λ min ( 2 f)} 3. Aktuelle Verfahren starten mit B k = I und versuchen sich eine immer bessere Approximation der Hessematrix aufzubauen ( Quasi-Newton-Verfahren ).

13 Kapitel 1 Lineare Optimierung 1.1 Lineare Programme Beispiel Möchten Mozartkugeln und Mozarttaler produzieren; brauchen jeweils: Marzipan Nougat Bitterschokolade Preis Mozartkugeln Mozarttaler Gesamtmenge x 1 : Menge an Mozartkugeln x 2 : Menge an Mozarttalern max 9x 1 + 8x 2 s.t. x 1 + x 2 6 2x 1 + x 2 11 x 1 + 2x 2 9 x 1 ; x 2 Mozartproblem

14 12 KAPITEL 1. LINEARE OPTIMIERUNG Offensichtlich ist die Optimallösung eine Ecke. Wie berechnet man die Optimallösung? Bestimme den Schnittpunkt der beiden Geraden! { x 1 + x 2 = 6 2x 1 + x 2 = 11 x 1 = 5, x 2 = 1 Realistische Probleme haben bis zu einigen Millionen Variablen und Nebenbedingungen Brauchen algebraische Verfahren! Variablen: Vektor x R n oft verlangen wir x i, i = 1,..., n x andere Nebenbedingungen: a i x i β a τ x β; H a,β = {x R n : a τ x β} Wir fassen mehrere Nebenbedingungen zu einer Matrixungleichung zusammen: a τ 1x b 1. Ax b mit A = a τ mx b m a τ 1. a τ m, b = b 1. b m Lineares Programm in kanonischer Form: max c τ x s.t. Ax b x Wie bringt man Probleme mit Gleichungen und Ungleichungen in diese Form? a τ x β ( a) τ x β a τ x = β { a τ x β ( a) τ x β a τ x β negative Variable x i ersetzen durch x i = x i freie Variable (x i nicht Vorzeichen beschränkt) x i = x + i x i, x+ i, x i Minimierungsproblem: min c τ x = max( c) τ x Jede Aufgabe mit linearer Zielfunktion sowie linearen Gleichungs- und Ungleichungsnebenbedingungen kann als lineares Programm in kanonischer Form dargestellt werden.

15 1.1. LINEARE PROGRAMME 13 Die Schlupfvariablen oder slacks s i = b i a τ i x messen die Distanz zur Ungleichung: max c τ x s.t. Ax + s = b x, s mit A = [A I] und x = max c τ x s.t. Ax = b x [ x s ] : Lineares Programm in Normalform: min c τ x s.t. Ax = b x O.B.d.A. hat A vollen Rang Beispiel (Mozartproblem in Normalform). 3 Schlupfvariablen (x 3, x 4, x 5 ) für 3 Ungleichungen A = 2 1 1, b = 11, c = vorher: Optimallösung war Schnittpunkt der 1. und 2. Ungleichung x 3 =, x 4 = Es bleibt zu lösen: x 1 x 2 x 5 = Ecke berechnen : Wähle n m Schlupfvariablen, die Null sein sollen. Lösung liegt auf den entsprechenden Nebenbedingungen. Lösung des restlichen Systems bestimmt Schlupf der anderen Nebenbedingungen. Wofür ist x 1 der Schlupf? Für x 1. Ax = b : m Gleichungen; Ix : n Ungleichungen

16 14 KAPITEL 1. LINEARE OPTIMIERUNG Ecke wird durch n Gleichungen festgelegt, m stehen fest. n m aus den Ungleichungen auswählen: N {1,..., n} : N = n m. Müssen n m so auswählen (alle = ), dass durch das System Ax = b die restlichen eindeutig bestimmt sind (sonst keine Ecke). B = {1,..., n} \ N A = [A B A N ], x = [ xb x N A B x B + A N x N = b, x N =, A B muss regulär sein x B = A 1 B [b A Nx N ] ] Die Spalten von A B müssen linear unabhängig sein, also eine Basis des R m bilden. Definition Für ein Ungleichungssystem Ax = b, x mit A R m n heißt: eine reguläre Untermatrix A B mit Spaltenindizes B {1,..., n}, B = m Basis, x = A 1 [b A N x N ] mit x N = Basislösung (zur Basis B), und zulässige Basislösung, falls x B. x B heißen Basisvariable oder abhängige Variable. x N heißen Nichtbasisvariable oder unabhängige Variable. Idee des Simplexalgorithmus für Lineare Programme Springe von einer Ecke zu einer benachbarten, besseren Ecke, bis es keine bessere gibt. 1.2 Der Simplexalgorithmus Beginnen mit der zulässigen Basislösung x B = A 1 B [b A Nx N ], x N =, x B. Versuchen zu verbessern, indem wir ein x i mit i N von wegschieben. c τ x = c τ B x B + c τ N x N = c τ B A 1 B [b A Nx N ] + c τ N x N = c τ B A 1 B b cτ B A 1 B A Nx N + c τ N x N = c τ B A 1 B = c τ BA 1 B b Konstante derzeitiger ZFW + [cτ N cτ B A 1 B A N]x N +[ c N A τ NA τ B c B ] τ x N reduzierte Kosten:= c N

17 1.2. DER SIMPLEXALGORITHMUS 15 Reduzierte Kosten sagen aus, wie sich die Zielfunktion verändert, wenn ein x j mit j N vergrößert wird. Vergrößern von x j führt zur Verbesserung, falls c j < ist. Was ist falls c j j N? Lemma Für das LP min{c τ x : Ax = b, x } sei x eine zulässige Basislösung zur Basis B. Erfüllen die reduzierten Kosten c N A τ N A τ B c B, so ist x eine Optimallösung. Beweis. Sei x eine Optimallösung, also Ax = b, x und c τ x c τ x x X = {x : Ax = b}. Es gilt x B = A 1 B [b A Nx N ] und x N x N = und c τ x = c τ B A 1 B b + ( c N A τ NA τ B c B ) τ x N B A 1 B b = cτ x Bemerkung Aus dem Beweis erkennt man, dass weitere Optimallösungen nur dann existieren können, wenn wenigstens eine Komponente der reduzierten Kosten = ist. Wir nehmen an, der reduzierte-kosten-vektor enthält eine negative Komponente: ĵ N : cĵ <. Die Berechnung der reduzierten Kosten und die Auswahl von ĵ nennt man Pricing. Um wieviel können wir xĵ vergrößern, ohne unzulässig zu werden? (Alle anderen x j mit j N \ {ĵ} behalten den Wert.) Also: x B (xĵ) = A 1 B [b A.,ĵxĵ] soll bleiben. i {1,..., m} : [A 1 B b] i { [A 1 B xĵ min b] i [A 1 B A.,ĵ] i Diesen Schritt nennt man ratio test. [A 1 B }{{ A.,ĵ] } i xĵ nur > interessant : i {1,..., m} : [A 1 B A.,ĵ] i > Was passiert, wenn die Menge derartiger Indizes i leer ist? Das Problem ist unbeschränkt, in Richtung des Halbstrahls geht es gegen, denn xĵ kann beliebig vergrößert werden ohne den zulässigen Bereich zu verlassen: Der Halbstrahl ( ) [( xb A 1 B x(α) = + α A ) ].,ĵ + eĵ x N ist zulässig, also x(α) X α > und es gilt }. inf{c τ x(α) = c τ B A 1 B b + α( c N A τ NA τ B c B )ĵ, α > } = <

18 16 KAPITEL 1. LINEARE OPTIMIERUNG Das Problem ist also unbeschränkt, falls es kein i {1,..., m} mit [A 1 B A.,ĵ] i > gibt. Nehmen wir nun an, î sei ein Index, für den obiges Minimum angenommen wird, zu î gehört eine Basisvariable mit Index B(î). Setzen xĵ = [A 1 B b] î [A 1 B A.,ĵ]î, dann wird x B(î) =, also ergibt sich eine neue zulässige Basis mit N + = N \ {î} {B(î)} B + = B \ {B(î)} {ĵ}. xĵ heißt eintretende Variable ( entering ); x B(î) heißt austretende Variable ( leaving ). Lemma Die neue Indexmenge B + beschreibt wieder eine zulässige Basis und [( x + = x + [A 1 B b] î A 1 B A ) ].,ĵ + [A 1 B A eĵ.,ĵ]î ist eine zulässige Basislösung. Beweis. A B w = A.,ĵ hat eine eindeutige Lösung, da A B Basis ist. Wegen wî > ist A.,ĵ linear unabhängig von den Spalten B \ {î}, also ist A B + wieder eine Basis. Der Rest folgt nach Konstruktion. Definition Das Paar (î, ĵ) wird das Pivot und das entsprechende Element in der Matrix A 1 B A N Pivot-Element genannt Der (primale) Simplex Algorithmus Algorithmus Input: A, b, c, eine zulässige Basis B und x B = A 1 B b 1. BTRAN: Berechne y = A τ B c B durch Lösen von A τ B y = c B 2. Pricing: Berechne z N = c N A τ N y. Falls z N, ist x Optimallösung. Stop! Sonst, wähle ĵ N mit zĵ <. xĵ ist die eintretende Variable. 3. FTRAN: Löse A B w = A.,ĵ 4. Ratio-Test: Falls w ist das LP unbeschränkt. { Stop! } xb(i) Sonst, berechne γ = min w i : w i >, i {1,..., m} gewisses î {1,..., m}. x B(î) ist die austretende Variable. = x B(î) wî für ein

19 1.2. DER SIMPLEXALGORITHMUS Update: Setze x B := x B γw, xî := γ, B(î) := ĵ, N := N \ {ĵ} {B(î)}. Beispiel Mozartproblem: A = , b = , c = 9 8 Mozartproblem 1 8 x4 x2 6 4 x3 2 x x1 Anfang: Starten im Nullpunkt, zugehörige Basis B = {3, 4, 5}, N = {1, 2} x = (,, 6, 11, 9) τ, x B = (6, 11, 9) τ 1. Iteration: A B = 1 1 1, c B = Wählen ĵ = 1, dann ist w = 1 2 1, y =, z N = [ 9 8 î = 2, B(î) = 4, γ = 5.5 B = {3, 1, 5}, N = {4, 2}, x = ]., x B =

20 18 KAPITEL 1. LINEARE OPTIMIERUNG 2. Iteration: A B = , c B = Wählen ĵ = 2, dann ist w = 3. Iteration: A B = optimal , y = 4.5, z N = î = 1, B(î) = 3, γ = 1 B = {2, 1, 5}, N = {4, 3}, x =, c B = 8 9, y = , z N = [ , x B = Satz Ist im primalen Algorithmus immer γ >, dann endet der Simplex-Algorithmus nach endlich vielen Schritten. Beweis. In jedem Schritt mit γ > verbessert sich der Zielfunktionswert: c τ x + = c τ BA 1 B b + (c N A τ NA τ B c B) τ x + N = cτ BA 1 B b + z ĵ γ < c τ BA 1 B b = cτ x < > d.h. keine Basis kommt zweimal ( vor. ) Jede Basis entspricht einer Auswahl von m Indizes aus n {1,..., n}; es gibt höchstens unterschiedliche Basen, d.h. der Algorithmus endet nach ( ) m n höchstens Iterationen. m { } xb(i) Wann ist = γ = min w i, w i, i {1,..., m}? γ = bedeutet, i B : x B(i) =, d.h. eine weitere Ungleichung ist bzgl. dieser Basislösung aktiv. Definition Eine Basis B heißt entartet/degeneriert (degenerate), falls x B(i) = für ein i {1,..., m}. Ein lineares Optimierungsproblem heißt entartet/degeneriert, falls es entartete Basen besitzt. [ 1 7 ] ]..

21 1.2. DER SIMPLEXALGORITHMUS 19 Entartetes LP: Durch einen von n Gleichungen festgelegten Punkt gehen mehr als n Gleichungen. Für zufällige Daten tritt dies mit Wahrscheinlichkeit ein; in der Praxis aber recht oft. Im Simplex-Algorithmus legen die Nichtbasisvariablen N den Punkt fest. Im Pricing-Schritt wird eine Ungleichung aus N herausgenommen. Damit wird ein eindimensionaler Halbstrahl festgelegt, entlang dem sich die Lösung weiterbewegen kann. Trifft der Halbstrahl bereits für Schrittweite die nächste Ungleichung, beschreiben die neuen Nichtbasisvariablen denselben Punkt. So etwas kann sich mehrmals wiederholen, oder sogar auf die selbe Basis zurückführen. In diesem Fall sagt man, der Simplexalgorithmus kreist; er terminiert dann nicht. Für die meisten üblichen Auswahlverfahren im Pricing bzw. Ratio Test kann man Beispiele mit Kreisen konstruieren. Eine einfache Auswahlregel, die das Kreisen verhindert, ist die Regel von Bland: Im Pricing wähle unter den Variablen mit negativen reduzierten Kosten diejenige mit dem kleinsten Index. Im Ratio-Test wähle unter den -Variablen diejenige mit kleinsten Index. Satz Werden im Simplexalgorithmus die Auswahlverfahren von Bland verwendet, terminiert der Simplexalgorithmus immer. Beweis. Nehmen an, der Algorithmus kreist trotzdem. Seien B 1,... B k die Basen, die der Algorithmus durchkreist: B 1,..., B k, B 1,... und I = {i {1,..., n} : k 1, k 2 {1,..., k} : i B k1, i / B k2 } die Indexmenge der wechselnden Variablen. Sei t = max I, o.b.d.a. sei t B 1, t / B 2. Sei s B 2 \ B 1, also s N 1, s / N 2 die neue Basisvariable, die t ersetzt. Sei B = B h {B 2,..., B k } die erste Basis mit t / N h, t B h+1. Für B müssen die reduzierten Kosten von t negativ sein: c t := c t (A.,t ) τ A τ B c B < und c i i N I c s. Definieren c i = i B. Der Zielfunktionswert ist ( ) β + n+m j=1 c j x j mit β = c τ B A τ B b. Für die Basis ˆB = B 1 ist s ˆN und ĉ s := c s (A.,s ) τ A τ ˆB c ˆB Abhängigkeit von x s ist β + ĉ s x s. <. Die Zielfunktion in

22 2 KAPITEL 1. LINEARE OPTIMIERUNG Aus ( ) mit x ˆB = A 1 ˆB b ˆb A 1 ˆB A.,s â x s erhalten wir β + ĉ s x s = β + j ˆB c j(ˆb j â j x s ) + c js x s (ĉ s c js + j ˆB c jâ j )x s = j ˆB c jˆb j = const x s ĉ s < c js + j ˆB c j â j = > j ˆB mit c j â j >, insbesondere c j, also j / B, j ˆB. Also wechselt Variable j in und aus der Basis, j t weil j / B j < t damit c j (bei c j < wäre j statt t im Pricing ausgewählt worden); damit ist auch â j >. Da j wechselt, ist x j = und wegen j ˆB und j < t hätte j statt t im Schritt von ˆB = B 1 zu B 2 im Ratio-Test gewählt werden müssen. Widerspruch. Korollar Ausgehend von einer zulässigen Basis bestimmt der Simplexalgorithmus mit der Auswahlregel von Bland in endlich vielen Schritten eine Optimallösung oder weist die Unbeschränktheit nach. Beweis. Folgt aus Lemma 1.2.1, Lemma und aus Satz Es gibt noch andere Varianten, das Kreisen zu vermeiden: - zufällige Wahl der austretenden Variable - zufällige Pertubation der rechten Seite - symbolisches Pertubieren ( < ε 1 ε 2... ε m Pertubationen, die sich nicht auslöschen können) Diese werden immer erst dann eingesetzt, wenn Anzeichen für das Kreisen beobachtet werden. Sonst gibt es bessere Regeln: ursprünglich: negativste reduzierte Kosten. Nachteil: hängt stark von der Skalierung der einzelnen Variablen ab, z.b.: c 1 x 1 + c 2 x 2 =.3x 1 1.5x 2 x 2 ersetzen x 1 = 1x 1 3x 1 1.5x 2 x 1 misst nur den Fortschritt pro Einheitsschritt entlang xĵ minimiert misst den Fort- heute allgemein: steilste Kante ( steepest edge ) Idee: Wähle ĵ N, so dass die Richtung x den Ausdruck cτ x x schritt pro Einheitsschritt im Gesamtraum.

23 1.2. DER SIMPLEXALGORITHMUS 21 Wie geschieht dies effizient? Bei Wahl von j aus N ist [ ] xb x = = x N [ A 1 B A.,j x B = A 1 B A Nx N + A 1 B b ] + e j c τ x = c τ B x B + c τ N x N = c j (A τ N A τ B c B) j = y j x 2 = x B = A 1 B A Ne j In jedem Schritt A 1 B A N zu berechnen ist zu aufwendig. Man kann aber die Normen ν k = A 1 B A Ne k 2, k N mitführen und effizient aktualisieren. Betrachten Aktualisierung von ν k bei Basiswechsel B = B \ {B(î)} {ĵ}: A B = A B + (A.,ĵ A B(î) )eî τ = A B (I + A 1 B ( A.,ĵ A.,B(î) )eî τ) = A B (I + ( A 1 B, A.,ĵ A 1 B.,B(î) )eî τ w eî = A B ( I + (w eî)eî τ ) W ν k = A 1 B A.,k 2 = A τ.,k A τ B A 1 B A.,k = A τ.,k A τ B W τ W 1 A 1 B A.,k Einschub: Wie bekommt man (A + uv τ ) 1 aus A 1 (low rank update)? (A + uv τ ) 1 = A v τ A 1 u A 1 uv τ A 1 füra = I : (I + uv τ ) 1 = I 1 1+v τ u uvτ fürw : W 1 = I 1 (w eî)e τ wî î. Also erhält man ν k = A τ.,k a k τ AB (I e î(w eî) τ wî = a τ k A τ B A 1 B a k 2a τ k = ν k 2 aτ k u(v u)τ a k wî A τ B ) ( ) I (w e î)eî τ A 1 wî B A.,k a k e î(w eî) τ A 1 B a wî k + a τ k + (a τ k u) w e i 2 w 2 i A τ B benötigen dazu also nur: u = A τ B e î, also lösen von A τ B u = e î v = A τ B w, also lösen von Aτ B v = w also recht günstig zu berechnen. Laufzeit des Simplexalgorithmus: Im schlimmsten Fall exponentiell viele Iterationen Klee und Minty 1972: 2 n (n Variablen, n Nebenbedingungen) Klee und Minty Cubes für negativste reduzierte Kosten e î(w eî) τ (w eî)eî τ A 1 B a wî 2 k

24 22 KAPITEL 1. LINEARE OPTIMIERUNG empirisch für praktische Probleme: 1.5m Iterationen; hängt jedoch sehr von der Degeneriertheit des Linearen Programmes ab. 1.3 Zulässigkeit und Fundamentalsatz der Linearen Optimierung Wie findet man eine zulässige Basis? Betrachten also min c τ x s.t. Ax = b x, Basis bekannt sei. wobei keine zulässige Zwei-Phasen-Methode Lösen in Phase I ein künstliches Problem. O.B.d.A. sei b. Die Aufgabe min e τ s = s i s.t. Ax + s = b x, s hat eine zulässige Basis: {s 1,..., s m } Findet der Simplexalgorithmus eine Optimallösung mit s i = i, dann ist die entsprechende Basis zulässig für das Originalproblem. Löse davon ausgehend in Phase II das Originalproblem. Bemerkung Sobald ein s i nach N wechselt, kann die Hilfsvariable entfernt werden. Sind in der Optimallösung der Phase I noch s i in der Basis (degeneriert), so kann man diese immer mit einer geeigneten Spalte herauspivotisieren. Terminiert Phase I mit Optimalwert >, dann gibt es nach Korollar keine zulässige Lösung Groß-M/(Big-M)-Methode Man versucht, beide Phasen in einer zu behandeln, indem man M wählt und löst. min c τ x + Me τ s s.t. Ax + s = b x, s

25 1.4. DUALITÄT 23 Nachteile: Es ist unklar wie groß M gewählt werden muss. Verursacht oft numerische Schwierigkeiten. Vorteile: Wenn M klein gewählt werden kann: Simplexalgorithmus geht sofort auf die Suche nach einer einer guten Basis. Künstliche Variablen können wie zuvor entfernt werden, sobald sie in N wechseln. Satz (Fundamentalsatz der linearen Optimierung). Hat ein Lineares Programm eine Optimallösung, wird diese auch in einer zulässigen Basis angenommen. Ein lineares Programm ohne Optimallösung ist entweder unbeschränkt oder unzulässig. Beweis. Zwei-Phasen-Methode und Korollar Wichtig: Das Resultat verwendet wesentlich x. Lässt man auch freie Variable zu, muss es keine Basislösung mehr geben. Beispiel: min ax + by s.t.ax + by = c. 1.4 Dualität Zu jedem linearen Programm kann man ein duales Programm aufschreiben, das immer gleichzeitig mitgelöst wird und wichtige Zusatzinformationen zum ursprünglichen liefert. Geometrisch lässt es sich als das Bestimmen einer gültigen Ungleichung, die den Zielfunktionswert am stärksten einschränkt, erklären. Beispiel Zielfunktion max c τ x s.t. Ax b x 4 3 X = {x : Ax b} x Aus Ax b können neue gültige Ungleichungen gewonnen werden, indem man die Ungleichungen mit nichtnegativen Zahlen multipliziert und addiert ( Nichtnegative Linearkombinationen ).

26 24 KAPITEL 1. LINEARE OPTIMIERUNG Sei y R m : y, a = y τ A, b = y τ b. Dann ist a τ x b gültig x X. Gilt zusätzlich a c, dann ist wegen x auch c τ x a τ x b x X. Jedes y mit A τ y c liefert y τ b als obere Schranke für den Optimalwert. Das duale Programm sucht die kleinste Schranke über alle y. max c τ x s.t. Ax b x = min b τ y s.t. A τ y c y Primales Programm in kanonischer Form Duales Programm in kanonischer Form Woher kommt der Name dual? In der linearen Algebra wird für einen Vektorraum V der Vektorraum der linearen Funktionale f : V R als Dualraum V bezeichnet. Für V = R n ist f(x) = α 1 x 1 α n x n, also (R n ) = R.. Die Nebenbedingungen enthalten lineare Funktionale. Mit y bilden wir eine nichtnegative Linearkombination dieser Vektoren aus dem Dualraum und erhalten ein neues Element aus dem dualen Raum. Im dualen Problem optimieren wir über den dualen Vektorraum. Wegen (R n ) = R n sind beide Probleme ganz gleich. Insbesondere ist das Duale des dualen Problems wieder das Primale. Analog leitet man das Duale für ein Primales in Standardform ab: min c τ x s.t. Ax = b x max b τ y s.t. A τ y c y frei max b τ y s.t. A τ y + z = c y frei, z Primales in Standardform Übung: Was macht man, wenn,, =-Nebenbedingungen gleichzeitig auftreten? Duales in Standardform Schwache Dualität Betrachten primal-duales Paar in Standardform: X = {x : Ax = b}, Z = {(x, y) : A τ y + z = c, z }. Offensichtlich gilt nach Konstruktion sogenannte schwache Dualität (weak duality): inf x X cτ x sup b τ y (x,y) Z alternativer Beweis: Sei x X, (y, z) Z c τ x = (A τ y + z) τ x = y τ Ax + z τ x = b τ y + z τ x b τ y.

27 1.4. DUALITÄT 25 Entscheidende Frage: Kann es passieren, dass p := inf c τ x > sup b τ y =: d, (y,z) Z also eine Dualitätslücke auftritt, oder gilt immer p = d (sogenannte starke Dualität)? Nicht, wenn p endlich ist, denn dann berechnet der primale Simplexalgorithmus gleich die duale Optimallösung mit. 1. BTRAN: Berechne y = A τ B c B durch lösen von A τ B y = c B 2. Pricing: Berechne z N = c N A τ N y Falls z N, ist x Optimallösung. Stop!... Ist x Optimallösung, dann ist ( A τ B A τ N der Wert der dualen Lösung ist ) ( ) y + z N =:z = ( cb c N ), also (y, z) dual zulässig und b τ y = b τ A τ B c B = x τ Bc B = c τ x gleich dem primalen Optimalwert. Aufgrund der schwachen Dualität ist (y, z) also duale Optimallösung mit dem gleichen Wert. Das zeigt: Satz (starke Dualität). Ein primales Programm hat eine endliche Optimallösung genau dann, wenn auch das dazugehörige duale eine endliche Optimallösung hat. Insbesondere: Ist eines der beiden zulässig, dann gilt inf x X cτ x = sup b τ y. (y,z) Z Beispiel Beide unzulässig ist möglich: max x 1 s.t. x 1 x 2 1 x 1 + x 2 x 1, x 2 min y 1 s.t. y 1 y 2 1 y 1 + y 2 y 1, y 2 Korollar (Satz vom Komplementären Schlupf (complementary slackness theorem)). Seien x und (y, z) primal und dual zulässig (bezüglich der Standardform). x und (y, z) sind primale und duale Optimallösung genau dann, wenn x τ z =. Beweis. : Satz und schwache Dualität : schwache Dualität

28 26 KAPITEL 1. LINEARE OPTIMIERUNG Bemerkung x τ z = gilt offensichtlich für beliebige primale und duale Optimallösungen. Wegen x und z folgt aus x τ z =, dass x i z i =. Wenn also x i der primalen Schlupfvariablen der Ungleichung j entspricht, heißt dass x i z i = x i ( c i = y) = x i ( y j ) =. =e j y j A τ.,i Falls der primale Schlupf der j-ten Ungleichung in einer Optimallösung x größer als ist (die Ungleichung ist nicht bindend), dann muss in jeder dualen Optimallösung y j = sein. Umgekehrt: Ist y j Dualvariable einer primalen Ungleichung und ist y j in einer dualen Optimallösung, dann muss diese primale Ungleichung in allen primalen Optimallösungen mit Gleichheit erfüllt sein. Primale Optimallösung degeneriert Duale Optimallösung nicht eindeutig. Duale Optimallösung ist degeneriert primale Optimallösung ist nicht eindeutig. ( ) ( ) ( ) A τ Um dualen Simplex zu entwickeln: B zb cb y + =. A τ N Setzen also z B auf und berechnen die anderen (beachte: komplementärer Schlupf): y = A τ B c B A τ B z B z N = c N A τ N y = c N A τ N A τ B c B + A τ N A τ B z B für duale Zulässigkeit Zielfunktion in Abhängigkeit von z B : b τ y = ba τ B c B ba τ B z B z B(î) vergrößern hilft dann, wenn > [A τ B b] B(î) = x B(î) (also wenn die Nebenbedingung B(î) primal unzulässig ist). z B(î) vergrößern, solange z N zulässig bleibt: Finde maximales γ mit z N = c N A τ NA τ B c B + A τ NA τ B e îγ Algorithmus (dualer Simplexalgorithmus). Input: A, b, c, eine zulässige Basis B und z N = c N A τ N A τ B c B 1. BTRAN: Löse A B x B = b 2. Pricing: Falls x B, ist B optimal. Stop! Sonst wähle î {1,..., m} mit x B(î) <. z B(î) ist die austretende Variable. 3. FTRAN: Löse A τ B w = e î und berechne dann α N = A τ N w. 4. Ratio-Test: Falls α N, ist das LP unzulässig. Stop! } Sonst setze γ = min : α k >, k N { z k α k zĵ ist die eintretende Variable. z N c N = { z ĵ αĵ } mit ĵ N, αĵ.

29 1.5. SENSITIVITÄT Update: Setze z N := z N γα N z B(î) := γ N := N \ {ĵ} {B(î)} B(î) := ĵ. 1.5 Sensitivität Typische Frage an die Optimallösung: Wie stabil ist die Optimallösung gegenüber Veränderungen der Kosten oder der rechten Seite? Etwa weil: man die Preise anpassen will, man die Daten nicht genau kennt, man wissen will, welche Nebenbedingungen besonders wichtig sind. Seien primale und duale Optimallösungen x B = A 1 B b y = A τ B c B zn = c N A τ N y sowie die primalen bzw. dualen Optimalwerte gegeben. p : c τ B x B + cτ N x N d : b τ y. Änderungen c in c: erhalten die primale Zulässigkeit, aber führen zu Änderungen im Dualen. Derzeitige Basis ist solange optimal, solange z N (t) sind für c(t) = c + t c mit t R. z N (t) = c N + t c N A τ N A τ B (c B + t c B ) = zn + t( c N A τ NA τ B c B ) =: z N Also gilt z N (t) für max [ z N ] i > { [z N ] i [ z N ] i } t min [ z N ] i < { } [z N ] i [ z N ] i. Für diese t ist der neue Optimalwert einfach (c + t c) τ x. Kein Spielraum, wenn [z N ] i = und [ z N ] i (mit richtigem Vorzeichen) (duale Optimallösung degeneriert). Änderungen b in b: erhalten die duale Zulässigkeit, führen aber zu Änderungen im Primalen.

30 28 KAPITEL 1. LINEARE OPTIMIERUNG Derzeitige Basis ist solange optimal, solange x B (t) bleibt für b(t) = b + t b x B (t) = x B + t A 1 B b x B Also gilt x B (t) für { } { } max [x B ] i [ x B ] i > [ x B ] i t min [x B ] i [ x B ] i < [ x B ] i. Für diese t ist der Optimalwert = (b + t b) τ y. Interessiert uns besonders b = e j (also wenn wir für eine Ungleichung j die rechte Seite b j ändern) y j gibt uns die marginale Änderung der Zielfunktion bei Einheitsänderung b = e j an. Folglich lassen sich y als Schattenpreise bei Ressource-Nebenbedingungen interpretieren. Wenn man b j durch Zukauf von Ressourcen vergrößern will, dann darf das pro Einheit höchstens y j kosten, sonst rentiert sich das sicher nicht. Anbieter der Ressource wird im Gleichgewichtsfall gerade y j verlangen (sonst könnte man Gewinn steigern). Ist insbesondere ein y j =, kann die entsprechende Ungleichung weggelassen werden, ohne die Optimallösung zu verändern, denn: Primales bleibt zulässig, Zielfunktionswert ändert sich nicht, Duales ändert sich nicht. Definition Nebenbedingungen mit y j nennt man aktiv. Ebenso kann man natürlich primale Variablen mit x i = weglassen, ohne die Optimallösung zu verändern. Bei sehr großen linearen Programmen versucht man inaktive Ungleichungen und (unnötige) Variablen erst gar nicht aufzunehmen. 1.6 Spaltengenerierung und Schnittebenenverfahren Spaltengenerierung (column generation) Ax = b lässt sich nicht speichern, weil n zu groß ist, man weiß aber, wie zu jedem x j die Spalte A.,j gebildet werden muss. Solange x j = ist, braucht man die Spalte A.,j nicht. x j wird, wenn es im Pricing-Schritt gewählt wird. Pricing: Berechne z N = c N A τ Ny mit y = A τ B c B und wähle ĵ mit zĵ <. Es reicht, wenn min (c j A τ.,jy) bestimmt werden kann, dazu muss A N nicht explizit verfügbar sein. j N Beispiel Schneide Bleche mit Breite b i mit Gesamtlänge l i, i = 1,..., m, aus Blechrollen der Breite b, so dass möglichst wenig Verschnitt entsteht.

31 1.6. SPALTENGENERIERUNG UND SCHNITTEBENENVERFAHREN 29 Schnittmuster: beliebige Kombination der Breiten b i, so dass die Gesamtbreite b. Zulässige Menge also m S = {s N m : s i b i b} i=1 s i : wie oft kommt b i im Schnittmuster s vor Variable x s für s S: Länge, mit der Schnittmuster s eingesetzt wird. Problem: min x s möglichst wenige Rollen verwenden s S s.t. sx s l Bedarf erfüllen s S x s s S. Für s S ist A.,s = s. Das Pricing-Problem ist damit max y τ s m min (1 s S sτ y) oder s.t. s i b i b i=1 s i N, i = 1,..., m Dieses sogenannte Rucksackproblem (knapsack problem) löst man für b i N und b N (jeweils nicht zu groß, 1) mit dynamischer Programmierung: bauen die Lösung sukzessive für Gesamtbreite b = 1,..., b und mit Breiten b 1,..., b k mit k < m auf nutzen die Rekursion (für < b b, < k m) opt(b, k) = max{opt(b, k 1), opt(b b k, k) + y k } o.b.d.a. definieren opt(z 1, z 2 ) = für z 1 = oder (z 1 > und z 2 = ) und opt(z 1, z 2 ) = für z 1 <. Beispiel b 1 = 3, b 2 = 5, b 3 = 6, b = 1, y 1 = 2, y 2 = 4, y 3 = opt(.,) opt(.,1) opt(.,2) opt(.,3) {}} { {}} {{ }} { {}} { = 2 = 4 =

32 3 KAPITEL 1. LINEARE OPTIMIERUNG Zu opt(1, 3) = 9 gehört die Spalte s = In der Praxis: 1. Wähle einige Anfangsmuster, die Zulässigkeit garantieren. 2. Löse für diese optimal. 3. Entferne ungebrauchte Schnittmuster (Spalten). 1 1, die als neue Spalte A.,j aufgenommen wird. 4. Bestimme neue Schnittmuster durch Spaltengenerierung. Falls keine negativen reduzierten Kosten optimal über alle Schnittmuster. Stop! 5. Sonst zurück zu Schritt 2. Nachteil in konkreter Anwendung: Länge x s des Schnittmusters ist leider normalerweise kein ganzzahliges Vielfaches der Längen der Ausgangsrollen. Anzahl der ausgewählten Schnittmuster m (Anzahl der Breiten) im allgemeinen noch zu viel für praktische Anwendung (hohe Rüstkosten) Schnittebenenverfahren ist gerade die Spaltengenerierung im Dualen besser vorstellbar: im Primalen 1. Berechne Optimallösung für Auswahl der Ungleichungen. 2. F üge eine Ungleichung dazu, die von der derzeitigen Optimallösung verletzt wird. Gibt es keine Optimallösung des Gesamtsystems, sonst 1. Schwierigkeiten hier: Effizientes Finden von Ungleichungen, die die aktuelle Optimallösung verletzen Separierungsproblem. Beispiel: Traveling Salesman Problem(TSP) Welchen Algorithmus verwendet man wann? Spaltengenerierung: Problem bleibt primal zulässig primaler Simplex Schnittebenenverfahren: Problem bleibt dual zulässig dualer Simplex Simplex hat sehr gute Warmstart -Eigenschaften. Warmstart: Nach Problemmodifikation von aktueller Lösung aus fortsetzen.

33 1.7. GANZZAHLIGKEIT VON BASISLÖSUNGEN Ganzzahligkeit von Basislösungen In vielen Anwendungen sucht man ganzahlige Optimallösungen, meistens ist dies N P-schwer. Es gibt wichtige Spezialfälle, da geht es automatisch; nämlich dann, wenn alle Basislösungen ganzzahlig sind. Sei X = {x : Ax = b} und o.b.d.a. sei A Z m n. Definition Eine Matrix A Z m n vollen Zeilenranges heißt unimodular, falls die Determinante jeder aus m linear unabhängigen Spalten bestimmten Submatrix, den Wert ±1 hat. Satz Sei A Z m m regulär. A 1 b ist ganzzahlig b Z m A ist unimodular. Beweis. Setzen b = e i für i {1,..., m} A 1 e i ist ganzzahlig A 1 ganzzahlig. det }{{ A}} det{{ A 1 } = det I = ±1 det A = ±1. Z Z Ax = b mit Cramerscher Regel lösen: x i = Z {}}{ det(a.,[1,i 1], b, A.,[i+1,m] ) det }{{ A} =±1 x Z m. Satz Es habe A Z m n vollen Zeilenrang. Genau dann sind alle zulässigen Basislösungen von {x : Ax = b} ganzzahlig für alle b Z m, wenn A unimodular ist. Beweis. Sei A unimodular, b Z m, und x eine zulässige Basislösung von {x, Ax = b}. Dann gibt es eine Basis B mit x B = A 1 B b ganzzahlig (weil A B unimodular nach Satz 1.7.1) und x N = x Z n. Sei B Basis von A, also A B regulär. Nach Satz ist zu zeigen: A 1 B b Zm b Z m. Sei b Z m ; müssen also A 1 B b zulässig machen. Wählen w Zm, so dass w + A 1 B b. Damit ist b = A B (w + A 1 B b) Zm. Setze x B = w + A 1 B b und x N =, dann ist x zulässige Basislösung von {x : Ax = b}, also ist x ganzzahlig und damit auch A 1 B b = x B w. Wann geht [ das ] auch für {x : Ax b} und alle b Z m? x [A I] = b, also [A I] unimodular. s Jede quadratische Untermatrix von A muss Determinante ±1 oder haben (wähle k Spalten aus A und m k Spalten aus I, mit Laplace-Entwicklungssatz folgt Aussage).

34 32 KAPITEL 1. LINEARE OPTIMIERUNG Definition Eine Matrix A Z m n heißt total unimodular, wenn jede quadratische Untermatrix die Determinante ±1 oder hat. Ist A total unimodular, folgt also A {, +1, 1} m n. Beobachtung A total unimodular [A I] unimodular. 2. A total unimodular [A, I, A, I] τ total unimodular. 3. A total unimodular A τ total unimodular. Satz (Hoffmann und Kruskal (1956)). Sei A Z m n total unimodular und b Z m. Dann hat min{c τ x s.t. Ax b} immer eine ganzzahlige Optimallösung. Beweis. min{c τ x s.t. Ax b} ist äquivalent zu min{c τ x s.t. [A, A, I][x 1, x 2, s] τ = b, x 1, x 2, s }. Nach Beobachtung 1.7.3, (2., 3.), ist [A, A, I] total unimodular, nach Beobachtung 1.7.3, (1.) unimodular, also hat nach Satz das zweite LP immer eine ganzzahlige Optimallösung x 1, x 2 und x = x 1 x 2 Z m ist ganzzahlige Optimallösung für min{c τ x s.t. Ax b}. Satz Ist A total unimodular, und ist bei c Z n, b Z m max{c τ x : Ax b, x } = min{b τ y : A τ y c, y } endlich, dann werden die Optimallösungen auch in ganzzahligen Punkten x und y angenommen. Beweis. Nach Satz und nach Beobachtung (2.) gilt das für x und wegen Beobachtung (3.) auch für y. Definition Ein (ungerichteter) Graph ist ein Paar G = (V, E) bestehend aus einer (endlichen) Menge V von Knoten (nodes) und einer Menge E {{u, v} : u, v V, u v} von Kanten (edges). Definition Eine Kantenmenge P = {{u 1, u 2 }, {u 2, u 3 },..., {u k, u k+1 }} mit P E in Graphen G = (V, E) heißt Weg (der Länge k) (path), falls die u i paarweise verschieden sind. Ein Graph heißt zusammenhängend (connected), wenn es zwischen je zwei Knoten u, v V mit u v einen Weg gibt. Ein Graph G = (V, E ) heißt ein Teil- oder Untergraph von G = (V, E), falls V V, E E und E V V. Die kantenmaximalen zusammenhängenden Teilgraphen eines Graphen heißen die Zusammenhangskomponenten von G.

35 1.7. GANZZAHLIGKEIT VON BASISLÖSUNGEN 33 Eine Kantenmenge C = {{u 1, u 2 }, {u 2, u 3 },..., {u k, u 1 }} mit C E in einem Graphen G = (V, E) heißt ein Kreis (cycle) (der Länge k), falls die u i paarweise verschieden sind. Definition Der vollständige Graph auf V = n Knoten wird mit K n bezeichnet. Ein Graph G = (V, E) heißt bipartit, falls V 1, V 2 mit V = V 1 V 2 (disjunkt vereinigt) und E {{u, v} : u V 1, v V 2 }. Der vollständige bipartite Graph V 1 = n und V 2 = m Knoten wird mit K n,m bezeichnet. Satz Ein Graph G = (V, E) ist bipartit genau dann, wenn er keine Kreise ungerader Länge besitzt. Beweis. jeweils hin und zurück gerade. Graph ist bipartit, wenn seine Zusammenhangskomponenten es sind. O.B.d.A. ist der Graph zusammenhängend. Wähle u V und setze: V 1 = {v V : Länge eines kürzesten Weges von u nach v ist ungerade} V 2 = {v V : Länge eines kürzesten Weges von u nach v ist gerade} {u} Annahme: Kante {v, w} E mit (v V 1 und w V 1 ) oder (v V 2 und w V 2 ). Sei P v ein kürzester uv-weg und P w ein kürzester uw-weg. Sei ū der letzte gemeinsame Knoten auf diesen Wegen. Da beide Wege kürzeste sind, ist der Abschnitt u nach ū jeweils gleich lang, damit sind die Restwege P v von ū nach v und P w von ū nach w jeweils beide gerade oder ungerade. C = P v P w {v, w} hat ungerade Länge Widerspruch. Satz (Heller und Tompkins (1956)). Sei A {, 1, 1} m n mit höchstens zwei nichtverschwindenden Einträgen pro Spalte. A ist total unimodular Die Zeilen von A können in zwei Klassen eingeteilt werden, so dass Zeilen mit einem +1 und einem 1 Eintrag in der gleichen Spalte in die gleiche Klasse und Zeilen mit zwei vorzeichengleichen Einträgen in der gleichen Spalte in unterschiedliche Klassen kommen. Beweis. Spalten mit nur einem Eintrag sind vernachlässigbar. Fassen zuerst Zeilen gemäß 1. zu Zeilenmengen Z i, i = 1,..., h, zusammen. Annahme: Es kommt dabei zu einem Widerspruch zu 2.; also gibt es eine Untermatrix der Form B = k Dann ist det B = B 1,1 det B 2:k,2:k + ( 1) k 1 B 1,k det B 2:k,1:k 1 Widerspruch zu = ( 1) k 1 ( 1) k 1 = 2. B ist Untermatrix einer total unimodularen Matrix. Bauen nun Graphen G = (V, E) mit V = {Z i : i = 1,... n}, also Zeilenmengen sind Knoten, und {Z i, Z j } E Spalte j mit A z, j = A z, j, z Z i, z Z j, also eine Kante wird

36 34 KAPITEL 1. LINEARE OPTIMIERUNG eingeführt, wenn gemäß 2. die Zeilenmengen in unterschiedliche Klassen gehören. Behauptung: G ist bipartit. Annahme: G ist nicht bipartit. Nach Satz gibt es einen ungeraden Kreis, also gibt es eine Untermatrix der Form B = Kante e {}}{ 1 1 Kante e {}}{ k mit det B = 1 + ( 1) k 1 1 = 2 Widerspruch zu A ist total unimodular (Untermatrix B ist total unimodular). Beachte: Sind für Z i = e i e j die Zeilen z und z Z i unterschiedlich, so muss eigentlich statt z 1 1 z 1 1 B = z z geschrieben werden. Aber jede 1 erhöht auch k um eins und verändert das Ergebnis daher nicht. Sei B eine beliebige quadratische Untermatrix. O.B.d.A. hat B nur Spalten mit 2 Einträgen (die anderen können leicht mit Laplaceschem Entwicklungssatz behandelt werden). Sei {Z 1, Z 2 } eine Partition der Zeilen gemäß 1. und 2., multipliziere die Zeilen aus Z 1 mit +1, die aus Z 2 mit 1. Dann ist die Summe der Zeilen der Nullvektor, also sind sie linear abhängig Anwendung: Bipartite Paarung (Matching/Zuweisungsproblem) Definition In einem Graphen G = (V, E) heißt eine Kantenmenge M E mit e f = e, f M : e f Matching oder Paarung. Ein Matching heißt perfekt, falls V (M) := e = V. e M Also: Keine zwei Kanten in M haben einen Knoten gemeinsam. In einem perfekten Matching werden alle Konten überdeckt. In den Anwendungen sind meist { Gewichte w e für e E gegeben } und man sucht ein Matching maximalen Gewichts: max w e : M E, M Matching. Ist G bipartit, spricht man von einem bipartiten Matching. e M

37 1.7. GANZZAHLIGKEIT VON BASISLÖSUNGEN 35 Beispiel Arbeiter zu Maschinen zuordnen: Eine Kante zwischen einem Arbeiter und einer Maschine gibt an, dass er sie bedienen kann; das entsprechende Gewicht, wie gut er dabei ist. Gesucht ist eine Zuordnung mit maximaler Gesamtgüte. Modellierung als LP Definition {u, v} E. In einem Graphen G = (V, E) heißen zwei Knoten u, v adjazent, wenn Eine Kante e und ein Knoten u heißen inzident, wenn u e. Sei G = (V, E) mit Kantengewichten w e R E, dann ist die gewichtete Adjazenzmatrix die (symmetrische) Matrix A R V V mit a i,j = w {i,j}, falls {i, j} E, sonst. Die Knoten-Kanteninzidenzmatrix ist die Matrix A R V E mit { 1, falls u e a u,e =, sonst. Der Inzidenzvektor oder charakteristische Vektor einer Teilmenge B einer Obermenge O ist der Vektor χ(b) {, 1} O mit { 1, falls i B χ(b) i =, sonst. Sei A die Knoten-Kanteninzidenzmatrix eines bipartiten Graphen G = (V, E). Dann ist A total unimodular (nach 1.7.7; Z 1 : Zeilen zu V 1, Z 2 : Zeilen zu V 2 ). Sei M E. M ist ein Matching genau dann, wenn Aχ(M) e = (1,..., 1) τ ist, d.h. wenn jeder Knoten höchstens einmal überdeckt wird. Lineares Programm für Matching maximalen Gewichts: max w τ x s.t. Ax e x Simplex liefert optimale Basislösung x und nach dem Satz von Hoffman und Kruskal (1.7.4) ist x auch ganzzahlig, also ist x {, 1} E, also charakteristischer Vektor eines Matchings maximalen Gewichtes für bipartite Graphen. Ist w = e, so liefert Satz 1.7.5: max{e τ x : Ax e, x } = min{e τ y : A τ y e, y } und bei beiden sind optimale Basislösungen ganzzahlig. A τ y e bedeutet y {, 1} V und y u = 1 alle zu u inzidenten Kanten werden überdeckt.

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Optimalitätskriterien

Optimalitätskriterien Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den

Mehr

OPERATIONS-RESEARCH (OR)

OPERATIONS-RESEARCH (OR) OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:

Mehr

18 Höhere Ableitungen und Taylorformel

18 Höhere Ableitungen und Taylorformel 8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a

Mehr

KAPITEL 6 GANZZAHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULARE MATRIZEN

KAPITEL 6 GANZZAHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULARE MATRIZEN KPITEL 6 GNZZHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULRE MTRIZEN F. VLLENTIN,. GUNDERT. Ganzzahlige lineare Programme Viele Optimierungsprobleme des Operations Research lassen sich als ganzzahlige lineare

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Flüsse in Netzwerken

Flüsse in Netzwerken Skript zum Seminar Flüsse in Netzwerken WS 2008/09 David Meier Inhaltsverzeichnis 1 Einführende Definitionen und Beispiele 3 2 Schnitte in Flussnetzwerken 12 2.1 Maximaler s t Fluss..........................

Mehr

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298 Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester

Mehr

Lineare Programmierung Teil I

Lineare Programmierung Teil I Seminar über Algorithmen Prof. Dr. Helmut Alt Lineare Programmierung Teil I Lena Schlipf, Benjamin Jankovic Lena Schlipf, Benjamin Jankovic Seminar über Algorithmen SS05 1 Struktur des Vortrags 1. Was

Mehr

Diskrete Optimierung (Einführung zur Vorlesung)

Diskrete Optimierung (Einführung zur Vorlesung) Diskrete Optimierung (Einführung zur Vorlesung) Christoph Helmberg : [,] Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete

Mehr

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene

Mehr

3 Nichtlineare Gleichungssysteme

3 Nichtlineare Gleichungssysteme 3 Nichtlineare Gleichungsssteme 3.1 Eine Gleichung in einer Unbekannten Problemstellung: Gegeben sei die stetige Funktion f(). Gesucht ist die Lösung der Gleichung f() = 0. f() f() a) f ( ) 0 b) f ( )

Mehr

Algorithmen und Datenstrukturen Kapitel 10

Algorithmen und Datenstrukturen Kapitel 10 Algorithmen und Datenstrukturen Kapitel 10 Flüsse Frank Heitmann heitmann@informatik.uni-hamburg.de 6. Januar 2016 Frank Heitmann heitmann@informatik.uni-hamburg.de 1/8 Flüsse Graphen Grundlagen Definition

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

Optimierung. Florian Jarre Josef Stoer. Springer

Optimierung. Florian Jarre Josef Stoer. Springer 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Florian Jarre Josef Stoer Optimierung Springer Inhaltsverzeichnis

Mehr

4. Vektorräume und Gleichungssysteme

4. Vektorräume und Gleichungssysteme technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof Dr H M Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 41 und 42 4 Vektorräume

Mehr

3. Schnittebenenverfahren

3. Schnittebenenverfahren 3. Schnittebenenverfahren Themen 3. Schnittebenenverfahren Ganzzahlige lineare Programmierung Schnittebenenverfahren Konstruktion von Schnittebenen Auswahl von Schnittrestriktionen Operations Research

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 7 Lineare Programmierung II 1 Lineare Programme Lineares Programm: Lineare Zielfunktion Lineare Nebenbedingungen (Gleichungen oder Ungleichungen) Spezialfall der konvexen Optimierung

Mehr

Lineare Optimierung. bei Prof. Walter Alt. Semester: SS 2006 und WS 2009

Lineare Optimierung. bei Prof. Walter Alt. Semester: SS 2006 und WS 2009 Lineare Optimierung bei Prof. Walter Alt Semester: SS 2006 und WS 2009 Vorwort Dieses Dokument wurde als Skript für die auf der Titelseite genannte Vorlesung erstellt und wird jetzt im Rahmen des Projekts

Mehr

KLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen)

KLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen) Mathematisches Institut WS 2012/13 der Heinrich-Heine-Universität 7.02.2013 Düsseldorf Prof. Dr. Achim Schädle KLAUSUR zu Einführung in die Optimierung Bitte folgende Angaben ergänzen und DEUTLICH LESBAR

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

Analysis I - Stetige Funktionen

Analysis I - Stetige Funktionen Kompaktheit und January 13, 2009 Kompaktheit und Funktionengrenzwert Definition Seien X, d X ) und Y, d Y ) metrische Räume. Desweiteren seien E eine Teilmenge von X, f : E Y eine Funktion und p ein Häufungspunkt

Mehr

Wiederholung zu Flüssen

Wiederholung zu Flüssen Universität Konstanz Methoden der Netzwerkanalyse Fachbereich Informatik & Informationswissenschaft SS 2008 Prof. Dr. Ulrik Brandes / Melanie Badent Wiederholung zu Flüssen Wir untersuchen Flüsse in Netzwerken:

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Dr. Nico Düvelmeyer Freitag, 8. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 NLP Aufgabe KKT 2 Nachtrag

Mehr

2.2 Kern und Bild; Basiswechsel

2.2 Kern und Bild; Basiswechsel 22 Kern und Bild; Basiswechsel 22 Kern und Bild; Basiswechsel 35 Jede lineare Abbildung definiert charakteristische Unterräume, sowohl im Ausgangsraum als auch im Bildraum 22 Satz Sei L: V W eine lineare

Mehr

Multivariate Analysis

Multivariate Analysis Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

Lineare (Un-)Gleichungen und lineare Optimierung

Lineare (Un-)Gleichungen und lineare Optimierung Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik Universität Innsbruck Lehrer/innen/fortbildungstag Wien 2010 9. April 2010 Eine Maximumsaufgabe Eine Firma stellt aus

Mehr

Schranken für zulässige Lösungen

Schranken für zulässige Lösungen Schranken für zulässige Lösungen Satz 5.9 Gegeben seien primales und duales LP gemäß der asymmetrischen Form der Dualität. Wenn x eine zulässige Lösung des primalen Programms und u eine zulässige Lösung

Mehr

Lineare Abhängigkeit

Lineare Abhängigkeit Lineare Abhängigkeit Vorbemerkung. Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung I X, i x i. I heißt dabei Indexmenge. Man verwendet dabei oft die Schreibweise (x i ) oder (x

Mehr

ε δ Definition der Stetigkeit.

ε δ Definition der Stetigkeit. ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x

Mehr

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit) 3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben

Mehr

Kapitel VI. Euklidische Geometrie

Kapitel VI. Euklidische Geometrie Kapitel VI. Euklidische Geometrie 1 Abstände und Lote Wiederholung aus Kapitel IV. Wir versehen R n mit dem Standard Skalarprodukt x 1 y 1.,. := x 1 y 1 +... + x n y n x n y n Es gilt für u, v, w R n und

Mehr

35 Stetige lineare Abbildungen

35 Stetige lineare Abbildungen 171 35 Stetige lineare Abbildungen Lernziele: Konzepte: Lineare Operatoren und ihre Normen Resultate: Abschätzungen für Matrizennormen Kompetenzen: Abschätzung von Operatornormen 35.1 Lineare Abbildungen.

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare

Mehr

Effiziente Algorithmen I

Effiziente Algorithmen I H 10. Präsenzaufgabenblatt, Wintersemester 2015/16 Übungstunde am 18.01.2015 Aufgabe Q Ein Reiseveranstalter besitzt ein Flugzeug, das maximal p Personen aufnehmen kann. Der Veranstalter bietet einen Flug

Mehr

Mathematik 1 für Wirtschaftsinformatik

Mathematik 1 für Wirtschaftsinformatik Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration

Mehr

Optimierung I. Dr. Ulf Lorenz F2.413

Optimierung I. Dr. Ulf Lorenz F2.413 Optimierung I Dr. Ulf Lorenz F2.413 flulo@upb.de Organisation Dozent: Dr. Ulf Lorenz F2.413 Fürstenallee 11 email: flulo@upb.de WWW: http://www.upb.de/cs/flulo (hier auch aktuelle Infos + Ü-Zettel) Vorlesungen:

Mehr

Lineares Optimieren. W. Kippels 12. April Inhaltsverzeichnis. 1 Einleitung 2. 2 Die Beispielaufgabe 2. 3 Einführung von Schlupfvariablen 2

Lineares Optimieren. W. Kippels 12. April Inhaltsverzeichnis. 1 Einleitung 2. 2 Die Beispielaufgabe 2. 3 Einführung von Schlupfvariablen 2 Lineares Optimieren W. Kippels 1. April 015 Inhaltsverzeichnis 1 Einleitung Die Beispielaufgabe Einführung von Schlupfvariablen 4 Die Simplex-Methode 5 Das Basis-Austauschverfahren 4 6 Fortsetzung der

Mehr

Inhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57

Inhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57 Vorwort... 13 Vorwort zur 3. deutschen Auflage... 17 Kapitel 1 Einführung, I: Algebra... 19 1.1 Die reellen Zahlen... 20 1.2 Ganzzahlige Potenzen... 23 1.3 Regeln der Algebra... 29 1.4 Brüche... 34 1.5

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2016 Lineare Gleichungssysteme Schwerpunkte: Interpretation und Verständnis der Gleichungen Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik unter

Mehr

Kapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung

Kapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung Gliederung der Vorlesung. Fallstudie Bipartite Graphen. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen. Minimal spannende Bäume. Kürzeste Pfade. Traveling Salesman Problem. Flüsse in Netzwerken

Mehr

Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É.

Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Tardos Janick Martinez Esturo jmartine@techfak.uni-bielefeld.de xx.08.2007 Sommerakademie Görlitz Arbeitsgruppe 5 Gliederung

Mehr

(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung)

(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung) Lineare Optimierung Unterbestimmte LGS und Optimierung Bei lösbaren unterbestimmten linearen Gleichungssystemen haben wir die Qual der Wahl in Abhängigkeit von den freien Parametern (Anzahl = Anzahl Unbekannte

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

Universität des Saarlandes Seminar der Fachrichtung Mathematik Rudolf Umla

Universität des Saarlandes Seminar der Fachrichtung Mathematik Rudolf Umla Universität des Saarlandes Seminar der Fachrichtung Mathematik Rudolf Umla Sätze über Konvexität von Kapitel 4.7 bis 4.10 Theorem 4.7-1. Sei U ein konvexer Unterraum eines normierten Vektorraums. Dann

Mehr

1 Zahlentheorie. 1.1 Kongruenzen

1 Zahlentheorie. 1.1 Kongruenzen 3 Zahlentheorie. Kongruenzen Der letzte Abschnitt zeigte, daß es sinnvoll ist, mit großen Zahlen möglichst einfach rechnen zu können. Oft kommt es nicht darauf, an eine Zahl im Detail zu kennen, sondern

Mehr

Numerische Ableitung

Numerische Ableitung Numerische Ableitung Die Ableitung kann angenähert werden durch den Differentenquotient: f (x) f(x + h) f(x) h oder f(x + h) f(x h) 2h für h > 0, aber h 0. Beim numerischen Rechnen ist folgendes zu beachten:

Mehr

Mathematik für Wirtschaftswissenschaftler

Mathematik für Wirtschaftswissenschaftler Knut Sydsaeter Peter HammondJ Mathematik für Wirtschaftswissenschaftler Basiswissen mit Praxisbezug 2., aktualisierte Auflage Inhaltsverzeichnis Vorwort 13 Vorwort zur zweiten Auflage 19 Kapitel 1 Einführung,

Mehr

7.2.1 Zweite partielle Ableitungen

7.2.1 Zweite partielle Ableitungen 72 72 Höhere Ableitungen 72 Höhere Ableitungen Vektorwertige Funktionen sind genau dann differenzierbar, wenn ihre Koordinatenfunktionen differenzierbar sind Es ist also keine wesentliche Einschränkung,

Mehr

Lineare Programmierung

Lineare Programmierung Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel

Mehr

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.

Mehr

Inhaltsverzeichnis. 1 Lineare Algebra 12

Inhaltsverzeichnis. 1 Lineare Algebra 12 Inhaltsverzeichnis 1 Lineare Algebra 12 1.1 Vektorrechnung 12 1.1.1 Grundlagen 12 1.1.2 Lineare Abhängigkeit 18 1.1.3 Vektorräume 22 1.1.4 Dimension und Basis 24 1.2 Matrizen 26 1.2.1 Definition einer

Mehr

Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau

Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau Ziele: Einführung in richtige Einordnung von Optimierungsproblemen Modellierungstechniken praktische Umsetzung

Mehr

Daniel Borchmann. Sommerakademie Görlitz September 2007

Daniel Borchmann. Sommerakademie Görlitz September 2007 Einführung in Semidenite Programmierung Daniel Borchmann Sommerakademie Görlitz 2007 12. September 2007 1 Einleitung Lineare Optimierung Semidenite Optimierung 2 MAX-CUT MAX-BISECTION MAX-2SAT Einleitung

Mehr

Caputo fraktionale Differentialgleichungen. 1 Riemann Liouville fraktionale Differentialgleichungen

Caputo fraktionale Differentialgleichungen. 1 Riemann Liouville fraktionale Differentialgleichungen Seminar Fraktionale Differentialgleichungen Prof. Dr. P.E. Kloeden, WS1000/2001 Caputo fraktionale Differentialgleichungen Lars Grüne, 25.1.2001 Basierend auf Fractional Differential Equations, Theory

Mehr

Kapitel 4: Minimal spannende Bäume Gliederung der Vorlesung

Kapitel 4: Minimal spannende Bäume Gliederung der Vorlesung Kapitel : Minimal spannende Bäume Gliederung der Vorlesung. Fallstudie Bipartite Graphen 2. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen. Minimal spannende Bäume. Kürzeste Wege. Traveling

Mehr

Lineares Programmieren Algorithmentechnik WS 09/10 Dorothea Wagner 7. Januar 2010

Lineares Programmieren Algorithmentechnik WS 09/10 Dorothea Wagner 7. Januar 2010 Lineares Programmieren Algorithmentechnik WS 09/10 Dorothea Wagner 7. Januar 2010 FAKULTÄT FÜR I NFORMATIK, I NSTITUT FÜR T HEORETISCHE I NFORMATIK KIT Universität des Landes Baden-Württemberg und nationales

Mehr

Zahlen und metrische Räume

Zahlen und metrische Räume Zahlen und metrische Räume Natürliche Zahlen : Die natürlichen Zahlen sind die grundlegendste Zahlenmenge, da man diese Menge für das einfache Zählen verwendet. N = {1, 2, 3, 4,...} Ganze Zahlen : Aus

Mehr

Algebra und Diskrete Mathematik, PS3. Sommersemester Prüfungsfragen

Algebra und Diskrete Mathematik, PS3. Sommersemester Prüfungsfragen Algebra und Diskrete Mathematik, PS3 Sommersemester 2016 Prüfungsfragen Erläutern Sie die Sätze über die Division mit Rest für ganze Zahlen und für Polynome (mit Koeffizienten in einem Körper). Wodurch

Mehr

(Man sagt dafür auch, dass die Teilmenge U bezüglich der Gruppenoperationen abgeschlossen sein muss.)

(Man sagt dafür auch, dass die Teilmenge U bezüglich der Gruppenoperationen abgeschlossen sein muss.) 3. Untergruppen 19 3. Untergruppen Nachdem wir nun einige grundlegende Gruppen kennengelernt haben, wollen wir in diesem Kapitel eine einfache Möglichkeit untersuchen, mit der man aus bereits bekannten

Mehr

ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS

ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS Aufgabe 1. a) Gegeben sei die Gleichung 2x 2 4xy +y 2 3x+4y = 0. Verifizieren Sie, dass diese Gleichung

Mehr

Algorithmen II Vorlesung am 15.11.2012

Algorithmen II Vorlesung am 15.11.2012 Algorithmen II Vorlesung am 15.11.2012 Kreisbasen, Matroide & Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 2 Nichtlineare Gleichungssysteme Problem: Für vorgegebene Abbildung f : D R n R n finde R n mit oder ausführlicher f() = 0 (21) f 1 ( 1,, n ) = 0, f n ( 1,, n ) = 0 Einerseits führt die mathematische

Mehr

Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen

Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen 186.172 Algorithmen und Datenstrukturen 1 VL 4.0 Übungsblatt 4 für die Übung

Mehr

Technische Universität München Zentrum Mathematik Propädeutikum Diskrete Mathematik. Weihnachtsblatt

Technische Universität München Zentrum Mathematik Propädeutikum Diskrete Mathematik. Weihnachtsblatt Technische Universität München Zentrum Mathematik Propädeutikum Diskrete Mathematik Prof. Dr. A. Taraz, Dipl-Math. A. Würfl, Dipl-Math. S. König Weihnachtsblatt Aufgabe W.1 Untersuchen Sie nachstehenden

Mehr

11. Folgen und Reihen.

11. Folgen und Reihen. - Funktionen Folgen und Reihen Folgen Eine Folge reeller Zahlen ist eine Abbildung a: N R Statt a(n) für n N schreibt man meist a n ; es handelt sich also bei einer Folge um die Angabe der Zahlen a, a

Mehr

Lineare Gleichungssysteme (Teschl/Teschl 11.1)

Lineare Gleichungssysteme (Teschl/Teschl 11.1) Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Aufgaben zur nicht-linearen Optimierung Teil II Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Aufgabe 5 Bestimmen

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

Algorithmische Graphentheorie

Algorithmische Graphentheorie Algorithmische Graphentheorie Sommersemester 204 4. Vorlesung Matchings / Paarungen Kombinatorische Anwendungen des Max-Flow-Min-Cut-Theorems Prof. Dr. Alexander Wolff 2 Paarungen (Matchings) Def. Sei

Mehr

Dierentialgleichungen 2. Ordnung

Dierentialgleichungen 2. Ordnung Dierentialgleichungen 2. Ordnung haben die allgemeine Form x = F (x, x, t. Wir beschränken uns hier auf zwei Spezialfälle, in denen sich eine Lösung analytisch bestimmen lässt: 1. reduzible Dierentialgleichungen:

Mehr

Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger

Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger Beispiellösungen zur Klausur Lineare Algebra bei Prof. Habegger Stefan Lell 2. Juli 2 Aufgabe. Sei t Q und A t = t 4t + 2 2t + 2 t t 2t 2t Mat 3Q a Bestimmen Sie die Eigenwerte von A t in Abhängigkeit

Mehr

Netzwerk-Simplex. MinCostFlow als Lineares Programm. 1 of 12 Netzwerksimplex

Netzwerk-Simplex. MinCostFlow als Lineares Programm. 1 of 12 Netzwerksimplex Netzwerk-Simplex MinCostFlow als Lineares Programm of 2 Netzwerksimplex MinCostFlow geg: gerichteter Graph G, Kapazitäten u R R 0 { }, Bedarfe b V R, Pfeilkosten c R R ges: zulässiger b-fluss f mit minimalen

Mehr

Modulabschlussklausur Analysis II

Modulabschlussklausur Analysis II Modulabschlussklausur Analysis II. Juli 015 Bearbeitungszeit: 150 min Aufgabe 1 [5/10 Punkte] Es sei a R und f a : R 3 R mit f a (x, y, z) = x cos(y) + z 3 sin(y) + a 3 + (z + ay a y) cos(x) a) Bestimmen

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

Aufgaben für die 6. Übung zur Vorlesung Mathematik 2 für Informatiker: Analysis Sommersemester 2010

Aufgaben für die 6. Übung zur Vorlesung Mathematik 2 für Informatiker: Analysis Sommersemester 2010 Aufgaben für die 6. Übung zur Vorlesung Mathematik für Informatiker: Analysis Sommersemester 00 6. Wie hat man eine reelle Zahl α > 0 so in a b 3 positive Summanden x, y, z zu zerlegen, damit fx, y x y

Mehr

Literatur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS)

Literatur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS) Dominating Set 59 Literatur Dominating Set Grundlagen 60 Dominating Set (DS) M. V. Marathe, H. Breu, H.B. Hunt III, S. S. Ravi, and D. J. Rosenkrantz: Simple Heuristics for Unit Disk Graphs. Networks 25,

Mehr

Zahlen und Gleichungen

Zahlen und Gleichungen Kapitel 2 Zahlen und Gleichungen 21 Reelle Zahlen Die Menge R der reellen Zahlen setzt sich zusammen aus den rationalen und den irrationalen Zahlen Die Mengen der natürlichen Zahlen N, der ganzen Zahlen

Mehr

Ebene algebraische Kurven

Ebene algebraische Kurven Ebene algebraische Kurven Tangenten und Singularitäten Meyrer Claudine 4. November 010 Inhaltsverzeichnis 1 Lokale Eigenschaften an-algebraischer Kurven (in C ) 1.1 Denitionen..............................

Mehr

Übungen zur Linearen Optimierung Sommersemester 2011. Übungsblatt 1

Übungen zur Linearen Optimierung Sommersemester 2011. Übungsblatt 1 Universität Heidelberg Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Graduiertenschule HGS MathComp Dr. Stefan Körkel Magdalena Gottfried Übungen zur Linearen Optimierung Sommersemester 2011

Mehr

Seminararbeit für das SE Reine Mathematik- Graphentheorie

Seminararbeit für das SE Reine Mathematik- Graphentheorie Seminararbeit für das SE Reine Mathematik- Graphentheorie Der binäre Rang, der symplektische Graph, die Spektralzerlegung und rationale Funktionen Vortrag am 24.01.2012 Heike Farkas 0410052 Inhaltsverzeichnis

Mehr

3 Vom Zählen zur Induktion

3 Vom Zählen zur Induktion 7 3 Vom Zählen zur Induktion 3.1 Natürliche Zahlen und Induktions-Prinzip Seit unserer Kindheit kennen wir die Zahlen 1,, 3, 4, usw. Diese Zahlen gebrauchen wir zum Zählen, und sie sind uns so vertraut,

Mehr

Optimierung I. Einführung in die Optimierung. Skript zur Vorlesung von Prof. Dr. Mirjam Dür Prof. Dr. Alexander Martin Prof. Dr.

Optimierung I. Einführung in die Optimierung. Skript zur Vorlesung von Prof. Dr. Mirjam Dür Prof. Dr. Alexander Martin Prof. Dr. Optimierung I Einführung in die Optimierung Skript zur Vorlesung von Prof. Dr. Mirjam Dür Prof. Dr. Alexander Martin Prof. Dr. Stefan Ulbrich Wintersemester 2008/2009 TU Darmstadt Überarbeitete Version

Mehr

Das Briefträgerproblem

Das Briefträgerproblem Das Briefträgerproblem Paul Tabatabai 30. Dezember 2011 Inhaltsverzeichnis 1 Problemstellung und Modellierung 2 1.1 Problem................................ 2 1.2 Modellierung.............................

Mehr

Eine zweidimensionale Stichprobe

Eine zweidimensionale Stichprobe Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,

Mehr

Serie 10: Inverse Matrix und Determinante

Serie 10: Inverse Matrix und Determinante D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die

Mehr

Mathematische Optimierung

Mathematische Optimierung Mathematische Optimierung Geschrieben von Jan Pöschko auf Grundlage der Vorlesung von Bettina Klinz TU Graz Sommersemester 2007 Stand: 27. Oktober 2009 Inhaltsverzeichnis I Lineare Optimierung 7 1 Grundlegende

Mehr

6. Flüsse und Zuordnungen

6. Flüsse und Zuordnungen 6. Flüsse und Zuordnungen In diesem Kapitel werden Bewertungen von Kanten als maximale Kapazitäten interpretiert, die über solch eine Kante pro Zeiteinheit transportiert werden können. Wir können uns einen

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

Partielle Ableitungen, Gradient, Lineare Näherung, Extrema, Fehlerfortpflanzung

Partielle Ableitungen, Gradient, Lineare Näherung, Extrema, Fehlerfortpflanzung Partielle Ableitungen, Gradient, Lineare Näherung, Extrema, Fehlerfortpflanzung Jörn Loviscach Versionsstand: 29. Juni 2009, 18:41 1 Partielle Ableitungen, Gradient Die Ableitung einer Funktion f an einer

Mehr