KAPITEL 6 GANZZAHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULARE MATRIZEN

Größe: px
Ab Seite anzeigen:

Download "KAPITEL 6 GANZZAHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULARE MATRIZEN"

Transkript

1 KPITEL 6 GNZZHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULRE MTRIZEN F. VLLENTIN,. GUNDERT. Ganzzahlige lineare Programme Viele Optimierungsprobleme des Operations Research lassen sich als ganzzahlige lineare Programme formulieren. Definition.. Ein ganzzahliges LP (in Standardform) ist von der Form: max c T x x Z n x b, ( x ganzzahlig ) wobei c R n, R m n und b R m. Ein ganzzahliges lineares Programm nennen wir auch ILP oder IP (= integer linear program ). Wir maximieren also eine lineare Funktion über den ganzzahligen Punkten in einem Polyeder. P I P = {x R n : x b} P P I = conv(p Z n ) Beispiel.2. Es sei G = (V, E) ein ungerichteter Graph. Mit R V den Vektorraum der Funktionen von V nach R, also R V = {f : V R : f Funktion} und analog R E = {f : E R : f Funktion} R V E = {f : V E R : f Funktion} bezeichnen wir Wir definieren die Inzidenzmatrix R V E durch {, falls v e, v,e = 0, sonst. Date: 29. Juni 204.

2 2 F. Vallentin,. Gundert Dann ν(g) = max{ M : M E Matching in G} = max{ e E x e : x e 0 e E, x e Z e E, = max{. T x : x 0, x., x Z E } x e v V } e:v e Wir werden sehen, dass für G bipartit T ν(g) = max{. x : x 0, x., x R E } gilt. Im allgemeinen, nicht-bipartiten Fall kann aber < gelten. Zum Beispiel für G =, x e = 2 e E. Dualitätsbeziehung: Es gilt max{c T x : x b, x Z n } max{c T x : x b, x R n } = min{y T b : y 0, y T = c T, y R m } min{y T b : y 0, y T = c T, y Z m }, falls (PLP) und (DLP) beide zulässige Lösungen besitzen. Im llgemeinen gilt <, wie das obige Beispiel zeigt. Kein Wunder: LP kann effizient gelöst werden (in polynomieller Zeit), ILP dagegen wahrscheinlich nicht (Äquivalent zum P NP-Problem, für dessen Lösung Dollar ausgeschrieben sind). Frage: In welcher Situation gilt =? Definition.3. Ein Polytop P R n heißt ganzzahlig, falls jede Ecke z von P ganzzahlig ist, das heißt z Z n. Falls P ganzzahlig ist, dann gilt also max{c T x : x P, x Z n } = max{c T x : x P, x R n } Wir suchen also Bedingungen an und b, damit P = {x : x b} ganzzahlig ist. 2. Vollständig-unimodulare Matrizen Definition 2.. Eine Matrix R m n heißt vollständig-unimodular (VU), falls jeder ihrer Minoren (Determinanten quadratischer Teilmatrizen) gleich 0, oder + ist. Insbesondere gilt für die Einträge: ij {0,, +}.

3 Ganzzahlige Optimierung 3 Satz 2.2. Sei R m n VU, b Z m. Dann ist jede Ecke des Polyeders P = {x : x b} ganzzahlig. Sei z eine Ecke von P. Dann hat die Teilmatrix z vollen Rang n und enthält darum eine n n Teilmatrix mit Rang n. OBd sei in den ersten n Zeilen von enthalten. Setze b = (b,..., b n ) T Z n, dann gilt z = b. Nach der Cramerschen Regel ist z i = det i det. Da det = und i ganzzahlig ist, ist also z i Z. Bemerkung 2.3. Nicht jedes Polyeder hat eine Ecke. Definition 2.4. Ein Polyeder P R n heißt ganzzahlig, falls für alle c R n, für die max{c T x : x P } endlich ist, das Maximum an einem ganzzahligen Vektor angenommen wird. Satz 2.5. Sei R m n VU, b Z m. Dann ist P = {x : x b} ein ganzzahliges Polyeder. Sei c R n gegeben und x eine optimale Lösung von max{c T x : x b}. Wähle d, d Z n mit d x d. Dann ist Q = {x R n : x b, d x d } ein Polytop. Weiter ist Q = {x R n : I I x b und die Matrix I ist VU. Nach dem vorherigen Satz ist Q also ein ganzzahliges I Polytop und außerdem wird max{c T x : x Q} an einer Ecke x angenommen. Da x Q, ist c T x c T x, und weil x b, ist x optimale Lösung von max{c T x : x b}. Korollar 2.6. Sei R m n VU, b Z m, c Z n. Dann haben die beiden linearen Programme d d } max{c T x : x b} = min{y T b : y 0, y T = c T } ganzzahlige Lösungen, falls die Optima endlich sind. Folgt aus dem vorhergehenden Satz, weil die Matrix I T Z (2n+m) m VU ist. T Ziel: Charakterisierung von vollständig-unimodularen Matrizen mit Hilfe von Ganzzahligkeit von Polyedern. Satz 2.7. (Hoffman, Kruskal 956) Sei Z m n. Dann gilt ist VU für alle b Z m ist P = {x : x b, x 0} ganzzahlig.

4 4 F. Vallentin,. Gundert : Weil P {x : x 0}, wird max{ct x : x P } in einer Ecke von P angenommen, falls das Maximum [ endlich ist ( ufgabe 9.). Sei z eine Ecke von P. Definiere B =. Betrachte I] Bx = x I ( ) b. 0 Dann enthält B z eine reguläre ( Teilmatrix B Z n n. Sei b Z n der entsprechende Teilvektor von. Dann ist z = (B b 0) ) b ganzzahlig aufgrund der Cramerschen Regel und weil VU ist. : Sei eine reguläre k k-teilmatrix von. Zu zeigen: det =. OBd sei die obere linke Teilmatrix von. Betrachte B Z m m bestehend aus den ersten k und den letzten m k Spalten von [ I m ], also I [ I m ] = k 0 0 und B = 0 I m k Dann ist det B = det. I m k Ziel: Zeige B Z m m. Denn: Weil dann det B Z und det B det B =, muss det B = sein. Sei i {,..., m}. Wir zeigen, dass die i-te Spalte von B ganzzahlig ist: Wähle y Z m mit y + B e i 0 und setze z = y + B e i. Dann ist Bz = By + e i Z m. Setze b = Bz. Füge in z hinter den ersten k Komponenten n k + k Nullen ein und nenne diesen Vektor z. Dann gilt nach Konstruktion [ I]z = Bz = b. Da z 0, liegt der Vektor z, der aus den ersten n Komponenten von z besteht, in P = {x : x b, x 0}. Das heißt es gilt [ ( z I] b. 0) Die ersten k und die letzten n k dieser Ungleichungen sind mit Gleichheit erfüllt. Da die entsprechenden Zeilen von linear unabhängig sind, ist I also z eine Ecke von P. Nach Voraussetzung ist z Z n. uf den ersten n Komponenten stimmen z und z überein. Die letzten m Komponenten von z sind durch b z gegeben und also auch ganzzahlig. lso ist z Z m und somit auch B e i = z y Z m. 3. Vollständig-unimodulare Matrizen und bipartite Graphen Satz 3.. Sei G = (V, E) ein ungerichteter Graph. Dann gilt G ist bipartit Die Inzidenzmatrix R V E ist VU.

5 Ganzzahlige Optimierung 5 : Sei B eine t t Teilmatrix von. Zeige: det B {, 0, +} per Induktion nach t. t = : t > :.Fall: B enthält eine Nullspalte. Dann ist det B = 0. 2.Fall: B enthält eine Spalte, die genau eine enthält. Dann ist B (nach eventueller Permutation von Zeilen und Spalten) von der Form b T B = 0 B, b R t, B R (t ) (t ). Nach Induktionsvoraussetzung ist det B {, 0, +}. lso auch det B {, 0, +}. 3.Fall: Jede Spalte von B enthält genau zwei Einsen. Da G bipartit ist, kann man (nach eventueller Permutation der Zeilen) B als B B = B schreiben, wobei jede Spalte von B genau eine enthält und jede Spalte von B genau eine enthält. ufaddieren aller Zeilen von B ergibt den Vektor (,..., ). Genauso wie ufaddieren aller Zeilen von B. Das heißt die Zeilen von B sind linear abhängig, also det B = 0. : Sei VU. ngenommen G ist nicht bipartit. Dann enthält G einen Kreis ungerader Länge mit Knoten v,..., v k und Kanten e,..., e k. Die entsprechende Teilmatrix von (mit Zeilen v,..., v k und Spalten e,..., e k ) ist von der Form: v 2 v 3 e e 2 e 3... e k e k v v v v k v k v e e 2 e k e k v k v k Zum Beispiel durch Entwicklung nach der k-ten Spalte sieht man, dass die Determinante dieser Matrix gleich (+) +(+) = 2 ist (k ist ungerade!). lso kann nicht VU sein. Korollar 3.2. (Matching-Theorem von König; siehe Kapitel 3.3) Sei G = (V, E) ein bipartiter Graph. Dann ν(g) = max{ M : M E Matching in G} = min{ U : U V Knotenüberdeckung in G} = τ(g).

6 6 F. Vallentin,. Gundert ν(g) = max{ e E x e : x e 0 e E, x e Z, = max{ T x : x Z E, x 0, x } x e v V } e:v e = max{ T x : x R E, x 0, x } (nach Hoffman.Kruskal, weil VU ist) = min{ T y : y R V, y 0, y T } (LP Dualität) = min{ T y : y Z V, y 0, y T } (Hoffman-Kruskal) = min{ v V = τ(g). y v : y v Z, y v 0 v V, y u + y v {u, v} E} Ein Vektor y Z V, der das Minimum erzielt, hat nur 0/- Komponenten. Hierbei ist y v = v ist Knoten in einer minimalen Knotenüberdeckung. Korollar 3.3. Sei G = (V, E) ein bipartiter Graph. Dann conv{χ M : M E Matching in G} = {x R E : x 0, x }, wobei die Inzidenzmatrix von G ist. : : Q = {x RE : x 0, x } ist beschränkt, also ein Polytop und somit ist Q die konvexe Hülle seiner Ecken. Da VU ist, sind alle Ecken von Q ganzzahlig. Und jeder ganzzahlige Vektor in Q ist Inzidenzvektor eines Matchings in G. Korollar 3.4. (Theorem von Egaváry (93)) Sei G = (V, E) ein bipartiter Graph und w : E Z eine Gewichtsfunktion. Dann ist ν W (G) = max{w(m) : M E Matching in G} = min{ v V y v : y Z V, y 0, y u + y v w({u, v}) {u, v} E}. Weil die Inzidenzmatrix R V E von G VU ist, gilt max{w T x : x 0, x } = min{ T y : y 0 y T w}, wobei beide Probleme optimale ganzzahlige Lösungen haben. 4. Vollständig-unimodulare Matrizen und gerichtete Graphen Definition 4.. Die Inzidenzmatrix eines gerichteten Graphen D = (V, ) ist M R V mit a +, falls a δ (v) v M v,a = a, falls a δ + (v) v 0, sonst.

7 Ganzzahlige Optimierung 7 Jede Spalte von M enthält genau eine + und genau eine. Satz 4.2. M ist VU. Sei B R t t eine Teilmatrix von M. Zeige per Induktion nach t, dass det B {, 0, +}. t = : t > :.Fall: B hat eine Nullspalte det B = 0. 2.Fall: B hat eine Spalte, die genau einen Eintrag 0 enthält. Dann, nach eventueller Vertauschung von Zeilen und Spalten, ist ± b T B = 0 B, b R t, B R (t ) (t ). Nach Induktionsvoraussetzung ist det B {, 0, +}, also det B = (±) det B {, 0, +}. 3.Fall: Jede Spalte von B enthält zwei Einträge 0. ufaddieren sämtlicher Zeilen von B ergibt 0, das heißt det B = 0. Korollar 4.3. (Max-flow-min-cut Theorem) Sei D = (V, ) ein gerichteter Graph, s, t V und c: R 0 eine Kapazitätsfunktion. Dann max min: max value(f) = min c(δ + (U)) f ist s-t-fluss U V 0 f c s U, t / U. max min: Sei M R V die Inzidenzmatrix von D und sei M die Matrix, die man durch Streichen der zu s und t gehörenden Zeilen aus M bekommt. Dann gilt f R ist s-t-fluss M f = 0. Sei w T R die zu t gehörende Zeile von M. Dann ist lso value(f) = w T f. max value(f) = max{w T f : 0 f c, M f = 0} f ist s-t-fluss 0 f c () = min{y T c : y 0, z R V \{s,t}, y T + z T M w T } = min{y T c : (y T z T I I ) 0 M (0 w T )},

8 8 F. Vallentin,. Gundert I I wobei () nach LP Dualität gilt. Die Matrix 0 M ist VU und der Vektor (0 w T ) ist ganzzahlig, also wird das Maximum an ganzzahligen Vektoren y, z angenommen. Erweitern wir z zu z Z V durch zt = und zs = 0 und zv = zv v V \{s, t}, so gilt (y ) T + (z ) T M 0, denn [(y ) T + (z ) T M] a = ya + [(z ) T M ] a } {{ } w a + zs }{{} =0 w a + ( ) M t,a = 0. }{{} =w a Setze U = {v V : z v 0}. Dann ist s U, t / U. M s,a + z t Behauptung: a δ + (U) c(a) (y ) T c (= max value(f)). }{{} = M t,a Beweis: Es genügt zu zeigen, dass falls a δ + (U), dann ya z Z V, gilt für a = (u, v) δ + (U): z u 0, z v nach Definition von U. Wegen [(y ) T + (z ) T M] a 0 gilt y a + z v y a z u z u z v. 0, das heißt. Da Prof. Dr. F. Vallentin, Dr.. Gundert, Mathematisches Institut, Universität zu Köln, Weyertal 86 90, 5093 Köln, Deutschland address: frank.vallentin@uni-koeln.de, anna.gundert@uni-koeln.de

Einführung in die Mathematik des Operations Research

Einführung in die Mathematik des Operations Research Universität zu Köln Mathematisches Institut Prof. Dr. F. Vallentin Einführung in die Mathematik des Operations Research Sommersemester 3 en zur Klausur (7. Oktober 3) Aufgabe ( + 3 + 5 = Punkte). Es sei

Mehr

Optimierung. Vorlesung 08

Optimierung. Vorlesung 08 Optimierung Vorlesung 08 Heute Dualität Ganzzahligkeit Optimierung der Vorlesung durch Evaluierung 2 Das duale LP Das primale LP Maximiere c T x unter Ax b, x R d 0. wird zu dem dualen LP Minimiere b T

Mehr

Vorlesung Lineare Optimierung (Sommersemester 2007)

Vorlesung Lineare Optimierung (Sommersemester 2007) 1 Vorlesung Lineare Optimierung (Sommersemester 007) Kapitel 9: Ganzzahlige Polyeder und Kombinatorische Dualität Volker Kaibel Otto-von-Guericke Universität Magdeburg Montag, 9. Juli 007 Gliederung Ganzzahlige

Mehr

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25. Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme

Mehr

KAPITEL 3 MATCHINGS IN BIPARTITEN GRAPHEN

KAPITEL 3 MATCHINGS IN BIPARTITEN GRAPHEN KAPITEL 3 MATCHINGS IN BIPARTITEN GRAPHEN F. VALLENTIN, A. GUNDERT 1. Definitionen Notation 1.1. Ähnlich wie im vorangegangenen Kapitel zunächst etwas Notation. Wir beschäftigen uns jetzt mit ungerichteten

Mehr

Ganzzahlige lineare Programme

Ganzzahlige lineare Programme KAPITEL 5 Ganzzahlige lineare Programme Wir betrachten nun Optimierungsprobleme vom Typ (42) min c T x s.d. Ax = b, x 0, x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n, b R m gegeben seien.

Mehr

Ecken des Zuordnungsproblems

Ecken des Zuordnungsproblems Total unimodulare Matrizen Ecken des Zuordnungsproblems Definition.6 Ein Zuordnungsproblem mit den Vorzeichenbedingungen 0 apple x ij apple für i, j =,...,n statt x ij 2{0, } heißt relaxiertes Zuordnungproblem.

Mehr

Einführung in die Mathematik des Operations Research. Prof. Dr. Frank Vallentin

Einführung in die Mathematik des Operations Research. Prof. Dr. Frank Vallentin Rumpfskript zur Vorlesung Einführung in die Mathematik des Operations Research Sommersemester 2017 Prof. Dr. Frank Vallentin Mathematisches Institut Universität zu Köln Weyertal 86 90 50931 Köln Germany

Mehr

KAPITEL 4 FLÜSSE IN NETZWERKEN

KAPITEL 4 FLÜSSE IN NETZWERKEN KAPITEL 4 FLÜSSE IN NETZWERKEN F. VALLENTIN, A. GUNDERT 1. Das Max-Flow-Min-Cut Theorem Es sei D = (V, A) ein gerichteter Graph, s, t V zwei Knoten. Wir nennen s Quelle und t Senke. Definition 1.1. Eine

Mehr

Das Matching Polytop

Das Matching Polytop Das Matching Polytop Manuel Schneider Institut für Mathematik, TU Berlin Seminar: Algorithmische Diskrete Mathematik 27. Mai 2008 Überblick 1 Beschreibungen durch Ungleichungen Das Perfekte Matching Polytop

Mehr

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1) 34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)

Mehr

Operations Research. Flüsse in Netzwerken. Flüsse in Netzwerken. Unimodularität. Rainer Schrader. 2. Juli Gliederung.

Operations Research. Flüsse in Netzwerken. Flüsse in Netzwerken. Unimodularität. Rainer Schrader. 2. Juli Gliederung. Operations Research Rainer Schrader Flüsse in Netzwerken Zentrum für Angewandte Informatik Köln 2. Juli 2007 1 / 53 2 / 53 Flüsse in Netzwerken Unimodularität Gliederung Netzwerke und Flüsse bipartite

Mehr

Flüsse in Netzwerken

Flüsse in Netzwerken Skript zum Seminar Flüsse in Netzwerken WS 2008/09 David Meier Inhaltsverzeichnis 1 Einführende Definitionen und Beispiele 3 2 Schnitte in Flussnetzwerken 12 2.1 Maximaler s t Fluss..........................

Mehr

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering Das Linear Ordering Problem Exakte Lösungsverfahren VO Algorithm Engineering für NP-schwierige Professor Dr. Petra Mutzel kombinatorische Lehrstuhl für Algorithm Engineering, LS11 Optimierungsprobleme

Mehr

Lineare Algebra II 5. Übungsblatt

Lineare Algebra II 5. Übungsblatt Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross / Mai Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Algebraisch abgeschlossener Körper) Ein Körper heißt algebraisch abgeschlossen,

Mehr

Gemischt-ganzzahlige und Kombinatorische Optimierung

Gemischt-ganzzahlige und Kombinatorische Optimierung 5. Präsenzaufgabenblatt, Sommersemester 2015 Übungstunde am 15.06.2015 Aufgabe J Betrachten Sie die LP-Relaxierung max c T x a T x b 0 x i 1 des 0/1-Knapsack-Problems mit n Gegenständen, c 0 und a > 0.

Mehr

Kap. 3: Exakte Lösungsverfahren für NPschwierige. Optimierungsprobleme VO Algorithm Engineering

Kap. 3: Exakte Lösungsverfahren für NPschwierige. Optimierungsprobleme VO Algorithm Engineering Kap. 3: Exakte Lösungsverfahren für NPschwierige kombinatorische Optimierungsprobleme VO Algorithm Engineering 3.1 Einführung Professor Dr. Petra Mutzel 3.2 Komb. vs. Ganzzahlige Opt. Lehrstuhl für Algorithm

Mehr

Optimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn

Optimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn Optimierung Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung 1 Assignment Problem (Zuordnungsproblem) Gewichtetes Perfektes Bipartites Matching agents Costs tasks Weise jedem Agenten genau

Mehr

Schnittebenenverfahren und Heuristiken

Schnittebenenverfahren und Heuristiken KAPITEL 6 Schnittebenenverfahren und Heuristiken Wir betrachten nun Optimierungsprobleme vom Typ (68) minc T x s.d. Ax b,x 0,x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n,b R m gegeben

Mehr

Seien u, v V, u v. Da G zusammenhängend ist, muss mindestens ein Pfad zwischen u und v existieren.

Seien u, v V, u v. Da G zusammenhängend ist, muss mindestens ein Pfad zwischen u und v existieren. Beweis: 1. 2. Seien u, v V, u v. Da G zusammenhängend ist, muss mindestens ein Pfad zwischen u und v existieren. Widerspruchsannahme: Es gibt zwei verschiedene Pfade zwischen u und v. Dann gibt es einen

Mehr

Schnittebenenverfahren für das symmetrische

Schnittebenenverfahren für das symmetrische Schnittebenenverfahren für das symmetrische TSP Sebastian Peetz Mathematisches Institut Universität Bayreuth 19. Januar 2007 / Blockseminar Ganzzahlige Optimierung, Bayreuth Gliederung 1 Das symmetrische

Mehr

D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 10

D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler. Lösungen Serie 10 D-MAVT Lineare Algebra I HS 2017 Prof. Dr. N. Hungerbühler Lösungen Serie 10 1. Für a 1 : 1 1 0, a 2 : 1 1, a 3 : 1 1 1, b : 2 2 2 1 und A : (a 1, a 2, a 3 ) gelten welche der folgenden Aussagen? (a) det(a)

Mehr

Technische Universitat Darmstadt

Technische Universitat Darmstadt Technische Universitat Darmstadt Diskrete Optimierung Nach einer Vorlesung vom Sommersemester 2006 gehalten von Prof. Dr. Alexander Martin Inhaltsverzeichnis 1 Einführung 5 1.1 Beispiele und Formulierungen....................

Mehr

Die lineare Programmierung. Die Standardform 1 / 56

Die lineare Programmierung. Die Standardform 1 / 56 Die lineare Programmierung Die Standardform 1 / 56 Die Standardform der linearen Programmierung - Für n reellwertige, nichtnegative Variablen x 1 0,..., x n 0 erfülle die m linearen Gleichungen n a ij

Mehr

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze

Mehr

2. Optimierungsprobleme 6

2. Optimierungsprobleme 6 6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen

Mehr

Optimierung. Vorlesung 02

Optimierung. Vorlesung 02 Optimierung Vorlesung 02 LPs in kanonischer Form Für i = 1,, m und j = 1,, d seien c j, b i und a ij reele Zahlen. Gesucht wird eine Belegung der Variablen x 1,, x d, so das die Zielfunktion d c j x j

Mehr

Diskrete Optimierung (Einführung zur Vorlesung)

Diskrete Optimierung (Einführung zur Vorlesung) Diskrete Optimierung (Einführung zur Vorlesung) Christoph Helmberg : [,] Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete

Mehr

Technische Universität München Zentrum Mathematik Diskrete Optimierung: Fallstudien aus der Praxis. Station 3: Das Matching-Polytop

Technische Universität München Zentrum Mathematik Diskrete Optimierung: Fallstudien aus der Praxis. Station 3: Das Matching-Polytop Technische Universität München Zentrum Mathematik Diskrete Optimierung: Fallstudien aus der Praxis Barbara Wilhelm Michael Ritter Station 3: Das Matching-Polytop Diskutieren Sie folgende Fragen in der

Mehr

Die Determinante. Lineare Algebra I. Kapitel Mai 2013

Die Determinante. Lineare Algebra I. Kapitel Mai 2013 Die Determinante Lineare Algebra I Kapitel 7 21. Mai 2013 Logistik Dozent: Olga Holtz, MA 417, Sprechstunden Freitag 14-16 Webseite: www.math.tu-berlin.de/ holtz Email: holtz@math.tu-berlin.de Assistent:

Mehr

Triangulierungen von Punktmengen und Polyedern

Triangulierungen von Punktmengen und Polyedern Triangulierungen von Punktmengen und Polyedern Vorlesung im Sommersemester 2000 Technische Universität Berlin Jörg Rambau 17.05.2000 Sekundärpolytop und 6 bistellare Operationen In diesem Kapitel werden

Mehr

Das Multi Traveling Salesman Problem

Das Multi Traveling Salesman Problem Das Multi Traveling Salesman Problem Harald Voit Seminar Ganzzahlige Optimierung 19. bis 21. Januar 2007 Wallenfels Das Multi Traveling Salesman Problem p.1/26 Übersicht Vom TSP zum ATSP Das Multi Traveling

Mehr

Mathematik I. Vorlesung 14. Rang von Matrizen

Mathematik I. Vorlesung 14. Rang von Matrizen Prof Dr H Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 14 Rang von Matrizen Definition 141 Es sei K ein Körper und sei M eine m n-matrix über K Dann nennt man die Dimension des von den Spalten

Mehr

Flüsse in Netzwerken. Seminar über Algorithmen SoSe 2005. Mike Rohland & Julia Schenk

Flüsse in Netzwerken. Seminar über Algorithmen SoSe 2005. Mike Rohland & Julia Schenk Flüsse in Netzwerken Seminar über Algorithmen SoSe 2005 Mike Rohland & Julia Schenk Inhalt Einführung Definition Maximale Flüsse Schnitte Restgraphen Zunehmende Wege Max-Fluss Min-Schnitt Theorem Ford-Fulkerson

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG KLAUSUR ZUR LINEAREN ALGEBRA I Wiederholungsprüfung MUSTERLÖSUNG. April 2008 Name: Studiengang: Aufgabe 2 3 4 5 6 Summe Punktzahl /50 Allgemeine Hinweise: Bitte schreiben Sie Ihre Lösungen jeweils unter

Mehr

A = A A

A = A A Musterlösung - Aufgabenblatt 8 Aufgabe 1 Gegeben ist das Polytop P = conv {±e i ± e j : 1 i, j 3, i j} = conv {e 1 + e 2, e 1 e 2, e 1 + e 2, e 1 e 2, e 1 + e 3, e 1 e 3, e 1 + e 3, e 1 e 3, e 2 + e 3,

Mehr

Ferienkurs zur algorithmischen diskreten Mathematik Kapitel 3: Minimal aufspannende Bäume und Matroide

Ferienkurs zur algorithmischen diskreten Mathematik Kapitel 3: Minimal aufspannende Bäume und Matroide Ferienkurs zur algorithmischen diskreten Mathematik Kapitel 3: Minimal aufspannende Bäume und Matroide Dipl-Math. Wolfgang Kinzner 3.4.2012 Kapitel 3: Minimal aufspannende Bäume und Matroide Minimal aufspannende

Mehr

KAPITEL 10 DIE INNERE-PUNKTE-METHODE

KAPITEL 10 DIE INNERE-PUNKTE-METHODE KAPITEL DIE INNERE-PUNKTE-METHODE F. VALLENTIN, A. GUNDERT Vorteile: + Löst effizient lineare Programme (in Theorie und Praxis) + erweiterbar (zu einer größeren Klasse von Optimierungsproblemen) + einfach

Mehr

3.11 Volumen und Determinanten

3.11 Volumen und Determinanten Im Wintersemester 2012/13 wurde in der Vorlesung Höhere Mathematik 1 für Ingenieurstudiengänge die Behandlung der Determinante neu gefasst: 311 Volumen und Determinanten 3111 Berechnung von Flächeninhalten

Mehr

Kapitel III. Lineare Abbildungen

Kapitel III. Lineare Abbildungen Kapitel III. Lineare Abbildungen Beispiele: 1 Lineare Abbildungen a) Seien c 1,..., c n K vorgegeben. Betrachte die Funktion F (x 1,..., x n ) = c 1 x 1 + c 2 x 2 +... + c n x n in den Variablen x 1,...,

Mehr

Abbildung 1: Reduktion: CLIQUE zu VERTEX-COVER. links: Clique V = {u, v, x, y}. rechts:der Graph Ḡ mit VC V \ V = {w, z}

Abbildung 1: Reduktion: CLIQUE zu VERTEX-COVER. links: Clique V = {u, v, x, y}. rechts:der Graph Ḡ mit VC V \ V = {w, z} u v u v z w z w y x y x Abbildung 1: Reduktion: CLIQUE zu VERTEX-COVER. links: Clique V = {u, v, x, y}. rechts:der Graph Ḡ mit VC V \ V = {w, z} Definition 0.0.1 (Vertex Cover (VC)). Gegeben: Ein ungerichteter

Mehr

Optimierung. Zusammenfassung

Optimierung. Zusammenfassung Optimierung Zusammenfassung Inhalte 1. Lineare Programmierung 2. Simplexalgorithmus 3. Ellipsoidmethode 4. Dualität 5. Ganzzahligkeit 6. Facility Location 7. Randomisiertes Runden 8. Branch and Bound &

Mehr

Rang einer Matrix. 1-E1 Ma 1 Lubov Vassilevskaya

Rang einer Matrix. 1-E1 Ma 1 Lubov Vassilevskaya Rang einer Matrix 1-E1 Ma 1 Lubov Vassilevskaya Unterdeterminante einer nichtquadratischen Matrix M ist eine nichtquadratische 2,3-Matrix: M = 6 2 3 0 5 7 Durch Streichen einer der drei Spalten kann man

Mehr

2. Entsprechende Listen P i von Vorgängern von i 3. for i := 1 to n do. (ii) S i = Knoten 2 + 1}

2. Entsprechende Listen P i von Vorgängern von i 3. for i := 1 to n do. (ii) S i = Knoten 2 + 1} 1. Berechne für jeden Knoten i in BFS-Art eine Liste S i von von i aus erreichbaren Knoten, so dass (i) oder (ii) gilt: (i) S i < n 2 + 1 und Si enthält alle von i aus erreichbaren Knoten (ii) S i = n

Mehr

Satz 324 Sei M wie oben. Dann gibt es für ein geeignetes k Konstanten c i > 0 und Permutationsmatrizen P i, i = 1,...

Satz 324 Sei M wie oben. Dann gibt es für ein geeignetes k Konstanten c i > 0 und Permutationsmatrizen P i, i = 1,... Satz 324 Sei M wie oben. Dann gibt es für ein geeignetes k Konstanten c i > 0 und Permutationsmatrizen P i, i = 1,..., k, so dass gilt M = k c i P i i=1 k c i = r. i=1 Diskrete Strukturen 7.1 Matchings

Mehr

Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner

Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1 Vortrag: Lineare Gleichungen am 11. März 2009 von Maximilian Wahner Technische Universität Dortmund Fakultät für Mathematik Proseminar Lineare

Mehr

Teil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v.

Teil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v. Teil I Lineare Algebra I Vorlesung Sommersemester 2 Olga Holtz MA 378 Sprechstunde Fr 4-6 und nv holtz@mathtu-berlinde Sadegh Jokar MA 373 Sprechstunde, Do 2-4 und nv jokar@mathtu-berlinde Kapitel 4 Der

Mehr

Darstellung von Gruppen

Darstellung von Gruppen Darstellung von Gruppen Definition Darstellung von Gruppen Sei G eine endlich erzeugte abelsche Gruppe mit Erzeugern S = (g 1,..., g k ) G k. Elemente des Kerns von ϕ S : Z k G, (m 1,..., m k ) k i=1 m

Mehr

Diskrete Strukturen Kapitel 4: Graphentheorie (Grundlagen)

Diskrete Strukturen Kapitel 4: Graphentheorie (Grundlagen) WS 2015/16 Diskrete Strukturen Kapitel 4: Graphentheorie (Grundlagen) Hans-Joachim Bungartz Lehrstuhl für wissenschaftliches Rechnen Fakultät für Informatik Technische Universität München http://www5.in.tum.de/wiki/index.php/diskrete_strukturen_-_winter_15

Mehr

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck. 10 Matching-Probleme

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck. 10 Matching-Probleme 10 Matching-Probleme 10.1 Definition von Matching-Probleme Definition 21 [2-dimensionales Matching] Sei G = (V, E) ein ungerichteter Graph und E E. E ist ein Matching, wenn für alle Kantenpaare e 1, e

Mehr

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG 12 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 53 Wiederholung! Basis-Startlösung berechnet! Künstliche Variablen! Erkennung von unlösbaren Problemen! Eliminierung

Mehr

3.4 Maximale Flüsse und der Algorithmus von Ford Fulkerson

3.4 Maximale Flüsse und der Algorithmus von Ford Fulkerson 3.4 Maximale Flüsse und der Algorithmus von Ford Fulkerson Definition 3.4.1 Die Aufgabe, zu jedem Netzwerk N = (s, t, V, E, c o ) mit n = V Knoten und m = E Kanten den Fluß f IR m mit maximalem Wert zu

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick

Mehr

Die Lineare Algebra-Methode. Mahir Kilic

Die Lineare Algebra-Methode. Mahir Kilic Die Lineare Algebra-Methode Mahir Kilic 23. Juni 2004 1 Einführung 1.1 Überblick Im Allgemein benutzt man die Lineare Algebra-Methode in der Kombinatorik wie folgt: Für die Bestimmung einer Obergrenze

Mehr

Vortrag 20: Kurze Vektoren in Gittern

Vortrag 20: Kurze Vektoren in Gittern Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die

Mehr

Wir wenden das Simplexverfahren auf das lineare Programm max{c T x : Ax apple b} an, wobei x 0 =(1, 0, 0) T die Startecke ist und C A.

Wir wenden das Simplexverfahren auf das lineare Programm max{c T x : Ax apple b} an, wobei x 0 =(1, 0, 0) T die Startecke ist und C A. Musterlösung - ufgabenblatt ufgabe Wir wenden das Simplexverfahren auf das lineare Programm max{c T x : x apple b} an, wobei x =(,, ) T die Startecke ist und c =,=,b= x =(,, ) T : Da x genau drei Ungleichungen

Mehr

Multivariate Analysis

Multivariate Analysis Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle

Mehr

2.5 Smith-Normalform für Matrizen über Euklidischen Ringen

2.5 Smith-Normalform für Matrizen über Euklidischen Ringen 2.5. SMITH-NORMALFORM FÜR MATRIZEN ÜBER EUKLIDISCHEN RINGEN73 2.5 Smith-Normalform für Matrizen über Euklidischen Ringen Bemerkung 2.74. Sei K ein Körper und A K n m, b K n 1. Das lineare Gleichungssystem

Mehr

Heinrich Heine-Universität Düsseldorf Sommersemester Lineare Algebra 1. Vierzehnte & Fünfzehnte Woche,

Heinrich Heine-Universität Düsseldorf Sommersemester Lineare Algebra 1. Vierzehnte & Fünfzehnte Woche, Fakultät für Mathematik PD Dr Markus Perling Heinrich Heine-Universität Düsseldorf Sommersemester 2014 Lineare Algebra 1 Vierzehnte & Fünfzehnte Woche, 1672014 10 Determinanten (Schluß) Das folgende Resultat

Mehr

5.2 Rechnen mit Matrizen

5.2 Rechnen mit Matrizen 52 Rechnen mit Matrizen 52 Rechnen mit Matrizen 97 Für Matrizen desselben Typs ist eine Addition erklärt, und zwar durch Addition jeweils entsprechender Einträge Sind genauer A = (a ij ) und B = (b ij

Mehr

Lösung Serie 11: Lineare Gleichungssysteme, Gauss-Elimination & LR-Zerlegung

Lösung Serie 11: Lineare Gleichungssysteme, Gauss-Elimination & LR-Zerlegung D-MATH/D-PHYS Lineare Algebra I HS 06 Dr. Meike Akveld Lösung Serie : Lineare Gleichungssysteme, Gauss-Elimination & LR-Zerlegung. Um zu zeigen, dass es sich bei den gegebenen Vektoren um Basen handelt,

Mehr

mit. Wir definieren (Skalarprodukt = Winkel).

mit. Wir definieren (Skalarprodukt = Winkel). 1 Grundidee des Simplexverfahrens (von George Dantzig): Man bestimmt eine beliebige Ecke (Extremalpunkt) einer Lösungsmenge eines Ungleichungssystems. Nun geht man an den Kanten vom Punkt entlang und kontrolliert

Mehr

Lineare Algebra 2. Lösung zu Aufgabe 7.2:

Lineare Algebra 2. Lösung zu Aufgabe 7.2: Technische Universität Dortmund Sommersemester 2017 Fakultät für Mathematik Übungsblatt 7 Prof. Dr. Detlev Hoffmann 15. Juni 2017 Marco Sobiech/ Nico Lorenz Lineare Algebra 2 Lösung zu Aufgabe 7.1: (a)

Mehr

Wir gewichten die Kanten von G wie folgt: Kante e 1 e 2 e 3 e 4 e 5 e 6 e 7 e 8 d(e i )

Wir gewichten die Kanten von G wie folgt: Kante e 1 e 2 e 3 e 4 e 5 e 6 e 7 e 8 d(e i ) Prof. Dr. U. Faigle J. Voss SS 2011 12. Übung zur Einführung in die Mathematik des Operations Research Dieses Übungsblatt wird nicht mehr gewertet. Aufgabe 1: Sei G = (V, E) ein gerichteter Graph und x

Mehr

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit) 3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände

Mehr

Ziel Geklärt werden soll die Frage nach der Anzahl an Spannbäumen, die ein gegebener Graph G hat.

Ziel Geklärt werden soll die Frage nach der Anzahl an Spannbäumen, die ein gegebener Graph G hat. Ziel Geklärt werden soll die Frage nach der Anzahl an Spannbäumen, die ein gegebener Graph G hat. Definition Sei G = (V, E) ein beliebiger Graph. Dann bezeichne T (G) die Anzahl seiner Spannbäume, d.h.

Mehr

Cramersche Regel. Satz Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei. A j := (a 1,...,a j 1,b,a j+1,...

Cramersche Regel. Satz Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei. A j := (a 1,...,a j 1,b,a j+1,... Cramersche Regel Satz 2.4. Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei A j := (a,...,a j,b,a j+,...,a n ) also die Matrix, die entsteht, wenn in A die j-spalte durch den

Mehr

, c d. f + e + d. ae + bg a f + bh. ce + dg c f + dh

, c d. f + e + d. ae + bg a f + bh. ce + dg c f + dh Die Determinante Blockmatrizen Bemerkung: Für zwei 2 2-Matrizen gilt a b e f a b c d g h c d e g a b, c d f h a c b e + d a g, c f + ae + bg a f + bh ce + dg c f + dh b d h Sind die Einträge der obigen

Mehr

8. Konvexe Polytope. Tobias Boelter. Mittwoch, 5. März TopMath Frühlingsschule

8. Konvexe Polytope. Tobias Boelter. Mittwoch, 5. März TopMath Frühlingsschule 1 / 31 8. Konvexe Tobias Boelter TopMath Frühlingsschule Mittwoch, 5. März 2014 2 / 31 Es können auch nicht konvexe untersucht werden, wir beschränken uns hier aber auf konvexe. Mit einem Polytop ist hier

Mehr

3 Klassifikation wichtiger Optimierungsprobleme

3 Klassifikation wichtiger Optimierungsprobleme 3 Klassifikation wichtiger Optimierungsprobleme 3.1 Das MIN- -TSP Wir kehren nochmal zurück zum Handlungsreisendenproblem für Inputs (w {i,j} ) 1 i

Mehr

1.Aufgabe: Minimal aufspannender Baum

1.Aufgabe: Minimal aufspannender Baum 1.Aufgabe: Minimal aufspannender Baum 11+4+8 Punkte v 1 v 2 1 3 4 9 v 3 v 4 v 5 v 7 7 4 3 5 8 1 4 v 7 v 8 v 9 3 2 7 v 10 Abbildung 1: Der Graph G mit Kantengewichten (a) Bestimme mit Hilfe des Algorithmus

Mehr

LINEARE ALGEBRA II. FÜR PHYSIKER

LINEARE ALGEBRA II. FÜR PHYSIKER LINEARE ALGEBRA II FÜR PHYSIKER BÁLINT FARKAS 4 Rechnen mit Matrizen In diesem Kapitel werden wir zunächst die so genannten elementaren Umformungen studieren, die es ermöglichen eine Matrix auf besonders

Mehr

3.1 Sukzessive Minima und reduzierte Basen: Resultate

3.1 Sukzessive Minima und reduzierte Basen: Resultate Gitter und Codes c Rudolf Scharlau 4. Juni 2009 202 3.1 Sukzessive Minima und reduzierte Basen: Resultate In diesem Abschnitt behandeln wir die Existenz von kurzen Basen, das sind Basen eines Gitters,

Mehr

Mathematik für Anwender I

Mathematik für Anwender I Prof Dr H Brenner Osnabrück WS 2011/2012 Mathematik für Anwender I Vorlesung 11 Rang von Matrizen Definition 111 Es sei K ein Körper und sei M eine m n-matrix über K Dann nennt man die Dimension des von

Mehr

Matrizen - I. Sei K ein Körper. Ein rechteckiges Schema A = wobei a ij K heißt Matrix bzw. eine m n Matrix (mit Elementen aus K).

Matrizen - I. Sei K ein Körper. Ein rechteckiges Schema A = wobei a ij K heißt Matrix bzw. eine m n Matrix (mit Elementen aus K). Matrizen - I Definition. Sei K ein Körper. Ein rechteckiges Schema A = a 11 a 12...... a 1n a 21 a 22...... a 2n............ a m1 a m2...... a mn wobei j K heißt Matrix bzw. eine m n Matrix (mit Elementen

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung

Mehr

6. Einführung 43. gilt. Dann soll also A B x B = b eindeutig lösbar sein, also A B vollen Rang haben, d. h. invertierbar (regulär) sein.

6. Einführung 43. gilt. Dann soll also A B x B = b eindeutig lösbar sein, also A B vollen Rang haben, d. h. invertierbar (regulär) sein. 6. Einführung 43 und aus der linearen Unabhängigkeit der (a i ) i I(x) folgt y i = z i auch für i I(x). Insgesamt gilt also y = z, d. h., nach Definition 6.9 ist x eine Ecke von P. Beachte: Der Koordinatenvektor

Mehr

6. Normale Abbildungen

6. Normale Abbildungen SKALARPRODUKE 1 6 Normale Abbildungen 61 Erinnerung Sei V ein n-dimensionaler prä-hilbertraum, also ein n-dimensionaler Vektorraum über K (R oder C) versehen auch mit einer Skalarprodukt, ra K Die euklidische

Mehr

3.6 Branch-and-Bound-Verfahren

3.6 Branch-and-Bound-Verfahren 36 Branch-and-Bound-Verfahren Die Branch-and-Bound -Methode beruht darauf, auf eine intelligente Weise alle zulässigen Lösungen eines kombinatorischen Optimierungsproblems aufzulisten und mit Hilfe von

Mehr

Analysis II. Vorlesung 48. Die Hesse-Form

Analysis II. Vorlesung 48. Die Hesse-Form Prof. Dr. H. Brenner Osnabrück SS 2014 Analysis II Vorlesung 48 Die Hesse-Form Wir sind natürlich auch an hinreichenden Kriterien für das Vorliegen von lokalen Extrema interessiert. Wie schon im eindimensionalen

Mehr

Ganzzahlige Optimierung

Ganzzahlige Optimierung Outlines Ganzzahlige Optimierung Minikurs im Cluster Intelligent Systems for Decision Support Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 16. Juni 2009 Outlines Outline

Mehr

Übungen zur Vorlesung Lineare Algebra

Übungen zur Vorlesung Lineare Algebra Übungen zur Vorlesung Lineare Algebra Institut für Reine Mathematik WS 2009/10 & SS 2010 Kapitel 1. Vektorräume Was ist ein Vektorraum? Sei X und K ein Körper. Wie macht man Abb (X, K) zu einem K -Vektorraum?

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

Teil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v.

Teil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v. Teil I Lineare Algebra I Vorlesung Sommersemester 0 Olga Holtz MA 378 Sprechstunde Fr 4-6 und nv holtz@mathtu-berlinde Sadegh Jokar MA 373 Sprechstunde, Do -4 und nv jokar@mathtu-berlinde Kapitel Die Determinante

Mehr

Diskrete Optimierungsverfahren zur Lösung von Sudokus

Diskrete Optimierungsverfahren zur Lösung von Sudokus Diskrete Optimierungsverfahren zur Lösung von Sudokus Seminarvortrag von Daniel Scholz am 6. Dezember 2006 Am Beispiel der Lösung von Sudokurätseln mit Hilfe der linearen Optimierung werden verschiedenen

Mehr

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung 4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax

Mehr

Algorithmen II Vorlesung am 15.11.2012

Algorithmen II Vorlesung am 15.11.2012 Algorithmen II Vorlesung am 15.11.2012 Kreisbasen, Matroide & Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten

Mehr

Technische Universität München Zentrum Mathematik Diskrete Optimierung: Fallstudien aus der Praxis. Station 3: Das Matching-Polytop

Technische Universität München Zentrum Mathematik Diskrete Optimierung: Fallstudien aus der Praxis. Station 3: Das Matching-Polytop Technische Universität München Zentrum Mathematik Diskrete Optimierung: Fallstudien aus der Praxis Barbara Wilhelm Michael Ritter Station 3: Das Matching-Polytop Diskutieren Sie folgende Fragen in der

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Spline-Interpolation

Spline-Interpolation Spline-Interpolation Tim Schmölzer 20 November 2009 Tim Schmölzer Spline-Interpolation 20 November 2009 1 / 38 Übersicht 1 Vorbemerkungen 2 Lösbarkeit des Interpolationsproblems 3 Stabilität der Interpolation

Mehr

Der Rang einer Matrix A. Beispiel

Der Rang einer Matrix A. Beispiel Der Rang einer Matrix A ist gleich Anzahl der Zeilen ungleich 0, nachdem die Matrix durch elementare Zeilenoperationen in Zeilenstufenform gebracht worden ist. Bezeichnung: ranga oder rga. Beispiel A =

Mehr

Lineare Abbildungen. Es seien V und W Vektorräume über einem Körper K. Eine Abbildung f : V W heißt linear oder Homomorphismus, falls. d.h.

Lineare Abbildungen. Es seien V und W Vektorräume über einem Körper K. Eine Abbildung f : V W heißt linear oder Homomorphismus, falls. d.h. Lineare Abbildungen Es seien V und W Vektorräume über einem Körper K. Eine Abbildung f : V W heißt linear oder Homomorphismus, falls (1) u, v V : f( u + v) = f( u) + f( v). (2) v V α K : f(α v) = αf( v).

Mehr

6.2 Rechnen mit Matrizen

6.2 Rechnen mit Matrizen 62 Rechnen mit Matrizen 62 Rechnen mit Matrizen 103 Für Matrizen desselben Typs ist eine Addition erklärt, und zwar durch Addition jeweils entsprechender Einträge Sind genauer A = (a ij ) und B = (b ij

Mehr

1 Matroide. 1.1 Definitionen und Beispiele. Seminar zur ganzzahligen Optimierung Thema: Durchschnitt von Matroiden - Satz von Edmonds von Dany Sattler

1 Matroide. 1.1 Definitionen und Beispiele. Seminar zur ganzzahligen Optimierung Thema: Durchschnitt von Matroiden - Satz von Edmonds von Dany Sattler Seminar zur ganzzahligen Optimierung Thema: Durchschnitt von Matroiden - Satz von Edmonds von Dany Sattler 1 Matroide 1.1 Definitionen und Beispiele 1. Definition (Unabhängigkeitssystem): Ein Mengensystem

Mehr

Vektorräume und Rang einer Matrix

Vektorräume und Rang einer Matrix Universität Basel Wirtschaftswissenschaftliches Zentrum Vektorräume und Rang einer Matrix Dr. Thomas Zehrt Inhalt:. Lineare Unabhängigkeit 2. Vektorräume und Basen 3. Basen von R n 4. Der Rang und Rangbestimmung

Mehr

a 21 a 22 a 21 a 22 = a 11a 22 a 21 a 12. Nun zur Denition und Berechnung von n n-determinanten: ( ) a 11 a 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33 A =

a 21 a 22 a 21 a 22 = a 11a 22 a 21 a 12. Nun zur Denition und Berechnung von n n-determinanten: ( ) a 11 a 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33 A = 3 Determinanten Man bestimmt Determinanten nur von quadratischen Matrizen Wir werden die Berechnung von Determinanten rekursiv durchfuhren, dh wir denieren wie man eine 2 2-Determinante berechnet und fuhren

Mehr

Einführung in die Mathematik des Operations Research

Einführung in die Mathematik des Operations Research Universität zu Köln Mthemtisches Institut Prof. Dr. F. Vllentin Dr. A. Gundert Einführung in die Mthemtik des Opertions Reserch Aufge (5+5= Punkte) Sommersemester 4 Lösungen zur Klusur (5. Septemer 4).

Mehr