KAPITEL 6 GANZZAHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULARE MATRIZEN

Save this PDF as:
 WORD  PNG  TXT  JPG

Größe: px
Ab Seite anzeigen:

Download "KAPITEL 6 GANZZAHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULARE MATRIZEN"

Transkript

1 KPITEL 6 GNZZHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULRE MTRIZEN F. VLLENTIN,. GUNDERT. Ganzzahlige lineare Programme Viele Optimierungsprobleme des Operations Research lassen sich als ganzzahlige lineare Programme formulieren. Definition.. Ein ganzzahliges LP (in Standardform) ist von der Form: max c T x x Z n x b, ( x ganzzahlig ) wobei c R n, R m n und b R m. Ein ganzzahliges lineares Programm nennen wir auch ILP oder IP (= integer linear program ). Wir maximieren also eine lineare Funktion über den ganzzahligen Punkten in einem Polyeder. P I P = {x R n : x b} P P I = conv(p Z n ) Beispiel.2. Es sei G = (V, E) ein ungerichteter Graph. Mit R V den Vektorraum der Funktionen von V nach R, also R V = {f : V R : f Funktion} und analog R E = {f : E R : f Funktion} R V E = {f : V E R : f Funktion} bezeichnen wir Wir definieren die Inzidenzmatrix R V E durch {, falls v e, v,e = 0, sonst. Date: 29. Juni 204.

2 2 F. Vallentin,. Gundert Dann ν(g) = max{ M : M E Matching in G} = max{ e E x e : x e 0 e E, x e Z e E, = max{. T x : x 0, x., x Z E } x e v V } e:v e Wir werden sehen, dass für G bipartit T ν(g) = max{. x : x 0, x., x R E } gilt. Im allgemeinen, nicht-bipartiten Fall kann aber < gelten. Zum Beispiel für G =, x e = 2 e E. Dualitätsbeziehung: Es gilt max{c T x : x b, x Z n } max{c T x : x b, x R n } = min{y T b : y 0, y T = c T, y R m } min{y T b : y 0, y T = c T, y Z m }, falls (PLP) und (DLP) beide zulässige Lösungen besitzen. Im llgemeinen gilt <, wie das obige Beispiel zeigt. Kein Wunder: LP kann effizient gelöst werden (in polynomieller Zeit), ILP dagegen wahrscheinlich nicht (Äquivalent zum P NP-Problem, für dessen Lösung Dollar ausgeschrieben sind). Frage: In welcher Situation gilt =? Definition.3. Ein Polytop P R n heißt ganzzahlig, falls jede Ecke z von P ganzzahlig ist, das heißt z Z n. Falls P ganzzahlig ist, dann gilt also max{c T x : x P, x Z n } = max{c T x : x P, x R n } Wir suchen also Bedingungen an und b, damit P = {x : x b} ganzzahlig ist. 2. Vollständig-unimodulare Matrizen Definition 2.. Eine Matrix R m n heißt vollständig-unimodular (VU), falls jeder ihrer Minoren (Determinanten quadratischer Teilmatrizen) gleich 0, oder + ist. Insbesondere gilt für die Einträge: ij {0,, +}.

3 Ganzzahlige Optimierung 3 Satz 2.2. Sei R m n VU, b Z m. Dann ist jede Ecke des Polyeders P = {x : x b} ganzzahlig. Sei z eine Ecke von P. Dann hat die Teilmatrix z vollen Rang n und enthält darum eine n n Teilmatrix mit Rang n. OBd sei in den ersten n Zeilen von enthalten. Setze b = (b,..., b n ) T Z n, dann gilt z = b. Nach der Cramerschen Regel ist z i = det i det. Da det = und i ganzzahlig ist, ist also z i Z. Bemerkung 2.3. Nicht jedes Polyeder hat eine Ecke. Definition 2.4. Ein Polyeder P R n heißt ganzzahlig, falls für alle c R n, für die max{c T x : x P } endlich ist, das Maximum an einem ganzzahligen Vektor angenommen wird. Satz 2.5. Sei R m n VU, b Z m. Dann ist P = {x : x b} ein ganzzahliges Polyeder. Sei c R n gegeben und x eine optimale Lösung von max{c T x : x b}. Wähle d, d Z n mit d x d. Dann ist Q = {x R n : x b, d x d } ein Polytop. Weiter ist Q = {x R n : I I x b und die Matrix I ist VU. Nach dem vorherigen Satz ist Q also ein ganzzahliges I Polytop und außerdem wird max{c T x : x Q} an einer Ecke x angenommen. Da x Q, ist c T x c T x, und weil x b, ist x optimale Lösung von max{c T x : x b}. Korollar 2.6. Sei R m n VU, b Z m, c Z n. Dann haben die beiden linearen Programme d d } max{c T x : x b} = min{y T b : y 0, y T = c T } ganzzahlige Lösungen, falls die Optima endlich sind. Folgt aus dem vorhergehenden Satz, weil die Matrix I T Z (2n+m) m VU ist. T Ziel: Charakterisierung von vollständig-unimodularen Matrizen mit Hilfe von Ganzzahligkeit von Polyedern. Satz 2.7. (Hoffman, Kruskal 956) Sei Z m n. Dann gilt ist VU für alle b Z m ist P = {x : x b, x 0} ganzzahlig.

4 4 F. Vallentin,. Gundert : Weil P {x : x 0}, wird max{ct x : x P } in einer Ecke von P angenommen, falls das Maximum [ endlich ist ( ufgabe 9.). Sei z eine Ecke von P. Definiere B =. Betrachte I] Bx = x I ( ) b. 0 Dann enthält B z eine reguläre ( Teilmatrix B Z n n. Sei b Z n der entsprechende Teilvektor von. Dann ist z = (B b 0) ) b ganzzahlig aufgrund der Cramerschen Regel und weil VU ist. : Sei eine reguläre k k-teilmatrix von. Zu zeigen: det =. OBd sei die obere linke Teilmatrix von. Betrachte B Z m m bestehend aus den ersten k und den letzten m k Spalten von [ I m ], also I [ I m ] = k 0 0 und B = 0 I m k Dann ist det B = det. I m k Ziel: Zeige B Z m m. Denn: Weil dann det B Z und det B det B =, muss det B = sein. Sei i {,..., m}. Wir zeigen, dass die i-te Spalte von B ganzzahlig ist: Wähle y Z m mit y + B e i 0 und setze z = y + B e i. Dann ist Bz = By + e i Z m. Setze b = Bz. Füge in z hinter den ersten k Komponenten n k + k Nullen ein und nenne diesen Vektor z. Dann gilt nach Konstruktion [ I]z = Bz = b. Da z 0, liegt der Vektor z, der aus den ersten n Komponenten von z besteht, in P = {x : x b, x 0}. Das heißt es gilt [ ( z I] b. 0) Die ersten k und die letzten n k dieser Ungleichungen sind mit Gleichheit erfüllt. Da die entsprechenden Zeilen von linear unabhängig sind, ist I also z eine Ecke von P. Nach Voraussetzung ist z Z n. uf den ersten n Komponenten stimmen z und z überein. Die letzten m Komponenten von z sind durch b z gegeben und also auch ganzzahlig. lso ist z Z m und somit auch B e i = z y Z m. 3. Vollständig-unimodulare Matrizen und bipartite Graphen Satz 3.. Sei G = (V, E) ein ungerichteter Graph. Dann gilt G ist bipartit Die Inzidenzmatrix R V E ist VU.

5 Ganzzahlige Optimierung 5 : Sei B eine t t Teilmatrix von. Zeige: det B {, 0, +} per Induktion nach t. t = : t > :.Fall: B enthält eine Nullspalte. Dann ist det B = 0. 2.Fall: B enthält eine Spalte, die genau eine enthält. Dann ist B (nach eventueller Permutation von Zeilen und Spalten) von der Form b T B = 0 B, b R t, B R (t ) (t ). Nach Induktionsvoraussetzung ist det B {, 0, +}. lso auch det B {, 0, +}. 3.Fall: Jede Spalte von B enthält genau zwei Einsen. Da G bipartit ist, kann man (nach eventueller Permutation der Zeilen) B als B B = B schreiben, wobei jede Spalte von B genau eine enthält und jede Spalte von B genau eine enthält. ufaddieren aller Zeilen von B ergibt den Vektor (,..., ). Genauso wie ufaddieren aller Zeilen von B. Das heißt die Zeilen von B sind linear abhängig, also det B = 0. : Sei VU. ngenommen G ist nicht bipartit. Dann enthält G einen Kreis ungerader Länge mit Knoten v,..., v k und Kanten e,..., e k. Die entsprechende Teilmatrix von (mit Zeilen v,..., v k und Spalten e,..., e k ) ist von der Form: v 2 v 3 e e 2 e 3... e k e k v v v v k v k v e e 2 e k e k v k v k Zum Beispiel durch Entwicklung nach der k-ten Spalte sieht man, dass die Determinante dieser Matrix gleich (+) +(+) = 2 ist (k ist ungerade!). lso kann nicht VU sein. Korollar 3.2. (Matching-Theorem von König; siehe Kapitel 3.3) Sei G = (V, E) ein bipartiter Graph. Dann ν(g) = max{ M : M E Matching in G} = min{ U : U V Knotenüberdeckung in G} = τ(g).

6 6 F. Vallentin,. Gundert ν(g) = max{ e E x e : x e 0 e E, x e Z, = max{ T x : x Z E, x 0, x } x e v V } e:v e = max{ T x : x R E, x 0, x } (nach Hoffman.Kruskal, weil VU ist) = min{ T y : y R V, y 0, y T } (LP Dualität) = min{ T y : y Z V, y 0, y T } (Hoffman-Kruskal) = min{ v V = τ(g). y v : y v Z, y v 0 v V, y u + y v {u, v} E} Ein Vektor y Z V, der das Minimum erzielt, hat nur 0/- Komponenten. Hierbei ist y v = v ist Knoten in einer minimalen Knotenüberdeckung. Korollar 3.3. Sei G = (V, E) ein bipartiter Graph. Dann conv{χ M : M E Matching in G} = {x R E : x 0, x }, wobei die Inzidenzmatrix von G ist. : : Q = {x RE : x 0, x } ist beschränkt, also ein Polytop und somit ist Q die konvexe Hülle seiner Ecken. Da VU ist, sind alle Ecken von Q ganzzahlig. Und jeder ganzzahlige Vektor in Q ist Inzidenzvektor eines Matchings in G. Korollar 3.4. (Theorem von Egaváry (93)) Sei G = (V, E) ein bipartiter Graph und w : E Z eine Gewichtsfunktion. Dann ist ν W (G) = max{w(m) : M E Matching in G} = min{ v V y v : y Z V, y 0, y u + y v w({u, v}) {u, v} E}. Weil die Inzidenzmatrix R V E von G VU ist, gilt max{w T x : x 0, x } = min{ T y : y 0 y T w}, wobei beide Probleme optimale ganzzahlige Lösungen haben. 4. Vollständig-unimodulare Matrizen und gerichtete Graphen Definition 4.. Die Inzidenzmatrix eines gerichteten Graphen D = (V, ) ist M R V mit a +, falls a δ (v) v M v,a = a, falls a δ + (v) v 0, sonst.

7 Ganzzahlige Optimierung 7 Jede Spalte von M enthält genau eine + und genau eine. Satz 4.2. M ist VU. Sei B R t t eine Teilmatrix von M. Zeige per Induktion nach t, dass det B {, 0, +}. t = : t > :.Fall: B hat eine Nullspalte det B = 0. 2.Fall: B hat eine Spalte, die genau einen Eintrag 0 enthält. Dann, nach eventueller Vertauschung von Zeilen und Spalten, ist ± b T B = 0 B, b R t, B R (t ) (t ). Nach Induktionsvoraussetzung ist det B {, 0, +}, also det B = (±) det B {, 0, +}. 3.Fall: Jede Spalte von B enthält zwei Einträge 0. ufaddieren sämtlicher Zeilen von B ergibt 0, das heißt det B = 0. Korollar 4.3. (Max-flow-min-cut Theorem) Sei D = (V, ) ein gerichteter Graph, s, t V und c: R 0 eine Kapazitätsfunktion. Dann max min: max value(f) = min c(δ + (U)) f ist s-t-fluss U V 0 f c s U, t / U. max min: Sei M R V die Inzidenzmatrix von D und sei M die Matrix, die man durch Streichen der zu s und t gehörenden Zeilen aus M bekommt. Dann gilt f R ist s-t-fluss M f = 0. Sei w T R die zu t gehörende Zeile von M. Dann ist lso value(f) = w T f. max value(f) = max{w T f : 0 f c, M f = 0} f ist s-t-fluss 0 f c () = min{y T c : y 0, z R V \{s,t}, y T + z T M w T } = min{y T c : (y T z T I I ) 0 M (0 w T )},

8 8 F. Vallentin,. Gundert I I wobei () nach LP Dualität gilt. Die Matrix 0 M ist VU und der Vektor (0 w T ) ist ganzzahlig, also wird das Maximum an ganzzahligen Vektoren y, z angenommen. Erweitern wir z zu z Z V durch zt = und zs = 0 und zv = zv v V \{s, t}, so gilt (y ) T + (z ) T M 0, denn [(y ) T + (z ) T M] a = ya + [(z ) T M ] a } {{ } w a + zs }{{} =0 w a + ( ) M t,a = 0. }{{} =w a Setze U = {v V : z v 0}. Dann ist s U, t / U. M s,a + z t Behauptung: a δ + (U) c(a) (y ) T c (= max value(f)). }{{} = M t,a Beweis: Es genügt zu zeigen, dass falls a δ + (U), dann ya z Z V, gilt für a = (u, v) δ + (U): z u 0, z v nach Definition von U. Wegen [(y ) T + (z ) T M] a 0 gilt y a + z v y a z u z u z v. 0, das heißt. Da Prof. Dr. F. Vallentin, Dr.. Gundert, Mathematisches Institut, Universität zu Köln, Weyertal 86 90, 5093 Köln, Deutschland address:

Einführung in die Mathematik des Operations Research

Einführung in die Mathematik des Operations Research Universität zu Köln Mathematisches Institut Prof. Dr. F. Vallentin Einführung in die Mathematik des Operations Research Sommersemester 3 en zur Klausur (7. Oktober 3) Aufgabe ( + 3 + 5 = Punkte). Es sei

Mehr

KAPITEL 3 MATCHINGS IN BIPARTITEN GRAPHEN

KAPITEL 3 MATCHINGS IN BIPARTITEN GRAPHEN KAPITEL 3 MATCHINGS IN BIPARTITEN GRAPHEN F. VALLENTIN, A. GUNDERT 1. Definitionen Notation 1.1. Ähnlich wie im vorangegangenen Kapitel zunächst etwas Notation. Wir beschäftigen uns jetzt mit ungerichteten

Mehr

Ecken des Zuordnungsproblems

Ecken des Zuordnungsproblems Total unimodulare Matrizen Ecken des Zuordnungsproblems Definition.6 Ein Zuordnungsproblem mit den Vorzeichenbedingungen 0 apple x ij apple für i, j =,...,n statt x ij 2{0, } heißt relaxiertes Zuordnungproblem.

Mehr

KAPITEL 4 FLÜSSE IN NETZWERKEN

KAPITEL 4 FLÜSSE IN NETZWERKEN KAPITEL 4 FLÜSSE IN NETZWERKEN F. VALLENTIN, A. GUNDERT 1. Das Max-Flow-Min-Cut Theorem Es sei D = (V, A) ein gerichteter Graph, s, t V zwei Knoten. Wir nennen s Quelle und t Senke. Definition 1.1. Eine

Mehr

Operations Research. Flüsse in Netzwerken. Flüsse in Netzwerken. Unimodularität. Rainer Schrader. 2. Juli Gliederung.

Operations Research. Flüsse in Netzwerken. Flüsse in Netzwerken. Unimodularität. Rainer Schrader. 2. Juli Gliederung. Operations Research Rainer Schrader Flüsse in Netzwerken Zentrum für Angewandte Informatik Köln 2. Juli 2007 1 / 53 2 / 53 Flüsse in Netzwerken Unimodularität Gliederung Netzwerke und Flüsse bipartite

Mehr

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1) 34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)

Mehr

Flüsse in Netzwerken

Flüsse in Netzwerken Skript zum Seminar Flüsse in Netzwerken WS 2008/09 David Meier Inhaltsverzeichnis 1 Einführende Definitionen und Beispiele 3 2 Schnitte in Flussnetzwerken 12 2.1 Maximaler s t Fluss..........................

Mehr

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering Das Linear Ordering Problem Exakte Lösungsverfahren VO Algorithm Engineering für NP-schwierige Professor Dr. Petra Mutzel kombinatorische Lehrstuhl für Algorithm Engineering, LS11 Optimierungsprobleme

Mehr

Gemischt-ganzzahlige und Kombinatorische Optimierung

Gemischt-ganzzahlige und Kombinatorische Optimierung 5. Präsenzaufgabenblatt, Sommersemester 2015 Übungstunde am 15.06.2015 Aufgabe J Betrachten Sie die LP-Relaxierung max c T x a T x b 0 x i 1 des 0/1-Knapsack-Problems mit n Gegenständen, c 0 und a > 0.

Mehr

Lineare Algebra II 5. Übungsblatt

Lineare Algebra II 5. Übungsblatt Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross / Mai Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Algebraisch abgeschlossener Körper) Ein Körper heißt algebraisch abgeschlossen,

Mehr

Optimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn

Optimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn Optimierung Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung 1 Assignment Problem (Zuordnungsproblem) Gewichtetes Perfektes Bipartites Matching agents Costs tasks Weise jedem Agenten genau

Mehr

Technische Universitat Darmstadt

Technische Universitat Darmstadt Technische Universitat Darmstadt Diskrete Optimierung Nach einer Vorlesung vom Sommersemester 2006 gehalten von Prof. Dr. Alexander Martin Inhaltsverzeichnis 1 Einführung 5 1.1 Beispiele und Formulierungen....................

Mehr

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze

Mehr

2. Optimierungsprobleme 6

2. Optimierungsprobleme 6 6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen

Mehr

Mathematik I. Vorlesung 14. Rang von Matrizen

Mathematik I. Vorlesung 14. Rang von Matrizen Prof Dr H Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 14 Rang von Matrizen Definition 141 Es sei K ein Körper und sei M eine m n-matrix über K Dann nennt man die Dimension des von den Spalten

Mehr

Optimierung. Zusammenfassung

Optimierung. Zusammenfassung Optimierung Zusammenfassung Inhalte 1. Lineare Programmierung 2. Simplexalgorithmus 3. Ellipsoidmethode 4. Dualität 5. Ganzzahligkeit 6. Facility Location 7. Randomisiertes Runden 8. Branch and Bound &

Mehr

Das Multi Traveling Salesman Problem

Das Multi Traveling Salesman Problem Das Multi Traveling Salesman Problem Harald Voit Seminar Ganzzahlige Optimierung 19. bis 21. Januar 2007 Wallenfels Das Multi Traveling Salesman Problem p.1/26 Übersicht Vom TSP zum ATSP Das Multi Traveling

Mehr

Flüsse in Netzwerken. Seminar über Algorithmen SoSe 2005. Mike Rohland & Julia Schenk

Flüsse in Netzwerken. Seminar über Algorithmen SoSe 2005. Mike Rohland & Julia Schenk Flüsse in Netzwerken Seminar über Algorithmen SoSe 2005 Mike Rohland & Julia Schenk Inhalt Einführung Definition Maximale Flüsse Schnitte Restgraphen Zunehmende Wege Max-Fluss Min-Schnitt Theorem Ford-Fulkerson

Mehr

Ferienkurs zur algorithmischen diskreten Mathematik Kapitel 3: Minimal aufspannende Bäume und Matroide

Ferienkurs zur algorithmischen diskreten Mathematik Kapitel 3: Minimal aufspannende Bäume und Matroide Ferienkurs zur algorithmischen diskreten Mathematik Kapitel 3: Minimal aufspannende Bäume und Matroide Dipl-Math. Wolfgang Kinzner 3.4.2012 Kapitel 3: Minimal aufspannende Bäume und Matroide Minimal aufspannende

Mehr

Algorithmen II Vorlesung am 15.11.2012

Algorithmen II Vorlesung am 15.11.2012 Algorithmen II Vorlesung am 15.11.2012 Kreisbasen, Matroide & Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG KLAUSUR ZUR LINEAREN ALGEBRA I Wiederholungsprüfung MUSTERLÖSUNG. April 2008 Name: Studiengang: Aufgabe 2 3 4 5 6 Summe Punktzahl /50 Allgemeine Hinweise: Bitte schreiben Sie Ihre Lösungen jeweils unter

Mehr

Rang einer Matrix. 1-E1 Ma 1 Lubov Vassilevskaya

Rang einer Matrix. 1-E1 Ma 1 Lubov Vassilevskaya Rang einer Matrix 1-E1 Ma 1 Lubov Vassilevskaya Unterdeterminante einer nichtquadratischen Matrix M ist eine nichtquadratische 2,3-Matrix: M = 6 2 3 0 5 7 Durch Streichen einer der drei Spalten kann man

Mehr

Diskrete Optimierung (Einführung zur Vorlesung)

Diskrete Optimierung (Einführung zur Vorlesung) Diskrete Optimierung (Einführung zur Vorlesung) Christoph Helmberg : [,] Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete

Mehr

Die Determinante. Lineare Algebra I. Kapitel Mai 2013

Die Determinante. Lineare Algebra I. Kapitel Mai 2013 Die Determinante Lineare Algebra I Kapitel 7 21. Mai 2013 Logistik Dozent: Olga Holtz, MA 417, Sprechstunden Freitag 14-16 Webseite: www.math.tu-berlin.de/ holtz Email: holtz@math.tu-berlin.de Assistent:

Mehr

Satz 324 Sei M wie oben. Dann gibt es für ein geeignetes k Konstanten c i > 0 und Permutationsmatrizen P i, i = 1,...

Satz 324 Sei M wie oben. Dann gibt es für ein geeignetes k Konstanten c i > 0 und Permutationsmatrizen P i, i = 1,... Satz 324 Sei M wie oben. Dann gibt es für ein geeignetes k Konstanten c i > 0 und Permutationsmatrizen P i, i = 1,..., k, so dass gilt M = k c i P i i=1 k c i = r. i=1 Diskrete Strukturen 7.1 Matchings

Mehr

Kapitel III. Lineare Abbildungen

Kapitel III. Lineare Abbildungen Kapitel III. Lineare Abbildungen Beispiele: 1 Lineare Abbildungen a) Seien c 1,..., c n K vorgegeben. Betrachte die Funktion F (x 1,..., x n ) = c 1 x 1 + c 2 x 2 +... + c n x n in den Variablen x 1,...,

Mehr

2. Entsprechende Listen P i von Vorgängern von i 3. for i := 1 to n do. (ii) S i = Knoten 2 + 1}

2. Entsprechende Listen P i von Vorgängern von i 3. for i := 1 to n do. (ii) S i = Knoten 2 + 1} 1. Berechne für jeden Knoten i in BFS-Art eine Liste S i von von i aus erreichbaren Knoten, so dass (i) oder (ii) gilt: (i) S i < n 2 + 1 und Si enthält alle von i aus erreichbaren Knoten (ii) S i = n

Mehr

Darstellung von Gruppen

Darstellung von Gruppen Darstellung von Gruppen Definition Darstellung von Gruppen Sei G eine endlich erzeugte abelsche Gruppe mit Erzeugern S = (g 1,..., g k ) G k. Elemente des Kerns von ϕ S : Z k G, (m 1,..., m k ) k i=1 m

Mehr

Diskrete Strukturen Kapitel 4: Graphentheorie (Grundlagen)

Diskrete Strukturen Kapitel 4: Graphentheorie (Grundlagen) WS 2015/16 Diskrete Strukturen Kapitel 4: Graphentheorie (Grundlagen) Hans-Joachim Bungartz Lehrstuhl für wissenschaftliches Rechnen Fakultät für Informatik Technische Universität München http://www5.in.tum.de/wiki/index.php/diskrete_strukturen_-_winter_15

Mehr

3.11 Volumen und Determinanten

3.11 Volumen und Determinanten Im Wintersemester 2012/13 wurde in der Vorlesung Höhere Mathematik 1 für Ingenieurstudiengänge die Behandlung der Determinante neu gefasst: 311 Volumen und Determinanten 3111 Berechnung von Flächeninhalten

Mehr

Algorithmentheorie. 13 - Maximale Flüsse

Algorithmentheorie. 13 - Maximale Flüsse Algorithmentheorie 3 - Maximale Flüsse Prof. Dr. S. Albers Prof. Dr. Th. Ottmann . Maximale Flüsse in Netzwerken 5 3 4 7 s 0 5 9 5 9 4 3 4 5 0 3 5 5 t 8 8 Netzwerke und Flüsse N = (V,E,c) gerichtetes Netzwerk

Mehr

3.4 Maximale Flüsse und der Algorithmus von Ford Fulkerson

3.4 Maximale Flüsse und der Algorithmus von Ford Fulkerson 3.4 Maximale Flüsse und der Algorithmus von Ford Fulkerson Definition 3.4.1 Die Aufgabe, zu jedem Netzwerk N = (s, t, V, E, c o ) mit n = V Knoten und m = E Kanten den Fluß f IR m mit maximalem Wert zu

Mehr

2.5 Smith-Normalform für Matrizen über Euklidischen Ringen

2.5 Smith-Normalform für Matrizen über Euklidischen Ringen 2.5. SMITH-NORMALFORM FÜR MATRIZEN ÜBER EUKLIDISCHEN RINGEN73 2.5 Smith-Normalform für Matrizen über Euklidischen Ringen Bemerkung 2.74. Sei K ein Körper und A K n m, b K n 1. Das lineare Gleichungssystem

Mehr

Die Lineare Algebra-Methode. Mahir Kilic

Die Lineare Algebra-Methode. Mahir Kilic Die Lineare Algebra-Methode Mahir Kilic 23. Juni 2004 1 Einführung 1.1 Überblick Im Allgemein benutzt man die Lineare Algebra-Methode in der Kombinatorik wie folgt: Für die Bestimmung einer Obergrenze

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick

Mehr

Vortrag 20: Kurze Vektoren in Gittern

Vortrag 20: Kurze Vektoren in Gittern Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die

Mehr

Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner

Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1 Vortrag: Lineare Gleichungen am 11. März 2009 von Maximilian Wahner Technische Universität Dortmund Fakultät für Mathematik Proseminar Lineare

Mehr

mit. Wir definieren (Skalarprodukt = Winkel).

mit. Wir definieren (Skalarprodukt = Winkel). 1 Grundidee des Simplexverfahrens (von George Dantzig): Man bestimmt eine beliebige Ecke (Extremalpunkt) einer Lösungsmenge eines Ungleichungssystems. Nun geht man an den Kanten vom Punkt entlang und kontrolliert

Mehr

Expander Graphen und Ihre Anwendungen

Expander Graphen und Ihre Anwendungen Expander Graphen und Ihre Anwendungen Alireza Sarveniazi Mathematisches Institut Universität Göttingen 21.04.2006 Alireza Sarveniazi (Universität Göttingen) Expander Graphen und Ihre Anwendungen 21.04.2006

Mehr

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit) 3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände

Mehr

Multivariate Analysis

Multivariate Analysis Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle

Mehr

Cramersche Regel. Satz Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei. A j := (a 1,...,a j 1,b,a j+1,...

Cramersche Regel. Satz Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei. A j := (a 1,...,a j 1,b,a j+1,... Cramersche Regel Satz 2.4. Es sei A R n n eine quadratische Matrix mit det(a) 0. Für ein LGS Ax = b sei A j := (a,...,a j,b,a j+,...,a n ) also die Matrix, die entsteht, wenn in A die j-spalte durch den

Mehr

, c d. f + e + d. ae + bg a f + bh. ce + dg c f + dh

, c d. f + e + d. ae + bg a f + bh. ce + dg c f + dh Die Determinante Blockmatrizen Bemerkung: Für zwei 2 2-Matrizen gilt a b e f a b c d g h c d e g a b, c d f h a c b e + d a g, c f + ae + bg a f + bh ce + dg c f + dh b d h Sind die Einträge der obigen

Mehr

3 Klassifikation wichtiger Optimierungsprobleme

3 Klassifikation wichtiger Optimierungsprobleme 3 Klassifikation wichtiger Optimierungsprobleme 3.1 Das MIN- -TSP Wir kehren nochmal zurück zum Handlungsreisendenproblem für Inputs (w {i,j} ) 1 i

Mehr

8. Konvexe Polytope. Tobias Boelter. Mittwoch, 5. März TopMath Frühlingsschule

8. Konvexe Polytope. Tobias Boelter. Mittwoch, 5. März TopMath Frühlingsschule 1 / 31 8. Konvexe Tobias Boelter TopMath Frühlingsschule Mittwoch, 5. März 2014 2 / 31 Es können auch nicht konvexe untersucht werden, wir beschränken uns hier aber auf konvexe. Mit einem Polytop ist hier

Mehr

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume?

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Bernhard Ganter Institut für Algebra TU Dresden D-01062 Dresden bernhard.ganter@tu-dresden.de WS 2013/14 Isomorphie Zwei Graphen (V 1, E 1 ) und (V

Mehr

1.Aufgabe: Minimal aufspannender Baum

1.Aufgabe: Minimal aufspannender Baum 1.Aufgabe: Minimal aufspannender Baum 11+4+8 Punkte v 1 v 2 1 3 4 9 v 3 v 4 v 5 v 7 7 4 3 5 8 1 4 v 7 v 8 v 9 3 2 7 v 10 Abbildung 1: Der Graph G mit Kantengewichten (a) Bestimme mit Hilfe des Algorithmus

Mehr

Mathematik für Anwender I

Mathematik für Anwender I Prof Dr H Brenner Osnabrück WS 2011/2012 Mathematik für Anwender I Vorlesung 11 Rang von Matrizen Definition 111 Es sei K ein Körper und sei M eine m n-matrix über K Dann nennt man die Dimension des von

Mehr

LINEARE ALGEBRA II. FÜR PHYSIKER

LINEARE ALGEBRA II. FÜR PHYSIKER LINEARE ALGEBRA II FÜR PHYSIKER BÁLINT FARKAS 4 Rechnen mit Matrizen In diesem Kapitel werden wir zunächst die so genannten elementaren Umformungen studieren, die es ermöglichen eine Matrix auf besonders

Mehr

3.6 Branch-and-Bound-Verfahren

3.6 Branch-and-Bound-Verfahren 36 Branch-and-Bound-Verfahren Die Branch-and-Bound -Methode beruht darauf, auf eine intelligente Weise alle zulässigen Lösungen eines kombinatorischen Optimierungsproblems aufzulisten und mit Hilfe von

Mehr

3.1 Sukzessive Minima und reduzierte Basen: Resultate

3.1 Sukzessive Minima und reduzierte Basen: Resultate Gitter und Codes c Rudolf Scharlau 4. Juni 2009 202 3.1 Sukzessive Minima und reduzierte Basen: Resultate In diesem Abschnitt behandeln wir die Existenz von kurzen Basen, das sind Basen eines Gitters,

Mehr

6. Normale Abbildungen

6. Normale Abbildungen SKALARPRODUKE 1 6 Normale Abbildungen 61 Erinnerung Sei V ein n-dimensionaler prä-hilbertraum, also ein n-dimensionaler Vektorraum über K (R oder C) versehen auch mit einer Skalarprodukt, ra K Die euklidische

Mehr

Matrizen - I. Sei K ein Körper. Ein rechteckiges Schema A = wobei a ij K heißt Matrix bzw. eine m n Matrix (mit Elementen aus K).

Matrizen - I. Sei K ein Körper. Ein rechteckiges Schema A = wobei a ij K heißt Matrix bzw. eine m n Matrix (mit Elementen aus K). Matrizen - I Definition. Sei K ein Körper. Ein rechteckiges Schema A = a 11 a 12...... a 1n a 21 a 22...... a 2n............ a m1 a m2...... a mn wobei j K heißt Matrix bzw. eine m n Matrix (mit Elementen

Mehr

Übungen zur Vorlesung Lineare Algebra

Übungen zur Vorlesung Lineare Algebra Übungen zur Vorlesung Lineare Algebra Institut für Reine Mathematik WS 2009/10 & SS 2010 Kapitel 1. Vektorräume Was ist ein Vektorraum? Sei X und K ein Körper. Wie macht man Abb (X, K) zu einem K -Vektorraum?

Mehr

Analysis II. Vorlesung 48. Die Hesse-Form

Analysis II. Vorlesung 48. Die Hesse-Form Prof. Dr. H. Brenner Osnabrück SS 2014 Analysis II Vorlesung 48 Die Hesse-Form Wir sind natürlich auch an hinreichenden Kriterien für das Vorliegen von lokalen Extrema interessiert. Wie schon im eindimensionalen

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Diskrete Optimierungsverfahren zur Lösung von Sudokus

Diskrete Optimierungsverfahren zur Lösung von Sudokus Diskrete Optimierungsverfahren zur Lösung von Sudokus Seminarvortrag von Daniel Scholz am 6. Dezember 2006 Am Beispiel der Lösung von Sudokurätseln mit Hilfe der linearen Optimierung werden verschiedenen

Mehr

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung 4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax

Mehr

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist. Matrizennorm Es seien r,s N Mit M r,s (R bezeichnen wir die Menge der reellen r s- Matrizen (also der linearen Abbildungen R s R r, und setze M s (R := M s,s (R (also die Menge der linearen Abbildungen

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Teil IV Konvexe und ganzzahlige Optimierung Vorlesung 11 IV Konvexe und ganzzahlige Optimierung 2 / 34 Inhaltsübersicht 29Lineare Optimierung

Mehr

1 Matroide. 1.1 Definitionen und Beispiele. Seminar zur ganzzahligen Optimierung Thema: Durchschnitt von Matroiden - Satz von Edmonds von Dany Sattler

1 Matroide. 1.1 Definitionen und Beispiele. Seminar zur ganzzahligen Optimierung Thema: Durchschnitt von Matroiden - Satz von Edmonds von Dany Sattler Seminar zur ganzzahligen Optimierung Thema: Durchschnitt von Matroiden - Satz von Edmonds von Dany Sattler 1 Matroide 1.1 Definitionen und Beispiele 1. Definition (Unabhängigkeitssystem): Ein Mengensystem

Mehr

Vektorräume und Rang einer Matrix

Vektorräume und Rang einer Matrix Universität Basel Wirtschaftswissenschaftliches Zentrum Vektorräume und Rang einer Matrix Dr. Thomas Zehrt Inhalt:. Lineare Unabhängigkeit 2. Vektorräume und Basen 3. Basen von R n 4. Der Rang und Rangbestimmung

Mehr

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum

Mehr

Lineare Abbildungen. Es seien V und W Vektorräume über einem Körper K. Eine Abbildung f : V W heißt linear oder Homomorphismus, falls. d.h.

Lineare Abbildungen. Es seien V und W Vektorräume über einem Körper K. Eine Abbildung f : V W heißt linear oder Homomorphismus, falls. d.h. Lineare Abbildungen Es seien V und W Vektorräume über einem Körper K. Eine Abbildung f : V W heißt linear oder Homomorphismus, falls (1) u, v V : f( u + v) = f( u) + f( v). (2) v V α K : f(α v) = αf( v).

Mehr

Vorlesung Lineare Optimierung (Sommersemester 2010)

Vorlesung Lineare Optimierung (Sommersemester 2010) 1 Vorlesung Lineare Optimierung (Sommersemester 2010) Kapitel 6: Die Geometrie der Linearen Optimierung Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 15. Juni 2010) Gliederung 2 Das

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 39 Definitheit von Bilinearformen Wir möchten die symmetrischen Bilinearformen über den reellen Zahlen klassifizieren.

Mehr

Durchschnitt von Matroiden

Durchschnitt von Matroiden Durchschnitt von Matroiden Satz von Edmonds Dany Sattler 18. Januar 2007/ Seminar zur ganzzahligen Optimierung / Wallenfels Definition: Unabhängigkeitssystem Definition: Ein Mengensystem (S, J ) nennt

Mehr

Diskrete Optimierung. Vorlesungsskript SS 2010, TU München. Prof. Dr. Raymond Hemmecke

Diskrete Optimierung. Vorlesungsskript SS 2010, TU München. Prof. Dr. Raymond Hemmecke Diskrete Optimierung Vorlesungsskript SS 2010, TU München Prof. Dr. Raymond Hemmecke Version vom 11. Juli 2010 Inhaltsverzeichnis 1 Komplexitätstheorie 1 1.1 Was ist ein Problem?...................................

Mehr

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume?

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Bernhard Ganter WS 2009/10 Isomorphie Zwei Graphen (V 1, E 1 ) und (V 2, E 2 ) heißen isomorph, wenn es eine bijektive, Kanten erhaltende und Kanten

Mehr

Musterlösung zur Klausur Lineare Algebra II für Lehramt 30.07.2012

Musterlösung zur Klausur Lineare Algebra II für Lehramt 30.07.2012 Musterlösung zur Klausur Lineare Algebra II für Lehramt 30.07.0 Aufgabe : Entscheiden Sie in dieser Aufgabe, ob die Aussagen wahr oder falsch sind. Begründungen sind nicht erforderlich. Ein korrekt gesetztes

Mehr

a 1 a 1 A = a n . det = λ det a i

a 1 a 1 A = a n . det = λ det a i 49 Determinanten Für gegebene Vektoren a 1,,a n K n, betrachte die Matrix deren Zeilenvektoren a 1,,a n sind, also A = Ab sofort benutzen wir diese bequeme Schreibweise Definition Sei M : K n K }{{ n K

Mehr

2. Repräsentationen von Graphen in Computern

2. Repräsentationen von Graphen in Computern 2. Repräsentationen von Graphen in Computern Kapitelinhalt 2. Repräsentationen von Graphen in Computern Matrizen- und Listendarstellung von Graphen Berechnung der Anzahl der verschiedenen Kantenzüge zwischen

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Kombinatorische Optimierung Zuweisungsprobleme 2 1 3 5 4 Kombinatorische Optimierung Rucksackpackproblem 1 10 2 4 6 3 5 8 6 Aufspannende Bäume Travelling Salesman VLSI Design C. Kanzow, M. Gerdts Kombinatorische

Mehr

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen a) Es ist < x, y > α + + β β ( + α) und y α + + β α + + ( + α) (α + α + ) 6 α + α, also α, ± 5 + ± 9 4 ± 3 Es gibt also Lösungen: α, β

Mehr

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen 3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange

Mehr

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema: Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag

Mehr

Der Rang einer Matrix A. Beispiel

Der Rang einer Matrix A. Beispiel Der Rang einer Matrix A ist gleich Anzahl der Zeilen ungleich 0, nachdem die Matrix durch elementare Zeilenoperationen in Zeilenstufenform gebracht worden ist. Bezeichnung: ranga oder rga. Beispiel A =

Mehr

Proseminar Graphentheorie Vortrag 3 Matching. Inhalt: 1. Grundlagen 2. Matchings in bipatiten Graphen 3. Matchings in allgemeinen Graphen

Proseminar Graphentheorie Vortrag 3 Matching. Inhalt: 1. Grundlagen 2. Matchings in bipatiten Graphen 3. Matchings in allgemeinen Graphen Proseminar Graphentheorie Vortrag 3 Matching Inhalt: 1. Grundlagen 2. Matchings in bipatiten Graphen 3. Matchings in allgemeinen Graphen 1. Grundlagen Definition Matching: Eine Menge M von unabhängigen

Mehr

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 = Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls

Mehr

Mathematischer Vorkurs

Mathematischer Vorkurs Mathematischer Vorkurs Dr. Agnes Lamacz Mathematischer Vorkurs TU Dortmund Seite 1 / 170 Vollständige Induktion Kapitel 13 Vollständige Induktion Mathematischer Vorkurs TU Dortmund Seite 117 / 170 Vollständige

Mehr

Algorithmische Graphentheorie

Algorithmische Graphentheorie Algorithmische Graphentheorie Sommersemester 204 4. Vorlesung Matchings / Paarungen Kombinatorische Anwendungen des Max-Flow-Min-Cut-Theorems Prof. Dr. Alexander Wolff 2 Paarungen (Matchings) Def. Sei

Mehr

Flüsse, Schnitte, bipartite Graphen

Flüsse, Schnitte, bipartite Graphen Flüsse, Schnitte, bipartite Graphen Vlad Popa 08.06.2010 Inhaltsverzeihnis 1. Flussnetzwerke und Flüsse 1.1 Ford- Fulkerson 1.2 Edmond Karp 1.3 Dinic 2. Schnitte 3. Maximaler Fluss bei minimalen Kosten

Mehr

Vorlesung Diskrete Strukturen Transportnetze

Vorlesung Diskrete Strukturen Transportnetze Vorlesung Diskrete Strukturen Transportnetze Bernhard Ganter WS 2013/14 1 Transportnetze Gerichtete Graphen Ein schlingenloser gerichteter Graph ist ein Paar (V, A), wobei V eine beliebige Menge ist, deren

Mehr

Effiziente Algorithmen I

Effiziente Algorithmen I H 10. Präsenzaufgabenblatt, Wintersemester 2015/16 Übungstunde am 18.01.2015 Aufgabe Q Ein Reiseveranstalter besitzt ein Flugzeug, das maximal p Personen aufnehmen kann. Der Veranstalter bietet einen Flug

Mehr

Freie Bäume und Wälder

Freie Bäume und Wälder (Martin Dietzfelbinger, Stand 4.6.2011) Freie Bäume und Wälder In dieser Notiz geht es um eine besondere Sorte von (ungerichteten) Graphen, nämlich Bäume. Im Gegensatz zu gerichteten Bäumen nennt man diese

Mehr

Graphentheorie Graphentheorie. Grundlagen Bäume Eigenschaften von Graphen Graphen-Algorithmen Matchings und Netzwerke

Graphentheorie Graphentheorie. Grundlagen Bäume Eigenschaften von Graphen Graphen-Algorithmen Matchings und Netzwerke Graphen Graphentheorie Graphentheorie Grundlagen Bäume Eigenschaften von Graphen Graphen-Algorithmen Matchings und Netzwerke 2 Was ist ein Graph? Ein Graph ist in der Graphentheorie eine abstrakte Struktur,

Mehr

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume?

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Bernhard Ganter Institut für Algebra TU Dresden D-01062 Dresden bernhard.ganter@tu-dresden.de WS 2009/10 1 Bernhard Ganter, TU Dresden Modul Einführung

Mehr

Optimierung auf Netzwerken

Optimierung auf Netzwerken KAPITEL 4 Optimierung auf Netzwerken Wir untersuchen hier spezielle lineare Programme, die eine zusätzliche kombinatorische (graphentheoretische) Struktur tragen. Nutzt man diese kombinatorische Struktur

Mehr

Copyright, Page 1 of 5 Die Determinante

Copyright, Page 1 of 5 Die Determinante wwwmathematik-netzde Copyright, Page 1 of 5 Die Determinante Determinanten sind ein äußerst wichtiges Instrument zur Untersuchung von Matrizen und linearen Abbildungen Außerhalb der linearen Algebra ist

Mehr

8 Diskrete Optimierung

8 Diskrete Optimierung 8 Diskrete Optimierung Definition 8.1. Ein Graph G ist ein Paar (V (G), E(G)) besteh aus einer lichen Menge V (G) von Knoten (oder Ecken) und einer Menge E(G) ( ) V (G) 2 von Kanten. Die Ordnung n(g) von

Mehr

Lösungen zum Aufgabenblatt Nr. 1: Konstruktion der reellen Zahlen

Lösungen zum Aufgabenblatt Nr. 1: Konstruktion der reellen Zahlen Lösungen zum Aufgabenblatt Nr. 1: Konstruktion der reellen Zahlen Aufgabe 1: Es sei D die Menge aller rationalen Dedekind-Mengen, also D := { M 2 Q M is Dedekind-Menge }. Auf der Menge D definieren wir

Mehr

4.13. Permutationen. Definition. Eine Permutation der Elementen {1,..., n} ist eine bijektive Abbildung

4.13. Permutationen. Definition. Eine Permutation der Elementen {1,..., n} ist eine bijektive Abbildung 43 Permutationen Definition Eine Permutation der Elementen {,, n} ist eine bijektive Abbildung σ : {,,n} {,,n} Es ist leicht zu sehen, dass die Hintereinanderführung zweier Permutationen ergibt wieder

Mehr

1 Der Simplex Algorithmus I

1 Der Simplex Algorithmus I 1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier

Mehr

2.11 Eigenwerte und Diagonalisierbarkeit

2.11 Eigenwerte und Diagonalisierbarkeit 2.11. EIGENWERTE UND DIAGONALISIERBARKEIT 127 Die Determinante eines Endomorphismus Wir geben uns jetzt einen endlichen erzeugten K-Vektorraum V und einen Endomorphismus ϕ : V V vor. Wir wollen die Determinante

Mehr

Der Golay-Code und das Leech-Gitter

Der Golay-Code und das Leech-Gitter Der Golay-Code und das Leech-Gitter Vortrag zum Seminar Gitter und Codes Nils Malte Pawelzik.5.5 Inhaltsverzeichnis Designs 3. Elementare Eigenschaften eines Designs und die Eindeutigkeit eines - (, 5,

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Mathematik für Naturwissenschaftler II SS 2010

Mathematik für Naturwissenschaftler II SS 2010 Mathematik für Naturwissenschaftler II SS 2010 Lektion 9 20. Mai 2010 Kapitel 9. Matrizen und Determinanten Der Begriff der Matrix Die transponierte Matrix Definition 84. Unter einer (reellen) m n-matrix

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr