KAPITEL 6 GANZZAHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULARE MATRIZEN

Größe: px
Ab Seite anzeigen:

Download "KAPITEL 6 GANZZAHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULARE MATRIZEN"

Transkript

1 KPITEL 6 GNZZHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULRE MTRIZEN F. VLLENTIN,. GUNDERT. Ganzzahlige lineare Programme Viele Optimierungsprobleme des Operations Research lassen sich als ganzzahlige lineare Programme formulieren. Definition.. Ein ganzzahliges LP (in Standardform) ist von der Form: max c T x x Z n x b, ( x ganzzahlig ) wobei c R n, R m n und b R m. Ein ganzzahliges lineares Programm nennen wir auch ILP oder IP (= integer linear program ). Wir maximieren also eine lineare Funktion über den ganzzahligen Punkten in einem Polyeder. P I P = {x R n : x b} P P I = conv(p Z n ) Beispiel.2. Es sei G = (V, E) ein ungerichteter Graph. Mit R V den Vektorraum der Funktionen von V nach R, also R V = {f : V R : f Funktion} und analog R E = {f : E R : f Funktion} R V E = {f : V E R : f Funktion} bezeichnen wir Wir definieren die Inzidenzmatrix R V E durch {, falls v e, v,e = 0, sonst. Date: 29. Juni 204.

2 2 F. Vallentin,. Gundert Dann ν(g) = max{ M : M E Matching in G} = max{ e E x e : x e 0 e E, x e Z e E, = max{. T x : x 0, x., x Z E } x e v V } e:v e Wir werden sehen, dass für G bipartit T ν(g) = max{. x : x 0, x., x R E } gilt. Im allgemeinen, nicht-bipartiten Fall kann aber < gelten. Zum Beispiel für G =, x e = 2 e E. Dualitätsbeziehung: Es gilt max{c T x : x b, x Z n } max{c T x : x b, x R n } = min{y T b : y 0, y T = c T, y R m } min{y T b : y 0, y T = c T, y Z m }, falls (PLP) und (DLP) beide zulässige Lösungen besitzen. Im llgemeinen gilt <, wie das obige Beispiel zeigt. Kein Wunder: LP kann effizient gelöst werden (in polynomieller Zeit), ILP dagegen wahrscheinlich nicht (Äquivalent zum P NP-Problem, für dessen Lösung Dollar ausgeschrieben sind). Frage: In welcher Situation gilt =? Definition.3. Ein Polytop P R n heißt ganzzahlig, falls jede Ecke z von P ganzzahlig ist, das heißt z Z n. Falls P ganzzahlig ist, dann gilt also max{c T x : x P, x Z n } = max{c T x : x P, x R n } Wir suchen also Bedingungen an und b, damit P = {x : x b} ganzzahlig ist. 2. Vollständig-unimodulare Matrizen Definition 2.. Eine Matrix R m n heißt vollständig-unimodular (VU), falls jeder ihrer Minoren (Determinanten quadratischer Teilmatrizen) gleich 0, oder + ist. Insbesondere gilt für die Einträge: ij {0,, +}.

3 Ganzzahlige Optimierung 3 Satz 2.2. Sei R m n VU, b Z m. Dann ist jede Ecke des Polyeders P = {x : x b} ganzzahlig. Sei z eine Ecke von P. Dann hat die Teilmatrix z vollen Rang n und enthält darum eine n n Teilmatrix mit Rang n. OBd sei in den ersten n Zeilen von enthalten. Setze b = (b,..., b n ) T Z n, dann gilt z = b. Nach der Cramerschen Regel ist z i = det i det. Da det = und i ganzzahlig ist, ist also z i Z. Bemerkung 2.3. Nicht jedes Polyeder hat eine Ecke. Definition 2.4. Ein Polyeder P R n heißt ganzzahlig, falls für alle c R n, für die max{c T x : x P } endlich ist, das Maximum an einem ganzzahligen Vektor angenommen wird. Satz 2.5. Sei R m n VU, b Z m. Dann ist P = {x : x b} ein ganzzahliges Polyeder. Sei c R n gegeben und x eine optimale Lösung von max{c T x : x b}. Wähle d, d Z n mit d x d. Dann ist Q = {x R n : x b, d x d } ein Polytop. Weiter ist Q = {x R n : I I x b und die Matrix I ist VU. Nach dem vorherigen Satz ist Q also ein ganzzahliges I Polytop und außerdem wird max{c T x : x Q} an einer Ecke x angenommen. Da x Q, ist c T x c T x, und weil x b, ist x optimale Lösung von max{c T x : x b}. Korollar 2.6. Sei R m n VU, b Z m, c Z n. Dann haben die beiden linearen Programme d d } max{c T x : x b} = min{y T b : y 0, y T = c T } ganzzahlige Lösungen, falls die Optima endlich sind. Folgt aus dem vorhergehenden Satz, weil die Matrix I T Z (2n+m) m VU ist. T Ziel: Charakterisierung von vollständig-unimodularen Matrizen mit Hilfe von Ganzzahligkeit von Polyedern. Satz 2.7. (Hoffman, Kruskal 956) Sei Z m n. Dann gilt ist VU für alle b Z m ist P = {x : x b, x 0} ganzzahlig.

4 4 F. Vallentin,. Gundert : Weil P {x : x 0}, wird max{ct x : x P } in einer Ecke von P angenommen, falls das Maximum [ endlich ist ( ufgabe 9.). Sei z eine Ecke von P. Definiere B =. Betrachte I] Bx = x I ( ) b. 0 Dann enthält B z eine reguläre ( Teilmatrix B Z n n. Sei b Z n der entsprechende Teilvektor von. Dann ist z = (B b 0) ) b ganzzahlig aufgrund der Cramerschen Regel und weil VU ist. : Sei eine reguläre k k-teilmatrix von. Zu zeigen: det =. OBd sei die obere linke Teilmatrix von. Betrachte B Z m m bestehend aus den ersten k und den letzten m k Spalten von [ I m ], also I [ I m ] = k 0 0 und B = 0 I m k Dann ist det B = det. I m k Ziel: Zeige B Z m m. Denn: Weil dann det B Z und det B det B =, muss det B = sein. Sei i {,..., m}. Wir zeigen, dass die i-te Spalte von B ganzzahlig ist: Wähle y Z m mit y + B e i 0 und setze z = y + B e i. Dann ist Bz = By + e i Z m. Setze b = Bz. Füge in z hinter den ersten k Komponenten n k + k Nullen ein und nenne diesen Vektor z. Dann gilt nach Konstruktion [ I]z = Bz = b. Da z 0, liegt der Vektor z, der aus den ersten n Komponenten von z besteht, in P = {x : x b, x 0}. Das heißt es gilt [ ( z I] b. 0) Die ersten k und die letzten n k dieser Ungleichungen sind mit Gleichheit erfüllt. Da die entsprechenden Zeilen von linear unabhängig sind, ist I also z eine Ecke von P. Nach Voraussetzung ist z Z n. uf den ersten n Komponenten stimmen z und z überein. Die letzten m Komponenten von z sind durch b z gegeben und also auch ganzzahlig. lso ist z Z m und somit auch B e i = z y Z m. 3. Vollständig-unimodulare Matrizen und bipartite Graphen Satz 3.. Sei G = (V, E) ein ungerichteter Graph. Dann gilt G ist bipartit Die Inzidenzmatrix R V E ist VU.

5 Ganzzahlige Optimierung 5 : Sei B eine t t Teilmatrix von. Zeige: det B {, 0, +} per Induktion nach t. t = : t > :.Fall: B enthält eine Nullspalte. Dann ist det B = 0. 2.Fall: B enthält eine Spalte, die genau eine enthält. Dann ist B (nach eventueller Permutation von Zeilen und Spalten) von der Form b T B = 0 B, b R t, B R (t ) (t ). Nach Induktionsvoraussetzung ist det B {, 0, +}. lso auch det B {, 0, +}. 3.Fall: Jede Spalte von B enthält genau zwei Einsen. Da G bipartit ist, kann man (nach eventueller Permutation der Zeilen) B als B B = B schreiben, wobei jede Spalte von B genau eine enthält und jede Spalte von B genau eine enthält. ufaddieren aller Zeilen von B ergibt den Vektor (,..., ). Genauso wie ufaddieren aller Zeilen von B. Das heißt die Zeilen von B sind linear abhängig, also det B = 0. : Sei VU. ngenommen G ist nicht bipartit. Dann enthält G einen Kreis ungerader Länge mit Knoten v,..., v k und Kanten e,..., e k. Die entsprechende Teilmatrix von (mit Zeilen v,..., v k und Spalten e,..., e k ) ist von der Form: v 2 v 3 e e 2 e 3... e k e k v v v v k v k v e e 2 e k e k v k v k Zum Beispiel durch Entwicklung nach der k-ten Spalte sieht man, dass die Determinante dieser Matrix gleich (+) +(+) = 2 ist (k ist ungerade!). lso kann nicht VU sein. Korollar 3.2. (Matching-Theorem von König; siehe Kapitel 3.3) Sei G = (V, E) ein bipartiter Graph. Dann ν(g) = max{ M : M E Matching in G} = min{ U : U V Knotenüberdeckung in G} = τ(g).

6 6 F. Vallentin,. Gundert ν(g) = max{ e E x e : x e 0 e E, x e Z, = max{ T x : x Z E, x 0, x } x e v V } e:v e = max{ T x : x R E, x 0, x } (nach Hoffman.Kruskal, weil VU ist) = min{ T y : y R V, y 0, y T } (LP Dualität) = min{ T y : y Z V, y 0, y T } (Hoffman-Kruskal) = min{ v V = τ(g). y v : y v Z, y v 0 v V, y u + y v {u, v} E} Ein Vektor y Z V, der das Minimum erzielt, hat nur 0/- Komponenten. Hierbei ist y v = v ist Knoten in einer minimalen Knotenüberdeckung. Korollar 3.3. Sei G = (V, E) ein bipartiter Graph. Dann conv{χ M : M E Matching in G} = {x R E : x 0, x }, wobei die Inzidenzmatrix von G ist. : : Q = {x RE : x 0, x } ist beschränkt, also ein Polytop und somit ist Q die konvexe Hülle seiner Ecken. Da VU ist, sind alle Ecken von Q ganzzahlig. Und jeder ganzzahlige Vektor in Q ist Inzidenzvektor eines Matchings in G. Korollar 3.4. (Theorem von Egaváry (93)) Sei G = (V, E) ein bipartiter Graph und w : E Z eine Gewichtsfunktion. Dann ist ν W (G) = max{w(m) : M E Matching in G} = min{ v V y v : y Z V, y 0, y u + y v w({u, v}) {u, v} E}. Weil die Inzidenzmatrix R V E von G VU ist, gilt max{w T x : x 0, x } = min{ T y : y 0 y T w}, wobei beide Probleme optimale ganzzahlige Lösungen haben. 4. Vollständig-unimodulare Matrizen und gerichtete Graphen Definition 4.. Die Inzidenzmatrix eines gerichteten Graphen D = (V, ) ist M R V mit a +, falls a δ (v) v M v,a = a, falls a δ + (v) v 0, sonst.

7 Ganzzahlige Optimierung 7 Jede Spalte von M enthält genau eine + und genau eine. Satz 4.2. M ist VU. Sei B R t t eine Teilmatrix von M. Zeige per Induktion nach t, dass det B {, 0, +}. t = : t > :.Fall: B hat eine Nullspalte det B = 0. 2.Fall: B hat eine Spalte, die genau einen Eintrag 0 enthält. Dann, nach eventueller Vertauschung von Zeilen und Spalten, ist ± b T B = 0 B, b R t, B R (t ) (t ). Nach Induktionsvoraussetzung ist det B {, 0, +}, also det B = (±) det B {, 0, +}. 3.Fall: Jede Spalte von B enthält zwei Einträge 0. ufaddieren sämtlicher Zeilen von B ergibt 0, das heißt det B = 0. Korollar 4.3. (Max-flow-min-cut Theorem) Sei D = (V, ) ein gerichteter Graph, s, t V und c: R 0 eine Kapazitätsfunktion. Dann max min: max value(f) = min c(δ + (U)) f ist s-t-fluss U V 0 f c s U, t / U. max min: Sei M R V die Inzidenzmatrix von D und sei M die Matrix, die man durch Streichen der zu s und t gehörenden Zeilen aus M bekommt. Dann gilt f R ist s-t-fluss M f = 0. Sei w T R die zu t gehörende Zeile von M. Dann ist lso value(f) = w T f. max value(f) = max{w T f : 0 f c, M f = 0} f ist s-t-fluss 0 f c () = min{y T c : y 0, z R V \{s,t}, y T + z T M w T } = min{y T c : (y T z T I I ) 0 M (0 w T )},

8 8 F. Vallentin,. Gundert I I wobei () nach LP Dualität gilt. Die Matrix 0 M ist VU und der Vektor (0 w T ) ist ganzzahlig, also wird das Maximum an ganzzahligen Vektoren y, z angenommen. Erweitern wir z zu z Z V durch zt = und zs = 0 und zv = zv v V \{s, t}, so gilt (y ) T + (z ) T M 0, denn [(y ) T + (z ) T M] a = ya + [(z ) T M ] a } {{ } w a + zs }{{} =0 w a + ( ) M t,a = 0. }{{} =w a Setze U = {v V : z v 0}. Dann ist s U, t / U. M s,a + z t Behauptung: a δ + (U) c(a) (y ) T c (= max value(f)). }{{} = M t,a Beweis: Es genügt zu zeigen, dass falls a δ + (U), dann ya z Z V, gilt für a = (u, v) δ + (U): z u 0, z v nach Definition von U. Wegen [(y ) T + (z ) T M] a 0 gilt y a + z v y a z u z u z v. 0, das heißt. Da Prof. Dr. F. Vallentin, Dr.. Gundert, Mathematisches Institut, Universität zu Köln, Weyertal 86 90, 5093 Köln, Deutschland address:

KAPITEL 3 MATCHINGS IN BIPARTITEN GRAPHEN

KAPITEL 3 MATCHINGS IN BIPARTITEN GRAPHEN KAPITEL 3 MATCHINGS IN BIPARTITEN GRAPHEN F. VALLENTIN, A. GUNDERT 1. Definitionen Notation 1.1. Ähnlich wie im vorangegangenen Kapitel zunächst etwas Notation. Wir beschäftigen uns jetzt mit ungerichteten

Mehr

KAPITEL 4 FLÜSSE IN NETZWERKEN

KAPITEL 4 FLÜSSE IN NETZWERKEN KAPITEL 4 FLÜSSE IN NETZWERKEN F. VALLENTIN, A. GUNDERT 1. Das Max-Flow-Min-Cut Theorem Es sei D = (V, A) ein gerichteter Graph, s, t V zwei Knoten. Wir nennen s Quelle und t Senke. Definition 1.1. Eine

Mehr

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1) 34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)

Mehr

Flüsse in Netzwerken

Flüsse in Netzwerken Skript zum Seminar Flüsse in Netzwerken WS 2008/09 David Meier Inhaltsverzeichnis 1 Einführende Definitionen und Beispiele 3 2 Schnitte in Flussnetzwerken 12 2.1 Maximaler s t Fluss..........................

Mehr

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering Das Linear Ordering Problem Exakte Lösungsverfahren VO Algorithm Engineering für NP-schwierige Professor Dr. Petra Mutzel kombinatorische Lehrstuhl für Algorithm Engineering, LS11 Optimierungsprobleme

Mehr

Lineare Algebra II 5. Übungsblatt

Lineare Algebra II 5. Übungsblatt Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross / Mai Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Algebraisch abgeschlossener Körper) Ein Körper heißt algebraisch abgeschlossen,

Mehr

Gemischt-ganzzahlige und Kombinatorische Optimierung

Gemischt-ganzzahlige und Kombinatorische Optimierung 5. Präsenzaufgabenblatt, Sommersemester 2015 Übungstunde am 15.06.2015 Aufgabe J Betrachten Sie die LP-Relaxierung max c T x a T x b 0 x i 1 des 0/1-Knapsack-Problems mit n Gegenständen, c 0 und a > 0.

Mehr

Technische Universitat Darmstadt

Technische Universitat Darmstadt Technische Universitat Darmstadt Diskrete Optimierung Nach einer Vorlesung vom Sommersemester 2006 gehalten von Prof. Dr. Alexander Martin Inhaltsverzeichnis 1 Einführung 5 1.1 Beispiele und Formulierungen....................

Mehr

2. Optimierungsprobleme 6

2. Optimierungsprobleme 6 6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen

Mehr

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze

Mehr

Ferienkurs zur algorithmischen diskreten Mathematik Kapitel 3: Minimal aufspannende Bäume und Matroide

Ferienkurs zur algorithmischen diskreten Mathematik Kapitel 3: Minimal aufspannende Bäume und Matroide Ferienkurs zur algorithmischen diskreten Mathematik Kapitel 3: Minimal aufspannende Bäume und Matroide Dipl-Math. Wolfgang Kinzner 3.4.2012 Kapitel 3: Minimal aufspannende Bäume und Matroide Minimal aufspannende

Mehr

Das Multi Traveling Salesman Problem

Das Multi Traveling Salesman Problem Das Multi Traveling Salesman Problem Harald Voit Seminar Ganzzahlige Optimierung 19. bis 21. Januar 2007 Wallenfels Das Multi Traveling Salesman Problem p.1/26 Übersicht Vom TSP zum ATSP Das Multi Traveling

Mehr

Diskrete Optimierung (Einführung zur Vorlesung)

Diskrete Optimierung (Einführung zur Vorlesung) Diskrete Optimierung (Einführung zur Vorlesung) Christoph Helmberg : [,] Inhaltsübersicht Diskrete Optimierung. Das Heiratsproblem (ungerichtete Graphen).2 Ganzzahligkeit von Polyedern ( und gerichtete

Mehr

3.4 Maximale Flüsse und der Algorithmus von Ford Fulkerson

3.4 Maximale Flüsse und der Algorithmus von Ford Fulkerson 3.4 Maximale Flüsse und der Algorithmus von Ford Fulkerson Definition 3.4.1 Die Aufgabe, zu jedem Netzwerk N = (s, t, V, E, c o ) mit n = V Knoten und m = E Kanten den Fluß f IR m mit maximalem Wert zu

Mehr

Rang einer Matrix. 1-E1 Ma 1 Lubov Vassilevskaya

Rang einer Matrix. 1-E1 Ma 1 Lubov Vassilevskaya Rang einer Matrix 1-E1 Ma 1 Lubov Vassilevskaya Unterdeterminante einer nichtquadratischen Matrix M ist eine nichtquadratische 2,3-Matrix: M = 6 2 3 0 5 7 Durch Streichen einer der drei Spalten kann man

Mehr

Flüsse in Netzwerken. Seminar über Algorithmen SoSe 2005. Mike Rohland & Julia Schenk

Flüsse in Netzwerken. Seminar über Algorithmen SoSe 2005. Mike Rohland & Julia Schenk Flüsse in Netzwerken Seminar über Algorithmen SoSe 2005 Mike Rohland & Julia Schenk Inhalt Einführung Definition Maximale Flüsse Schnitte Restgraphen Zunehmende Wege Max-Fluss Min-Schnitt Theorem Ford-Fulkerson

Mehr

Optimierung. Zusammenfassung

Optimierung. Zusammenfassung Optimierung Zusammenfassung Inhalte 1. Lineare Programmierung 2. Simplexalgorithmus 3. Ellipsoidmethode 4. Dualität 5. Ganzzahligkeit 6. Facility Location 7. Randomisiertes Runden 8. Branch and Bound &

Mehr

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG

KLAUSUR ZUR LINEAREN ALGEBRA I MUSTERLÖSUNG KLAUSUR ZUR LINEAREN ALGEBRA I Wiederholungsprüfung MUSTERLÖSUNG. April 2008 Name: Studiengang: Aufgabe 2 3 4 5 6 Summe Punktzahl /50 Allgemeine Hinweise: Bitte schreiben Sie Ihre Lösungen jeweils unter

Mehr

mit. Wir definieren (Skalarprodukt = Winkel).

mit. Wir definieren (Skalarprodukt = Winkel). 1 Grundidee des Simplexverfahrens (von George Dantzig): Man bestimmt eine beliebige Ecke (Extremalpunkt) einer Lösungsmenge eines Ungleichungssystems. Nun geht man an den Kanten vom Punkt entlang und kontrolliert

Mehr

Algorithmentheorie. 13 - Maximale Flüsse

Algorithmentheorie. 13 - Maximale Flüsse Algorithmentheorie 3 - Maximale Flüsse Prof. Dr. S. Albers Prof. Dr. Th. Ottmann . Maximale Flüsse in Netzwerken 5 3 4 7 s 0 5 9 5 9 4 3 4 5 0 3 5 5 t 8 8 Netzwerke und Flüsse N = (V,E,c) gerichtetes Netzwerk

Mehr

3 Klassifikation wichtiger Optimierungsprobleme

3 Klassifikation wichtiger Optimierungsprobleme 3 Klassifikation wichtiger Optimierungsprobleme 3.1 Das MIN- -TSP Wir kehren nochmal zurück zum Handlungsreisendenproblem für Inputs (w {i,j} ) 1 i

Mehr

Multivariate Analysis

Multivariate Analysis Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle

Mehr

Algorithmen II Vorlesung am 15.11.2012

Algorithmen II Vorlesung am 15.11.2012 Algorithmen II Vorlesung am 15.11.2012 Kreisbasen, Matroide & Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales

Mehr

3.11 Volumen und Determinanten

3.11 Volumen und Determinanten Im Wintersemester 2012/13 wurde in der Vorlesung Höhere Mathematik 1 für Ingenieurstudiengänge die Behandlung der Determinante neu gefasst: 311 Volumen und Determinanten 3111 Berechnung von Flächeninhalten

Mehr

1.Aufgabe: Minimal aufspannender Baum

1.Aufgabe: Minimal aufspannender Baum 1.Aufgabe: Minimal aufspannender Baum 11+4+8 Punkte v 1 v 2 1 3 4 9 v 3 v 4 v 5 v 7 7 4 3 5 8 1 4 v 7 v 8 v 9 3 2 7 v 10 Abbildung 1: Der Graph G mit Kantengewichten (a) Bestimme mit Hilfe des Algorithmus

Mehr

Die Lineare Algebra-Methode. Mahir Kilic

Die Lineare Algebra-Methode. Mahir Kilic Die Lineare Algebra-Methode Mahir Kilic 23. Juni 2004 1 Einführung 1.1 Überblick Im Allgemein benutzt man die Lineare Algebra-Methode in der Kombinatorik wie folgt: Für die Bestimmung einer Obergrenze

Mehr

Expander Graphen und Ihre Anwendungen

Expander Graphen und Ihre Anwendungen Expander Graphen und Ihre Anwendungen Alireza Sarveniazi Mathematisches Institut Universität Göttingen 21.04.2006 Alireza Sarveniazi (Universität Göttingen) Expander Graphen und Ihre Anwendungen 21.04.2006

Mehr

Matrizen - I. Sei K ein Körper. Ein rechteckiges Schema A = wobei a ij K heißt Matrix bzw. eine m n Matrix (mit Elementen aus K).

Matrizen - I. Sei K ein Körper. Ein rechteckiges Schema A = wobei a ij K heißt Matrix bzw. eine m n Matrix (mit Elementen aus K). Matrizen - I Definition. Sei K ein Körper. Ein rechteckiges Schema A = a 11 a 12...... a 1n a 21 a 22...... a 2n............ a m1 a m2...... a mn wobei j K heißt Matrix bzw. eine m n Matrix (mit Elementen

Mehr

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit) 3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

Kapitel III. Lineare Abbildungen

Kapitel III. Lineare Abbildungen Kapitel III. Lineare Abbildungen Beispiele: 1 Lineare Abbildungen a) Seien c 1,..., c n K vorgegeben. Betrachte die Funktion F (x 1,..., x n ) = c 1 x 1 + c 2 x 2 +... + c n x n in den Variablen x 1,...,

Mehr

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick

Mehr

Algorithmische Graphentheorie

Algorithmische Graphentheorie Algorithmische Graphentheorie Sommersemester 204 4. Vorlesung Matchings / Paarungen Kombinatorische Anwendungen des Max-Flow-Min-Cut-Theorems Prof. Dr. Alexander Wolff 2 Paarungen (Matchings) Def. Sei

Mehr

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume?

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Bernhard Ganter Institut für Algebra TU Dresden D-01062 Dresden bernhard.ganter@tu-dresden.de WS 2013/14 Isomorphie Zwei Graphen (V 1, E 1 ) und (V

Mehr

Vektorräume und Rang einer Matrix

Vektorräume und Rang einer Matrix Universität Basel Wirtschaftswissenschaftliches Zentrum Vektorräume und Rang einer Matrix Dr. Thomas Zehrt Inhalt:. Lineare Unabhängigkeit 2. Vektorräume und Basen 3. Basen von R n 4. Der Rang und Rangbestimmung

Mehr

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist. Matrizennorm Es seien r,s N Mit M r,s (R bezeichnen wir die Menge der reellen r s- Matrizen (also der linearen Abbildungen R s R r, und setze M s (R := M s,s (R (also die Menge der linearen Abbildungen

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 39 Definitheit von Bilinearformen Wir möchten die symmetrischen Bilinearformen über den reellen Zahlen klassifizieren.

Mehr

Durchschnitt von Matroiden

Durchschnitt von Matroiden Durchschnitt von Matroiden Satz von Edmonds Dany Sattler 18. Januar 2007/ Seminar zur ganzzahligen Optimierung / Wallenfels Definition: Unabhängigkeitssystem Definition: Ein Mengensystem (S, J ) nennt

Mehr

Vorlesung Diskrete Strukturen Transportnetze

Vorlesung Diskrete Strukturen Transportnetze Vorlesung Diskrete Strukturen Transportnetze Bernhard Ganter WS 2013/14 1 Transportnetze Gerichtete Graphen Ein schlingenloser gerichteter Graph ist ein Paar (V, A), wobei V eine beliebige Menge ist, deren

Mehr

Diskrete Optimierungsverfahren zur Lösung von Sudokus

Diskrete Optimierungsverfahren zur Lösung von Sudokus Diskrete Optimierungsverfahren zur Lösung von Sudokus Seminarvortrag von Daniel Scholz am 6. Dezember 2006 Am Beispiel der Lösung von Sudokurätseln mit Hilfe der linearen Optimierung werden verschiedenen

Mehr

2. Repräsentationen von Graphen in Computern

2. Repräsentationen von Graphen in Computern 2. Repräsentationen von Graphen in Computern Kapitelinhalt 2. Repräsentationen von Graphen in Computern Matrizen- und Listendarstellung von Graphen Berechnung der Anzahl der verschiedenen Kantenzüge zwischen

Mehr

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume?

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Bernhard Ganter WS 2009/10 Isomorphie Zwei Graphen (V 1, E 1 ) und (V 2, E 2 ) heißen isomorph, wenn es eine bijektive, Kanten erhaltende und Kanten

Mehr

Der Rang einer Matrix A. Beispiel

Der Rang einer Matrix A. Beispiel Der Rang einer Matrix A ist gleich Anzahl der Zeilen ungleich 0, nachdem die Matrix durch elementare Zeilenoperationen in Zeilenstufenform gebracht worden ist. Bezeichnung: ranga oder rga. Beispiel A =

Mehr

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung

4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung 4.5 Überbestimmte Gleichungssysteme, Gauß sche Ausgleichrechnung In vielen Anwendungen treten lineare Gleichungssysteme auf, die eine unterschiedliche Anzahl von Gleichungen und Unbekannten besitzen: Ax

Mehr

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen

3 Elementare Umformung von linearen Gleichungssystemen und Matrizen 3 Elementare Umformung von linearen Gleichungssystemen und Matrizen Beispiel 1: Betrachte das Gleichungssystem x 1 + x 2 + x 3 = 2 2x 1 + 4x 2 + 3x 3 = 1 3x 1 x 2 + 4x 3 = 7 Wir formen das GLS so lange

Mehr

Analysis II. Vorlesung 48. Die Hesse-Form

Analysis II. Vorlesung 48. Die Hesse-Form Prof. Dr. H. Brenner Osnabrück SS 2014 Analysis II Vorlesung 48 Die Hesse-Form Wir sind natürlich auch an hinreichenden Kriterien für das Vorliegen von lokalen Extrema interessiert. Wie schon im eindimensionalen

Mehr

Optimierung auf Netzwerken

Optimierung auf Netzwerken KAPITEL 4 Optimierung auf Netzwerken Wir untersuchen hier spezielle lineare Programme, die eine zusätzliche kombinatorische (graphentheoretische) Struktur tragen. Nutzt man diese kombinatorische Struktur

Mehr

Effiziente Algorithmen I

Effiziente Algorithmen I H 10. Präsenzaufgabenblatt, Wintersemester 2015/16 Übungstunde am 18.01.2015 Aufgabe Q Ein Reiseveranstalter besitzt ein Flugzeug, das maximal p Personen aufnehmen kann. Der Veranstalter bietet einen Flug

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Copyright, Page 1 of 5 Die Determinante

Copyright, Page 1 of 5 Die Determinante wwwmathematik-netzde Copyright, Page 1 of 5 Die Determinante Determinanten sind ein äußerst wichtiges Instrument zur Untersuchung von Matrizen und linearen Abbildungen Außerhalb der linearen Algebra ist

Mehr

1 Der Simplex Algorithmus I

1 Der Simplex Algorithmus I 1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier

Mehr

Der Golay-Code und das Leech-Gitter

Der Golay-Code und das Leech-Gitter Der Golay-Code und das Leech-Gitter Vortrag zum Seminar Gitter und Codes Nils Malte Pawelzik.5.5 Inhaltsverzeichnis Designs 3. Elementare Eigenschaften eines Designs und die Eindeutigkeit eines - (, 5,

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

Optimierung I. Dr. Ulf Lorenz F2.413

Optimierung I. Dr. Ulf Lorenz F2.413 Optimierung I Dr. Ulf Lorenz F2.413 flulo@upb.de Organisation Dozent: Dr. Ulf Lorenz F2.413 Fürstenallee 11 email: flulo@upb.de WWW: http://www.upb.de/cs/flulo (hier auch aktuelle Infos + Ü-Zettel) Vorlesungen:

Mehr

4.13. Permutationen. Definition. Eine Permutation der Elementen {1,..., n} ist eine bijektive Abbildung

4.13. Permutationen. Definition. Eine Permutation der Elementen {1,..., n} ist eine bijektive Abbildung 43 Permutationen Definition Eine Permutation der Elementen {,, n} ist eine bijektive Abbildung σ : {,,n} {,,n} Es ist leicht zu sehen, dass die Hintereinanderführung zweier Permutationen ergibt wieder

Mehr

Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É.

Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Tardos Janick Martinez Esturo jmartine@techfak.uni-bielefeld.de xx.08.2007 Sommerakademie Görlitz Arbeitsgruppe 5 Gliederung

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Kombinatorische Optimierung Zuweisungsprobleme 2 1 3 5 4 Kombinatorische Optimierung Rucksackpackproblem 1 10 2 4 6 3 5 8 6 Aufspannende Bäume Travelling Salesman VLSI Design C. Kanzow, M. Gerdts Kombinatorische

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

Die Verbindung von Linearer Programmierung und Graphentheorie

Die Verbindung von Linearer Programmierung und Graphentheorie Die Verbindung von Linearer Programmierung und Graphentheorie Definition 5.9. Ein kombinatorisches Optimierungsproblem entspricht einem LP, bei dem statt der Vorzeichenbedingungen x i 0 Bedingungen der

Mehr

Numerische Lineare Algebra

Numerische Lineare Algebra Numerische Lineare Algebra Vorlesung 5 Prof. Dr. Klaus Höllig Institut für Mathematischen Methoden in den Ingenieurwissenschaften, Numerik und Geometrische Modellierung SS 21 Prof. Dr. Klaus Höllig (IMNG)

Mehr

Flüsse, Schnitte, bipartite Graphen

Flüsse, Schnitte, bipartite Graphen Flüsse, Schnitte, bipartite Graphen Vlad Popa 08.06.2010 Inhaltsverzeihnis 1. Flussnetzwerke und Flüsse 1.1 Ford- Fulkerson 1.2 Edmond Karp 1.3 Dinic 2. Schnitte 3. Maximaler Fluss bei minimalen Kosten

Mehr

Die Determinante ist nur für beliebige quadratische Matrizen (n = m) definiert: a 11 a 12 a a 1n a 21 a 22. det. a nn.

Die Determinante ist nur für beliebige quadratische Matrizen (n = m) definiert: a 11 a 12 a a 1n a 21 a 22. det. a nn. Die Determinante ist nur für beliebige quadratische Matrizen (n = m) definiert: Definition 1.2 (Leibniz-Formel) Die Determinante einer n n-matrix ist a 11 a 12 a 13... a 1n a 11 a 12 a 13... a 1n a 21

Mehr

Bild, Faser, Kern. Stefan Ruzika. 23. Mai Mathematisches Institut Universität Koblenz-Landau Campus Koblenz

Bild, Faser, Kern. Stefan Ruzika. 23. Mai Mathematisches Institut Universität Koblenz-Landau Campus Koblenz Stefan Ruzika Mathematisches Institut Universität Koblenz-Landau Campus Koblenz 23. Mai 2016 Stefan Ruzika 7: Bild, Faser, Kern 23. Mai 2016 1 / 11 Gliederung 1 Schulstoff 2 Körper 3 Vektorräume 4 Basis

Mehr

Lineare Abbildungen. Es seien V und W Vektorräume über einem Körper K. Eine Abbildung f : V W heißt linear oder Homomorphismus, falls. d.h.

Lineare Abbildungen. Es seien V und W Vektorräume über einem Körper K. Eine Abbildung f : V W heißt linear oder Homomorphismus, falls. d.h. Lineare Abbildungen Es seien V und W Vektorräume über einem Körper K. Eine Abbildung f : V W heißt linear oder Homomorphismus, falls (1) u, v V : f( u + v) = f( u) + f( v). (2) v V α K : f(α v) = αf( v).

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Lineare Algebra und analytische Geometrie I

Lineare Algebra und analytische Geometrie I Prof Dr H Brenner Osnabrück WS 2015/2016 Lineare Algebra und analytische Geometrie I Vorlesung 12 Wege entstehen dadurch, dass man sie geht Franz Kafka Invertierbare Matrizen Definition 121 Es sei K ein

Mehr

5.7 Lineare Abhängigkeit, Basis und Dimension

5.7 Lineare Abhängigkeit, Basis und Dimension 8 Kapitel 5. Lineare Algebra 5.7 Lineare Abhängigkeit, Basis und Dimension Seien v,...,v n Vektoren auseinemvektorraumv über einem KörperK. DieMenge aller Linearkombinationen von v,...,v n, nämlich { n

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

Musterlösung zur Klausur Lineare Algebra II für Lehramt 30.07.2012

Musterlösung zur Klausur Lineare Algebra II für Lehramt 30.07.2012 Musterlösung zur Klausur Lineare Algebra II für Lehramt 30.07.0 Aufgabe : Entscheiden Sie in dieser Aufgabe, ob die Aussagen wahr oder falsch sind. Begründungen sind nicht erforderlich. Ein korrekt gesetztes

Mehr

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) VORLESUNG Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt) 3 Wiederholung! Lineare Programme häufig geeignete Modellierung von Optimierungsproblemen! Verschiedene Darstellungen sind

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

Inhaltsübersicht für heute:

Inhaltsübersicht für heute: Inhaltsübersicht für heute: Anwendung: Das Heiratsproblem Ganzzahligkeit von Polyedern Anwendung: Netzwerkflüsse Mehrgüterflussprobleme Ganzzahlige Optimierung Inhaltsübersicht für heute: Anwendung: Das

Mehr

Unimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206

Unimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206 Kapitel 1 Unimodularität Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206 Inhalt 1 Unimodularität Total unimodulare Matrizen Inzidenzmatrix Optimierungsprobleme auf Graphen Peter

Mehr

Definition 7.1. Der Coxeter Graph zu W ist der ungerichtete gewichtete Graph Γ W = (V, E), mit Eckenmenge V und Kantenmenge E, gegeben durch V = und

Definition 7.1. Der Coxeter Graph zu W ist der ungerichtete gewichtete Graph Γ W = (V, E), mit Eckenmenge V und Kantenmenge E, gegeben durch V = und 7. Coxeter Graphen Um die endlichen Spiegelungsgruppen zu klassifizieren, wollen wir ihnen nun Graphen zuordnen, die die Gruppen bis auf Isomorphie eindeutig bestimmen. Im Folgenden sei wie vorher Π Φ

Mehr

2 Eulersche Polyederformel und reguläre Polyeder

2 Eulersche Polyederformel und reguläre Polyeder 6 2 Eulersche Polyederformel und reguläre Polyeder 2.1 Eulersche Polyederformel Formal besteht ein Graph aus einer Knotenmenge X und einer Kantenmenge U. Jede Kante u U ist eine zweielementige Teilmenge

Mehr

Lineare Gleichungssysteme und Matrizen

Lineare Gleichungssysteme und Matrizen Kapitel 11 Lineare Gleichungssysteme und Matrizen Ein lineares Gleichungssystem (lgs) mit m linearen Gleichungen in den n Unbekannten x 1, x 2,..., x n hat die Gestalt: Mit a 11 x 1 + a 12 x 2 + a 13 x

Mehr

WS 2008/09. Diskrete Strukturen

WS 2008/09. Diskrete Strukturen WS 2008/09 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0809

Mehr

Prüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr?

Prüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr? 1. Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr? A. Wenn n = 3 ist, sind mindestens zwei der drei Euler-Winkel einer Drehung kleiner oder gleich π. B. Wenn n = 2

Mehr

Kombinatorische Geometrien

Kombinatorische Geometrien KAPITEL 5 Kombinatorische Geometrien Beispiele von Geometrien wurden schon als Inzidenzstrukturen (z.b. projektive Ebenen) gegeben. Wir nehmen hier einen anderen Standpunkt ein und verstehen unter einer

Mehr

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w = 1 v Die Länge Def. Sei (V,, ) ein Euklidscher Vektorraum. Für jeden Vektor v V heißt die Zahl v,v die Länge von v und wird v bezeichnet. Bemerkung. Die Länge des Vektors ist wohldefiniert, da nach Definition

Mehr

Kapitel 4: Minimal spannende Bäume Gliederung der Vorlesung

Kapitel 4: Minimal spannende Bäume Gliederung der Vorlesung Kapitel : Minimal spannende Bäume Gliederung der Vorlesung. Fallstudie Bipartite Graphen 2. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen. Minimal spannende Bäume. Kürzeste Wege. Traveling

Mehr

8 Diskrete Optimierung

8 Diskrete Optimierung 8 Diskrete Optimierung Definition 8.1. Ein Graph G ist ein Paar (V (G), E(G)) besteh aus einer lichen Menge V (G) von Knoten (oder Ecken) und einer Menge E(G) ( ) V (G) 2 von Kanten. Die Ordnung n(g) von

Mehr

Quadratische Formen und Definitheit

Quadratische Formen und Definitheit Universität Basel Wirtschaftswissenschaftliches Zentrum Quadratische Formen und Definitheit Dr. Thomas Zehrt Inhalt: 1. Quadratische Formen 2. Quadratische Approximation von Funktionen 3. Definitheit von

Mehr

Algorithmus zur Berechnung der Jordannormalform

Algorithmus zur Berechnung der Jordannormalform Algorithmus zur Berechnung der Jordannormalform Olivier Sète 19. Januar 2011 Inhaltsverzeichnis 1 Motivation 1 2 Algorithmus Wie und warum funktioniert das? 2 2.1 Zutat 1 Für einen Jordanblock.........................

Mehr

Übungsblatt 6 Lösungsvorschläge

Übungsblatt 6 Lösungsvorschläge Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 6 Lösungsvorschläge Vorlesung Algorithmentechnik im WS 09/10 Problem 1: Größter Kreis in konvexem Polygon [vgl. Kapitel 6

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr

12.4 Traveling Salesman Problem

12.4 Traveling Salesman Problem 96 KOMBINATORISCHE SUCHE.4 Traveling Salesman Problem Definition.3(TSP, Problem des Handlungsreisenden): Wir betrachten einen gerichteten, gewichteten Graphen G = (V,E) mit K : V R. K({u,v}) sind die Kosten

Mehr

Klausur HM I H 2005 HM I : 1

Klausur HM I H 2005 HM I : 1 Klausur HM I H 5 HM I : 1 Aufgabe 1 4 Punkte): Zeigen Sie mit Hilfe der vollständigen Induktion: n 1 1 + 1 ) k nn k n! für n. Lösung: Beweis mittels Induktion nach n: Induktionsanfang: n : 1 ) 1 + 1 k

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Kapitel 4: Minimale spannende Bäume Gliederung der Vorlesung

Kapitel 4: Minimale spannende Bäume Gliederung der Vorlesung Kapitel : Minimale spannende Bäume Gliederung der Vorlesung. Grundbegriffe 2. Elementare Graphalgorithmen und Anwendungen. Kürzeste Wege. Minimale spannende Bäume. Färbungen und Cliquen. Traveling Salesman

Mehr

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik Lösungsskizzen zu den Klausuraufgaben zum Kurs Algorithmische Mathematik KSL09 Aufgabe. Zeigen oder widerlegen Sie: Es existiert ein Graph mit Valenzsequenz (8,,,,,,,,,). Geben Sie im Falle der Existenz

Mehr

Felix Brandt, Jan Johannsen. Vorlesung im Wintersemester 2008/09

Felix Brandt, Jan Johannsen. Vorlesung im Wintersemester 2008/09 Felix Brandt, Jan Johannsen Vorlesung im Wintersemester 2008/09 Übersicht Übersicht Definition Ein Matching in G = (V, E) ist eine Menge M E mit e 1 e 2 = für e 1, e 2 M, e 1 e 2 Ein Matching M ist perfekt,

Mehr

6. Übung zur Linearen Optimierung SS08

6. Übung zur Linearen Optimierung SS08 6 Übung zur Linearen Optimierung SS08 1 Sei G = (V, E) ein schlichter ungerichteter Graph mit n Ecken und m Kanten Für eine Ecke v V heißt die Zahl der Kanten (u, v) E Grad der Ecke (a) Ist die Anzahl

Mehr

Aufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph.

Aufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph. Aufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph. a) Es seien W 1 = (V, E 1 ), W 2 = (V, E 2 ) Untergraphen von G, die beide Wälder sind. Weiter gelte E 1 > E 2.

Mehr

Vektoren und Matrizen

Vektoren und Matrizen Vektoren und Matrizen Einführung: Wie wir gesehen haben, trägt der R 2, also die Menge aller Zahlenpaare, eine Körperstruktur mit der Multiplikation (a + bi(c + di ac bd + (ad + bci Man kann jedoch zeigen,

Mehr