KAPITEL 3. Kooperative Spiele

Größe: px
Ab Seite anzeigen:

Download "KAPITEL 3. Kooperative Spiele"

Transkript

1 KAPITEL 3 Kooperative Spiele In den bisher betrachteten Modellen spielen die Spieler gegeneinander und versuchen dabei, ihren persönlichen Nutzen zu maximieren. Dabei hat sich herausgestellt, dass das Lösungskonzept eines NASH-Gleichgewichts nicht unbedingt als generell optimales Verteilungsmodell zu betrachten ist. Wir gehen nun davon aus, dass die Spieler der Grundmenge N miteinander kooperieren können, um den grösstmöglichen gemeinsamen Nutzen zu erzeugen. Das zentrale Problem der kooperativen Spieltheorie ist dann, welcher Wert dabei dem Einzelspieler als fairer anteiliger Gewinn (oder Verlust!) zubemessen werden sollte. Wir nehmen wieder grundsätzlich die Spielermenge N = {p 1,..., p n } als endlich an. Eine Teilmenge S N von Spielern heisst Koalition. Wir unterstellen, dass der Wert einer Koalition S N durch einen reellen Parameter v(s) R ausgedrückt werden kann. Ein kooperatives Spiel ist damit ein Paar Γ = (N, v), wobei v eine auf der Potenzmenge von N definierte reellwertige Funktion ist (und als charakteristische Funktion des Spiels bezeichnet wird). BEMERKUNG. Wie der Wert v(s) zustandekommt, ist hier ein sekundäres Problem. Wir setzen v(s) meistens als entweder schon von vornherein bekannt oder zumindest immer explizit berechenbar voraus. Der Einfachheit halber nehmen wir immer v( ) = 0 an. BEISPIEL 3.1 (OWENs Produktionsspiel). Auf einer Produktionsanlage können k Typen T 1,..., T k eines Produkts herstellt werden. Dazu werden Grundstoffe G 1,..., G m benötigt. Bei der Produktion einer Einheit vom Typ T j werden a ij 0 Einheiten von G i benötigt. Ausserdem habe eine Einheit vom Typ T j den Marktwert c j. Bei einem Produktionsplan (x 1,..., x k ) mit x j 0 Einheiten vom Typ T j generiert man also den Marktwert c 1 x c k x k und verbraucht an Grundstoffen G i die Mengen a i1 x a ik x k (i = 1,..., m). Wir nehmen an, dass jeder Spieler p N über b ip 0 Einheiten G i verfügt. Der Marktwert v(s) einer Koalition S N ergibt sich aus der Optimallösung des 67

2 68 3. KOOPERATIVE SPIELE linearen Programms v(s) = max x 0 k c j x j j=1 s.d. k j=1 a ij x j p S b ip (i = 1,..., m). BEISPIEL 3.2 (Auktionsspiel). Sei N eine Menge von Objekten, die ersteigert werden können. Es gibt eine Menge B = {B 1,..., B k } von Bietern, die auf Teilmengen S N von Objekten Kaufangebote abgeben können. Es sei v i (S) = Angebot von B i auf S (in Euro) (i = 1,..., k). Auf der Basis der Angebote hat die Teilmenge S N den Wert v(s) = max 1 i k v i(s). Aus der Sicht des Auktionators, der N auch gestückelt verkaufen kann, ergibt sich der Gesamtwert der Versteigerungsmasse als m v = max v(s i ) S j N, S j S l = (j l). j=1 BEISPIEL 3.3 (Vernetzungsspiel). Die Verbrauchsknoten p 1,..., p n sollen an einen Versorgungsknoten p 0 direkt oder indirekt (d.h. über andere Knoten) angebunden werden. Um eine direkte Verbindung zwischen p i und p j zu legen, hat man einen Kostenaufwand von c ij 0. Die Kostenbewertung c(s) einer Teilmenge S {p 1,..., p n } ist somit das Gewicht eines minimalen zusammenhängenden Graphen auf der Knotenmenge {p 0 } S (bzgl. der Kantengewichtung c ij ). Für die kooperative Spieltheorie sind die relevanten Fragen nun: Welchen Markwert hat im Produktionsspiel der einzelne Spieler i N? Welchen Marktwert ( Preis ) p j repräsentieren die einzelnen Objekte j N in der Auktionssituation? Um im Vernetzungsspiel alle Knoten anzubinden, sollte wieviel jedem Knoten p i als faire Kostenbeteiligung zubemessen werden? Lösungskonzepte. Generell suchen wir nach Allokationen x R N, die den Agenten p i N einem kooperativen Spiel einen fairen Wert x i zuweisen. Dabei ist der Begriff fair nicht von vornherein schon mathematisch klar gegeben. Ein (mathematisch spezifizierter) Allokationsmodus für ein kooperatives Spiel heisst Lösungskonzept (oder oft einfach Lösung).

3 2. DER CORE Ertrags- und Kostenspiele. Man kann den Wert v(s) einer Koalition als den Ertrag betrachten, den S durch Kooperation erwirtschaften kann. In einer anderen Sichtweise könnte v(s) aber auch die Kosten darstellen, die der Koalition S durch Kooperation entstehen würde (wie z.b. im Vernetzungsspiel). Ob ein Lösungskonzept für ein kooperatives Spiel angemessen ist, kann durchaus davon abhängen, ob wir es als Ertrags- oder als Kostenspiel auffassen. Bei einem Ertragsspiel (N, v) kann man im Modell davon ausgehen, dass sich eine Koalition S in kleinere Gruppierungen unterteilt, wenn der Gesamtertrag der Koalition dadurch verbessert wird. Wir betrachten dann das Spiel (N, ṽ) mit der charakteristischen Funktion ṽs) = max{v(s 1 ) v(s k ) S i S und paarwise disjunkt}. Wegen S gilt ṽ(s) 0. Ausserdem sieht man sofort: S T = ṽ(s) ṽ(t ) (Monotonie); S T = = ṽ(s T ) ṽ(s) + ṽ(t ) (Superadditiviät). Analog ist bei einem Kostenspiel (N, c) eine Partitionierung in kostengünstigere Blöcke S i möglicherweise günstiger. Das führt zu dem Kostenspiel (N, c) mit cs) = min{c(s 1 ) c(s k ) S i disjunkt und S i S i}. Ist c nichtnegativ, dann ist c monoton. Anstelle von Superadditivität hat man jedoch: S T = = c(s T ) c(s) + c(t ) (Subadditiviät). BEMERKUNG. Typischerweise sind charakteristische Funktionen von kooperativen Spielen nichtnegativ, wenn wir sie als Ertrags- bzw. Kostenspiele deklarieren. (Eine Koalition wird sich kaum zusammenfinden, um einen negativen Ertrag zu erwirtschaften. Analoges gilt für Kosten.) Trotzdem ist es manchmal (auch aus formalen Gründen) bequem, Spiele zuzulassen, bei der die charakteristische Funktion positiv und negativ sein kann. 2. Der Core Das Lösungskonzept des sog. Core 1 geht auf VON NEUMANN zurück und basiert auf folgender Überlegung. Bei einer vorgeschlagenen Allokation x R N vergleicht jede Koalition S N ihren zugeteilten Wert x(s) mit ihrem Ertragswert v(s). Bei einer fairen Allokation x sollte der Überschuss x(s) nicht kleiner sein als v(s). Ausserdem sollte insgesamt nicht mehr als der maximal erreichbare Wert v = ṽ(n) verteilt werden. Die Menge dieser Allokationen ist core(v) := {x R N x(n) v, x(s) v(s) für alle S N} 1 core (engl.) Kern hier benutzte ich das englische Wort, da es in der Spieltheorie (sehr) viele Lösungskonzepte gibt, die eine Idee von Kern beschreiben wollen (s.u.)

4 70 3. KOOPERATIVE SPIELE Beim Core eines nichtnegativen Ertragsspiel kann man genausogut von der Funktion ṽ ausgehen. LEMMA 3.1. Sei (N, v) ein beliebiges Ertragsspiel. Dann gilt core(ṽ) = {x core(v) x 0} = core(v) R N + Insbesondere ist core(ṽ) = core(v), wenn v nichtnegativ ist. Wegen ṽ(p) 0 für alle p N ist jeder Vektor in core(ṽ) nichtnegativ. Und v ṽ impliziert core(ṽ) core(v). Sei umgekehrt x core(v) nichtnegativ. Dann gilt für alle paarweise disjunkten Koalitionen S 1,..., S k k k x(s 1... S k ) = x(s i ) v(s i ) und folglich x core(ṽ). Im Fall eines Kostenspiels (N, c) sollte eine faire Kostenallokation einer Koalition S tunlichst nicht mehr zuweisen als die Kosten, die sie verursachen würde. Ausserdem sollen jedoch die Gesamtmindestkosten c = c(n) abgedeckt sein. Also definieren wir den Core analog als core(c) := {x R N x(n) c, x(s) c(s) für alle S N} Für die mathematische Analyse ist es nicht relevant, ob wir den Core eines Ertragsspiels oder eines Kostenspiels analysieren (man muss nur die Ungleichungen in der richtigen Richtung betrachten). Meistens werden wir uns der Einfachheit halber jedoch auf das Modell von Ertragsspielen konzentrieren Der Satz von BONDAREVA. Der Core eines Spieles ist durch lineare Ungleichungen definiert. Um das zu sehen, repräsentieren wir einfach eine Teilmenge S N durch ihren Inzidenzvektor { χ S = (χ S,1,..., χ S,N ) R N 1 i S, mit χ S,i := 0 i / S. Dann gilt x(s) = χ T S x für alle x RN, d.h.: x(s) v(s) χ T S x v(s). Der Core eines Spiels kann leer sein. Die folgende Anwendung der Dualität linearer Programme ist in der kooperativen Spieltheorie als Satz von BONDAREVA bekannt: LEMMA 3.2. Für das Ertragsspiel (N, v) sind die beiden Aussagen äquivalent: (i) Core(v) =.

5 2. DER CORE 71 (ii) Es gibt Zahlen y S 0 derart, dass (a) y S = 1 für alle i = 1,..., N (b) S i v(s)y S > v. S N Beweis. Wir betrachten das ( primale ) lineare Programm v(s)y S s.d. y S = 1 (i N) max y 0 S N S i und das dazugehörige duale lineare Programm min x i s.d. x i v(s) i N i S (S N). Beide Programm gestatten zulässige Lösungen. Wir haben jedoch: core(v) gilt genau dann, wenn das duale Programm eine zulässige Lösung x mit Zielfunktionswert x(n) v besitzt. Aus der Dualitätstheorie linearer Programme folgt deshalb: core(v) gilt genau dann, wenn jede zulässige Lösung des primalen Programms einen Zielfunktionswert v aufweist Approximativer Core und Auktionen. Der lineare Programmieransatz aus dem Beweis von Lemma 3.2 erweist sich allgemein sehr nützlich. Im Fall core(v) = kann man zumindest nach einer Allokation x fragen, die die Idee eine Corevektors möglichst gut verwirklicht. Genauer gesagt suchen wir damit eine optimale Lösung des linearen Programms (21) min s.d. n j=1 x j j S x j v(s) für alle S N. Das zugeordnete duale lineare Programm ist max S N v(s)y S (22) s.d. S j y S = 1 für alle j N y S 0 für alle S N. Zulässige duale Lösungen müssen insbesondere 0 y S 1 erfüllen. Betrachten wir nur ganzzahlige zulässige Lösungen, d.h. zulässige Lösungen mit y S {0, 1}, so beobachten wir y S = 1 und y T = 1 = S T =. Die Suche nach einer optimalen ganzzahligen Lösung von (22) ist also vom Typus her gleich dem Problem, den Wert der Summe der Objekte in einer Auktion zu ermitteln.

6 72 3. KOOPERATIVE SPIELE Betrachten wir nochmals die Situation einer Auktion mit k Bietern B i und deren Bietfunktionen v i und der Wertefunktion v(s) = max 1 i k v i(s) (S N). Der Auktionswert v(n) der Menge N ist dann v = max S N v(s)y S s.d. S j y S = 1 für alle j N y S {0, 1} für alle S N. Die Menge aller optimalen Lösungen des linearen Programms n j=1 p j min s.d. j S p j v i (S) für alle S N und i = 1,..., k kann man als die Menge aller Marktwerte der Objekte in N ansehen. Für ein solches p = (p 1,..., p n ) gilt n p(n) = v (aber nicht unbedingt Gleichheit!). j= Der Core linearer Produktionsspiele. Wir kommen (unter Benutzung der dortigen Notation) auf Beispiel 3.1 zurück und zeigen, dass der Core eines linearen Produktionsspiels nie leer ist. Wir betrachten die insgesamt verfügbaren Grundstoffmengen b i = p N und den Produktionswert k v(n) = max c j x j x 0 j=1 p j b ip (i = 1,..., m) s.d. k a ij b i j=1 (i = 1,..., m). Sei y = (y 1,..., ym) eine (nichtnegative) Optimallösung des zugehörigen dualen linearen Programms m m b i y i s.d. a ij y j c j (j = 1,..., k). min y 0 Dann gilt (gemäss der Dualität linearer Programme): m v(n) = b i yi. Zu y definieren wir nun eine Allokation z R N mit den Komponenten m zp = b ip yi (p N).

7 2. DER CORE 73 SATZ 3.1 (OWEN). z ist eine Core-Allokation für das lineare Produktionsspiel. Beweis. Nach der Definition von z finden wir z (N) = zp = m m b ip yi = b ip yi = p N p N p N m b i yi = v(n). Es ist noch z (S) v(s) für beliebige Koalitionen S N zu zeigen. Das ergibt sich aber auch wieder aus der LP-Dualität. Aus der dualen Zulässigkeit von y schliessen wir nämlich: v(s) = min y 0 m b ip y i p S m b ip yi p S = p S s.d. m a ij y j c j (j = 1,..., k) m b ip yi = zp. p S ÖKONOMISCHE INTERPRETATION: Die yi reflektieren die inneren Werte der Grundstoffe G i (pro Einheit) in Bezug auf das Produktionsmodell, das einen Wert in Höhe von v = v(n) herstellen kann. zp ist der nach den Preisen yi ermittelte Gesamtwert der Grundstoffe, über die Spieler p verfügt Das Zuordnungsspiel. Beim Zuordnungsspiel gehen wir (ähnlich wie bei Maschinenbelegungen) von zwei disjunkten Mengen M und N aus. Eine Zuordnung ist ein Vektor x R M N mit nichtnegativen Komponenten x ij 0 derart, dass für alle m M und n N gilt: x mj 1 und x in 1. j N Sei X die Menge aller Zuordnungen. Eine Matrix A R M N mit nichtnegativen Koeffizienten a ij definiert ein Spiel auf der Grundmenge V = M N mit Wertefunktion v(s T ) = max x X a st x st s S t T i M (S M, T N). Der Wert ist also die Optimallösung eines linearen Programms. Zum Beipspiel haben wir v(m N) = max a ij x ij x R M N i M j N s.d. x mj 1 j N x in 1 i M x ij 0

8 74 3. KOOPERATIVE SPIELE Das dazu duale lineare Programm ist (23) min z j s.d. y i + z j a ij (i M, j N) y i 0,z j 0 i M y i + j N und hat (nach der Theorie der linearen Programmierung) auch v(m N) als Optimalwert. Wie in OWENs Produktionsspiel sieht man leicht, dass für jede dual optimale Lösung (y, z ) gelten muss v(s T ) s S y s + t T z t. Eine duale Optimallösung liegt also im Core des Zuordnungsspiels. Umgekehrt ist jeder Core-Vektor (y, z) eine dual optimale Lösung. Die Wahl S = {i} und T = {j} ergibt aus der Core-Eigenschaft die duale Zulässigkeit: a ij v({i} {j}) y i + z j. Die Eigenschaft y(m) + z(n) = v(m N) besagt, dass (y, z) dual optimal ist. Also finden wir: LEMMA 3.3. Die Core-Allokationen des Zuordnungsspiels sind genau die Optimallösungen des linearen Programms (23). BEMERKUNG. Wie man aus der diskreten Optimierung 2 weiss, gestattet das Zuordnungsproblem immer ganzzahlige Optimallösungen. Man kann sich beim Zuordnungsspiel also auf Zuordnungen x mit Komponenten x ij {0, 1} beschränken. 3. Konvexität Wir untersuchen hier die Frage, ob der Core eines gegebenen Spiels überhaupt einen Vektor enthält Marginale Werte und Vektoren. Sei S N eine Koalition in dem Spiel (N, v). Dann ist der relative (bzw. marginale) Wert eines Spielers p S (bzgl. S) gegeben durch p (S) = v(s) v(s \ {p}). Wir wählen nun einen beliebigen Spieler p N und berechnen dessen marginalen Wert in N, dann einen Spieler p N \ {p} usw. bis die leere Koaltition erreicht ist. Mit anderen Worten: Wir wählen eine gewisse Reihenfolge (Permutation) π = p 1... p n der Spielermenge N und berechnen die marginalen Werte pi (p 1,..., p i 1, p i ) = v(p 1,..., p i ) v(p 1,..., p i 1 ) (i = 1,..., n). Mit x π R bezeichnen wir den Vektor der marginalen Werte dieser Reihenfolge. D.h. die Komponenten von x π sind gegeben durch x π (p) = pi (N i ), wobei N i = {p 1,..., p i } und p = p i. 2 siehe z.b. Vorlesung Einführung in die Mathematik des Operations Research

9 LEMMA 3.4. Für alle i = 1,..., n gilt 3. KONVEXITÄT 75 x π (N i ) = p N i x π (p) = v(n i ). Insbesondere haben wir x π (N) = v(n). Der marginale Vektor x π ist also eine Allokation, die v(n) unter die Spieler verteilt. Allerdings wird x π typischerweise nicht im Core von (N, v) liegen. Wir nennen (N, v) π-konvex, wenn der zu der Anordnug π = p 1... p n gehörige marginale Vektor x π im Core liegt. Somit ist per Definition der Core eines π- konvexen Spiels nichtleer. SATZ 3.2. Genau dann ist das Ertragsspiel (N, v) π-konvex für jede Anordnung (Permutation) π von N, wenn v supermodular ist, d.h. wenn v(s T ) + v(s T ) v(s) + v(t ) für alle S, T N. Beweis. Wir zeigen zuerst, dass Supermodularität notwendig ist und wählen π indem wir zuerst die Elemente von S T (irgendwie) anordnen, dann die Elemente von S \ T, dann die Elemente von (S T ) \ S und danach die übrigen Elemente. Der zugehörige Marginalvektor x π erfüllt dann x π (S T ) = v(s T ), x π (S) = v(s), x π (S T ) = v(s T ). Liegt x π im Core, so gilt ausserdem x π (T ) v(t ) und deshalb die supermodulare Ungleichung v(s T ) + v(s T ) = x π (S T ) + x π (S T ) = x π (S) + x π (T ) v(s) + v(t ) Dass Supermodularität hinreicht, beweisen wir durch Widerspruch. Sei S von minimaler Kardinalität mit der Eigenschaft x π < v(s). Dann ist sicher S. Wir wählen N i = {p 1,..., p i } so dass S N i aber S N i 1. Nach Wahl von S haben wir nun S N i 1 < S und folglich x π (S N i 1 ) v(s N i 1 ). Wegen S N i 1 = N i haben wir v(s N i 1 ) = x π (S N i 1 ) und deshalb v(s N i 1 ) + v(s N i 1 ) x π (S N i 1 ) + x π (S N i 1 ) = x π (S) + x π (N i 1 ) < v(s) + v(n i 1 ), was jedoch der Supermodularität von v widerspricht. (N, v) heisst konvex, wenn (N, v) bzgl. jeder Permuation π von N π-konvex ist (d.h. wenn jeder marginale Vektor x π im Core liegt bzw. wenn v supermodular ist).

10 76 3. KOOPERATIVE SPIELE NOTA BENE. Konvexe Spiele (N, v) sind insbesondere superadditiv. Also hat man im nichtnegative Fall v 0 bei einem konvexen Spiel immer v = v(n) Konvexität bei Kostenspielen. Bei Kostenspielen (N, c) ist der Core gegeben durch core(c) = {x R N x(n) c und x(s) c(c) für alle S N.} Völlig analog erhalten wir (bei Beachtung der Richtung der Ungleichungen): KOROLLAR 3.1. Genau dann ist das Kostenspiel (N, c) π-konvex für jede Anordnung (Permutation) von N, wenn c submodular ist, d.h. wenn c(s T ) + c(s T ) c(s) + c(t ) für alle S, T N Core-Dualität. Sei (N, v) ein Ertragesspiel. Dann ist die Funktion c(s) = v(n) v(n \ S) (S N) die charakteristische Funktion eines Kostenspiels (N, c) mit der Eigenschaft: core(c) = core(v) Ausserdem erkennt man leicht, dass v supermodular genau dann ist, wenn c submodular ist. Vom rein mathematischen Standpunkt aus macht es also keinen Unterschied aus, ob wir den Core eines konvexen Spiel als den Core eines (supermodularen) Ertragsspiels oder den Core eines (submodularen) Kostenspiels untersuchen Corevektoren des Vernetzungsspiels. Wir wollen zeigen, dass der Core des Vernetzungsspiels (N, c) (s. Beispiel 3.3) nicht leer ist. Dazu genügt Korollar 3.1 nicht, da Vernetzungsspiele typischerweise nicht konvex sind. Trotzdem gibt es viele natürliche Marginalvektoren x π, die im Core liegen. Beispiele solcher Corevektoren kann man folgendermassen konstruieren. Wir betrachten eine optimale (d.h. kostenminimale) Vernetzung von N = N {0}. Wegen c ij 0 dürfen wir obda annehmen, dass die entsprechende Kantenmenge keine Kreise enthält und folglich einen aufspannenden Baum T darstellt. Wir bauen die Knoten zur Wurzel 0 hin so ab, dass der Knoten i immer ein Blatt des Restbaumes T i auf der Knotenmenge ist. Offensichtlich gilt dann N i = {0, 1,..., i} T i ist ein minimaler Baum auf N i ; Im Fall i 0 gibt es genau eine Kante (i, i) T i mit i < i.

11 4. DER GREEDY-ALGORITHMUS 77 Sei π = 1... n diese Abbaureihenfolge und x π R N der zugehörige Marginalvektor. Dann gilt für alle i: LEMMA 3.5. x π core(c). x π (i) = c(n i ) c(n i 1 ) = c i i 0. Beweis. Wir wollen die Annahme, die Behauptung wäre falsch und es gäbe ein S N mit x π (S) > c(s), zum Widerspruch führen. Sei T S die Menge der Kanten (i, i) T mit i S und T S ein minimaler Baum auf der Knotenmenge S = S {0}. Dann ist klar, dass auch die Kantenmenge T = (T \ T S ) T S von jedem Knoten k einen Weg zur Wurzel 0 gestattet und somit eine mögliche Vernetzung darstellt. Für die Kosten gilt dann: c( T ) = c(t ) c(t S ) + c(s) = x π (N) x π (S) + c(s) < c(t ), was wegen der Minimalität der Vernetzung T aber nicht sein kann. 4. Der Greedy-Algorithmus Wir betrachten eine Gewichtsfunktion w : N R und ordnen die Elemente von N in einer Reihenfolge π = p 1... p n nach fallenden Gewichten: Dazu definieren wir die Mengen w(p 1 ) w(p 2 )... w(p n ). W j = W π j = {p 1,..., p j } (j = 1,... k). Es seien ausserdem die n Parameter v 1..., v n R vorgegeben. Wir suchen eine Optimallösung des Problems (24) min w(p)x(p) s.d. x(p) v j (j = 1,..., n). p N p W j Der sog. Greedy-Algorithmus konstruiert die folgende Lösung x π R N : x π (p 1 ) = v 1 x π (p 2 ) = v 2 v 1 x π (p 3 ) = v 3 v 2. x π (p n ) = v n v n 1 Dieser Vektor x π ist eine zulässige Lösung. Denn es gilt offensichtlich für alle j = 1,..., n: j x π (p) = x π (p i ) = v 1 + (v 2 v 1 ) +... (v j v j 1 ) = v j. p W j Zudem erkennt man leicht:

12 78 3. KOOPERATIVE SPIELE LEMMA 3.6. Der Greedy-Vektor x π löst das Problem (24) optimal. Beweis. Sei y R N eine bessere Lösung als x π. Im Fall y(p 1 ) > v 1 könnten wir dann die Differenz y(p 1 ) v 1 > 0 zu y(p 2 ) addieren und erhielten dann eine Lösung, die mindestens so gut wäre wie y. Wir dürfen also y(w 1 ) = v 1 obda annehmen. Ebenso könnten wir nun im Fall y(w 2 ) > v 2 die Differenz y(w 2 ) v 2 > 0 von y(p 2 ) subtrahieren und zu y(p 3 ) addieren. Der neue Vektor wäre wieder zulässig und mindestens so gut wie der alte. Und so fort. ObdA dürfen wir also annehmen, dass y(w j ) = v j für alle j = 1,..., n gilt. Damit ist aber y identisch mit x π und somit nicht besser. Dieser Widerspruch beweist die Behauptung Der Core konvexer Spiele. Sei (N, v) ein konvexes (d.h. supermodulares) Nutzenspiel und w : N R + eine beliebige Gewichtung. Wir wählen die Reihenfolge π = p 1... p n wie beim Greedy-Algorithmus nach absteigenden Gewichten und setzen v j = v(w j ) für j = 1,..., n. Der Greedy- Vektor x π ist identisch mit dem entsprechenden Marginalvektor und liegt folglich in core(v) (da v supermodular ist). Andererseits erfüllt jede Core-Allokation x core(v) per Definition insbesondere die Restriktionen j x(p i ) = x(w j ) v(w j ) = v j. Also folgt aus dem Greedy-Algorithmus, dass x π auch das folgende lineare Optimierungsproblem löst: min x core(v) wt x SATZ 3.3 (Greedy-Algorithmus). Ein kooperatives Ertragsspiel (N, v) ist genau dann konvex, wenn der Greedy-Algorithmus garantiert bei jeder Gewichtung w : N R das folgende Optimierungsproblem löst: min p N w(p)x(p) s.d. x core(v) Beweis. Ist v nicht supermodular, so gibt es Teilmengen S, T N derart, dass v(s T ) + v(s T ) < v(s) + v(t ). Wir betrachten die Gewichtung w : N {0, 1} mit w(p) = 1 genau dann, wenn p S T. Wir wählen eine Reihenfolge π, wobei zuerst die Elemente von S T und dann die übrigen Elemente von S T kommen. Wir behaupten, dass

13 4. DER GREEDY-ALGORITHMUS 79 der Greedyvektor x π nicht in core(v) liegen (und deshalb keine Lösung des Core- Optimierungsproblems sein) kann. Denn sonst hätte man den Widerspruch v(s T ) + v(s T ) = x π (S T ) + x π (S T ) = x π (S) + x π (T ) v(s) + v(t ). Ist umgekehrt v supermodular, so haben wir die Optimalität des Greedy-Algorithmus schon erkannt. Zur Charakterisierung von core(v) sei daran erinnert, dass die konvexe Hülle einer Menge X R N definiert ist als die Menge aller konvexen Linearkombinationen mit Vektoren aus X: { k } k conv(x) = λ i x i x i Xλ i 0, λ i = 1. KOROLLAR 3.2. Sei (N, v) ein konvexes Ertragsspiel. Dann ist core(v) genau die konvexe Hülle aller Marginalvektoren x π. Beweis. Sei X die Menge aller Marginalvektoren. Dann gilt conv(x) core(v), da die Menge aller Core-Vektoren unter der Bildung von konvexen Linearkombinationen abgeschlossen ist. Um zu zeigen, dass Gleichheit gilt, beobachten wir zuerst, dass conv(x) konvex und abgeschlossen ist (denn: X ist eine endliche Menge). Angenommen nun, es gäbe einen Vektor y core(v) \ conv(x). Dann existierte auch eine Hyperebene, die y von conv(x) trennt, d.h. es gäbe einen Koeffizientenvektor w R N mit der Eigenschaft w T y < w T x für alle x conv(x). Dann würde aber das Optimum über core(v) nicht bei einem Marginalvektor erreicht werden können, was der Optimalität des Greedy-Algorithmus widerspräche Summe und Durchschnitt von konvexen Spielen. Seien (N, v 1 ) und (N, v 2 ) konvexe Spiele. Dann ist offenbar auch das Spiel (N, v 1 + v 2 ) konvex. SATZ 3.4 (Summensatz). Seien (N, v 1 ) und (N, v 2 ) konvexe Spiele. Dann ist auch (N, v 1 + v 2 ) konvex und es gilt: core(v 1 + v 2 ) = core(v 1 ) + core(v 2 ) = {x 1 + x 2 x 1 core(v 1 ), x 2 core(v 2 )}.

14 80 3. KOOPERATIVE SPIELE Beweis. Ein Marginalvektor x π von (N, v 1 + v 2 ) ist genau die Summe der entsprechenden Marginalvektoren x π i von (N, v i ) (i = 1, 2). Also überträgt sich die Summeneigenschaft auch auf die übrigen Core-Vektoren als Konvexkombinationen von Marginalvektoren und die Behauptung ergibt sich als Konsequenz von Korollar 3.2. Wir untersuchen nun die Frage, ob core(v 1 ) core(v 2 ) nichtleer ist. Offenbar haben wir: core(v 1 ) core(v 2 ) = v 1 (N) = v 2 (N). Also gehen wir im weiteren grundsätzlich von v 1 (N) = v 2 (N) aus Dualität. Das Spiel (N, v # ) mit der charakteristischen Funktion ist das zu (N, v) duale Spiel. v # (S) = v(n \ S) v(n) NOTA BENE. Man beachte die Parallelität dieses Konzepts mit der in Abschnitt diskutierten Core-Dualität: c(s) = v(n) v(n \ S) = v # (S). Man verifiziert sofort (v # ) # = v v # (N) = v(n) und beobachtet allgemeiner: LEMMA 3.7. core(v # ) = core(v) = { x x core(v)}. Beweis. Sei x core(v) und S N. Dann gilt x(s) = x(n) + x(n \ S) v(n) + v(n \ S) = v # (S). Daraus folgt x core(v # ) und somit core(v) core(v # ). Die umgekehrte Richtung beweist man genauso leicht. Somit ergibt sich eine wichtige Erkenntnis: LEMMA 3.8. Seien v 1 und v 2 supermodulare Funktionen. Dann gilt core(v 1 ) core(v 2 ) 0 core(v 1 + v # 2 ).

15 4. DER GREEDY-ALGORITHMUS 81 Beweis. Sei x core(v 1 ) core(v 2 ). Dann gilt y = x core(v # 2 ) und folglich nach dem Summensatz 0 = x + y core(v 1 ) + core(v # 2 ) = core(v 1 + v # 2 ). Umgekehrt exisitiern im Fall 0 core(v 1 + v # 2 ) Vektoren x core(v 1) und y core(v # 2 ) mit x + y = 0. Daraus folgt x = y core(v 2). Es liegt 0 core(v 1 + v # 2 ) genau dann vor, wenn für alle S N gilt: Also finden wir 0 = 0(S) v 1 (S) + v # 2 (S) = v 1(S) + v 2 (N \ S) v 2 (N). SATZ 3.5 (EDMONDSscher Durchschnittsatz). Seien (N, v 1 ) und (N, v 2 ) konvexe Nutzenspiele mit v 1 (N) = v 2 (N) = v. Dann gilt core(v 1 ) core(v 2 ) v 1 (S) + v 2 (N \ S) v S N Auktionen mit 2 Bietern. Wir nehmen an, dass 2 Interessenten auf Objekte der Menge N bieten. Sei v i (S) das Gebot der Bieters B i für S. Dann ist der Wert von S in diesem Kontext v(s) = max{v 1 (S), v 2 (S)}. Wir untersuchen die Frage, ob core(v) nichtleer ist, und nehmen dabei v 1 und v 2 als konvex und monoton an. Ersetzen wir v 1 (N) und v 2 (N) durch den grösseren Wert v(n), so bleiben die beiden Spiele immer noch monoton und konvex. Also dürfen wir obda zusätzlich v 1 (N) = v 2 (N) = v annehmen. Unter unserer Annahme haben wir dann core(v) = core(v 1 ) core(v 2 ). EDMONDS Durchschnittssatz besagt, dass bei diesem (aus supermodularen Wertfunktionen v 1 und v 2 ) abgeleiteten Auktionspiel (N, v) gilt: core(v) v 1 (S) + v 2 (S \ N) v(n) S N. Bei Auktionsspielen mit 2 supermodularen Bietern ist der Core also genau dann leer, wenn es für den Auktionator echt vorteilhaft wäre, die Menge N in gewisse disjunkte Mengen S und N \ S aufzuteilen und separat an die beiden Bieter zu verkaufen. BEMERKUNG. Eine ähnliche Charakterisierung des Cores ist schon bei Auktionsspielen mit 3 supermodularen Bietern nicht bekannt.

16 82 3. KOOPERATIVE SPIELE 4.3. Submodulare Kostenspiele. Sei (N, c) ein kooperatives Spiel. Genau dann ist c submodular, wenn die Funktion v = c supermodular ist. Das Optimierungsproblem min x w(p)x(p) p N s.d. p W j x(p) v j (j = 1,..., n) ist äquivalent zu dem Optimierungsproblem max w(p)x(p) s.d. x(p) c j (j = 1,..., n) x p N p W j Also finden wir: Ist (N, c) ein submodulares Kostenspiel und w R N ein beliebiger Gewichtsvektor, dann löst der Greedy-Algorithmus das Problem max x core(c) wt x 4.4. Matroide. Ein Kostenspiel M = (N, r) heisst Matroid, wenn für alle p N und S, T N gilt: (M.0) r( ) = 0; (M.1) r(s p) r(s) = 0 oder 1; (M.2) r(s T ) + r(s T ) r(s) + r(t ). Ein Matroid ist also insbesondere als Kostenspiel konvex (d.h. submodular). Ist π eine Permutation der Grundmenge N, so ist besitzt der zugeordnete Marginalvektor x π nur 0 oder 1 als Komponenten und ist damit der Inzidenzvektor einer Teilmenge B = B π = {i N x π i = 1}. Typische Beispiele von Matroiden erhält man so. Man geht von einem beliebigen Körper K und einer Matrix A K m n aus, deren Spaltenindexmenge N = {1,..., n} als Menge der Spieler genommen wird. Für S N definiert man: r(s) = Rang der S entsprechenden Teilmatrix von Spaltenvektoren. BEMERKUNG. In geometrischer Sprechweise nennt man allgemein eine Menge vom Typ B π eine Basis des Matroids M. Die charakteristische Funktion r ist die sog. Rangfunktion und der Parameter r(m) = r(n) der Rang von M. Ist w : N R eine beliebige Gewichtung von N, so konstruiert der Greedy- Algorithmus eine Basis B π des Matroids M = (N, r), die in folgendem Sinn optimal ist: b B π w b = w(b π ) = max{w(b) B Basis von M}.

17 4. DER GREEDY-ALGORITHMUS 83 BEISPIEL 3.4 (Graphische Matroide). Sei G = (V, E) ein Graph mit Knotenmenge V und Kantenmenge E. Wir betrachten die Kanten(!) als Spieler (d.h. wählen N = E), für die wir eine charakteristische Funktion r induktiv definieren. Wir setzen r( ) = 0. Ist r(s) schon definiert und e E \ S, dann setzen wir { r(s) e schliesst einen Kreis mit einer Teilmenge von S, r(s e) = r(s) + 1 e schliesst keinen Kreis. Man kann zeigen, dass r(s) wohldefiniert und submodular ist. r(s) ist die Mächtigkeit einer maximalen kreisfreien Teilmenge der Kantenmenge S. Das Matroid M = M(G) = (E, r) ist das sog. Kreismatroid von G. Eine Basis B des Matroids M(G) ist eine maximale kreisfreie Kantenteilmenge. Ist der Graph G zusammenhängend, so ist auch B zusammenhängend und folglich ein aufspannender Baum von G. Umgekehrt bildet jeder aufspannende Baum B von G eine Basis von M(G). BEMERKUNG. Der auf Kreismatroide von Graphen angewandte Greedy-Algorithmus ist in der Graphentheorie und in der Informatik als Algorithmus von Kruskal bekannt. Mit diesem Algorithmus lassen sich optimale aufspannende Bäume in kantengewichteten zusammenhängenden Graphen leicht konstruieren. Insbesondere lassen sich damit minimale aufspannende Büme für das Vernetzungsspiel berechnen!

1 Matroide. 1.1 Definitionen und Beispiele. Seminar zur ganzzahligen Optimierung Thema: Durchschnitt von Matroiden - Satz von Edmonds von Dany Sattler

1 Matroide. 1.1 Definitionen und Beispiele. Seminar zur ganzzahligen Optimierung Thema: Durchschnitt von Matroiden - Satz von Edmonds von Dany Sattler Seminar zur ganzzahligen Optimierung Thema: Durchschnitt von Matroiden - Satz von Edmonds von Dany Sattler 1 Matroide 1.1 Definitionen und Beispiele 1. Definition (Unabhängigkeitssystem): Ein Mengensystem

Mehr

Durchschnitt von Matroiden

Durchschnitt von Matroiden Durchschnitt von Matroiden Satz von Edmonds Dany Sattler 18. Januar 2007/ Seminar zur ganzzahligen Optimierung / Wallenfels Definition: Unabhängigkeitssystem Definition: Ein Mengensystem (S, J ) nennt

Mehr

Ganzzahlige lineare Programme

Ganzzahlige lineare Programme KAPITEL 5 Ganzzahlige lineare Programme Wir betrachten nun Optimierungsprobleme vom Typ (42) min c T x s.d. Ax = b, x 0, x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n, b R m gegeben seien.

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr

Kapitel 5: Minimale spannende Bäume Gliederung der Vorlesung

Kapitel 5: Minimale spannende Bäume Gliederung der Vorlesung Gliederung der Vorlesung 1. Grundbegriffe 2. Elementare Graphalgorithmen und Anwendungen 3. Kürzeste Wege. Minimale spannende Bäume. Färbungen und Cliquen. Traveling Salesman Problem. Flüsse in Netzwerken

Mehr

Operations Research. Flüsse in Netzwerken. Flüsse in Netzwerken. Unimodularität. Rainer Schrader. 2. Juli Gliederung.

Operations Research. Flüsse in Netzwerken. Flüsse in Netzwerken. Unimodularität. Rainer Schrader. 2. Juli Gliederung. Operations Research Rainer Schrader Flüsse in Netzwerken Zentrum für Angewandte Informatik Köln 2. Juli 2007 1 / 53 2 / 53 Flüsse in Netzwerken Unimodularität Gliederung Netzwerke und Flüsse bipartite

Mehr

1 Der Simplex Algorithmus I

1 Der Simplex Algorithmus I 1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier

Mehr

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25.

Operations Research. Ganzzahlige lineare Programme. ganzzahlige lineare Programme. Ganzzahlige lineare Programme. Rainer Schrader. 25. Operations Research Rainer Schrader Ganzzahlige lineare Programme Zentrum für Angewandte Informatik Köln 25. Juni 2007 1 / 49 2 / 49 Ganzzahlige lineare Programme Gliederung ganzzahlige lineare Programme

Mehr

Optimale Lösungen mit Greedy-Strategie erfordern Optimalität der Greedy-Wahl. Beispiele für optimale Greedy-Lösungen

Optimale Lösungen mit Greedy-Strategie erfordern Optimalität der Greedy-Wahl. Beispiele für optimale Greedy-Lösungen Wiederholung Optimale Lösungen mit Greedy-Strategie erfordern Optimalität der Greedy-Wahl unabhängig von Subproblemen Optimalität der Subprobleme Beispiele für optimale Greedy-Lösungen Scheduling Problem

Mehr

Technische Universität München Zentrum Mathematik Diskrete Optimierung: Fallstudien aus der Praxis. Station 3: Das Matching-Polytop

Technische Universität München Zentrum Mathematik Diskrete Optimierung: Fallstudien aus der Praxis. Station 3: Das Matching-Polytop Technische Universität München Zentrum Mathematik Diskrete Optimierung: Fallstudien aus der Praxis Barbara Wilhelm Michael Ritter Station 3: Das Matching-Polytop Diskutieren Sie folgende Fragen in der

Mehr

Graphentheorie. Kürzeste Wege. Kürzeste Wege. Kürzeste Wege. Rainer Schrader. 25. Oktober 2007

Graphentheorie. Kürzeste Wege. Kürzeste Wege. Kürzeste Wege. Rainer Schrader. 25. Oktober 2007 Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 25. Oktober 2007 1 / 20 2 / 20 Wir werden Optimierungsprobleme vom folgenden Typ betrachten: gegeben eine Menge X und eine Funktion

Mehr

2. Optimierungsprobleme 6

2. Optimierungsprobleme 6 6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen

Mehr

Aufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph.

Aufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph. Aufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph. a) Es seien W 1 = (V, E 1 ), W 2 = (V, E 2 ) Untergraphen von G, die beide Wälder sind. Weiter gelte E 1 > E 2.

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil 4 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 24. April 2019 [Letzte Aktualisierung: 24/04/2019,

Mehr

Graphentheorie. Zusammenhang. Zusammenhang. Zusammenhang. Rainer Schrader. 13. November 2007

Graphentheorie. Zusammenhang. Zusammenhang. Zusammenhang. Rainer Schrader. 13. November 2007 Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 13. November 2007 1 / 84 2 / 84 Gliederung stest und Schnittkanten älder und Bäume minimal aufspannende Bäume Der Satz von Menger 2-zusammenhängende

Mehr

Algorithmische Spieltheorie (ADM III)

Algorithmische Spieltheorie (ADM III) 1 Algorithmische Spieltheorie (ADM III) Britta Peis TU Berlin SoSe 2013 2 Allgemeines Vorlesungen: Mittwochs, 10:15 11:45, MA 212 Donnerstags, 12:15 13:45, MA 212 (teilweise auch Freitags, 10:15 11:45,

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil 6 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 16. Mai 2018 [Letzte Aktualisierung: 18/05/2018,

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

Elemente in Φ werden Wurzeln genannt. Bemerkung 3.2. (a) Zu einem Wurzelsystem können wir immer eine Spiegelungsgruppe definieren

Elemente in Φ werden Wurzeln genannt. Bemerkung 3.2. (a) Zu einem Wurzelsystem können wir immer eine Spiegelungsgruppe definieren 3. Wurzelsysteme Als erstes führen wir den Begriff eines Wurzelsystems ein. Definition 3.1 (Wurzelsystem). Eine endliche Teilmenge Φ V {0} heißt Wurzelsystem falls gilt: (R1) Φ Rα = {±α} für α Φ, (R2)

Mehr

Definition: Die Menge der Imputationen ist die Menge I aller Nutzenallokationen, die erreichbar und individuell rational sind.

Definition: Die Menge der Imputationen ist die Menge I aller Nutzenallokationen, die erreichbar und individuell rational sind. Spieltheorie Sommersemester 2007 1 Der Kern Sei I = {1, 2,...,n} und Γ = (I, v). Definition: Die Menge der Imputationen ist die Menge I aller Nutzenallokationen, die erreichbar und individuell rational

Mehr

Algorithmische Graphentheorie

Algorithmische Graphentheorie Algorithmische Graphentheorie Vorlesung 4: Suchstrategien Babeş-Bolyai Universität, Department für Informatik, Cluj-Napoca csacarea@cs.ubbcluj.ro 14. April 2017 HALBORDNUNG TOPOLOGISCHE ORDNUNG TOPOLOGISCHES

Mehr

Übung zur Vorlesung Diskrete Strukturen I

Übung zur Vorlesung Diskrete Strukturen I Technische Universität München WS 00/0 Institut für Informatik Aufgabenblatt Prof. Dr. J. Csirik. November 00 Brandt & Stein Übung zur Vorlesung Diskrete Strukturen I Abgabetermin: Tutorübungen am. und.

Mehr

Operations Research. Polyeder und Polytope. Polyeder und Polytope. Polyeder. Rainer Schrader. 11. Mai Gliederung. sei P R n

Operations Research. Polyeder und Polytope. Polyeder und Polytope. Polyeder. Rainer Schrader. 11. Mai Gliederung. sei P R n Operations Research Rainer Schrader Polyeder und Zentrum für Angewandte Informatik Köln. Mai 27 / 83 2 / 83 Gliederung Polyeder Optimierung linearer Funktionen Rezessionskegel und polyedrische Kegel rationale

Mehr

Die duale Simplexmethode

Die duale Simplexmethode Kapitel 0 Die duale Simplexmethode Bei der dualen Simplexmethode ist eine Startlösung oftmals leichter angebbar als bei der Simplexmethode für das ursprüngliche lineare Programm, da man keine Nichtnegativitätsanforderungen

Mehr

Univ.-Prof. Dr. Goulnara ARZHANTSEVA

Univ.-Prof. Dr. Goulnara ARZHANTSEVA Diskrete Mathematik Univ.-Prof. Dr. Goulnara ARZHANTSEVA SS 2018 c Univ.-Prof. Dr. Goulnara Arzhantseva Kapitel 08: Menger, König und Hall / Planare Graphen 1 / 30 Der Satz von Menger: s t trennende Kantenmenge

Mehr

3.2 Unabhängigkeitsstrukturen

3.2 Unabhängigkeitsstrukturen 80 3.2 Unabhängigkeitsstrukturen Unser Ziel ist der Nachweis, daß in Vektorräumen, also in Moduln über Körpern, Basen existieren und zwei endliche Basen gegebenenfalls von derselben Ordnung sind. (Basen

Mehr

2 Die Dimension eines Vektorraums

2 Die Dimension eines Vektorraums 2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1

Mehr

KAPITEL 3. Konvexe Funktionen

KAPITEL 3. Konvexe Funktionen KAPITEL 3 Konvexe Funktionen Sei F R n ein Definitionsbereich und f : F R eine Funktion. Unter dem Epigraphen von f versteht man die Menge epif = {(x, z) R n+1 x F, z R, z f(x)}. Man nennt f konvex, wenn

Mehr

Große Mengen und Ultrafilter. 1 Große Mengen

Große Mengen und Ultrafilter. 1 Große Mengen Vortrag zum Seminar zur Analysis, 31.10.2012 Marcel Marnitz In diesem Vortrag wird das Konzept mathematischer Filter eingeführt. Sie werden in späteren Vorträgen zur Konstruktion der hyperreellen Zahlen

Mehr

Freie Bäume und Wälder

Freie Bäume und Wälder (Martin Dietzfelbinger, Stand 4.6.2011) Freie Bäume und Wälder In dieser Notiz geht es um eine besondere Sorte von (ungerichteten) Graphen, nämlich Bäume. Im Gegensatz zu gerichteten Bäumen nennt man diese

Mehr

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen 10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie

Mehr

Diskrete Strukturen. Hausaufgabe 1 (5 Punkte) Hausaufgabe 2 (5 Punkte) Wintersemester 2007/08 Lösungsblatt Januar 2008

Diskrete Strukturen. Hausaufgabe 1 (5 Punkte) Hausaufgabe 2 (5 Punkte) Wintersemester 2007/08 Lösungsblatt Januar 2008 Technische Universität München Fakultät für Informatik Lehrstuhl für Informatik 15 Computergraphik & Visualisierung Prof. Dr. Rüdiger Westermann Dr. Werner Meixner Wintersemester 2007/08 Lösungsblatt 9

Mehr

Schnittebenenverfahren und Heuristiken

Schnittebenenverfahren und Heuristiken KAPITEL 6 Schnittebenenverfahren und Heuristiken Wir betrachten nun Optimierungsprobleme vom Typ (68) minc T x s.d. Ax b,x 0,x ganzzahlig, wobei die Matrix A R m n und die Vektoren c R n,b R m gegeben

Mehr

Vorlesung Lineare Optimierung (Sommersemester 2010)

Vorlesung Lineare Optimierung (Sommersemester 2010) 1 Vorlesung Lineare Optimierung (Sommersemester 2010) Kapitel 6: Die Geometrie der Linearen Optimierung Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 15. Juni 2010) Gliederung 2 Das

Mehr

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende) . Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)

Mehr

D-MATH, D-PHYS, D-CHAB Analysis I HS 2017 Prof. Manfred Einsiedler. Lösung 4

D-MATH, D-PHYS, D-CHAB Analysis I HS 2017 Prof. Manfred Einsiedler. Lösung 4 D-MATH, D-PHYS, D-CHAB Analysis I HS 017 Prof. Manfred Einsiedler Lösung 4 Hinweise 1. Zeigen Sie, dass inf X die kleinste obere Schranke von X ist.. Dass z 1, z Lösungen sind, kann man durch Einsetzen

Mehr

Das Matching Polytop

Das Matching Polytop Das Matching Polytop Manuel Schneider Institut für Mathematik, TU Berlin Seminar: Algorithmische Diskrete Mathematik 27. Mai 2008 Überblick 1 Beschreibungen durch Ungleichungen Das Perfekte Matching Polytop

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten

Mehr

Mathematik I. Vorlesung 11. Lineare Unabhängigkeit

Mathematik I. Vorlesung 11. Lineare Unabhängigkeit Prof. Dr. H. Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 11 Lineare Unabhängigkeit Definition 11.1. Es sei K ein Körper und V ein K-Vektorraum. Dann heißt eine Familie von Vektoren v i, i I,

Mehr

Wiederholung zu Flüssen

Wiederholung zu Flüssen Universität Konstanz Methoden der Netzwerkanalyse Fachbereich Informatik & Informationswissenschaft SS 2008 Prof. Dr. Ulrik Brandes / Melanie Badent Wiederholung zu Flüssen Wir untersuchen Flüsse in Netzwerken:

Mehr

Übung zur Vorlesung Diskrete Mathematik (MAT.107) Blatt Beispiellösungen Abgabefrist:

Übung zur Vorlesung Diskrete Mathematik (MAT.107) Blatt Beispiellösungen Abgabefrist: Svenja Hüning, Michael Kerber, Hannah Schreiber WS 2016/2017 Übung zur Vorlesung Diskrete Mathematik (MAT.107) Blatt Beispiellösungen Abgabefrist: Hinweise: Dieses Blatt präsentiert Beispiellösungen zu

Mehr

Satz 324 Sei M wie oben. Dann gibt es für ein geeignetes k Konstanten c i > 0 und Permutationsmatrizen P i, i = 1,...

Satz 324 Sei M wie oben. Dann gibt es für ein geeignetes k Konstanten c i > 0 und Permutationsmatrizen P i, i = 1,... Satz 324 Sei M wie oben. Dann gibt es für ein geeignetes k Konstanten c i > 0 und Permutationsmatrizen P i, i = 1,..., k, so dass gilt M = k c i P i i=1 k c i = r. i=1 Diskrete Strukturen 7.1 Matchings

Mehr

Theoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme

Theoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien

Mehr

Argumentationen zu ermöglichen, verlangen wir, dass diese Eigenschaft auch für induzierte Teilgraphen

Argumentationen zu ermöglichen, verlangen wir, dass diese Eigenschaft auch für induzierte Teilgraphen Kapitel 9 Perfekte Graphen 9.1 α- und χ-perfektheit Eine Clique in einem Graphen G ist ein induzierter vollstäniger Teilgraph. Die Cliquenzahl ω(g) ist die Kardinalität einer größten in G enthaltene Clique.

Mehr

mit. Wir definieren (Skalarprodukt = Winkel).

mit. Wir definieren (Skalarprodukt = Winkel). 1 Grundidee des Simplexverfahrens (von George Dantzig): Man bestimmt eine beliebige Ecke (Extremalpunkt) einer Lösungsmenge eines Ungleichungssystems. Nun geht man an den Kanten vom Punkt entlang und kontrolliert

Mehr

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck. 10 Matching-Probleme

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck. 10 Matching-Probleme 10 Matching-Probleme 10.1 Definition von Matching-Probleme Definition 21 [2-dimensionales Matching] Sei G = (V, E) ein ungerichteter Graph und E E. E ist ein Matching, wenn für alle Kantenpaare e 1, e

Mehr

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering

Das Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering Das Linear Ordering Problem Exakte Lösungsverfahren VO Algorithm Engineering für NP-schwierige Professor Dr. Petra Mutzel kombinatorische Lehrstuhl für Algorithm Engineering, LS11 Optimierungsprobleme

Mehr

Ein Turnierplan mit fünf Runden

Ein Turnierplan mit fünf Runden Mathematik I für Informatiker Graphen p. 1 Ein Turnierplan mit fünf Runden c b a c b a c b a c b a c b a d e d e d e d e d e Mathematik I für Informatiker Graphen p. 2 Definition: Graph Ein (schlichter)

Mehr

Wir betrachten einen einfachen Algorithmus, der den Zusammenhang eines Graphen testen soll.

Wir betrachten einen einfachen Algorithmus, der den Zusammenhang eines Graphen testen soll. Kapitel 2 Zusammenhang 2.1 Zusammenhängende Graphen Wir betrachten einen einfachen Algorithmus, der den Zusammenhang eines Graphen testen soll. (1) Setze E = E, F =. (2) Wähle e E und setze F = F {e},

Mehr

1 Euklidische und unitäre Vektorräume

1 Euklidische und unitäre Vektorräume 1 Euklidische und unitäre Vektorräume In diesem Abschnitt betrachten wir reelle und komplexe Vektorräume mit Skalarprodukt. Dieses erlaubt uns die Länge eines Vektors zu definieren und (im Fall eines reellen

Mehr

Grundbegriffe der Informatik

Grundbegriffe der Informatik Grundbegriffe der Informatik Einheit 11: Graphen Thomas Worsch Universität Karlsruhe, Fakultät für Informatik Wintersemester 2008/2009 1/42 Graphische Darstellung von Zusammenhängen schon an vielen Stellen

Mehr

Ecken des Zuordnungsproblems

Ecken des Zuordnungsproblems Total unimodulare Matrizen Ecken des Zuordnungsproblems Definition.6 Ein Zuordnungsproblem mit den Vorzeichenbedingungen 0 apple x ij apple für i, j =,...,n statt x ij 2{0, } heißt relaxiertes Zuordnungproblem.

Mehr

2.4 Verallgemeinerte Ungleichungen

2.4 Verallgemeinerte Ungleichungen 2.4 Verallgemeinerte Ungleichungen 2.4.1 Eigentliche Kegel und verallgemeinerte Ungleichungen Ein Kegel K R heißt eigentlicher Kegel, wenn er die folgenden Bedingungen erfüllt: K ist konvex K ist abgeschlossen

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil 5 Prof. Peter F. Stadler & Dr. Christian Höner zu Siederdissen Bioinformatik/IZBI Institut für Informatik & Interdisziplinäres Zentrum für Bioinformatik Universität

Mehr

Analysis I. Vorlesung 7. Weitere Eigenschaften der reellen Zahlen

Analysis I. Vorlesung 7. Weitere Eigenschaften der reellen Zahlen Prof. Dr. H. Brenner Osnabrück WS 013/014 Analysis I Vorlesung 7 Weitere Eigenschaften der reellen Zahlen Korollar 7.1. Eine beschränkte und monotone Folge in R konvergiert. Beweis. Nach Voraussetzung

Mehr

Graphentheorie. Perfekte Graphen. Perfekte Graphen. Perfekte Graphen. Rainer Schrader. 22. Januar 2008

Graphentheorie. Perfekte Graphen. Perfekte Graphen. Perfekte Graphen. Rainer Schrader. 22. Januar 2008 Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 22. Januar 2008 1 / 47 2 / 47 eine Clique in G ist ein induzierter vollständiger Teilgraph Gliederung α- und χ-perfektheit Replikation

Mehr

8. Konvexe Polytope. Tobias Boelter. Mittwoch, 5. März TopMath Frühlingsschule

8. Konvexe Polytope. Tobias Boelter. Mittwoch, 5. März TopMath Frühlingsschule 1 / 31 8. Konvexe Tobias Boelter TopMath Frühlingsschule Mittwoch, 5. März 2014 2 / 31 Es können auch nicht konvexe untersucht werden, wir beschränken uns hier aber auf konvexe. Mit einem Polytop ist hier

Mehr

Folgen. Definition. Sei M eine beliebige Menge. Eine Abbildung a : N M oder a : N 0 M heißt eine Folge.

Folgen. Definition. Sei M eine beliebige Menge. Eine Abbildung a : N M oder a : N 0 M heißt eine Folge. Folgen Eine Folge stellt man sich am einfachsten als eine Aneinanderreihung von Zahlen (oder Elementen irgendeiner anderen Menge) vor, die immer weiter geht Etwa,,,,,, oder,,, 8,,,, oder 0,,,,,,,, In vielen

Mehr

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005 Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung

Mehr

2.3 Basis und Dimension

2.3 Basis und Dimension Lineare Algebra I WS 205/6 c Rudolf Scharlau 65 2.3 Basis und Dimension In diesem zentralen Abschnitt werden einige für die gesamte Lineare Algebra fundamentale Grundbegriffe eingeführt: Lineare Abhängigkeit

Mehr

Prof. Dr. Elmar Grosse-Klönne Institut für Mathematik

Prof. Dr. Elmar Grosse-Klönne Institut für Mathematik Prof. Dr. Elmar Grosse-Klönne Institut für Mathematik Lineare Algebra Analytische Geometrie I* Übungsaufgaben, Blatt Musterlösungen Aufgabe. Es seien A, B, C Teilmengen einer Menge X. Zeige: i A B C =

Mehr

Kap. 3: Exakte Lösungsverfahren für NPschwierige. Optimierungsprobleme VO Algorithm Engineering

Kap. 3: Exakte Lösungsverfahren für NPschwierige. Optimierungsprobleme VO Algorithm Engineering Kap. 3: Exakte Lösungsverfahren für NPschwierige kombinatorische Optimierungsprobleme VO Algorithm Engineering 3.1 Einführung Professor Dr. Petra Mutzel 3.2 Komb. vs. Ganzzahlige Opt. Lehrstuhl für Algorithm

Mehr

Vorlesung Lineare Optimierung (Sommersemester 2007)

Vorlesung Lineare Optimierung (Sommersemester 2007) 1 Vorlesung Lineare Optimierung (Sommersemester 007) Kapitel 9: Ganzzahlige Polyeder und Kombinatorische Dualität Volker Kaibel Otto-von-Guericke Universität Magdeburg Montag, 9. Juli 007 Gliederung Ganzzahlige

Mehr

Mikroökonomik B 7. Kooperative Spiele

Mikroökonomik B 7. Kooperative Spiele Mikroökonomik B 7. Kooperative Spiele Paul Schweinzer 14. Juli 2009, Vorabversion. 1 / 32 Literaturangaben Osborne, M.J. & Rubinstein, A. (1994) A Course in Game Theory, MITP, Kapitel 13, 14, & 15. Das

Mehr

Übersicht Kapitel 9. Vektorräume

Übersicht Kapitel 9. Vektorräume Vektorräume Definition und Geometrie von Vektoren Übersicht Kapitel 9 Vektorräume 9.1 Definition und Geometrie von Vektoren 9.2 Teilräume 9.3 Linearkombinationen und Erzeugendensysteme 9.4 Lineare Abhängigkeiten

Mehr

3.1 Sukzessive Minima und reduzierte Basen: Resultate

3.1 Sukzessive Minima und reduzierte Basen: Resultate Gitter und Codes c Rudolf Scharlau 4. Juni 2009 202 3.1 Sukzessive Minima und reduzierte Basen: Resultate In diesem Abschnitt behandeln wir die Existenz von kurzen Basen, das sind Basen eines Gitters,

Mehr

MafI I: Logik & Diskrete Mathematik (F. Hoffmann)

MafI I: Logik & Diskrete Mathematik (F. Hoffmann) Lösungen zum 14. und letzten Aufgabenblatt zur Vorlesung MafI I: Logik & Diskrete Mathematik (F. Hoffmann) 1. Ungerichtete Graphen (a) Beschreiben Sie einen Algorithmus, der algorithmisch feststellt, ob

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Kapitel 6 Lineare Gleichungssysteme 6. Gaußalgorithmus Aufgabe 6. : Untersuchen Sie die folgenden linearen Gleichungssysteme mit dem Gaußalgorithmus auf Lösbarkeit und bestimmen Sie jeweils die Lösungsmenge.

Mehr

Effiziente Algorithmen Lineares Programmieren 216. Schwache Dualität

Effiziente Algorithmen Lineares Programmieren 216. Schwache Dualität Effiziente Algorithmen Lineares Programmieren 216 Schwache Dualität Sei wieder z = max{ c T x Ax b, x 0 } (P ) und w = min{ b T u A T u c, u 0 }. (D) x ist primal zulässig, wenn x { x Ax b, x 0 }. u ist

Mehr

Homogene und inhomogene Koordinaten und das Hyperboloid

Homogene und inhomogene Koordinaten und das Hyperboloid Seminararbeit zum Seminar aus Reiner Mathematik Homogene und inhomogene Koordinaten und das Hyperboloid Gernot Holler 1010674 WS 2012/13 28.November 2012 1 Inhaltsverzeichnis 1 Einleitung 3 2 Homogene

Mehr

Kapitel 1. Mengen und Abbildungen. 1.1 Mengen

Kapitel 1. Mengen und Abbildungen. 1.1 Mengen Kapitel 1 Mengen und Abbildungen 1.1 Mengen Die Objekte der modernen Mathematik sind die Mengen. Obwohl die Logik einen axiomatischen Zugang zur Mengenlehre bietet, wollen wir uns in dieser Vorlesung auf

Mehr

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung Operations Research Rainer Schrader Konvexe Funktionen Zentrum für Angewandte Informatik Köln 4. Juni 2007 1 / 84 2 / 84 wir haben uns bereits mit linearen Optimierungsproblemen beschäftigt wir werden

Mehr

b liegt zwischen a und c.

b liegt zwischen a und c. 2 DIE ANORDNUNGSAXIOME 5 (2.4) a, b, c R : (a < b 0 < c) ac < bc Monotoniegesetz der Multiplikation Bezeichnungen a > b : b < a (> wird gelesen: größer als ) a b : a < b oder a = b a b : a > b oder a =

Mehr

8 Der Kompaktheitssatz und der Satz von Löwenheim und Skolem

8 Der Kompaktheitssatz und der Satz von Löwenheim und Skolem 8 Der Kompaktheitssatz und der Satz von Löwenheim und Skolem 8.1 Der Kompaktheitssatz Kompaktheitssatz Endlichkeitssatz Der Kompaktheitssatz ist auch unter dem Namen Endlichkeitssatz bekannt. Unter Verwendung

Mehr

Grundbegriffe der Informatik

Grundbegriffe der Informatik Grundbegriffe der Informatik Einheit 11: Graphen Thomas Worsch Karlsruher Institut für Technologie, Fakultät für Informatik Wintersemester 2010/2011 1/59 Graphische Darstellung von Zusammenhängen schon

Mehr

Aufgabe 1: Berechnen Sie für den in Abbildung 1 gegebenen Graphen den. Abbildung 1: Graph für Flussproblem in Übungsaufgabe 1

Aufgabe 1: Berechnen Sie für den in Abbildung 1 gegebenen Graphen den. Abbildung 1: Graph für Flussproblem in Übungsaufgabe 1 Lösungen zu den Übungsaufgaben im Kapitel 4 des Lehrbuches Operations Research Deterministische Modelle und Methoden von Stephan Dempe und Heiner Schreier Aufgabe 1: Berechnen Sie für den in Abbildung

Mehr

Musterlösung - Aufgabenblatt 7. Aufgabe 1

Musterlösung - Aufgabenblatt 7. Aufgabe 1 Musterlösung - Aufgabenblatt 7 Aufgabe Sei C R n eine nicht-leere abgeschlossene und konvexe Menge. Wir wollen zeigen, dass C als der Durchschnitt ihrer stützenden Halbräume dargestellt werden kann, d.h.

Mehr

Bäume und Wälder. Seminar: Graphentheorie Sommersemester 2015 Dozent: Dr. Thomas Timmermann

Bäume und Wälder. Seminar: Graphentheorie Sommersemester 2015 Dozent: Dr. Thomas Timmermann Bäume und Wälder Seminar: Graphentheorie Sommersemester 2015 Dozent: Dr. Thomas Timmermann Ida Feldmann 2-Fach Bachelor Mathematik und Biologie 6. Fachsemester Inhaltsverzeichnis Einleitung 1 1. Bäume

Mehr

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung

Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Optimierung für Wirtschaftsinformatiker: Dualität, Ganzzahlige lineare Optimierung Dr. Nico Düvelmeyer Freitag, 24. Juni 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Dualität Motivation Duales LP Dualitätssätze

Mehr

1 Mengen. 1.1 Elementare Definitionen. Einige mathematische Konzepte

1 Mengen. 1.1 Elementare Definitionen. Einige mathematische Konzepte Einige mathematische Konzepte 1 Mengen 1.1 Elementare Definitionen Mengendefinition Die elementarsten mathematischen Objekte sind Mengen. Für unsere Zwecke ausreichend ist die ursprüngliche Mengendefinition

Mehr

D-MATH, D-PHYS, D-CHAB Analysis I HS 2017 Prof. Manfred Einsiedler. Lösung 2

D-MATH, D-PHYS, D-CHAB Analysis I HS 2017 Prof. Manfred Einsiedler. Lösung 2 D-MATH, D-PHYS, D-CHAB Analysis I HS 2017 Prof. Manfred Einsiedler Lösung 2 Hinweise 1. Eine Möglichkeit ist, auf diese Forderungen massgeschneiderte Relationen explizit anzugeben. Dies ist aber nicht

Mehr

8. Vorlesung Spieltheorie in der Nachrichtentechnik

8. Vorlesung Spieltheorie in der Nachrichtentechnik 8. Vorlesung Spieltheorie in der Nachrichtentechnik Vorlesung: Eduard Jorswieck Übung: Rami Mochaourab Sommersemester 2010 Kooperative Spieltheorie Kooperative Spiele haben die Möglichkeit verbindlicher

Mehr

Ferienkurs zur algorithmischen diskreten Mathematik Kapitel 3: Minimal aufspannende Bäume und Matroide

Ferienkurs zur algorithmischen diskreten Mathematik Kapitel 3: Minimal aufspannende Bäume und Matroide Ferienkurs zur algorithmischen diskreten Mathematik Kapitel 3: Minimal aufspannende Bäume und Matroide Dipl-Math. Wolfgang Kinzner 3.4.2012 Kapitel 3: Minimal aufspannende Bäume und Matroide Minimal aufspannende

Mehr

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Grundstudium Mathematik Wahrscheinlichkeitsrechnung Bearbeitet von Dominique Foata, Aime Fuchs 1. Auflage 1999. Taschenbuch. xv, 383 S. Paperback ISBN 978 3 7643 6169 3 Format (B x L): 17 x 24,4 cm Gewicht:

Mehr

4.2 Minimale Spannbäume: Der Algorithmus von Jarník/Prim Definition 4.2.1

4.2 Minimale Spannbäume: Der Algorithmus von Jarník/Prim Definition 4.2.1 Allgemeines. Minimale Spannbäume: Der Algorithmus von Jarník/Prim Definition.. (a) Ein Graph G =(V, E) heißt kreisfrei, wenn er keinen Kreis besitzt. Beispiel: Ein kreisfreier Graph: FG KTuEA, TU Ilmenau

Mehr

4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9

4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9 Chr.Nelius: Zahlentheorie (SS 2007) 9 4. ggt und kgv (4.1) DEF: Eine ganze Zahl g heißt größter gemeinsamer Teiler (ggt) zweier ganzer Zahlen a und b, wenn gilt: GGT 0 ) g 0 GGT 1 ) g a und g b GGT 2 )

Mehr

Graphen. Bernhard Ganter. Institut für Algebra TU Dresden D Dresden

Graphen. Bernhard Ganter. Institut für Algebra TU Dresden D Dresden Graphen Bernhard Ganter Institut für Algebra TU Dresden D-01062 Dresden bernhard.ganter@tu-dresden.de Ein Turnierplan mit fünf Runden c d b e a c d b e a c d b e a c d b b c a a d e e Das Diagramm beschreibt

Mehr

Institut für Analysis WiSe 2018/2019 Prof. Dr. Dirk Hundertmark Dr. Markus Lange. Analysis 1. Aufgabenzettel 4

Institut für Analysis WiSe 2018/2019 Prof. Dr. Dirk Hundertmark Dr. Markus Lange. Analysis 1. Aufgabenzettel 4 Institut für Analysis WiSe 2018/2019 Prof. Dr. Dirk Hundertmark 08.11.2018 Dr. Markus Lange Analysis 1 Aufgabenzettel 4 Abgabe bis 14. November 2018, 19:00 Uhr Erinnerung: Die Anmeldung für den Übungsschein

Mehr

Grundlagen Theoretischer Informatik 3 SoSe 2012 in Trier. Henning Fernau Universität Trier

Grundlagen Theoretischer Informatik 3 SoSe 2012 in Trier. Henning Fernau Universität Trier Grundlagen Theoretischer Informatik 3 SoSe 2012 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Zum Umgang mit NP-harten Problemen In manchen Anwendungen ist das garantierte Auffinden exakter

Mehr

Lösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { }

Lösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { } Zur Einleitung: Lineare Gleichungssysteme Wir untersuchen zunächst mit Methoden, die Sie vermutlich aus der Schule kennen, explizit einige kleine lineare Gleichungssysteme. Das Gleichungssystem I wird

Mehr

Vollständigkeit. 1 Konstruktion der reellen Zahlen

Vollständigkeit. 1 Konstruktion der reellen Zahlen Vortrag im Rahmen des Proseminars zur Analysis, 17.03.2006 Albert Zeyer Ziel des Vortrags ist es, die Vollständigkeit auf Basis der Konstruktion von R über die CAUCHY-Folgen zu beweisen und äquivalente

Mehr

Mathematik I. Vorlesung 8. Cauchy-Folgen

Mathematik I. Vorlesung 8. Cauchy-Folgen Prof. Dr. H. Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 8 Cauchy-Folgen Ein Problem des Konvergenzbegriffes ist, dass zur Formulierung der Grenzwert verwendet wird, den man unter Umständen noch

Mehr

Konvexe Mengen und Funktionen

Konvexe Mengen und Funktionen Konvexe Mengen und Funktionen von Corinna Alber Seminararbeit Leiter: Prof. Jarre im Rahmen des Seminars Optimierung III am Lehrstuhl für Mathematische Optimierung an der Heinrich-Heine-Universität Düsseldorf

Mehr

f h c 7 a 1 b 1 g 2 2 d

f h c 7 a 1 b 1 g 2 2 d ) Man bestimme mit Hilfe des Dijkstra-Algorithmus einen kürzesten Weg von a nach h: c 7 a b f 5 h 3 4 5 i e 6 g 2 2 d Beim Dijkstra-Algorithmus wird in jedem Schritt von den noch unmarkierten Knoten jener

Mehr

Affine Geometrie (Einfachere, konstruktive Version)

Affine Geometrie (Einfachere, konstruktive Version) Affine Geometrie (Einfachere, konstruktive Version) Def. Affiner Raum der Dimension n über Körper K ist nach Definition K n. Bemerkung. Man könnte Theorie von affinen Raumen auch axiomatisch aufbauen mit

Mehr

4 Holomorphie-Konvexität. Definition Satz. 42 Kapitel 2 Holomorphiegebiete

4 Holomorphie-Konvexität. Definition Satz. 42 Kapitel 2 Holomorphiegebiete 42 Kapitel 2 Holomorphiegebiete 4 Holomorphie-Konvexität Wir wollen weitere Beziehungen zwischen Pseudokonvexität und affiner Konvexität untersuchen. Zunächst stellen wir einige Eigenschaften konvexer

Mehr

Höhere Mathematik I für die Fachrichtung Informatik Lösungsvorschlag zum Präsenzübungsblatt

Höhere Mathematik I für die Fachrichtung Informatik Lösungsvorschlag zum Präsenzübungsblatt KARLSRUHER INSTITUT FÜR TECHNOLOGIE INSTITUT FÜR ANALYSIS Dr. Christoph Schmoeger Heiko Hoffmann WS 2013/14 24.10.2013 Höhere Mathematik I für die Fachrichtung Informatik Lösungsvorschlag zum Präsenzübungsblatt

Mehr

( ) ( ) < b k, 1 k n} (2) < x k

( ) ( ) < b k, 1 k n} (2) < x k Technische Universität Dortmund Fakultät für Mathematik Proseminar Analysis Prof. Dr. Röger Benjamin Czyszczon Satz von Heine Borel Gliederung 1. Zellen und offene Überdeckungen 2. Satz von Heine Borel

Mehr

Kapitel 13. Lineare Gleichungssysteme und Basen

Kapitel 13. Lineare Gleichungssysteme und Basen Kapitel 13. Lineare Gleichungssysteme und Basen Matrixform des Rangsatzes Satz. Sei A eine m n-matrix mit den Spalten v 1, v 2,..., v n. A habe den Rang r. Dann ist die Lösungsmenge L := x 1 x 2. x n x

Mehr