3. Der Algorithmus a) ohne Approximation b) mit Approximation
|
|
- Minna Krüger
- vor 6 Jahren
- Abrufe
Transkript
1 Kapitel 9 Lösung von großen 0-1 Problemen mithilfe der Lagrange Relaxation - Der Wedelin Algorithmus Seminar Ganzzahlige Optimierung, WS 2006/07 Gliederung 1. Einführung 2. Das binäre ganzzahlige Problem (BIP) 3. Der Algorithmus a) ohne Approximation b) mit Approximation 4. LP Interpretation 5. Greedy Algorithmus Interpretation 6. Rechnergestützte Ergebnisse für SCPs 9.1 Einführung In der Ganzzahligen Optimierung behandelt man unter anderem die binären ganzzahligen Probleme, die weitaus schwerer zu lösen sind als gewöhnliche lineare Programme. Bekannte Beispiele sind das Traveling Salesman Problem oder das Assignment Problem. In diesen sind die Entscheidungsvariablen x i B = {0, 1}. Auch bei den Problemen, bei welchen der Wedelin Algorithmus angewandt wird, ist dies der Fall. Der hier vorgestellte Optimierer ist Ergebnis eines akademischen Forschungsprojektes. Der unter der Leitung von Dag Wedelin entwickelte und nach ihm benannte Wedelin - Algorithmus zielt auf sehr große 0-1-Probleme ab, die im Bereich des Airline Crew Scheduling auftreten. In Zusammenarbeit mit 1
2 der Firma CARMEN SYSTEMS AB mit Standort Göteborg (Schweden) wurde dieses spezielle Anwendungsproblem studiert. Dieses Unternehmen hat als primäres Geschäftsfeld die Entwicklung und den Verkauf von Optimierungssoftware für die Transportindustrie. Die Gesellschaft, die am von der BOEING Fluggesellschaft aufgekauft wurde, entwickelt Lösungen für den optimalen Einsatz von Besatzung u. Fahrzeugen und verkauft diese an viele große Europäische Fluggesellschaften (z.b. Lufthansa, SAS, Alitalia). 9.2 Das binäre ganzzahlige Problem (BIP) Bevor der Algorithmus vorgestellt wird, definieren wir das (BIP). Es lautet wie folgt: min c T x s.t. Ax = b x j B Dieses Problem ist NP-schwer. Probleme wie Set Partitioning (Ax = 1), Set Covering (Ax 1)und Set Packing Probleme (Ax 1) sind einige bekannte dieser Klasse. Handhabung von Ungleichungsrestriktionen Ungleichungen können durch Hinzufügen von binären Schlupfvariablen zu Null Kosten durch Gleichungen ersetzt werden. Beispiel 1: Die NB x 1 + x 2 + x 3 2 wird ersetzt durch: x 1 + x 2 + x 3 + x 4 + x 5 = 2. (Einführung von x 4, x 5 {0, 1}) Beispiel 2: Die NB x 1 + x 2 + x 3 2 wird analog ersetzt durch: x 1 + x 2 + x 3 + x 4 + x 5 + x 6 = 5. Die gewöhnlichen Lösungsmethoden für BIPs basieren auf der LP Relaxation (d.h. man fordert nur noch x j [0; 1] (LP)) und Branch and Bound Strategien, die fraktionale Werte beseitigen und am Ende eine echt ganzzahlige Lösung produzieren sollen. Jedoch versagt dieser Ansatz oft für sehr große Probleme. Andere Methoden wie Greedy Heuristiken liefern hierfür oft zulässige ganzzahlige Lösungen, allerdings von schlechter Qualität. Hauptziele des Wedelin-Algorithmus: 1. Lösung von sehr großen 0, 1 Problemen in einer direkteren Art 2. Stabile Methode zum Auffinden zulässiger ganzzahliger Lösungen höchstmöglicher Qualität 2
3 9.3 Der Algorithmus Der Algorithmus besteht aus 2 interagierenden Komponenten: 1. Einfacher duale Koordinaten-Suchalgorithmus zum Auffinden einer 0-1 Lösung für (BIP) durch Heranziehen der Lagrangeschen Relaxation 2. Approximationsschema, welches den Kostenvektor c der Zielfunktion so wenig wie möglich manipuliert, um Konvergenz zu ermöglichen und um eine eindeutige binäre Lösung für das relaxierte Problem zu bekommen. Die Höhe der Manipulation bestimmt der Approximationsparameter κ. min {0 x 1} c T x + y T (b Ax) (R) Dies ist die Lagrange Relaxation für alle y, denn jedes für (BIP) zulässige x ist auch zulässig für (R), mit selbem Zielfunktionswert. Die Idee besteht darin, einen Vektor y zu finden, so dass die Lösung von (R) zulässig ist auch für (BIP). Da beide Zielwerte gleich sind, ist diese Lösung dann auch optimal für (BIP). Lösung von (R): Durch Definition von c := c A T y ist die Lösung für (R): 0 falls c j > 0 x j = z [0, 1] falls c j = 0 1 falls c j < 0 Falls c in jeder Koordinate nicht Null ist, ist die Lösung binär und eindeutig! Wenn jedoch irgendein c j = 0, dann wird das Auffinden einer zulässigen Lösung schwierig. Daher muss man ein y finden, so dass c 0. Einführung einer Approximation nötig zum Finden des gewünschten y! ohne Approximation Beim Durchlaufen aller NB wählt man das zugehörige y i so, dass die Lösung x für (R) Nebenbedingung i : A i x = b i erfüllt. Voraussetzung: Alle Matrixeinträge a ij {0, 1} und b ganzzahlig. Berechnung der y i wie folgt: Dabei sei i Zeilenindex, j Spaltenindex der Matrix A. Für jedes i definiere das Array c i := {c j a ij = 1} und setze r i := c i +y i (Aufheben des Effekts eines vorhergehenden Wertes für y i ) Wähle r als b i. niedrigstes Element von r i, r + als b i + 1. niedrigstes 3
4 Setze als neuen Wert für y i : y i := r +r + 2 Festzuhalten bleibt, dass nach dem Update von c exakt b i der Einträge von c i negativ sind, falls r +, r 0. Üblich konvergiert c gegen einen Punkt, an dem viele Elemente 0 sind, und keine binäre Lösung gefunden wird. = Ausweg: 9.3.2! mit Approximation Idee ist es, c so wenig wie möglich zu stören, damit dann eine ganzzahlige Lösung für x mithilfe der Koordinatensuche gefunden wird. Die Höhe der Störung wird durch Approximationsparameter κ festgesetzt. Im Unterschied zu a) werden nun für jede NB 2 verschiedene Werte y i + und yi geführt. Eine kleine Konstante δ wird gebraucht, um zu gewährleisten, dass die Elemente von c nie Null sind. Ein Hilfsarray s i derselben Länge wie r i wird benötigt. Iteration für eine NB beinhaltet folgende Schritte: 1. r i := c i s i (Rückgängigmachung vorheriger Iteration) 2. r := b i. niedrigstes Element von r i r + := b i + 1. niedrigstes Element von r i yi := y i + κ 1 κ (r+ r ) + δ y i + := y i κ 1 κ (r+ r ) δ { s i yi falls rj i j := r y i + falls rj i r+ 3. c i := r i + s i Die Iteration durchläuft wiederholt zyklisch die Nebenbedingungen. Bemerkung: Paralleliteration von NB, die keine gemeinsamen Variablen besitzen, möglich. Einige Anmerkungen zur schwierigen Wahl von κ, δ: Wahl von κ kritisch: 1. Möglichkeit: Starte mit κ = 0 und erhöhe langsam bis Konvergenz auftritt = Leider zu langsam für Praxis! Besser ist ein relativ schneller Durchlauf (Anzeige Konvergenzpunkt) und danach ein 2. Durchlauf, der in einem relativ kleinen Intervall unterhalb des gegebenen Konv.punktes sehr langsam durchläuft = genauere Suche in kritischer Region! Wert δ sollte größtmöglich gewählt werden ohne jedoch die erhaltenen Lösungen zu verschlechtern. = niedriger Konvergenzpunkt für κ! 4
5 9.4 LP Interpretation (R) ist ebenso eine Relaxation von (LP), die sogenannte Lagrange Relaxation. Daher kann man den Algorithmus ohne Approximation (d.h. κ = 0) im vertrauten Rahmenwerk von Linearer Programmierung verstehen. Die Koordinatensuche wird von einem dualen Standpunkt betrachtet. Es ist bekannt, dass das Problem (LP) und seine Relaxation (R) verwandt sind zu dem unbeschränkten nichtlinearen Problem der Form max f(y) y mit f(y) = yb + min {0 x 1} (c ya)x Dies ist das Lagrangesches Dualproblem mit alleiniger Betrachtung der NB Ax=b, welche in Zielfunktion eingeht. Gewöhnlicherweise werden alle NB mit Ausnahme von x 0 relaxiert. Bemerkung: f(y) ist das Minimum einer Menge von linearen Funktionen in y, eine für jede Variablenbelegung von x. Folgerung: f(y) ist eine stückweise lineare und konkave (d.h. -f konvex) Funktion. Es wird nun gezeigt, dass die Methode der Koordinatensuche in Gliederungspunkt 3a) genau dem Problem der Maximierung von f(y) entspricht. Die partiellen Ableitungen für jedes y lauten (falls existent): f y i = b i a i x R (9.1) Dabei ist x R die Lösung von (R) für dieses y. Erinnert sei daran, dass in der Koordinatensuche y i immer so gewählt wird, dass die Lösung von (R) a i x = b i erfüllt. = f y i = 0. Da f(y) konkav, ist die notwendige Bedingung auch hinreichend und man kann schließen, dass dieser Punkt auch das Maximum entlang der y i darstellt. 9.5 Greedy Algorithmus Interpretation Geht der Approximationsparameter κ gegen den Wert 1, dann ist der zweite Summand der yi, y+ i Formel {+, } und jeder Wert von c ist auf + oder gesetzt. Die Erfüllung der Restriktionen setzt sodann die Kostenstruktur des Problems vollständig außer Kraft. 5
6 Der Algorithmus verhält sich wie ein Greedy Algorithmus. Greedy-Algorithmen ( Gierige Algorithmen ) bilden eine spezielle Klasse von Algorithmen, wie sie in der Informatik auftreten. Sie zeichnen sich dadurch aus, dass sie schrittweise denjenigen Folgezustand auswählen, der zum Zeitpunkt der Wahl den größten Gewinn bzw. das beste Ergebnis verspricht (z.b. Gradientenverfahren). Anmerk.: Sind meist schnell, lösen viele Probleme aber nicht optimal. Hier lautet er speziell wie folgt: Jede Variable x i hat 3 Möglichkeiten: 0,1 oder unknown. Start: Alle x i werden auf Status unknown gesetzt. k := 1 Betrachte die k.-te NB A k x = b i : Setze jedes x i {x i x i = unknown} auf 0 oder 1, so dass NB erfüllt. (Zuweisung abh. von Werten des Kostenvektors c) Ausnahme: Verändern einer gesetzten Variablen x i nur erlaubt, wenn die unknown Variablen nicht ausreichen, um NB zu erfüllen. Setze k := k + 1. Generell kann dieser Algorithmus im Finden einer 0-1 Lösung x fehlschlagen. Werden jedoch die Gleichungsnebenbedingungen systematisch durch oder ersetzt, ist Konvergenz garantiert nach genau einem Durchlauf durch die NB. Grund: Alte Zuweisungen werden nur in eine Richtung überschrieben, z.b. von 0 zu 1 bei. Es wird keine NB mehr verletzt, nachdem sie durchlaufen wurde, und eine suboptimale Lösung ist sehr schnell gefunden. 9.6 Rechnergestützte Ergebnisse für Set Covering Probleme Der vorgestellte Algorithmus wurde besonders an großen Set Covering Problemen (SCP), die aus der Anwendung des Airline Crew Scheduling stammen, getestet. Daher wird nun zuerst dass Airline Crew Scheduling Problem eingeführt: Das Airline Crew Scheduling Problem Annahme: Ein Zeitplan mit allen Flugabschnitten ist gegeben Ein Flugabschnitt ist ein gegebener Flug zu einer gegebenen Zeit Zu diesen Flugabschnitten müssen Crews zugewiesen werden, so dass jede Crew einen durchführbaren Flugplan erhält und diese Lösung möglichst kostengünstig ist 6
7 Die Zuweisung von Personen zu den Flugbesatzungen wird hier nicht mit betrachtet Jede Crew hat einen Heimatflughafen, ein Flugplan besteht aus einer Sequenz von Flugabschnitten mit Ausgangs- und Endpunkt Heimatflughafen (dies nennt man Pairing, dt: Paarung) Wirkende Einflussgrößen auf Pairing: Gesamtzeitdauer, max. Flugzeit pro Tag etc. Gewöhnliche Lösung des Problems in 2 Schritten: 1. Berechnung einer großen Anzahl von erlaubten Pairings und Berechnung der Kosten für jedes Pairing unter Benutzung einer vorher gefundenen Lösung als Leitfaden 2. Auswahl einer Teilmenge der erzeugten Pairings, so dass jeder Flug im Flugplan in mind. einem der ausgewählten Pairings enthalten ist. Dies sollte so erfolgen, dass die Totalkosten (Summe der Einzelkosten für die individuellen Pairings) minimiert werden. Eine Crew kann auch bei einer anderen Flugbesatzung als Passagier mitfliegen, falls kostengünstiger. Dieses Problem ist also ein (SCP) der Form: min c T x s.t. Ax 1 x j B Dabei: A 0-1 Matrix. Zeile entspricht Flugabschnitt, Spalte dem Pairing. Typisches Problem: Flüge, Pairings und 5 10 Nichtnulleinträge pro Spalte der Matrix A Der Algorithmus wurde vergleichsweise gegenüber dem CPLEX-System für lineare und ganzzahlige Optimierung getestet. Alle Ergebnisse wurden mit Standardparametereinstellungen erzeugt auf einem HP720 Rechner. Abschließendes Studienfazit: Für größer werdende Probleme ist die Gesamtlaufzeit des Wedelin- Algorithmus wesentlich geringer als die von CPLEX zum Auffinden einer LP Lösung CPLEX verbraucht mehr Arbeitsspeicher während des Rechenvorgangs Die Qualität der Lösungen kann sich im Vergleich zu den bewährten Methoden, die auf Lin. Programmierung und Branch & Bound basieren (CPLEX) sehen lassen. Die nachfolgenden beiden Tabellen verdeutlichen die durchgeführten Tests. 7
8 Abbildung 9.1: Größe des Problems vor und nach der Vorverarbeitung Abbildung 9.2: Testergebnisse (Zielfunktionswert, Zeit) für echte SCPs 8
9 Literaturverzeichnis [1] An algorithm for large scale 0-1 integer programming with application to airline crew scheduling, Annals of Operations Research 57, S , Dag Wedelin, Dezember 1994 [2] The design of an 0-1 optimizer and its application in the Carmen System, European Journal of Operations Research 87, S , Dag Wedelin, Juli 1995 [3] Integer Programming -Polyhedra and Algorithms, Krumke, S. O., 2006 [4] Stand: Vortragender: Christian Spieler 9
3. Schnittebenenverfahren
3. Schnittebenenverfahren Themen 3. Schnittebenenverfahren Ganzzahlige lineare Programmierung Schnittebenenverfahren Konstruktion von Schnittebenen Auswahl von Schnittrestriktionen Operations Research
MehrKapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298
Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester
Mehr4.3.3 Simplexiteration
7. Januar 2013 53 4.3.3 Simplexiteration Eine Simplexiteration entspricht dem Übergang von einer Ecke des zulässigen Bereiches in eine benachbarte Ecke Dabei wird genau eine Nichtbasisvariable (die zugehörige
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrDas Linear Ordering Problem Exakte Lösungsverfahren. für NP-schwierige. VO Algorithm Engineering
Das Linear Ordering Problem Exakte Lösungsverfahren VO Algorithm Engineering für NP-schwierige Professor Dr. Petra Mutzel kombinatorische Lehrstuhl für Algorithm Engineering, LS11 Optimierungsprobleme
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
Mehr1 Der Simplex Algorithmus I
1 Nicoletta Andri 1 Der Simplex Algorithmus I 1.1 Einführungsbeispiel In einer Papiermühle wird aus Altpapier und anderen Vorstoffen feines und grobes Papier hergestellt. Der Erlös pro Tonne feines Papier
MehrLineare (Un-)Gleichungen und lineare Optimierung
Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-6020 Innsbruck, Österreich franz.pauer@uibk.ac.at 1 Einleitung In der linearen
MehrMathematik für Wirtschaftswissenschaftler Kapitel 4-6. Universität Trier Wintersemester 2013 / 2014
Mathematik für Kapitel 4-6 Universität Trier Wintersemester 2013 / 2014 Kapitel 4 1. Extremwerte 2. Lokale Optimalpunkte 3. Wendepunkte 2 Kapitel 4.1 EXTREMWERTE 3 Extrempunkte und Extremwerte 4 Strikte
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
Mehr2. Optimierungsprobleme 6
6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen
MehrLineare (Un-)Gleichungen und lineare Optimierung
Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik Universität Innsbruck Lehrer/innen/fortbildungstag Wien 2010 9. April 2010 Eine Maximumsaufgabe Eine Firma stellt aus
MehrLeibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber
Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Sitzplatznr.: Wiederholungsklausur zur Vorlesung Operations Research im Wintersemester
MehrLineare Programmierung
Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in
Mehrf(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.
Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit
MehrOptimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
MehrOptimierung I. Dr. Ulf Lorenz F2.413
Optimierung I Dr. Ulf Lorenz F2.413 flulo@upb.de Organisation Dozent: Dr. Ulf Lorenz F2.413 Fürstenallee 11 email: flulo@upb.de WWW: http://www.upb.de/cs/flulo (hier auch aktuelle Infos + Ü-Zettel) Vorlesungen:
MehrLösung allgemeiner linearer Programme
Lösung allgemeiner linearer Programme Bisher: Für Anwendung des Simplexalgorithmus muss eine primal oder eine dual zulässige Basislösung vorliegen. Für allgemeine lineare Programme können wir dies direkt
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den
MehrAlgorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck
Lemma 15 KLP 1 ist genau dann lösbar, wenn das dazugehörige LP KLP 2 eine Lösung mit dem Wert Z = 0 besitzt. Ist Z = 0 für x 0, x 0, dann ist x eine zulässige Lösung von KLP 1. Beweis von Lemma 15: Nach
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern
MehrGrundlagen, Vorgehensweisen, Aufgaben, Beispiele
Hans Benker - Wirtschaftsmathematik Problemlösungen mit EXCEL Grundlagen, Vorgehensweisen, Aufgaben, Beispiele Mit 138 Abbildungen vieweg TEIL I: EXCEL 1 EXCEL: Einführung 1 1.1 Grundlagen 1 1.1.1 Tabellenkalkulation
MehrRückblick auf die letzte Vorlesung. Bemerkung
Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D
Mehr1 Lineare Optimierung, Simplex-Verfahren
1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und
MehrInhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57
Vorwort... 13 Vorwort zur 3. deutschen Auflage... 17 Kapitel 1 Einführung, I: Algebra... 19 1.1 Die reellen Zahlen... 20 1.2 Ganzzahlige Potenzen... 23 1.3 Regeln der Algebra... 29 1.4 Brüche... 34 1.5
MehrHannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
MehrLineare Optimierungsmodelle
Lineare Optimierungsmodelle Simplex-Methode Vortragender: Michael Schneider Agenda Motivation Operations Research Aufbau linearer Optimierungsmodelle Simplex-Methode Ausblick 2 Problemstellung Futtermischung
MehrLineare Gleichungssysteme
Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare
Mehr9.2 Invertierbare Matrizen
34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
MehrIntegrierte Umlauf- und Dienstplanung im ÖPNV
Integrierte Umlauf- und Dienstplanung im ÖPNV Frico 2007 Weíder Dres. Löbel, Borndörfer und GbR Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB) weider@zib.de http://www.zib.de/weider Planung im
Mehr3. Grundlagen der Linearen Programmierung
3. Grundlagen der linearen Programmierung Inhalt 3. Grundlagen der Linearen Programmierung Lineares Programm Grafische Lösung linearer Programme Normalform Geometrie linearer Programme Basislösungen Operations
Mehr(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung)
Lineare Optimierung Unterbestimmte LGS und Optimierung Bei lösbaren unterbestimmten linearen Gleichungssystemen haben wir die Qual der Wahl in Abhängigkeit von den freien Parametern (Anzahl = Anzahl Unbekannte
MehrMathematik für Wirtschaftswissenschaftler
Knut Sydsaeter Peter HammondJ Mathematik für Wirtschaftswissenschaftler Basiswissen mit Praxisbezug 2., aktualisierte Auflage Inhaltsverzeichnis Vorwort 13 Vorwort zur zweiten Auflage 19 Kapitel 1 Einführung,
Mehr18 Höhere Ableitungen und Taylorformel
8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a
MehrElemente der Analysis II
Elemente der Analysis II Kapitel 5: Differentialrechnung im R n Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 17. Juni 2009 1 / 31 5.1 Erinnerung Kapitel
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 5. Juni 2016 Definition 5.21 Ist a R, a > 0 und a 1, so bezeichnet man die Umkehrfunktion der Exponentialfunktion x a x als
MehrKAPITEL 6. Nichtlineare Ausgleichsrechnung
KAPITEL 6 Nichtlineare Ausgleichsrechnung Beispiel 61 Gedämpfte Schwingung: u + b m u + D m u = 0, Lösungen haben die Form: u(t) = u 0 e δt sin(ω d t + ϕ 0 ) Modell einer gedämpften Schwingung y(t; x 1,
MehrStudientag zur Algorithmischen Mathematik
Studientag zur Algorithmischen Mathematik Lineare Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Lineares Programm (LP) in Standardform
MehrMathematik für Wirtschaftswissenschaftler im WS 2013/14 Lösungen zu den Übungsaufgaben (Vortragsübung) Blatt 7
Mathematik für Wirtschaftswissenschaftler im WS 203/4 Lösungen zu den Übungsaufgaben (Vortragsübung) Blatt 7 Aufgabe 27 Sei eine lineare Abbildung f : R 4 R 3 gegeben durch f(x, x 2, x 3 ) = (2 x 3 x 2
MehrLineare Programmierung Teil I
Seminar über Algorithmen Prof. Dr. Helmut Alt Lineare Programmierung Teil I Lena Schlipf, Benjamin Jankovic Lena Schlipf, Benjamin Jankovic Seminar über Algorithmen SS05 1 Struktur des Vortrags 1. Was
MehrKonvergenz im quadratischen Mittel und Parsevalsche Gleichung
Konvergenz im quadratischen Mittel und Parsevalsche Gleichung Skript zum Vortrag im Proseminar Analysis bei Prof Dr Picard, gehalten von Helena Malinowski In vorhergehenden Vorträgen und dazugehörigen
MehrOptimale Steuerung 1
Optimale Steuerung 1 Kapitel 5: Eindimensionale Nichtlineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Beispiel: Optimierung des Rohrleitungsdurchmessers für den
MehrScheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É.
Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Tardos Janick Martinez Esturo jmartine@techfak.uni-bielefeld.de xx.08.2007 Sommerakademie Görlitz Arbeitsgruppe 5 Gliederung
MehrTeil II. Nichtlineare Optimierung
Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
MehrHöhere Mathematik für Physiker II
Universität Heidelberg Sommersemester 2013 Wiederholungsblatt Übungen zur Vorlesung Höhere Mathematik für Physiker II Prof Dr Anna Marciniak-Czochra Dipl Math Alexandra Köthe Fragen Machen Sie sich bei
MehrKurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok
Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html karin.halupczok@math.uni-freiburg.de
MehrNichtlineare Optimierung ohne Nebenbedingungen
Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt
MehrUnimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206
Kapitel 1 Unimodularität Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206 Inhalt 1 Unimodularität Total unimodulare Matrizen Inzidenzmatrix Optimierungsprobleme auf Graphen Peter
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
Mehr3.4 Der Gaußsche Algorithmus
94 34 Der Gaußsche Algorithmus Wir kommen jetzt zur expliziten numerischen Lösung des eingangs als eine Motivierung für die Lineare Algebra angegebenen linearen Gleichungssystems 341 n 1 a ik x k = b i,
Mehr37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
Mehr5. Lokale Suchverfahren. Beispiel TSP: k-change Nachbarschaft. Nachbarschaft. k-opt Algorithmus
5. Lokale Suchverfahren Lokale Suche 5. Lokale Suchverfahren Beispiel TSP: k-change Nachbarschaft Optimale Lösungen können oft nicht effizient ermittelt werden. Heuristiken liefern zwar zulässige Lösungen,
Mehr5.10. Mehrdimensionale Extrema und Sattelpunkte
5.1. Mehrdimensionale Extrema und Sattelpunkte Zur Erinnerung: Eine Funktion f von einer Teilmenge A des R n nach R hat im Punkt a ein (strenges) globales Maximum, falls f( x ) f( a ) (bzw. f( x ) < f(
MehrOPERATIONS-RESEARCH (OR)
OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:
Mehr3 Nichtlineare Gleichungssysteme
3 Nichtlineare Gleichungsssteme 3.1 Eine Gleichung in einer Unbekannten Problemstellung: Gegeben sei die stetige Funktion f(). Gesucht ist die Lösung der Gleichung f() = 0. f() f() a) f ( ) 0 b) f ( )
MehrVervollständigung Lateinischer Quadrate
Vervollständigung Lateinischer Quadrate Elisabeth Schmidhofer 01.12.2013 Inhaltsverzeichnis 1 Vorwort 3 2 Einleitung 4 2.1 Beispele.............................................. 4 3 Lateinische Quadrate
Mehr9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
Mehr2. Stetige lineare Funktionale
-21-2. Stetige lineare Funktionale Die am Ende von 1 angedeutete Eigenschaft, die ein lineares Funktional T : D(ú) 6 verallgemeinerten Funktion macht, ist die Stetigkeit von T in jedem n 0 0 D(ú). Wenn
MehrDonnerstag, 11. Dezember 03 Satz 2.2 Der Name Unterraum ist gerechtfertigt, denn jeder Unterraum U von V ist bzgl.
Unterräume und Lineare Hülle 59 3. Unterräume und Lineare Hülle Definition.1 Eine Teilmenge U eines R-Vektorraums V heißt von V, wenn gilt: Unterraum (U 1) 0 U. (U ) U + U U, d.h. x, y U x + y U. (U )
MehrEuklidische Distanzmatrizen. Andrei Grecu
Euklidische Distanzmatrizen Andrei Grecu Übersicht Motivation Definition und Problemstellung Algo 1: Semidefinite Programmierung Algo 2: Multidimensional Scaling Algo 3: Spring Embedder Algo 4: Genetischer
Mehr10.2 Dualitätstheorie Operations Research. In der Standardform eines Maximierungsproblem: b e ) mit ( w) + a ej ) x j + x g = ( b g + g G
48 0 Operations Research In der Standardform eines Maximierungsproblem: Max ( w) mit ( w) + u. d. N. z + x l + n ( a gj + j= g G e E n d j x j = z 0 j= n a l j x j = b l für alle l L j= x g n + a gj x
MehrKlausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler
Wintersemester 2007/08 27.2.2008 Dr. Sascha Kurz Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler Bitte lesbar ausfüllen, Zutreffendes ankreuzen Herr Frau Name, Vorname: Anschrift:
MehrKapitel 4. Optimierungsalgorithmen. Technische Universität Wien. Gunnar Klau Technische Universität Wien. Institut für Computergraphik und Algorithmen
Kapitel 4 Optimierungsalgorithmen Gunnar Klau Institut für Computergraphik und Algorithmen 1 Gliederung Kombinatorische vs. Ganzzahlige Optimierung Exakte Verfahren Branch-and-Bound Schnittebenenverfahren
MehrLösungen zu den Hausaufgaben zur Analysis II
Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin
MehrWirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)
Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra
MehrBestimmung einer ersten
Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,
Mehr3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)
3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände
MehrMathematik I. Vorlesung 7. Folgen in einem angeordneten Körper
Prof. Dr. H. Brenner Osnabrück WS 009/010 Mathematik I Vorlesung 7 Folgen in einem angeordneten Körper Wir beginnen mit einem motivierenden Beispiel. Beispiel 7.1. Wir wollen die Quadratwurzel einer natürlichen
MehrRandomisierte Algorithmen 2. Erste Beispiele
Randomisierte Algorithmen Randomisierte Algorithmen 2. Erste Beispiele Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2016/2017 1 / 35 Randomisierter Identitätstest
MehrStudientag zur Algorithmischen Mathematik
Studientag zur Algorithmischen Mathematik Numerische Verfahren der nicht-linearen Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Line
MehrDatenstrukturen & Algorithmen
Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Dynamische Programmierung Einführung Ablaufkoordination von Montagebändern Längste gemeinsame Teilsequenz Optimale
MehrDurchschnitt von Matroiden
Durchschnitt von Matroiden Satz von Edmonds Dany Sattler 18. Januar 2007/ Seminar zur ganzzahligen Optimierung / Wallenfels Definition: Unabhängigkeitssystem Definition: Ein Mengensystem (S, J ) nennt
MehrDie Taylorreihe einer Funktion
Kapitel 6 Die Taylorreihe einer Funktion Dieser Abschnitt beschäftigt sich mit Taylorreihen, Taylorpolynomen und der Restgliedabschätzung für Taylorpolynome. Die Taylorreihe einer reellen Funktion ist
Mehr1 Potenzen und Polynome
1 Potenzen und Polynome Für eine reelle Zahl x R und eine natürliche Zahl n N definieren wir x n := x x x... x }{{} n-mal Einschub über die bisher aufgetretenen mathematischen Symbole: Definition mittels
MehrMathematik 1, Teil B. Inhalt:
FH Emden-Leer Fachb. Technik, Abt. Elektrotechnik u. Informatik Prof. Dr. J. Wiebe www.et-inf.fho-emden.de/~wiebe Mathematik 1, Teil B Inhalt: 1.) Grundbegriffe der Mengenlehre 2.) Matrizen, Determinanten
MehrModelle und Methoden der Linearen Optimierung (Die Thesen zur Vorlesung 1_Fallstudie)
(Die Thesen zur Vorlesung 1_Fallstudie) das Thema der Vorlesung Grundlagen der Methode der linearen Optimierung (Lineares Optimierungsmodell der Wahl der Produktionsstrategie des ) Prof. Dr. Michal Fendek
Mehr1 Zahlentheorie. 1.1 Kongruenzen
3 Zahlentheorie. Kongruenzen Der letzte Abschnitt zeigte, daß es sinnvoll ist, mit großen Zahlen möglichst einfach rechnen zu können. Oft kommt es nicht darauf, an eine Zahl im Detail zu kennen, sondern
Mehrf f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.
Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales
MehrAufgabe 5.3 Duale Simplexverfahren
Aufgabe 5.3 Knut Krause Thomas Siwczyk Stefan Tittel Technische Universität Dortmund Fakultät für Informatik Algorithmen und Datenstrukturen 15. Januar 2009 Gliederung 1 Aufgabenstellung und Motivation
Mehrf(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J}
9 Der Satz über implizite Funktionen 41 9 Der Satz über implizite Funktionen Wir haben bisher Funktionen g( von einer reellen Variablen immer durch Formelausdrücke g( dargestellt Der Zusammenhang zwischen
MehrMathematische Grundlagen der Ökonomie Übungsblatt 8
Mathematische Grundlagen der Ökonomie Übungsblatt 8 Abgabe Donnerstag 7. Dezember, 0:5 in H 5+7+8 = 20 Punkte Mit Lösungshinweisen zu einigen Aufgaben 29. Das Bisektionsverfahren sucht eine Nullstelle
MehrAlgorithmen zum Lösen von Vertex und Set Cover Instanzen zur Planung von Angriffen auf Netzwerke
Algorithmen zum Lösen von Vertex und Set Cover Instanzen zur Planung von Angriffen auf Netzwerke Steve Göring 13.07.2012 1/18 Gliederung Einleitung Grundlagen Vertex-Cover-Problem Set-Cover-Problem Lösungsalgorithmen
MehrOutline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel
Outline 1 Funktionen von mehreren Veränderlichen 2 Grenzwert und Stetigkeit 3 Partielle Ableitungen 4 Die verallgemeinerte Kettenregel 5 Das totale Differential 6 Extremstellen Roman Wienands (Universität
Mehr1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
Mehr11 Optimierung von Funktionen einer Veränderlichen
11 Optimierung von Funktionen einer Veränderlichen In diesem Kapitel werden die bis hier behandelten Grundlagen der Analysis genutzt, um Methoden aus der Optimierungstheorie für eindimensionale Entscheidungsmengen
MehrLösungen. 1. Klausur zur MIA: Analysis I für Mathematiker
MATHEMATISCHES INSTITUT WS 006/07 DER UNIVERSITÄT MÜNCHEN Prof. Dr. M. Schottenloher Dr. S. Tappe Version 5.. Lösungen zur. Klausur zur MIA: Analysis I für Mathematiker vom 6..06 Aufgabe. ( + Punkte) a)
MehrAnwendungen der Differentialrechnung
KAPITEL 5 Anwendungen der Differentialrechnung 5.1 Maxima und Minima einer Funktion......................... 80 5.2 Mittelwertsatz.................................... 82 5.3 Kurvendiskussion..................................
MehrKAPITEL 6 GANZZAHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULARE MATRIZEN
KPITEL 6 GNZZHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULRE MTRIZEN F. VLLENTIN,. GUNDERT. Ganzzahlige lineare Programme Viele Optimierungsprobleme des Operations Research lassen sich als ganzzahlige lineare
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html
MehrLineare Programmierung. Beispiel: Wahlkampf. Beispiel: Wahlkampf. Mathematische Schreibweise. Lineares Programm. Datenstrukturen & Algorithmen
Datenstrukturen & Algorithmen Einführung Standard- und Schlupfformen Simplex Algorithmus Matthias Zwicker Universität Bern Frühling 2009 2 Beispiel: Wahlkampf Ziel: mit möglichst wenig Werbung eine gewisse
MehrKapitel 3. Konvergenz von Folgen und Reihen
Kapitel 3. Konvergenz von Folgen und Reihen 3.1. Normierte Vektorräume Definition: Sei V ein Vektorraum (oder linearer Raum) über (dem Körper) R. Eine Abbildung : V [0, ) heißt Norm auf V, falls die folgenden
MehrLineares Programmieren
Vorlesung Algorithmische Geometrie LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 03.05.2011 Nachtrag Art Gallery Problem Lässt sich der Triangulierungs-Algorithmus
MehrMultivariate Analysis
Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrAusarbeitung zum Modulabschluss. Graphentheorie. spannende Bäume, bewertete Graphen, optimale Bäume, Verbindungsprobleme
Universität Hamburg Fachbereich Mathematik Seminar: Proseminar Graphentheorie Dozentin: Haibo Ruan Sommersemester 2011 Ausarbeitung zum Modulabschluss Graphentheorie spannende Bäume, bewertete Graphen,
Mehr3 Folgen, Reihen, Grenzwerte 3.1 Zahlenfolgen Definition: Eine Folge ist eine geordnete Menge von Elementen an (den sogenannten Gliedern ), die
3 Folgen, Reihen, Grenzwerte 3.1 Zahlenfolgen Definition: Eine Folge ist eine geordnete Menge von Elementen an (den sogenannten Gliedern ), die eindeutig den natürlichen Zahlen zugeordnet sind ( n N, auch
MehrA2.3 Lineare Gleichungssysteme
A2.3 Lineare Gleichungssysteme Schnittpunkte von Graphen Bereits weiter oben wurden die Schnittpunkte von Funktionsgraphen mit den Koordinatenachsen besprochen. Wenn sich zwei Geraden schneiden, dann müssen
Mehr11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen
11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen Ziel: Wir wollen lokale Extrema von Funktionen f : M R untersuchen, wobei M R n eine k-dimensionale Untermannigfaltigkeit des
MehrLineare Gleichungssysteme (Teschl/Teschl 11.1)
Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...
Mehr