Operations Research II (Nichtlineare und dynamische Optimierung)

Größe: px
Ab Seite anzeigen:

Download "Operations Research II (Nichtlineare und dynamische Optimierung)"

Transkript

1 Operations Research II (Nichtlineare und dynamische Optimierung) 5. April 007 Frank Köller,, Hans-Jörg von Mettenheim & Michael H. Breitner # Nichtlineare Optimierung: Überblick Allgemeine Form: Maximiere (oder minimiere) z = F(x) unter den Nebenbedingungen: g i (x) ) 0 für i =,,m (auch = oder möglich) Der Vektor x kann reell oder auch ganzzahlig sein Im Gegensatz zu linearen Problemen: nichtlineare Zielfunktion oder mind. eine nichtlineare Nebenbedingung Im allgemeinen positive, reellwertige Variablen Erinnerung: eine zu minimierende Zielfunktion F(x) ) kann durch eine zu maximierende Zielfunktion F( F(x) ) ersetzt werden. wird durch Multiplikation mit - zu. Eine Gleichung kann durch zwei Ungleichungen ersetzt werden #

2 Nichtlineare Optimierung: Überblick Zur Vereinfachung werden die bekannten Konstanten b i in die g i integriert. Aus f i (x) ) b i wird z. B. g i (x) ) := f i (x) b i 0. Daher verwenden wir folgende (vereinfachte) Form: Maximiere F(x) unter den Nebenbedingungen g i (x) ) 0 für i =,,m x j 0 für j =,,n Bei der linearen Optimierung werden eine lineare Zielfunktion F(x) ) und lineare Nebenbedingungen g i (x) ) vorausgesetzt. Dann ist der Simplex-Algorithmus anwendbar. Kein universelles Verfahren zur Lösung nichtlinearer Optimierungprobleme # 3 Beispiel : Produktionsprogrammplanung Ursprung: Maximiere die Summe der Deckungsbeiträge zweier Produkte unter Beachtung linearer Kapazitätsrestriktionen. Voraussetzung: Deckungsbeitrag d i = p i k i jedes Produktes i vorgegeben und von Absatzmenge x i unabhängig. Variante: Preis jedes Produktes ist Funktion seiner Absatzmenge, z. B. Angebotsmonopolist. Konstante variable Kosten k i = Preis-Absatz Absatz-Funktion für die Produkte i =, p i (x i ) = 7 x i Gesamtdeckungsbeitrag D(x i ) = p i (x i )*x i k i *x i = (7 x i )*x i x i = 5x i x i # 4

3 Beispiel : Produktionsprogrammplanung Zielfunktion: Maximiere F(x, x ) = 5x x + 5x x unter den Nebenbedingungen g (x) := x + x 8 0 g (x) := 3x + x 9 0 x, x # 5 Beispiel : Produktionsprogrammplanung Verallgemeinerung von Beispiel hinsichtlich Zielfunktion Bei substitutiven Gütern: Preise als Funktion beider Absatzmengen, z. B. p (x ) = 7 x und p (x, x ) = 7 x x Seien die variablen Kosten k = und k = 4. D(x ) = p (x, x )*x k *x = (7 x )*x *x = 7x x x = 5x x D(x ) = p (x, x )*x k *x = (7 x x )*x 4*x = 7x x x x 4x = 3x x x x # 6 3

4 Beispiel : Produktionsprogrammplanung Insgesamt Maximiere F(x, x ) = 5x x + 3x x x x # # 8 4

5 Beispiel 3: nichtlineare Nebenbedingungen Graphisch angenehmer zu lösen sind u. U. Probleme mit linearer Zielfunktion, wie z. B. Maximiere F(x, x ) = 6x + 4x unter den Nebenbedingungen 0.5x + 5x x + 00x 600 Graphisch lösbar durch Parallelverschiebung der Zielfunktionsgeraden. Weitere Beispiele: Transportprobleme mit nichtlinearen Kostenfunktionen Losgrößen- oder Bestellmengenprobleme unter Berücksichtigung von Kapazitätsrestriktionen im Fertigungs- oder Lagerbereich # 9 Typen nichtlinearer Optimierungsprobleme Kein universelles Verfahren, hingegen individuelle Verfahren für verschiedene Problemtypen Optimierungsprobleme ohne Nebenbedingungen, ausschließlich durch Differentiation lösbarl Optimierungsprobleme mit einer bzw. mehreren Variablen ohne Nebenbedingungen, nicht ohne weiteres durch Differentiation lösbarl Allgemeine nichtlineare Optimierungsprobleme mit Nebenbedingungen (Stichwort: Kuhn-Tucker Tucker-Theorem) Theorem) Quadratische Optimierung: lineares Problem, nur Zielfunktion enthält quadratische Terme vom Typ x j oder x i x j Allgemeine konvexe Optimierungsprobleme Probleme, die stückweise linearisiert werden könnenk # 0 5

6 Optimierungsprobleme ohne Nebenbedingungen wichtig, da häufig Teilproblem bei der Lösung komplexerer Probleme Grundsätzlich lösbar, wenn zweimal stetig differenzierbar, aber: Nicht in jedem Falle möglich oder einfach, die Nullstellen einer Ableitung zu berechnen (z. B. Polynome vom Grade 3) Häufig nicht differenzierbare Funktionen in ökonomischen Anwendungen Numerische Iterationsverfahren: sukzessive Berechnung von Punkten x unter gewissen Voraussetzungen Konvergenz gegen eine Maximal- oder Minimalstelle der Funktion F # Numerische Iterationsverfahren Verfahren, die bei der Suche keine Ableitungen bzw. Gradienten benutzen Methode des goldenen Schnitts Fibonacci-Verfahren Verfahren, die bei der Suche Ableitungen bzw. Gradienten verwenden und daher die Differenzierbarkeit der Zielfunktion F voraussetzen. binäres Suchverfahren Newton-Verfahren Sekanten-Verfahren # 6

7 Probleme mit einer Variablen: Methode des goldenen Schnitts Löse das nichtlineare Optimierungsproblem: Maximiere F(x), wobei x reell sei Gehe aus von einem Intervall [a, b ], in dem sich eine globale Maximalstelle ^x befinden muß Verkleinere das Intervall von Iteration zu Iteration Annäherung bis auf einen beliebig kleinen Abstand an die Maximalstelle der Funktion Von einem Ausgangsintervall der Länge L A wird stets ein (kleinerer) Teil a abgeschnitten, so daß sich a zum Rest (A-a) ebenso verhält wie (A-a) zum Gesamtintervall A: a : (A-a) = (A-a) : A Erfüllt für A-a A a = 0.68*A, bzw. a = 0.38*A # 3 Methode des goldenen Schnitts Wir benötigen: Eine konkave Funktion F, ein Anfangsintervall A = [a, b ] in dem die (oder eine) Maximalstelle von F liegt ein Parameter e>0 als Abbruchschranke a = 0.38 Start: Berechne l =a + a(b -a ) und m = a + (-a)(b -a ) sowie F(l ) und F(m ) # 4 7

8 Methode des goldenen Schnitts Iteration k (=,, ) Schritt : Falls b k a k < e, Abbruch des Verfahrens Schritt : Falls F(l k ) < F(m k ), setze a k+ = l k b k+ = b k l k+ = m k m k+ = a k+ + (-a)(b k+ a k+ ) F(l k+ ) = F(m k ) und berechne F(m k+ ) # 5 Methode des goldenen Schnitts Falls F(l k ) F(m k ), setze a k+ = a k b k+ = m k m k+ = l k l k+ = a k+ + a(b k+ a k+ F(l k+ ) = F(l k ) und berechne F(l k+ ) Gehe zur nächsten Iteration k+ ) Ergebnis: Die (bzw. eine) Maximalstelle ^x liegt im Intervall [a k, b k ]; der größte bekannte Wert aus dem Intervall kann als Näherung für das Maximum verwendet werden # 6 8

9 Mehrere Variablen Verwendung eines sog. Gradientenverfahrens oder Methode des steilsten Anstiegs Gradient: Vektor, der in die Richtung des steilsten Anstiegs steigt grobe Struktur des Verfahrens für eine reelle konkave Funktion: Beginn mit einer zulässigen Lösung Bewegung in Richtung des steilsten Anstiegs um einen gewissen Betrag Falls Gradient kleiner als eine gewisse Fehlerschranke Abbruch des Verfahrens, sonst weiter (Ähnlich( wie im Fall einer Variablen) Alternative: Abbruch, wenn die Differenz zweier Punkte klein wird # 7 Dynamische Optimierung Lösungsmöglichkeiten für Entscheidungsprobleme, bei denen eine Folge voneinander abhängiger Entscheidungen getroffen werden kann Erzielung eines Optimums für f r das Gesamtproblem sequentielle Lösung L eines in mehrere Stufen aufgeteilten Entscheidungsprozesses betrachte auf jeder Stufe nur die dort existierenden Entscheidungsalternativen schwieriger als lineare Optimierung, da Modellierung meist komplex zu durchschauen kein genereller Algorithmus (ähnlich wie bei nichtlinearer Optimierung) # 8 9

10 Wichtige Begriffe n: Anzahl der Stufen bzw. Perioden, in die der Entscheidungsprozeß zerlegt werden kann z k : Zustandsvariable zur Wiedergabe des Zustands, in dem sich das betrachtete Problem oder System in Stufe/Periode k befindet Z k : Zustandsmenge oder bereich: Menge aller Zustände, in den sich das Problem oder System in Stufe/Periode k befinden kann z 0 : vorgegebener Anfangszustand z n : vorgegebener Endzustand x k : Entscheidungsvariable des Modells; Entscheidung in Stufe/Periode k X k (z k- ) Entscheidungsmenge oder bereich: Menge aller Entscheidungen, aus denen in Stufe/Periode k gewählt wird # 9 Beispiel: Bestellmengenmodell Einteilung des Problems in Stufen Einkaufsabteilung eines Unternehmens muß für vier aufeinander folgende Perioden eine stets gleiche Menge eines Rohstoffes bereitstellen Einkaufspreise des Rohstoffes unterliegen Saisonschwankungen, sind aber für jede Periode bekannt: Periode k Preis q k Bedarf b k 7 9 Lieferant kann je Periode maximal den Bedarf für zwei Perioden liefern Lagerkapazität beschränkt auf zwei Perioden # 0 0

11 Beispiel: Bestellmengenmodell Beginn der Periode : Lager ist leer (z 0 = 0) Ende der Periode 4: Bestand auf 0 abgesunken (z 4 = 0) Keine Lagerkosten Frage: Welche Mengen sind zu den verschiedenen Zeitpunkten einzukaufen, so daß möglichst geringe Beschaffungskosten entstehen? # Beispiel: Bestellmengenmodell z k Lagerbestand am Ende der Periode k Z k Menge möglicher Lagerzustände (Lagermengen) am Ende von Periode k. Die Nebenbedingungen führen zu folgender Beschränkung der Zustandsmengen: Z 0 = {0}, Z ={0,}, Z ={0,,}, Z 3 ={0,}, Z 4 ={0} x k Zu Beginn von Periode k einzukaufende (und zum selben Zeitpunkt bereits verfügbare) ME des Rohstoffes. Deckung des Bedarfs b k ebenfalls zu Beginn der Periode unmittelbar aus der eintreffenden Lieferung x k oder vom Lagerbestand. X k (z k- ) Mögliche Bestellmengen für Periode k. Z. B. X ={0,,}. periodenabhängige Kostenfunktionen: f k =q k *x k Transformationsfunktionen: z k = z k- + x k b k b k wird auch als Störgröße bezeichnet #

12 Beispiel: Bestellmengenmodell Minimiere F(x,,x 4 ) = q k *x k (k=,...,4) unter den Nebenbedingungen: z k =z k- + x k b k z 0 = 0 z k aus {0,,} für f r k =,,3 z 4 = 0 x k aus {0,,} für f r k =,,4, # 3 Klassifizierung dynamischer Optimierungsmodelle Zeitabstände der Perioden (Stufen) diskretes Modell: Entscheidungen bzw. Zustandsänderungen nderungen erfolgen zu diskreten Zeitpunkten. kontinuierliches Modell: Zustandsänderungen nderungen sind durch fortwährendes Entscheiden (Steuern) möglich. m Stichwort: Kontrolltheorie Informationsgrad über die Störgr rgrößen b k deterministisches Modell: Störgr rgröße b k kann nur genau einen Wert annehmen stochastisches Modell: Störgr rgröße e ist Zufallsvariable und kann daher verschiedene Werte mit bekannten Wahrscheinlichkeiten annehmen # 4

13 Klassifizierung dynamischer Optimierungsmodelle Zustands- und Entscheidungsvariablen können Vektoren sein, z. B. Bestellmengenmodelle mit mehreren Produkten Die Mengen Z k und X k möglicher Zustände bzw. Entscheidungen können endlich sein oder unendlich Vorliegendes Bestellmengenbeispiel: diskretes, deterministisches dynamisches Optimierungsmodell mit endlichen Zustands- und Entscheidungsmengen. Darstellung solcher Modelle durch Graphen. Erinnerung an die OR I: Aufgabe zum Tischtennisball Geschäft Je restriktiver die Zustands- und Entscheidungsmengen Z k bzw. X k im Modell angegeben werden können, desto geringer der spätere Rechenaufwand. Umgekehrt gilt aber auch: das Bestimmen dieser Mengen kann aufwendig sein # 5 Knapsack-Problem deterministisch, diskretes Problem Beispiel: Maximiere F(x) ) = 3x + 4x + x 3 + 3x 4 unter den Nebenbedingungen 3x + x + 4x 3 + x 4 9 x k aus {0,} für f r k=,,4,4 x k sind Entscheidungsvariablen des Modells n=4 Stufen. Auf Stufe k wird über die Variable x k entschieden. x k = bzw. 0 entspricht dem Mitnehmen bzw. Nichtmitnehmen des Gutes k. X k ist also höchstens h {0,} # 6 3

14 Knapsack-Problem Die jeweils noch verfügbaren Gewichtseinheiten des Rucksacks stellen einen Zustand dar. Also z. B. Z = {6,9}, falls x = bzw. 0 gewählt wird Z = {4,6,7,9} Z 3 = {0,,3,4,5,6,7,9} Z 4 = {0,,9},9} Das Ermitteln der Zustandsmengen kann beliebig aufwendig werden. Hier z. B. durch Betrachtung aller Kombinationsmöglichkeiten von x bis x 4. Häufig Beschränkung auf Obermengen möglich, m z. B. Z ={6,,9},,9}, Z ={4,,9},,9}, Z 3 =Z 4 ={0,,9},9} auf jeden Fall noch verfügbare Mengen # 7 Investitionsentscheidung deterministisch, diskret, aber mit unendlichen Zustands- und Entscheidungsmengen. Unternehmer verfügt über 000 GE Möglichkeit des Kredits K über 500 GE, 8% Zinsen Möglichkeit des Kredits K über 000 GE, 0% Zinsen Zwei Investitionsmöglichkeiten mit folgenden Gewinnen abhängig vom eingesetzten Kapital y und y g (y ) = 0.y 50 falls y >0 (0 sonst) g (y ) = *sqrt(y ) Problem: Wieviel Eigenkapital sollte der Unternehmer einsetzen und wieviel Fremdkapital aufnehmen, um den größtmöglichen Gewinn zu erzielen? Negativer Kassenbestand ist nicht erlaubt # 8 4

15 Investitionsentscheidung Unterscheiden von n=4 Stufen. Auf jeder Stufe entscheiden über genau eine Investitionsmöglichkeit ; Interpretation einer Kreditaufnahme als Investitionsmöglichkeit mit negativer Auszahlung und negativem Ertrag (Zinszahlung) Stufe : Entscheidung über Kredit ; x gibt Höhe des aufgenommen Kredits an Stufe : Entscheidung über Kredit ; x entsprechend Stufe 3: Entscheidung über Investition in Höhe von x 3 GE Stufe 4: Entscheidung über Investition in Höhe von x 4 GE Zustandsbereiche Z,,Z 4 geben mögliche Kassenbestände einzelner Stufen nach Ausführung einer Entscheidung an. Z 0 ={z 0 =000} # 9 Investitionsentscheidung Begrenzung der Entscheidungsbereiche X k (z k- ) durch Kassenbestand sowie durch die Kreditschranken Transformationsfunktionen z k = z k- x k Stufenbezogene Zielfunktionen: f (z 0,x ) = 0.08x f (z,x ) = 0.x f 3 (z,x 3 ) = 0.x 3 50 falls x 3 >0 (0 sonst) f 4 (z 3,x 4 ) = *sqrt(x 4 ) # 30 5

16 Investitionsentscheidung Modell: Maximiere die Summe aller Zielfunktionen unter den Nebenbedingungen: z k = z k- x k ; z k 0 für k=,,4 z 0 = 000; x aus X =[-500,0] x aus X = [-000,0][ x 3 aus X 3 = [0,z ] x 4 aus X 4 = [0,z 3 ] Lösung über eine sog. Rückwärtsrekursion mit x = -500, x = -000 z = 500; x 3 = 475, x 4 = 5 Gewinn 35 GE # 3 Bestellmengenmodell (stochastisch) stochastisch diskretes Problem Periode k 3 Preis q k 7 9 Bedarf b k Wahr- scheinlichkeit Berechnung des Kostenerwartungswerts z. B. über Graph lösbar # 3 6

4. Dynamische Optimierung

4. Dynamische Optimierung 4. Dynamische Optimierung Allgemeine Form dynamischer Optimierungsprobleme 4. Dynamische Optimierung Die dynamische Optimierung (DO) betrachtet Entscheidungsprobleme als eine Folge voneinander abhängiger

Mehr

Dynamische Optimierung

Dynamische Optimierung Dynamische Optimierung Mike Hüftle 28. Juli 2006 Inhaltsverzeichnis 1 Einleitung 2 1.1.................................... 2 2 Dynamisches Optimierungmodell 3 2.1 Grundmodell der dynamischen Optimierung............

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Einführung in Operations Research

Einführung in Operations Research Wolfgang Domschke Andreas Drexl Einführung in Operations Research Achte Auflage fyj Springer Inhaltsverzeichnis Vorwort Symbolverzeichnis V XIII Kapitel 1: Einführung 1 1.1 Begriff des Operations Research

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

II. Nichtlineare Optimierung

II. Nichtlineare Optimierung II. Nichtlineare Optimierung 1. Problemstellungen 2. Grundlagen 3. Probleme ohne Nebenbedingungen 4. Probleme mit Nebenbedingungen Theorie 5. Probleme mit Nebenbedingungen Verfahren H. Weber, FHW, OR SS06,

Mehr

(Lineare) stochastische Optimierung

(Lineare) stochastische Optimierung (Lineare) stochastische Optimierung Bsp: Aus zwei Sorten Rohöl wird Benzin und Heizöl erzeugt. Die Produktivität sowie der Mindestbedarf (pro Woche) und die Kosten sind in folgender Tabelle angegeben:

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie

Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Graphentheorie Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Def.: eine Funktion n f :D mit D,x (x,...x

Mehr

Einführung in Operations Research

Einführung in Operations Research Wolfgang Domschke Andreas Drexl Einführung in Operations Research Dritte, verbesserte und erweiterte Auflage Mit 79 Abbildungen und 58 Tabellen Springer Votwort Symbolverzeichnis V XIII Kapitel 1: Einführung

Mehr

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung 8. Optimierung Inhalt 8.1 Motivation 8.2 Optimierung ohne Nebenbedingungen 8.3 Optimierung unter Nebenbedingungen 8.4 Lineare Programmierung 8.5 Kombinatorische Optimierung 2 8.1 Motivation Viele Anwendungen

Mehr

Mathematik 2 für Wirtschaftsinformatik

Mathematik 2 für Wirtschaftsinformatik für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar

Mehr

Stochastische dynamische Optimierung

Stochastische dynamische Optimierung Bisher: Neuer Zustand s 0 auf Stufe n +1istdurchaltenZustands auf Stufe n und Aktion a eindeutig bestimmt. s 0 = z n (s, a) Jetzt: Neuer Zustand s 0 ist zusätzlich vom Zufall abhängig. Genauer: Zufallsvariable,

Mehr

2004, x 0 (e 2x + x) x 1, x > 0. Untersuchen Sie die Funktion auf Stetigkeit an der Stelle x 0 = 0!

2004, x 0 (e 2x + x) x 1, x > 0. Untersuchen Sie die Funktion auf Stetigkeit an der Stelle x 0 = 0! Klausur 25.02.2004 Aufgabe 5 Gegeben ist die Funktion f(x) = 2004, x 0 (e 2x + x) x 1, x > 0. Untersuchen Sie die Funktion auf Stetigkeit an der Stelle x 0 = 0! Klausur 06.08.2003 Aufgabe 5 Gegeben ist

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Dynamische Optimierung. Kapitel 4. Dynamische Optimierung. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 160 / 206

Dynamische Optimierung. Kapitel 4. Dynamische Optimierung. Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 160 / 206 Kapitel 4 Dynamische Optimierung Peter Becker (H-BRS) Operations Research II Wintersemester 2014/15 160 / 206 Inhalt Inhalt 4 Dynamische Optimierung Allgemeiner Ansatz und Beispiele Stochastische dynamische

Mehr

Übung 5, Analytische Optimierung

Übung 5, Analytische Optimierung Übung 5, 5.7.2011 Analytische Optimierung Aufgabe 5.1 Bei der Herstellung von Konserven werden für Boden und Deckel bzw. für den Konservenmantel verschiedene Materialien verwendet, die g 1 = bzw. g 2 =

Mehr

Optimale Steuerung 1

Optimale Steuerung 1 Optimale Steuerung 1 Kapitel 5: Eindimensionale Nichtlineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Beispiel: Optimierung des Rohrleitungsdurchmessers für den

Mehr

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006 Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden

Mehr

Anwendungen der Differentialrechnung

Anwendungen der Differentialrechnung KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle

Mehr

5 Numerische Mathematik

5 Numerische Mathematik 6 5 Numerische Mathematik Die Numerische Mathematik setzt sich aus mehreren Einzelmodulen zusammen Für alle Studierenden ist das Modul Numerische Mathematik I: Grundlagen verpflichtend In diesem Modul

Mehr

Beispielseite (Band 1) 2. Ganzrationale Funktionen 2.4 Nullstellen bei Funktionen 3. Grades

Beispielseite (Band 1) 2. Ganzrationale Funktionen 2.4 Nullstellen bei Funktionen 3. Grades Beispielseite (Band ). Ganzrationale Funktionen.4 Nullstellen bei Funktionen. Grades Funktionen. Grades ohne Absolutglied Bei ganzrationalen Funktionen. Grades ohne Absolutglied beginnt die Nullstellenberechnung

Mehr

Lineare (Un-)Gleichungen und lineare Optimierung

Lineare (Un-)Gleichungen und lineare Optimierung Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik Universität Innsbruck Lehrer/innen/fortbildungstag Wien 2010 9. April 2010 Eine Maximumsaufgabe Eine Firma stellt aus

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg Beispiel: Graphische Darstellung Zulässigkeitsbereich Ungleichung (1) mit

Mehr

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005

Schnittebenenverfahren von Gomory. Stefan Allescher 30. Juni 2005 Schnittebenenverfahren von Gomory Stefan Allescher 30. Juni 2005 Inhaltsverzeichnis 1. Grundprinzip 2. Das Verfahren von Gomory 2.1. Vorgehen 2.2. Beweis der Endlichkeit 2.3. Algorithmische Durchführung

Mehr

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer Newton- und und Quasi-Newton-Methoden in der Optimierung János Mayer 1 GLIEDERUNG Newton-Methode für nichtlineare Gleichungen nichtlineare Gleichungssysteme freie Minimierung. Quasi-Newton-Methoden für

Mehr

Das Gradientenverfahren

Das Gradientenverfahren Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1

Mehr

Mathematik für Wirtschaftswissenschaftler II (Analysis) 2. Klausur Sommersemester

Mathematik für Wirtschaftswissenschaftler II (Analysis) 2. Klausur Sommersemester Mathematik für Wirtschaftswissenschaftler II (Analysis) 2. Klausur Sommersemester 2011 30.09.2011 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN Nachname:...................................................................

Mehr

Lineare (Un-)Gleichungen und lineare Optimierung

Lineare (Un-)Gleichungen und lineare Optimierung Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-6020 Innsbruck, Österreich franz.pauer@uibk.ac.at 1 Einleitung In der linearen

Mehr

Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2007/2008

Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester 2007/2008 Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Klausur zur Vorlesung Einführung in das Operations Research im Wintersemester

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Abbildung 1: Graphische Lösung der ersten Übungsaufgabe

Abbildung 1: Graphische Lösung der ersten Übungsaufgabe Lösungen zu den Übungsaufgaben im Kapitel 1 des Lehrbuches Operations Research Deterministische Modelle und Methoden von Stephan Dempe und Heiner Schreier 1. Lösen Sie die folgende lineare Optimierungsaufgabe

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Gliederung 1 : Einführung 2 Differenzieren 2 3 Deskriptive 4 Wahrscheinlichkeitstheorie

Mehr

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen

Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen Aufgabenkomplex 5: Hauptachsentransformation, Lineare Optimierung, Differentialrechnung in mehreren Veränderlichen 1. Bestimmen Sie für die folgenden Funktionen zunächst die kritischen Stellen und entscheiden

Mehr

MODULPRÜFUNG Numerische Methoden (Elektrotechnik, Meteorologie, Geodäsie und Geoinformatik)

MODULPRÜFUNG Numerische Methoden (Elektrotechnik, Meteorologie, Geodäsie und Geoinformatik) Karlsruher Institut für Technologie KIT) Institut für Analysis Dr. S. Wugalter Herbst 7.9.7 MODULPRÜFUNG Numerische Methoden Elektrotechnik, Meteorologie, Geodäsie und Geoinformatik) Aufgabe 4 Punkte)

Mehr

Prüfungsklausur Mathematik II für Wirtschaftsingenieure,

Prüfungsklausur Mathematik II für Wirtschaftsingenieure, HTWD, Fakultät Informatik/Mathematik Prof. Dr. M. Voigt Prüfungsklausur Mathematik II für Wirtschaftsingenieure, 15.7.2014 A Name, Vorname Matr. Nr. Sem. gr. Aufgabe 1 2 3 4 5 6 gesamt erreichbare P. 10

Mehr

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Optimierung für Wirtschaftsinformatiker: Lineare Programme Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen

Mehr

Probeklausur Optimierung

Probeklausur Optimierung Universität Hamburg Fakultät für Mathematik, Informatik und Naturwissenschaften Dr. Nico Düvelmeyer Hamburg, 4. Juli 2011 Probeklausur Optimierung Bitte selber ausfüllen: Name: (darf anonymisiert werden)

Mehr

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen 10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen Bisher haben wir immer vorausgesetzt, dass alle Variablen eines LOP der Bedingung x i 0 liegen. Im Folgenden wollen wir auch sogenannte freie

Mehr

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6.1 Nullstellen reeller Funktionen Bemerkung 6.1 (Problemstellung) geg.: f C[a, b] ges.: x [a, b] mit f(x ) = 0 Lösungstheorie f linear

Mehr

Klausur zur Vorlesung Operations Research im Sommersemester 2009

Klausur zur Vorlesung Operations Research im Sommersemester 2009 Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Klausur zur Vorlesung Operations Research im Sommersemester 2009 Hinweise:

Mehr

1 Übungsaufgaben zu Kapitel 1

1 Übungsaufgaben zu Kapitel 1 Übungsaufgaben zu Kapitel. Übungsaufgaben zu Abschnitt... Aufgabe. Untersuchen Sie die nachstehend definierten Folgen ( a k ) k und ( b k ) k auf Konvergenz und bestimmen Sie ggf. den jeweiligen Grenzwert:

Mehr

Wasserwirtschaftliche Planungsmethoden

Wasserwirtschaftliche Planungsmethoden Wasserwirtschaftliche Planungsmethoden 6. Optimierungsverfahren o.univ.prof. Dipl.Ing. Dr. H.P. Nachtnebel Institut für Wasserwirtschaft, Hydrologie und konstruktiver Wasserbau 6 Optimierungsverfahren

Mehr

Mathematik für Wirtschaftswissenschaftler

Mathematik für Wirtschaftswissenschaftler Mathematik für Wirtschaftswissenschaftler Yves Schneider Universität Luzern Frühjahr 2016 Repetition Kapitel 1 bis 3 2 / 54 Repetition Kapitel 1 bis 3 Ausgewählte Themen Kapitel 1 Ausgewählte Themen Kapitel

Mehr

Optimierung I. Dr. Ulf Lorenz F2.413

Optimierung I. Dr. Ulf Lorenz F2.413 Optimierung I Dr. Ulf Lorenz F2.413 flulo@upb.de Organisation Dozent: Dr. Ulf Lorenz F2.413 Fürstenallee 11 email: flulo@upb.de WWW: http://www.upb.de/cs/flulo (hier auch aktuelle Infos + Ü-Zettel) Vorlesungen:

Mehr

Inhaltsverzeichnis. 1 Lineare Algebra 12

Inhaltsverzeichnis. 1 Lineare Algebra 12 Inhaltsverzeichnis 1 Lineare Algebra 12 1.1 Vektorrechnung 12 1.1.1 Grundlagen 12 1.1.2 Lineare Abhängigkeit 18 1.1.3 Vektorräume 22 1.1.4 Dimension und Basis 24 1.2 Matrizen 26 1.2.1 Definition einer

Mehr

1. Hausaufgabenblatt (16.04./ )

1. Hausaufgabenblatt (16.04./ ) Lehrstuhl Ingenieurmathematik Modul: (Wirtschaftsingenieurwesen/Betriebswirtschaftslehre/Informatik) Sommersemester 2014 1. Hausaufgabenblatt (16.04./23.04.2015) Aufgabe H 1.1 Lösen Sie die linearen Gleichungssysteme

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Wirtschaftsmathematik - Übungen SS 2019

Wirtschaftsmathematik - Übungen SS 2019 Wirtschaftsmathematik - Übungen SS 019 Blatt 4: Funktionen von einer Variablen 1. Gegeben sind die Mengen M 1 = {1,, 3, 4, 5, 6, 7} und M = { 1, 0, 1, } sowie die Zuordnungsvorschrift f : M 1 M, x f(x)

Mehr

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme

Computer Science Department - High Performance and Web Computing Group. Optimierungsprobleme Optimierungsprobleme Häufig in Alltagssituationen anzutreffen (z.b. Kauf eines Gerätes) Optimierungsprobleme (OPs) sind Probleme, die i.a. viele zulässige Lösungen besitzen Jeder Lösung ist ein bestimmter

Mehr

Prüfungsklausur Mathematik II für Wirtschaftsingenieure,

Prüfungsklausur Mathematik II für Wirtschaftsingenieure, HTWD, Fakultät Informatik/Mathematik Prof. Dr. M. Voigt Prüfungsklausur Mathematik II für Wirtschaftsingenieure, 06.07.2015 B Name, Vorname Matr. Nr. Sem. gr. Aufgabe 1 2 3 4 5 6 7 8 gesamt erreichbare

Mehr

Funktionen in zwei (und mehreren) Veränderlichen

Funktionen in zwei (und mehreren) Veränderlichen Mathematik für Ökonomen 1 Dr. Thomas Zehrt Wirtschaftswissenschaftliches Zentrum Universität Basel Herbstsemester 8 Funktionen in zwei (und mehreren) Veränderlichen Inhalt: 1. Definition und Beispiele.

Mehr

6. Iterationsverfahren. Fixpunktiteration. 6.Iterationsverfahren: Fixpunktiteration Numerisches Programmieren, Jürgen Bräckle page 1 of 16

6. Iterationsverfahren. Fixpunktiteration. 6.Iterationsverfahren: Fixpunktiteration Numerisches Programmieren, Jürgen Bräckle page 1 of 16 6. Iterationsverfahren Fixpunktiteration Numerisches Programmieren, Jürgen Bräckle page 1 of 16 Beispiel: Ausbreitung eines Grippevirus in einem Kindergarten Zeitpunkt t 0 t 1 t 2 t 3 t 4 t 5 Anteil kranker

Mehr

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 FK WMS: Wirtschaftsmathematik 2, Einheit 7/8 Markus Sinnl 1 markus.sinnl@univie.ac.at http://homepage.univie.ac.at/markus.sinnl basierend auf Folien von Dr. Ivana Ljubic, Mag. Christian Spreitzer und Mag.

Mehr

Mathematik 1 für Wirtschaftsinformatik

Mathematik 1 für Wirtschaftsinformatik Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration

Mehr

Die Lagrange-duale Funktion

Die Lagrange-duale Funktion Die Lagrange-duale Funktion Gregor Leimcke 21. April 2010 1 Die Lagrangefunktion Wir betrachten das allgemeine Optimierungsproblem wobei minimiere f 0 über D sodass f i 0, i = 1,..., m 1.1 D = h i = 0,

Mehr

Substitutionsverfahren

Substitutionsverfahren Substitutionsverfahren 1 Motivation Wir stehen vor folgendem Problem: In unserem Betrieb kann unsere einzige Maschine Produkt A in zwei Stunden und Produkt B in einer Stunde produzieren. Die Maschine läuft

Mehr

Klausur Wirtschaftsmathematik VO

Klausur Wirtschaftsmathematik VO Klausur Wirtschaftsmathematik VO 02. Februar 2019 Bitte leserlich in Druckbuchstaben ausfüllen! NACHNAME: VORNAME: MATRIKELNUMMER: ERLAUBT: nur die Formelsammlung des Instituts! VERBOTEN: Taschenrechner

Mehr

Lineare Optimierungsmodelle

Lineare Optimierungsmodelle Lineare Optimierungsmodelle Simplex-Methode Vortragender: Michael Schneider Agenda Motivation Operations Research Aufbau linearer Optimierungsmodelle Simplex-Methode Ausblick 2 Problemstellung Futtermischung

Mehr

Wirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit 2: Lineare Algebra II

Wirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit 2: Lineare Algebra II Wirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit : Lineare Algebra II Leseprobe Autor: Univ.-Prof. Dr. Wilhelm Rödder Dr. Peter Zörnig 74 4 Extrema bei Funktionen mehrerer

Mehr

Mathematik für Informationsmanagement WiSe 2017/2018 Übungsblatt 9. Zur Bearbeitung in der Übung am 10./

Mathematik für Informationsmanagement WiSe 2017/2018 Übungsblatt 9. Zur Bearbeitung in der Übung am 10./ Mathematik für Informationsmanagement WiSe 2017/2018 Übungsblatt 9 Zur Bearbeitung in der Übung am 10./11.01.2018 Vorlesung: Dr. Mark Steinhauer Übungen: Marco Böhm Mirjam Schön Thomas Senkowski Kevin

Mehr

Unimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206

Unimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206 Kapitel 1 Unimodularität Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206 Inhalt 1 Unimodularität Total unimodulare Matrizen Inzidenzmatrix Optimierungsprobleme auf Graphen Peter

Mehr

Kuhn-Tucker Bedingung

Kuhn-Tucker Bedingung Kapitel 13 Kuhn-Tucker Bedingung Josef Leydold Mathematik für VW WS 017/18 13 Kuhn-Tucker Bedingung 1 / Optimierung unter Nebenbedingungen Aufgabe: Berechne das Maximum der Funktion f (x, y) g(x, y) c,

Mehr

Prof. Dr. Stefan Luckhaus WS 2013/14. Übungsserie 1. Mathematik für Wirtschaftswissenschaftler

Prof. Dr. Stefan Luckhaus WS 2013/14. Übungsserie 1. Mathematik für Wirtschaftswissenschaftler Prof. Dr. Stefan Luckhaus WS 203/4 Übungsserie Aufgabe. Seien f : R R, g : R R Funktionen, die wie folgt definiert sind: fx) =, gx) = x +. + x2 Stellen Sie die Funktionen als Quotienten von Polynomen dar.

Mehr

Inhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57

Inhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57 Vorwort... 13 Vorwort zur 3. deutschen Auflage... 17 Kapitel 1 Einführung, I: Algebra... 19 1.1 Die reellen Zahlen... 20 1.2 Ganzzahlige Potenzen... 23 1.3 Regeln der Algebra... 29 1.4 Brüche... 34 1.5

Mehr

a n := 5n4 + 2n 2 2n n + 1. a n := n 5n 2 n 2 + 7n + 8 b n := ( 1) n c n := ( 1) n+1 6n2 + 13n 5n 3 + 7

a n := 5n4 + 2n 2 2n n + 1. a n := n 5n 2 n 2 + 7n + 8 b n := ( 1) n c n := ( 1) n+1 6n2 + 13n 5n 3 + 7 Folgen und Reihen. Berechnen Sie den Grenzwert der Folge (a n ) n N mit a n := 5n4 + 2n 2 2n 3 + 3 n +. 4 2. Untersuchen Sie folgende Folgen auf Monotonie, Beschränktheit, Häufungspunkte und Konvergenz,

Mehr

Klausur zur Mathematik für Maschinentechniker

Klausur zur Mathematik für Maschinentechniker SS 04. 09. 004 Klausur zur Mathematik für Maschinentechniker Apl. Prof. Dr. G. Herbort Aufgabe. Es sei f die folgende Funktion f(x) = 4x 4x 9x 6 x (i) Was ist der Definitionsbereich von f? Woistf differenzierbar,

Mehr

Inhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57

Inhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57 Vorwort... 13 Vorwort zur 3. deutschen Auflage... 17 Kapitel 1 Einführung, I: Algebra... 19 1.1 Die reellen Zahlen... 20 1.2 Ganzzahlige Potenzen... 23 1.3 Regeln der Algebra... 29 1.4 Brüche... 34 1.5

Mehr

16. FUNKTIONEN VON MEHREREN VARIABLEN

16. FUNKTIONEN VON MEHREREN VARIABLEN 16. FUNKTIONEN VON MEHREREN VARIABLEN 1 Reelle Funktionen auf dem R 2 Wir betrachten Funktionen f(x 1, x 2 ) von zwei reellen Variablen x 1, x 2, z.b. f(x 1, x 2 ) = x 2 1 + x2 2, g(x 1, x 2 ) = x 2 1

Mehr

Einführung. Ablesen von einander zugeordneten Werten

Einführung. Ablesen von einander zugeordneten Werten Einführung Zusammenhänge zwischen Größen wie Temperatur, Geschwindigkeit, Lautstärke, Fahrstrecke, Preis, Einkommen, Steuer etc. werden mit beschrieben. Eine Zuordnung f, die jedem x A genau ein y B zuweist,

Mehr

Klausur zur Vorlesung Operations Research im Wintersemester 2009/10

Klausur zur Vorlesung Operations Research im Wintersemester 2009/10 Leibniz Universität Hannover Wirtschaftswissenschaftliche Fakultät Institut für Produktionswirtschaft Prof. Dr. Stefan Helber Sitzplatznr.: Klausur zur Vorlesung Operations Research im Wintersemester 2009/10

Mehr

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 =

Lösungsskizzen zu den Klausuraufgaben zum Kurs 1142 Algorithmische Mathematik. a 0 = 0 = Lösungsskizzen zu den Klausuraufgaben zum Kurs 4 Algorithmische Mathematik 4KSL3 6 Punkte Aufgabe. Die Folge (a n ) n N natürlicher Zahlen a n sei rekursiv definiert durch a 0 = 0, a n = a n + n falls

Mehr

Perlen der Informatik I Wintersemester 2012 Aufgabenblatt 7

Perlen der Informatik I Wintersemester 2012 Aufgabenblatt 7 Technische Universität München WS 2012 Institut für Informatik Prof. Dr. H.-J. Bungartz Prof. Dr. T. Huckle Prof. Dr. M. Bader Kristof Unterweger Perlen der Informatik I Wintersemester 2012 Aufgabenblatt

Mehr

Kontinuierliche Optimierung

Kontinuierliche Optimierung Kontinuierliche Optimierung Markus Herrich Wintersemester 2018/19 ii Inhaltsverzeichnis 2 Optimalitäts- und Regularitätsbedingungen 1 2.1 Einleitung und Wiederholung.................... 1 2.2 Optimalitätsbedingungen

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 2 Nichtlineare Gleichungssysteme Problem: Für vorgegebene Abbildung f : D R n R n finde R n mit oder ausführlicher f() = 0 (21) f 1 ( 1,, n ) = 0, f n ( 1,, n ) = 0 Einerseits führt die mathematische

Mehr

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2 Kapitel 12 Lagrange-Funktion Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28 Optimierung unter Nebenbedingungen Aufgabe: Berechne die Extrema der Funktion unter der Nebenbedingung

Mehr

Praktische Optimierung

Praktische Optimierung Grundlagen klassischer Optimiertechniken Praktische Optimierung Wintersemester 2008/09 Prof Dr Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund Themen der heutigen

Mehr

Modulprüfung Numerische Mathematik 1

Modulprüfung Numerische Mathematik 1 Prof. Dr. Klaus Höllig 18. März 2011 Modulprüfung Numerische Mathematik 1 Lösungen Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. 1. Die Trapezregel

Mehr

Chinese Postman Problem Hamiltonsche Graphen und das Traveling Salesman Problem Max-Flow-Min-Cut...151

Chinese Postman Problem Hamiltonsche Graphen und das Traveling Salesman Problem Max-Flow-Min-Cut...151 Inhaltsverzeichnis 1 Kernkonzepte der linearen Optimierung... 1 1.1 Einführung... 1 1.2 Grundlegende Definitionen... 8 1.3 Grafische Lösung... 10 1.4 Standardform und grundlegende analytische Konzepte...

Mehr

Inhalt 1 GRUNDLAGEN Zahlen Natürliche Zahlen Ganze Zahlen Rationale Zahlen Reelle Zahlen 4

Inhalt 1 GRUNDLAGEN Zahlen Natürliche Zahlen Ganze Zahlen Rationale Zahlen Reelle Zahlen 4 Inhalt 1 GRUNDLAGEN 1 1.1 Zahlen 1 1.1.1 Natürliche Zahlen 1 1.1.2 Ganze Zahlen 2 1.1.3 Rationale Zahlen 3 1.1.4 Reelle Zahlen 4 1.2 Rechnen mit reellen Zahlen 8 1.2.1 Grundgesetze der Addition 8 1.2.2

Mehr

Wirtschaftsmathematik Plus für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik Plus für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik Plus für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2012/13 Hochschule Augsburg Aufgabe 98 12.12.2012 Untersuchen Sie die Funktion f W R! R mit f.x/

Mehr

Teil I. Lineare Optimierung

Teil I. Lineare Optimierung Teil I Lineare Optimierung 5 Kapitel 1 Grundlagen Definition 1.1 Lineares Optimierungsproblem, lineares Programm. Eine Aufgabenstellung wird lineares Optimierungsproblem oder lineares Programm genannt,

Mehr

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler. (a) Bestimmen Sie die kartesische Form von Wintersemester 7/8 (..8) z = ( + i)( i) + ( + i). (b) Bestimmen Sie sämtliche komplexen Lösungen

Mehr

Musterlösungen zur Leistungsnachweisklausur vom Studiengang Informatik, Ingenieurinformatik, Lehramt

Musterlösungen zur Leistungsnachweisklausur vom Studiengang Informatik, Ingenieurinformatik, Lehramt TU ILMENAU Institut für Mathematik Numerische Mathematik PD Dr. W. Neundorf Musterlösungen zur Leistungsnachweisklausur vom.0.006 Studiengang Informatik, Ingenieurinformatik, Lehramt 1. Lineare Algebra

Mehr

Nullstellen von algebraischen Gleichungen

Nullstellen von algebraischen Gleichungen Kapitel 2 Nullstellen von algebraischen Gleichungen 2.1 Vorbemerkungen Suche Lösung der Gleichung f(x) = 0 (2.1) Dies ist die Standardform für eine Dimension. - typisch nichtlineare Gleichung, sonst elementar

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 4

Technische Universität München Zentrum Mathematik. Übungsblatt 4 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 4 Hausaufgaben Aufgabe 4. Gegeben sei die Funktion f : D R mit f(x) :=

Mehr

Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler

Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler Wintersemester 2007/08 27.2.2008 Dr. Sascha Kurz Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler Bitte lesbar ausfüllen, Zutreffendes ankreuzen Herr Frau Name, Vorname: Anschrift:

Mehr

Mathematik anschaulich dargestellt

Mathematik anschaulich dargestellt Peter Dörsam Mathematik anschaulich dargestellt für Studierende der Wirtschaftswissenschaften 15. überarbeitete Auflage mit zahlreichen Abbildungen PD-Verlag Heidenau Inhaltsverzeichnis 1 Lineare Algebra

Mehr

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016 Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b

Mehr

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit) 3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände

Mehr

Mathematik für Wirtschaftswissenschaftler

Mathematik für Wirtschaftswissenschaftler Knut Sydsaeter Peter HammondJ Mathematik für Wirtschaftswissenschaftler Basiswissen mit Praxisbezug 2., aktualisierte Auflage Inhaltsverzeichnis Vorwort 13 Vorwort zur zweiten Auflage 19 Kapitel 1 Einführung,

Mehr

Konvexe Optimierung I Sommersemester Kapitel 0

Konvexe Optimierung I Sommersemester Kapitel 0 Sommersemester 2013 Kapitel 0 Jun.-Prof. Dr. Thorsten Raasch Johannes Gutenberg-Universität Mainz Institut für Mathematik 15. April 2013 Konvexe Optimierung Was ist das? Was bedeutet Optimierung? Was bedeutet

Mehr

Kombinatorische Optimierung

Kombinatorische Optimierung Kombinatorische Optimierung Juniorprof. Dr. Henning Meyerhenke PARALLELES RECHNEN INSTITUT FÜR THEORETISCHE INFORMATIK, FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales

Mehr

10.6. Implizite ebene Kurven und Tangenten

10.6. Implizite ebene Kurven und Tangenten 0.6. Implizite ebene Kurven und Tangenten Im Gegensatz zu expliziten Darstellungen sind weder implizite noch Parameterdarstellungen einer Kurve eindeutig. Der Übergang von impliziten zu expliziten Darstellungen

Mehr