Optimierung für Nichtmathematiker
|
|
- Gerrit Stein
- vor 6 Jahren
- Abrufe
Transkript
1 Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ /
2 Problemstellung Klassifikation Inhaltsübersicht Problemstellung und Grundbegriffe Klassifikation von Optimierungsaufgaben Vorlesung I Einführung und Motivation / 6
3 Problemstellung Klassifikation Überblick über spezielle Klassen von Optimierungsproblemen Jedes Verfahren ist zugeschnitten auf eine bestimmte Problemklasse. Diese unterscheiden sich nach den Eigenschaften der Funktionen f, g i, h i den Eigenschaften der Grundmenge Ω der Form, in der die Problemdaten gegeben sind den Ansprüchen an die Lösung (lokal/global/multikriteriell). Verfahren/Löser für viele wichtige Problemklassen gibt es auf dem NEOS Server for Optimization Vorlesung I Einführung und Motivation / 6
4 Problemstellung Klassifikation Nichtlineare Optimierung (NonLinear Programming) Minimiere f () unter h i () = i E g i () i I Ω f, g i, h i hinreichend glatt, C (R n ) oder C (R n ), d.h., mindestens einmal oder zweimal stetig differenzierbar, E und I endliche Mengen (unendlich: Semiinfinite Optimierung ) falls E = I = : freie/unrestringierte Optimierung sonst: restringierte Optimierung oder Opt. mit Nebenbed. Ω = R n (meist) Vorlesung I Einführung und Motivation 4 / 6
5 Problemstellung Klassifikation Nichtlineare Optimierung (NonLinear Programming) Minimiere f () unter h i () = i E g i () i I Ω f, g i, h i hinreichend glatt, C (R n ) oder C (R n ), d.h., mindestens einmal oder zweimal stetig differenzierbar, E und I endliche Mengen (unendlich: Semiinfinite Optimierung ) falls E = I = : freie/unrestringierte Optimierung sonst: restringierte Optimierung oder Opt. mit Nebenbed. Ω = R n Ziel: Anwendung: Verfahren: Input: Größe : (meist) lokales Optimum (aber oft schon Zulässigkeit schwer!) (nichtlineare) Parameterschätzung, Optimalsteuerung, Shape Optimization, Lösung nichtlinearer Gleichungssysteme,... Newton, Quasi-Newton,... (gute lokale Konvergenz) Line-Search, Trust-Region, CG,... (lokale Suche) Unterroutinen für Funktionswert, Gradient, (Hessematri) einige bis einige Variablen (mehr bei spez. Struktur) Vorlesung I Einführung und Motivation 5 / 6
6 Problemstellung Klassifikation Konvee Optimierung (Conve Optimization) Minimiere f () unter A = b g i () i I C f, g i konvee Funktionen A = b nur lineare Gleichungsnebenbedingungen! falls f, g i glatt smooth conve opt. falls f, g i nicht notw. diffb. nonsmooth conve opt. I endliche Menge C einfache konvee Menge (Bo, ganz R n,... ) Vorlesung I Einführung und Motivation 6 / 6
7 Problemstellung Klassifikation Konvee Optimierung (Conve Optimization) Minimiere f () unter A = b g i () i I C f, g i konvee Funktionen A = b nur lineare Gleichungsnebenbedingungen! falls f, g i glatt smooth conve opt. falls f, g i nicht notw. diffb. nonsmooth conve opt. I endliche Menge C einfache konvee Menge (Bo, ganz R n,... ) Ziel: globales Optimum Anwendung: Portfolio Design, Eperimental Design, Optimalsteuerung, Signal Processing, Berechnung von Schranken für nichtlineare Probleme,... Verfahren: smooth: Newton, Quasi-Newton,... nonsmooth: Subgradienten-, Bündel-Verfahren Input: Unterroutinen für Funktionswert, (Sub-)Gradient, (Hessematri) Größe : einige bis einige Var. (mehr bei spez. Struktur) Vorlesung I Einführung und Motivation 7 / 6
8 Problemstellung Klassifikation Konvee Opt. mit Struktur (Structured Conve Opt.) q( ) Minimiere q() unter A = b K lineare (affine) oder konve-quadratische Zielfunktion q() = c T (+ T Q mit Q symm. positiv semidefinit) lineare Gleichungs- oder auch Ungleichungsnebenbedingungen konvee Kegel spezieller Struktur q linear, K = R n +: Lineare Opt. (Linear Programming) A = b K q linear, K = Q n +: Second Order Cone Programming (SOCP) q linear, K = S n +: Semidefinite Opt. (SemiDefnite Pogramming.) q quadrat., K = R n +: (Konvee) Quadratische Opt. (QP) Vorlesung I Einführung und Motivation 8 / 6
9 Problemstellung Klassifikation Konvee Opt. mit Struktur (Structured Conve Opt.) q( ) Minimiere q() unter A = b K lineare (affine) oder konve-quadratische Zielfunktion q() = c T (+ T Q mit Q symm. positiv semidefinit) lineare Gleichungs- oder auch Ungleichungsnebenbedingungen konvee Kegel spezieller Struktur q linear, K = R n +: Lineare Opt. (Linear Programming) A = b K q linear, K = Q n +: Second Order Cone Programming (SOCP) q linear, K = S n +: Semidefinite Opt. (SemiDefnite Pogramming.) q quadrat., K = R n +: (Konvee) Quadratische Opt. (QP) Ziel: globales Optimum in kurzer Zeit Anwendung: Portfolio Design, Eperimental Design, Optimalsteuerung, Signal Processing, Berechnung von Schranken für ganzz. Probleme,... Verfahren: LP, SOCP, SDP, QP: Innere-Punkte-Verf. (mit Newton) LP: Simple Input: Koeffizienten der Matrizen und Vektoren (evtl. Kegeltyp) Größe : einige bis einige Millionen Variablen Vorlesung I Einführung und Motivation 9 / 6
10 Problemstellung Klassifikation Ganzzahlige Optimierung (Integer Programming) Minimiere c T unter A b Z n c T lineare Zielfunktion A b lineare Gleichungs- oder auch Ungleichungsnebenbedingungen Z n nur ganzzahlige Lösungen! verwandte Varianten: Binary Integer P.: {, } n ( kombinatorische Opt.) Mied Integer P.: R n Z n Mied Integer NonLinear P.: f, g i, h i nichtlinear Vorlesung I Einführung und Motivation / 6
11 Problemstellung Klassifikation Ganzzahlige Optimierung (Integer Programming) Minimiere c T unter A b Z n c T lineare Zielfunktion A b lineare Gleichungs- oder auch Ungleichungsnebenbedingungen Z n nur ganzzahlige Lösungen! verwandte Varianten: Binary Integer P.: {, } n ( kombinatorische Opt.) Mied Integer P.: R n Z n Mied Integer NonLinear P.: f, g i, h i nichtlinear Ziel: sehr problemabhängig (meist NP-schwer), gute Näherungslösung mit Gütegarantie Anwendung: Probleme mit Entscheidungskomponenten, z.b. Flüsse in Netzwerken, Zuweisungs-, Transport-, Standortprobleme, VLSI-Design, Basisauswahl,... Verfahren: Input: Größe : konvee/lineare Relaation, lokale Suche/Rundungsheuristiken, eakte Lösung durch Branch and Bound (effiz. Enumerieren), für sehr spezielle Probleme: eakte Algorithmen von Koeffizienten der Matrizen bis hin zu strukturnutzenden Zusatzroutinen etrem problemabhängig, von unter bis zu Millionen Vorlesung I Einführung und Motivation / 6
12 Problemstellung Klassifikation Globale Optimierung (Global Optimization) f, g i, h i E und I Ω Minimiere f () unter h i () = i E g i () i I Ω hinreichend glatt von bekannter Struktur (z.b. Polynome) es können Unterschätzer konstruiert werden (kleine) endliche Mengen einfache konvee Menge (Bo) Vorlesung I Einführung und Motivation / 6
13 Problemstellung Klassifikation Globale Optimierung (Global Optimization) f, g i, h i E und I Ω Minimiere f () unter h i () = i E g i () i I Ω hinreichend glatt von bekannter Struktur (z.b. Polynome) es können Unterschätzer konstruiert werden (kleine) endliche Mengen einfache konvee Menge (Bo) Ziel: globales Optimum (i.a. zu schwer, nur sehr kleine Dimension!) Anwendung: kleine nichtlineare Optimalsteuerungsprobleme... Verfahren: Branch and Bound: pro Intervall der Unterteilung untere Schranken durch Lösung konveer Relaation und obere Schranken durch NLP-Löser Input: algebraische Beschreibung der Funktionen Größe : etwa - Variable (je nach spez. Struktur u.u. auch mehr) Vorlesung I Einführung und Motivation / 6
14 Problemstellung Klassifikation Einige weitere Klassen Meist durch spezielle Anforderungen einer Anwendung motiviert: Multikriterielle Optimierung (Mehrziel-Optimierung): Beispiele: Portfolio soll Gewinn maimieren und Risiko minimieren; Auto soll möglichst schnell mit möglichst wenig Treibstoff fahren; größte Stabilität eines Bauteils bei geringstem Materialeinsatz, etc. Darstellung konkurrierender Ziele durch vektorwertige Zielfunktion f : R n R m (bzw. durch ein Partialordnung auf R m ) Pareto-optimale Lösung : bzgl. Partialordnung nicht verbesserbar für m klein: Berechnung der Paretofront, sonst Rückführung auf Standardverf. durch Skalarisierung (gewichtete Linearkombination) oder leikographisches Optimieren mittels neuer Nebenbedingungen Vorlesung I Einführung und Motivation 4 / 6
15 Problemstellung Klassifikation Einige weitere Klassen Meist durch spezielle Anforderungen einer Anwendung motiviert: Multikriterielle Optimierung (Mehrziel-Optimierung): Beispiele: Portfolio soll Gewinn maimieren und Risiko minimieren; Auto soll möglichst schnell mit möglichst wenig Treibstoff fahren; größte Stabilität eines Bauteils bei geringstem Materialeinsatz, etc. Darstellung konkurrierender Ziele durch vektorwertige Zielfunktion f : R n R m (bzw. durch ein Partialordnung auf R m ) Pareto-optimale Lösung : bzgl. Partialordnung nicht verbesserbar für m klein: Berechnung der Paretofront, sonst Rückführung auf Standardverf. durch Skalarisierung (gewichtete Linearkombination) oder leikographisches Optimieren mittels neuer Nebenbedingungen Ableitungsfreie Optimierung (derivative-free optimization): Es ist jeweils nur f () bestimmbar (wird durch Simulation, Messung etc. ermittelt), aber keine Ableitungsinformationen vorhanden. f () billig: numerisches Differenzieren oder Verf. von Nelder-Mead f () teuer: modellerstellende Verfahren (Kriging, Powell,... ) Vorlesung I Einführung und Motivation 5 / 6
16 Problemstellung Klassifikation Stochastische Optimierung: Einige weitere Klassen Statistische Daten in Entscheidungen einbeziehen: Ein-/Ausschalten von Kraftwerken für stochstisches Verbrauchsmodell, Portfoliooptimierung für stochastische Finanzmodelle, Logistik-Optimierung nach stochastischem Bedarfsmodell oft Einteilung in gewichtete mehrstufige Szenarien, rekursives Lösen mit Standardverfahren Vorlesung I Einführung und Motivation 6 / 6
17 Problemstellung Klassifikation Stochastische Optimierung: Einige weitere Klassen Statistische Daten in Entscheidungen einbeziehen: Ein-/Ausschalten von Kraftwerken für stochstisches Verbrauchsmodell, Portfoliooptimierung für stochastische Finanzmodelle, Logistik-Optimierung nach stochastischem Bedarfsmodell oft Einteilung in gewichtete mehrstufige Szenarien, rekursives Lösen mit Standardverfahren Robuste Optimierung: Gegen Datenunsicherheit, Mindestanforderungen oder Ungenauigkeiten in der realen Umsetzung absichern: leichteste Brücke für unterschiedliche Lasten, Entwurf von Antennen-Arrays, Mindestproduktionskapazitäten auch bei Maschinenausfällen geschickte Modellierung erlaubt oft den Einsatz von Standardverfahren Vorlesung I Einführung und Motivation 7 / 6
18 Teil II Freie Optimierung Vorlesung II Freie Optimierung 8 / 6
19 Inhaltsübersicht Einführung in die freie Optimierung Vorlesung II Freie Optimierung 9 / 6
20 Freie Nichtlineare Optimierung Verfahren zur Minimierung glatter Funktionen ohne Nebenbedingungen, min f (), f : R Rn R hinreichend glatt n Hinreichend glatt bedeutet, dass f so oft stetig differenzierbar sein soll, wie es für das jeweilige Verfahren erforderlich ist. Vorlesung II Freie Optimierung / 6
21 Freie Nichtlineare Optimierung Verfahren zur Minimierung glatter Funktionen ohne Nebenbedingungen, min f (), f : R Rn R hinreichend glatt n Hinreichend glatt bedeutet, dass f so oft stetig differenzierbar sein soll, wie es für das jeweilige Verfahren erforderlich ist. Ziele für die Verfahren: Finde ein lokales Minimum (sogar weniger: finde ein, das die notwendigen Opt.-Bedingungen. Ordnung erfüllt, siehe dort) schnelle Konvergenz in der Nähe lokaler Optima der Rechenaufwand soll möglichst klein bleiben numerische Stabilität und hohe Genauigkeit Vorlesung II Freie Optimierung / 6
22 Freie Nichtlineare Optimierung Verfahren zur Minimierung glatter Funktionen ohne Nebenbedingungen, min f (), f : R Rn R hinreichend glatt n Hinreichend glatt bedeutet, dass f so oft stetig differenzierbar sein soll, wie es für das jeweilige Verfahren erforderlich ist. Ziele für die Verfahren: Finde ein lokales Minimum (sogar weniger: finde ein, das die notwendigen Opt.-Bedingungen. Ordnung erfüllt, siehe dort) schnelle Konvergenz in der Nähe lokaler Optima der Rechenaufwand soll möglichst klein bleiben numerische Stabilität und hohe Genauigkeit Anwendungen: nichtlineare Kleinste-Quadrate-Probleme als Unterroutine für Optimierungsprobleme mit Nebenbedingungen [siehe Barriere-, Straf- und augmentierte Lagrange-Verfahren] Vorlesung II Freie Optimierung / 6
23 Freie Nichtlineare Optimierung Verfahren zur Minimierung glatter Funktionen ohne Nebenbedingungen, min f (), f : R Rn R hinreichend glatt n Hinreichend glatt bedeutet, dass f so oft stetig differenzierbar sein soll, wie es für das jeweilige Verfahren erforderlich ist. Ziele für die Verfahren: Finde ein lokales Minimum (sogar weniger: finde ein, das die notwendigen Opt.-Bedingungen. Ordnung erfüllt, siehe dort) schnelle Konvergenz in der Nähe lokaler Optima der Rechenaufwand soll möglichst klein bleiben numerische Stabilität und hohe Genauigkeit Anwendungen: nichtlineare Kleinste-Quadrate-Probleme als Unterroutine für Optimierungsprobleme mit Nebenbedingungen [siehe Barriere-, Straf- und augmentierte Lagrange-Verfahren] In welcher Form soll f für die Verfahren zugänglich sein? Vorlesung II Freie Optimierung / 6
24 Inhaltsübersicht Einführung in die freie Optimierung Vorlesung II Freie Optimierung 4 / 6
25 Orakel allgemein und Orakel. Ordnung In vielen Anwendungen ist die Funktion f nicht analytisch verfügbar (so wie f () = sin()), sondern ergibt sich z.b. aus der Lösung eines Systems von Differentialgleichungen, d.h. aus einer Simulation. Daher setzen allgemeine Optimierungsverfahren nur eine Unterroutine voraus, die das Verfahren nach dem Wert der Funktion und eventuell auch nach Ableitungsinformation in dem jeweils betrachteten Punkt befragen kann Orakel. Ist die Funktion doch analytisch gegeben, so erzeugen Modellierungssprachen wie AMPL, GAMS,... automatisch entsprechende Orakel/Unterroutinen, die den Funktionswert und zusätzlich Ableitungsinformation liefern. Vorlesung II Freie Optimierung 5 / 6
26 Orakel allgemein und Orakel. Ordnung In vielen Anwendungen ist die Funktion f nicht analytisch verfügbar (so wie f () = sin()), sondern ergibt sich z.b. aus der Lösung eines Systems von Differentialgleichungen, d.h. aus einer Simulation. Daher setzen allgemeine Optimierungsverfahren nur eine Unterroutine voraus, die das Verfahren nach dem Wert der Funktion und eventuell auch nach Ableitungsinformation in dem jeweils betrachteten Punkt befragen kann Orakel. Ist die Funktion doch analytisch gegeben, so erzeugen Modellierungssprachen wie AMPL, GAMS,... automatisch entsprechende Orakel/Unterroutinen, die den Funktionswert und zusätzlich Ableitungsinformation liefern. Ein Orakel. Ordnung berechnet für gegebenes R n nur den Funktionswert f (), aber keine Ableitungsinformation. Verfahren für glatte Funktionen benötigen Ableitungsinformation und approimieren diese numerisch durch vielfache Funktionsaufrufe (siehe später). Vorlesung II Freie Optimierung 6 / 6
27 Orakel. Ordnung: f (), f () Für R n werden Funktionswert f () und Gradient f () R n berechnet. Vorlesung II Freie Optimierung 7 / 6
28 Orakel. Ordnung: f (), f () Für R n werden Funktionswert f () und Gradient f () R n berechnet. Gradient: f () Gradient in =., y= f () :=..5 f n () f () zeigt in Richtung des steilsten Anstiegs von f in. f () misst die Größe des Anstiegs. ] ist der Normalvektor [ f () zur Tangentialebene ] } an den Graphen ] : R n von f in. {[ f () [ f () f(,y) y f y Vorlesung II Freie Optimierung 8 / 6
29 Orakel. Ordnung: f (), f () Für R n werden Funktionswert f () und Gradient f () R n berechnet. Gradient: f () Gradient in =., y= f () :=..5 f n () f () zeigt in Richtung des steilsten Anstiegs von f in. f () misst die Größe des Anstiegs. ] ist der Normalvektor [ f () zur Tangentialebene ] } an den Graphen ] : R n von f in. {[ f () [ f () Die Tangentialebene bildet das lineare Modell von f in der Nähe von : f(,y) f () := f ( ) + f ( ) T ( ). Für nahe bei ist es eine gute Näherung an f (): lim f () f ( ) f ( ) T ( ) f ( + h) f ( ) f ( ) T h = lim =. h h Vorlesung II Freie Optimierung 9 / y f y
30 Orakel. Ordnung: f (), f () Für R n werden Funktionswert f () und Gradient f () R n berechnet. Gradient: f () Gradient in =, y=.5 f () :=..5 f n () f () zeigt in Richtung des steilsten Anstiegs von f in. f () misst die Größe des Anstiegs. ] ist der Normalvektor [ f () zur Tangentialebene ] } an den Graphen ] : R n von f in. {[ f () [ f () f(,y) y y Die Tangentialebene bildet das lineare Modell von f in der Nähe von : f () := f ( ) + f ( ) T ( ). Für nahe bei ist es eine gute Näherung an f (): lim f () f ( ) f ( ) T ( ) f ( + h) f ( ) f ( ) T h = lim =. h h Vorlesung II Freie Optimierung / 6 f
31 Orakel. Ordnung: f (), f () Für R n werden Funktionswert f () und Gradient f () R n berechnet. Gradient: f () Gradient in =.9, y= f () :=..5 f n () f () zeigt in Richtung des steilsten Anstiegs von f in. f () misst die Größe des Anstiegs. ] ist der Normalvektor [ f () zur Tangentialebene ] } an den Graphen ] : R n von f in. {[ f () [ f () Die Tangentialebene bildet das lineare Modell von f in der Nähe von : f(,y) f () := f ( ) + f ( ) T ( ). Für nahe bei ist es eine gute Näherung an f (): lim f () f ( ) f ( ) T ( ) f ( + h) f ( ) f ( ) T h = lim =. h h Vorlesung II Freie Optimierung / y y f
32 Orakel. Ordnung: f (), f () Für R n werden Funktionswert f () und Gradient f () R n berechnet. Gradient: f () Gradient in =.8, y=.5 f () :=..5 f n () f () zeigt in Richtung des steilsten Anstiegs von f in. f () misst die Größe des Anstiegs. ] ist der Normalvektor [ f () zur Tangentialebene ] } an den Graphen ] : R n von f in. {[ f () [ f () y f Die Tangentialebene bildet das lineare Modell von f in der Nähe von : f(,y) f () := f ( ) + f ( ) T ( ). Für nahe bei ist es eine gute Näherung an f (): lim f () f ( ) f ( ) T ( ) f ( + h) f ( ) f ( ) T h = lim =. h h Vorlesung II Freie Optimierung / 6 y
33 Orakel. Ordnung: f (), f () Für R n werden Funktionswert f () und Gradient f () R n berechnet. Gradient: f () Gradient in =.7, y= f () :=..5 f n () f () zeigt in Richtung des steilsten Anstiegs von f in. f () misst die Größe des Anstiegs. ] ist der Normalvektor [ f () zur Tangentialebene ] } an den Graphen ] : R n von f in. {[ f () [ f () Die Tangentialebene bildet das lineare Modell von f in der Nähe von : f(,y) f () := f ( ) + f ( ) T ( ). Für nahe bei ist es eine gute Näherung an f (): lim f () f ( ) f ( ) T ( ) f ( + h) f ( ) f ( ) T h = lim =. h h Vorlesung II Freie Optimierung / y y f
34 Gradient und Richtungsableitung, lineares Modell Das lineare Modell von f in hat in jede Richtung h R n den gleichen Anstieg wie f in : die Richtungsableitung von f in in Richtung h, f ( ) T f ( + αh) f ( ) h = lim =: D h f ( ) α α [= Ableitung d dαφ() der D-Funktion Φ : R R, Φ(α) := f ( + αh)] Vorlesung II Freie Optimierung 4 / 6
35 Gradient und Richtungsableitung, lineares Modell Das lineare Modell von f in hat in jede Richtung h R n den gleichen Anstieg wie f in : die Richtungsableitung von f in in Richtung h, f ( ) T f ( + αh) f ( ) h = lim =: D h f ( ) α α [= Ableitung d dαφ() der D-Funktion Φ : R R, Φ(α) := f ( + αh)] Gradient in (,y)=(.,), h=(.8,.8) (,y)=(.,), h=(.8,.8).5 f(,y) y h f y Vorlesung II Freie Optimierung 5 / 6 Φ(α), lineares Modell α
36 Gradient und Richtungsableitung, lineares Modell Das lineare Modell von f in hat in jede Richtung h R n den gleichen Anstieg wie f in : die Richtungsableitung von f in in Richtung h, f ( ) T f ( + αh) f ( ) h = lim =: D h f ( ) α α [= Ableitung d dαφ() der D-Funktion Φ : R R, Φ(α) := f ( + αh)] Gradient in (,y)=(.,), h=(,.5) (,y)=(.,), h=(,.5).5 f(,y) y y h f Vorlesung II Freie Optimierung 6 / 6 Φ(α), lineares Modell α
37 Gradient und Richtungsableitung, lineares Modell Das lineare Modell von f in hat in jede Richtung h R n den gleichen Anstieg wie f in : die Richtungsableitung von f in in Richtung h, f ( ) T f ( + αh) f ( ) h = lim =: D h f ( ) α α [= Ableitung d dαφ() der D-Funktion Φ : R R, Φ(α) := f ( + αh)] Gradient in (,y)=(.8,.5), h=(, ) (,y)=(.8,.5), h=(, ).5 f(,y) y y f h Vorlesung II Freie Optimierung 7 / 6 Φ(α), lineares Modell α
38 Gradient und Richtungsableitung, lineares Modell Das lineare Modell von f in hat in jede Richtung h R n den gleichen Anstieg wie f in : die Richtungsableitung von f in in Richtung h, f ( ) T f ( + αh) f ( ) h = lim =: D h f ( ) α α [= Ableitung d dαφ() der D-Funktion Φ : R R, Φ(α) := f ( + αh)] Gradient in (,y)=(.8,.5), h=(.,.8) (,y)=(.8,.5), h=(.,.8).5 f(,y) y y f h Vorlesung II Freie Optimierung 8 / 6 Φ(α), lineares Modell α
39 Gradient und Richtungsableitung, lineares Modell Das lineare Modell von f in hat in jede Richtung h R n den gleichen Anstieg wie f in : die Richtungsableitung von f in in Richtung h, f ( ) T f ( + αh) f ( ) h = lim =: D h f ( ) [D λh f ( ) = λd h f ( )] α α [= Ableitung d dαφ() der D-Funktion Φ : R R, Φ(α) := f ( + αh)] Gradient in (,y)=(.,), h=(.8,.8) (,y)=(.,), h=(.8,.8).5 f(,y) y h f y Vorlesung II Freie Optimierung 9 / 6 Φ(α), lineares Modell α
40 Gradient und Richtungsableitung, lineares Modell Das lineare Modell von f in hat in jede Richtung h R n den gleichen Anstieg wie f in : die Richtungsableitung von f in in Richtung h, f ( ) T f ( + αh) f ( ) h = lim =: D h f ( ) [D λh f ( ) = λd h f ( )] α α [= Ableitung d dαφ() der D-Funktion Φ : R R, Φ(α) := f ( + αh)] Gradient in (,y)=(.,), h=(.,.) (,y)=(.,), h=(.,.).5 f(,y) y h f y Vorlesung II Freie Optimierung 4 / 6 Φ(α), lineares Modell α
41 Orakel. Ordnung: f (), f (), f () Für R n werden f ( ), f ( ) und Hessematri f ( ) (. Abl.) berechnet. Vorlesung II Freie Optimierung 4 / 6
42 Orakel. Ordnung: f (), f (), f () Für R n werden f ( ), f ( ) und Hessematri f ( ) (. Abl.) berechnet. f ()... f Quadratisches Modell in =., y= n () f () := f n ()... f n n ().5 f () ist symmetrisch, falls f zweimal stetig differenzierbar ist..5 f () best. die Krümmung von f.5 Das quadrat. Modell aus[ f (),] f (), f () schmiegt sich in f () an den ] } Graphen : R n y von f an. {[ f () f ( ), f ( ) und f ( ) bilden das quadratische Modell von f um, f () := f ( ) + f ( ) T ( ) + ( )T f ( )( ). Für nahe bei ist es eine sehr gute Näherung an f : f () f ( ) f ( ) lim T ( ) ( )T f ( )( ) =. Vorlesung II Freie Optimierung 4 / 6 f(,y)
43 Orakel. Ordnung: f (), f (), f () Für R n werden f ( ), f ( ) und Hessematri f ( ) (. Abl.) berechnet. f ()... f Quadratisches Modell in =, y=.5 n () f () := f n ()... f n n ().5 f () ist symmetrisch, falls f zweimal stetig differenzierbar ist..5 f () best. die Krümmung von f.5 Das quadrat. Modell aus[ f (),] f (), f () schmiegt sich in f () an den ] } Graphen : R n y von f an. {[ f () f ( ), f ( ) und f ( ) bilden das quadratische Modell von f um, f () := f ( ) + f ( ) T ( ) + ( )T f ( )( ). Für nahe bei ist es eine sehr gute Näherung an f : f () f ( ) f ( ) lim T ( ) ( )T f ( )( ) =. Vorlesung II Freie Optimierung 4 / 6 f(,y)
44 Orakel. Ordnung: f (), f (), f () Für R n werden f ( ), f ( ) und Hessematri f ( ) (. Abl.) berechnet. f ()... f Quadratisches Modell in =.9, y= n () f () := f n ()... f n n ().5 f () ist symmetrisch, falls f zweimal stetig differenzierbar ist..5 f () best. die Krümmung von f.5 Das quadrat. Modell aus[ f (),] f (), f () schmiegt sich in f () an den ] } Graphen : R n y von f an. {[ f () f ( ), f ( ) und f ( ) bilden das quadratische Modell von f um, f () := f ( ) + f ( ) T ( ) + ( )T f ( )( ). Für nahe bei ist es eine sehr gute Näherung an f : f () f ( ) f ( ) lim T ( ) ( )T f ( )( ) =. Vorlesung II Freie Optimierung 44 / 6 f(,y)
45 Orakel. Ordnung: f (), f (), f () Für R n werden f ( ), f ( ) und Hessematri f ( ) (. Abl.) berechnet. f ()... f Quadratisches Modell in =.8, y=.5 n () f () := f n ()... f n n ().5 f () ist symmetrisch, falls f zweimal stetig differenzierbar ist..5 f () best. die Krümmung von f.5 Das quadrat. Modell aus[ f (),] f (), f () schmiegt sich in f () an den ] } Graphen : R n y von f an. {[ f () f ( ), f ( ) und f ( ) bilden das quadratische Modell von f um, f () := f ( ) + f ( ) T ( ) + ( )T f ( )( ). Für nahe bei ist es eine sehr gute Näherung an f : f () f ( ) f ( ) lim T ( ) ( )T f ( )( ) =. Vorlesung II Freie Optimierung 45 / 6 f(,y)
46 Orakel. Ordnung: f (), f (), f () Für R n werden f ( ), f ( ) und Hessematri f ( ) (. Abl.) berechnet. f ()... f Quadratisches Modell in =.7, y= n () f () := f n ()... f n n ().5 f () ist symmetrisch, falls f zweimal stetig differenzierbar ist..5 f () best. die Krümmung von f.5 Das quadrat. Modell aus[ f (),] f (), f () schmiegt sich in f () an den ] } Graphen : R n y von f an. {[ f () f ( ), f ( ) und f ( ) bilden das quadratische Modell von f um, f () := f ( ) + f ( ) T ( ) + ( )T f ( )( ). Für nahe bei ist es eine sehr gute Näherung an f : f () f ( ) f ( ) lim T ( ) ( )T f ( )( ) =. Vorlesung II Freie Optimierung 46 / 6 f(,y)
47 Quadratisches Modell in Richtung h Das quadratische Modell von f in hat in jede Richtung h R n die gleiche Steigung und Krümmung wie f in. f ( + αh) = f ( ) + α f ( ) T h + α ht f ( )h. [Taylor-Entw.. Ordnung der D-Funktion Φ : R R, Φ(α) := f ( + αh)] Vorlesung II Freie Optimierung 47 / 6
48 f(,y) Quadratisches Modell in Richtung h Das quadratische Modell von f in hat in jede Richtung h R n die gleiche Steigung und Krümmung wie f in. f ( + αh) = f ( ) + α f ( ) T h + α ht f ( )h. [Taylor-Entw.. Ordnung der D-Funktion Φ : R R, Φ(α) := f ( + αh)] quad. Modell in (,y)=(.,), h=(.8,.8) y h f y (,y)=(.,), h=(.8,.8) Vorlesung II Freie Optimierung 48 / 6 Φ(α), quadratisches Modell α
49 f(,y) Quadratisches Modell in Richtung h Das quadratische Modell von f in hat in jede Richtung h R n die gleiche Steigung und Krümmung wie f in. f ( + αh) = f ( ) + α f ( ) T h + α ht f ( )h. [Taylor-Entw.. Ordnung der D-Funktion Φ : R R, Φ(α) := f ( + αh)] quad. Modell in (,y)=(.,), h=(,.5) y y h f (,y)=(.,), h=(,.5) Vorlesung II Freie Optimierung 49 / 6 Φ(α), quadratisches Modell α
50 f(,y) Quadratisches Modell in Richtung h Das quadratische Modell von f in hat in jede Richtung h R n die gleiche Steigung und Krümmung wie f in. f ( + αh) = f ( ) + α f ( ) T h + α ht f ( )h. [Taylor-Entw.. Ordnung der D-Funktion Φ : R R, Φ(α) := f ( + αh)] quad. Modell in (,y)=(.8,.5), h=(, ) y y f h (,y)=(.8,.5), h=(, ) Vorlesung II Freie Optimierung 5 / 6 Φ(α), quadratisches Modell α
51 Quadratisches Modell in Richtung h Das quadratische Modell von f in hat in jede Richtung h R n die gleiche Steigung und Krümmung wie f in. f ( + αh) = f ( ) + α f ( ) T h + α ht f ( )h. [Taylor-Entw.. Ordnung der D-Funktion Φ : R R, Φ(α) := f ( + αh)] quad. Modell in (,y)=(.8,.5), h=(.,.8) f(,y) y y f h (,y)=(.8,.5), h=(.,.8) Vorlesung II Freie Optimierung 5 / 6 Φ(α), quadratisches Modell α
52 Klein-o-Notation Für glatte Funktionen gilt: f ( + h) f ( ) f ( ) T h lim =. h h Andere Notation dafür: f ( + h) = f ( )+ f ( ) T h+ o( h ). Lies: Die lineare Funktion f ( )+ f ( ) T h ist in der Nähe von ein solch gute Näherung für die Funktion f ( + h), dass der Unterschied zwischen den beiden schneller als h gegen null geht. Vorlesung II Freie Optimierung 5 / 6
53 Klein-o-Notation Für glatte Funktionen gilt: f ( + h) f ( ) f ( ) T h lim =. h h Andere Notation dafür: f ( + h) = f ( )+ f ( ) T h+ o( h ). Lies: Die lineare Funktion f ( )+ f ( ) T h ist in der Nähe von ein solch gute Näherung für die Funktion f ( + h), dass der Unterschied zwischen den beiden schneller als h gegen null geht. Analog für das quadratische Modell: f ( + h) = f ( )+ f ( ) T h+ ht f ( )h + o( h ). Vorlesung II Freie Optimierung 5 / 6
54 Klein-o-Notation Für glatte Funktionen gilt: f ( + h) f ( ) f ( ) T h lim =. h h Andere Notation dafür: f ( + h) = f ( )+ f ( ) T h+ o( h ). Lies: Die lineare Funktion f ( )+ f ( ) T h ist in der Nähe von ein solch gute Näherung für die Funktion f ( + h), dass der Unterschied zwischen den beiden schneller als h gegen null geht. Analog für das quadratische Modell: f ( + h) = f ( )+ f ( ) T h+ ht f ( )h + o( h ). Das Landau-Symbol g(h) = o( g(h)) steht immer als Ersatz für eine nicht weiter interessierende Funktion g(h) mit der Eigenschaft g(h) lim h g(h) =. Also: g(h) wird schneller klein als g(h) für h. Vorlesung II Freie Optimierung 54 / 6
55 Klein-o-Notation Bei Folgen: g( (k) ) = o( g( (k) )), falls gilt: g( (k) ) lim k g( (k) ) =. Vorlesung II Freie Optimierung 55 / 6
56 Niveaumengen und Niveaulinien Verfahren der freien nichtlinearen Optimierung betrachten nur Punkte mit besserem Zielfunktionswert als dem derzeitigen, also nur Punkte aus der r Niveaumenge von f zu einem Wert r R, S r (f ) := { R n : f () r}. f S (f) r Vorlesung II Freie Optimierung 56 / 6
57 Niveaumengen und Niveaulinien Verfahren der freien nichtlinearen Optimierung betrachten nur Punkte mit besserem Zielfunktionswert als dem derzeitigen, also nur Punkte aus der Niveaumenge von f zu einem Wert r R, S r (f ) := { R n : f () r}. f r S (f) r Funktionsdarstellungen über Niveaulinien [ Linien ] N r (f ) := { R n : f () = r} (contour plots) helfen, Verfahren zu illustrieren. [Höhenlinien in Landkarten, Wetterkarten] Beachte: Der Gradient ist immer orthogonal zur Niveaulinie, denn für, + h N r (f ) gilt = f ( + h) f () = f () T h + o( h ). Beispiel: quadratische Funktion T Q + q T + d mit Q positiv definit Vorlesung II Freie Optimierung 57 / 6
58 Niveaumengen und Niveaulinien Verfahren der freien nichtlinearen Optimierung betrachten nur Punkte mit besserem Zielfunktionswert als dem derzeitigen, also nur Punkte aus der Niveaumenge von f zu einem Wert r R, S r (f ) := { R n : f () r}. f r S (f) r Funktionsdarstellungen über Niveaulinien [ Linien ] N r (f ) := { R n : f () = r} (contour plots) helfen, Verfahren zu illustrieren. [Höhenlinien in Landkarten, Wetterkarten] Beachte: Der Gradient ist immer orthogonal zur Niveaulinie, denn für, + h N r (f ) gilt = f ( + h) f () = f () T h + o( h ). Beispiel: quadratische Funktion T Q + q T + d mit Q indefinit Vorlesung II Freie Optimierung 58 / 6
59 Niveaumengen und Niveaulinien Verfahren der freien nichtlinearen Optimierung betrachten nur Punkte mit besserem Zielfunktionswert als dem derzeitigen, also nur Punkte aus der Niveaumenge von f zu einem Wert r R, S r (f ) := { R n : f () r}. f r S (f) r Funktionsdarstellungen über Niveaulinien [ Linien ] N r (f ) := { R n : f () = r} (contour plots) helfen, Verfahren zu illustrieren. [Höhenlinien in Landkarten, Wetterkarten] Beachte: Der Gradient ist immer orthogonal zur Niveaulinie, denn für, + h N r (f ) gilt = f ( + h) f () = f () T h + o( h ). Beispiel: quadratische Funktion T Q + q T + d mit Q negativ definit Vorlesung II Freie Optimierung 59 / 6
60 Niveaumengen und Niveaulinien Verfahren der freien nichtlinearen Optimierung betrachten nur Punkte mit besserem Zielfunktionswert als dem derzeitigen, also nur Punkte aus der Niveaumenge von f zu einem Wert r R, S r (f ) := { R n : f () r}. f r S (f) r Funktionsdarstellungen über Niveaulinien [ Linien ] N r (f ) := { R n : f () = r} (contour plots) helfen, Verfahren zu illustrieren. [Höhenlinien in Landkarten, Wetterkarten] Beachte: Der Gradient ist immer orthogonal zur Niveaulinie, denn für, + h N r (f ) gilt = f ( + h) f () = f () T h + o( h ). Beispiel: quadratische Funktion T Q + q T + d mit Q positiv semidefinit Vorlesung II Freie Optimierung 6 / 6
61 Niveaumengen und Niveaulinien Verfahren der freien nichtlinearen Optimierung betrachten nur Punkte mit besserem Zielfunktionswert als dem derzeitigen, also nur Punkte aus der Niveaumenge von f zu einem Wert r R, S r (f ) := { R n : f () r}. f r S (f) r Funktionsdarstellungen über Niveaulinien [ Linien ] N r (f ) := { R n : f () = r} (contour plots) helfen, Verfahren zu illustrieren. [Höhenlinien in Landkarten, Wetterkarten] Beachte: Der Gradient ist immer orthogonal zur Niveaulinie, denn für, + h N r (f ) gilt = f ( + h) f () = f () T h + o( h ). Beispiel: Rosenbrock-Funktion (banana shape) f (, y) = 4 [(y ) + ( ) ] Minimum wird in (,) angenommen. y Vorlesung II Freie Optimierung 6 / 6
Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau
Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau Ziele: Einführung in richtige Einordnung von Optimierungsproblemen Modellierungstechniken praktische Umsetzung
MehrOptimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen
Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel
MehrOptimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen
Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Dr. Nico Düvelmeyer Freitag, 8. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 NLP Aufgabe KKT 2 Nachtrag
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den
MehrTeil II. Nichtlineare Optimierung
Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene
MehrMathematik 1 für Wirtschaftsinformatik
Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration
MehrOptimierung. Florian Jarre Josef Stoer. Springer
2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Florian Jarre Josef Stoer Optimierung Springer Inhaltsverzeichnis
MehrMathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz
Mathematik für Bioinformatik und Systembiologie - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz WS 2009/10 Universität Freiburg Dieses Vorlesungsskript ist auf der Basis von Vorlesungen
MehrNichtlineare Optimierung ohne Nebenbedingungen
Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt
MehrNichtlineare Optimierungsprobleme mit Komplexität
Definition eines Nichtlinearen Optimierungsproblemes (NLP) min f (x) bzw. min f (x) s.d. x S x S wobei die zulässige Menge S R n typischerweise definiert ist durch S {x R n : h(x) =, c(x) } für Gleichungs-
MehrOptimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg
Universität Regensburg Wintersemester 2012/13 1 Einführung Anwendungen Finanzwirtschaft: maximale Gewinnrate unter Beschränkungen an das Risiko; Portfolio von Investments Produktion: maximiere Gewinn bei
MehrOptimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen
Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Dr. Abebe Geletu Ilmenau University of Technology Department of Simulation and Optimal Processes
Mehr17. Penalty- und Barriere-Methoden
H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende
MehrOptimierung mit Matlab
Lehrstuhl Mathematik, insbesondere Numerische und Angewandte Mathematik Prof. Dr. L. Cromme Computerbasierte Mathematische Modellierung für Mathematiker, Wirtschaftsmathematiker, Informatiker im Wintersemester
MehrOptimalitätskriterien
Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen
MehrDie CUTEr Testbibliothek
Die CUTEr Testbibliothek Slide 1 Motivation Softwarepakete mit vollkommen verschiedenen Anwendungsschwerpunkten Optimierung entweder nur einer von vielen Schwerpunkten oder sogar nur Nebenprodukt zur Lösung
MehrGleichungen - Aufgabenstellung und Lösungsstrategien
Gleichungen - Aufgabenstellung und Lösungsstrategien Franz Pauer Institut für Mathematik, Universität Innsbruck, Technikerstr. 25, A-6020 Innsbruck, Österreich. Franz.Pauer@uibk.ac.at 18. Juli 2006 1 Einleitung
MehrInhaltsverzeichnis. 4 Lagrange-Funktion und Dualität... 63 4.1 Lagrange-FunktionmitGleichheitsrestriktionen... 63
1 Einleitung... 1 1.1 Optimierungstypen.............................................. 3 1.2 Motivation und Grundbegriffe der Optimierung........................... 4 1.3 Allgemeine Form des Optimierungsproblems............................
MehrMathematik I für Wirtschaftswissenschaftler
1 Mathematik I für Wirtschaftswissenschaftler Lösungsvorschläge zur Klausur am 01.08.2003. Bitte unbedingt beachten: a) Verlangt und gewertet werden alle vier gestellten Aufgaben. Alle Aufgaben sind gleichwertig.
MehrÜbungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009
Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.
MehrElemente der Analysis II
Elemente der Analysis II Kapitel 3: Lineare Abbildungen und Gleichungssysteme Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 15. Mai 2009 1 / 35 3.1 Beispiel
MehrEigenwerte und Eigenvektoren von Matrizen
Eigenwerte und Eigenvektoren von Matrizen Das Eigenwertproblem Sei A eine quadratische Matrix vom Typ m,m. Die Aufgabe, eine Zahl λ und einen dazugehörigen Vektor x zu finden, damit Ax = λx ist, nennt
MehrKommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler
Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Wintersemester 3/4 (.3.4). (a) Für z = + i und z = 3 4i berechne man z z und z z. Die Ergebnisse sind in kartesischer Form anzugeben.
MehrBestimmung einer ersten
Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,
MehrWirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)
Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2013/14 Hochschule Augsburg : Gliederung 1 Aussagenlogik 2 Lineare Algebra 3 Lineare Programme 4 Folgen
MehrKapitel 15: Differentialgleichungen
FernUNI Hagen WS 00/03 Kapitel 15: Differentialgleichungen Differentialgleichungen = Gleichungen die Beziehungen zwischen einer Funktion und mindestens einer ihrer Ableitungen herstellen. Kommen bei vielen
MehrDie Verbindung von Linearer Programmierung und Graphentheorie
Die Verbindung von Linearer Programmierung und Graphentheorie Definition 5.9. Ein kombinatorisches Optimierungsproblem entspricht einem LP, bei dem statt der Vorzeichenbedingungen x i 0 Bedingungen der
MehrMATTHIAS GERDTS. Einführung in die lineare und nichtlineare Optimierung
MATTHIAS GERDTS Einführung in die lineare und nichtlineare Optimierung Address of the Author: Matthias Gerdts Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Universität
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
1 Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Einleitung Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 11. Oktober 2013) 2 Kommunikationsnetzwerke...
MehrUNIVERSITÄT DORTMUND FACHBEREICH INFORMATIK
UNIVERSITÄT DORTMUND FACHBEREICH INFORMATIK Thomas Fober Experimentelle Analyse Evolutionärer Algorithmen auf dem CEC 2005 Testfunktionensatz Diplomarbeit 01.07.2006 I N T E R N E B E R I C H T E I N T
MehrARBEITSUNTERLAGEN ZUR VORLESUNG UND ÜBUNG AN DER UNIVERSITÄT DES SAARLANDES LINEARE OPTIMIERUNG
¾ REITSUNTERLGEN ZUR VORLESUNG UND ÜUNG N DER UNIVERSITÄT DES SRLNDES LINERE OPTIMIERUNG IM SS Lineare Optimierung (SS ). ufgabe (Graphische Lineare Optimierung) Nach einem anstrengenden Semester steht
MehrRechnerpraktikum zur Optimierung III
TU München Lehrstuhl Mathematische Optimierung Prof. Dr. M. Ulbrich Dipl.-Math. Florian Lindemann Sommersemester 2007 Teil I Rechnerpraktikum zur Optimierung III P1. Durchhängenes Seil Die senkrechten
Mehr3 Konvexe Analysis. 3.1 Grundlagen
25 3 Konvee Analsis 3.1 Grundlagen Die konvee Analsis auch Konveitätstheorie genannt untersucht geometrische Eigenschaften von konveen Mengen, Funktionen und Funktionalen in linearen Räumen. Eine tpische
MehrDIFFERENTIALGLEICHUNGEN
DIFFERENTIALGLEICHUNGEN GRUNDBEGRIFFE Differentialgleichung Eine Gleichung, in der Ableitungen einer unbekannten Funktion y = y(x) bis zur n-ten Ordnung auftreten, heisst gewöhnliche Differentialgleichung
MehrInhaltsverzeichnis. Vorwort... V. Symbolverzeichnis... XIII
Inhaltsverzeichnis Vorwort................................................................. V Symbolverzeichnis...................................................... XIII Kapitel 1: Einführung......................................................
MehrOptimal Control in Air Traffic Management
Optimal Control in Air Traffic Management DGLR Workshop Bestimmung optimaler Trajektorien im Air Traffic Management 23.04.2013 Deutsche Flugsicherung GmbH, Langen 23.04.2013 1 Inhalt. Hintergrund und Motivation.
MehrPraktikum Statische Prozessoptimierung. VERSUCH StatPO-1 Nichtlineare Optimierung
Fakultät für Informatik und Automatisierung Institut für Automatisierungs und Systemtechnik Fachgebiet Simulation und Optimale Prozesse Praktikum Statische Prozessoptimierung VERSUCH StatPO-1 Nichtlineare
MehrEinführung in die Optimierung Sommersemester 2005. Anita Schöbel
Einführung in die Optimierung Sommersemester 2005 Anita Schöbel 9. Juli 2010 Vorwort Das vorliegende Vorlesungsskript entstand aufgrund der Notizen der von mir im Sommersemester 2005 gehaltenen Vorlesung
MehrEinführung. Kapitel 1. Peter Becker (H-BRS) Operations Research I Sommersemester 2015 14 / 298
Kapitel 1 Einführung Peter Becker (H-BRS) Operations Research I Sommersemester 2015 14 / 298 Inhalt Inhalt 1 Einführung Was ist Operations Research? Planungsprozess im OR Peter Becker (H-BRS) Operations
MehrKernel, Perceptron, Regression. Erich Schubert, Arthur Zimek. 2014-07-20 KDD Übung
Kernel, Perceptron, Regression Erich Schubert, Arthur Zimek Ludwig-Maximilians-Universität München 2014-07-20 KDD Übung Kernel-Fukctionen Kernel kann mehrdeutig sein! Unterscheidet zwischen: Kernel function
MehrOptimierung. Optimierung. Vorlesung 7 Lineare Programmierung II. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 7 Lineare Programmierung II 1 Lineare Programme Lineares Programm: Lineare Zielfunktion Lineare Nebenbedingungen (Gleichungen oder Ungleichungen) Spezialfall der konvexen Optimierung
MehrBitte unbedingt beachten: a) Gewertet werden alle acht gestellten Aufgaben.
Mathematik I für Wirtschaftswissenschaftler Klausur für alle gemeldeten Fachrichtungen außer Immobilientechnik und Immobilienwirtschaft am 9..9, 9... Bitte unbedingt beachten: a) Gewertet werden alle acht
MehrEntwurf robuster Regelungen
Entwurf robuster Regelungen Kai Müller Hochschule Bremerhaven Institut für Automatisierungs- und Elektrotechnik z P v K Juni 25 76 5 OPTIMALE ZUSTANDSREGELUNG 5 Optimale Zustandsregelung Ein optimaler
MehrInstitut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg OPTIMIERUNG II. Aufgaben und Lösungen
Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg OPTIMIERUNG II Aufgaben und Lösungen SS 2005 Aufgaben Aufgabe 41 Ein Betrieb stellt zwei Produkte P 1 und P 2 her, die die
MehrOuter Approximation für konvexe MINLP-Probleme
Outer Approximation für konvexe MINLP-Probleme im Rahmen des Sears Globale Optimierung unter Leitung von Dr. Johannes Schlöder und Dr. Ekaterina Kostina, Sommersemester 2005, Universität Heidelberg Hans
MehrComputer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10
Computer Vision: AdaBoost D. Schlesinger () Computer Vision: AdaBoost 1 / 10 Idee Gegeben sei eine Menge schwacher (einfacher, schlechter) Klassifikatoren Man bilde einen guten durch eine geschickte Kombination
MehrGrundkurs Mathematische Optimierung (für mathematische Studiengänge) Prof. Dr. Beer
Grundkurs Mathematische Optimierung (für mathematische Studiengänge) Prof. Dr. Beer Literaturverzeichnis [1] Elster, Reinhardt, Schäuble, Donath: Einführung in die nichtlineare Optimierung, Teubner-Verlag,
MehrAnwendung der Theorie von Gauß Shift Experimenten auf den Kolmogorov Smirnov Test und das einseitige Boundary Crossing Problem
Anwendung der Theorie von Gauß Shift Experimenten auf den Kolmogorov Smirnov Test und das einseitige Boundary Crossing Problem Inauguraldissertation zur Erlangung des Doktorgrades der Mathematisch Naturwissenschaftlichen
MehrComputer Vision: Optische Flüsse
Computer Vision: Optische Flüsse D. Schlesinger TUD/INF/KI/IS Bewegungsanalyse Optischer Fluss Lokale Verfahren (Lukas-Kanade) Globale Verfahren (Horn-Schunck) (+ kontinuierliche Ansätze: mathematische
MehrLineare Programmierung
Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in
Mehr4. Dynamische Optimierung
4. Dynamische Optimierung Allgemeine Form dynamischer Optimierungsprobleme 4. Dynamische Optimierung Die dynamische Optimierung (DO) betrachtet Entscheidungsprobleme als eine Folge voneinander abhängiger
MehrHöhere Mathematik III für Wirtschaftsinformatiker
TU Ilmenau Institut für Mathematik Prof. Dr. S. Vogel Höhere Mathematik III für Wirtschaftsinformatiker Funktionen von mehreren Variablen. Grenzwerte und Stetigkeit Betrachtet werden Funktionen f : D f
MehrSchranken für zulässige Lösungen
Schranken für zulässige Lösungen Satz 5.9 Gegeben seien primales und duales LP gemäß der asymmetrischen Form der Dualität. Wenn x eine zulässige Lösung des primalen Programms und u eine zulässige Lösung
MehrDefinition 3.1: Ein Differentialgleichungssystem 1. Ordnung
Kapitel 3 Dynamische Systeme Definition 31: Ein Differentialgleichungssystem 1 Ordnung = f(t, y) ; y R N ; f : R R N R N heißt namisches System auf dem Phasenraum R N Der Parameter t wird die Zeit genannt
MehrVorlesung. Funktionen/Abbildungen 1
Vorlesung Funktionen/Abbildungen 1 1 Grundlagen Hinweis: In dieser Vorlesung werden Funktionen und Abbildungen synonym verwendet. In der Schule wird eine Funktion häufig als eindeutige Zuordnung definiert.
MehrHeuristiken im Kontext von Scheduling
Heuristiken im Kontext von Scheduling Expertenvortrag CoMa SS 09 CoMa SS 09 1/35 Übersicht Motivation Makespan Scheduling Lokale Suche Weitere Metaheuristiken Zusammenfassung Literatur CoMa SS 09 2/35
MehrModulbezeichnung in Englisch Algebra II Qualifikationsstufe/Geberstudien Bachelormodul/ Lehramt Gymnasium. N.N. verantwortlicher. Modulverantwortung /
Algebra II Modulbezeichnung in Englisch Algebra II Qualifikationsstufe/Geberstudien Bachelormodul/ Lehramt Gymnasium 82-105-L-MAT09-H-0610 N.N. Lehramt (H. Fischer) Leistungspunkte (ECTS-Punkte) 5 Gründliches
MehrOBERE SCHRANKEN UND MOMENTENPROBLEME IN DER STOCHASTISCHEN PROGRAMMIERUNG: EIN VERGLEICH. P. Kall
OBERE SCHRANKEN UND MOMENTENPROBLEME IN DER STOCHASTISCHEN PROGRAMMIERUNG: EIN VERGLEICH P. Kall Universität Zürich Institut für Operations Research und mathematische Methoden der Wirtschaftswissenschaften
MehrNumerische Verfahren zur Lösung nichtlinearer Gleichungen
Kapitel 2 Numerische Verfahren zur Lösung nichtlinearer Gleichungen 21 Aufgabenstellung und Motivation Ist f eine in einem abgeschlossenen Intervall I = [a, b] stetige und reellwertige Funktion, so heißt
MehrModulabschlussklausur Analysis II
Modulabschlussklausur Analysis II. Juli 015 Bearbeitungszeit: 150 min Aufgabe 1 [5/10 Punkte] Es sei a R und f a : R 3 R mit f a (x, y, z) = x cos(y) + z 3 sin(y) + a 3 + (z + ay a y) cos(x) a) Bestimmen
MehrWissensbasierte Systeme 5. Constraint Satisfaction Probleme
Wissensbasierte Systeme 5. Constraint Satisfaction Probleme Michael Beetz Vorlesung Wissensbasierte Systeme 1 Inhalt 5.1 Begriffe 5.2 Constraint Satisfaction in Linienbildern 5.3 Beispielanwendungen 5.4
Mehr9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83
9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x
MehrVorlesung Wirtschaftsmathematik II SS 2015, 3/2 SWS. Prof. Dr. M. Voigt
Vorlesung Wirtschaftsmathematik II SS 2015, 3/2 SWS Prof. Dr. M. Voigt 2. März 2015 II Inhaltsverzeichnis 5 Grundlagen 1 5.1 Funktionen einer Variablen...................... 1 5.2 spezielle Funktionen.........................
MehrAnwendungen der Wirtschaftsmathematik und deren Einsatz im Schulunterricht
Anwendungen der Wirtschaftsmathematik und deren Einsatz im Schulunterricht Beispiele wirtschaftsmathematischer Modellierung Lehrerfortbildung, Speyer, Juni 2004-1- Beispiele wirtschaftsmathematischer Modellierung
MehrUnterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis
Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis Das komplette Material finden Sie hier: Download bei School-Scout.de
MehrNichtlineare Materialparameteroptimierung für reibungsbehaftete einachsige Elastomerdruckproben
VPE Symposium Nichtlineare Materialparameteroptimierung für reibungsbehaftete einachsige Elastomerdruckproben Autor: Dr.-Ing. Robert Eberlein Dozent für Mechanik Inhalt Beschreibung der Ausgangslage Problemstellung
MehrLINDO API, LINGO & What sbest! Power-Anwendungen für Optimierungsaufgaben
LINDO API, LINGO & What sbest! Power-Anwendungen für Optimierungsaufgaben Die LINDO SYSTEMS Produktfamilie Lösungen für unterschiedlichste Optimierungsprobleme. Lösungsmethoden und -algorithmen per API,
MehrAlgorithms for Regression and Classification
Fakultät für Informatik Effiziente Algorithmen und Komplexitätstheorie Algorithms for Regression and Classification Robust Regression and Genetic Association Studies Robin Nunkesser Fakultät für Informatik
MehrStatistische Versuchsplanung - zuverlässiger und schneller zu Ergebnissen" Dr. Uwe Waschatz
Statistische Versuchsplanung - zuverlässiger und schneller zu Ergebnissen" Dr. Uwe Waschatz Inhalt Problembeschreibung Multiple lineare Regressionsanalyse Statistische Versuchsplanung / Design of Experiments
MehrTechnische Mathematik
Lehrplan Technische Mathematik Fachschule für Technik Fachrichtungsbezogener Lernbereich Ministerium für Bildung, Kultur und Wissenschaft Hohenzollernstraße 60, 66117 Saarbrücken Postfach 10 24 52, 66024
MehrApproximationsalgorithmen: Klassiker I. Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling
Approximationsalgorithmen: Klassiker I Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling VO Approximationsalgorithmen WiSe 2011/12 Markus Chimani
MehrLösung des Hedging-Problems mittels Stochastischer Dynamischer Optimierung
Lösung des Hedging-Problems mittels Stochastischer Dynamischer Optimierung Ausarbeitung zum Vortrag im Seminar Stochastische Dynamische Optimierung vom 18.01.2008 Datum : 18.01.2008 Verfasser: Martin Schymalla
MehrCodeoptimierung mit linearer Programmierung
Seminarvortrag Codeoptimierung mit linearer Programmierung Hannes Jaschitsch unh@rz.uni-arlsruhe.de 4.6.003 Inhalt Digitale Signalprozessoren (DSPs) Befehlsanordnung mit dem ritchen Pfad Lineare Programme
MehrFinite Differenzen und Elemente
Dietrich Marsal Finite Differenzen und Elemente Numerische Lösung von Variationsproblemen und partiellen Differentialgleichungen Mit 64 Abbildungen Springer-Verlag Berlin Heidelberg NewYork London Paris
MehrZuammenfassung: Reelle Funktionen
Zuammenfassung: Reelle Funktionen 1 Grundlegendes a) Zahlenmengen IN = {1; 2; 3; 4;...} Natürliche Zahlen IN 0 = IN {0} Natürliche Zahlen mit 0 ZZ = {... ; 2; 1; 0; 1; 2;...} Ganze Zahlen Q = { z z ZZ,
MehrTEILWEISE ASYNCHRONE ALGORITHMEN
TEILWEISE ASYNCHRONE ALGORITHMEN FRANK LANGBEIN Literatur: D. Berseas, J. Tsitsilis: Parallel and distributed computatoin, pp. 48 489 URI: http://www.langbein.org/research/parallel/ Modell teilweiser asynchroner
MehrÜbung 3: Einfache Graphiken und Näherungen durch Regression
Übung 3: Einfache Graphiken und Näherungen durch Regression M. Schlup, 9. August 010 Aufgabe 1 Einfache Graphik Für die abgegebene Leistung P = UI eines linearen, aktiven Zweipols mit Leerlaufspannung
MehrEinführung in die Lineare Optimierung
Kapitel 2 Einführung in die Lineare Optimierung lineare Modelle der relevanten Umwelt werden wegen ihrer Einfachheit häufig gegenüber nichtlinearen Ansätzen vorgezogen, lineare Optimierungsprobleme können
MehrMethoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien
Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien Katharina Witowski katharina.witowski@dynamore.de Übersicht Beispiel Allgemeines zum LS-OPT Viewer Visualisierung von Simulationsergebnissen
MehrApproximationsalgorithmen
Ausarbeitung zum Thema Approximationsalgorithmen im Rahmen des Fachseminars 24. Juli 2009 Robert Bahmann robert.bahmann@gmail.com FH Wiesbaden Erstellt von: Robert Bahmann Zuletzt berarbeitet von: Robert
MehrStatische Optimierung unter Gleichungsrestriktionen (Lagrange)
Kapitel 2 Statische Optimierung unter Gleichungsrestriktionen (Lagrange) 21 Einleitung/Ziel/Bedeutung/Übersicht Viele ökonomischen Fragestellungen bestehen im Kern zwar aus einem statischen Optimierungsproblem,
MehrIn konstanten Modellen wird davon ausgegangen, dass die zu prognostizierende Größe sich über die Zeit hinweg nicht verändert.
Konstante Modelle: In konstanten Modellen wird davon ausgegangen, dass die zu prognostizierende Größe sich über die Zeit hinweg nicht verändert. Der prognostizierte Wert für die Periode T+i entspricht
MehrMathematik für Wirtschaftswissenschaftler: Übungsaufgaben
Mathematik für Wirtschaftswissenschaftler: Übungsaufgaben an der Fachhochschule Heilbronn im Wintersemester 2002/2003 Dr. Matthias Fischer Friedrich-Alexander-Universität Erlangen-Nürnberg Lehrstuhl für
MehrHöhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik
Höhere Mathematik 3 Apl. Prof. Dr. Norbert Knarr FB Mathematik Wintersemester 2015/16 4. Homogene lineare Dierentialgleichungen 4.1. Grundbegrie 4.1.1. Denition. Es sei J R ein Intervall und a 0 ; : :
MehrBinäre lineare Optimierung mit K*BMDs p.1/42
Binäre lineare Optimierung mit K*BMDs Ralf Wimmer wimmer@informatik.uni-freiburg.de Institut für Informatik Albert-Ludwigs-Universität Freiburg Binäre lineare Optimierung mit K*BMDs p.1/42 Grundlagen Binäre
MehrTransformation und Darstellung funktionaler Daten
Transformation und Darstellung funktionaler Daten Seminar - Statistik funktionaler Daten Jakob Bossek Fakultät für Statistik 7. Mai 2012 Übersicht Einleitung Einordnung im Seminar Motivation am Beispiel
MehrDownload. Mathematik üben Klasse 8 Funktionen. Differenzierte Materialien für das ganze Schuljahr. Jens Conrad, Hardy Seifert
Download Jens Conrad, Hard Seifert Mathematik üben Klasse 8 Funktionen Differenzierte Materialien für das ganze Schuljahr Downloadauszug aus dem Originaltitel: Mathematik üben Klasse 8 Funktionen Differenzierte
MehrKevin Caldwell. 18.April 2012
im Rahmen des Proseminars Numerische Lineare Algebra von Prof.Dr.Sven Beuchler 18.April 2012 Gliederung 1 2 3 Mathematische Beschreibung von naturwissenschaftlich-technischen Problemstellungen führt häufig
MehrKapitel 15. Lösung linearer Gleichungssysteme
Kapitel 15. Lösung linearer Gleichungssysteme Lineare Gleichungssysteme Wir befassen uns nun mit der Lösung im allgemeinen nichthomogener linearer Gleichungssysteme in zweifacher Hinsicht. Wir studieren
MehrEinführung in einige Teilbereiche der Wirtschaftsmathematik für Studierende des Wirtschaftsingenieurwesens
in einige Teilbereiche der für Studierende des Wirtschaftsingenieurwesens Sommersemester 2013 Hochschule Augsburg Kursrechnung Festverzinsliche Wertpapiere Wertpapier: Investor erwirbt für bestimmten Preis
MehrScheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É.
Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Tardos Janick Martinez Esturo jmartine@techfak.uni-bielefeld.de xx.08.2007 Sommerakademie Görlitz Arbeitsgruppe 5 Gliederung
Mehr2.4 Adaptive Verfahren mit Schrittweitensteuerung
0 0 0 Euler und RK4 fuer f(t,y) = t 0. Euler RK4 /N 0 0 f(t,y) =. t 0., graduiertes Gitter RK4 /N 4 Fehler bei T = 0 3 0 4 0 5 Fehler bei T = 0 5 0 0 0 6 0 7 0 0 0 0 2 0 3 0 4 0 5 Anzahl Schritte N 0 5
MehrEntscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?
Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum
MehrBachelorarbeit. Vergleich von Ansätzen zur numerischen Lösung von MPCCs am Beispiel eines Mautproblems
Bachelorarbeit Vergleich von Ansätzen zur numerischen Lösung von MPCCs am Beispiel eines Mautproblems Vorgelegt an der Professur für Numerische Mathematik (Partielle Differentialgleichungen) von Prof.
Mehr1 Ableiten der Sinus- und Kosinusfunktion
Schülerbuchseite 6 8 Lösungen vorläufig Ableiten der Sinus- und Kosinusfunktion S. 6 Vermutung: Da das Zeit-Weg-Diagramm eine Sinuskurve und das zugehörige Zeit-Geschwindigkeits-Diagramm 8 eine Kosinuskurve
Mehr2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht
2.5.2 Selbstorganisierte Karten: das Modell von Kohonen Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht zwischen den einzelnen Neuronen gibt, spielt deren räumliche Anordnung keine
MehrAnwendungen der linearen Programmierung
Anwendungen der linearen Programmierung BACHELOR-ARBEIT Referent Prof. Dr. Karl Frauendorfer vorgelegt von Simon Wehrmüller Universität St. Gallen Hochschule für Wirtschafts-, Rechts- und Sozialwissenschaften
MehrPRAKTIKUM Experimentelle Prozeßanalyse 2. VERSUCH AS-PA-2 "Methoden der Modellbildung statischer Systeme" Teil 2 (für ausgewählte Masterstudiengänge)
FACHGEBIET Systemanalyse PRAKTIKUM Experimentelle Prozeßanalyse 2 VERSUCH AS-PA-2 "Methoden der Modellbildung statischer Systeme" Teil 2 (für ausgewählte Masterstudiengänge) Verantw. Hochschullehrer: Prof.
Mehr