Optimierung für Nichtmathematiker

Größe: px
Ab Seite anzeigen:

Download "Optimierung für Nichtmathematiker"

Transkript

1 Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ /

2 Problemstellung Klassifikation Inhaltsübersicht Problemstellung und Grundbegriffe Klassifikation von Optimierungsaufgaben Vorlesung I Einführung und Motivation / 6

3 Problemstellung Klassifikation Überblick über spezielle Klassen von Optimierungsproblemen Jedes Verfahren ist zugeschnitten auf eine bestimmte Problemklasse. Diese unterscheiden sich nach den Eigenschaften der Funktionen f, g i, h i den Eigenschaften der Grundmenge Ω der Form, in der die Problemdaten gegeben sind den Ansprüchen an die Lösung (lokal/global/multikriteriell). Verfahren/Löser für viele wichtige Problemklassen gibt es auf dem NEOS Server for Optimization Vorlesung I Einführung und Motivation / 6

4 Problemstellung Klassifikation Nichtlineare Optimierung (NonLinear Programming) Minimiere f () unter h i () = i E g i () i I Ω f, g i, h i hinreichend glatt, C (R n ) oder C (R n ), d.h., mindestens einmal oder zweimal stetig differenzierbar, E und I endliche Mengen (unendlich: Semiinfinite Optimierung ) falls E = I = : freie/unrestringierte Optimierung sonst: restringierte Optimierung oder Opt. mit Nebenbed. Ω = R n (meist) Vorlesung I Einführung und Motivation 4 / 6

5 Problemstellung Klassifikation Nichtlineare Optimierung (NonLinear Programming) Minimiere f () unter h i () = i E g i () i I Ω f, g i, h i hinreichend glatt, C (R n ) oder C (R n ), d.h., mindestens einmal oder zweimal stetig differenzierbar, E und I endliche Mengen (unendlich: Semiinfinite Optimierung ) falls E = I = : freie/unrestringierte Optimierung sonst: restringierte Optimierung oder Opt. mit Nebenbed. Ω = R n Ziel: Anwendung: Verfahren: Input: Größe : (meist) lokales Optimum (aber oft schon Zulässigkeit schwer!) (nichtlineare) Parameterschätzung, Optimalsteuerung, Shape Optimization, Lösung nichtlinearer Gleichungssysteme,... Newton, Quasi-Newton,... (gute lokale Konvergenz) Line-Search, Trust-Region, CG,... (lokale Suche) Unterroutinen für Funktionswert, Gradient, (Hessematri) einige bis einige Variablen (mehr bei spez. Struktur) Vorlesung I Einführung und Motivation 5 / 6

6 Problemstellung Klassifikation Konvee Optimierung (Conve Optimization) Minimiere f () unter A = b g i () i I C f, g i konvee Funktionen A = b nur lineare Gleichungsnebenbedingungen! falls f, g i glatt smooth conve opt. falls f, g i nicht notw. diffb. nonsmooth conve opt. I endliche Menge C einfache konvee Menge (Bo, ganz R n,... ) Vorlesung I Einführung und Motivation 6 / 6

7 Problemstellung Klassifikation Konvee Optimierung (Conve Optimization) Minimiere f () unter A = b g i () i I C f, g i konvee Funktionen A = b nur lineare Gleichungsnebenbedingungen! falls f, g i glatt smooth conve opt. falls f, g i nicht notw. diffb. nonsmooth conve opt. I endliche Menge C einfache konvee Menge (Bo, ganz R n,... ) Ziel: globales Optimum Anwendung: Portfolio Design, Eperimental Design, Optimalsteuerung, Signal Processing, Berechnung von Schranken für nichtlineare Probleme,... Verfahren: smooth: Newton, Quasi-Newton,... nonsmooth: Subgradienten-, Bündel-Verfahren Input: Unterroutinen für Funktionswert, (Sub-)Gradient, (Hessematri) Größe : einige bis einige Var. (mehr bei spez. Struktur) Vorlesung I Einführung und Motivation 7 / 6

8 Problemstellung Klassifikation Konvee Opt. mit Struktur (Structured Conve Opt.) q( ) Minimiere q() unter A = b K lineare (affine) oder konve-quadratische Zielfunktion q() = c T (+ T Q mit Q symm. positiv semidefinit) lineare Gleichungs- oder auch Ungleichungsnebenbedingungen konvee Kegel spezieller Struktur q linear, K = R n +: Lineare Opt. (Linear Programming) A = b K q linear, K = Q n +: Second Order Cone Programming (SOCP) q linear, K = S n +: Semidefinite Opt. (SemiDefnite Pogramming.) q quadrat., K = R n +: (Konvee) Quadratische Opt. (QP) Vorlesung I Einführung und Motivation 8 / 6

9 Problemstellung Klassifikation Konvee Opt. mit Struktur (Structured Conve Opt.) q( ) Minimiere q() unter A = b K lineare (affine) oder konve-quadratische Zielfunktion q() = c T (+ T Q mit Q symm. positiv semidefinit) lineare Gleichungs- oder auch Ungleichungsnebenbedingungen konvee Kegel spezieller Struktur q linear, K = R n +: Lineare Opt. (Linear Programming) A = b K q linear, K = Q n +: Second Order Cone Programming (SOCP) q linear, K = S n +: Semidefinite Opt. (SemiDefnite Pogramming.) q quadrat., K = R n +: (Konvee) Quadratische Opt. (QP) Ziel: globales Optimum in kurzer Zeit Anwendung: Portfolio Design, Eperimental Design, Optimalsteuerung, Signal Processing, Berechnung von Schranken für ganzz. Probleme,... Verfahren: LP, SOCP, SDP, QP: Innere-Punkte-Verf. (mit Newton) LP: Simple Input: Koeffizienten der Matrizen und Vektoren (evtl. Kegeltyp) Größe : einige bis einige Millionen Variablen Vorlesung I Einführung und Motivation 9 / 6

10 Problemstellung Klassifikation Ganzzahlige Optimierung (Integer Programming) Minimiere c T unter A b Z n c T lineare Zielfunktion A b lineare Gleichungs- oder auch Ungleichungsnebenbedingungen Z n nur ganzzahlige Lösungen! verwandte Varianten: Binary Integer P.: {, } n ( kombinatorische Opt.) Mied Integer P.: R n Z n Mied Integer NonLinear P.: f, g i, h i nichtlinear Vorlesung I Einführung und Motivation / 6

11 Problemstellung Klassifikation Ganzzahlige Optimierung (Integer Programming) Minimiere c T unter A b Z n c T lineare Zielfunktion A b lineare Gleichungs- oder auch Ungleichungsnebenbedingungen Z n nur ganzzahlige Lösungen! verwandte Varianten: Binary Integer P.: {, } n ( kombinatorische Opt.) Mied Integer P.: R n Z n Mied Integer NonLinear P.: f, g i, h i nichtlinear Ziel: sehr problemabhängig (meist NP-schwer), gute Näherungslösung mit Gütegarantie Anwendung: Probleme mit Entscheidungskomponenten, z.b. Flüsse in Netzwerken, Zuweisungs-, Transport-, Standortprobleme, VLSI-Design, Basisauswahl,... Verfahren: Input: Größe : konvee/lineare Relaation, lokale Suche/Rundungsheuristiken, eakte Lösung durch Branch and Bound (effiz. Enumerieren), für sehr spezielle Probleme: eakte Algorithmen von Koeffizienten der Matrizen bis hin zu strukturnutzenden Zusatzroutinen etrem problemabhängig, von unter bis zu Millionen Vorlesung I Einführung und Motivation / 6

12 Problemstellung Klassifikation Globale Optimierung (Global Optimization) f, g i, h i E und I Ω Minimiere f () unter h i () = i E g i () i I Ω hinreichend glatt von bekannter Struktur (z.b. Polynome) es können Unterschätzer konstruiert werden (kleine) endliche Mengen einfache konvee Menge (Bo) Vorlesung I Einführung und Motivation / 6

13 Problemstellung Klassifikation Globale Optimierung (Global Optimization) f, g i, h i E und I Ω Minimiere f () unter h i () = i E g i () i I Ω hinreichend glatt von bekannter Struktur (z.b. Polynome) es können Unterschätzer konstruiert werden (kleine) endliche Mengen einfache konvee Menge (Bo) Ziel: globales Optimum (i.a. zu schwer, nur sehr kleine Dimension!) Anwendung: kleine nichtlineare Optimalsteuerungsprobleme... Verfahren: Branch and Bound: pro Intervall der Unterteilung untere Schranken durch Lösung konveer Relaation und obere Schranken durch NLP-Löser Input: algebraische Beschreibung der Funktionen Größe : etwa - Variable (je nach spez. Struktur u.u. auch mehr) Vorlesung I Einführung und Motivation / 6

14 Problemstellung Klassifikation Einige weitere Klassen Meist durch spezielle Anforderungen einer Anwendung motiviert: Multikriterielle Optimierung (Mehrziel-Optimierung): Beispiele: Portfolio soll Gewinn maimieren und Risiko minimieren; Auto soll möglichst schnell mit möglichst wenig Treibstoff fahren; größte Stabilität eines Bauteils bei geringstem Materialeinsatz, etc. Darstellung konkurrierender Ziele durch vektorwertige Zielfunktion f : R n R m (bzw. durch ein Partialordnung auf R m ) Pareto-optimale Lösung : bzgl. Partialordnung nicht verbesserbar für m klein: Berechnung der Paretofront, sonst Rückführung auf Standardverf. durch Skalarisierung (gewichtete Linearkombination) oder leikographisches Optimieren mittels neuer Nebenbedingungen Vorlesung I Einführung und Motivation 4 / 6

15 Problemstellung Klassifikation Einige weitere Klassen Meist durch spezielle Anforderungen einer Anwendung motiviert: Multikriterielle Optimierung (Mehrziel-Optimierung): Beispiele: Portfolio soll Gewinn maimieren und Risiko minimieren; Auto soll möglichst schnell mit möglichst wenig Treibstoff fahren; größte Stabilität eines Bauteils bei geringstem Materialeinsatz, etc. Darstellung konkurrierender Ziele durch vektorwertige Zielfunktion f : R n R m (bzw. durch ein Partialordnung auf R m ) Pareto-optimale Lösung : bzgl. Partialordnung nicht verbesserbar für m klein: Berechnung der Paretofront, sonst Rückführung auf Standardverf. durch Skalarisierung (gewichtete Linearkombination) oder leikographisches Optimieren mittels neuer Nebenbedingungen Ableitungsfreie Optimierung (derivative-free optimization): Es ist jeweils nur f () bestimmbar (wird durch Simulation, Messung etc. ermittelt), aber keine Ableitungsinformationen vorhanden. f () billig: numerisches Differenzieren oder Verf. von Nelder-Mead f () teuer: modellerstellende Verfahren (Kriging, Powell,... ) Vorlesung I Einführung und Motivation 5 / 6

16 Problemstellung Klassifikation Stochastische Optimierung: Einige weitere Klassen Statistische Daten in Entscheidungen einbeziehen: Ein-/Ausschalten von Kraftwerken für stochstisches Verbrauchsmodell, Portfoliooptimierung für stochastische Finanzmodelle, Logistik-Optimierung nach stochastischem Bedarfsmodell oft Einteilung in gewichtete mehrstufige Szenarien, rekursives Lösen mit Standardverfahren Vorlesung I Einführung und Motivation 6 / 6

17 Problemstellung Klassifikation Stochastische Optimierung: Einige weitere Klassen Statistische Daten in Entscheidungen einbeziehen: Ein-/Ausschalten von Kraftwerken für stochstisches Verbrauchsmodell, Portfoliooptimierung für stochastische Finanzmodelle, Logistik-Optimierung nach stochastischem Bedarfsmodell oft Einteilung in gewichtete mehrstufige Szenarien, rekursives Lösen mit Standardverfahren Robuste Optimierung: Gegen Datenunsicherheit, Mindestanforderungen oder Ungenauigkeiten in der realen Umsetzung absichern: leichteste Brücke für unterschiedliche Lasten, Entwurf von Antennen-Arrays, Mindestproduktionskapazitäten auch bei Maschinenausfällen geschickte Modellierung erlaubt oft den Einsatz von Standardverfahren Vorlesung I Einführung und Motivation 7 / 6

18 Teil II Freie Optimierung Vorlesung II Freie Optimierung 8 / 6

19 Inhaltsübersicht Einführung in die freie Optimierung Vorlesung II Freie Optimierung 9 / 6

20 Freie Nichtlineare Optimierung Verfahren zur Minimierung glatter Funktionen ohne Nebenbedingungen, min f (), f : R Rn R hinreichend glatt n Hinreichend glatt bedeutet, dass f so oft stetig differenzierbar sein soll, wie es für das jeweilige Verfahren erforderlich ist. Vorlesung II Freie Optimierung / 6

21 Freie Nichtlineare Optimierung Verfahren zur Minimierung glatter Funktionen ohne Nebenbedingungen, min f (), f : R Rn R hinreichend glatt n Hinreichend glatt bedeutet, dass f so oft stetig differenzierbar sein soll, wie es für das jeweilige Verfahren erforderlich ist. Ziele für die Verfahren: Finde ein lokales Minimum (sogar weniger: finde ein, das die notwendigen Opt.-Bedingungen. Ordnung erfüllt, siehe dort) schnelle Konvergenz in der Nähe lokaler Optima der Rechenaufwand soll möglichst klein bleiben numerische Stabilität und hohe Genauigkeit Vorlesung II Freie Optimierung / 6

22 Freie Nichtlineare Optimierung Verfahren zur Minimierung glatter Funktionen ohne Nebenbedingungen, min f (), f : R Rn R hinreichend glatt n Hinreichend glatt bedeutet, dass f so oft stetig differenzierbar sein soll, wie es für das jeweilige Verfahren erforderlich ist. Ziele für die Verfahren: Finde ein lokales Minimum (sogar weniger: finde ein, das die notwendigen Opt.-Bedingungen. Ordnung erfüllt, siehe dort) schnelle Konvergenz in der Nähe lokaler Optima der Rechenaufwand soll möglichst klein bleiben numerische Stabilität und hohe Genauigkeit Anwendungen: nichtlineare Kleinste-Quadrate-Probleme als Unterroutine für Optimierungsprobleme mit Nebenbedingungen [siehe Barriere-, Straf- und augmentierte Lagrange-Verfahren] Vorlesung II Freie Optimierung / 6

23 Freie Nichtlineare Optimierung Verfahren zur Minimierung glatter Funktionen ohne Nebenbedingungen, min f (), f : R Rn R hinreichend glatt n Hinreichend glatt bedeutet, dass f so oft stetig differenzierbar sein soll, wie es für das jeweilige Verfahren erforderlich ist. Ziele für die Verfahren: Finde ein lokales Minimum (sogar weniger: finde ein, das die notwendigen Opt.-Bedingungen. Ordnung erfüllt, siehe dort) schnelle Konvergenz in der Nähe lokaler Optima der Rechenaufwand soll möglichst klein bleiben numerische Stabilität und hohe Genauigkeit Anwendungen: nichtlineare Kleinste-Quadrate-Probleme als Unterroutine für Optimierungsprobleme mit Nebenbedingungen [siehe Barriere-, Straf- und augmentierte Lagrange-Verfahren] In welcher Form soll f für die Verfahren zugänglich sein? Vorlesung II Freie Optimierung / 6

24 Inhaltsübersicht Einführung in die freie Optimierung Vorlesung II Freie Optimierung 4 / 6

25 Orakel allgemein und Orakel. Ordnung In vielen Anwendungen ist die Funktion f nicht analytisch verfügbar (so wie f () = sin()), sondern ergibt sich z.b. aus der Lösung eines Systems von Differentialgleichungen, d.h. aus einer Simulation. Daher setzen allgemeine Optimierungsverfahren nur eine Unterroutine voraus, die das Verfahren nach dem Wert der Funktion und eventuell auch nach Ableitungsinformation in dem jeweils betrachteten Punkt befragen kann Orakel. Ist die Funktion doch analytisch gegeben, so erzeugen Modellierungssprachen wie AMPL, GAMS,... automatisch entsprechende Orakel/Unterroutinen, die den Funktionswert und zusätzlich Ableitungsinformation liefern. Vorlesung II Freie Optimierung 5 / 6

26 Orakel allgemein und Orakel. Ordnung In vielen Anwendungen ist die Funktion f nicht analytisch verfügbar (so wie f () = sin()), sondern ergibt sich z.b. aus der Lösung eines Systems von Differentialgleichungen, d.h. aus einer Simulation. Daher setzen allgemeine Optimierungsverfahren nur eine Unterroutine voraus, die das Verfahren nach dem Wert der Funktion und eventuell auch nach Ableitungsinformation in dem jeweils betrachteten Punkt befragen kann Orakel. Ist die Funktion doch analytisch gegeben, so erzeugen Modellierungssprachen wie AMPL, GAMS,... automatisch entsprechende Orakel/Unterroutinen, die den Funktionswert und zusätzlich Ableitungsinformation liefern. Ein Orakel. Ordnung berechnet für gegebenes R n nur den Funktionswert f (), aber keine Ableitungsinformation. Verfahren für glatte Funktionen benötigen Ableitungsinformation und approimieren diese numerisch durch vielfache Funktionsaufrufe (siehe später). Vorlesung II Freie Optimierung 6 / 6

27 Orakel. Ordnung: f (), f () Für R n werden Funktionswert f () und Gradient f () R n berechnet. Vorlesung II Freie Optimierung 7 / 6

28 Orakel. Ordnung: f (), f () Für R n werden Funktionswert f () und Gradient f () R n berechnet. Gradient: f () Gradient in =., y= f () :=..5 f n () f () zeigt in Richtung des steilsten Anstiegs von f in. f () misst die Größe des Anstiegs. ] ist der Normalvektor [ f () zur Tangentialebene ] } an den Graphen ] : R n von f in. {[ f () [ f () f(,y) y f y Vorlesung II Freie Optimierung 8 / 6

29 Orakel. Ordnung: f (), f () Für R n werden Funktionswert f () und Gradient f () R n berechnet. Gradient: f () Gradient in =., y= f () :=..5 f n () f () zeigt in Richtung des steilsten Anstiegs von f in. f () misst die Größe des Anstiegs. ] ist der Normalvektor [ f () zur Tangentialebene ] } an den Graphen ] : R n von f in. {[ f () [ f () Die Tangentialebene bildet das lineare Modell von f in der Nähe von : f(,y) f () := f ( ) + f ( ) T ( ). Für nahe bei ist es eine gute Näherung an f (): lim f () f ( ) f ( ) T ( ) f ( + h) f ( ) f ( ) T h = lim =. h h Vorlesung II Freie Optimierung 9 / y f y

30 Orakel. Ordnung: f (), f () Für R n werden Funktionswert f () und Gradient f () R n berechnet. Gradient: f () Gradient in =, y=.5 f () :=..5 f n () f () zeigt in Richtung des steilsten Anstiegs von f in. f () misst die Größe des Anstiegs. ] ist der Normalvektor [ f () zur Tangentialebene ] } an den Graphen ] : R n von f in. {[ f () [ f () f(,y) y y Die Tangentialebene bildet das lineare Modell von f in der Nähe von : f () := f ( ) + f ( ) T ( ). Für nahe bei ist es eine gute Näherung an f (): lim f () f ( ) f ( ) T ( ) f ( + h) f ( ) f ( ) T h = lim =. h h Vorlesung II Freie Optimierung / 6 f

31 Orakel. Ordnung: f (), f () Für R n werden Funktionswert f () und Gradient f () R n berechnet. Gradient: f () Gradient in =.9, y= f () :=..5 f n () f () zeigt in Richtung des steilsten Anstiegs von f in. f () misst die Größe des Anstiegs. ] ist der Normalvektor [ f () zur Tangentialebene ] } an den Graphen ] : R n von f in. {[ f () [ f () Die Tangentialebene bildet das lineare Modell von f in der Nähe von : f(,y) f () := f ( ) + f ( ) T ( ). Für nahe bei ist es eine gute Näherung an f (): lim f () f ( ) f ( ) T ( ) f ( + h) f ( ) f ( ) T h = lim =. h h Vorlesung II Freie Optimierung / y y f

32 Orakel. Ordnung: f (), f () Für R n werden Funktionswert f () und Gradient f () R n berechnet. Gradient: f () Gradient in =.8, y=.5 f () :=..5 f n () f () zeigt in Richtung des steilsten Anstiegs von f in. f () misst die Größe des Anstiegs. ] ist der Normalvektor [ f () zur Tangentialebene ] } an den Graphen ] : R n von f in. {[ f () [ f () y f Die Tangentialebene bildet das lineare Modell von f in der Nähe von : f(,y) f () := f ( ) + f ( ) T ( ). Für nahe bei ist es eine gute Näherung an f (): lim f () f ( ) f ( ) T ( ) f ( + h) f ( ) f ( ) T h = lim =. h h Vorlesung II Freie Optimierung / 6 y

33 Orakel. Ordnung: f (), f () Für R n werden Funktionswert f () und Gradient f () R n berechnet. Gradient: f () Gradient in =.7, y= f () :=..5 f n () f () zeigt in Richtung des steilsten Anstiegs von f in. f () misst die Größe des Anstiegs. ] ist der Normalvektor [ f () zur Tangentialebene ] } an den Graphen ] : R n von f in. {[ f () [ f () Die Tangentialebene bildet das lineare Modell von f in der Nähe von : f(,y) f () := f ( ) + f ( ) T ( ). Für nahe bei ist es eine gute Näherung an f (): lim f () f ( ) f ( ) T ( ) f ( + h) f ( ) f ( ) T h = lim =. h h Vorlesung II Freie Optimierung / y y f

34 Gradient und Richtungsableitung, lineares Modell Das lineare Modell von f in hat in jede Richtung h R n den gleichen Anstieg wie f in : die Richtungsableitung von f in in Richtung h, f ( ) T f ( + αh) f ( ) h = lim =: D h f ( ) α α [= Ableitung d dαφ() der D-Funktion Φ : R R, Φ(α) := f ( + αh)] Vorlesung II Freie Optimierung 4 / 6

35 Gradient und Richtungsableitung, lineares Modell Das lineare Modell von f in hat in jede Richtung h R n den gleichen Anstieg wie f in : die Richtungsableitung von f in in Richtung h, f ( ) T f ( + αh) f ( ) h = lim =: D h f ( ) α α [= Ableitung d dαφ() der D-Funktion Φ : R R, Φ(α) := f ( + αh)] Gradient in (,y)=(.,), h=(.8,.8) (,y)=(.,), h=(.8,.8).5 f(,y) y h f y Vorlesung II Freie Optimierung 5 / 6 Φ(α), lineares Modell α

36 Gradient und Richtungsableitung, lineares Modell Das lineare Modell von f in hat in jede Richtung h R n den gleichen Anstieg wie f in : die Richtungsableitung von f in in Richtung h, f ( ) T f ( + αh) f ( ) h = lim =: D h f ( ) α α [= Ableitung d dαφ() der D-Funktion Φ : R R, Φ(α) := f ( + αh)] Gradient in (,y)=(.,), h=(,.5) (,y)=(.,), h=(,.5).5 f(,y) y y h f Vorlesung II Freie Optimierung 6 / 6 Φ(α), lineares Modell α

37 Gradient und Richtungsableitung, lineares Modell Das lineare Modell von f in hat in jede Richtung h R n den gleichen Anstieg wie f in : die Richtungsableitung von f in in Richtung h, f ( ) T f ( + αh) f ( ) h = lim =: D h f ( ) α α [= Ableitung d dαφ() der D-Funktion Φ : R R, Φ(α) := f ( + αh)] Gradient in (,y)=(.8,.5), h=(, ) (,y)=(.8,.5), h=(, ).5 f(,y) y y f h Vorlesung II Freie Optimierung 7 / 6 Φ(α), lineares Modell α

38 Gradient und Richtungsableitung, lineares Modell Das lineare Modell von f in hat in jede Richtung h R n den gleichen Anstieg wie f in : die Richtungsableitung von f in in Richtung h, f ( ) T f ( + αh) f ( ) h = lim =: D h f ( ) α α [= Ableitung d dαφ() der D-Funktion Φ : R R, Φ(α) := f ( + αh)] Gradient in (,y)=(.8,.5), h=(.,.8) (,y)=(.8,.5), h=(.,.8).5 f(,y) y y f h Vorlesung II Freie Optimierung 8 / 6 Φ(α), lineares Modell α

39 Gradient und Richtungsableitung, lineares Modell Das lineare Modell von f in hat in jede Richtung h R n den gleichen Anstieg wie f in : die Richtungsableitung von f in in Richtung h, f ( ) T f ( + αh) f ( ) h = lim =: D h f ( ) [D λh f ( ) = λd h f ( )] α α [= Ableitung d dαφ() der D-Funktion Φ : R R, Φ(α) := f ( + αh)] Gradient in (,y)=(.,), h=(.8,.8) (,y)=(.,), h=(.8,.8).5 f(,y) y h f y Vorlesung II Freie Optimierung 9 / 6 Φ(α), lineares Modell α

40 Gradient und Richtungsableitung, lineares Modell Das lineare Modell von f in hat in jede Richtung h R n den gleichen Anstieg wie f in : die Richtungsableitung von f in in Richtung h, f ( ) T f ( + αh) f ( ) h = lim =: D h f ( ) [D λh f ( ) = λd h f ( )] α α [= Ableitung d dαφ() der D-Funktion Φ : R R, Φ(α) := f ( + αh)] Gradient in (,y)=(.,), h=(.,.) (,y)=(.,), h=(.,.).5 f(,y) y h f y Vorlesung II Freie Optimierung 4 / 6 Φ(α), lineares Modell α

41 Orakel. Ordnung: f (), f (), f () Für R n werden f ( ), f ( ) und Hessematri f ( ) (. Abl.) berechnet. Vorlesung II Freie Optimierung 4 / 6

42 Orakel. Ordnung: f (), f (), f () Für R n werden f ( ), f ( ) und Hessematri f ( ) (. Abl.) berechnet. f ()... f Quadratisches Modell in =., y= n () f () := f n ()... f n n ().5 f () ist symmetrisch, falls f zweimal stetig differenzierbar ist..5 f () best. die Krümmung von f.5 Das quadrat. Modell aus[ f (),] f (), f () schmiegt sich in f () an den ] } Graphen : R n y von f an. {[ f () f ( ), f ( ) und f ( ) bilden das quadratische Modell von f um, f () := f ( ) + f ( ) T ( ) + ( )T f ( )( ). Für nahe bei ist es eine sehr gute Näherung an f : f () f ( ) f ( ) lim T ( ) ( )T f ( )( ) =. Vorlesung II Freie Optimierung 4 / 6 f(,y)

43 Orakel. Ordnung: f (), f (), f () Für R n werden f ( ), f ( ) und Hessematri f ( ) (. Abl.) berechnet. f ()... f Quadratisches Modell in =, y=.5 n () f () := f n ()... f n n ().5 f () ist symmetrisch, falls f zweimal stetig differenzierbar ist..5 f () best. die Krümmung von f.5 Das quadrat. Modell aus[ f (),] f (), f () schmiegt sich in f () an den ] } Graphen : R n y von f an. {[ f () f ( ), f ( ) und f ( ) bilden das quadratische Modell von f um, f () := f ( ) + f ( ) T ( ) + ( )T f ( )( ). Für nahe bei ist es eine sehr gute Näherung an f : f () f ( ) f ( ) lim T ( ) ( )T f ( )( ) =. Vorlesung II Freie Optimierung 4 / 6 f(,y)

44 Orakel. Ordnung: f (), f (), f () Für R n werden f ( ), f ( ) und Hessematri f ( ) (. Abl.) berechnet. f ()... f Quadratisches Modell in =.9, y= n () f () := f n ()... f n n ().5 f () ist symmetrisch, falls f zweimal stetig differenzierbar ist..5 f () best. die Krümmung von f.5 Das quadrat. Modell aus[ f (),] f (), f () schmiegt sich in f () an den ] } Graphen : R n y von f an. {[ f () f ( ), f ( ) und f ( ) bilden das quadratische Modell von f um, f () := f ( ) + f ( ) T ( ) + ( )T f ( )( ). Für nahe bei ist es eine sehr gute Näherung an f : f () f ( ) f ( ) lim T ( ) ( )T f ( )( ) =. Vorlesung II Freie Optimierung 44 / 6 f(,y)

45 Orakel. Ordnung: f (), f (), f () Für R n werden f ( ), f ( ) und Hessematri f ( ) (. Abl.) berechnet. f ()... f Quadratisches Modell in =.8, y=.5 n () f () := f n ()... f n n ().5 f () ist symmetrisch, falls f zweimal stetig differenzierbar ist..5 f () best. die Krümmung von f.5 Das quadrat. Modell aus[ f (),] f (), f () schmiegt sich in f () an den ] } Graphen : R n y von f an. {[ f () f ( ), f ( ) und f ( ) bilden das quadratische Modell von f um, f () := f ( ) + f ( ) T ( ) + ( )T f ( )( ). Für nahe bei ist es eine sehr gute Näherung an f : f () f ( ) f ( ) lim T ( ) ( )T f ( )( ) =. Vorlesung II Freie Optimierung 45 / 6 f(,y)

46 Orakel. Ordnung: f (), f (), f () Für R n werden f ( ), f ( ) und Hessematri f ( ) (. Abl.) berechnet. f ()... f Quadratisches Modell in =.7, y= n () f () := f n ()... f n n ().5 f () ist symmetrisch, falls f zweimal stetig differenzierbar ist..5 f () best. die Krümmung von f.5 Das quadrat. Modell aus[ f (),] f (), f () schmiegt sich in f () an den ] } Graphen : R n y von f an. {[ f () f ( ), f ( ) und f ( ) bilden das quadratische Modell von f um, f () := f ( ) + f ( ) T ( ) + ( )T f ( )( ). Für nahe bei ist es eine sehr gute Näherung an f : f () f ( ) f ( ) lim T ( ) ( )T f ( )( ) =. Vorlesung II Freie Optimierung 46 / 6 f(,y)

47 Quadratisches Modell in Richtung h Das quadratische Modell von f in hat in jede Richtung h R n die gleiche Steigung und Krümmung wie f in. f ( + αh) = f ( ) + α f ( ) T h + α ht f ( )h. [Taylor-Entw.. Ordnung der D-Funktion Φ : R R, Φ(α) := f ( + αh)] Vorlesung II Freie Optimierung 47 / 6

48 f(,y) Quadratisches Modell in Richtung h Das quadratische Modell von f in hat in jede Richtung h R n die gleiche Steigung und Krümmung wie f in. f ( + αh) = f ( ) + α f ( ) T h + α ht f ( )h. [Taylor-Entw.. Ordnung der D-Funktion Φ : R R, Φ(α) := f ( + αh)] quad. Modell in (,y)=(.,), h=(.8,.8) y h f y (,y)=(.,), h=(.8,.8) Vorlesung II Freie Optimierung 48 / 6 Φ(α), quadratisches Modell α

49 f(,y) Quadratisches Modell in Richtung h Das quadratische Modell von f in hat in jede Richtung h R n die gleiche Steigung und Krümmung wie f in. f ( + αh) = f ( ) + α f ( ) T h + α ht f ( )h. [Taylor-Entw.. Ordnung der D-Funktion Φ : R R, Φ(α) := f ( + αh)] quad. Modell in (,y)=(.,), h=(,.5) y y h f (,y)=(.,), h=(,.5) Vorlesung II Freie Optimierung 49 / 6 Φ(α), quadratisches Modell α

50 f(,y) Quadratisches Modell in Richtung h Das quadratische Modell von f in hat in jede Richtung h R n die gleiche Steigung und Krümmung wie f in. f ( + αh) = f ( ) + α f ( ) T h + α ht f ( )h. [Taylor-Entw.. Ordnung der D-Funktion Φ : R R, Φ(α) := f ( + αh)] quad. Modell in (,y)=(.8,.5), h=(, ) y y f h (,y)=(.8,.5), h=(, ) Vorlesung II Freie Optimierung 5 / 6 Φ(α), quadratisches Modell α

51 Quadratisches Modell in Richtung h Das quadratische Modell von f in hat in jede Richtung h R n die gleiche Steigung und Krümmung wie f in. f ( + αh) = f ( ) + α f ( ) T h + α ht f ( )h. [Taylor-Entw.. Ordnung der D-Funktion Φ : R R, Φ(α) := f ( + αh)] quad. Modell in (,y)=(.8,.5), h=(.,.8) f(,y) y y f h (,y)=(.8,.5), h=(.,.8) Vorlesung II Freie Optimierung 5 / 6 Φ(α), quadratisches Modell α

52 Klein-o-Notation Für glatte Funktionen gilt: f ( + h) f ( ) f ( ) T h lim =. h h Andere Notation dafür: f ( + h) = f ( )+ f ( ) T h+ o( h ). Lies: Die lineare Funktion f ( )+ f ( ) T h ist in der Nähe von ein solch gute Näherung für die Funktion f ( + h), dass der Unterschied zwischen den beiden schneller als h gegen null geht. Vorlesung II Freie Optimierung 5 / 6

53 Klein-o-Notation Für glatte Funktionen gilt: f ( + h) f ( ) f ( ) T h lim =. h h Andere Notation dafür: f ( + h) = f ( )+ f ( ) T h+ o( h ). Lies: Die lineare Funktion f ( )+ f ( ) T h ist in der Nähe von ein solch gute Näherung für die Funktion f ( + h), dass der Unterschied zwischen den beiden schneller als h gegen null geht. Analog für das quadratische Modell: f ( + h) = f ( )+ f ( ) T h+ ht f ( )h + o( h ). Vorlesung II Freie Optimierung 5 / 6

54 Klein-o-Notation Für glatte Funktionen gilt: f ( + h) f ( ) f ( ) T h lim =. h h Andere Notation dafür: f ( + h) = f ( )+ f ( ) T h+ o( h ). Lies: Die lineare Funktion f ( )+ f ( ) T h ist in der Nähe von ein solch gute Näherung für die Funktion f ( + h), dass der Unterschied zwischen den beiden schneller als h gegen null geht. Analog für das quadratische Modell: f ( + h) = f ( )+ f ( ) T h+ ht f ( )h + o( h ). Das Landau-Symbol g(h) = o( g(h)) steht immer als Ersatz für eine nicht weiter interessierende Funktion g(h) mit der Eigenschaft g(h) lim h g(h) =. Also: g(h) wird schneller klein als g(h) für h. Vorlesung II Freie Optimierung 54 / 6

55 Klein-o-Notation Bei Folgen: g( (k) ) = o( g( (k) )), falls gilt: g( (k) ) lim k g( (k) ) =. Vorlesung II Freie Optimierung 55 / 6

56 Niveaumengen und Niveaulinien Verfahren der freien nichtlinearen Optimierung betrachten nur Punkte mit besserem Zielfunktionswert als dem derzeitigen, also nur Punkte aus der r Niveaumenge von f zu einem Wert r R, S r (f ) := { R n : f () r}. f S (f) r Vorlesung II Freie Optimierung 56 / 6

57 Niveaumengen und Niveaulinien Verfahren der freien nichtlinearen Optimierung betrachten nur Punkte mit besserem Zielfunktionswert als dem derzeitigen, also nur Punkte aus der Niveaumenge von f zu einem Wert r R, S r (f ) := { R n : f () r}. f r S (f) r Funktionsdarstellungen über Niveaulinien [ Linien ] N r (f ) := { R n : f () = r} (contour plots) helfen, Verfahren zu illustrieren. [Höhenlinien in Landkarten, Wetterkarten] Beachte: Der Gradient ist immer orthogonal zur Niveaulinie, denn für, + h N r (f ) gilt = f ( + h) f () = f () T h + o( h ). Beispiel: quadratische Funktion T Q + q T + d mit Q positiv definit Vorlesung II Freie Optimierung 57 / 6

58 Niveaumengen und Niveaulinien Verfahren der freien nichtlinearen Optimierung betrachten nur Punkte mit besserem Zielfunktionswert als dem derzeitigen, also nur Punkte aus der Niveaumenge von f zu einem Wert r R, S r (f ) := { R n : f () r}. f r S (f) r Funktionsdarstellungen über Niveaulinien [ Linien ] N r (f ) := { R n : f () = r} (contour plots) helfen, Verfahren zu illustrieren. [Höhenlinien in Landkarten, Wetterkarten] Beachte: Der Gradient ist immer orthogonal zur Niveaulinie, denn für, + h N r (f ) gilt = f ( + h) f () = f () T h + o( h ). Beispiel: quadratische Funktion T Q + q T + d mit Q indefinit Vorlesung II Freie Optimierung 58 / 6

59 Niveaumengen und Niveaulinien Verfahren der freien nichtlinearen Optimierung betrachten nur Punkte mit besserem Zielfunktionswert als dem derzeitigen, also nur Punkte aus der Niveaumenge von f zu einem Wert r R, S r (f ) := { R n : f () r}. f r S (f) r Funktionsdarstellungen über Niveaulinien [ Linien ] N r (f ) := { R n : f () = r} (contour plots) helfen, Verfahren zu illustrieren. [Höhenlinien in Landkarten, Wetterkarten] Beachte: Der Gradient ist immer orthogonal zur Niveaulinie, denn für, + h N r (f ) gilt = f ( + h) f () = f () T h + o( h ). Beispiel: quadratische Funktion T Q + q T + d mit Q negativ definit Vorlesung II Freie Optimierung 59 / 6

60 Niveaumengen und Niveaulinien Verfahren der freien nichtlinearen Optimierung betrachten nur Punkte mit besserem Zielfunktionswert als dem derzeitigen, also nur Punkte aus der Niveaumenge von f zu einem Wert r R, S r (f ) := { R n : f () r}. f r S (f) r Funktionsdarstellungen über Niveaulinien [ Linien ] N r (f ) := { R n : f () = r} (contour plots) helfen, Verfahren zu illustrieren. [Höhenlinien in Landkarten, Wetterkarten] Beachte: Der Gradient ist immer orthogonal zur Niveaulinie, denn für, + h N r (f ) gilt = f ( + h) f () = f () T h + o( h ). Beispiel: quadratische Funktion T Q + q T + d mit Q positiv semidefinit Vorlesung II Freie Optimierung 6 / 6

61 Niveaumengen und Niveaulinien Verfahren der freien nichtlinearen Optimierung betrachten nur Punkte mit besserem Zielfunktionswert als dem derzeitigen, also nur Punkte aus der Niveaumenge von f zu einem Wert r R, S r (f ) := { R n : f () r}. f r S (f) r Funktionsdarstellungen über Niveaulinien [ Linien ] N r (f ) := { R n : f () = r} (contour plots) helfen, Verfahren zu illustrieren. [Höhenlinien in Landkarten, Wetterkarten] Beachte: Der Gradient ist immer orthogonal zur Niveaulinie, denn für, + h N r (f ) gilt = f ( + h) f () = f () T h + o( h ). Beispiel: Rosenbrock-Funktion (banana shape) f (, y) = 4 [(y ) + ( ) ] Minimum wird in (,) angenommen. y Vorlesung II Freie Optimierung 6 / 6

Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau

Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau Optimierung für Nichtmathematiker (für Master) Vorlesung: Christoph Helmberg Übung: Anja Lau Ziele: Einführung in richtige Einordnung von Optimierungsproblemen Modellierungstechniken praktische Umsetzung

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Dr. Nico Düvelmeyer Freitag, 8. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 NLP Aufgabe KKT 2 Nachtrag

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den

Mehr

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene

Mehr

Mathematik 1 für Wirtschaftsinformatik

Mathematik 1 für Wirtschaftsinformatik Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration

Mehr

Optimierung. Florian Jarre Josef Stoer. Springer

Optimierung. Florian Jarre Josef Stoer. Springer 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Florian Jarre Josef Stoer Optimierung Springer Inhaltsverzeichnis

Mehr

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz Mathematik für Bioinformatik und Systembiologie - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz WS 2009/10 Universität Freiburg Dieses Vorlesungsskript ist auf der Basis von Vorlesungen

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Nichtlineare Optimierungsprobleme mit Komplexität

Nichtlineare Optimierungsprobleme mit Komplexität Definition eines Nichtlinearen Optimierungsproblemes (NLP) min f (x) bzw. min f (x) s.d. x S x S wobei die zulässige Menge S R n typischerweise definiert ist durch S {x R n : h(x) =, c(x) } für Gleichungs-

Mehr

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg Universität Regensburg Wintersemester 2012/13 1 Einführung Anwendungen Finanzwirtschaft: maximale Gewinnrate unter Beschränkungen an das Risiko; Portfolio von Investments Produktion: maximiere Gewinn bei

Mehr

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Dr. Abebe Geletu Ilmenau University of Technology Department of Simulation and Optimal Processes

Mehr

17. Penalty- und Barriere-Methoden

17. Penalty- und Barriere-Methoden H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende

Mehr

Optimierung mit Matlab

Optimierung mit Matlab Lehrstuhl Mathematik, insbesondere Numerische und Angewandte Mathematik Prof. Dr. L. Cromme Computerbasierte Mathematische Modellierung für Mathematiker, Wirtschaftsmathematiker, Informatiker im Wintersemester

Mehr

Optimalitätskriterien

Optimalitätskriterien Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen

Mehr

Die CUTEr Testbibliothek

Die CUTEr Testbibliothek Die CUTEr Testbibliothek Slide 1 Motivation Softwarepakete mit vollkommen verschiedenen Anwendungsschwerpunkten Optimierung entweder nur einer von vielen Schwerpunkten oder sogar nur Nebenprodukt zur Lösung

Mehr

Gleichungen - Aufgabenstellung und Lösungsstrategien

Gleichungen - Aufgabenstellung und Lösungsstrategien Gleichungen - Aufgabenstellung und Lösungsstrategien Franz Pauer Institut für Mathematik, Universität Innsbruck, Technikerstr. 25, A-6020 Innsbruck, Österreich. Franz.Pauer@uibk.ac.at 18. Juli 2006 1 Einleitung

Mehr

Inhaltsverzeichnis. 4 Lagrange-Funktion und Dualität... 63 4.1 Lagrange-FunktionmitGleichheitsrestriktionen... 63

Inhaltsverzeichnis. 4 Lagrange-Funktion und Dualität... 63 4.1 Lagrange-FunktionmitGleichheitsrestriktionen... 63 1 Einleitung... 1 1.1 Optimierungstypen.............................................. 3 1.2 Motivation und Grundbegriffe der Optimierung........................... 4 1.3 Allgemeine Form des Optimierungsproblems............................

Mehr

Mathematik I für Wirtschaftswissenschaftler

Mathematik I für Wirtschaftswissenschaftler 1 Mathematik I für Wirtschaftswissenschaftler Lösungsvorschläge zur Klausur am 01.08.2003. Bitte unbedingt beachten: a) Verlangt und gewertet werden alle vier gestellten Aufgaben. Alle Aufgaben sind gleichwertig.

Mehr

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.

Mehr

Elemente der Analysis II

Elemente der Analysis II Elemente der Analysis II Kapitel 3: Lineare Abbildungen und Gleichungssysteme Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 15. Mai 2009 1 / 35 3.1 Beispiel

Mehr

Eigenwerte und Eigenvektoren von Matrizen

Eigenwerte und Eigenvektoren von Matrizen Eigenwerte und Eigenvektoren von Matrizen Das Eigenwertproblem Sei A eine quadratische Matrix vom Typ m,m. Die Aufgabe, eine Zahl λ und einen dazugehörigen Vektor x zu finden, damit Ax = λx ist, nennt

Mehr

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Wintersemester 3/4 (.3.4). (a) Für z = + i und z = 3 4i berechne man z z und z z. Die Ergebnisse sind in kartesischer Form anzugeben.

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2013/14 Hochschule Augsburg : Gliederung 1 Aussagenlogik 2 Lineare Algebra 3 Lineare Programme 4 Folgen

Mehr

Kapitel 15: Differentialgleichungen

Kapitel 15: Differentialgleichungen FernUNI Hagen WS 00/03 Kapitel 15: Differentialgleichungen Differentialgleichungen = Gleichungen die Beziehungen zwischen einer Funktion und mindestens einer ihrer Ableitungen herstellen. Kommen bei vielen

Mehr

Die Verbindung von Linearer Programmierung und Graphentheorie

Die Verbindung von Linearer Programmierung und Graphentheorie Die Verbindung von Linearer Programmierung und Graphentheorie Definition 5.9. Ein kombinatorisches Optimierungsproblem entspricht einem LP, bei dem statt der Vorzeichenbedingungen x i 0 Bedingungen der

Mehr

MATTHIAS GERDTS. Einführung in die lineare und nichtlineare Optimierung

MATTHIAS GERDTS. Einführung in die lineare und nichtlineare Optimierung MATTHIAS GERDTS Einführung in die lineare und nichtlineare Optimierung Address of the Author: Matthias Gerdts Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Universität

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) 1 Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Einleitung Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 11. Oktober 2013) 2 Kommunikationsnetzwerke...

Mehr

UNIVERSITÄT DORTMUND FACHBEREICH INFORMATIK

UNIVERSITÄT DORTMUND FACHBEREICH INFORMATIK UNIVERSITÄT DORTMUND FACHBEREICH INFORMATIK Thomas Fober Experimentelle Analyse Evolutionärer Algorithmen auf dem CEC 2005 Testfunktionensatz Diplomarbeit 01.07.2006 I N T E R N E B E R I C H T E I N T

Mehr

ARBEITSUNTERLAGEN ZUR VORLESUNG UND ÜBUNG AN DER UNIVERSITÄT DES SAARLANDES LINEARE OPTIMIERUNG

ARBEITSUNTERLAGEN ZUR VORLESUNG UND ÜBUNG AN DER UNIVERSITÄT DES SAARLANDES LINEARE OPTIMIERUNG ¾ REITSUNTERLGEN ZUR VORLESUNG UND ÜUNG N DER UNIVERSITÄT DES SRLNDES LINERE OPTIMIERUNG IM SS Lineare Optimierung (SS ). ufgabe (Graphische Lineare Optimierung) Nach einem anstrengenden Semester steht

Mehr

Rechnerpraktikum zur Optimierung III

Rechnerpraktikum zur Optimierung III TU München Lehrstuhl Mathematische Optimierung Prof. Dr. M. Ulbrich Dipl.-Math. Florian Lindemann Sommersemester 2007 Teil I Rechnerpraktikum zur Optimierung III P1. Durchhängenes Seil Die senkrechten

Mehr

3 Konvexe Analysis. 3.1 Grundlagen

3 Konvexe Analysis. 3.1 Grundlagen 25 3 Konvee Analsis 3.1 Grundlagen Die konvee Analsis auch Konveitätstheorie genannt untersucht geometrische Eigenschaften von konveen Mengen, Funktionen und Funktionalen in linearen Räumen. Eine tpische

Mehr

DIFFERENTIALGLEICHUNGEN

DIFFERENTIALGLEICHUNGEN DIFFERENTIALGLEICHUNGEN GRUNDBEGRIFFE Differentialgleichung Eine Gleichung, in der Ableitungen einer unbekannten Funktion y = y(x) bis zur n-ten Ordnung auftreten, heisst gewöhnliche Differentialgleichung

Mehr

Inhaltsverzeichnis. Vorwort... V. Symbolverzeichnis... XIII

Inhaltsverzeichnis. Vorwort... V. Symbolverzeichnis... XIII Inhaltsverzeichnis Vorwort................................................................. V Symbolverzeichnis...................................................... XIII Kapitel 1: Einführung......................................................

Mehr

Optimal Control in Air Traffic Management

Optimal Control in Air Traffic Management Optimal Control in Air Traffic Management DGLR Workshop Bestimmung optimaler Trajektorien im Air Traffic Management 23.04.2013 Deutsche Flugsicherung GmbH, Langen 23.04.2013 1 Inhalt. Hintergrund und Motivation.

Mehr

Praktikum Statische Prozessoptimierung. VERSUCH StatPO-1 Nichtlineare Optimierung

Praktikum Statische Prozessoptimierung. VERSUCH StatPO-1 Nichtlineare Optimierung Fakultät für Informatik und Automatisierung Institut für Automatisierungs und Systemtechnik Fachgebiet Simulation und Optimale Prozesse Praktikum Statische Prozessoptimierung VERSUCH StatPO-1 Nichtlineare

Mehr

Einführung in die Optimierung Sommersemester 2005. Anita Schöbel

Einführung in die Optimierung Sommersemester 2005. Anita Schöbel Einführung in die Optimierung Sommersemester 2005 Anita Schöbel 9. Juli 2010 Vorwort Das vorliegende Vorlesungsskript entstand aufgrund der Notizen der von mir im Sommersemester 2005 gehaltenen Vorlesung

Mehr

Einführung. Kapitel 1. Peter Becker (H-BRS) Operations Research I Sommersemester 2015 14 / 298

Einführung. Kapitel 1. Peter Becker (H-BRS) Operations Research I Sommersemester 2015 14 / 298 Kapitel 1 Einführung Peter Becker (H-BRS) Operations Research I Sommersemester 2015 14 / 298 Inhalt Inhalt 1 Einführung Was ist Operations Research? Planungsprozess im OR Peter Becker (H-BRS) Operations

Mehr

Kernel, Perceptron, Regression. Erich Schubert, Arthur Zimek. 2014-07-20 KDD Übung

Kernel, Perceptron, Regression. Erich Schubert, Arthur Zimek. 2014-07-20 KDD Übung Kernel, Perceptron, Regression Erich Schubert, Arthur Zimek Ludwig-Maximilians-Universität München 2014-07-20 KDD Übung Kernel-Fukctionen Kernel kann mehrdeutig sein! Unterscheidet zwischen: Kernel function

Mehr

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 7 Lineare Programmierung II. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 7 Lineare Programmierung II 1 Lineare Programme Lineares Programm: Lineare Zielfunktion Lineare Nebenbedingungen (Gleichungen oder Ungleichungen) Spezialfall der konvexen Optimierung

Mehr

Bitte unbedingt beachten: a) Gewertet werden alle acht gestellten Aufgaben.

Bitte unbedingt beachten: a) Gewertet werden alle acht gestellten Aufgaben. Mathematik I für Wirtschaftswissenschaftler Klausur für alle gemeldeten Fachrichtungen außer Immobilientechnik und Immobilienwirtschaft am 9..9, 9... Bitte unbedingt beachten: a) Gewertet werden alle acht

Mehr

Entwurf robuster Regelungen

Entwurf robuster Regelungen Entwurf robuster Regelungen Kai Müller Hochschule Bremerhaven Institut für Automatisierungs- und Elektrotechnik z P v K Juni 25 76 5 OPTIMALE ZUSTANDSREGELUNG 5 Optimale Zustandsregelung Ein optimaler

Mehr

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg OPTIMIERUNG II. Aufgaben und Lösungen

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg OPTIMIERUNG II. Aufgaben und Lösungen Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg OPTIMIERUNG II Aufgaben und Lösungen SS 2005 Aufgaben Aufgabe 41 Ein Betrieb stellt zwei Produkte P 1 und P 2 her, die die

Mehr

Outer Approximation für konvexe MINLP-Probleme

Outer Approximation für konvexe MINLP-Probleme Outer Approximation für konvexe MINLP-Probleme im Rahmen des Sears Globale Optimierung unter Leitung von Dr. Johannes Schlöder und Dr. Ekaterina Kostina, Sommersemester 2005, Universität Heidelberg Hans

Mehr

Computer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10

Computer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10 Computer Vision: AdaBoost D. Schlesinger () Computer Vision: AdaBoost 1 / 10 Idee Gegeben sei eine Menge schwacher (einfacher, schlechter) Klassifikatoren Man bilde einen guten durch eine geschickte Kombination

Mehr

Grundkurs Mathematische Optimierung (für mathematische Studiengänge) Prof. Dr. Beer

Grundkurs Mathematische Optimierung (für mathematische Studiengänge) Prof. Dr. Beer Grundkurs Mathematische Optimierung (für mathematische Studiengänge) Prof. Dr. Beer Literaturverzeichnis [1] Elster, Reinhardt, Schäuble, Donath: Einführung in die nichtlineare Optimierung, Teubner-Verlag,

Mehr

Anwendung der Theorie von Gauß Shift Experimenten auf den Kolmogorov Smirnov Test und das einseitige Boundary Crossing Problem

Anwendung der Theorie von Gauß Shift Experimenten auf den Kolmogorov Smirnov Test und das einseitige Boundary Crossing Problem Anwendung der Theorie von Gauß Shift Experimenten auf den Kolmogorov Smirnov Test und das einseitige Boundary Crossing Problem Inauguraldissertation zur Erlangung des Doktorgrades der Mathematisch Naturwissenschaftlichen

Mehr

Computer Vision: Optische Flüsse

Computer Vision: Optische Flüsse Computer Vision: Optische Flüsse D. Schlesinger TUD/INF/KI/IS Bewegungsanalyse Optischer Fluss Lokale Verfahren (Lukas-Kanade) Globale Verfahren (Horn-Schunck) (+ kontinuierliche Ansätze: mathematische

Mehr

Lineare Programmierung

Lineare Programmierung Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in

Mehr

4. Dynamische Optimierung

4. Dynamische Optimierung 4. Dynamische Optimierung Allgemeine Form dynamischer Optimierungsprobleme 4. Dynamische Optimierung Die dynamische Optimierung (DO) betrachtet Entscheidungsprobleme als eine Folge voneinander abhängiger

Mehr

Höhere Mathematik III für Wirtschaftsinformatiker

Höhere Mathematik III für Wirtschaftsinformatiker TU Ilmenau Institut für Mathematik Prof. Dr. S. Vogel Höhere Mathematik III für Wirtschaftsinformatiker Funktionen von mehreren Variablen. Grenzwerte und Stetigkeit Betrachtet werden Funktionen f : D f

Mehr

Schranken für zulässige Lösungen

Schranken für zulässige Lösungen Schranken für zulässige Lösungen Satz 5.9 Gegeben seien primales und duales LP gemäß der asymmetrischen Form der Dualität. Wenn x eine zulässige Lösung des primalen Programms und u eine zulässige Lösung

Mehr

Definition 3.1: Ein Differentialgleichungssystem 1. Ordnung

Definition 3.1: Ein Differentialgleichungssystem 1. Ordnung Kapitel 3 Dynamische Systeme Definition 31: Ein Differentialgleichungssystem 1 Ordnung = f(t, y) ; y R N ; f : R R N R N heißt namisches System auf dem Phasenraum R N Der Parameter t wird die Zeit genannt

Mehr

Vorlesung. Funktionen/Abbildungen 1

Vorlesung. Funktionen/Abbildungen 1 Vorlesung Funktionen/Abbildungen 1 1 Grundlagen Hinweis: In dieser Vorlesung werden Funktionen und Abbildungen synonym verwendet. In der Schule wird eine Funktion häufig als eindeutige Zuordnung definiert.

Mehr

Heuristiken im Kontext von Scheduling

Heuristiken im Kontext von Scheduling Heuristiken im Kontext von Scheduling Expertenvortrag CoMa SS 09 CoMa SS 09 1/35 Übersicht Motivation Makespan Scheduling Lokale Suche Weitere Metaheuristiken Zusammenfassung Literatur CoMa SS 09 2/35

Mehr

Modulbezeichnung in Englisch Algebra II Qualifikationsstufe/Geberstudien Bachelormodul/ Lehramt Gymnasium. N.N. verantwortlicher. Modulverantwortung /

Modulbezeichnung in Englisch Algebra II Qualifikationsstufe/Geberstudien Bachelormodul/ Lehramt Gymnasium. N.N. verantwortlicher. Modulverantwortung / Algebra II Modulbezeichnung in Englisch Algebra II Qualifikationsstufe/Geberstudien Bachelormodul/ Lehramt Gymnasium 82-105-L-MAT09-H-0610 N.N. Lehramt (H. Fischer) Leistungspunkte (ECTS-Punkte) 5 Gründliches

Mehr

OBERE SCHRANKEN UND MOMENTENPROBLEME IN DER STOCHASTISCHEN PROGRAMMIERUNG: EIN VERGLEICH. P. Kall

OBERE SCHRANKEN UND MOMENTENPROBLEME IN DER STOCHASTISCHEN PROGRAMMIERUNG: EIN VERGLEICH. P. Kall OBERE SCHRANKEN UND MOMENTENPROBLEME IN DER STOCHASTISCHEN PROGRAMMIERUNG: EIN VERGLEICH P. Kall Universität Zürich Institut für Operations Research und mathematische Methoden der Wirtschaftswissenschaften

Mehr

Numerische Verfahren zur Lösung nichtlinearer Gleichungen

Numerische Verfahren zur Lösung nichtlinearer Gleichungen Kapitel 2 Numerische Verfahren zur Lösung nichtlinearer Gleichungen 21 Aufgabenstellung und Motivation Ist f eine in einem abgeschlossenen Intervall I = [a, b] stetige und reellwertige Funktion, so heißt

Mehr

Modulabschlussklausur Analysis II

Modulabschlussklausur Analysis II Modulabschlussklausur Analysis II. Juli 015 Bearbeitungszeit: 150 min Aufgabe 1 [5/10 Punkte] Es sei a R und f a : R 3 R mit f a (x, y, z) = x cos(y) + z 3 sin(y) + a 3 + (z + ay a y) cos(x) a) Bestimmen

Mehr

Wissensbasierte Systeme 5. Constraint Satisfaction Probleme

Wissensbasierte Systeme 5. Constraint Satisfaction Probleme Wissensbasierte Systeme 5. Constraint Satisfaction Probleme Michael Beetz Vorlesung Wissensbasierte Systeme 1 Inhalt 5.1 Begriffe 5.2 Constraint Satisfaction in Linienbildern 5.3 Beispielanwendungen 5.4

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

Vorlesung Wirtschaftsmathematik II SS 2015, 3/2 SWS. Prof. Dr. M. Voigt

Vorlesung Wirtschaftsmathematik II SS 2015, 3/2 SWS. Prof. Dr. M. Voigt Vorlesung Wirtschaftsmathematik II SS 2015, 3/2 SWS Prof. Dr. M. Voigt 2. März 2015 II Inhaltsverzeichnis 5 Grundlagen 1 5.1 Funktionen einer Variablen...................... 1 5.2 spezielle Funktionen.........................

Mehr

Anwendungen der Wirtschaftsmathematik und deren Einsatz im Schulunterricht

Anwendungen der Wirtschaftsmathematik und deren Einsatz im Schulunterricht Anwendungen der Wirtschaftsmathematik und deren Einsatz im Schulunterricht Beispiele wirtschaftsmathematischer Modellierung Lehrerfortbildung, Speyer, Juni 2004-1- Beispiele wirtschaftsmathematischer Modellierung

Mehr

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis Das komplette Material finden Sie hier: Download bei School-Scout.de

Mehr

Nichtlineare Materialparameteroptimierung für reibungsbehaftete einachsige Elastomerdruckproben

Nichtlineare Materialparameteroptimierung für reibungsbehaftete einachsige Elastomerdruckproben VPE Symposium Nichtlineare Materialparameteroptimierung für reibungsbehaftete einachsige Elastomerdruckproben Autor: Dr.-Ing. Robert Eberlein Dozent für Mechanik Inhalt Beschreibung der Ausgangslage Problemstellung

Mehr

LINDO API, LINGO & What sbest! Power-Anwendungen für Optimierungsaufgaben

LINDO API, LINGO & What sbest! Power-Anwendungen für Optimierungsaufgaben LINDO API, LINGO & What sbest! Power-Anwendungen für Optimierungsaufgaben Die LINDO SYSTEMS Produktfamilie Lösungen für unterschiedlichste Optimierungsprobleme. Lösungsmethoden und -algorithmen per API,

Mehr

Algorithms for Regression and Classification

Algorithms for Regression and Classification Fakultät für Informatik Effiziente Algorithmen und Komplexitätstheorie Algorithms for Regression and Classification Robust Regression and Genetic Association Studies Robin Nunkesser Fakultät für Informatik

Mehr

Statistische Versuchsplanung - zuverlässiger und schneller zu Ergebnissen" Dr. Uwe Waschatz

Statistische Versuchsplanung - zuverlässiger und schneller zu Ergebnissen Dr. Uwe Waschatz Statistische Versuchsplanung - zuverlässiger und schneller zu Ergebnissen" Dr. Uwe Waschatz Inhalt Problembeschreibung Multiple lineare Regressionsanalyse Statistische Versuchsplanung / Design of Experiments

Mehr

Technische Mathematik

Technische Mathematik Lehrplan Technische Mathematik Fachschule für Technik Fachrichtungsbezogener Lernbereich Ministerium für Bildung, Kultur und Wissenschaft Hohenzollernstraße 60, 66117 Saarbrücken Postfach 10 24 52, 66024

Mehr

Approximationsalgorithmen: Klassiker I. Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling

Approximationsalgorithmen: Klassiker I. Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling Approximationsalgorithmen: Klassiker I Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling VO Approximationsalgorithmen WiSe 2011/12 Markus Chimani

Mehr

Lösung des Hedging-Problems mittels Stochastischer Dynamischer Optimierung

Lösung des Hedging-Problems mittels Stochastischer Dynamischer Optimierung Lösung des Hedging-Problems mittels Stochastischer Dynamischer Optimierung Ausarbeitung zum Vortrag im Seminar Stochastische Dynamische Optimierung vom 18.01.2008 Datum : 18.01.2008 Verfasser: Martin Schymalla

Mehr

Codeoptimierung mit linearer Programmierung

Codeoptimierung mit linearer Programmierung Seminarvortrag Codeoptimierung mit linearer Programmierung Hannes Jaschitsch unh@rz.uni-arlsruhe.de 4.6.003 Inhalt Digitale Signalprozessoren (DSPs) Befehlsanordnung mit dem ritchen Pfad Lineare Programme

Mehr

Finite Differenzen und Elemente

Finite Differenzen und Elemente Dietrich Marsal Finite Differenzen und Elemente Numerische Lösung von Variationsproblemen und partiellen Differentialgleichungen Mit 64 Abbildungen Springer-Verlag Berlin Heidelberg NewYork London Paris

Mehr

Zuammenfassung: Reelle Funktionen

Zuammenfassung: Reelle Funktionen Zuammenfassung: Reelle Funktionen 1 Grundlegendes a) Zahlenmengen IN = {1; 2; 3; 4;...} Natürliche Zahlen IN 0 = IN {0} Natürliche Zahlen mit 0 ZZ = {... ; 2; 1; 0; 1; 2;...} Ganze Zahlen Q = { z z ZZ,

Mehr

TEILWEISE ASYNCHRONE ALGORITHMEN

TEILWEISE ASYNCHRONE ALGORITHMEN TEILWEISE ASYNCHRONE ALGORITHMEN FRANK LANGBEIN Literatur: D. Berseas, J. Tsitsilis: Parallel and distributed computatoin, pp. 48 489 URI: http://www.langbein.org/research/parallel/ Modell teilweiser asynchroner

Mehr

Übung 3: Einfache Graphiken und Näherungen durch Regression

Übung 3: Einfache Graphiken und Näherungen durch Regression Übung 3: Einfache Graphiken und Näherungen durch Regression M. Schlup, 9. August 010 Aufgabe 1 Einfache Graphik Für die abgegebene Leistung P = UI eines linearen, aktiven Zweipols mit Leerlaufspannung

Mehr

Einführung in die Lineare Optimierung

Einführung in die Lineare Optimierung Kapitel 2 Einführung in die Lineare Optimierung lineare Modelle der relevanten Umwelt werden wegen ihrer Einfachheit häufig gegenüber nichtlinearen Ansätzen vorgezogen, lineare Optimierungsprobleme können

Mehr

Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien

Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien Katharina Witowski katharina.witowski@dynamore.de Übersicht Beispiel Allgemeines zum LS-OPT Viewer Visualisierung von Simulationsergebnissen

Mehr

Approximationsalgorithmen

Approximationsalgorithmen Ausarbeitung zum Thema Approximationsalgorithmen im Rahmen des Fachseminars 24. Juli 2009 Robert Bahmann robert.bahmann@gmail.com FH Wiesbaden Erstellt von: Robert Bahmann Zuletzt berarbeitet von: Robert

Mehr

Statische Optimierung unter Gleichungsrestriktionen (Lagrange)

Statische Optimierung unter Gleichungsrestriktionen (Lagrange) Kapitel 2 Statische Optimierung unter Gleichungsrestriktionen (Lagrange) 21 Einleitung/Ziel/Bedeutung/Übersicht Viele ökonomischen Fragestellungen bestehen im Kern zwar aus einem statischen Optimierungsproblem,

Mehr

In konstanten Modellen wird davon ausgegangen, dass die zu prognostizierende Größe sich über die Zeit hinweg nicht verändert.

In konstanten Modellen wird davon ausgegangen, dass die zu prognostizierende Größe sich über die Zeit hinweg nicht verändert. Konstante Modelle: In konstanten Modellen wird davon ausgegangen, dass die zu prognostizierende Größe sich über die Zeit hinweg nicht verändert. Der prognostizierte Wert für die Periode T+i entspricht

Mehr

Mathematik für Wirtschaftswissenschaftler: Übungsaufgaben

Mathematik für Wirtschaftswissenschaftler: Übungsaufgaben Mathematik für Wirtschaftswissenschaftler: Übungsaufgaben an der Fachhochschule Heilbronn im Wintersemester 2002/2003 Dr. Matthias Fischer Friedrich-Alexander-Universität Erlangen-Nürnberg Lehrstuhl für

Mehr

Höhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik

Höhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik Höhere Mathematik 3 Apl. Prof. Dr. Norbert Knarr FB Mathematik Wintersemester 2015/16 4. Homogene lineare Dierentialgleichungen 4.1. Grundbegrie 4.1.1. Denition. Es sei J R ein Intervall und a 0 ; : :

Mehr

Binäre lineare Optimierung mit K*BMDs p.1/42

Binäre lineare Optimierung mit K*BMDs p.1/42 Binäre lineare Optimierung mit K*BMDs Ralf Wimmer wimmer@informatik.uni-freiburg.de Institut für Informatik Albert-Ludwigs-Universität Freiburg Binäre lineare Optimierung mit K*BMDs p.1/42 Grundlagen Binäre

Mehr

Transformation und Darstellung funktionaler Daten

Transformation und Darstellung funktionaler Daten Transformation und Darstellung funktionaler Daten Seminar - Statistik funktionaler Daten Jakob Bossek Fakultät für Statistik 7. Mai 2012 Übersicht Einleitung Einordnung im Seminar Motivation am Beispiel

Mehr

Download. Mathematik üben Klasse 8 Funktionen. Differenzierte Materialien für das ganze Schuljahr. Jens Conrad, Hardy Seifert

Download. Mathematik üben Klasse 8 Funktionen. Differenzierte Materialien für das ganze Schuljahr. Jens Conrad, Hardy Seifert Download Jens Conrad, Hard Seifert Mathematik üben Klasse 8 Funktionen Differenzierte Materialien für das ganze Schuljahr Downloadauszug aus dem Originaltitel: Mathematik üben Klasse 8 Funktionen Differenzierte

Mehr

Kevin Caldwell. 18.April 2012

Kevin Caldwell. 18.April 2012 im Rahmen des Proseminars Numerische Lineare Algebra von Prof.Dr.Sven Beuchler 18.April 2012 Gliederung 1 2 3 Mathematische Beschreibung von naturwissenschaftlich-technischen Problemstellungen führt häufig

Mehr

Kapitel 15. Lösung linearer Gleichungssysteme

Kapitel 15. Lösung linearer Gleichungssysteme Kapitel 15. Lösung linearer Gleichungssysteme Lineare Gleichungssysteme Wir befassen uns nun mit der Lösung im allgemeinen nichthomogener linearer Gleichungssysteme in zweifacher Hinsicht. Wir studieren

Mehr

Einführung in einige Teilbereiche der Wirtschaftsmathematik für Studierende des Wirtschaftsingenieurwesens

Einführung in einige Teilbereiche der Wirtschaftsmathematik für Studierende des Wirtschaftsingenieurwesens in einige Teilbereiche der für Studierende des Wirtschaftsingenieurwesens Sommersemester 2013 Hochschule Augsburg Kursrechnung Festverzinsliche Wertpapiere Wertpapier: Investor erwirbt für bestimmten Preis

Mehr

Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É.

Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Tardos Janick Martinez Esturo jmartine@techfak.uni-bielefeld.de xx.08.2007 Sommerakademie Görlitz Arbeitsgruppe 5 Gliederung

Mehr

2.4 Adaptive Verfahren mit Schrittweitensteuerung

2.4 Adaptive Verfahren mit Schrittweitensteuerung 0 0 0 Euler und RK4 fuer f(t,y) = t 0. Euler RK4 /N 0 0 f(t,y) =. t 0., graduiertes Gitter RK4 /N 4 Fehler bei T = 0 3 0 4 0 5 Fehler bei T = 0 5 0 0 0 6 0 7 0 0 0 0 2 0 3 0 4 0 5 Anzahl Schritte N 0 5

Mehr

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum

Mehr

Bachelorarbeit. Vergleich von Ansätzen zur numerischen Lösung von MPCCs am Beispiel eines Mautproblems

Bachelorarbeit. Vergleich von Ansätzen zur numerischen Lösung von MPCCs am Beispiel eines Mautproblems Bachelorarbeit Vergleich von Ansätzen zur numerischen Lösung von MPCCs am Beispiel eines Mautproblems Vorgelegt an der Professur für Numerische Mathematik (Partielle Differentialgleichungen) von Prof.

Mehr

1 Ableiten der Sinus- und Kosinusfunktion

1 Ableiten der Sinus- und Kosinusfunktion Schülerbuchseite 6 8 Lösungen vorläufig Ableiten der Sinus- und Kosinusfunktion S. 6 Vermutung: Da das Zeit-Weg-Diagramm eine Sinuskurve und das zugehörige Zeit-Geschwindigkeits-Diagramm 8 eine Kosinuskurve

Mehr

2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht

2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht 2.5.2 Selbstorganisierte Karten: das Modell von Kohonen Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht zwischen den einzelnen Neuronen gibt, spielt deren räumliche Anordnung keine

Mehr

Anwendungen der linearen Programmierung

Anwendungen der linearen Programmierung Anwendungen der linearen Programmierung BACHELOR-ARBEIT Referent Prof. Dr. Karl Frauendorfer vorgelegt von Simon Wehrmüller Universität St. Gallen Hochschule für Wirtschafts-, Rechts- und Sozialwissenschaften

Mehr

PRAKTIKUM Experimentelle Prozeßanalyse 2. VERSUCH AS-PA-2 "Methoden der Modellbildung statischer Systeme" Teil 2 (für ausgewählte Masterstudiengänge)

PRAKTIKUM Experimentelle Prozeßanalyse 2. VERSUCH AS-PA-2 Methoden der Modellbildung statischer Systeme Teil 2 (für ausgewählte Masterstudiengänge) FACHGEBIET Systemanalyse PRAKTIKUM Experimentelle Prozeßanalyse 2 VERSUCH AS-PA-2 "Methoden der Modellbildung statischer Systeme" Teil 2 (für ausgewählte Masterstudiengänge) Verantw. Hochschullehrer: Prof.

Mehr