1 Einleitung. f (x) =min! bei x G ={x : g i (x) 0 i I}, (1.1) wobei I. I ={i : i = 1,, m}

Ähnliche Dokumente
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

Angewandte Multivariate Statistik Prof. Dr. Ostap Okhrin

Matrizen: Grundbegriffe. 1-E Ma 1 Lubov Vassilevskaya

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Das Lagrange-duale Problem

Mathematik 1 für Wirtschaftsinformatik

KAPITEL 3. Konvexe Funktionen

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen

10. Die Berücksichtigung nicht vorzeichenbeschränkter Variablen

IV. Matrizenrechnung. Gliederung. I. Motivation. Lesen mathematischer Symbole. III. Wissenschaftliche Argumentation. i. Rechenoperationen mit Matrizen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

3.2.5 Dualität der linearen Optimierung I

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

3 Optimierung mehrdimensionaler Funktionen f : R n R

Seminar Optimierung - Approximation and fitting. Christian Bretzke

Kapitel 7 : Lineare Programmierung Die Simplexmethode (G.B.Dantzig, 1947) Beispiel:

Kapitel 6: Matrixrechnung (Kurzeinführung in die Lineare Algebra)

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle

Optimale Steuerung 1 Prozessoptimierung 1

= 9 10 k = 10

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006

13. ABBILDUNGEN EUKLIDISCHEN VEKTORRÄUMEN

TU Ilmenau Institut für Mathematik FG Numerische Mathematik und Informationsverarbeitung PD Dr. W. Neundorf Datei: UEBG2.TEX

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Anwendungen der Differentialrechnung

d) Produkte orthogonaler Matrizen sind wieder orthogonal.

Universität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n

Mathematik 1 Bachelorstudiengang Maschinenbau

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Überbestimmte Gleichungssysteme

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Matrix: Eine rechteckige Anordnung reeller Zahlen a ij (i = 1,..., n i ; j = 1,..., m) in Zeilen und Spalten. Die a ij heiÿen Elemente von A.

Quadratische Formen. und. Symmetrische Matrizen

Extremwerte von Funktionen mehrerer reeller Variabler

Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1)

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2

Optimieren unter Nebenbedingungen

Rechnerpraktikum zur Nichtlinearen Optimierung

3 Matrizenrechnung. 3. November

oder A = (a ij ), A =

4.4 Quadratische Optimierungsprobleme

Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung: Woche vom

Einführung in Softwaretools zur Nichtlinearen Optimierung

Dualitätssätze der linearen Optimierung

bzw. eine obere Dreiecksmatrix die Gestalt (U: upper)

Lineare Optimierung: Simplexverfahren Phase Ⅰ

Numerische Lineare Algebra

Matrizen. Lineare Algebra I. Kapitel April 2011

Es wird vor allem auf die wesentlichen Ideen der Verfahren eingegangen und weniger auf Details.

3 Invertierbare Matrizen Die Inverse einer (2 2)-Matrix Eigenschaften invertierbarer Matrizen... 18

Kapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49

Teil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v.

Spezielle Matrizen. Invertierbarkeit.

Kapitel 2. Matrixalgebra. Josef Leydold Mathematik für VW WS 2017/18 2 Matrixalgebra 1 / 49

Matrixalgebra. Kapitel 2. Ein sehr einfaches Leontief-Modell. Matrix. Ein sehr einfaches Leontief-Modell. Vektor. Spezielle Matrizen I

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Die Lagrange-duale Funktion

7.1 Matrizen und Vektore

Kontinuierliche Optimierung

Klausur Numerische Mathematik (für Elektrotechniker), Samstag, 19. August 2017

Institut für Geometrie und Praktische Mathematik

Lineare Algebra 1. Roger Burkhardt

Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie

Optimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp

Teil I. Lineare Optimierung

Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung

Ausgleichsproblem. Definition (1.0.3)

1 Matrizenrechnung zweiter Teil

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

Diplom VP Numerik 27. August 2007

5 Lineare Algebra (Teil 3): Skalarprodukt

Über- und unterbestimmte

Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Eigenwerte und Eigenvektoren

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik Formelsammlung

Wirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit 2: Lineare Algebra II

Diplom VP Informatik / Numerik 2. September 2002

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Mathematik II Frühjahrssemester 2013

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

Optimierung für Nichtmathematiker

Mathematik I Herbstsemester 2014 Kapitel 8: Lineare Algebra 8.1 Reelle Matrizen

Dualität bei konvexer Optimierung

VORLESUNG 11 Lineare Optimierung (Viele Folien nach Ulf Lorenz, jetzt TU Darmstadt)

Optimierung unter Nebenbedingungen

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren Thomas Brox, Fabian Kuhn

Transkript:

1 1 Einleitung 1.1 Das lineare und das nichtlineare Optimierungsproblem Im vorliegenden Buch werden Optimierungsaufgaben betrachtet, die dadurch charakterisiert sind, dass eine lineare oder nichtlineare Zielfunktion f unter linearen oder nichtlinearen Ungleichungsnebenbedingungen minimiert wird, d. h. wobei I f (x) =min! bei x G ={x : g i (x) 0 i I}, (1.1) I ={i : i = 1,, m} die Indexmenge der Ungeichungsrestriktionen bezeichnet. Gleichungsrestriktionen werden der Übersichtlichkeit halber zunächst weggelassen. An geeigneten Stellen werden sie zusätzlich berücksichtigt. 1.2 Definitionen und Bezeichnungen Für die weiteren Überlegungen benötigen wir folgende Bezeichnungen: n-dimensionaler Euklidischer Raum: R n, Menge der reellen Zahlen: R, nichtnegativer Orthant des n-dimensionalen Euklidischen Raumes: R+ n, Euklidische Norm: x 2 =(x T x) 1 2, Betragssummennorm: x 1 = m i=1 x i, (m, n)-matrix A: rechteckiges Zahlenschema A =(a i, j ) von m n Zahlen, angeordnet in m Zeilen und n Spalten, quadratische Matrix: (m, n)-matrix A mit m = n, Diagonalmatrix A: quadratische Matrix A mit a ij = 0füri j und a ii 0, Einheitsmatrix I: Diagonalmatrix A mit a ii = 1, obere Dreiecksmatrix A: quadratische Matrix A mit a ij = 0, i > j, untere Dreiecksmatrix A: quadratische Matrix A mit a ij = 0, i < j, Optimierung in C++, 1.Auflage.ClausRichter. 2017 WILEY-VCH Verlag GmbH & Co. KGaA. Published 2017 by WILEY-VCH Verlag GmbH & Co. KGaA.

2 1 Einleitung positiv definite Matrix A: quadratische Matrix A mit x T Ax > 0 für alle x 0, symmetrische Matrix A: quadratische Matrix A mit a ij = a ji, transponierte Matrix A T zu A:MatrixA T mit A T =(a ji ), inverse Matrix A 1 zur Matrix A: Matrix mit der Eigenschaft A A 1 = I, nichtsinguläre Matrix A: die inverse Matrix A 1 zu A existiert, orthogonale Matrix A: Matrix mit der Eigenschaft A T = A 1, transponierter Vektor: x T =(x 1,, x n ), Gradient einer Funktion f : R n R ( ) T f (x) := f (x),, f (x), x 1 x n Hesse-Matrix einer Funktion f : R n R 2 f (x) ij := 2 x i x j f (x) i, j = 1,, n, Lagrange-Funktion für die Aufgabe (1.1) L(x, u) = f (x)+ m u i g i (x), i=1 Ableitung der Lagrange-Funktion nach den Komponenten des 1. Arguments 1 L(x, u) = f (x)+ m u i g i (x), i=1 zweite Ableitung der Lagrange-Funktion nach den Komponenten des 1. Arguments m 11 L(x, u) = 11 f (x)+ u i 11 g i (x), i=1 Indexmenge I(x) der in x aktiven Restriktionen I(x) ={i : g i (x) =0, i {1,, m}}, Vektor, dessen Komponenten alle gleich 1 sind: e =(1,,1) T, i-ter Einheitsvektor: e i =(0,,0,1,0,,0) T, die Menge G 0 :={x : g i (x) < 0, i = 1,, m}. 1.3 Spezialfälle linearer und nichtlinearer Optimierungsaufgaben Besitzen Zielfunktion f und der zulässige Bereich G bzw. Nebenbedingungen g i und g j eine spezielle Gestalt, so können zur Lösung von (1.1) spezielle Verfahren herangezogen werden. Für die Zielfunktion f sind folgende Strukturen

1.3 Spezialfälle linearer und nichtlinearer Optimierungsaufgaben 3 interessant: 1. Allgemeine nichtlineare Zielfunktion f (x). 2. Lineare Zielfunktion f (x) =c T x. 3. Quadratische Zielfunktion f (x) = 1 2 xt Cx + d T x. 4. Quadratsumme (Regression) f (x) = m (y i f (x, t i )) 2, y i Messwerte zum Messpunkt t i. i=1 5. Maximum von Funktionen f (x) =max f j (x) (j = 1,, l). In Bezug auf die Nebenbedingungen N sind folgende Situationen typisch: 1. Allgemeine nichtlineare Nebenbedingungen. 2. Lineare Nebenbedingungen g i (x) =a T i x + b i (i = 1,, m). 3. Keine Nebenbedingungen G = R n. In den folgenden Kapiteln werden spezielle Kombinationen von Zielfunktion und Nebenbedingungen eine besondere Rolle spielen: lineare Optimierung (L): f 2 + N2, quadratische Optimierung (Q): f 3 + N2, allgemeine nichtlineare Optimierungsaufgabe (C): f 1 + N1, unbeschränkte Minimierung (U): f 1 + N3, Regressionsprobleme (P): f 4 + N3, f 4 + N1. Die Spezifikationen L, Q, C, U und P werden in der Charakterisierung der implementierten Beispiele im Programmsystem Optisoft verwendet. Über die dargestellten Kombinationen von Zielfunktion und Nebenbedingungen hinaus spielen Aufgaben der nichtglatten Optimierung eine besondere Rolle. Diese finden im vorliegenden Buch keine Beachtung. Gleiches gilt auch für Optimierungsaufgaben mit sehr vielen Variablen: n > 100, sofern sie nicht als Teilprobleme zur Lösung von (1.1) auftreten. Obwohl die spezifische Gestalt von Zielfunktion und Nebenbedingungen interessant ist, wie etwa in der geometrischen Optimierung f (x) = g j (x) = r c k(o) k=1 i=1 r c k(j) k=1 i=1 n x i a 0 ik n x i a ij (j = 1,, m), wird diese nicht explizit berücksichtigt. In der Betrachtung von Optimierungsverfahren gehen wir von dem Grundmodell (1.1) aus. Für Least-Square-Probleme in Differenzialgleichungsmodellen und bei Strukturoptimierungsproblemen liegen spezielle Aufgaben zugrunde. Diese werden in den folgenden Kapiteln näher erläutert.

4 1 Einleitung 1.4 Anwendungen Nichtlineare Optimierungsprobleme spielen in vielen Anwendungsbereichen eine wichtige Rolle, z. B. in der Luft- und Raumfahrt (Steuerung, Konstruktion), Mechanik (Optimierung mechanischer Strukturen, z. B. von Tragwerken), Elektrotechnik (Transformatorkonstruktion), Chemie (Gleichgewichtsprobleme), Medizin, Soziologie (Statistische Probleme), Betriebswirtschaft (Planungsmodelle), Physik (Kernforschung), Energiewesen (Energieverteilung). Typische Anwendungsbeispiele finden sich in den Büchern von Bracken und Mc- Cormick [3] oder Beightler und Phillips [4]. Einige mathematische Fragestellungen, welche bei der Lösung praktischer Probleme auf Optimierungsverfahren zurückgreifen, werden im Buch näher betrachtet: 1.4.1 Strukturoptimierung Die Strukturoptimierung wird schon seit einigen Jahren in der computergestützten Konstruktion eingesetzt. In der zugrundeliegenden Aufgabenstellung wird dabei zwischen Querschnitts-, Form-, und Topologieoptimierung (der eigentlichen Strukturoptimierung) unterschieden. Grundlegende Fragestellung ist dabei, die Struktur und die Abmessungen von Konstruktionen derart zu wählen, dass zum einen die mechanischen Randbedingungen erfüllt und zum anderen der Materialeinsatz und damit die Kosten möglichst gering sind. Obwohl die Berücksichtigung der Nebenbedingungen oft die Koppelung mit komplizierten Berechnungsvorschriften z. B. FEM-Solvern erfordert, soll das Grundprinzip an folgendem Beispiel erläutert werden: Beispiel 1.1 Ziel ist die Erstellung von Bemessungstafeln für geschweißte I-Träger mit Querschnitten minimalen Gewichts (Abb. 1.1). Da das Gewicht eines Trägers mit vorgegebener Länge proportional zum Querschnitt ist, lautet die Zielfunktion f (x) =(x 1 2x 4 )x 2 + 2x 3 x 4.

1.4 Anwendungen 5 Tragsicherheitsnachweise (g 1, g 2 ), Beulsicherheitsnachweise (g 3, g 4 ) und konstruktive Restriktionen (g 5 g 10 ) führen zu den Nebenbedingungen g i 0: { M g 1 (x) = pl (x) M v für N v f (x) < 0.1σ F M pl (x)(1.1 N v ( f (x)σ F )) M v sonst g 2 (x) =0.8 f (x)σ F N v g 3 (x) =17 x 3 g 4 (x) = x 4 { 43 x 1 x 2 für N v f (x) < 0.27σ F 70(1.1 1.4 N v ( f (x)σ F )) x 1 x 2 sonst g 5 (x) =1000 x 1 g 6 (x) =60 x 2 g 7 (x) =60 x 4 g 8 (x) =x 2 5 g 9 (x) =x 4 5 g 10 (x) = x 1 4 x 3 wobei M pl (x) := σ F ((x 1 x 4 )x 3 x 4 +(x 1 2x 4 ) 2 x 2 4). Die Größen M v, N v und σ F sind konstante Parameter. Die Anzahl der Variablen ist 4, und es liegen 10 Ungleichheitsrestriktionen vor. Abb. 1.1 Stahlträger. 1.4.2 Das Least-Squares-Problem Spezielle nichtlineare Optimierungsaufgaben treten bei der Parameterbestimmung von Modellen auf, die einen in Natur- oder Technikwissenschaften vorliegenden Zusammenhang qualitativ beschreiben. Sind über diesen Zusammenhang Resultate von Experimenten bekannt, kann man die Methode der kleinsten

6 1 Einleitung Quadrate anwenden, um die Koeffizienten näherungsweise zu bestimmen. Das zugehörige Optimierungsproblem lautet: bei f (z) = z =min! z i = h i (x) =y i y(x, t i ) (i = 1,, l), g j (x) =0 (j = 1,, m 1 ) g j (x) 0 (j = m 1 + 1,, m) a x b. (1.2) Hierbei sind y(x, t) die gewählte Modellfunktion, x der Parametervektor, dessen Komponentenwerte zu bestimmen sind t i deri-te Wert der (u. U. vektorwertigen) unabhängigen Veränderlichen, y i die i-te Beobachtung der (u. U. vektorwertigen) unabhängigen Veränderlichen, a, b Schrankenvektoren für den Vektor x. Entsprechend der Wahl der Norm haben wir es mit einer linearen oder quadratischen Zielfunktion zu tun. Die vorliegende Formulierung gestattet die Berücksichtigung zusätzlicher Nebenbedingungen. Beim Vorliegen von Differenzialgleichungen wird die Aufgabe wie folgt modifiziert: bei f (z) = z =min! z i = y ij y(x, t j ) g j (x) =0 g j (x) 0 ẏ = φ(x, y, t) a x b. (1.3) Eventuell treten zusätzlich Anfangsbedingungen der Form y(t o )= y o (1.4) auf. Diese können gegebenenfalls in die Least-Square-Formulierung einbezogen werden. 1.4.3 Optimale Steuerung Das Problem der optimalen Steuerung besteht darin, eine Funktion unter Differenzialgleichungsnebenbedingungen sowie Anfangs- und Endbedingungen zu

1.4 Anwendungen 7 minimieren: bei J(x(t), u(t)) = ψ(x(a), a, x(b), b) = min! ẋ(t) =φ(t, x(t), u(t)) r(a, x(a), b, x(b)) = 0 c(t, x(t)) 0 c(t, u(t)) < 0. (1.5) Durch Spline-Approximation der Steuerungsfunktion und Anwendung von Lösungsmethoden für Differenzialgleichungssysteme ist es möglich, das Problem der optimalen Steuerung in eine nichtlineare Optimierungsaufgabe zu transformieren. Hierzu wird die Kopplung einer Mehrfachschießmethode mit einer SQP- Methode betrachtet. Diese Kopplung ist sehr effektiv und eine Alternative zur Verwendung von Straf-Barriere-Verfahren, welche von Kraft publiziert wurde [5].