Praktikum Hierarchische Steuerungssysteme. Versuch HSS-3. Verteilte Optimierung

Größe: px
Ab Seite anzeigen:

Download "Praktikum Hierarchische Steuerungssysteme. Versuch HSS-3. Verteilte Optimierung"

Transkript

1 Praktikum Hierarchische Steuerungssysteme Versuch HSS-3 Verteite Optimierung Verantworticher Hochschuehrer: Prof. Dr. Ing. habi. P. Li Versuchsverantworticher: Dr. Ing. S. Hopfgarten Name, Vorname, Matr.-Nr. Matrike-Nr. Mitarbeiter in der Praktikumsgruppe Datum, Note, Unterschrift

2 VERSUCH HSS Einführung Der Versuch reiht sich in die Betrachtung von Steuerungsstrukturen kompexer Systeme ein. Mit diesem Versuch so das Konzept der verteiten Optimierung, d. h. einer Struktur, die zwischen einer rein dezentraen und einer hierarchischen angesiedet ist, untersucht werden. Die Aufgaben sind so konzipiert, dass die Anwendung von nichtinearen (statischen) Optimierungsmethoden auf eine reaitätsnahe ingenieurwissenschaftiche Anwendung erfogen so. Ziee sind die mathematische Formuierung von verteiten Optimierungsaufgaben in ingenieurtechnischen Anwendungen, die Impementierung eines vereinfachten Projizierte-Gradienten-Agoritmus und eines geeigneten Agorithmus zur Lösung des verteiten Optimierungsprobems sowie die Anayse der Zuässigkeit und die praktische Umsetzbarkeit der erhatenen Lösungen. 2 Reaisierung des Praktikums Das Praktikum wird in PC-Laboren durchgeführt. Dazu steht die Software MATLAB R, MATLAB R Optimization Toobox TM 1 und für die Richtungssuche (eindimensionae Suche (eng.: ine search)) die MATLAB R -Funktion armijo zur Verfügung. Ein vereinfachtes Projizierte-Gradienten-Verfahren ist zu programmieren und ein voriegendes MATLAB R -Skript ist mit Teien des Lösungsagorithmus zur verteiten Optimierung zu ergänzen. 3 Probem- und Agorithmenbeschreibung 3.1 Agemeines Es gibt viee kompexe physikaische Systeme, die aus Teisysteme und Komponenten bestehen. Im Agemeinen kann die Dekomposition eines kompexen Systems in N Teisysteme hifreich sein. Die Teisysteme eines Gesamtsystems sind in der Rege miteinander verbunden oder vernetzt (durch Materia-, Energiefuss, Kommunikationssignae, usw.). Die Optimierung oder die optimae Regung socher Systeme erfordert passende Verfahren und entsprechende Agorithmen. Rege- oder Optimierungsstrategien für kompexe Systeme können zentraisiert, rein dezentraisiert, hierarchisch oder verteit sein. Neben der zentraen, der rein dezentraen und der hierarchischen ist die verteite Optimierung eine weitere Option zur Reaisierung einer entsprechenden Steuerungsstruktur. Sie stet einen Kompromiss zwischen der rein dezentraen (N unabhängige Reger/Optimierer) und der hierarchischen Steuerungsstruktur (N durch einen zusätzichen Koordinator koordinierte Reger/Optimierer) dar. Eine verteite Optimierung eines kompexen vernetzten System kann vorteihaft und rechnerisch günstig sein. In einer verteiten Optimierungsstrategie berechnet jedes Teisystem seine eigene optimae Strategie (jedes Teisystem versucht entweder ein eigenes Zie oder ein Gesamtzie optima zu erreichen). Die Vorteie sind: Einzene Teisysteme können ihr Zie geichzeitig optimieren. Dieser Umstand eraubt paraee Berechnungen und damit eine effiziente Optimierung des Gesamtsystems. 1 MATLAB R und MATLAB R Optimization Toobox TM sind ein eingetragenes Warenzeichen bzw. eine eingetragene Handesmarke der The Mathworks Inc.

3 VERSUCH HSS-3 3 Die verteite Optimierung ist wie die hierarchische zuverässiger as eine zentraisierte. Wenn ein einzenes Teisystem ausfät, ist nur dieses Teisystem betroffen, aber andere Teisysteme können weiter funktionieren. Damit fät aber nicht das Gesamtsystem aus. Ein verteites System ist einfach durch das Hinzufügen neuer Teisysteme (Komponenten) im Gegensatz zu einem zentraisierten System zu erweitern. As Lösungverfahren kann z. B. eine verteite Methode [4] eingesetzt werden, die auf der Han- Methode [5] aufbaut und unter Ausnutzung der konjugierten Funktion der Ziefunktion ein Projizierte-Gradienten-Verfahren verwendet. 3.2 Optimierungsprobemkasse und konjugierte Funktion Die Optimierungsprobemkasse, die mit der Han-Methode geöst werden kann, ist wie fogt definiert: min J(x)}, C = C 1 C 2... C N (1) x C x R nx - Optimierungsvariabenvektor, J(x) - geichmäßig konvexe, differenzierbare Funktion, C - abgeschossene, nichteere, konvexe Menge, beschrieben durch Geichungs- (GNB) und Ungeichungsnebenbedingungen (UNB) ( = 1, 2,..., s, s - Anzah der Nebenbedingungen (GNB und UNB), C ). Die Ziefunktion J(x) kann eine agemeine konvexe Funktion, aber auch z. B. eine quadratische Ziefunktion J(x) = 1 2 xt Hx mit H as Hesse-Matrix sein. Im etzteren Fa autet die Optimierungsaufgabe des -ten Teisystems beispiesweise 1 min z C 2 z w 2 mit z - Optimierungsvariabenvektor, w - sich iterativ ändernder Vektor entsprechend der Dimension von z. Die konjugierte Funktion J (y) zur konvexen Funktion J(x) ist definiert durch J (y) = sup y T x J(x) }. (3) x R nx Für eine quadratische Ziefunktion J(x) = 1 2 xt Hx ässt sich die konjugierte Funktion durch (2) J (y) = 1 2 yt H 1 y (4) beschreiben. Eine zu untersuchende inear-quadratische Optimierungsaufgabe kann fogendermaßen aussehen: min J(x) = 1 } x 2 xt Hx (5) u. B. v. a T x = b, = 1, 2,..., m (6) a T x b, = m + 1, m + 2,..., s (7)

4 VERSUCH HSS Verteiter Agorithmus für definite quadratische Optimierungsaufgaben Während der Han-Agorithmus die Lösungen für den Variabenvektor x und unter Berücksichtigung jeweis einer Geichungs- oder einer Ungeichungsnebenbedingung berechnet, ässt sich diese Methode so zu einer verteiten Methode erweitern, indem man Teisystemen eine gewisse Anzah an Nebenbedingungen zuordnet, die Teiprobeme zeitich parae ösen kann, jedoch die Koppung zu benachbarten Teisystemen berücksichtigt und damit eine Kommunikation zwischen ihnen einführen muss, siehe Agorithmus 1. Im Agorithmus wurde die einfache Darsteung x (p) N i assumed = L N i γ (p) c (8) benutzt. Im Agemeinen wird x (p) für eine beiebige konvexe Ziefunktion durch x (p) = J y y=y (p) (9) und für eine quadratische Ziefunktion J(x) = 1 2 xt Hx wird durch x (p) = H 1 y (p) (10) berechnet.

5 VERSUCH HSS-3 5 Agorithmus 1 Verteiter Agorithmus für definite quadratische Optimierungsprobeme 1: Initiaisierung: p := 0 x (0) i = 0, i bzw. x (0) = 0 γ (0) = 0, = 1, 2,... s α = s ω, ω = 1 2 minλ i}, λ i - Eigenwerte von H c = 1 αa T a H 1 a, = 1, 2,... s Ein c entspricht einer Beschränkung (GNB oder UNB). Jede Beschränkung wird von genau einem Reger berücksichtigt. Ein okaer Reger kann nur Beschränkungen berücksichtigen, die die okaen Variaben beinhaten. Wähe eine Abbruchtoeranz ε 2: repeat 3: p := p + 1 4: Kommunikation des i-ten Regers R i ( i) mit seinen Nachbarn R j, j N i, um die aktuaisierten Variaben (enthaten in x (p 1) i ) auszutauschen, und Konstruktion des Nachbarschaftsabbids (eng.: neighbourhood image) x (p) N i = x (p) j j N i 5: Paraees Update der Hifsvariaben γ des Regers R i ( i, L i : Menge der Indizes, die der okae Reger i berücksichtigt) 6: if (1 m) then 7: γ (p) = a T x(p 1) N i + γ (p 1) b 8: ese if (m + 1 s) then 9: γ (p) = max } a T x(p 1) N i + γ (p 1) b, 0 10: end if 11: Kommunikation des i-ten Regers R i ( i) mit seinen Nachbarn R j, j N i, um die im vorhergehenden Schritt aktuaisierten Hifsvariaben γ (p) auszutauschen 12: Paraees Update der Optimierungsvariaben (angenommenes Nachbarschaftsabbid, Sebstabbid (eng.: sef image)) x (p) N i assumed = γ (p) c L N i L N i : Menge der Indizes, die die Beschränkungen des Teisystem i oder von Nachbarteisystemen des Teisystems i betreffen γ (p) L N i = j N il j x (p) i = J i x (p) N i assumed } = max a x(p 1) + γ (p 1) b, 0 13: unti ( x (p),i x (p 1),i 2 < ε, i) (UNB)

6 VERSUCH HSS Projizierte-Gradienten-Verfahren Die Lösung der quadratischen Optimierungsaufgabe (11) 1 min z + αy (p 1) z C 2 x (p 1) 2 (11) im verteiten Agorithmus erfogt durch ein Projizierte-Gradienten-Verfahren, siehe z. B. [1], [2], [7]. Es ist geeignet, Optimierungsaufgaben (12) - (14) min J(x) (12) x Rn u. B. v. A eq x = b eq Ax b mit inearen Geichungs- (GNB) und Ungeichungsnebenbedingungen (UNB) zu ösen, A = a T m+1. a T s und b = b m+1. b s (13) (14) wird Ax b a T x b 0, = m + 1,..., s. (15) Ein agemeines Vorgehen beim Projizierte-Gradienten-Verfahren findet sich im Agorithmus 2. Bemerkungen zum Projizierte-Gradienten-Agorithmus: Forme für Berechnung der Suchrichtung d (p) in Schritt 8 stammt aus der Optimaitätsbedingung des nachfogenden Optimierungsprobems (16) - (18) min J(x (p) ) T d (16) d R nx u. B. v. Nd = 0 d T d = 1. Somit ist d (p) die optimae Lösung dieses Probems. Wenn das Probem (16) keine Nebenbedingungen hat, dann werden die Suchrichtung d (p) (in Schritt 8) und die Schrittänge α p (in Schritt 9) durch (19) berechnet: d (p) = 1 2µ J(x(p) ) und α (p) = 1 (19) (17) (18)

7 VERSUCH HSS-3 7 Agorithmus 2 Projizierte-Gradienten-Verfahren 1: Wähe einen Startpunkt x (0) 2: Wähe eine Anfangsschrittänge α 0 3: Wähe µ < 0 (z. B. µ = 1) 4: Setze Iterationszäher p := 0 5: whie (Keine Konvergenz) do 6: Finde die aktiven Ungeichungsnebedingungen (UNB) im Punkt x (p), d. h. } A = m + 1,..., s} a T x(p) b = 0 Bide die Matrix à und den Vektor b aus den aktiven UNB, d. h.. à = a T, b. = b.. A A 7: Bide die Matrix N und den Vektor n, so dass [ ] [ Aeq b b] N =, n = à 8: Bestimme die Suchrichtung d (p) durch d (p) = 1 [I N (N T N ) ] 1 N T J(x (p) ) 2µ } } =P (P : Projektionsmatrix) 9: Bestimme die Schrittänge α (p) durch α (p) = min 10: x (p+1) = x (p) + α (p) d (p) 1, b a T d(p) a T d(p) / A (p) und a T d(p) > 0 11: Abbruchbedingung erfüt? (Ja: Abbruch, Nein: Fortsetzung) 12: p := p : end whie }. 4 Optimierung eines Wasserversorgungssystems 4.1 System Das fogende Bid stet ein aggregiertes Wasserversorgungssystem mit drei Teisystemen dar (siehe [8]).

8 VERSUCH HSS-3 8 Abbidung 1: Ein aggregiertes Wasserversorgungssystem (Bidquee: [8]) Das Gesamtsystem besteht aus drei Subsystemen (Teisystemen (TS)). Das erste Teisystem ist mit dem zweiten und das zweite mit dem dritten verkoppet. Jedes Teisystem versorgt einen Verbraucher (TS1: eine Landgemeinde, Tagesverbrauch z 1,t = m3 d ; TS2: eine größere Stadt: z 2,t = m3 d ; TS3: eine Keinstadt: z 3,t = m3 d, 1 d = 24 h) mit einem entsprechenden Tagesgang des Verbrauchs. Im ersten und dritten Teisystem befindet sich je einen Wasserspeicher, im zweiten stehen zwei Speicher zur Verfügung. As Zustandsgrößen x i j werden die Speicherinhate, as Steuergrößen die Durchfüsse u i j, as Koppegrößen die Durchfüsse vi j und as Störgrößen (Verbräuche) z j gewäht, wobei der tiefgestete Index die Komponente im jeweiigen Teisysten und der hochgestete Index das Teisystem angibt. Die Koppegrößen sind gesondert aufgeführt, wei das System auch mittes hierarchischer Methoden optimiert wurde. Die Koppegrößen können wie weitere Steuerungen (Pseudosteuerungen) angesehen werden. Die Abfüsse aus dem ersten und dritten Speicher ergeben sich vereinfacht angegeben durch einen Faktor a 12 bzw. a 23 mutipiziert mit dem Speicherinhat des jeweiigen Speichers. Zur Reduktion der Probemdimension wird der Zeithorizont von einem Tag in drei Zeitintervae zu je t = 8 h unterteit, K = 3. Die Teisystemanzah ist N = 3. Die Speicher soen zur Zeit t = 0 ihren Sowerten entsprechen und am Ende des Zeithorizonts wieder genauso gefüt sein. Die fehenden Sowerte u 1 1,s bis v3 1,s werden in einer der Vorbereitungsaufgaben berechnet. Sie assen sich aufgrund des as bekannt angenommenen Bedarfs as konstante Werte pro Zeitinterva

9 VERSUCH HSS-3 9 berechnen, z. B. v 3 1,s + u 3 1,s = z 3,t K, (20) wobei eine Aufteiung von 74 % auf v1,s 3 und 26 % auf u3 1,s vorgenommen werden so. Bei den beiden Sowerten v1,s 1 und u1 1,s betragen die Anteie je 50 %. Auch die Koeffizienten a 12 und a 23 assen sich danach berechnen: v 2 1,s a 12 x 1 1,s = 0 a 12 = v2 1,s x 1 1,s v 3 1,s a 23 x 2 2,s = 0 a 23 = v3 1,s x 2 2,s (21) (22) Mit fogenden Angaben sind die späteren Berechnungen durchzuführen: Tabee 1: Minima-, Maxima- und Sowerte sowie Gewichte Variabe Min. Max. So. Gewicht x x x x u u 1 1,s 20 u u 2 1,s 20 u u 3 1,s 20 v1 1 0 v1,s 1 20 v1 2 0 v1,s 2 20 v1 3 0 v1,s Versuchsvorbereitung Bestimmen Sie die noch fehenden Sowerte, siehe Tab. 1 oben und gemäß (20), sowie die Koeffizienten a 12 und a 23 nach (21) und (22)! Geben Sie die Modegeichungen einschießich der Verkoppung für jedes Teisystem in zeitdiskreter Form an! Steen Sie eine geeignete Ziefunktion, die die gewichteten Abweichungen der Systemgrößen von ihren Sowerten quadratisch bewertet (ausgewogene Schwankungen zwischen Speicherinhaten und Durchfüssen), für die verteite Optimierung auf! Formuieren Sie das verteite Optimierungsprobem!

10 VERSUCH HSS Versuchsdurchführung Impementieren Sie den vereinfachten Agorithmus 3 des Projizierte-Gradienten-Verfahrens unter MATLAB R zur Lösung des quadratischen Optimierungsprobems (23)-(25) mit Koordinatenbeschränkungen as Ungeichungsnebenbedingungen, siehe z. B. [3]. Für die Richtungssuche (eindimensionae Suche (eng.: ine search)) steht Ihnen die MATLAB R - Funktion armijo zur Verfügung. min x J(x) = 1 } 2 xt Hx + c T x u. B. v. x min x x max (24) [ ] [ ] [ ] [ ] mit H =, c =, x min =, x 2 max = (25) 3 (23) Agorithmus 3 Vereinfachtes Projizierte-Gradienten-Verfahren 1: Hinterege Matrix H und Vektor c der Ziefunktion sowie Unter- und Obergrenzen (x min, x max ) der Optimierungsvariaben 2: Wähe einen zuässigen Startpunkt x (0) und speichere ihn as zurückiegende Lösung 3: Wähe eine Abbruchschranke ε (z. B ) für die Normdifferenz n = x (p) x (p 1) 4: Setze n (> ε) zum Anauf des Verfahrens 5: Setze Iterationszäher p := 0 6: whie n ε do 7: Berechne: Gradient der Ziefunktion g (p) = Hx (p) + c 8:... Suchrichtung d (p) = g (p) 9:... Schrittweite α (p) ( = arg min x (p) + α (p) d (p)) mittes ARMIJO-Rege (MATLAB R - α (p) Funktion armijo; Syntax: siehe Anhang) 10:... Nächster Punkt des unbeschränkten Probems x (p+1) = x (p) + α (p) d (p) 11:... Projektion x + = min(x max, max(x min, x (p+1) )) 12:... Normdifferenz n = x + x (p) 13: Setze x (p+1) := x + 14: p := p : end whie Ergänzen Sie im voriegenden MATLAB R -Skript die kenntich gemachten Passagen ( PUT YOUR CODE HERE! ) zur Lösung eines konvexen quadratischen Optimierungsprobems mittes des verteiten HAN-Verfahrens! Orientieren Sie sich an den Hinweisen im Anhang! Beachten Sie, dass ae Systemgrößen as -Größen reaisiert sind, d. h. as Abweichungen von ihren Sowerten! Lösen Sie das Optimierungsprobem des Wasserversorgungssystems mittes Ihrer Impementierung aus 4.3.2! Interpretieren und bewerten Sie die Ergebnisse! Beobachten Sie die Konvergenzeigenschaften (Anzah der Iterationen, Rechenzeit (CPU- Zeit))?

11 VERSUCH HSS Variieren Sie die Gewichte für einzene Systemgrößen! Beurteien Sie deren Einfuss auf die Lösung und die Konvergenz! Verändern Sie die Abschatschranke ε! Bewerten Sie die Lösung und die Konvergenz! Anhang: Aufruf der MATLAB R -Funktion armijo: apha=armijo(h,c,x,d); H: Hesse-Matrix c: Vektor des inearen Terms der Ziefunktion x: Startpunkt der Richtungssuche d: Suchrichtung Hinweise zur Ergänzung des MATLAB R -Skripts: MATLAB R -Variabe Bedeutung Ind Indizes der Teisystem-Koppung xni Nachbarschaftsabbid (neigbourhood image) des i-ten Teisystems, ((n x (K + 1) + (n u + n v )K, N) - Matrix, n x, n u, n v - Anzah aer Zustände, Steuerungen, Koppungen xsefimgi Sebstabbid (sef image) des i-ten Teisystems, Dimension wie Nachbarschaftsabbid, s. o. gamma γ, skaar, Anzah der GNB und UNB, s = 94 at a T, (1,34)-Vektor b b, skaar c c, (34,1)-Vektor xassumedni p angenommenes Nachbarschaftsabbid (sef image) des i-ten Teisystems, Dimension: s. o. xsefimgi p aktuaisiertes Sebstabbid (sef image) des i-ten Teisystems, Dimension: s.o. iteration Iterationszäher p TOLERANCE Abbruchschranke ε Literatur [1] D. P. Bertsekas. Noninear Programming. Athena Scientific, [2] D. P. Bertsekas, A. Nedić, and A. E. Ozdagar. Convex Anaysis and Optimzation. Athena Scientific, 2003.

12 VERSUCH HSS-3 12 [3] L. T. Bieger. Noninear Programming. SIAM, [4] D. Doan, T. Keviczky, I. Necoara, M. Dieh, and B. De Schutter. A distributed version of Han s method for DMPC of dynamicay couped systems with couped constraints. In Proc. of the 1st IFAC Workshop on Estimation and Contro of Networked Systems (NecSys 2009), pages , Venice, Itay, Sept [5] S.-P. Han and G. Lou. A Parae Agorithm for a Cass of Convex Programs. SIAM J. Contro and Optimization, 26(2): , [6] S. Hopfgarten. Hierarchische Steuerungssysteme. Voresung. TU Imenau. [7] C. T. Keey. Iterative Methods for Optimization. SIAM, [8] E. Lazutkin. Comparison of hierarchica and distributed optimization for mode predictive contro. Masterarbeit. TU Imenau, 2012.

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Prüfung in Methode der finiten Elemente. Matrikelnummer: Studiengang: Wiederholer

Prüfung in Methode der finiten Elemente. Matrikelnummer: Studiengang: Wiederholer Universität Stuttgart INSTITUT MECH NIK FUR Prüfung in Methode der finiten Eemente Name, Vorname: Matrikenummer: Studiengang: Wiederhoer Emai: Unterschrift: Hauptfach: Bitte beachten Sie Fogendes: 1. Es

Mehr

Johannes Kepler Universität Linz Institut für Regelungstechnik und Prozessautomatisierung

Johannes Kepler Universität Linz Institut für Regelungstechnik und Prozessautomatisierung Johannes Keper Universität Linz Institut für Regeungstechnik und Prozessautomatisierung Schriftiche Prüfung aus Automatisierungstechnik Voresung, am 26. Mai 27 Name: Vorname(n): Matr.Nr.: SKZ: Aufgabe

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Abiturprüfung Mathematik 006 Baden-Württemberg (ohne CAS) Haupttermin Pfichttei - Aufgaben Aufgabe : ( VP) Biden Sie die Abeitung der Funktion f mit f(x) = sin(4x ). 8 Aufgabe : ( VP) Geben Sie eine Stammfunktion

Mehr

Praktikum Statische Prozessoptimierung. Versuch StatPO-2

Praktikum Statische Prozessoptimierung. Versuch StatPO-2 Praktikum Statische Prozessoptimierung Versuch StatPO-2 Programmierung und numerische Lösung von statischen nichtlinearen Optimierungssproblemen mittels Standardsoftware Verantwortlicher Hochschullehrer:

Mehr

Seminaraufgabensammlung zur Lehrveranstaltung. Prozessoptimierung 1. 1 Formulieren und Lösen linearer Optimierungsprobleme

Seminaraufgabensammlung zur Lehrveranstaltung. Prozessoptimierung 1. 1 Formulieren und Lösen linearer Optimierungsprobleme Fachgebiet Simulation und Optimale Prozesse Fakultät für Informatik und Automatisierung Institut für Automatisierungsund Systemtechnik Seminaraufgabensammlung zur Lehrveranstaltung Prozessoptimierung Vorlesender:

Mehr

Finite-Elemente-Methode

Finite-Elemente-Methode 11. Übung Prof. Dr.-Ing. W. Fischer Fachhochschue Dortmund Knicken und Beuen 1. Bestimmen Sie sowoh anaytisch wie auch mit Hife des FEM-Systems HyperWorks 14 für einen Stah-Kragträger der Länge = 1 m (quadratischer

Mehr

C Mathematische Grundlagen

C Mathematische Grundlagen C Mathematische Grundagen C.1 Summen Mit dem Summenzeichen werden Rechenanweisungen zum Addieren kompakt geschrieben. Sie assen sich oft mit Hife der Summenregen vereinfachen. C.1 Gibt es insgesamt n Werte

Mehr

Seminarvortrag: Trust-Region-Verfahren

Seminarvortrag: Trust-Region-Verfahren Seminarvortrag: Trust-Region-Verfahren Helena Klump Universität Paderborn Dezember 2012 Helena Klump 1 / 22 Trust-Region-Verfahren Problemstellung Sei die Funktion f : R n R gegeben. Betrachtet wird das

Mehr

Das Gradientenverfahren

Das Gradientenverfahren Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1

Mehr

Optimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 1 Newton Verfahren Taylor Approximation 1. Ordnung von Newton Verfahren! 0 Setze 0und berechne Löse lineares Gleichungssystem für : 2

Mehr

Optimale Steuerung 1

Optimale Steuerung 1 Optimale Steuerung 1 Kapitel 6: Nichtlineare Optimierung unbeschränkter Probleme Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Beispiel: Parameteranpassung für Phasengleichgewicht

Mehr

Übung 6 - Musterlösung

Übung 6 - Musterlösung Experimentaphysik für Lehramtskandidaten und Meteoroogen 6. Mai 00 Übungsgruppeneiter: Heiko Dumih Übung 6 - Musterösung Aufgabe 5: Kupfereiter Cu-Leiter: Länge =.5m, Eektronenadung q =.60 0 9 C, Leitungseektronendihte

Mehr

Multivariate Analysis

Multivariate Analysis Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle

Mehr

Fourierreihenentwicklung Prof. K. Weinberg Universität Siegen Lehrstuhl für Festkörpermechanik

Fourierreihenentwicklung Prof. K. Weinberg Universität Siegen Lehrstuhl für Festkörpermechanik Fourierreihenentwickung Prof. K. Weinberg Universität Siegen Lehrstuh für Festkörpermechanik Mathematische Grundagen für Einfachreihenentwickungen Für viee mathematische, physikaische und technische Probeme

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09

TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09 ................ Note I II Name Vorname 1 Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 Obige Angaben sind richtig: Unterschrift der Kandidatin/des Kandidaten 3 TECHNISCHE UNIVERSITÄT

Mehr

Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1

Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis Innere-Punkte-Verfahren 3 1 Theoretische Grundlagen 3 1.1 Die KKT-Bedingungen........................... 3 1.2 Der zentrale Pfad.............................. 4

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

= p u. Ul x 0 U r x > 0

= p u. Ul x 0 U r x > 0 Das Riemann-Probem Das zu ösende Geichungssystem besteht aus den eindimensionaen hydrodynamischen Geichungen ohne Viskosität und externe Kräfte, den Euer-Geichungen. Beschränkung auf eine Dimension (x)

Mehr

Operations Research für Logistik

Operations Research für Logistik Operations Research für Logistik Lineare Optimierung (170.202) Ao. Univ. - Prof. Norbert SEIFTER Dipl. - Ing. Stefanie VOLLAND Sommersemester 2012 Lehrstuhl Industrielogistik Lineare Optimierung Inhalte:

Mehr

Praktische Optimierung

Praktische Optimierung Grundlagen klassischer Optimiertechniken Praktische Optimierung Wintersemester 2008/09 Prof Dr Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund Themen der heutigen

Mehr

4. Anhang 4.1 Wertetabellen zum 2. Algorithmus //Suche alle k, welche quadratische Reste mod 64 sind print "Quadratische Reste mod 64:"; for k:=0 to 31 do print (k^2 mod 64); end for; k 0 1 2 3 4 5 6 7

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

Praktische Optimierung

Praktische Optimierung Praktische Optimierung Dozent: Günter Rudolph Vertretung: Nicola Beume Wintersemester 2007/08 Universität Dortmund Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS11) Fachgebiet Computational

Mehr

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Dr. Abebe Geletu Ilmenau University of Technology Department of Simulation and Optimal Processes

Mehr

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz Mathematik für Bioinformatik und Systembiologie - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz WS 2009/10 Universität Freiburg Dieses Vorlesungsskript ist auf der Basis von Vorlesungen

Mehr

Vorwort 6 1 Der TI-Nspire CX CAS 7

Vorwort 6 1 Der TI-Nspire CX CAS 7 Inhatsverzeichnis 3 Inhatsverzeichnis Vorwort 6 1 Der TI-Nspire CX CAS 7 1.1 Der Hauptbidschirm............................... 8 1.2 Die Bidschirmeemente des TI-Nspire CX CAS................ 9 1.3 Das

Mehr

Institut für Analysis und Scientific Computing E. Weinmüller WS 2015

Institut für Analysis und Scientific Computing E. Weinmüller WS 2015 Institut für Analysis und Scientific Computing TU Wien E. Weinmüller WS 5 L I N E A R E A L G E B R A F Ü R T P H, U E (3.64). Haupttest (FR,..5) (mit Lösung ) Ein einfacher Taschenrechner ist erlaubt.

Mehr

Übungen zur Vorlesung. Mobile und Verteilte Datenbanken. WS 2008/2009 Übung 2 Anfrageoptimierung in zentralisierten Datenbanksystemen LÖSUNG

Übungen zur Vorlesung. Mobile und Verteilte Datenbanken. WS 2008/2009 Übung 2 Anfrageoptimierung in zentralisierten Datenbanksystemen LÖSUNG Dr. rer. nat. Sven Groppe Übungen zur Voresung Mobie und Verteite Datenbanken WS 28/29 Übung 2 Anfrageoptimierung in zentraisierten Datenbanksystemen Aufgabe 1: Fogende Reationen seien gegeben: LÖSUNG

Mehr

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer

Newton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer Newton- und und Quasi-Newton-Methoden in der Optimierung János Mayer 1 GLIEDERUNG Newton-Methode für nichtlineare Gleichungen nichtlineare Gleichungssysteme freie Minimierung. Quasi-Newton-Methoden für

Mehr

Vorlesung Inhaltsverzeichnis. 1. Einfache Rechnungen

Vorlesung Inhaltsverzeichnis. 1. Einfache Rechnungen 1. Einfache Rechnungen. Hife! 3. Geitkommazahen 4. Listen 5. Kompexe und ganze Zahen Voresung 30.11.018 Inhatsverzeichnis Einfache Rechnungen Sage kann aes was ein Taschenrechner kann, und das entweder

Mehr

5.3.5 Abstiegs & Gradientenverfahren

5.3.5 Abstiegs & Gradientenverfahren 5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3.5 Abstiegs & Gradientenverfahren Die bisher kennengelernten Iterationsverfahren zur Approximation von linearen Gleichungssystemen haben

Mehr

Musterlösung zu Aufgabe 10)

Musterlösung zu Aufgabe 10) Musterösung zu Aufgabe ) Seien n, K Körper, A K n n, b K n, und f: K n K n mit f x Ax für x K n. a) Zeigen Sie: f bidet Affinkombinationen von Vektoren in Affinkombinationen von deren Bidern unter f ab.

Mehr

Die Involutfunktion Inhalt

Die Involutfunktion Inhalt Die Involutfunktion Inhalt Inhalt...1 Grundlagen... Basic-Programm...3 Programm-Ablaufplan Involut rekursiv...3 Programm Involut rekursiv...4 Programme für CASIO fx-7400g PLUS...5 Involutfunktion...5 Involut

Mehr

KAPITEL 6. Nichtlineare Ausgleichsrechnung

KAPITEL 6. Nichtlineare Ausgleichsrechnung KAPITEL 6 Nichtlineare Ausgleichsrechnung Beispiel 61 Gedämpfte Schwingung: u + b m u + D m u = 0, Lösungen haben die Form: u(t) = u 0 e δt sin(ω d t + ϕ 0 ) Modell einer gedämpften Schwingung y(t; x 1,

Mehr

Berechnung magnetischer Kreise

Berechnung magnetischer Kreise TU ergakademie Freiberg nstitut für Eektrotechnik Prof. Dr.-ng. habi. U. eckert G:\beckert\voresung\grd_et\er_magn_Kreise 2- erechnung magnetischer Kreise Der magnetische Kreis vieer technischer nwendungen

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

Iterative Methoden zur Lösung von linearen Gleichungssystemen

Iterative Methoden zur Lösung von linearen Gleichungssystemen Iterative Methoden zur Lösung von linearen Gleichungssystemen (13.12.2011) Ziel Können wir wir die zeitabhängige Schrödinger-Gleichung lösen? φ(t) = e iht ψ(0) Typischerweise sind die Matrizen, die das

Mehr

Blatt 5. - Lösungsvorschlag

Blatt 5. - Lösungsvorschlag Fautät für Physi der LMU München Lehrstuh für Kosoogie, Prof Dr V Muhanov Übungen zu Kassischer Mechani (T) i SoSe Batt 5 - Lösungsvorschag Aufgabe 5 Binäres Sternsyste a) Wieviee Freiheitsgrade hat das

Mehr

Bemerkung 2.1: Das Newtonverahren kann auch als sequential quad. minimization verstanden werden: 2.1 Ein globalisiertes Newtonverfahren

Bemerkung 2.1: Das Newtonverahren kann auch als sequential quad. minimization verstanden werden: 2.1 Ein globalisiertes Newtonverfahren Kapitel 2 Newtonverfahren Ziel: Bestimmung von Nullstellen von f (=stationärer Punkt). Dies geschieht mit dem Newtonverfahren. x k+1 = x k ( 2 f (x k )) 1 f (x k ) (2.1) Bemerkung 2.1: Das Newtonverahren

Mehr

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Das Nelder Mead Verfahren Sei f : R n R eine (nicht

Mehr

Quadratische Formen und Definitheit

Quadratische Formen und Definitheit Universität Basel Wirtschaftswissenschaftliches Zentrum Quadratische Formen und Definitheit Dr. Thomas Zehrt Inhalt: 1. Quadratische Formen 2. Quadratische Approximation von Funktionen 3. Definitheit von

Mehr

Um die Reaxationsmethode auf die im Versuch untersuchte Reaktion anzuwenden, müssen zunächst die die mögichen Reaktionsmechanismen betrachtet werden..

Um die Reaxationsmethode auf die im Versuch untersuchte Reaktion anzuwenden, müssen zunächst die die mögichen Reaktionsmechanismen betrachtet werden.. Bitzichtphotoyse In dem Versuch soen kinetische Untersuchungen zur Bidung von Eisenthiocyanatkompexen in wässriger Lösung durchgeführt werden. Mit Hife der Reaxationsmethode soen die Geschwindigkeitskonstanten

Mehr

Schriftlicher Test (120 Minuten) VU Einführung ins Programmieren für TM. 23. Januar 2017

Schriftlicher Test (120 Minuten) VU Einführung ins Programmieren für TM. 23. Januar 2017 Familienname: Vorname: Matrikelnummer: Aufgabe 1 (3 Punkte): Aufgabe 2 (1 Punkt): Aufgabe 3 (2 Punkte): Aufgabe 4 (4 Punkte): Aufgabe 5 (2 Punkte): Aufgabe 6 (2 Punkte): Aufgabe 7 (4 Punkte): Aufgabe 8

Mehr

KAPITEL 10 DIE INNERE-PUNKTE-METHODE

KAPITEL 10 DIE INNERE-PUNKTE-METHODE KAPITEL DIE INNERE-PUNKTE-METHODE F. VALLENTIN, A. GUNDERT Vorteile: + Löst effizient lineare Programme (in Theorie und Praxis) + erweiterbar (zu einer größeren Klasse von Optimierungsproblemen) + einfach

Mehr

AM3: Differenzial- und Integralrechnung im R n. 1 Begriffe. 2 Norm, Konvergenz und Stetigkeit. x 1. x 2. f : x n. aus Platzgründen schreibt man:

AM3: Differenzial- und Integralrechnung im R n. 1 Begriffe. 2 Norm, Konvergenz und Stetigkeit. x 1. x 2. f : x n. aus Platzgründen schreibt man: AM3: Differenzial- und Integralrechnung im R n 1 Begriffe f : x 1 f 1 x 1, x 2,..., x n ) x 2... f 2 x 1, x 2,..., x n )... x n f m x 1, x 2,..., x n ) }{{}}{{} R n R m aus Platzgründen schreibt man: f

Mehr

Projekt Experimentelle Mathematik mit GeoGebra

Projekt Experimentelle Mathematik mit GeoGebra Projekt Experimentee Mathematik mit GeoGebra (Projekt für Q1, G. vom Stein) Gefäße mit unterschiedichen Formen werden mit einer variaben, aber konstanten Wasserzufuhr befüt. Es so jeweis die Funktion Zeit

Mehr

Regelungstechnik I (WS 15/16) Übung 2

Regelungstechnik I (WS 15/16) Übung 2 Regelungstechnik I (WS 5/6) Übung Prof. Dr. Ing. habil. Thomas Meurer Lehrstuhl für Regelungstechnik Aufgabe. (Linearität, Zeitinvarianz). Überprüfen Sie die folgenden dynamischen Systeme auf Linearität

Mehr

b) Von welchen Parametern hängen die Eigenschwingungsfrequenzen ab?

b) Von welchen Parametern hängen die Eigenschwingungsfrequenzen ab? Techn. Mechanik & Fahrzeugdynamik TM III Prof. Dr.-Ing. habi. Hon. Prof. (NUST) D. Beste 4. März 17 Prüfungskausur Technische Mechanik III Famiienname, Vorname Matrike-Nummer Fachrichtung Aufgabe 1 (9

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

Die numerische Behandlung der zeitabhängigen Schrödinger-Gleichung für chemische Reaktionen

Die numerische Behandlung der zeitabhängigen Schrödinger-Gleichung für chemische Reaktionen Kapite 2 Die numerische Behandung der zeitabhängigen Schrödinger-Geichung für chemische Reationen In diesem Abschnitt soen grundegende Verfahren zur numerischen Behandung der Schrödinger-Geichung besprochen

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Universität Tübingen Tübingen, den Mathematisches Institut D. Mansour, J. Seyrich

Universität Tübingen Tübingen, den Mathematisches Institut D. Mansour, J. Seyrich Universität Tübingen Tübingen, den 03.07.2013 Mathematisches Institut D. Mansour, J. Seyrich Probeklausur zu Algorithmen der Numerischen Mathematik SS 2013 ID Nummer: 1 Name:.........................................

Mehr

Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) =

Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) = Karlsruher Institut für Technologie (KIT Institut für Analysis Priv-Doz Dr P C Kunstmann Dipl-Math D Roth SS 0 7060 Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8 Übungsblatt

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Dr. Nico Düvelmeyer Freitag, 8. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 NLP Aufgabe KKT 2 Nachtrag

Mehr

Konvexe Optimierungsprobleme

Konvexe Optimierungsprobleme von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel

Mehr

Schriftlicher Test zu C (90 Minuten) VU Einführung ins Programmieren für TM. 1. Oktober 2012

Schriftlicher Test zu C (90 Minuten) VU Einführung ins Programmieren für TM. 1. Oktober 2012 Familienname: Vorname: Matrikelnummer: Aufgabe 1 (2 Punkte): Aufgabe 2 (3 Punkte): Aufgabe 3 (2 Punkte): Aufgabe 4 (3 Punkte): Aufgabe 5 (2 Punkte): Aufgabe 6 (1 Punkte): Aufgabe 7 (2 Punkte): Aufgabe

Mehr

Schriftlicher Test (120 Minuten) VU Einführung ins Programmieren für TM. 25. Jänner 2016

Schriftlicher Test (120 Minuten) VU Einführung ins Programmieren für TM. 25. Jänner 2016 Familienname: Vorname: Matrikelnummer: Aufgabe 1 (3 Punkte): Aufgabe 2 (4 Punkte): Aufgabe 3 (2 Punkte): Aufgabe 4 (2 Punkte): Aufgabe 5 (2 Punkte): Aufgabe 6 (1 Punkte): Aufgabe 7 (3 Punkte): Aufgabe

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Aufgaben zur nicht-linearen Optimierung Teil II Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Aufgabe 5 Bestimmen

Mehr

Laborpraktikum Sensorik. Versuch. ph-wertsensoren S 5

Laborpraktikum Sensorik. Versuch. ph-wertsensoren S 5 Otto-von-Guericke-Universität Magdeburg Fakutät für Eektrotechnik und Informationstechnik Institut für Mikro- und Sensorsysteme (IMOS) Fakutät für Verfahrens- und Systemtechnik Chemisches Institut Laborpraktikum

Mehr

Gekoppelte Fadenpendel

Gekoppelte Fadenpendel Gekoppete adenpende Water endt 8. August 2007 Von gekoppeten Schwingungen spricht man, wenn sich mehrere schwingungsfähige Objekte gegenseitig beeinfussen. Ein bekanntes Beispie wird im ogenden näher beschrieben.

Mehr

MATLAB Optimization Toolbox Inhaltsverzeichnis

MATLAB Optimization Toolbox Inhaltsverzeichnis Inhaltsverzeichnis Inhaltsverzeichnis 0 Deckblatt: Optimization Toolbox 1 Was ist Optimierung? 2 Behandelte Themen der Optimization TB 3 Darstellung der Funktionen in Matlab 4 Inline Objects 5 Algorithmensteuerung

Mehr

Kritischer Punkt von CO 2

Kritischer Punkt von CO 2 Kritischer Punkt von CO 2 Praktikanten: Mirjam Eisee und Matthias Jasch Gruppennummer: 129 Versuchsdatum: 9. September 2009 Betreuer: Christof Gessner 1 Aufgabensteung Es werden für verschiedene Movoumina

Mehr

Optimal Control in Air Traffic Management

Optimal Control in Air Traffic Management Optimal Control in Air Traffic Management DGLR Workshop Bestimmung optimaler Trajektorien im Air Traffic Management 23.04.2013 Deutsche Flugsicherung GmbH, Langen 23.04.2013 1 Inhalt. Hintergrund und Motivation.

Mehr

Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung

Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung TU München Lehrstuhl Mathematische Optimierung Prof. Dr. Michael Ulbrich Dipl.-Math. Florian Lindemann Wintersemester 008/09 Blatt 1 Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung Für die

Mehr

Problem lokaler Minima

Problem lokaler Minima Optimierung Optimierung Häufige Aufgabe bei Parameterschätzung: Minimierung der negativen log-likelihood-funktion F(a) oder der Summe der quadratischen Abweichungen S(a) und Berechnung der Unsicherheit

Mehr

f : R 2 R 3 und erhält, über das Skalarprodukt, die symmetrische Bilinearform

f : R 2 R 3 und erhält, über das Skalarprodukt, die symmetrische Bilinearform 11. Riemannsche Geometrie II: Krümmung. In diesem Abschnitt betrachten wir variabe Biinearformen von R 2, d.h. Riemannsche Metriken von R 2. Es ist eine der großen Entdeckungen des 19. Jahrhunderts (durch

Mehr

Mathematische Probleme, SS 2013 Donnerstag $Id: convex.tex,v /10/22 15:58:28 hk Exp $

Mathematische Probleme, SS 2013 Donnerstag $Id: convex.tex,v /10/22 15:58:28 hk Exp $ $Id: convex.tex,v.2 203/0/22 5:58:28 hk Exp $ 3 Konvexgeometrie 3.2 Die patonischen Körper Ein patonischer Körper von Typ (n, m) ist ein konvexer Poyeder dessen Seitenfäche ae geichseitige n-ecke und in

Mehr

1. Temperaturabhängige Widerstände

1. Temperaturabhängige Widerstände V e r s u c h. Temperaturabhängige Widerstände. Einführung Im Technikbereich finden oft Prozesse statt, bei denen die Messung, Steuerung und egeung von Temperaturen eine wichtige oe spieen. Temperaturabhängige

Mehr

Praktikum Statische Prozessoptimierung. VERSUCH StatPO-1 Nichtlineare Optimierung

Praktikum Statische Prozessoptimierung. VERSUCH StatPO-1 Nichtlineare Optimierung Fakultät für Informatik und Automatisierung Institut für Automatisierungs und Systemtechnik Fachgebiet Simulation und Optimale Prozesse Praktikum Statische Prozessoptimierung VERSUCH StatPO-1 Nichtlineare

Mehr

Aufgabe 1 - Gasturbinenanlage

Aufgabe 1 - Gasturbinenanlage Prof. Dr. L. Guzzea 151-0573-00 Systemmodeierung WS 2005/2006) Musterösung Prüfung Dienstag, den 28. Februar 2005, 14.00-16.00 Aufgabe 1 - Gasturbinenanage a) Ursache-Wirungsdiadgramm: Abbidung 1: Ursache-Wirungsdiadgramm

Mehr

Stochastische Erweiterungen von Prozess-Algebra

Stochastische Erweiterungen von Prozess-Algebra Stochastische Erweiterungen von Prozess-Agebra Zie : PA Kakü so nichtfunktionae (stochastische) Zusammenhänge wiedergeben Motivation für stoch. Erweiterungen Modeierung nichtfunktionaer Systemaspekte,

Mehr

Optimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp

Optimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp Optimal-trennende Hyperebenen und die Support Vector Machine Volker Tresp 1 (Vapnik s) Optimal-trennende Hyperebenen (Optimal Separating Hyperplanes) Wir betrachten wieder einen linearen Klassifikator

Mehr

Aufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung. x = x 2 e x 1.

Aufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung. x = x 2 e x 1. Name: Matrikel-Nr.: 1 Aufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung R 3 R 2, x 1 f : x 1 + e x2 2 sin(x3 ) x = x 2 e x 1 (1 + x 2 1 + x, 2x 3 )

Mehr

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016 Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b

Mehr

Das Subgradientenverfahren

Das Subgradientenverfahren Das Subgradientenverfahren Seminar Optimierung WS 05/06 Betreuer: Prof. F. Jarre von Jalo Liljo Das Subgradientenverfahren Das Ziel dieses Vortrags ist die Berechnung einer Lösung des unrestringierten

Mehr

Matrizen. Jörn Loviscach. Versionsstand: 12. April 2010, 19:00 Die nummerierten Felder sind absichtlich leer, zum Ausfüllen in der Vorlesung.

Matrizen. Jörn Loviscach. Versionsstand: 12. April 2010, 19:00 Die nummerierten Felder sind absichtlich leer, zum Ausfüllen in der Vorlesung. Matrizen Jörn Loviscach Versionsstand: 12. April 2010, 19:00 Die nummerierten Felder sind absichtlich leer, zum Ausfüllen in der Vorlesung. 1 Matrix Ein rechteckige Anordnung von mathematischen Objekten

Mehr

Lineare Algebra. 10. Übungsstunde. Steven Battilana.

Lineare Algebra. 10. Übungsstunde. Steven Battilana. Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,

Mehr

Rechnerpraktikum zur Optimierung III

Rechnerpraktikum zur Optimierung III TU München Lehrstuhl Mathematische Optimierung Prof. Dr. M. Ulbrich Dipl.-Math. Florian Lindemann Sommersemester 007 Teil II Rechnerpraktikum zur Optimierung III Für die Bearbeitung des Aufgabenzettels

Mehr

80 Schwingende Saiten

80 Schwingende Saiten 80 Schwingende Saiten 331 80 Schwingende Saiten 80.1 Probem. Es werden die Schwingungen einer (Geigen-) Saite der Länge > 0 und Massendichte ρ(x) > 0, 0 x, untersucht. Ist diese in den Punkten x = 0 und

Mehr

Aufgaben und Lösungen Ausarbeitung der Übungsstunde zur Vorlesung Analysis I

Aufgaben und Lösungen Ausarbeitung der Übungsstunde zur Vorlesung Analysis I Aufgaben und en Ausarbeitung der Übungsstunde zur Voresung Anaysis I Wintersemester 2008/2009 Übung 7 Eineitung Vor den übichen Fragen bezügich der Unkarheiten in dem Hausaufgabenbatt so eine 15-minutige

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung

Mehr

Mathematik I Prüfung Frühlingssemester 2014

Mathematik I Prüfung Frühlingssemester 2014 Mathematik I Prüfung Frühlingssemester 2014 Prof. Dr. Enrico De Giorgi 23. Juni 2014 Mathematik II: Prüfung Frühlingssemester 2014 1 Teil I: Offene Fragen (50 Punkte) Allgemeine Anweisungen für offene

Mehr

Woche 08/12 15/12 4. Gershgorin-Kreise, Stabilität und Kondition 1 / 8

Woche 08/12 15/12 4. Gershgorin-Kreise, Stabilität und Kondition 1 / 8 Woche 08/12 15/12 4. Gershgorin-Kreise, Stabilität und Kondition 1 / 8 Lernziele In diesem Praktikum sollen Sie üben und lernen: Umgang mit der Matlab-Umgebung Darstellung einfacher Graphen Analyse der

Mehr

Matrizen. Jörn Loviscach

Matrizen. Jörn Loviscach Matrizen Jörn Loviscach Versionsstand: 7. April 2010, 14:27 Die nummerierten Felder sind absichtlich leer, zum Ausfüllen in der Vorlesung. Videos dazu: http://www.youtube.com/joernloviscach 1 Matrix Ein

Mehr

Einführung in Softwaretools zur Nichtlinearen Optimierung

Einführung in Softwaretools zur Nichtlinearen Optimierung Einführung in Softwaretools zur Nichtlinearen Optimierung 3. April 2017 5. April 2017 Sebastian Garreis, M. Sc. (hons) Johannes Haubner, M. Sc. Technische Universität München Fakultät für Mathematik Lehrstuhl

Mehr

Optimierung in R. Michael Scholz

Optimierung in R. Michael Scholz N Optimierung in R Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) Michael Scholz Institut für Statistik und Ökonometrie Georg-August-Universität Göttingen Fortgeschrittene Mathematik: Optimierung

Mehr

Lösungsvorschlag zur Nachklausur zur Analysis

Lösungsvorschlag zur Nachklausur zur Analysis Prof Dr H Garcke, D Depner SS 09 NWF I - Mathematik 080009 Universität Regensburg Lösungsvorschlag zur Nachklausur zur Analysis Aufgabe Untersuchen Sie folgende Reihen auf Konvergenz und berechnen Sie

Mehr

Berechnung von Wurzeln

Berechnung von Wurzeln Sieginde Fürst Berechnung von Wurzen Rekursive Fogen Zinseszinsforme; Heronverfahren Inhate Berechnung eines mit Zinsesezins verzinsten Kapitas auf zwei Arten Heronforme Einschranken von Wurzen Ziee Erernen

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel

Mehr

Geschichte und Theorie

Geschichte und Theorie Eektrotechnikprotoko 1 rspannung (EMK) und innerer Widerstand Moser Guido eines Gavanischem Eements Fuda, den 9.03.00 Geschichte und Theorie Die ersten Spannungsqueen, die gebaut wurden, waren gavanische

Mehr

Baustatik 2. Berechnung statisch unbestimmter Tragwerke. von Raimond Dallmann. 1. Auflage

Baustatik 2. Berechnung statisch unbestimmter Tragwerke. von Raimond Dallmann. 1. Auflage Baustatik Berechnung statisch unbestimmter Tragwerke von Raimond Damann 1. Aufage Baustatik Damann schne und portofrei erhätich bei beck-shop.de DIE FACHBUCHHANDLUNG Hanser München 006 Verag C.H. Beck

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Name: Matr.-Nr.: 2. Aufgabe 1. Gegeben sei die Matrix

Name: Matr.-Nr.: 2. Aufgabe 1. Gegeben sei die Matrix Name: Matr.-Nr.: 2 Aufgabe 1. Gegeben sei die Matrix 1 1 1 A = 3 3 3 2 2 2 (a) Bestimmen Sie Rang(A), Kern(A) und Bild(A). Ist A invertierbar? Geben Sie zwei verschiedene rechte Seiten b 1, b 2 an, so

Mehr

Kontinuierliche Optimierung

Kontinuierliche Optimierung Kontinuierliche Optimierung Markus Herrich Wintersemester 2018/19 ii Inhaltsverzeichnis 2 Optimalitäts- und Regularitätsbedingungen 1 2.1 Einleitung und Wiederholung.................... 1 2.2 Optimalitätsbedingungen

Mehr