Praktikum Hierarchische Steuerungssysteme. Versuch HSS-3. Verteilte Optimierung
|
|
- Franka Heintze
- vor 7 Jahren
- Abrufe
Transkript
1 Praktikum Hierarchische Steuerungssysteme Versuch HSS-3 Verteite Optimierung Verantworticher Hochschuehrer: Prof. Dr. Ing. habi. P. Li Versuchsverantworticher: Dr. Ing. S. Hopfgarten Name, Vorname, Matr.-Nr. Matrike-Nr. Mitarbeiter in der Praktikumsgruppe Datum, Note, Unterschrift
2 VERSUCH HSS Einführung Der Versuch reiht sich in die Betrachtung von Steuerungsstrukturen kompexer Systeme ein. Mit diesem Versuch so das Konzept der verteiten Optimierung, d. h. einer Struktur, die zwischen einer rein dezentraen und einer hierarchischen angesiedet ist, untersucht werden. Die Aufgaben sind so konzipiert, dass die Anwendung von nichtinearen (statischen) Optimierungsmethoden auf eine reaitätsnahe ingenieurwissenschaftiche Anwendung erfogen so. Ziee sind die mathematische Formuierung von verteiten Optimierungsaufgaben in ingenieurtechnischen Anwendungen, die Impementierung eines vereinfachten Projizierte-Gradienten-Agoritmus und eines geeigneten Agorithmus zur Lösung des verteiten Optimierungsprobems sowie die Anayse der Zuässigkeit und die praktische Umsetzbarkeit der erhatenen Lösungen. 2 Reaisierung des Praktikums Das Praktikum wird in PC-Laboren durchgeführt. Dazu steht die Software MATLAB R, MATLAB R Optimization Toobox TM 1 und für die Richtungssuche (eindimensionae Suche (eng.: ine search)) die MATLAB R -Funktion armijo zur Verfügung. Ein vereinfachtes Projizierte-Gradienten-Verfahren ist zu programmieren und ein voriegendes MATLAB R -Skript ist mit Teien des Lösungsagorithmus zur verteiten Optimierung zu ergänzen. 3 Probem- und Agorithmenbeschreibung 3.1 Agemeines Es gibt viee kompexe physikaische Systeme, die aus Teisysteme und Komponenten bestehen. Im Agemeinen kann die Dekomposition eines kompexen Systems in N Teisysteme hifreich sein. Die Teisysteme eines Gesamtsystems sind in der Rege miteinander verbunden oder vernetzt (durch Materia-, Energiefuss, Kommunikationssignae, usw.). Die Optimierung oder die optimae Regung socher Systeme erfordert passende Verfahren und entsprechende Agorithmen. Rege- oder Optimierungsstrategien für kompexe Systeme können zentraisiert, rein dezentraisiert, hierarchisch oder verteit sein. Neben der zentraen, der rein dezentraen und der hierarchischen ist die verteite Optimierung eine weitere Option zur Reaisierung einer entsprechenden Steuerungsstruktur. Sie stet einen Kompromiss zwischen der rein dezentraen (N unabhängige Reger/Optimierer) und der hierarchischen Steuerungsstruktur (N durch einen zusätzichen Koordinator koordinierte Reger/Optimierer) dar. Eine verteite Optimierung eines kompexen vernetzten System kann vorteihaft und rechnerisch günstig sein. In einer verteiten Optimierungsstrategie berechnet jedes Teisystem seine eigene optimae Strategie (jedes Teisystem versucht entweder ein eigenes Zie oder ein Gesamtzie optima zu erreichen). Die Vorteie sind: Einzene Teisysteme können ihr Zie geichzeitig optimieren. Dieser Umstand eraubt paraee Berechnungen und damit eine effiziente Optimierung des Gesamtsystems. 1 MATLAB R und MATLAB R Optimization Toobox TM sind ein eingetragenes Warenzeichen bzw. eine eingetragene Handesmarke der The Mathworks Inc.
3 VERSUCH HSS-3 3 Die verteite Optimierung ist wie die hierarchische zuverässiger as eine zentraisierte. Wenn ein einzenes Teisystem ausfät, ist nur dieses Teisystem betroffen, aber andere Teisysteme können weiter funktionieren. Damit fät aber nicht das Gesamtsystem aus. Ein verteites System ist einfach durch das Hinzufügen neuer Teisysteme (Komponenten) im Gegensatz zu einem zentraisierten System zu erweitern. As Lösungverfahren kann z. B. eine verteite Methode [4] eingesetzt werden, die auf der Han- Methode [5] aufbaut und unter Ausnutzung der konjugierten Funktion der Ziefunktion ein Projizierte-Gradienten-Verfahren verwendet. 3.2 Optimierungsprobemkasse und konjugierte Funktion Die Optimierungsprobemkasse, die mit der Han-Methode geöst werden kann, ist wie fogt definiert: min J(x)}, C = C 1 C 2... C N (1) x C x R nx - Optimierungsvariabenvektor, J(x) - geichmäßig konvexe, differenzierbare Funktion, C - abgeschossene, nichteere, konvexe Menge, beschrieben durch Geichungs- (GNB) und Ungeichungsnebenbedingungen (UNB) ( = 1, 2,..., s, s - Anzah der Nebenbedingungen (GNB und UNB), C ). Die Ziefunktion J(x) kann eine agemeine konvexe Funktion, aber auch z. B. eine quadratische Ziefunktion J(x) = 1 2 xt Hx mit H as Hesse-Matrix sein. Im etzteren Fa autet die Optimierungsaufgabe des -ten Teisystems beispiesweise 1 min z C 2 z w 2 mit z - Optimierungsvariabenvektor, w - sich iterativ ändernder Vektor entsprechend der Dimension von z. Die konjugierte Funktion J (y) zur konvexen Funktion J(x) ist definiert durch J (y) = sup y T x J(x) }. (3) x R nx Für eine quadratische Ziefunktion J(x) = 1 2 xt Hx ässt sich die konjugierte Funktion durch (2) J (y) = 1 2 yt H 1 y (4) beschreiben. Eine zu untersuchende inear-quadratische Optimierungsaufgabe kann fogendermaßen aussehen: min J(x) = 1 } x 2 xt Hx (5) u. B. v. a T x = b, = 1, 2,..., m (6) a T x b, = m + 1, m + 2,..., s (7)
4 VERSUCH HSS Verteiter Agorithmus für definite quadratische Optimierungsaufgaben Während der Han-Agorithmus die Lösungen für den Variabenvektor x und unter Berücksichtigung jeweis einer Geichungs- oder einer Ungeichungsnebenbedingung berechnet, ässt sich diese Methode so zu einer verteiten Methode erweitern, indem man Teisystemen eine gewisse Anzah an Nebenbedingungen zuordnet, die Teiprobeme zeitich parae ösen kann, jedoch die Koppung zu benachbarten Teisystemen berücksichtigt und damit eine Kommunikation zwischen ihnen einführen muss, siehe Agorithmus 1. Im Agorithmus wurde die einfache Darsteung x (p) N i assumed = L N i γ (p) c (8) benutzt. Im Agemeinen wird x (p) für eine beiebige konvexe Ziefunktion durch x (p) = J y y=y (p) (9) und für eine quadratische Ziefunktion J(x) = 1 2 xt Hx wird durch x (p) = H 1 y (p) (10) berechnet.
5 VERSUCH HSS-3 5 Agorithmus 1 Verteiter Agorithmus für definite quadratische Optimierungsprobeme 1: Initiaisierung: p := 0 x (0) i = 0, i bzw. x (0) = 0 γ (0) = 0, = 1, 2,... s α = s ω, ω = 1 2 minλ i}, λ i - Eigenwerte von H c = 1 αa T a H 1 a, = 1, 2,... s Ein c entspricht einer Beschränkung (GNB oder UNB). Jede Beschränkung wird von genau einem Reger berücksichtigt. Ein okaer Reger kann nur Beschränkungen berücksichtigen, die die okaen Variaben beinhaten. Wähe eine Abbruchtoeranz ε 2: repeat 3: p := p + 1 4: Kommunikation des i-ten Regers R i ( i) mit seinen Nachbarn R j, j N i, um die aktuaisierten Variaben (enthaten in x (p 1) i ) auszutauschen, und Konstruktion des Nachbarschaftsabbids (eng.: neighbourhood image) x (p) N i = x (p) j j N i 5: Paraees Update der Hifsvariaben γ des Regers R i ( i, L i : Menge der Indizes, die der okae Reger i berücksichtigt) 6: if (1 m) then 7: γ (p) = a T x(p 1) N i + γ (p 1) b 8: ese if (m + 1 s) then 9: γ (p) = max } a T x(p 1) N i + γ (p 1) b, 0 10: end if 11: Kommunikation des i-ten Regers R i ( i) mit seinen Nachbarn R j, j N i, um die im vorhergehenden Schritt aktuaisierten Hifsvariaben γ (p) auszutauschen 12: Paraees Update der Optimierungsvariaben (angenommenes Nachbarschaftsabbid, Sebstabbid (eng.: sef image)) x (p) N i assumed = γ (p) c L N i L N i : Menge der Indizes, die die Beschränkungen des Teisystem i oder von Nachbarteisystemen des Teisystems i betreffen γ (p) L N i = j N il j x (p) i = J i x (p) N i assumed } = max a x(p 1) + γ (p 1) b, 0 13: unti ( x (p),i x (p 1),i 2 < ε, i) (UNB)
6 VERSUCH HSS Projizierte-Gradienten-Verfahren Die Lösung der quadratischen Optimierungsaufgabe (11) 1 min z + αy (p 1) z C 2 x (p 1) 2 (11) im verteiten Agorithmus erfogt durch ein Projizierte-Gradienten-Verfahren, siehe z. B. [1], [2], [7]. Es ist geeignet, Optimierungsaufgaben (12) - (14) min J(x) (12) x Rn u. B. v. A eq x = b eq Ax b mit inearen Geichungs- (GNB) und Ungeichungsnebenbedingungen (UNB) zu ösen, A = a T m+1. a T s und b = b m+1. b s (13) (14) wird Ax b a T x b 0, = m + 1,..., s. (15) Ein agemeines Vorgehen beim Projizierte-Gradienten-Verfahren findet sich im Agorithmus 2. Bemerkungen zum Projizierte-Gradienten-Agorithmus: Forme für Berechnung der Suchrichtung d (p) in Schritt 8 stammt aus der Optimaitätsbedingung des nachfogenden Optimierungsprobems (16) - (18) min J(x (p) ) T d (16) d R nx u. B. v. Nd = 0 d T d = 1. Somit ist d (p) die optimae Lösung dieses Probems. Wenn das Probem (16) keine Nebenbedingungen hat, dann werden die Suchrichtung d (p) (in Schritt 8) und die Schrittänge α p (in Schritt 9) durch (19) berechnet: d (p) = 1 2µ J(x(p) ) und α (p) = 1 (19) (17) (18)
7 VERSUCH HSS-3 7 Agorithmus 2 Projizierte-Gradienten-Verfahren 1: Wähe einen Startpunkt x (0) 2: Wähe eine Anfangsschrittänge α 0 3: Wähe µ < 0 (z. B. µ = 1) 4: Setze Iterationszäher p := 0 5: whie (Keine Konvergenz) do 6: Finde die aktiven Ungeichungsnebedingungen (UNB) im Punkt x (p), d. h. } A = m + 1,..., s} a T x(p) b = 0 Bide die Matrix à und den Vektor b aus den aktiven UNB, d. h.. à = a T, b. = b.. A A 7: Bide die Matrix N und den Vektor n, so dass [ ] [ Aeq b b] N =, n = à 8: Bestimme die Suchrichtung d (p) durch d (p) = 1 [I N (N T N ) ] 1 N T J(x (p) ) 2µ } } =P (P : Projektionsmatrix) 9: Bestimme die Schrittänge α (p) durch α (p) = min 10: x (p+1) = x (p) + α (p) d (p) 1, b a T d(p) a T d(p) / A (p) und a T d(p) > 0 11: Abbruchbedingung erfüt? (Ja: Abbruch, Nein: Fortsetzung) 12: p := p : end whie }. 4 Optimierung eines Wasserversorgungssystems 4.1 System Das fogende Bid stet ein aggregiertes Wasserversorgungssystem mit drei Teisystemen dar (siehe [8]).
8 VERSUCH HSS-3 8 Abbidung 1: Ein aggregiertes Wasserversorgungssystem (Bidquee: [8]) Das Gesamtsystem besteht aus drei Subsystemen (Teisystemen (TS)). Das erste Teisystem ist mit dem zweiten und das zweite mit dem dritten verkoppet. Jedes Teisystem versorgt einen Verbraucher (TS1: eine Landgemeinde, Tagesverbrauch z 1,t = m3 d ; TS2: eine größere Stadt: z 2,t = m3 d ; TS3: eine Keinstadt: z 3,t = m3 d, 1 d = 24 h) mit einem entsprechenden Tagesgang des Verbrauchs. Im ersten und dritten Teisystem befindet sich je einen Wasserspeicher, im zweiten stehen zwei Speicher zur Verfügung. As Zustandsgrößen x i j werden die Speicherinhate, as Steuergrößen die Durchfüsse u i j, as Koppegrößen die Durchfüsse vi j und as Störgrößen (Verbräuche) z j gewäht, wobei der tiefgestete Index die Komponente im jeweiigen Teisysten und der hochgestete Index das Teisystem angibt. Die Koppegrößen sind gesondert aufgeführt, wei das System auch mittes hierarchischer Methoden optimiert wurde. Die Koppegrößen können wie weitere Steuerungen (Pseudosteuerungen) angesehen werden. Die Abfüsse aus dem ersten und dritten Speicher ergeben sich vereinfacht angegeben durch einen Faktor a 12 bzw. a 23 mutipiziert mit dem Speicherinhat des jeweiigen Speichers. Zur Reduktion der Probemdimension wird der Zeithorizont von einem Tag in drei Zeitintervae zu je t = 8 h unterteit, K = 3. Die Teisystemanzah ist N = 3. Die Speicher soen zur Zeit t = 0 ihren Sowerten entsprechen und am Ende des Zeithorizonts wieder genauso gefüt sein. Die fehenden Sowerte u 1 1,s bis v3 1,s werden in einer der Vorbereitungsaufgaben berechnet. Sie assen sich aufgrund des as bekannt angenommenen Bedarfs as konstante Werte pro Zeitinterva
9 VERSUCH HSS-3 9 berechnen, z. B. v 3 1,s + u 3 1,s = z 3,t K, (20) wobei eine Aufteiung von 74 % auf v1,s 3 und 26 % auf u3 1,s vorgenommen werden so. Bei den beiden Sowerten v1,s 1 und u1 1,s betragen die Anteie je 50 %. Auch die Koeffizienten a 12 und a 23 assen sich danach berechnen: v 2 1,s a 12 x 1 1,s = 0 a 12 = v2 1,s x 1 1,s v 3 1,s a 23 x 2 2,s = 0 a 23 = v3 1,s x 2 2,s (21) (22) Mit fogenden Angaben sind die späteren Berechnungen durchzuführen: Tabee 1: Minima-, Maxima- und Sowerte sowie Gewichte Variabe Min. Max. So. Gewicht x x x x u u 1 1,s 20 u u 2 1,s 20 u u 3 1,s 20 v1 1 0 v1,s 1 20 v1 2 0 v1,s 2 20 v1 3 0 v1,s Versuchsvorbereitung Bestimmen Sie die noch fehenden Sowerte, siehe Tab. 1 oben und gemäß (20), sowie die Koeffizienten a 12 und a 23 nach (21) und (22)! Geben Sie die Modegeichungen einschießich der Verkoppung für jedes Teisystem in zeitdiskreter Form an! Steen Sie eine geeignete Ziefunktion, die die gewichteten Abweichungen der Systemgrößen von ihren Sowerten quadratisch bewertet (ausgewogene Schwankungen zwischen Speicherinhaten und Durchfüssen), für die verteite Optimierung auf! Formuieren Sie das verteite Optimierungsprobem!
10 VERSUCH HSS Versuchsdurchführung Impementieren Sie den vereinfachten Agorithmus 3 des Projizierte-Gradienten-Verfahrens unter MATLAB R zur Lösung des quadratischen Optimierungsprobems (23)-(25) mit Koordinatenbeschränkungen as Ungeichungsnebenbedingungen, siehe z. B. [3]. Für die Richtungssuche (eindimensionae Suche (eng.: ine search)) steht Ihnen die MATLAB R - Funktion armijo zur Verfügung. min x J(x) = 1 } 2 xt Hx + c T x u. B. v. x min x x max (24) [ ] [ ] [ ] [ ] mit H =, c =, x min =, x 2 max = (25) 3 (23) Agorithmus 3 Vereinfachtes Projizierte-Gradienten-Verfahren 1: Hinterege Matrix H und Vektor c der Ziefunktion sowie Unter- und Obergrenzen (x min, x max ) der Optimierungsvariaben 2: Wähe einen zuässigen Startpunkt x (0) und speichere ihn as zurückiegende Lösung 3: Wähe eine Abbruchschranke ε (z. B ) für die Normdifferenz n = x (p) x (p 1) 4: Setze n (> ε) zum Anauf des Verfahrens 5: Setze Iterationszäher p := 0 6: whie n ε do 7: Berechne: Gradient der Ziefunktion g (p) = Hx (p) + c 8:... Suchrichtung d (p) = g (p) 9:... Schrittweite α (p) ( = arg min x (p) + α (p) d (p)) mittes ARMIJO-Rege (MATLAB R - α (p) Funktion armijo; Syntax: siehe Anhang) 10:... Nächster Punkt des unbeschränkten Probems x (p+1) = x (p) + α (p) d (p) 11:... Projektion x + = min(x max, max(x min, x (p+1) )) 12:... Normdifferenz n = x + x (p) 13: Setze x (p+1) := x + 14: p := p : end whie Ergänzen Sie im voriegenden MATLAB R -Skript die kenntich gemachten Passagen ( PUT YOUR CODE HERE! ) zur Lösung eines konvexen quadratischen Optimierungsprobems mittes des verteiten HAN-Verfahrens! Orientieren Sie sich an den Hinweisen im Anhang! Beachten Sie, dass ae Systemgrößen as -Größen reaisiert sind, d. h. as Abweichungen von ihren Sowerten! Lösen Sie das Optimierungsprobem des Wasserversorgungssystems mittes Ihrer Impementierung aus 4.3.2! Interpretieren und bewerten Sie die Ergebnisse! Beobachten Sie die Konvergenzeigenschaften (Anzah der Iterationen, Rechenzeit (CPU- Zeit))?
11 VERSUCH HSS Variieren Sie die Gewichte für einzene Systemgrößen! Beurteien Sie deren Einfuss auf die Lösung und die Konvergenz! Verändern Sie die Abschatschranke ε! Bewerten Sie die Lösung und die Konvergenz! Anhang: Aufruf der MATLAB R -Funktion armijo: apha=armijo(h,c,x,d); H: Hesse-Matrix c: Vektor des inearen Terms der Ziefunktion x: Startpunkt der Richtungssuche d: Suchrichtung Hinweise zur Ergänzung des MATLAB R -Skripts: MATLAB R -Variabe Bedeutung Ind Indizes der Teisystem-Koppung xni Nachbarschaftsabbid (neigbourhood image) des i-ten Teisystems, ((n x (K + 1) + (n u + n v )K, N) - Matrix, n x, n u, n v - Anzah aer Zustände, Steuerungen, Koppungen xsefimgi Sebstabbid (sef image) des i-ten Teisystems, Dimension wie Nachbarschaftsabbid, s. o. gamma γ, skaar, Anzah der GNB und UNB, s = 94 at a T, (1,34)-Vektor b b, skaar c c, (34,1)-Vektor xassumedni p angenommenes Nachbarschaftsabbid (sef image) des i-ten Teisystems, Dimension: s. o. xsefimgi p aktuaisiertes Sebstabbid (sef image) des i-ten Teisystems, Dimension: s.o. iteration Iterationszäher p TOLERANCE Abbruchschranke ε Literatur [1] D. P. Bertsekas. Noninear Programming. Athena Scientific, [2] D. P. Bertsekas, A. Nedić, and A. E. Ozdagar. Convex Anaysis and Optimzation. Athena Scientific, 2003.
12 VERSUCH HSS-3 12 [3] L. T. Bieger. Noninear Programming. SIAM, [4] D. Doan, T. Keviczky, I. Necoara, M. Dieh, and B. De Schutter. A distributed version of Han s method for DMPC of dynamicay couped systems with couped constraints. In Proc. of the 1st IFAC Workshop on Estimation and Contro of Networked Systems (NecSys 2009), pages , Venice, Itay, Sept [5] S.-P. Han and G. Lou. A Parae Agorithm for a Cass of Convex Programs. SIAM J. Contro and Optimization, 26(2): , [6] S. Hopfgarten. Hierarchische Steuerungssysteme. Voresung. TU Imenau. [7] C. T. Keey. Iterative Methods for Optimization. SIAM, [8] E. Lazutkin. Comparison of hierarchica and distributed optimization for mode predictive contro. Masterarbeit. TU Imenau, 2012.
Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
MehrPrüfung in Methode der finiten Elemente. Matrikelnummer: Studiengang: Wiederholer
Universität Stuttgart INSTITUT MECH NIK FUR Prüfung in Methode der finiten Eemente Name, Vorname: Matrikenummer: Studiengang: Wiederhoer Emai: Unterschrift: Hauptfach: Bitte beachten Sie Fogendes: 1. Es
MehrJohannes Kepler Universität Linz Institut für Regelungstechnik und Prozessautomatisierung
Johannes Keper Universität Linz Institut für Regeungstechnik und Prozessautomatisierung Schriftiche Prüfung aus Automatisierungstechnik Voresung, am 26. Mai 27 Name: Vorname(n): Matr.Nr.: SKZ: Aufgabe
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrAbiturprüfung Mathematik 006 Baden-Württemberg (ohne CAS) Haupttermin Pfichttei - Aufgaben Aufgabe : ( VP) Biden Sie die Abeitung der Funktion f mit f(x) = sin(4x ). 8 Aufgabe : ( VP) Geben Sie eine Stammfunktion
MehrPraktikum Statische Prozessoptimierung. Versuch StatPO-2
Praktikum Statische Prozessoptimierung Versuch StatPO-2 Programmierung und numerische Lösung von statischen nichtlinearen Optimierungssproblemen mittels Standardsoftware Verantwortlicher Hochschullehrer:
MehrSeminaraufgabensammlung zur Lehrveranstaltung. Prozessoptimierung 1. 1 Formulieren und Lösen linearer Optimierungsprobleme
Fachgebiet Simulation und Optimale Prozesse Fakultät für Informatik und Automatisierung Institut für Automatisierungsund Systemtechnik Seminaraufgabensammlung zur Lehrveranstaltung Prozessoptimierung Vorlesender:
MehrFinite-Elemente-Methode
11. Übung Prof. Dr.-Ing. W. Fischer Fachhochschue Dortmund Knicken und Beuen 1. Bestimmen Sie sowoh anaytisch wie auch mit Hife des FEM-Systems HyperWorks 14 für einen Stah-Kragträger der Länge = 1 m (quadratischer
MehrC Mathematische Grundlagen
C Mathematische Grundagen C.1 Summen Mit dem Summenzeichen werden Rechenanweisungen zum Addieren kompakt geschrieben. Sie assen sich oft mit Hife der Summenregen vereinfachen. C.1 Gibt es insgesamt n Werte
MehrSeminarvortrag: Trust-Region-Verfahren
Seminarvortrag: Trust-Region-Verfahren Helena Klump Universität Paderborn Dezember 2012 Helena Klump 1 / 22 Trust-Region-Verfahren Problemstellung Sei die Funktion f : R n R gegeben. Betrachtet wird das
MehrDas Gradientenverfahren
Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1
MehrOptimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 1 Newton Verfahren Taylor Approximation 1. Ordnung von Newton Verfahren! 0 Setze 0und berechne Löse lineares Gleichungssystem für : 2
MehrOptimale Steuerung 1
Optimale Steuerung 1 Kapitel 6: Nichtlineare Optimierung unbeschränkter Probleme Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Beispiel: Parameteranpassung für Phasengleichgewicht
MehrÜbung 6 - Musterlösung
Experimentaphysik für Lehramtskandidaten und Meteoroogen 6. Mai 00 Übungsgruppeneiter: Heiko Dumih Übung 6 - Musterösung Aufgabe 5: Kupfereiter Cu-Leiter: Länge =.5m, Eektronenadung q =.60 0 9 C, Leitungseektronendihte
MehrMultivariate Analysis
Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle
MehrFourierreihenentwicklung Prof. K. Weinberg Universität Siegen Lehrstuhl für Festkörpermechanik
Fourierreihenentwickung Prof. K. Weinberg Universität Siegen Lehrstuh für Festkörpermechanik Mathematische Grundagen für Einfachreihenentwickungen Für viee mathematische, physikaische und technische Probeme
MehrTECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09
................ Note I II Name Vorname 1 Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 Obige Angaben sind richtig: Unterschrift der Kandidatin/des Kandidaten 3 TECHNISCHE UNIVERSITÄT
MehrInhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1
Inhaltsverzeichnis 1 Inhaltsverzeichnis Innere-Punkte-Verfahren 3 1 Theoretische Grundlagen 3 1.1 Die KKT-Bedingungen........................... 3 1.2 Der zentrale Pfad.............................. 4
Mehr9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
Mehr= p u. Ul x 0 U r x > 0
Das Riemann-Probem Das zu ösende Geichungssystem besteht aus den eindimensionaen hydrodynamischen Geichungen ohne Viskosität und externe Kräfte, den Euer-Geichungen. Beschränkung auf eine Dimension (x)
MehrOperations Research für Logistik
Operations Research für Logistik Lineare Optimierung (170.202) Ao. Univ. - Prof. Norbert SEIFTER Dipl. - Ing. Stefanie VOLLAND Sommersemester 2012 Lehrstuhl Industrielogistik Lineare Optimierung Inhalte:
MehrPraktische Optimierung
Grundlagen klassischer Optimiertechniken Praktische Optimierung Wintersemester 2008/09 Prof Dr Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund Themen der heutigen
Mehr4. Anhang 4.1 Wertetabellen zum 2. Algorithmus //Suche alle k, welche quadratische Reste mod 64 sind print "Quadratische Reste mod 64:"; for k:=0 to 31 do print (k^2 mod 64); end for; k 0 1 2 3 4 5 6 7
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
MehrPraktische Optimierung
Praktische Optimierung Dozent: Günter Rudolph Vertretung: Nicola Beume Wintersemester 2007/08 Universität Dortmund Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS11) Fachgebiet Computational
MehrOptimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen
Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Dr. Abebe Geletu Ilmenau University of Technology Department of Simulation and Optimal Processes
MehrMathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz
Mathematik für Bioinformatik und Systembiologie - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz WS 2009/10 Universität Freiburg Dieses Vorlesungsskript ist auf der Basis von Vorlesungen
MehrVorwort 6 1 Der TI-Nspire CX CAS 7
Inhatsverzeichnis 3 Inhatsverzeichnis Vorwort 6 1 Der TI-Nspire CX CAS 7 1.1 Der Hauptbidschirm............................... 8 1.2 Die Bidschirmeemente des TI-Nspire CX CAS................ 9 1.3 Das
MehrInstitut für Analysis und Scientific Computing E. Weinmüller WS 2015
Institut für Analysis und Scientific Computing TU Wien E. Weinmüller WS 5 L I N E A R E A L G E B R A F Ü R T P H, U E (3.64). Haupttest (FR,..5) (mit Lösung ) Ein einfacher Taschenrechner ist erlaubt.
MehrÜbungen zur Vorlesung. Mobile und Verteilte Datenbanken. WS 2008/2009 Übung 2 Anfrageoptimierung in zentralisierten Datenbanksystemen LÖSUNG
Dr. rer. nat. Sven Groppe Übungen zur Voresung Mobie und Verteite Datenbanken WS 28/29 Übung 2 Anfrageoptimierung in zentraisierten Datenbanksystemen Aufgabe 1: Fogende Reationen seien gegeben: LÖSUNG
MehrNewton- und und Quasi-Newton-Methoden in der Optimierung. János Mayer
Newton- und und Quasi-Newton-Methoden in der Optimierung János Mayer 1 GLIEDERUNG Newton-Methode für nichtlineare Gleichungen nichtlineare Gleichungssysteme freie Minimierung. Quasi-Newton-Methoden für
MehrVorlesung Inhaltsverzeichnis. 1. Einfache Rechnungen
1. Einfache Rechnungen. Hife! 3. Geitkommazahen 4. Listen 5. Kompexe und ganze Zahen Voresung 30.11.018 Inhatsverzeichnis Einfache Rechnungen Sage kann aes was ein Taschenrechner kann, und das entweder
Mehr5.3.5 Abstiegs & Gradientenverfahren
5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3.5 Abstiegs & Gradientenverfahren Die bisher kennengelernten Iterationsverfahren zur Approximation von linearen Gleichungssystemen haben
MehrMusterlösung zu Aufgabe 10)
Musterösung zu Aufgabe ) Seien n, K Körper, A K n n, b K n, und f: K n K n mit f x Ax für x K n. a) Zeigen Sie: f bidet Affinkombinationen von Vektoren in Affinkombinationen von deren Bidern unter f ab.
MehrDie Involutfunktion Inhalt
Die Involutfunktion Inhalt Inhalt...1 Grundlagen... Basic-Programm...3 Programm-Ablaufplan Involut rekursiv...3 Programm Involut rekursiv...4 Programme für CASIO fx-7400g PLUS...5 Involutfunktion...5 Involut
MehrKAPITEL 6. Nichtlineare Ausgleichsrechnung
KAPITEL 6 Nichtlineare Ausgleichsrechnung Beispiel 61 Gedämpfte Schwingung: u + b m u + D m u = 0, Lösungen haben die Form: u(t) = u 0 e δt sin(ω d t + ϕ 0 ) Modell einer gedämpften Schwingung y(t; x 1,
MehrBerechnung magnetischer Kreise
TU ergakademie Freiberg nstitut für Eektrotechnik Prof. Dr.-ng. habi. U. eckert G:\beckert\voresung\grd_et\er_magn_Kreise 2- erechnung magnetischer Kreise Der magnetische Kreis vieer technischer nwendungen
MehrOptimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
MehrIterative Methoden zur Lösung von linearen Gleichungssystemen
Iterative Methoden zur Lösung von linearen Gleichungssystemen (13.12.2011) Ziel Können wir wir die zeitabhängige Schrödinger-Gleichung lösen? φ(t) = e iht ψ(0) Typischerweise sind die Matrizen, die das
MehrBlatt 5. - Lösungsvorschlag
Fautät für Physi der LMU München Lehrstuh für Kosoogie, Prof Dr V Muhanov Übungen zu Kassischer Mechani (T) i SoSe Batt 5 - Lösungsvorschag Aufgabe 5 Binäres Sternsyste a) Wieviee Freiheitsgrade hat das
MehrBemerkung 2.1: Das Newtonverahren kann auch als sequential quad. minimization verstanden werden: 2.1 Ein globalisiertes Newtonverfahren
Kapitel 2 Newtonverfahren Ziel: Bestimmung von Nullstellen von f (=stationärer Punkt). Dies geschieht mit dem Newtonverfahren. x k+1 = x k ( 2 f (x k )) 1 f (x k ) (2.1) Bemerkung 2.1: Das Newtonverahren
MehrNumerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben
Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Das Nelder Mead Verfahren Sei f : R n R eine (nicht
MehrQuadratische Formen und Definitheit
Universität Basel Wirtschaftswissenschaftliches Zentrum Quadratische Formen und Definitheit Dr. Thomas Zehrt Inhalt: 1. Quadratische Formen 2. Quadratische Approximation von Funktionen 3. Definitheit von
MehrUm die Reaxationsmethode auf die im Versuch untersuchte Reaktion anzuwenden, müssen zunächst die die mögichen Reaktionsmechanismen betrachtet werden..
Bitzichtphotoyse In dem Versuch soen kinetische Untersuchungen zur Bidung von Eisenthiocyanatkompexen in wässriger Lösung durchgeführt werden. Mit Hife der Reaxationsmethode soen die Geschwindigkeitskonstanten
MehrSchriftlicher Test (120 Minuten) VU Einführung ins Programmieren für TM. 23. Januar 2017
Familienname: Vorname: Matrikelnummer: Aufgabe 1 (3 Punkte): Aufgabe 2 (1 Punkt): Aufgabe 3 (2 Punkte): Aufgabe 4 (4 Punkte): Aufgabe 5 (2 Punkte): Aufgabe 6 (2 Punkte): Aufgabe 7 (4 Punkte): Aufgabe 8
MehrKAPITEL 10 DIE INNERE-PUNKTE-METHODE
KAPITEL DIE INNERE-PUNKTE-METHODE F. VALLENTIN, A. GUNDERT Vorteile: + Löst effizient lineare Programme (in Theorie und Praxis) + erweiterbar (zu einer größeren Klasse von Optimierungsproblemen) + einfach
MehrAM3: Differenzial- und Integralrechnung im R n. 1 Begriffe. 2 Norm, Konvergenz und Stetigkeit. x 1. x 2. f : x n. aus Platzgründen schreibt man:
AM3: Differenzial- und Integralrechnung im R n 1 Begriffe f : x 1 f 1 x 1, x 2,..., x n ) x 2... f 2 x 1, x 2,..., x n )... x n f m x 1, x 2,..., x n ) }{{}}{{} R n R m aus Platzgründen schreibt man: f
MehrProjekt Experimentelle Mathematik mit GeoGebra
Projekt Experimentee Mathematik mit GeoGebra (Projekt für Q1, G. vom Stein) Gefäße mit unterschiedichen Formen werden mit einer variaben, aber konstanten Wasserzufuhr befüt. Es so jeweis die Funktion Zeit
MehrRegelungstechnik I (WS 15/16) Übung 2
Regelungstechnik I (WS 5/6) Übung Prof. Dr. Ing. habil. Thomas Meurer Lehrstuhl für Regelungstechnik Aufgabe. (Linearität, Zeitinvarianz). Überprüfen Sie die folgenden dynamischen Systeme auf Linearität
Mehrb) Von welchen Parametern hängen die Eigenschwingungsfrequenzen ab?
Techn. Mechanik & Fahrzeugdynamik TM III Prof. Dr.-Ing. habi. Hon. Prof. (NUST) D. Beste 4. März 17 Prüfungskausur Technische Mechanik III Famiienname, Vorname Matrike-Nummer Fachrichtung Aufgabe 1 (9
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
MehrDie numerische Behandlung der zeitabhängigen Schrödinger-Gleichung für chemische Reaktionen
Kapite 2 Die numerische Behandung der zeitabhängigen Schrödinger-Geichung für chemische Reationen In diesem Abschnitt soen grundegende Verfahren zur numerischen Behandung der Schrödinger-Geichung besprochen
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrUniversität Tübingen Tübingen, den Mathematisches Institut D. Mansour, J. Seyrich
Universität Tübingen Tübingen, den 03.07.2013 Mathematisches Institut D. Mansour, J. Seyrich Probeklausur zu Algorithmen der Numerischen Mathematik SS 2013 ID Nummer: 1 Name:.........................................
MehrHöhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8. Übungsblatt. ). 12x 3 Die Hessematrix von f ist gegeben durch H f (x, y) =
Karlsruher Institut für Technologie (KIT Institut für Analysis Priv-Doz Dr P C Kunstmann Dipl-Math D Roth SS 0 7060 Höhere Mathematik II für die Fachrichtung Physik Lösungsvorschläge zum 8 Übungsblatt
MehrOptimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen
Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Dr. Nico Düvelmeyer Freitag, 8. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 NLP Aufgabe KKT 2 Nachtrag
MehrKonvexe Optimierungsprobleme
von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel
MehrSchriftlicher Test zu C (90 Minuten) VU Einführung ins Programmieren für TM. 1. Oktober 2012
Familienname: Vorname: Matrikelnummer: Aufgabe 1 (2 Punkte): Aufgabe 2 (3 Punkte): Aufgabe 3 (2 Punkte): Aufgabe 4 (3 Punkte): Aufgabe 5 (2 Punkte): Aufgabe 6 (1 Punkte): Aufgabe 7 (2 Punkte): Aufgabe
MehrSchriftlicher Test (120 Minuten) VU Einführung ins Programmieren für TM. 25. Jänner 2016
Familienname: Vorname: Matrikelnummer: Aufgabe 1 (3 Punkte): Aufgabe 2 (4 Punkte): Aufgabe 3 (2 Punkte): Aufgabe 4 (2 Punkte): Aufgabe 5 (2 Punkte): Aufgabe 6 (1 Punkte): Aufgabe 7 (3 Punkte): Aufgabe
MehrStudientag zur Algorithmischen Mathematik
Studientag zur Algorithmischen Mathematik Aufgaben zur nicht-linearen Optimierung Teil II Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Aufgabe 5 Bestimmen
MehrLaborpraktikum Sensorik. Versuch. ph-wertsensoren S 5
Otto-von-Guericke-Universität Magdeburg Fakutät für Eektrotechnik und Informationstechnik Institut für Mikro- und Sensorsysteme (IMOS) Fakutät für Verfahrens- und Systemtechnik Chemisches Institut Laborpraktikum
MehrGekoppelte Fadenpendel
Gekoppete adenpende Water endt 8. August 2007 Von gekoppeten Schwingungen spricht man, wenn sich mehrere schwingungsfähige Objekte gegenseitig beeinfussen. Ein bekanntes Beispie wird im ogenden näher beschrieben.
MehrMATLAB Optimization Toolbox Inhaltsverzeichnis
Inhaltsverzeichnis Inhaltsverzeichnis 0 Deckblatt: Optimization Toolbox 1 Was ist Optimierung? 2 Behandelte Themen der Optimization TB 3 Darstellung der Funktionen in Matlab 4 Inline Objects 5 Algorithmensteuerung
MehrKritischer Punkt von CO 2
Kritischer Punkt von CO 2 Praktikanten: Mirjam Eisee und Matthias Jasch Gruppennummer: 129 Versuchsdatum: 9. September 2009 Betreuer: Christof Gessner 1 Aufgabensteung Es werden für verschiedene Movoumina
MehrOptimal Control in Air Traffic Management
Optimal Control in Air Traffic Management DGLR Workshop Bestimmung optimaler Trajektorien im Air Traffic Management 23.04.2013 Deutsche Flugsicherung GmbH, Langen 23.04.2013 1 Inhalt. Hintergrund und Motivation.
MehrRechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung
TU München Lehrstuhl Mathematische Optimierung Prof. Dr. Michael Ulbrich Dipl.-Math. Florian Lindemann Wintersemester 008/09 Blatt 1 Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung Für die
MehrProblem lokaler Minima
Optimierung Optimierung Häufige Aufgabe bei Parameterschätzung: Minimierung der negativen log-likelihood-funktion F(a) oder der Summe der quadratischen Abweichungen S(a) und Berechnung der Unsicherheit
Mehrf : R 2 R 3 und erhält, über das Skalarprodukt, die symmetrische Bilinearform
11. Riemannsche Geometrie II: Krümmung. In diesem Abschnitt betrachten wir variabe Biinearformen von R 2, d.h. Riemannsche Metriken von R 2. Es ist eine der großen Entdeckungen des 19. Jahrhunderts (durch
MehrMathematische Probleme, SS 2013 Donnerstag $Id: convex.tex,v /10/22 15:58:28 hk Exp $
$Id: convex.tex,v.2 203/0/22 5:58:28 hk Exp $ 3 Konvexgeometrie 3.2 Die patonischen Körper Ein patonischer Körper von Typ (n, m) ist ein konvexer Poyeder dessen Seitenfäche ae geichseitige n-ecke und in
Mehr1. Temperaturabhängige Widerstände
V e r s u c h. Temperaturabhängige Widerstände. Einführung Im Technikbereich finden oft Prozesse statt, bei denen die Messung, Steuerung und egeung von Temperaturen eine wichtige oe spieen. Temperaturabhängige
MehrPraktikum Statische Prozessoptimierung. VERSUCH StatPO-1 Nichtlineare Optimierung
Fakultät für Informatik und Automatisierung Institut für Automatisierungs und Systemtechnik Fachgebiet Simulation und Optimale Prozesse Praktikum Statische Prozessoptimierung VERSUCH StatPO-1 Nichtlineare
MehrAufgabe 1 - Gasturbinenanlage
Prof. Dr. L. Guzzea 151-0573-00 Systemmodeierung WS 2005/2006) Musterösung Prüfung Dienstag, den 28. Februar 2005, 14.00-16.00 Aufgabe 1 - Gasturbinenanage a) Ursache-Wirungsdiadgramm: Abbidung 1: Ursache-Wirungsdiadgramm
MehrStochastische Erweiterungen von Prozess-Algebra
Stochastische Erweiterungen von Prozess-Agebra Zie : PA Kakü so nichtfunktionae (stochastische) Zusammenhänge wiedergeben Motivation für stoch. Erweiterungen Modeierung nichtfunktionaer Systemaspekte,
MehrOptimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp
Optimal-trennende Hyperebenen und die Support Vector Machine Volker Tresp 1 (Vapnik s) Optimal-trennende Hyperebenen (Optimal Separating Hyperplanes) Wir betrachten wieder einen linearen Klassifikator
MehrAufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung. x = x 2 e x 1.
Name: Matrikel-Nr.: 1 Aufgabe 1. Berechnen Sie die absolute und die relative Kondition des Problems x f(x) für die Abbildung R 3 R 2, x 1 f : x 1 + e x2 2 sin(x3 ) x = x 2 e x 1 (1 + x 2 1 + x, 2x 3 )
MehrLösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016
Institut für Analysis Prof Dr Michael Plum Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 0 0090 Aufgabe Punkte: Betrachten Sie das lineare Gleichungssystem Ax = b mit A = 0 und b
MehrDas Subgradientenverfahren
Das Subgradientenverfahren Seminar Optimierung WS 05/06 Betreuer: Prof. F. Jarre von Jalo Liljo Das Subgradientenverfahren Das Ziel dieses Vortrags ist die Berechnung einer Lösung des unrestringierten
MehrMatrizen. Jörn Loviscach. Versionsstand: 12. April 2010, 19:00 Die nummerierten Felder sind absichtlich leer, zum Ausfüllen in der Vorlesung.
Matrizen Jörn Loviscach Versionsstand: 12. April 2010, 19:00 Die nummerierten Felder sind absichtlich leer, zum Ausfüllen in der Vorlesung. 1 Matrix Ein rechteckige Anordnung von mathematischen Objekten
MehrLineare Algebra. 10. Übungsstunde. Steven Battilana.
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,
MehrRechnerpraktikum zur Optimierung III
TU München Lehrstuhl Mathematische Optimierung Prof. Dr. M. Ulbrich Dipl.-Math. Florian Lindemann Sommersemester 007 Teil II Rechnerpraktikum zur Optimierung III Für die Bearbeitung des Aufgabenzettels
Mehr80 Schwingende Saiten
80 Schwingende Saiten 331 80 Schwingende Saiten 80.1 Probem. Es werden die Schwingungen einer (Geigen-) Saite der Länge > 0 und Massendichte ρ(x) > 0, 0 x, untersucht. Ist diese in den Punkten x = 0 und
MehrAufgaben und Lösungen Ausarbeitung der Übungsstunde zur Vorlesung Analysis I
Aufgaben und en Ausarbeitung der Übungsstunde zur Voresung Anaysis I Wintersemester 2008/2009 Übung 7 Eineitung Vor den übichen Fragen bezügich der Unkarheiten in dem Hausaufgabenbatt so eine 15-minutige
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS2010/11 1 / 1 Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung
MehrMathematik I Prüfung Frühlingssemester 2014
Mathematik I Prüfung Frühlingssemester 2014 Prof. Dr. Enrico De Giorgi 23. Juni 2014 Mathematik II: Prüfung Frühlingssemester 2014 1 Teil I: Offene Fragen (50 Punkte) Allgemeine Anweisungen für offene
MehrWoche 08/12 15/12 4. Gershgorin-Kreise, Stabilität und Kondition 1 / 8
Woche 08/12 15/12 4. Gershgorin-Kreise, Stabilität und Kondition 1 / 8 Lernziele In diesem Praktikum sollen Sie üben und lernen: Umgang mit der Matlab-Umgebung Darstellung einfacher Graphen Analyse der
MehrMatrizen. Jörn Loviscach
Matrizen Jörn Loviscach Versionsstand: 7. April 2010, 14:27 Die nummerierten Felder sind absichtlich leer, zum Ausfüllen in der Vorlesung. Videos dazu: http://www.youtube.com/joernloviscach 1 Matrix Ein
MehrEinführung in Softwaretools zur Nichtlinearen Optimierung
Einführung in Softwaretools zur Nichtlinearen Optimierung 3. April 2017 5. April 2017 Sebastian Garreis, M. Sc. (hons) Johannes Haubner, M. Sc. Technische Universität München Fakultät für Mathematik Lehrstuhl
MehrOptimierung in R. Michael Scholz
N Optimierung in R Fortgeschrittene Mathematik: Optimierung (WiSe 09/10) Michael Scholz Institut für Statistik und Ökonometrie Georg-August-Universität Göttingen Fortgeschrittene Mathematik: Optimierung
MehrLösungsvorschlag zur Nachklausur zur Analysis
Prof Dr H Garcke, D Depner SS 09 NWF I - Mathematik 080009 Universität Regensburg Lösungsvorschlag zur Nachklausur zur Analysis Aufgabe Untersuchen Sie folgende Reihen auf Konvergenz und berechnen Sie
MehrBerechnung von Wurzeln
Sieginde Fürst Berechnung von Wurzen Rekursive Fogen Zinseszinsforme; Heronverfahren Inhate Berechnung eines mit Zinsesezins verzinsten Kapitas auf zwei Arten Heronforme Einschranken von Wurzen Ziee Erernen
MehrOptimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen
Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel
MehrGeschichte und Theorie
Eektrotechnikprotoko 1 rspannung (EMK) und innerer Widerstand Moser Guido eines Gavanischem Eements Fuda, den 9.03.00 Geschichte und Theorie Die ersten Spannungsqueen, die gebaut wurden, waren gavanische
MehrBaustatik 2. Berechnung statisch unbestimmter Tragwerke. von Raimond Dallmann. 1. Auflage
Baustatik Berechnung statisch unbestimmter Tragwerke von Raimond Damann 1. Aufage Baustatik Damann schne und portofrei erhätich bei beck-shop.de DIE FACHBUCHHANDLUNG Hanser München 006 Verag C.H. Beck
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
MehrName: Matr.-Nr.: 2. Aufgabe 1. Gegeben sei die Matrix
Name: Matr.-Nr.: 2 Aufgabe 1. Gegeben sei die Matrix 1 1 1 A = 3 3 3 2 2 2 (a) Bestimmen Sie Rang(A), Kern(A) und Bild(A). Ist A invertierbar? Geben Sie zwei verschiedene rechte Seiten b 1, b 2 an, so
MehrKontinuierliche Optimierung
Kontinuierliche Optimierung Markus Herrich Wintersemester 2018/19 ii Inhaltsverzeichnis 2 Optimalitäts- und Regularitätsbedingungen 1 2.1 Einleitung und Wiederholung.................... 1 2.2 Optimalitätsbedingungen
Mehr