Das Gradientenverfahren
|
|
- Thomas Neumann
- vor 6 Jahren
- Abrufe
Transkript
1 Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, / 28
2 Gliederung 0 Einführung 1 Allgemeines Abstiegsverfahren 2 Schrittweitenberechnung 3 Das Gradientenverfahren David Beisel Das Gradientenverfahren December 10, / 28
3 Einführung Einführung Bisher: Ableitungsfreie Verfahren Auch hier: Unresigniertes Optimierungsproblem: (PU) min x R n f (x) Unterschied: Zielfunktion f : R n R muss wenigstens stetig differenzierbar sein Ziel: Unter Verwendung von Ableitungen berechnen wir eine lokale Lösung von (PU) Ableitungsbasierte Verfahren Heute: Das Gradientenverfahren David Beisel Das Gradientenverfahren December 10, / 28
4 Einführung Einführung Was ist ein Gradient? Ein Gradient ist ein mathematischer Operator bzw. Differentialoperator Der Gradient ordnet einem Skalarfeld ein Gradientenfeld (Vektorfeld) zu, das die Änderungsrate und Richtung der größten Änderung es Skalarfeldes angibt Der Gradient wird mit dem sogenannten Nabla-Operator gebildet David Beisel Das Gradientenverfahren December 10, / 28
5 Einführung Einführung Grundidee des Gradientenverfahrens Das Gradientenverfahren wird auch Verfahren des steilsten Abstiegs genannt Von einem Startwert bzw. Näherungswert schreitet man in Richtung des negativen Gradienten fort, bis keine numerische Verbesserung mehr erzielt wird Es wird der negative Gradient verwendet, weil der Gradient die Richtung des größten Anstiegs angibt, wir aber die Richtung des steilsten Abstiegs von dem Näherungswert aus verwenden wollen David Beisel Das Gradientenverfahren December 10, / 28
6 Allgemeines Abstiegsverfahren 1. Allgemeines Abstiegsverfahren 1.1. Standardvoraussetzung Mit einem gegebenen Punkt x (0) R n (dies ist bei Verfahren der Startpunkt) ist die Niveaumenge N 0 := N (f, f (x (0) )) = {x R n f (x) f (x (0) )} kompakt. Die Zielfunktion f ist auf einer konvexen, offenen Obermenge D 0 von N 0 stetig differenzierbar. David Beisel Das Gradientenverfahren December 10, / 28
7 Allgemeines Abstiegsverfahren 1. Allgemeines Abstiegsverfahren 1.2. Optimalitätsbedingung Sei (PU) weiterhin min x R n f (x) In jeder lokalen Lösung x von (PU) ist die notwendige Optimalitätsbedingung f ( x) = f ( x) T = 0 n (1.2.1) erfüllt d.h. x ist stationärer Punkt von f. David Beisel Das Gradientenverfahren December 10, / 28
8 Allgemeines Abstiegsverfahren 1. Allgemeines Abstiegsverfahren 1.2. Optimalitätsbedingung Sei (PU) weiterhin min x R n f (x) In jeder lokalen Lösung x von (PU) ist die notwendige Optimalitätsbedingung f ( x) = f ( x) T = 0 n (1.2.1) erfüllt d.h. x ist stationärer Punkt von f. Um eine lokale Lösung von (PU) zu berechnen, löst man die Gleichung (1.2.1) um einen stationären Punkt zu erhalten. Dies ist nur bei einfachen Fällen analytisch möglich Man benötigt ein numerisches Verfahren. David Beisel Das Gradientenverfahren December 10, / 28
9 Allgemeines Abstiegsverfahren 1. Allgemeines Abstiegsverfahren Bemerkung: Bei konvexen Zielfunktionen entspricht ein stationärer Punkt einem globalen Minimalpunkt. In der Praxis wird sich in den meisten Fällen schon mit einem lokalen Minimalpunkt zufrieden gegeben Es wird schon als Erfolg gewertet überhaupt einen lokalen Minimalpunkt zu finden. Auch durch einen lokalen Minimalpunkt wird bei der Problemstellung eine Verbesserung erzielt David Beisel Das Gradientenverfahren December 10, / 28
10 Allgemeines Abstiegsverfahren 1. Allgemeines Abstiegsverfahren 1.3. Lemma Die Funktion f : R n R sei differenzierbar in x. Weiter sei d R n mit f (x) T d < 0 (1.3.1) Dann gibt es ein σ > 0 mit f (x + σd) < f (x) für alle σ ]0, σ[. David Beisel Das Gradientenverfahren December 10, / 28
11 Allgemeines Abstiegsverfahren 1. Allgemeines Abstiegsverfahren 1.3. Lemma Die Funktion f : R n R sei differenzierbar in x. Weiter sei d R n mit f (x) T d < 0 (1.3.1) Dann gibt es ein σ > 0 mit f (x + σd) < f (x) für alle σ ]0, σ[. Bemerkung: Die Bedingung ist im Zusammenhang mit Optimierungsverfahren die Standardbedingung für Abstiegsrichtungen David Beisel Das Gradientenverfahren December 10, / 28
12 Allgemeines Abstiegsverfahren 1. Allgemeines Abstiegsverfahren 1.4. Definition Ist f : R n R differenzierbar in x, dann heißt der Vektor d R n Abstiegsrichtung von f in Punkt x, wenn f (x) T d < 0 ist. David Beisel Das Gradientenverfahren December 10, / 28
13 Allgemeines Abstiegsverfahren 1. Allgemeines Abstiegsverfahren 1.5. Verfahren (1) Wähle einen Startpunkt x (0) R n und setze k := 0. (2) Ist f (x (k) ) = 0 n, dann stoppe das Verfahren. (3) Berechne eine Abstiegsrichtung d (k), eine Schrittweite σ k > 0 mit f (x (k) + σ k d (k) ) < f (x (k) ) und x (k+1) = x (k) + σ k d (k). (4) Setze k := k + 1 und gehe zu 2. David Beisel Das Gradientenverfahren December 10, / 28
14 Allgemeines Abstiegsverfahren 1. Allgemeines Abstiegsverfahren Beispiel Geogebra-Beispiel im 1-Dimensionalen Optimierungsfall: f (x) = 2x 2 x + 3 In diesem Beispiel ist x = 0, 25 Da f (x) eine konvexe Funktion ist, ist x sogar globales Minimum David Beisel Das Gradientenverfahren December 10, / 28
15 Schrittweitenberechnung 2. Schrittweitenberechnung 2.1. Problemstellung Bei einem Abstiegsverfahren sei im Iterationspunkt x (k) eine Abstiegsrichtung d (k) berechnet worden. Wählt man eine hinreichend kleine Schrittweite σ k, so gilt mit x (k+1) = x (k) + σ k d (k) nach Lemma 1.3: f (x (k+1) ) < f (x (k) ), d.h. man erhält eine streng monoton fallende Folge {f (x (k) )}. Dies alleine reicht aber nicht aus, um Konvergenz zu erhalten. David Beisel Das Gradientenverfahren December 10, / 28
16 Schrittweitenberechnung 2 Schrittweitenberechnung 2.2. Beispiel Wir betrachten die Funktion f (x) = x 2 mit x (0) = 1. Weiter sei Dann ist d (k) = 1 und σ k = ( 1 2 )k+2 k 0 x (k+1) = x (k) σ k = x (0) k i=0 ( 1 2 )i+2 = ( 1 2 )k+2 David Beisel Das Gradientenverfahren December 10, / 28
17 Schrittweitenberechnung 2 Schrittweitenberechnung 2.2. Beispiel Wir betrachten die Funktion f (x) = x 2 mit x (0) = 1. Weiter sei Dann ist d (k) = 1 und σ k = ( 1 2 )k+2 k 0 x (k+1) = x (k) σ k = x (0) k i=0 ( 1 2 )i+2 = ( 1 2 )k+2 Also gilt x (k+1) < x (k) und daher f (x (k+1) ) < f (x (k) ) für alle k 0, aber x (k) 1 2, d.h., die Folge {x (k) } konvergiert nicht gegen den Minimalpunkt x = 0 von f. David Beisel Das Gradientenverfahren December 10, / 28
18 Schrittweitenberechnung 2. Schrittweitenberechnung 2.3. Lösungsansatz Damit die Folge {x (k) } gegen einen stationären Punkt konvergiert muss f (x (k) ) 0 n für k gelten. Diese Bedingung sollte ein vernünftiges Abstiegsverfahren mindestens erfüllen. Benötigen eine Abschätzung wann eine Schrittweite bzw. eine Schrittweitenstrategie gut gewählt ist. David Beisel Das Gradientenverfahren December 10, / 28
19 Schrittweitenberechnung 2. Schrittweitenberechnung 2.4. Definition (1) Eine Schrittweitenstrategie σ = σ(x, d) erfüllt das Prinzip des hinreichenden Abstiegs, falls es von x N 0 und der Abstiegsrichtung d unabhänginge Konstanten c 1 > 0 und c 2 > 0 gibt mit und f (x + σd) f (x) + c 1 σ f (x) T d σ c 2 f (x) T d d 2 David Beisel Das Gradientenverfahren December 10, / 28
20 Schrittweitenberechnung 2. Schrittweitenberechnung 2.4. Definition (2) Eine Schrittweitenstrategie σ = σ(x, d) heißt effizient, falls es eine von x N 0 und der Abstiegsrichtung d unabhänginge Konstante c > 0 gibt mit f (x + σd) f (x) c( f (x)t d d ) 2 Eine Schrittweitenfolge {σ k } heißt effizient, falls sie mit einer effizienten Schrittweitenstrategie berechnet wird. David Beisel Das Gradientenverfahren December 10, / 28
21 Schrittweitenberechnung 2 Schrittweitenberechnung 2.5. Armijo-Verfahren Seien x N 0 und eine Abstiegsrichtung d R n von f in x gegeben. Weiter seien δ ]0, 1[, c 2 > 0 und 0 < β 1 β 2 < 1 von x und d unabhängige Konstanten. f (x) (1) Wähle eine Startschrittweite σ 0 für die σ 0 c T d 2 gilt. Setze d 2 j := 0. (2) Ist die Bedingung f (x + σ j d) f (x) + δσ j f (x) T d erfüllt, dann setzte σ A := σ j und stoppe das Verfahren. (3) Wähle σ j+1 [β 1 σ j, β 2 σ j ]. (4) Setze j := j + 1 und gehe zu 2. David Beisel Das Gradientenverfahren December 10, / 28
22 Das Gradientenverfahren 3. Das Gradientenverfahren 3.1. Verfahren Wir betrachten wieder das Problem (PU) und benutzen das allgemeine Abstiegsverfahren (1.4) mit der Suchrichtung d (k) = f (x (k) ). (1) Wähle einen Startpunkt x (0) R n und setze k := 0. (2) Ist f (x (k) ) = 0 n, dann stoppe das Verfahren. (3) Berechne eine effiziente Schrittweite σ k und x (k+1) = x (k) σ k f (x (k) ). (4) Setze k := k + 1 und gehe zu 2. David Beisel Das Gradientenverfahren December 10, / 28
23 Das Gradientenverfahren 3. Das Gradientenverfahren 3.2. Satz Die Voraussetzung (1.1) sei erfüllt. Stoppt das Verfahren nicht nach endlich vielen Iterationen, dann konvergiert die Folge {x (k) } gegen eine Nullstelle von f. David Beisel Das Gradientenverfahren December 10, / 28
24 Das Gradientenverfahren 3. Das Gradientenverfahren 3.2. Satz Die Voraussetzung (1.1) sei erfüllt. Stoppt das Verfahren nicht nach endlich vielen Iterationen, dann konvergiert die Folge {x (k) } gegen eine Nullstelle von f. Bemerkung: In der Praxis ist die Gleichung f (x (k) ) = 0 n oftmals nicht in endlich vielen Iterationen zu erreichen. Man schränkt die Bedingung in vielen Fällen auf f (x (k) ) ε ein. David Beisel Das Gradientenverfahren December 10, / 28
25 Das Gradientenverfahren 3. Das Gradientenverfahren 3.3. Satz (1) Folgende Voraussetzung sei erfüllt: Sei f : R n R, x (0) R und D N 0 sei nichtleer, offen und konvex. Die Funktion f sei zweimal stetig differenzierbar auf D und mit einer Konstante α 1 > 0 gelte: d T f (x)d α 1 d 2 d R n für alle x D, d.h. f ist gleichmäßig positiv definit auf D. David Beisel Das Gradientenverfahren December 10, / 28
26 Das Gradientenverfahren 3. Das Gradientenverfahren 3.3. Satz (2) Beim Allgemeinen Abstiegsverfahren (1.5) sei die Folge der Suchrichtungen {d (k) } gradientenbezogen, und die Schrittweitenfolge {σ k } sei effizient. Stoppt das Verfahren nicht nach endlich vielen Iterationen, dann konvergiert die berechnete Folge {x (k) } gegen den eindeutig bestimmten, globalen Minimalpunkt x von f. David Beisel Das Gradientenverfahren December 10, / 28
27 Das Gradientenverfahren 3. Das Gradientenverfahren 3.3. Satz (2) Beim Allgemeinen Abstiegsverfahren (1.5) sei die Folge der Suchrichtungen {d (k) } gradientenbezogen, und die Schrittweitenfolge {σ k } sei effizient. Stoppt das Verfahren nicht nach endlich vielen Iterationen, dann konvergiert die berechnete Folge {x (k) } gegen den eindeutig bestimmten, globalen Minimalpunkt x von f. Weiter gibt es eine Konstante L ]0, 1[ mit f (x (k) ) f ( x) L k (f (x (0) ) f ( x)), x (k) x 2 2 α 1 L k (f (x (0) ) f ( x)) für k 0. David Beisel Das Gradientenverfahren December 10, / 28
28 Das Gradientenverfahren 3. Das Gradientenverfahren 3.4. Satz Satz und Beweis an der Tafel David Beisel Das Gradientenverfahren December 10, / 28
29 Das Gradientenverfahren 3. Das Gradientenverfahren 3.5. Beispiel Betrachten wir die Rosenbrock-Funktion (f (x, y) = (1 x) (y x 2 ) 2 ). Über das Armijoverfahren erhalten wir effiziente Schrittweiten für das Gradientenverfahren. Mit dem Gradientenverfahren erhalten wir als einzigen stationären Punkt x = (1, 1) T. Daher konvergiert die vom Gradientenverfahren berechnete Folge {x (k) } gegen x. David Beisel Das Gradientenverfahren December 10, / 28
30 Das Gradientenverfahren 3. Das Gradientenverfahren 3.5. Beispiel Betrachten wir die Rosenbrock-Funktion (f (x, y) = (1 x) (y x 2 ) 2 ). Über das Armijoverfahren erhalten wir effiziente Schrittweiten für das Gradientenverfahren. Mit dem Gradientenverfahren erhalten wir als einzigen stationären Punkt x = (1, 1) T. Daher konvergiert die vom Gradientenverfahren berechnete Folge {x (k) } gegen x. Genauer: Wählen wir als Startpunkt ( 1.9, 2) T, stoppt das Gradientenverfahren nach 1280 Iterationen und 4539 Funktions- und Gradientenauswertungen. Die berechnete Lösung ist x = ( , ) T mit f (x) = David Beisel Das Gradientenverfahren December 10, / 28
31 Das Gradientenverfahren 3. Das Gradientenverfahren David Beisel Das Gradientenverfahren December 10, / 28
32 Das Gradientenverfahren 3. Das Gradientenverfahren David Beisel Das Gradientenverfahren December 10, / 28
33 Das Gradientenverfahren Vielen Dank für die Aufmerksamkeit! David Beisel Das Gradientenverfahren December 10, / 28
34 Das Gradientenverfahren Hausaufgaben 1) Gegeben sei das Optimierungsproblem (PU1) min x R f (x) mit f (x) = 2x 2 x + 3. Man ermittle mit dem Gradientenverfahren einen lokalen Minimalpunkt. Für die Berechnung der effizienten Schrittweite soll das Armijo-Verfahren verwendet werden, mit β 1 = β 2 = 1 2, δ = 1 2 und c 2 = 1. Der Startpunkt ist x (0) = 1. 2) Gegeben sei das 2-dimensionale Optimierungsproblem (PU2) min x R 2 f (x) mit f (x) = x x 2 2 2x 1 + x Berechne die ersten zwei Iterationen des Gradientenverfahrens mit Startpunkt x (0) = (0, 0). Für die Berechnung der effizienten Schrittweite soll weiterhin das Armijo-Verfahren verwendet werden, diesmal mit β 1 = β 2 = 1 4, δ = 1 4 und c 2 = 1. 3) Man zeige, dass bei beliebiger Startschrittweite nach endlich viele Iterationsschritten im Armijo-Verfahren die Armijo-Bedingung f (x + σ j d) f (x) + δσ j f (x) T d erfüllt ist. Hinweis: Für das Armijo-Verfahren bitte Startschrittweite 1 verwenden! David Beisel Das Gradientenverfahren December 10, / 28
Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
Mehr8.3 Lösen von Gleichungen mit dem Newton-Verfahren
09.2.202 8.3 Lösen von Gleichungen mit dem Newton-Verfahren Beispiel: + 2 e Diese Gleichung kann nicht nach aufgelöst werden, da die beiden nicht zusammengefasst werden können. e - - 2 0 Die gesuchten
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrStudientag zur Algorithmischen Mathematik
Studientag zur Algorithmischen Mathematik Aufgaben zur nicht-linearen Optimierung Teil II Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Aufgabe 5 Bestimmen
Mehr3 Nichtlineare Gleichungssysteme
3 Nichtlineare Gleichungsssteme 3.1 Eine Gleichung in einer Unbekannten Problemstellung: Gegeben sei die stetige Funktion f(). Gesucht ist die Lösung der Gleichung f() = 0. f() f() a) f ( ) 0 b) f ( )
MehrNumerische Ableitung
Numerische Ableitung Die Ableitung kann angenähert werden durch den Differentenquotient: f (x) f(x + h) f(x) h oder f(x + h) f(x h) 2h für h > 0, aber h 0. Beim numerischen Rechnen ist folgendes zu beachten:
Mehrε δ Definition der Stetigkeit.
ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x
MehrNichtlineare Gleichungssysteme
Kapitel 2 Nichtlineare Gleichungssysteme Problem: Für vorgegebene Abbildung f : D R n R n finde R n mit oder ausführlicher f() = 0 (21) f 1 ( 1,, n ) = 0, f n ( 1,, n ) = 0 Einerseits führt die mathematische
MehrUniversität des Saarlandes Seminar der Fachrichtung Mathematik Rudolf Umla
Universität des Saarlandes Seminar der Fachrichtung Mathematik Rudolf Umla Sätze über Konvexität von Kapitel 4.7 bis 4.10 Theorem 4.7-1. Sei U ein konvexer Unterraum eines normierten Vektorraums. Dann
MehrPartielle Ableitungen, Gradient, Lineare Näherung, Extrema, Fehlerfortpflanzung
Partielle Ableitungen, Gradient, Lineare Näherung, Extrema, Fehlerfortpflanzung Jörn Loviscach Versionsstand: 29. Juni 2009, 18:41 1 Partielle Ableitungen, Gradient Die Ableitung einer Funktion f an einer
MehrIterative Verfahren, Splittingmethoden
Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem
MehrWirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)
Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra
Mehr18 Höhere Ableitungen und Taylorformel
8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a
MehrÜbungen zur Vorlesung MATHEMATIK II
Fachbereich Mathematik und Informatik der Philipps-Universität Marburg Übungen zur Vorlesung MATHEMATIK II Prof. Dr. C. Portenier unter Mitarbeit von Michael Koch Marburg, Sommersemester 2005 Fassung vom
MehrTaylor-Entwicklung der Exponentialfunktion.
Taylor-Entwicklung der Exponentialfunktion. Betrachte die Exponentialfunktion f(x) = exp(x). Zunächst gilt: f (x) = d dx exp(x) = exp(x). Mit dem Satz von Taylor gilt um den Entwicklungspunkt x 0 = 0 die
MehrIterative Methods for Improving Mesh Parameterizations
Iterative Methods for Improving Mesh Parameterizations Autoren: Shen Dong & Michael Garland, SMI 07 Nicola Sheldrick Seminar Computergrafik April 6, 2010 Nicola Sheldrick (Seminar Computergrafik)Iterative
Mehr2 Stetigkeit und Differenzierbarkeit
2.1) Sei D R. a) x 0 R heißt Häufungspunkt von D, wenn eine Folge x n ) n N existiert mit x n D,x n x 0 und lim n x n = x 0. D sei die Menge der Häufungspunkte von D. b) x 0 D heißt innerer Punkt von D,
MehrTeil II. Nichtlineare Optimierung
Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene
MehrAnwendungen des Fréchet-Abstandes Das Constrained Free Space Diagram zur Analyse von Körperbewegungen
Anwendungen des Fréchet-Abstandes Das Constrained Free Space Diagram zur Analyse von Körperbewegungen David Knötel Freie Universität Berlin, Institut für Informatik Seminar über Algorithmen Leitfaden Wiederholung
MehrLineare Optimierung. bei Prof. Walter Alt. Semester: SS 2006 und WS 2009
Lineare Optimierung bei Prof. Walter Alt Semester: SS 2006 und WS 2009 Vorwort Dieses Dokument wurde als Skript für die auf der Titelseite genannte Vorlesung erstellt und wird jetzt im Rahmen des Projekts
MehrKLAUSUR zu Einführung in die Optimierung. Studiengang: Bachelor Master Diplom (bitte ankreuzen)
Mathematisches Institut WS 2012/13 der Heinrich-Heine-Universität 7.02.2013 Düsseldorf Prof. Dr. Achim Schädle KLAUSUR zu Einführung in die Optimierung Bitte folgende Angaben ergänzen und DEUTLICH LESBAR
MehrOptimalitätskriterien
Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen
MehrAnalysis I - Stetige Funktionen
Kompaktheit und January 13, 2009 Kompaktheit und Funktionengrenzwert Definition Seien X, d X ) und Y, d Y ) metrische Räume. Desweiteren seien E eine Teilmenge von X, f : E Y eine Funktion und p ein Häufungspunkt
MehrAufgaben für die 6. Übung zur Vorlesung Mathematik 2 für Informatiker: Analysis Sommersemester 2010
Aufgaben für die 6. Übung zur Vorlesung Mathematik für Informatiker: Analysis Sommersemester 00 6. Wie hat man eine reelle Zahl α > 0 so in a b 3 positive Summanden x, y, z zu zerlegen, damit fx, y x y
MehrNichtlineare Optimierung ohne Nebenbedingungen
Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt
MehrFunktionsgrenzwerte, Stetigkeit
Funktionsgrenzwerte, Stetigkeit Häufig tauchen in der Mathematik Ausdrücke der Form lim f(x) auf. x x0 Derartigen Ausdrücken wollen wir jetzt eine präzise Bedeutung zuweisen. Definition. b = lim f(x) wenn
MehrMathematik-Tutorium für Maschinenbauer II: Differentialgleichungen und Vektorfelder
DGL Schwingung Physikalische Felder Mathematik-Tutorium für Maschinenbauer II: Differentialgleichungen und Vektorfelder Johannes Wiedersich 23. April 2008 http://www.e13.physik.tu-muenchen.de/wiedersich/
MehrMathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz
Mathematik für Bioinformatik und Systembiologie - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz WS 2009/10 Universität Freiburg Dieses Vorlesungsskript ist auf der Basis von Vorlesungen
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den
MehrTechnische Universität München Zentrum Mathematik. Übungsblatt 4
Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 4 Hausaufgaben Aufgabe 4. Gegeben sei die Funktion f : D R mit f(x) :=
MehrDer Abschluss D ist die Menge, die durch Hinzunahme der Intervallränder entsteht, in den obigen Beispielen also
Festlegung Definitionsbereich 11.1 Festlegung Definitionsbereich Festlegung: Wir betrachten Funktionen f : D Ñ R, deren Definitionsbereich eine endliche Vereinigung von Intervallen ist, also z.b. D ra,
MehrOptimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen
Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Dr. Nico Düvelmeyer Freitag, 8. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 NLP Aufgabe KKT 2 Nachtrag
MehrII. Nichtlineare Optimierung
II. Nichtlineare Optimierung 1. Problemstellungen 2. Grundlagen 3. Probleme ohne Nebenbedingungen 4. Probleme mit Nebenbedingungen Theorie 5. Probleme mit Nebenbedingungen Verfahren H. Weber, FHW, OR SS06,
MehrSatz 16 (Multiplikationssatz)
Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.
MehrDynamische Systeme eine Einführung
Dynamische Systeme eine Einführung Seminar für Lehramtstudierende: Mathematische Modelle Wintersemester 2010/11 Dynamische Systeme eine Einführung 1. Existenz und Eindeutigkeit von Lösungen 2. Flüsse,
MehrMathematik 1 für Wirtschaftsinformatik
Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration
MehrVorlesung: Nicht-kooperative Spieltheorie. Teil 2: Spiele in Normalform
Vorlesung: Nicht-kooperative Spieltheorie Teil 2: Spiele in Normalform Dr. Thomas Krieger Wintertrimester 2009 Dr. Thomas Krieger Vorlesung: Nicht-kooperative Spieltheorie 1 Inhaltliche Motivation Es gibt
MehrStetigkeit von Funktionen
9 Stetigkeit von Funktionen Definition 9.1 : Sei D R oder C und f : D R, C. f stetig in a D : ε > 0 δ > 0 mit f(z) f(a) < ε für alle z D, z a < δ. f stetig auf D : f stetig in jedem Punkt a D. f(a) ε a
Mehr35 Stetige lineare Abbildungen
171 35 Stetige lineare Abbildungen Lernziele: Konzepte: Lineare Operatoren und ihre Normen Resultate: Abschätzungen für Matrizennormen Kompetenzen: Abschätzung von Operatornormen 35.1 Lineare Abbildungen.
Mehr2. Stetige lineare Funktionale
-21-2. Stetige lineare Funktionale Die am Ende von 1 angedeutete Eigenschaft, die ein lineares Funktional T : D(ú) 6 verallgemeinerten Funktion macht, ist die Stetigkeit von T in jedem n 0 0 D(ú). Wenn
MehrLösungsvorschläge Blatt 4
Theoretische Informatik Departement Informatik Prof. Dr. Juraj Hromkovič http://www.ita.inf.ethz.ch/theoinf16 Lösungsvorschläge Blatt 4 Zürich, 21. Oktober 2016 Lösung zu Aufgabe 10 (a) Wir zeigen mit
MehrThema 4 Limiten und Stetigkeit von Funktionen
Thema 4 Limiten und Stetigkeit von Funktionen Wir betrachten jetzt Funktionen zwischen geeigneten Punktmengen. Dazu wiederholen wir einige grundlegende Begriffe und Schreibweisen aus der Mengentheorie.
MehrDie Gamma-Funktion, das Produkt von Wallis und die Stirling sche Formel. dt = lim. = lim = Weiters erhalten wir durch partielle Integration, dass
Die Gamma-Funktion, das Produkt von Wallis und die Stirling sche Formel Zuerst wollen wir die Gamma-Funktion definieren, die eine Verallgemeinerung von n! ist. Dazu benötigen wir einige Resultate. Lemma.
Mehr3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer
3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich
MehrMultivariate Analysis
Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle
Mehr4.7 Der Taylorsche Satz
288 4 Differenziation 4.7 Der Taylorsche Satz Die Differenzierbarkeit, also die Existenz der ersten Ableitung einer Funktion, erlaubt bekanntlich, diese Funktion lokal durch eine affine Funktion näherungsweise
MehrOptimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
Mehr4. DIE ABLEITUNG (DERIVATIVE)
31 Dieses Skript ist ein Auszug mit Lücken aus Einführung in die mathematische Behandlung der Naturwissenschaften I von Hans Heiner Storrer, Birkhäuser Skripten. Als StudentIn sollten Sie das Buch auch
MehrStetigkeit. Kapitel 4. Stetigkeit. Peter Becker (H-BRS) Analysis Sommersemester / 543
Kapitel 4 Stetigkeit Peter Becker (H-BRS) Analysis Sommersemester 2016 254 / 543 Inhalt Inhalt 4 Stetigkeit Eigenschaften stetiger Funktionen Funktionenfolgen und gleichmäßige Konvergenz Umkehrfunktionen
MehrMathematik II für Inf und WInf
Gruppenübung Mathematik II für Inf und WInf 8. Übung Lösungsvorschlag G 28 (Partiell aber nicht total differenzierbar) Gegeben sei die Funktion f : R 2 R mit f(x, ) := x. Zeige: f ist stetig und partiell
MehrEinführung in die Analysis
Ergänzungen zur Vorlesung Einführung in die Analysis Christian Schmeiser 1 Vorwort In dieser Vorlesung werden Grundbegriffe der Analysis wie Folgen und Reihen, Konvergenz und Vollständigkeit am Beispiel
MehrOptimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen
Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel
MehrLösungsvorschläge zum 14. Übungsblatt.
Übung zur Analysis III WS / Lösungsvorschläge zum 4. Übungsblatt. Aufgabe 54 Sei a R\{}. Ziel ist die Berechnung des Reihenwertes k a + k. Definiere dazu f : [ π, π] R, x coshax. Wir entwickeln f in eine
Mehr3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)
3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände
MehrDierentialgleichungen 2. Ordnung
Dierentialgleichungen 2. Ordnung haben die allgemeine Form x = F (x, x, t. Wir beschränken uns hier auf zwei Spezialfälle, in denen sich eine Lösung analytisch bestimmen lässt: 1. reduzible Dierentialgleichungen:
MehrWenn man eine Folge gegeben hat, so kann man auch versuchen, eine Summe. a 0 + a 1 + a 2 +
8 Reihen 38 8 Reihen Wenn man eine Folge gegeben hat, so kann man auch versuchen, eine Summe a 0 + a + a 2 + zu bilden. Wir wollen nun erklären, was wir darunter verstehen wollen. Zunächst kann man die
MehrCaputo fraktionale Differentialgleichungen. 1 Riemann Liouville fraktionale Differentialgleichungen
Seminar Fraktionale Differentialgleichungen Prof. Dr. P.E. Kloeden, WS1000/2001 Caputo fraktionale Differentialgleichungen Lars Grüne, 25.1.2001 Basierend auf Fractional Differential Equations, Theory
MehrOptimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg
Universität Regensburg Wintersemester 2012/13 1 Einführung Anwendungen Finanzwirtschaft: maximale Gewinnrate unter Beschränkungen an das Risiko; Portfolio von Investments Produktion: maximiere Gewinn bei
MehrNumerisches Lösen von Gleichungen
Numerisches Gesucht ist eine Lösung der Gleichung f(x) = 0. Das sverfahren ist eine numerische Methode zur Bestimmung einer Nullstelle. Es basiert auf dem Zwischenwertsatz: Satz (1.1.1) Zwischenwertsatz:
MehrTangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:
Tangentengleichung Wie Sie wissen, gibt die erste Ableitung einer Funktion deren Steigung an. Betrachtet man eine fest vorgegebene Stelle, gibt f ( ) also die Steigung der Kurve und somit auch die Steigung
Mehr27 Taylor-Formel und Taylor-Entwicklungen
136 IV. Unendliche Reihen und Taylor-Formel 27 Taylor-Formel und Taylor-Entwicklungen Lernziele: Konzepte: klein o - und groß O -Bedingungen Resultate: Taylor-Formel Kompetenzen: Bestimmung von Taylor-Reihen
MehrFlüsse, Fixpunkte, Stabilität
1 Flüsse, Fixpunkte, Stabilität Proseminar: Theoretische Physik Yannic Borchard 7. Mai 2014 2 Motivation Die hier entwickelten Formalismen erlauben es, Aussagen über das Verhalten von Lösungen gewöhnlicher
MehrDefinition: Differenzierbare Funktionen
Definition: Differenzierbare Funktionen 1/12 Definition. Sei f :]a, b[ R eine Funktion. Sie heißt an der Stelle ξ ]a, b[ differenzierbar, wenn der Grenzwert existiert. f(ξ + h) f(ξ) lim h 0 h = lim x ξ
MehrDefinition (Reguläre Ausdrücke) Sei Σ ein Alphabet, dann gilt: (ii) ε ist ein regulärer Ausdruck über Σ.
Reguläre Ausdrücke Definition (Reguläre Ausdrücke) Sei Σ ein Alphabet, dann gilt: (i) ist ein regulärer Ausdruck über Σ. (ii) ε ist ein regulärer Ausdruck über Σ. (iii) Für jedes a Σ ist a ein regulärer
MehrDie Funktion f sei (zumindest) in einem Intervall I = [a, b] definiert und dort hinreichend oft differenzierbar. f(x 0 ) f(x)
3.2.4. Analyse von Funktionen Die Funktion f sei (zumindest) in einem Intervall I = [a, b] definiert und dort hinreichend oft differenzierbar. Begriffe: Die Funktion f hat in x 0 I eine stationäre Stelle,
MehrMathematik für Anwender I. Beispielklausur I mit Lösungen
Fachbereich Mathematik/Informatik Prof. Dr. H. Brenner Mathematik für Anwender I Beispielklausur I mit en Dauer: Zwei volle Stunden + 10 Minuten Orientierung, in denen noch nicht geschrieben werden darf.
MehrAnalysis II WS 11/12 Serie 9 Musterlösung
Analysis II WS / Serie 9 Musterlösung Aufgabe Bestimmen Sie die kritischen Punkte und die lokalen Extrema der folgenden Funktionen f : R R: a fx, y = x + y xy b fx, y = cos x cos y Entscheiden Sie bei
MehrJeweils am Montag um 18:30 treffen sich Studenten in Seminarraum 3 zum gemeinsamen Lernen.
Jeweils am Montag um 18:30 treffen sich Studenten in Seminarraum 3 zum gemeinsamen Lernen. Betrachtungen zu Sprache, Logik und Beweisen Sprache Wir gehen von unserem Alphabet einigen Zusatzsymbolen aus.
Mehr2. VEKTORANALYSIS 2.1 Kurven Definition: Ein Weg ist eine stetige Abbildung aus einem Intervall I = [a; b] R in den R n : f : I R n
2. VEKTORANALYSIS 2.1 Kurven Definition: Ein Weg ist eine stetige Abbildung aus einem Intervall I = [a; b] R in den R n : f : I R n f ist in dem Fall ein Weg in R n. Das Bild f(t) des Weges wird als Kurve
MehrOptimierung. Florian Jarre Josef Stoer. Springer
2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Florian Jarre Josef Stoer Optimierung Springer Inhaltsverzeichnis
Mehr2 Euklidische Vektorräume
Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,
MehrNichtlineare Optimierungsprobleme mit Komplexität
Definition eines Nichtlinearen Optimierungsproblemes (NLP) min f (x) bzw. min f (x) s.d. x S x S wobei die zulässige Menge S R n typischerweise definiert ist durch S {x R n : h(x) =, c(x) } für Gleichungs-
MehrInhalt. Vorwort Mittelwertsatz der Integralrechnung... 31
Inhalt Vorwort... 5 1 Stammfunktionen... 7 1.1 Erklärung der Stammfunktionen........................................... 7 1.2 Eigenschaften der Stammfunktionen.................................... 10 1.3
MehrMathematik für Wirtschaftswissenschaftler
Knut Sydsaeter Peter HammondJ Mathematik für Wirtschaftswissenschaftler Basiswissen mit Praxisbezug 2., aktualisierte Auflage Inhaltsverzeichnis Vorwort 13 Vorwort zur zweiten Auflage 19 Kapitel 1 Einführung,
Mehr4.1 Grundlegende Konstruktionen Stetigkeit von Funktionen Eigenschaften stetiger Funktionen... 92
Kapitel 4 Funktionen und Stetigkeit In diesem Kapitel beginnen wir Funktionen f : Ê Ê systematisch zu untersuchen. Dazu bauen wir auf den Begriff des metrischen Raumes auf und erhalten offene und abgeschlossene
MehrLineare Gleichungssysteme
Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare
MehrAlgorithmen mit konstantem Platzbedarf: Die Klasse REG
Algorithmen mit konstantem Platzbedarf: Die Klasse REG Sommerakademie Rot an der Rot AG 1 Wieviel Platz brauchen Algorithmen wirklich? Daniel Alm Institut für Numerische Simulation Universität Bonn August
MehrTEILWEISE ASYNCHRONE ALGORITHMEN
TEILWEISE ASYNCHRONE ALGORITHMEN FRANK LANGBEIN Literatur: D. Berseas, J. Tsitsilis: Parallel and distributed computatoin, pp. 48 489 URI: http://www.langbein.org/research/parallel/ Modell teilweiser asynchroner
MehrInhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57
Vorwort... 13 Vorwort zur 3. deutschen Auflage... 17 Kapitel 1 Einführung, I: Algebra... 19 1.1 Die reellen Zahlen... 20 1.2 Ganzzahlige Potenzen... 23 1.3 Regeln der Algebra... 29 1.4 Brüche... 34 1.5
MehrMathematik Übungsblatt - Lösung. b) x=2
Hochschule Regensburg Fakultät Informatik/Mathematik Christoph Böhm Sommersemester 204 Technische Informatik Bachelor IT2 Vorlesung Mathematik 2 Mathematik 2 4. Übungsblatt - Lösung Differentialrechnung
MehrUNIVERSITÄT DORTMUND FACHBEREICH INFORMATIK
UNIVERSITÄT DORTMUND FACHBEREICH INFORMATIK Thomas Fober Experimentelle Analyse Evolutionärer Algorithmen auf dem CEC 2005 Testfunktionensatz Diplomarbeit 01.07.2006 I N T E R N E B E R I C H T E I N T
Mehr17. Penalty- und Barriere-Methoden
H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende
Mehr2004, x 0 (e 2x + x) x 1, x > 0. Untersuchen Sie die Funktion auf Stetigkeit an der Stelle x 0 = 0!
Klausur 25.02.2004 Aufgabe 5 Gegeben ist die Funktion f(x) = 2004, x 0 (e 2x + x) x 1, x > 0. Untersuchen Sie die Funktion auf Stetigkeit an der Stelle x 0 = 0! Klausur 06.08.2003 Aufgabe 5 Gegeben ist
MehrOptimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen
Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Dr. Abebe Geletu Ilmenau University of Technology Department of Simulation and Optimal Processes
MehrOperations Research II (Nichtlineare und dynamische Optimierung)
Operations Research II (Nichtlineare und dynamische Optimierung) 5. April 007 Frank Köller,, Hans-Jörg von Mettenheim & Michael H. Breitner 8.4.007 # Nichtlineare Optimierung: Überblick Allgemeine Form:
Mehr2.3.1 Explizite Runge-Kutta-Verfahren
Somit ist y(t + h) = y + hf(t, y ) + h (f t (t, y ) + f y (t, y )f(t, y )) + O(h 3 ) Setzen wir Φ(t, y, h) := f(t, y) + h (f t(t, y) + f y (t, y)f(t, y)), so erhalten wir ein Verfahren mit der Konsistenzordnung
MehrGleichmäßige Konvergenz und Funktionenräume
Gleichmäßige Konvergenz und Funktionenräume Isabella Lukasewitz und Andreas Brack 07.06.2010 Vortrag zum Proseminar zur Analysis Konvergenz und Funktionenräume INHALTSVERZEICHNIS Bereits in den Vorlesungen
Mehr9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83
9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x
Mehr9 Die Normalverteilung
9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,
Mehr11. Folgen und Reihen.
- Funktionen Folgen und Reihen Folgen Eine Folge reeller Zahlen ist eine Abbildung a: N R Statt a(n) für n N schreibt man meist a n ; es handelt sich also bei einer Folge um die Angabe der Zahlen a, a
Mehr6. Flüsse und Zuordnungen
6. Flüsse und Zuordnungen In diesem Kapitel werden Bewertungen von Kanten als maximale Kapazitäten interpretiert, die über solch eine Kante pro Zeiteinheit transportiert werden können. Wir können uns einen
MehrDie Taylorreihe einer Funktion
Kapitel 6 Die Taylorreihe einer Funktion Dieser Abschnitt beschäftigt sich mit Taylorreihen, Taylorpolynomen und der Restgliedabschätzung für Taylorpolynome. Die Taylorreihe einer reellen Funktion ist
MehrMathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation
Mathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation www.math.ethz.ch/education/bachelor/lectures/fs2015/other/mathematik2 biol Prof. Dr. Erich Walter
Mehrentspricht der Länge des Vektorpfeils. Im R 2 : x =
Norm (oder Betrag) eines Vektors im R n entspricht der Länge des Vektorpfeils. ( ) Im R : x = x = x + x nach Pythagoras. Allgemein im R n : x x = x + x +... + x n. Beispiele ( ) =, ( 4 ) = 5, =, 4 = 0.
MehrFACHCURRICULUM KL. 9. Raum und Form Figuren zentrisch strecken Üben und Festigen. Strahlensätze. Rechtwinklige Dreiecke.
MATHEMATIK Schönbuch-Gymnasium Holzgerlingen Seite 1/5 Ähnliche Figuren - Strahlensätze Figuren zentrisch strecken Eigenschaften der zentrischen Streckung kennen und Zentrische Streckung anwenden Strahlensätze
MehrNewtonverfahren Die folgende Abbildung beschreibt das Newtonverfahren zur näherungsweisen Berechnung von Nullstellen:
BspNr: J0011 Themenbereich Näherungsverfahren zur Nullstellenberechnung (Newtonverfahren) Ziele Probleme, die bei der näherungsweisen Nullstellenberechnung auftreten können, erkennen. Analoge Aufgabenstellungen
MehrRekursiv aufzählbare Sprachen
Kapitel 4 Rekursiv aufzählbare Sprachen 4.1 Grammatiken und die Chomsky-Hierarchie Durch Zulassung komplexer Ableitungsregeln können mit Grammatiken größere Klassen als die kontextfreien Sprachen beschrieben
MehrKAPITEL 6. Nichtlineare Ausgleichsrechnung
KAPITEL 6 Nichtlineare Ausgleichsrechnung Beispiel 61 Gedämpfte Schwingung: u + b m u + D m u = 0, Lösungen haben die Form: u(t) = u 0 e δt sin(ω d t + ϕ 0 ) Modell einer gedämpften Schwingung y(t; x 1,
Mehr(Man sagt dafür auch, dass die Teilmenge U bezüglich der Gruppenoperationen abgeschlossen sein muss.)
3. Untergruppen 19 3. Untergruppen Nachdem wir nun einige grundlegende Gruppen kennengelernt haben, wollen wir in diesem Kapitel eine einfache Möglichkeit untersuchen, mit der man aus bereits bekannten
MehrBestimmung einer ersten
Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,
Mehr