Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung

Größe: px
Ab Seite anzeigen:

Download "Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung"

Transkript

1 Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung Dr. Florian Lindemann Moritz Keuthen, M.Sc. Technische Universität München Garching,

2 Kursplan Dienstag, Optimierungsverfahren in der unrestringierten Optimierung Vergleich von Konvergenzverhalten einzelner Verfahren Matlab Mittwoch, Optimierungsverfahren in der restringierten Optimierung Vorstellen von externer Lösungs-Software Modellieren und Lösen mit NEOS Donnerstag, Innere-Punkte-Verfahren Installation und Kompilieren größerer Optimierungspakete und Ipopt

3 P1 - C 60 -Molekül min f (x), f (x) = 1 x R F (x) 2 2. (1) x k+1 = x k + σ k s k, f (x k + σ k s k ) f (x k ) σ k γ f (x k ) T s k.

4 P1 - C 60 -Molekül min f (x), f (x) = 1 x R F (x) 2 2. (1) x k+1 = x k + σ k s k, f (x k + σ k s k ) f (x k ) σ k γ f (x k ) T s k. Gradientenverfahren: s k = f (x k ) = F (x k ) T F (x k ),

5 P1 - C 60 -Molekül min f (x), f (x) = 1 x R F (x) 2 2. (1) x k+1 = x k + σ k s k, f (x k + σ k s k ) f (x k ) σ k γ f (x k ) T s k. Gradientenverfahren: s k = f (x k ) = F (x k ) T F (x k ), Gauß-Newton-Verfahren: F (x k ) T F (x k )s k = F (x k ) T F (x k ) (= f (x k )),

6 P1 - C 60 -Molekül min f (x), f (x) = 1 x R F (x) 2 2. (1) x k+1 = x k + σ k s k, f (x k + σ k s k ) f (x k ) σ k γ f (x k ) T s k. Gradientenverfahren: s k = f (x k ) = F (x k ) T F (x k ), Gauß-Newton-Verfahren: F (x k ) T F (x k )s k = F (x k ) T F (x k ) (= f (x k )), Newton-Verfahren: [ ] F i (x k )F i (x k ) + F (x k ) T F (x k ) s k = F (x k ) T F (x k ). i

7 P2 - Gradienten-, Newton-, inverses BFGS-Verfahren Newton-Verfahren löst unrestringierte Optimierungsprobleme mit quadratischer Zielfunktion in einer Iteration.

8 P2 - Gradienten-, Newton-, inverses BFGS-Verfahren Newton-Verfahren löst unrestringierte Optimierungsprobleme mit quadratischer Zielfunktion in einer Iteration. Keine lokal-quadratische Konvergenz des Newton-Verfahrens ist ein häufiges Indiz für eine Verletzung der hinreichenden Optimalitätsbedingung zweiter Ordnung.

9 P2 - Gradienten-, Newton-, inverses BFGS-Verfahren Newton-Verfahren löst unrestringierte Optimierungsprobleme mit quadratischer Zielfunktion in einer Iteration. Keine lokal-quadratische Konvergenz des Newton-Verfahrens ist ein häufiges Indiz für eine Verletzung der hinreichenden Optimalitätsbedingung zweiter Ordnung. Konvergenz-Geschwindigkeit des Gradienten-Verfahren hängt bei quadratischen Funktionen von der Kondition der Matrix ab.

10 P2 - Gradienten-, Newton-, inverses BFGS-Verfahren Newton-Verfahren löst unrestringierte Optimierungsprobleme mit quadratischer Zielfunktion in einer Iteration. Keine lokal-quadratische Konvergenz des Newton-Verfahrens ist ein häufiges Indiz für eine Verletzung der hinreichenden Optimalitätsbedingung zweiter Ordnung. Konvergenz-Geschwindigkeit des Gradienten-Verfahren hängt bei quadratischen Funktionen von der Kondition der Matrix ab. Vorteile inverses BFGS-Verfahren : Matrix-Vektor-Multiplikation statt lineares Gleichungssystem, keine 2. Ableitungen notwendig, häufig lokal ähnliches Konvergenzverhalten wie Newton-Verfahren beobachtbar (superlineare Konvergenz).

11 P3 - Problem der Brachistochrone Vergleich von Speicherbedarf und Rechenaufwand: Speicher Flops Gradienten-Verfahren O(n) O(n) Vektor-Vektor-Operationen

12 P3 - Problem der Brachistochrone Vergleich von Speicherbedarf und Rechenaufwand: Speicher Flops Gradienten-Verfahren O(n) O(n) Vektor-Vektor-Operationen Newton-Verfahren (dense) O(n 2 ) O(n 3 ) Lösung LGS mit voller Matrix

13 P3 - Problem der Brachistochrone Vergleich von Speicherbedarf und Rechenaufwand: Speicher Flops Gradienten-Verfahren O(n) O(n) Vektor-Vektor-Operationen Newton-Verfahren (dense) O(n 2 ) O(n 3 ) Lösung LGS mit voller Matrix Newton-Verfahren (sparse) O(n) O(n) Lösung LGS mit tridiagonal-matrix

14 P3 - Problem der Brachistochrone Vergleich von Speicherbedarf und Rechenaufwand: Speicher Flops Gradienten-Verfahren O(n) O(n) Vektor-Vektor-Operationen Newton-Verfahren (dense) O(n 2 ) O(n 3 ) Lösung LGS mit voller Matrix Newton-Verfahren (sparse) O(n) O(n) Lösung LGS mit tridiagonal-matrix Bei vielen Problemen lässt sich die Struktur der Hesse-Matrix ausnutzen, um sowohl Speicherbedarf als auch den Rechenaufwand zur Lösung des linearen Gleichungssystems zu reduzieren.

15 Das restringierte Optimierungsproblem min f (x) u.d.n. g(x) 0, h(x) = 0 (2) x Rn mit f : R n R, g : R n R m, h : R n R p. KKT-Bedingungen (notwendig falls CQ) Es gibt λ R m und µ R p mit f (x ) + g(x )λ + h(x )µ = 0 h(x ) = 0 λ 0, g(x ) 0, λ T g(x ) = 0 Die erste Bedingung kann mit Hilfe der Lagrangefunktion L(x, λ, µ) = f (x) + λ T g(x) + µ T h(x) (3) auch als x L(x, λ, µ ) = 0 geschrieben werden.

16 Wie sind die Funktionen gegeben? Explizit oder implizit Ungenauigkeiten Programmiersprachen? Ableitungen? Startpunktwahl Schätzung der Lösung Schätzung der Startmatrizen M k, B k, H k Heuristik

17 Lösen von Teilproblemen Lineare Gleichungssysteme QPs bei SQP-Verfahren LPs Geschickte Parameterwahl Große Optimierungsprobleme Darstellung von/operationen mit Vektoren und Matrizen Effiziente Operationen und Lösung der Teilprobleme notwendig

18 Je nach Problemstellung (linear, quadratisch, konvex, allgemein, unrestringiert, restringiert, mit 1.Ableitungen, etc.) gibt es andere Löser. Die Eingabe des eigentlichen Problems (der Daten eines Problems) ist unterschiedlich. Überblick über einige Software findet man zum Beispiel hier:

19 : Modellierungssoftware keine eigenen Löser Schnittstellen zu vielen Lösern, siehe

20 Grundlegende Syntax jede Anweisung beginnt mit einem Schlüsselwort und endet mit ; Groß- und Kleinschreibung ist wichtig Grundlegende Struktur model bsp.mod; data bsp.dat; solve; oder commands bsp.com; Anzeige von Lösung x mit display x;

21 Einfaches Beispiel Problem: max 3x 1 + x 2 u.d.n. x 1 + x 2 4, 2x 1 + 3x 2 6, x 1, x 2 0 Zugehörige Modelldatei var x1; var x2; maximize ziel: 3*x1+x2; subject to nb1: x1+x2 <= 4; subject to nb2: -2*x1+3*x2 <= 6; subject to nb3: x1 >= 0; subject to nb4: x2 >= 0;

22 Einfaches Beispiel Aufruf des Lösers: option solver minos; solve; MINOS 5.5: optimal solution found. 1 iterations, objective 12 display x1,x2,ziel; x1 = 4 x2 = 0 ziel = 12 Stattdessen kann auch eine Command-Datei aufgerufen werden.

23 Weiteres Umfangreiche Features möglich Mengendefinitionen Parameter (für Data-Datei) Indexmengen-Schreibweise Excel-Schnittstelle viele weitere problemabhängigen Schlüsselwörter nutzbar

24 Etwas komplizierteres Beispiel set M; # Menge von Bedarfsorten set N; # Menge von Produktionsorten param a i in N >= 0; # Angebotsmengen param b j in M >= 0; # Bedarfsmengen param c i in N, j in M; # Kosten param s i in N, j in M; # Schranken var x i in N, j in M >= 0, <= s[i,j]; minimize kosten: sum i in N, j in M x[i,j]*c[i,j]; #sum j in M, i in N... oder sum i in N sumj in M subject to bedarf j in M: sum i in N x[i,j] = b[j]; subject to angebot i in N: sum j in M x[i,j] = a[i];

25 Los gehts! Zusammenfassung Tag 1

Rechnerpraktikum zur Optimierung III

Rechnerpraktikum zur Optimierung III TU München Lehrstuhl Mathematische Optimierung Prof. Dr. M. Ulbrich Dipl.-Math. Florian Lindemann Sommersemester 2007 Teil I Rechnerpraktikum zur Optimierung III P1. Durchhängenes Seil Die senkrechten

Mehr

Die CUTEr Testbibliothek

Die CUTEr Testbibliothek Die CUTEr Testbibliothek Slide 1 Motivation Softwarepakete mit vollkommen verschiedenen Anwendungsschwerpunkten Optimierung entweder nur einer von vielen Schwerpunkten oder sogar nur Nebenprodukt zur Lösung

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Technische Universität Chemnitz Chemnitz, 19.10.2009 Prof. Dr. C. Helmberg, A. Lau Optimierung für Nichtmathematiker Übung 2 Einführung in die Modellierungssprache AMPL 1. Wir betrachten zunächst das Mozartproblem

Mehr

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

Nichtlineare Optimierungsprobleme mit Komplexität

Nichtlineare Optimierungsprobleme mit Komplexität Definition eines Nichtlinearen Optimierungsproblemes (NLP) min f (x) bzw. min f (x) s.d. x S x S wobei die zulässige Menge S R n typischerweise definiert ist durch S {x R n : h(x) =, c(x) } für Gleichungs-

Mehr

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems

Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems Kapitel 2 Newton Verfahren 2.1 Das lokale Newton Verfahren Wir untersuchen in diesem Abschnitt das (lokale) Newton Verfahren zur Lösung eines nichtlinearen Gleichungssystems F (x) = 0 (2.1) mit einer zumindest

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

Mathematik 2 für Wirtschaftsinformatik

Mathematik 2 für Wirtschaftsinformatik für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar

Mehr

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz Mathematik für Bioinformatik und Systembiologie - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz WS 2009/10 Universität Freiburg Dieses Vorlesungsskript ist auf der Basis von Vorlesungen

Mehr

AMPL Eine kurze Einführung

AMPL Eine kurze Einführung AMPL Eine kurze Einführung Sebastian Lohse, Maria Pilecka März 2014 1 / 54 Einleitung Modellierung Allgemeines Mengen Parameter, Variablen, Modell Weiterführende Konzepte Dateneingabe Anzeige Daten- und

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Nichtlineare Optimierung

Nichtlineare Optimierung Nichtlineare Optimierung Roland Pulch Vorlesung im Wintersemester 2015/16 Institut für Mathematik und Informatik Mathematisch-Naturwissenschaftliche Fakultät Ernst-Moritz-Arndt-Universität Greifswald Inhalt:

Mehr

Veranstaltung und Übung: Optimierungssysteme Modelle, Software, Praxisanwendungen. Uwe Suhl Veronika Waue SS 2008

Veranstaltung und Übung: Optimierungssysteme Modelle, Software, Praxisanwendungen. Uwe Suhl Veronika Waue SS 2008 Veranstaltung 10033025 und 101053 Übung: Optimierungssysteme Modelle, Software, Praxisanwendungen Uwe Suhl Veronika Waue SS 2008 Organisatorisches Veronika Waue Sprechstunde Mi.11h-12h (R214) E-mail: veronika@waue.net

Mehr

Optimierung mit Matlab

Optimierung mit Matlab Lehrstuhl Mathematik, insbesondere Numerische und Angewandte Mathematik Prof. Dr. L. Cromme Computerbasierte Mathematische Modellierung für Mathematiker, Wirtschaftsmathematiker, Informatiker im Wintersemester

Mehr

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen Dr. Abebe Geletu Ilmenau University of Technology Department of Simulation and Optimal Processes

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

II. Nichtlineare Optimierung

II. Nichtlineare Optimierung II. Nichtlineare Optimierung 1. Problemstellungen 2. Grundlagen 3. Probleme ohne Nebenbedingungen 4. Probleme mit Nebenbedingungen Theorie 5. Probleme mit Nebenbedingungen Verfahren H. Weber, FHW, OR SS06,

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen Dr. Nico Düvelmeyer Freitag, 8. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 NLP Aufgabe KKT 2 Nachtrag

Mehr

Lineare und nichtlineare Optimierung

Lineare und nichtlineare Optimierung Lineare und nichtlineare Optimierung AXEL DREVES Institut für Mathematik und Rechneranwendung Fakultät für Luft- und Raumfahrttechnik Universität der Bundeswehr München Werner-Heisenberg-Weg 39 85577 Neubiberg/München

Mehr

17. Penalty- und Barriere-Methoden

17. Penalty- und Barriere-Methoden H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende

Mehr

Inhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57

Inhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57 Vorwort... 13 Vorwort zur 3. deutschen Auflage... 17 Kapitel 1 Einführung, I: Algebra... 19 1.1 Die reellen Zahlen... 20 1.2 Ganzzahlige Potenzen... 23 1.3 Regeln der Algebra... 29 1.4 Brüche... 34 1.5

Mehr

BWL-Crash-Kurs Mathematik

BWL-Crash-Kurs Mathematik Ingolf Terveer BWL-Crash-Kurs Mathematik UVK Verlagsgesellschaft mbh Vorwort 9 1 Aufgaben der Linearen Wirtschaftsalgebra 13 Aufgaben 17 2 Lineare Gleichungssysteme 19 2.1 Lineare Gleichungssysteme in

Mehr

6.8 Newton Verfahren und Varianten

6.8 Newton Verfahren und Varianten 6. Numerische Optimierung 6.8 Newton Verfahren und Varianten In den vorherigen Kapiteln haben wir grundlegende Gradienten-basierte Verfahren kennen gelernt, die man zur numerischen Optimierung von (unbeschränkten)

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Aufgaben zur nicht-linearen Optimierung Teil II Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Aufgabe 5 Bestimmen

Mehr

Mathematik für Wirtschaftswissenschaftler

Mathematik für Wirtschaftswissenschaftler Knut Sydsaeter Peter HammondJ Mathematik für Wirtschaftswissenschaftler Basiswissen mit Praxisbezug 2., aktualisierte Auflage Inhaltsverzeichnis Vorwort 13 Vorwort zur zweiten Auflage 19 Kapitel 1 Einführung,

Mehr

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg Universität Regensburg Wintersemester 2012/13 1 Einführung Anwendungen Finanzwirtschaft: maximale Gewinnrate unter Beschränkungen an das Risiko; Portfolio von Investments Produktion: maximiere Gewinn bei

Mehr

3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z

3 Anwendungen der Differentialrechnung. (x 1, x 2,..., x n 1, x n ) f xn (x 1, x 2,..., x n 1, x n ), 1 i n 1. y + cos z R Es sei f : R n D R eine einmal stetig differenzierbare Funktion, für die in einer Umgebung eines Punkte a = a 1, a,, a n D gilt: fa 1, a,, a n = 0, f xn a 1, a,, a n 0 Dann gibt es eines Umgebung U des

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den

Mehr

Optimalitätskriterien

Optimalitätskriterien Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen

Mehr

Mathematik 1 für Wirtschaftsinformatik

Mathematik 1 für Wirtschaftsinformatik Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration

Mehr

BACHELORARBEIT. Moderne Gradientenverfahren für den Einsatz in technischen Aufgabenstellungen und deren Anwendung auf ein- und multikriterielle

BACHELORARBEIT. Moderne Gradientenverfahren für den Einsatz in technischen Aufgabenstellungen und deren Anwendung auf ein- und multikriterielle BACHELORARBEIT Herr Jens Reißner Moderne Gradientenverfahren für den Einsatz in technischen Aufgabenstellungen und deren Anwendung auf ein- und multikriterielle Optimierungsaufgaben 2013 Fakultät Mathematik

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel

Mehr

Lagrange-Relaxierung und Subgradientenverfahren

Lagrange-Relaxierung und Subgradientenverfahren Lagrange-Relaxierung und Subgradientenverfahren Wir wollen nun eine Methode vorstellen, mit der man gegebene Relaxierungen verbessern kann. Wir werden die Idee zunächst an der 1-Baum-Relaxierung des symmetrischen

Mehr

Multivariate Analysis

Multivariate Analysis Kapitel Multivariate Analysis Josef Leydold c 6 Mathematische Methoden I Multivariate Analysis / 38 Lernziele Funktionen in mehreren Variablen Graph und Niveaulinien einer Funktion in zwei Variablen Partielle

Mehr

Mathematik anschaulich dargestellt

Mathematik anschaulich dargestellt Peter Dörsam Mathematik anschaulich dargestellt für Studierende der Wirtschaftswissenschaften 15. überarbeitete Auflage mit zahlreichen Abbildungen PD-Verlag Heidenau Inhaltsverzeichnis 1 Lineare Algebra

Mehr

Lösungshinweise für die Klausur. Finanzwirtschaft I

Lösungshinweise für die Klausur. Finanzwirtschaft I Prof. Dr. Siegfried Trautmann Lehrstuhl für Finanzwirtschaft / FB 03 Johannes Gutenberg-Universität 55099 Mainz Lösungshinweise für die Klausur zur Vorlesung Finanzwirtschaft I (040 WS 2003/2004 26. Februar

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

LINGO: Eine kleine Einführung

LINGO: Eine kleine Einführung LINGO: Eine kleine Einführung Jun.-Prof.Dr. T. Nieberg Lineare und Ganzzahlige Optimierung, WS 2009/10 LINDO/LINGO ist ein Software-Paket, mit dessen Hilfe (ganzzahlige) lineare Programme schnell und einfach

Mehr

Studientag zur Algorithmischen Mathematik

Studientag zur Algorithmischen Mathematik Studientag zur Algorithmischen Mathematik Numerische Verfahren der nicht-linearen Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Line

Mehr

Der CG-Algorithmus (Zusammenfassung)

Der CG-Algorithmus (Zusammenfassung) Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine

Mehr

Überbestimmte lineare Gleichungssysteme

Überbestimmte lineare Gleichungssysteme Überbestimmte lineare Gleichungssysteme Fakultät Grundlagen September 2009 Fakultät Grundlagen Überbestimmte lineare Gleichungssysteme Übersicht 1 2 Fakultät Grundlagen Überbestimmte lineare Gleichungssysteme

Mehr

Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung

Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung TU München Lehrstuhl Mathematische Optimierung Prof. Dr. Michael Ulbrich Dipl.-Math. Florian Lindemann Wintersemester 2008/09 Blatt 2 Rechnerpraktikum zu Grundlagen der Nichtlinearen Optimierung P5. Installation

Mehr

Installation. Arbeiten mit der MATLAB-Entwicklungsumgebung. MATLAB als Taschenrechner mit Matrix- und Vektorrechnung.

Installation. Arbeiten mit der MATLAB-Entwicklungsumgebung. MATLAB als Taschenrechner mit Matrix- und Vektorrechnung. Installation. Arbeiten mit der MATLAB-Entwicklungsumgebung. MATLAB als Taschenrechner mit Matrix- und Vektorrechnung. Die heutige Sitzung dient dem ersten Kennenlernen von MATLAB. Wir wollen MATLAB zuerst

Mehr

Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler

Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler Wintersemester 2007/08 27.2.2008 Dr. Sascha Kurz Klausur zur Vorlesung Mathematische Grundlagen für Wirtschaftswissenschaftler Bitte lesbar ausfüllen, Zutreffendes ankreuzen Herr Frau Name, Vorname: Anschrift:

Mehr

Mathcad Prime 2.0 Grundlagen

Mathcad Prime 2.0 Grundlagen Mathcad Prime 2.0 Grundlagen Überblick Kursnummer TRN 3431 T Kursdauer 2 Tage In diesem Kurs lernen Sie die Grundlagen von Mathcad Prime kennen. Sie lernen die umfangreichen Funktionen von Mathcad Prime

Mehr

Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1

Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1 Prof. Dr. G. Wagner Ingenieurmathematik Begleittext Seite 1 Kapitel 3 Lineare Gleichungssysteme 3.1. Einleitung Beispiel 1 3 Kinder haben eingekauft. Franz hat 4 Lakritzen, 2 Schokoriegel und 5 Kaugummis

Mehr

Einführung in die Optimierung

Einführung in die Optimierung Einführung in die Optimierung Prof. Dr. Bastian von Harrach Universität Stuttgart, Fachbereich Mathematik - IMNG Lehrstuhl für Optimierung und inverse Probleme Wintersemester 2014/15 http://www.mathematik.uni-stuttgart.de/oip

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Mathematik I für Biologen, Geowissenschaftler und Geoökologen 28. November 2011 Definition Beispiel: Wassermengen und Konzentrationen in einem Fluss Beispiel Zeilenstufenform Beispiel (Fortsetzung) Anhang

Mehr

Ingenieurmathematik mit MATLAB

Ingenieurmathematik mit MATLAB Dieter Schott Ingenieurmathematik mit MATLAB Algebra und Analysis für Ingenieure Mit 179 Abbildungen, zahlreichen Beispielen, Übungsaufgaben und Lernkontrollen Fachbuchverlag Leipzig im Carl Hanser Verlag

Mehr

Extrema mit Nebenbedingungen

Extrema mit Nebenbedingungen Extrema mit Nebenbedingungen Gesucht ist das Extremum der Funktion f(x,y) = 5 x y unter der Nebenbedingung g(x,y) = x+y =. 5 y x In diesem einfachen Fall kann die Nebenbedingung nach einer Variablen aufgelöst

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Übungen zur Numerischen Mathematik 2 Sommersemester 2014. Übungsblatt 13

Übungen zur Numerischen Mathematik 2 Sommersemester 2014. Übungsblatt 13 Universität Heidelberg Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Prof. Dr. Dres. h.c. Hans Georg Bock Dr. Christian Kirches Dipl.-Phys. Simon Lenz Übungen zur Numerischen Mathematik 2 Sommersemester

Mehr

Lineare Optimierung. bei Prof. Walter Alt. Semester: SS 2006 und WS 2009

Lineare Optimierung. bei Prof. Walter Alt. Semester: SS 2006 und WS 2009 Lineare Optimierung bei Prof. Walter Alt Semester: SS 2006 und WS 2009 Vorwort Dieses Dokument wurde als Skript für die auf der Titelseite genannte Vorlesung erstellt und wird jetzt im Rahmen des Projekts

Mehr

Datenanalyse in der Physik. Übung 1. Übungen zu C und MAPLE

Datenanalyse in der Physik. Übung 1. Übungen zu C und MAPLE Datenanalyse in der Physik Übung 1 Übungen zu C und MAPLE Prof. J. Mnich joachim.mnich@desy.de DESY und Universität Hamburg Datenanalyse in der Physik Übung 1 p. 1 Bemerkungen zu den Übungen Schulungsaccounts

Mehr

Inhaltsverzeichnis. 1 Lineare Algebra 12

Inhaltsverzeichnis. 1 Lineare Algebra 12 Inhaltsverzeichnis 1 Lineare Algebra 12 1.1 Vektorrechnung 12 1.1.1 Grundlagen 12 1.1.2 Lineare Abhängigkeit 18 1.1.3 Vektorräume 22 1.1.4 Dimension und Basis 24 1.2 Matrizen 26 1.2.1 Definition einer

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare

Mehr

Vektorräume und Rang einer Matrix

Vektorräume und Rang einer Matrix Universität Basel Wirtschaftswissenschaftliches Zentrum Vektorräume und Rang einer Matrix Dr. Thomas Zehrt Inhalt:. Lineare Unabhängigkeit 2. Vektorräume und Basen 3. Basen von R n 4. Der Rang und Rangbestimmung

Mehr

Lineare Algebra mit dem Statistikprogramm R

Lineare Algebra mit dem Statistikprogramm R SEITE 1 Lineare Algebra mit dem Statistikprogramm R 1. Verwendung von Variablen Variablen werden in R definiert, indem man einem Variablennamen einen Wert zuweist. Bei Variablennamen wird zwischen Groß

Mehr

Als Instanz für das p-median Problem wählen wir das Netzwerk von Abbildung 1-1 des Buches auf Seite 6.

Als Instanz für das p-median Problem wählen wir das Netzwerk von Abbildung 1-1 des Buches auf Seite 6. Übung zum p-median Problem Prof. Dr. R. Vahrenkamp, Universität Kassel Als Instanz für das p-median Problem wählen wir das Netzwerk von Abbildung 1-1 des Buches auf Seite 6. Abbildung1 1: Ausschnitt aus

Mehr

Großes Lehrbuch der Mathematik für Ökonomen

Großes Lehrbuch der Mathematik für Ökonomen Großes Lehrbuch der Mathematik für Ökonomen Von Professor Dr. Karl Bosch o. Professor für angewandte Mathematik und Statistik an der Universität Stuttgart-Hohenheim und Professor Dr. Uwe Jensen R. Oldenbourg

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum. Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit

Mehr

Mathematische Grundlagen von Optimierungsverfahren

Mathematische Grundlagen von Optimierungsverfahren Mathematische Grundlagen von Optimierungsverfahren K. Schittkowski 1 1. Einführung 1.1 Das nichtlineare Optimierungsproblem Es werden Optimierungsaufgaben betrachtet, die dadurch charakterisiert sind,

Mehr

Numerische Mathematik für Ingenieure und Physiker

Numerische Mathematik für Ingenieure und Physiker Willi Törnig Peter Spellucci Numerische Mathematik für Ingenieure und Physiker Band 1: Numerische Methoden der Algebra Zweite, überarbeitete und ergänzte Auflage Mit 15 Abbildungen > Springer-Verlag Berlin

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

Einführung in die nichtlineare Optimierung

Einführung in die nichtlineare Optimierung Einführung in die nichtlineare Optimierung Prof. Dr. Walter Alt Semester: SS 2010 1 Vorwort Dieses Dokument wurde als Skript für die auf der Titelseite genannte Vorlesung erstellt und wird jetzt im Rahmen

Mehr

Übungsaufgaben. Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler. Teil 1: Lineare Algebra und Optimierung.

Übungsaufgaben. Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler. Teil 1: Lineare Algebra und Optimierung. Übungsaufgaben Grundkurs Höhere Mathematik für Wirtschaftswissenschaftler Teil : Lineare Algebra und Optimierung Wintersemester Matrizenrechnung Aufgabe ( 3 0 Gegeben sind die Matrizen A = 2 5 2 4 D =

Mehr

Einführung in die Volkswirtschaftslehre

Einführung in die Volkswirtschaftslehre Einführung in die Volkswirtschaftslehre Übung 1: Mathematische Analyseinstrumente Dipl.-Volksw. J.-E.Wesselhöft/ Dipl.-Volksw. J.Freese Bachelor Modul Volkswirtschaftliche Analyse (WS-14-V-03) HT 2009

Mehr

4) Lösen linearer Gleichungssysteme mit zwei oder drei Unbekannten

4) Lösen linearer Gleichungssysteme mit zwei oder drei Unbekannten 1) Wechsel der Darstellung Taschenrechner CASIO fx-991 ES Denn es ist eines ausgezeichneten Mannes nicht würdig, wertvolle Stunden wie ein Sklave im Keller der einfachen Berechnungen zu verbringen. Gottfried

Mehr

Mathematischer Vorkurs Lösungen zum Übungsblatt 5

Mathematischer Vorkurs Lösungen zum Übungsblatt 5 Mathematischer Vorkurs Lösungen zum Übungsblatt 5 Prof. Dr. Norbert Pietralla/Sommersemester 2012 c.v.meister@skmail.ikp.physik.tu-darmstadt.de Aufgabe 1: Berechnen Sie den Abstand d der Punkte P 1 und

Mehr

Dateiname Name(n) und Matrikelnr. des/der Bearbeiter Tel.-Nr. und E-Mail-Adresse für den Fall, dass die Diskette nicht lesbar ist.

Dateiname Name(n) und Matrikelnr. des/der Bearbeiter Tel.-Nr. und E-Mail-Adresse für den Fall, dass die Diskette nicht lesbar ist. Matrizenrechner Schreiben Sie ein CProgramm, das einen Matrizenrechner für quadratische Matrizen nachbildet. Der Matrizenrechner soll mindestens folgende Berechnungen beherrschen: Transponieren, Matrizenaddition,

Mehr

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9) (Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:

Mehr

NUMERISCHE MATHEMATIK I

NUMERISCHE MATHEMATIK I D-MATH ETH Zürich, 22. August 2011 Prof. Ch. Schwab NUMERISCHE MATHEMATIK I 1. Interpolation und Quadratur (25 P.) a) Sei [a, b] R 1 mit a < b ein beschränktes Intervall, und f C 2 ([a, b]). Zeigen Sie,

Mehr

Grundlagen, Vorgehensweisen, Aufgaben, Beispiele

Grundlagen, Vorgehensweisen, Aufgaben, Beispiele Hans Benker - Wirtschaftsmathematik Problemlösungen mit EXCEL Grundlagen, Vorgehensweisen, Aufgaben, Beispiele Mit 138 Abbildungen vieweg TEIL I: EXCEL 1 EXCEL: Einführung 1 1.1 Grundlagen 1 1.1.1 Tabellenkalkulation

Mehr

Effiziente Ableitungsbestimmung bei hochdimensionaler nichtlinearer Optimierung

Effiziente Ableitungsbestimmung bei hochdimensionaler nichtlinearer Optimierung Effiziente Ableitungsbestimmung bei hochdimensionaler nichtlinearer Optimierung Dissertation zur Erlangung des Doktorgrades Dr. rer. nat. der Fakultät für Mathematik an der Universität Bremen vorgelegt

Mehr

Definition, Rechenoperationen, Lineares Gleichungssystem

Definition, Rechenoperationen, Lineares Gleichungssystem Bau und Gestaltung, Mathematik, T. Borer Aufgaben / Aufgaben Matrizen Definition, Rechenoperationen, Lineares Gleichungssystem Lernziele - die Bezeichnung der Matrixelemente kennen und verstehen. - den

Mehr

Themenheft mit viel Trainingsmaterial (Siehe Vorwort!) Unabhänge Vektoren und Erzeugung von Vektoren Gauß-Algorithmus Rang einer Matrix.

Themenheft mit viel Trainingsmaterial (Siehe Vorwort!) Unabhänge Vektoren und Erzeugung von Vektoren Gauß-Algorithmus Rang einer Matrix. LINEARE ALGEBRA Lösbarkeit von linearen Gleichungssystemen Themenheft mit viel Trainingsmaterial (Siehe Vorwort!) Unabhänge Vektoren und Erzeugung von Vektoren Gauß-Algorithmus Rang einer Matrix Gleichungssysteme

Mehr

Der Taschenrechner CAS: TI Inspire (Texas Instruments)

Der Taschenrechner CAS: TI Inspire (Texas Instruments) Der Taschenrechner (Texas Instruments) Übersicht: 1. Katalog (wichtige Funktionen un wie man sie aufruft) 2. Funktionen efinieren (einspeichern mit un ohne Parameter) 3. Nullstellen 4. Gleichungen lösen

Mehr

Dünn besetzte Matrizen. Unterschiede in Speicherbedarf und Rechenzeit im Vergleich zu voll besetzten Matrizen. Besetzungsmuster mit spy.

Dünn besetzte Matrizen. Unterschiede in Speicherbedarf und Rechenzeit im Vergleich zu voll besetzten Matrizen. Besetzungsmuster mit spy. 170 005 Übungen zu Numerische Methoden I Fünfte Übungseinheit 21. März, 22. und 23. April 2013 Inhalt der fünften Übungseinheit: Dünn besetzte Matrizen. Unterschiede in Speicherbedarf und Rechenzeit im

Mehr

De Taschäräschnr Casio (Reihe: 9860G)

De Taschäräschnr Casio (Reihe: 9860G) De Taschäräschnr Casio (Reihe: 9860G) Übersicht: 1. Nullstellen 2. Gleichungen 2. oder 3. Grades lösen 3. Gleichungen lösen 4. Schnittpunkte bestimmen 5. Extrempunkte 6. Wendepunkte 7. Steigung einer Funktion

Mehr

Lineare Algebra und analytische Geometrie I (Unterrichtsfach) Lösungsvorschlag

Lineare Algebra und analytische Geometrie I (Unterrichtsfach) Lösungsvorschlag MATHEMATISCHES INSTITUT DER UNIVERSITÄT MÜNCHEN Dr E Schörner WS / Blatt 6 Übungen zur Vorlesung Lineare Algebra und analytische Geometrie I (Unterrichtsfach) Lösungsvorschlag Wir verwenden das Unterraumkriterium,

Mehr

Informationsverarbeitung im Bauwesen

Informationsverarbeitung im Bauwesen V14 1 / 30 Informationsverarbeitung im Bauwesen Markus Uhlmann Institut für Hydromechanik WS 2009/2010 Bemerkung: Verweise auf zusätzliche Information zum Download erscheinen in dieser Farbe V14 2 / 30

Mehr

1 0 1, V 3 = M, und λ A = λa

1 0 1, V 3 = M, und λ A = λa Aufgabe 57. Magische Quadrate Eine reelle 3 3-Matrix A = a 11 a 12 a 13 a 21 a 22 a 23 heißt magisches Quadrat, falls alle Zeilensummen, alle Spaltensummen und die beiden Diagonalsummen a 11 + a 22 + a

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

INGENIEURMATHEMATIK. 9. Differentialrechnung für Funktionen mehrerer Variablen. Sommersemester Prof. Dr. Gunar Matthies

INGENIEURMATHEMATIK. 9. Differentialrechnung für Funktionen mehrerer Variablen. Sommersemester Prof. Dr. Gunar Matthies Mathematik und Naturwissenschaften Fachrichtung Mathematik, Institut für Numerische Mathematik INGENIEURMATHEMATIK 9. Differentialrechnung für Funktionen mehrerer Variablen Prof. Dr. Gunar Matthies Sommersemester

Mehr

Euklidische Distanzmatrizen. Andrei Grecu

Euklidische Distanzmatrizen. Andrei Grecu Euklidische Distanzmatrizen Andrei Grecu Übersicht Motivation Definition und Problemstellung Algo 1: Semidefinite Programmierung Algo 2: Multidimensional Scaling Algo 3: Spring Embedder Algo 4: Genetischer

Mehr

20 Kapitel 2: Eigenwertprobleme

20 Kapitel 2: Eigenwertprobleme 20 Kapitel 2: Eigenwertprobleme 2.3 POTENZMETHODE Die Potenzmethode oder Vektoriteration ist eine sehr einfache, aber dennoch effektive Methode zur Bestimmung des betragsmäßig größten Eigenwertes. Um die

Mehr

Klausur zur Vordiplom-Prüfung

Klausur zur Vordiplom-Prüfung Technische Universität Hamburg-Harburg SS 25 Arbeitsbereich Mathematik Dr. Jens-Peter M. Zemke Klausur zur Vordiplom-Prüfung Numerische Verfahren 22. Juli 25 Sie haben 9 Minuten Zeit zum Bearbeiten der

Mehr

NUMERISCHE METHODEN DER OPTIMIERUNG

NUMERISCHE METHODEN DER OPTIMIERUNG NUMERISCHE METHODEN DER OPTIMIERUNG VORLESUNGSSKRIPT FS 2008 (Vorläufige Fassung vom 14. Mai 2008) D. Peterseim Institut für Mathematik Universität Zürich Inhaltsverzeichnis Inhaltsverzeichnis iii 1 Einführung

Mehr

Beispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A

Beispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A 133 e 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix 1 3 2 1 1 2 3 0. 1 3 2 1 2. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix 1 3 2 1 1 2 3 0. 1 3 2 1 Schritte des

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor)

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor) Matrizenrechnung. Matrizen Matrizen sind bereits im Kapitel Lineare Gleichungssysteme aufgetreten. Unter einer (m n) -Matrix A verstehen wir ein rechteckiges Zahlenschema mit m Zeilen und n Spalten. Der.

Mehr

Nichtlineare Optimierung

Nichtlineare Optimierung Technische Universität Berlin Fakultät II Institut für Mathematik Nichtlineare Optimierung Vorlesung im Wintersemester 05/06 Dietmar Hömberg Im WS 01/0.2 gehalten von F. Tröltzsch. Grundlage der Vorlesung

Mehr

Unimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206

Unimodularität. Kapitel 1. Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206 Kapitel 1 Unimodularität Peter Becker (H-BRS) Operations Research II Wintersemester 2015/16 11 / 206 Inhalt 1 Unimodularität Total unimodulare Matrizen Inzidenzmatrix Optimierungsprobleme auf Graphen Peter

Mehr