Support Vector Machines (SVM)
|
|
- Nora Geiger
- vor 6 Jahren
- Abrufe
Transkript
1 Universität Ulm 12. Juni 2007
2 Inhalt Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM
3 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM
4 Ausgangslage: Idee: N Trainingsdaten (x 1, y 1 ), (x 2, y 2 ),..., (x N, y N ) mit x i und y i R g {+1, 1} (i=1,2,...,n) Unterteile eine Menge von Objekten durch eine Hyperebene in zwei Klassen
5 Vorgehensweise 1 Suche f : R g { 1, +1}, so dass f (x i ) = y i im Fall der Trennbarkeit i = 1,..., N sonst für zumindest viele i erfüllt ist. 2 Klassen-Zuordnung neuer Punkte x neu durch f (x neu )
6 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM
7 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM
8 Fragestellung Voraussetzung: Die Trainingsdaten sind linear trennbar. Aber: Wie genau ist die Hyperebene zu wählen?
9 Idee Erhalte einen möglichst breiten Rand um die Klassengrenzen herum large - margin - classification
10 Definition der Hyperebene Eine trennende Hyperebene H ist folgendermaßen definiert: H := {x R g w, x + b = 0} mit den bestimmenden Elementen -w R g orthogonal zu H -b R (Verschiebung)
11 Trennende Hyperebene - Skalierung Problem: Keine eindeutige Beschreibung der Hyperebene: H = {x R g aw, x + ab = 0} a R \ {0} Ausweg durch Skalierung: (w, b) R g R heißt kanonische Form der Hyperebene, wenn gilt: min w, x i + b = 1 i=1,..,n
12 Definition Rand Als Rand bezeichnet man nun den Abstand der kanonischen Hyperebene zu dem Punkt, der ihr am nächsten liegt. Er lässt sich zu 1 w berechnen. Beweis: w, x 1 + b = +1 w, x 2 + b = 1 w, (x 1 x 2 ) = 2 w w, (x 1 x 2 ) = 2 w
13 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM
14 Das Optimierungsproblem Aufgabenstellung: maximiere den Rand minimiere w 2 die Entscheidungsfunktion f (x) = sgn( w, x + b) erfülle f (x i ) = y i y i ( x i, w + b) 1 i = 1,..., N Primales Programm: minimiere w R g,b R 1 2 w 2 NB: y i ( x i, w + b) 1 i = 1,..., N
15 Lagrange-Funktion L(w, b, α) = 1 2 w 2 N α i (y i ( x i, w + b) 1) mit α = (α 1,..., α N ) und α i 0 (Lagrange Multiplikatoren) bezüglich α zu maximieren bezüglich w und b zu minimieren, d.h. Damit folgt i=1 L(w, b, α) = 0, b N α i y i = 0 und w = i=1 L(w, b, α) = 0 w N α i y i x i i=1
16 Definition: Support Vektoren Sattelpunkt-Bedingungen laut Kuhn-Tucker: Damit gilt: α i [y i ( x i, w + b) 1] = 0 i = 1,..., N Punkte mit α i > 0 liegen direkt auf dem Rand. (Support Vectors ( Stützvektoren )) Die restlichen Trainingspunkte haben keinen Einfluss auf H (α i = 0) w = α i y i x i {i {1,...,N}:x i Support vector}
17 Das Duale Programm Zugehöriges duales Programm: maximiere α R N unter den Bedingungen N α i 1 2 i=1 N α i α j y i y j x i, x j i,j=1 α i 0 i = 1,..., N N α i y i = 0 i=1
18 Vorgehensweise einer SVM 1 Berechne die Lagrange-Multiplikatoren α i der Support Vektoren durch das duale Programm 2 Bestimme damit den Vektor w = N α i y i x i der kanonischen Hyperebene i=1 3 Die Verschiebung ergibt sich zu b = y j N y i α i x j, x i 4 Stelle die gesuchte Entscheidungsfunktion f (x) = sgn( w, x + b) folgendermaßen auf: i=1 i=1 ( N ) f (x) = sgn α i y i x, x i + b
19 Grundlegende Idee Der Kern-Trick Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM
20 Grundlegende Idee Der Kern-Trick Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM
21 Grundlegende Idee Der Kern-Trick Voraussetzung: nicht linear trennbare Trainingsdaten Idee: Überführe die Trainingsdaten in einen Raum M mit so hoher Dimension, dass sich die Trainingsdaten dort linear trennen lassen. Die kanonische trennende Hyperebene kann in M bestimmt werden. Bei der Rücktransformation in den ursprünglichen Raum wird die Hyperebene zu einer nicht-linearen Trennfläche.
22 Beispiel Grundlegende Idee Der Kern-Trick ursprüngliche Daten höher dimensionaler Raum M (hier: M = R 3 ) nichtlineare Entscheidungsfläche im ursprünglichen Raum.
23 Grundlegende Idee Der Kern-Trick Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM
24 Grundlegende Idee Der Kern-Trick Der Kern-Trick Problematik: Ausweg: Im höherdimensionalen Raum sind Skalarprodukt-Berechnungen der Form Φ(x i ), Φ(x j ) nötig. Sehr komplex und rechenlastig. Benutze eine sog. Kern-Funktion k, die sich wie ein Skalarprodukt in M verhält: k(x i, x j ) = Φ(x i ), Φ(x j )
25 Grundlegende Idee Der Kern-Trick Wdh.: Eigenschaften der Kern-Funktion k : R g R g M wobei M mit einem Skalarprodukt versehen sein soll k symmetrisch und positiv definit typische Funktionen: POLYNOMIELL VOM GRAD d: k(x i, x j ) = (c + x i, x j ) d für c konstant RADIAL BASIS: k(x i, x j ) = exp( x i x j 2 c ) für c > 0 NEURONALES NETZWERK: k(x i, x j ) = tanh(κ x i, x j + θ) wobei κ > 0 und θ R
26 Grundlegende Idee Der Kern-Trick Beispiel Betrachte zwei Trainingsdaten (x 1, y 1 ) und (x 2, y 2 ), wobei y 1, y 2 {±1} und x 1, x 2 R 2, d.h. x 1 = (x 11, x 12 ) und x 2 = (x 21, x 22 ) polynomieller Kern zweiten Grades mit c = 1 Dann gilt: k(x 1, x 2 ) = (1 + x 1, x 2 ) 2 = (1 + x 11 x 21 + x 12 x 22 ) 2 = 1 + 2x 11 x x 12 x 22 + (x 11 x 21 ) 2 + (x 12 x 22 ) 2 + 2x 11 x 21 x 12 x 22 Mit Φ(x 1 ) = Φ((x 11, x 12 )) (1, 2x 11, 2x 12, x 2 11, x 2 12, 2x 11 x 12 ) folgert: Φ(x 1 ), Φ(x 2 ) = k(x 1, x 2 )
27 Grundlegende Idee Der Kern-Trick Nicht-lineare Lösung Damit ergibt sich nun Der Raum M muss nicht bekannt sein. Die Kern-Funktion als Maß der Ähnlichkeit ist für alle Berechnungen ausreichend. Die Lösung des optimalen Programms ergibt sich durch Ersetzen des ursprl. Skalarproduktes durch die Kern-Funktion. Die Entscheidungsfunktion hat dann die folgende Form: ( N ) f (x) = sgn α i y i k(x, x i ) + b i=1
28 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM
29 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM
30 Bisherige Problematik Ein einzelner Ausreißer in den Trainingsdaten kann die Ausprägung der Hyperebene stark beeinflussen ( höherdimensionale Berechnungen) Oft nützlich eine bestimmte Anzahl an Ausreißern/ Fehlern zuzulassen Idee: Erlaube, aber bestrafe derartige Fehleinordnungen
31 Grundidee Vorgehen: Schwäche die Randbedingung ab, d.h. führe die sogenannten Schlupfvariablen ξ i 0 ein mit y i ( x i, w + b) 1 ξ i i = 1,..., N Lege eine Strafe in Form des Kostenterms γξ i fest. γ kann als Fehlergewicht interpretiert werden.
32 trennbare Daten überlappende Daten ξ i = 0 für korrekt klassifizierte Trainingsdaten 0 < ξ i 1 für korrekt klassifizierte Daten innerhalb des Randes ξ i > 1 für Trainingsdaten auf der falschen Seite von H
33 Bemerkungen Schlupfvariablen drücken folgendes aus: Bevorzugung eines Randes, der die Trainingsdaten korrekt klassifiziert Abschwächung der Nebenbedingungen, so dass im nicht-trennbaren Fall die Strafe propotional zum Ausmaß der Misklassifikation ist γ kontrolliert die Gewichtung zwischen den konkurrierenden Zielen breiter Rand mit großen Fehlern kleine Fehler, aber schmaler Rand
34 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM
35 Zugehöriges Optimierungsproblem Aufnahme des Strafterms in das Minimierungsproblem führt zu unter den Bedingungen 1 minimiere w M,b R,ξ R N 2 w 2 + γ ξ i 0 N i=1 y i ( x i, w + b) 1 ξ i i = 1,..., N ξ i
36 Minimierung der Lagrange-Funktion L(w, b, α, µ) = 1 N N N 2 w 2 +γ ξ i α i (y i ( x i, w +b) (1 ξ i )) µ i ξ i i=1 i=1 i=1 bezüglich w, b und ξ i ergibt analog zu oben die Lösung: w = 0 = N α i x i y i i=1 N α i y i i=1 α i = γ µ i i = 1,..., N
37 wobei die α i durch Lösen des quadratischen Programmes NB: maximiere α R N N α i 1 2 i=1 N α i α j y i y j x i, x j i,j=1 0 α i γ i = 1,..., N N α i y i = 0 i=1 bestimmt werden können.
38 Support Vektoren Mit den Kuhn-Tucker-Bedingungen α i [y i ( x i, w + b) (1 ξ i )] = 0 µ i ξ i = 0 y i ( x i, w + b) (1 ξ i ) 0 i = 1,.., N ergeben sich zwei mögliche Arten von Support Vektoren: Punkte direkt auf dem Rand (mit ξ i = 0 und daraus folgend 0 < α i < γ) Punkte jenseits ihres Randes (mit ξ i > 0 und α i = γ > 0)
39 Bemerkungen die Schlupfvariablen verschwinden aus dem dualen Problem die Konstante γ taucht dort nur noch als zusätzliche Beschränkung der Lagrange-Multiplikatoren α i auf auch im Fall der Soft-Margin-Klassifikation kann der Kern-Trick angewendet werden Entscheidungsfunktion f und Verschiebung b bestimmen sich analog zu oben.
40 Die Konstante γ Bisher wurde keine Aussage über die Wahl von γ gemacht. γ groß hohes Fehlergewicht kleiner Rand Fokusierung auf Punkte nahe H γ klein schwaches Fehlergewicht breiter Rand Einbeziehung ferner Punkte Intuitive Bestimmung von γ schwierig Üblicherweise wird dazu Kreuzvalidierung genutzt.
41 Multi-Klassen-Einteilung Vor- und Nachteile der SVM Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM
42 Multi-Klassen-Einteilung Vor- und Nachteile der SVM Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM
43 Mehrklassige SVM Multi-Klassen-Einteilung Vor- und Nachteile der SVM Einteilung in M Klassen (mit M > 2) One Versus the Rest Bilde eine Klassifikatoren-Menge f 1,..., f M durch jeweiliges Trennen einer Klasse von den Restlichen f (x) := arg max g j (x), wobei g j (x) = N y i α j i k(x, x i) + b j j=1,...,m i=1
44 Multi-Klassen-Einteilung Vor- und Nachteile der SVM Paarweise Klassifikation Bilde Klassifikatoren für jedes mögliche Paar von Klassen ( M(M 1) 2 Stück) Einordnung eines neuen Datenpunktes in diejenige Klasse, die die höchste Anzahl an Stimmen (d.h. Klassifikatoren, die den Datenpunkt in diese Klasse einordnen) aufweisen kann
45 Multi-Klassen-Einteilung Vor- und Nachteile der SVM Error-Correcting Output Coding Generiere L binäre Klassifikatoren f 1,..., f L durch Aufteilung der ursprünglichen Trainingsdaten in jeweils zwei disjunkte Klassen Die Auswertung eines Datenpunktes anhand aller L Funktionen bestimmt seine Klasse eindeutig ( Jede Klasse entspricht einem eindeutigen Vektor in {±1} L ) Für M Klassen ergibt sich damit die sogenannte decoding matrix D {±1} M L Ein neuer Datenpunkt wird durch Vergleich von dessen L-dimensionalem Vektor mit den Zeilen der Matrix D einer Klasse zugeteilt.
46 Multi-Klassen-Einteilung Vor- und Nachteile der SVM Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM
47 Multi-Klassen-Einteilung Vor- und Nachteile der SVM Zusammenfassung Vorteile: Klassifikation sehr schnell möglich ( basierend auf wenigen Support Vektoren) hohe Generalisierungsfähigkeit ( gute Anwendbarkeit auf reale Probleme) Arbeiten in hohen Dimensionen möglich
48 Multi-Klassen-Einteilung Vor- und Nachteile der SVM Zusammenfassung Nachteile: neues Training für neue (verschiedene) Eingabedaten erforderlich Umgang mit nicht-linear separierbaren Problemen trickreich ( Größe der Dimension) Wahl des Kerns schwierig ( muss empirisch gesucht werden)
49 Fragen? Multi-Klassen-Einteilung Vor- und Nachteile der SVM Vielen Dank für die Aufmerksamkeit.
9.5 Entscheidungsbäume
9.5. ENTSCHEIDUNGSBÄUME 149 9.5 Entscheidungsbäume Wir betrachten wieder einen Datensatz von Ereignissen mit jeweils m Merkmalen, zusammengefasst in x, die zwei verschiedenen Klassen angehören, zum Beispiel
MehrStatistical Learning
Statistical Learning M Gruber KW 45 Rev 1 1 Support Vector Machines Definition 1 (Lineare Trennbarkeit) Eine Menge Ü µ Ý µ Ü Æµ Ý Æµ R ist linear trennbar, wenn mindestens ein Wertepaar Û R µ existiert
MehrTextmining Klassifikation von Texten Teil 2: Im Vektorraummodell
Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil
MehrGrundlagen von Support Vector Maschinen und Anwendungen in der Bildverarbeitung
Grundlagen von Support Vector Maschinen und Anwendungen in der Bildverarbeitung Jan Eichhorn jan.eichhorn@tuebingen.mpg.de Max-Planck-Institut für biologische Kybernetik 72076 Tübingen Danksagung Olivier
MehrOne-class Support Vector Machines
One-class Support Vector Machines Seminar Wissensbasierte Systeme Dietrich Derksen 3. Januar 204 Motivation One-class Support Vector Machines: Detektion von Ausreißern (Systemfehlererkennung) Klassifikation
MehrDer CG-Algorithmus (Zusammenfassung)
Der CG-Algorithmus (Zusammenfassung) Michael Karow Juli 2008 1 Zweck, Herkunft, Terminologie des CG-Algorithmus Zweck: Numerische Berechnung der Lösung x des linearen Gleichungssystems Ax = b für eine
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Strukturelle Modelle SVMstruct Katharina Morik LS 8 Künstliche Intelligenz Fakultät für Informatik 16.12.2008 1 von 35 Gliederung LS 8 Künstliche Intelligenz Fakultät für
Mehrf(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.
Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit
Mehrf f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.
Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales
MehrPrüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr?
1. Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr? A. Wenn n = 3 ist, sind mindestens zwei der drei Euler-Winkel einer Drehung kleiner oder gleich π. B. Wenn n = 2
MehrKapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298
Kapitel 5 Dualität Peter Becker (H-BRS) Operations Research I Sommersemester 2014 241 / 298 Inhalt 5 Dualität Dualitätssätze Zweiphasen-Simplexalgorithmus Peter Becker (H-BRS) Operations Research I Sommersemester
MehrRückblick auf die letzte Vorlesung. Bemerkung
Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D
MehrOptimalitätskriterien
Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen
MehrLineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.
Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion
MehrPrincipal Component Analysis (PCA)
Principal Component Analysis (PCA) Motivation: Klassifikation mit der PCA Berechnung der Hauptkomponenten Theoretische Hintergründe Anwendungsbeispiel: Klassifikation von Gesichtern Weiterführende Bemerkungen
Mehr2 Euklidische Vektorräume
Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,
Mehr3. Schnittebenenverfahren
3. Schnittebenenverfahren Themen 3. Schnittebenenverfahren Ganzzahlige lineare Programmierung Schnittebenenverfahren Konstruktion von Schnittebenen Auswahl von Schnittrestriktionen Operations Research
Mehr6 Hauptachsentransformation
6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten
Mehrx 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen
5.1 Lernen mit Entscheidungsbäumen Falls zum Beispiel A = {gelb, rot, blau} R 2 und B = {0, 1}, so definiert der folgende Entscheidungsbaum eine Hypothese H : A B (wobei der Attributvektor aus A mit x
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
Mehr9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
Mehr3.6 Eigenwerte und Eigenvektoren
3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse
Mehr(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge
ÜBUNGSBLATT 0 LÖSUNGEN MAT/MAT3 ANALYSIS II FRÜHJAHRSSEMESTER 0 PROF DR CAMILLO DE LELLIS Aufgabe Finden Sie für folgende Funktionen jene Punkte im Bildraum, in welchen sie sich lokal umkehren lassen,
Mehr(Technisch: Setze alle Skalarprodukte der allgemeinen Lösung mit den Basisvektoren des Kerns gleich Null eindeutige leastsqares Lösung)
Lineare Optimierung Unterbestimmte LGS und Optimierung Bei lösbaren unterbestimmten linearen Gleichungssystemen haben wir die Qual der Wahl in Abhängigkeit von den freien Parametern (Anzahl = Anzahl Unbekannte
Mehr2 Die Dimension eines Vektorraums
2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1
MehrLernende Suchmaschinen
Lernende Suchmaschinen Qingchui Zhu PG 520 - Intelligence Service (WiSe 07 / SoSe 08) Verzeichnis 1 Einleitung Problemstellung und Zielsetzung 2 Was ist eine lernende Suchmaschine? Begriffsdefinition 3
Mehr3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)
3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände
MehrWirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)
Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA) Wintersemester 2014/15 Hochschule Augsburg : Gliederung 1 Grundlegende 2 Grundlegende 3 Aussagenlogik 4 Lineare Algebra
MehrEigenwerte und Diagonalisierung
Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende
MehrSerie 10: Inverse Matrix und Determinante
D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die
MehrKapitel VI. Euklidische Geometrie
Kapitel VI. Euklidische Geometrie 1 Abstände und Lote Wiederholung aus Kapitel IV. Wir versehen R n mit dem Standard Skalarprodukt x 1 y 1.,. := x 1 y 1 +... + x n y n x n y n Es gilt für u, v, w R n und
MehrLineare Algebra II, Lösungshinweise Blatt 9
Prof Dr Katrin Wendland Priv Doz Dr Katrin Leschke Christoph Tinkl SS 27 Lineare Algebra II, Lösungshinweise Blatt 9 Aufgabe (4 Punkte) Sei 2 3 4 A = 5 6 Berechnen Sie A k für alle k N und verifizieren
MehrTechnische Universität München Zentrum Mathematik. Übungsblatt 7
Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion
Mehr55 Lokale Extrema unter Nebenbedingungen
55 Lokale Extrema unter Nebenbedingungen Sei f : O R mit O R n differenzierbar. Notwendige Bescheinigung für ein lokales Extremum in p 0 ist dann die Bedingung f = 0 (siehe 52.4 und 49.14). Ist nun F :
MehrMathematik 2 für Wirtschaftsinformatik
für Wirtschaftsinformatik Sommersemester 2012 Hochschule Augsburg Hinreichende Bedingung für lokale Extrema Voraussetzungen Satz D R n konvex und offen Funktion f : D R zweimal stetig partiell differenzierbar
Mehr3. Übungsblatt Aufgaben mit Lösungen
. Übungsblatt Aufgaben mit Lösungen Aufgabe : Gegeben sind zwei Teilmengen von R : E := {x R : x x = }, und F ist eine Ebene durch die Punkte A = ( ), B = ( ) und C = ( ). (a) Stellen Sie diese Mengen
Mehr( ) Lineare Gleichungssysteme
102 III. LINEARE ALGEBRA Aufgabe 13.37 Berechne die Eigenwerte der folgenden Matrizen: ( ) 1 1 0 1 1 2 0 3 0 0, 2 1 1 1 2 1. 1 1 0 3 Aufgabe 13.38 Überprüfe, ob die folgenden symmetrischen Matrizen positiv
MehrVektorräume und Rang einer Matrix
Universität Basel Wirtschaftswissenschaftliches Zentrum Vektorräume und Rang einer Matrix Dr. Thomas Zehrt Inhalt:. Lineare Unabhängigkeit 2. Vektorräume und Basen 3. Basen von R n 4. Der Rang und Rangbestimmung
MehrDer Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.
Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x
Mehr7.2.1 Zweite partielle Ableitungen
72 72 Höhere Ableitungen 72 Höhere Ableitungen Vektorwertige Funktionen sind genau dann differenzierbar, wenn ihre Koordinatenfunktionen differenzierbar sind Es ist also keine wesentliche Einschränkung,
MehrLineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte
Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)
MehrDefinition 7.1. Der Coxeter Graph zu W ist der ungerichtete gewichtete Graph Γ W = (V, E), mit Eckenmenge V und Kantenmenge E, gegeben durch V = und
7. Coxeter Graphen Um die endlichen Spiegelungsgruppen zu klassifizieren, wollen wir ihnen nun Graphen zuordnen, die die Gruppen bis auf Isomorphie eindeutig bestimmen. Im Folgenden sei wie vorher Π Φ
MehrFakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online
MehrLineare Algebra I. Auswahlaxiom befragen. (Wer schon im Internet danach sucht, sollte das auch mal mit dem Begriff
Universität Konstanz Wintersemester 2009/2010 Fachbereich Mathematik und Statistik Lösungsblatt 2 Prof. Dr. Markus Schweighofer 11.11.2009 Aaron Kunert / Sven Wagner Lineare Algebra I Lösung 2.1: Behauptung:
MehrKorrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:
Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise
Mehr9.2 Invertierbare Matrizen
34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
MehrMusterlösungen zur Linearen Algebra II Übungsklausur
Musterlösungen zur Linearen Algebra II Übungsklausur Aufgabe. Sei A R 3 3. Welche der folgenden Aussagen sind richtig? a Ist det(a =, dann ist A eine orthogonale Matrix. b Ist A eine orthogonale Matrix,
MehrOutline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel
Outline 1 Funktionen von mehreren Veränderlichen 2 Grenzwert und Stetigkeit 3 Partielle Ableitungen 4 Die verallgemeinerte Kettenregel 5 Das totale Differential 6 Extremstellen Roman Wienands (Universität
Mehr3 Nichtlineare Gleichungssysteme
3 Nichtlineare Gleichungsssteme 3.1 Eine Gleichung in einer Unbekannten Problemstellung: Gegeben sei die stetige Funktion f(). Gesucht ist die Lösung der Gleichung f() = 0. f() f() a) f ( ) 0 b) f ( )
MehrProseminar Lineare Algebra II, SS 11. Blatt
Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2
MehrMathematik 1 für Wirtschaftsinformatik
Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg : Gliederung 7 Folgen und Reihen 8 Finanzmathematik 9 Reelle Funktionen 10 Differenzieren 1 11 Differenzieren 2 12 Integration
MehrMathematischer Vorkurs Lösungen zum Übungsblatt 5
Mathematischer Vorkurs Lösungen zum Übungsblatt 5 Prof. Dr. Norbert Pietralla/Sommersemester 2012 c.v.meister@skmail.ikp.physik.tu-darmstadt.de Aufgabe 1: Berechnen Sie den Abstand d der Punkte P 1 und
MehrThe State of the Game: Spamerkennung in den TREC und CEAS Spam-Challenges
The State of the Game: Spamerkennung in den TREC und CEAS Spam-Challenges Christoph Raupach Universität Paderborn craupach@upb.de Zusammenfassung. Ich stelle zwei Algorithmen zur Spamerkennung aus den
Mehr9 Vektorräume mit Skalarprodukt
9 Skalarprodukt Pink: Lineare Algebra 2014/15 Seite 79 9 Vektorräume mit Skalarprodukt 9.1 Normierte Körper Sei K ein Körper. Definition: Eine Norm auf K ist eine Abbildung : K R 0, x x mit den folgenden
MehrComputational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
MehrSymmetrische Polynome,Diskriminante und Resultante, Fermatscher Satz für Polynome
Proseminar Lineare Algebra SS10 Symmetrische Polynome,Diskriminante und Resultante, Fermatscher Satz für Polynome Natalja Shesterina Heinrich-Heine-Universität ASymmetrische Polynome Definition 1 Sei n
Mehr45 Eigenwerte und Eigenvektoren
45 Eigenwerte und Eigenvektoren 45.1 Motivation Eigenvektor- bzw. Eigenwertprobleme sind wichtig in vielen Gebieten wie Physik, Elektrotechnik, Maschinenbau, Statik, Biologie, Informatik, Wirtschaftswissenschaften.
Mehr6 Eigenwerte und Eigenvektoren
6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,
MehrMathematik für Informatiker II. Beispiellösungen zur Probeklausur. Aufgabe 1. Aufgabe 2 (5+5 Punkte) Christoph Eisinger Sommersemester 2011
Mathematik für Informatiker II Christoph Eisinger Sommersemester 211 Beispiellösungen zur Probeklausur Aufgabe 1 Gegeben sind die Polynome f, g, h K[x]. Zu zeigen: Es gibt genau dann Polynome h 1 und h
MehrQuadratische Formen und Definitheit
Universität Basel Wirtschaftswissenschaftliches Zentrum Quadratische Formen und Definitheit Dr. Thomas Zehrt Inhalt: 1. Quadratische Formen 2. Quadratische Approximation von Funktionen 3. Definitheit von
MehrKernel, Perceptron, Regression. Erich Schubert, Arthur Zimek. 2014-07-20 KDD Übung
Kernel, Perceptron, Regression Erich Schubert, Arthur Zimek Ludwig-Maximilians-Universität München 2014-07-20 KDD Übung Kernel-Fukctionen Kernel kann mehrdeutig sein! Unterscheidet zwischen: Kernel function
MehrKlausurberatung Differentialgleichungen I für Studierende der Ingenieurwissenschaften
Fachbereich Mathematik der Universität Hamburg WiSe 14/15 Dr. Hanna Peywand Kiani 06.07.2015 Klausurberatung Differentialgleichungen I für Studierende der Ingenieurwissenschaften Die ins Netz gestellten
MehrKapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
MehrStudientag zur Algorithmischen Mathematik
Studientag zur Algorithmischen Mathematik Lineare Optimierung Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Outline Lineares Programm (LP) in Standardform
MehrOptimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
MehrMaximiere Gesamtgewinn aus verschiedenen Produkten unter Restriktionen an Produktmenge (Lagermenge, Transportmenge)
Beispiel: Produktionsplanung Maximiere Gesamtgewinn aus verschiedenen Produkten unter Restriktionen an Produktmenge (Lagermenge, Transportmenge) Produktionskapazität Ressourcenmenge bei als fest angenommenem
MehrStatistik II für Betriebswirte Vorlesung 12
Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 12 11. Januar 2013 7.3. Multiple parameterlineare Regression Im Folgenden soll die
Mehrentspricht der Länge des Vektorpfeils. Im R 2 : x =
Norm (oder Betrag) eines Vektors im R n entspricht der Länge des Vektorpfeils. ( ) Im R : x = x = x + x nach Pythagoras. Allgemein im R n : x x = x + x +... + x n. Beispiele ( ) =, ( 4 ) = 5, =, 4 = 0.
MehrKlausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 5): Lineare Algebra und analytische Geometrie 5 5. (Herbst 9, Thema 3, Aufgabe ) Betrachtet werde die Matrix A := 3 4 5 5 7 7 9 und die lineare Abbildung
MehrBesteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor)
Matrizenrechnung. Matrizen Matrizen sind bereits im Kapitel Lineare Gleichungssysteme aufgetreten. Unter einer (m n) -Matrix A verstehen wir ein rechteckiges Zahlenschema mit m Zeilen und n Spalten. Der.
MehrVariante A. Hinweise
Lehrstuhl C für Mathematik (Analsis Prof. Dr. Y. Guo Aachen, den 6..3 Klausur zur Höheren Mathematik I WS /3 Variante A Hinweise Zugelassene Hilfsmittel: Als Hilfsmittel zugelassen sind handschriftliche
MehrTutorium Mathematik II, M Lösungen
Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +
Mehr3. Grundlagen der Linearen Programmierung
3. Grundlagen der linearen Programmierung Inhalt 3. Grundlagen der Linearen Programmierung Lineares Programm Grafische Lösung linearer Programme Normalform Geometrie linearer Programme Basislösungen Operations
MehrWS 2009/10. Diskrete Strukturen
WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910
MehrDEUTSCHE SCHULE MONTEVIDEO BIKULTURELLES DEUTSCH-URUGUAYISCHES ABITUR ( AUF SPANISCH )
Grundlegende Bemerkungen : Der Begriff des Vektors wurde in den vergangenen Jahren im Geometrieunterricht eingeführt und das mathematische Modell des Vektors wurde vor allem auch im Physikunterricht schon
Mehr6. Übung zur Linearen Optimierung SS08
6 Übung zur Linearen Optimierung SS08 1 Sei G = (V, E) ein schlichter ungerichteter Graph mit n Ecken und m Kanten Für eine Ecke v V heißt die Zahl der Kanten (u, v) E Grad der Ecke (a) Ist die Anzahl
MehrEin Vergleich von Methoden für Multi-klassen Support Vector Maschinen
Ein Vergleich von Methoden für Multi-klassen Support Vector Maschinen Einführung Auf binären Klassifikatoren beruhende Methoden One-Against-All One-Against-One DAGSVM Methoden die alle Daten zugleich betrachten
MehrDie Steigung m ist ein Quotient zweier Differenzen und heißt daher Differenzenquotient.
Seite Definition lineare Funktion Eine Funktion f mit dem Funktionsterm f(x) = m x + b, also der Funktionsgleichung y = m x + b, heißt lineare Funktion. Ihr Graph G f ist eine Gerade mit der Steigung m
MehrSerie 4. Analysis D-BAUG Dr. Cornelia Busch FS 2015
Analysis D-BAUG Dr. Cornelia Busch FS 05 Serie 4. Finden Sie die lokalen Extrema der Funktionen f : R R auf dem Einheitskreis S = {x, y R : x + y = } und geben Sie an, ob es sich um ein lokales Minimum
MehrLineare Gleichungssysteme - Grundlagen
Lineare Gleichungssysteme - Grundlagen Betrachtet wird ein System linearer Gleichungen (im deutschen Sprachraum: lineares Gleichungssystem mit m Gleichungen für n Unbekannte, m, n N. Gegeben sind m n Elemente
MehrLineare Algebra und analytische Geometrie I (Unterrichtsfach) Lösungsvorschlag
MATHEMATISCHES INSTITUT DER UNIVERSITÄT MÜNCHEN Dr E Schörner WS / Blatt 6 Übungen zur Vorlesung Lineare Algebra und analytische Geometrie I (Unterrichtsfach) Lösungsvorschlag Wir verwenden das Unterraumkriterium,
Mehr37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
MehrSchranken für zulässige Lösungen
Schranken für zulässige Lösungen Satz 5.9 Gegeben seien primales und duales LP gemäß der asymmetrischen Form der Dualität. Wenn x eine zulässige Lösung des primalen Programms und u eine zulässige Lösung
MehrLösungen zu den Hausaufgaben zur Analysis II
Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin
MehrÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS
ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS Aufgabe 1. a) Gegeben sei die Gleichung 2x 2 4xy +y 2 3x+4y = 0. Verifizieren Sie, dass diese Gleichung
MehrKapitel 2: Mathematische Grundlagen
[ Computeranimation ] Kapitel 2: Mathematische Grundlagen Prof. Dr. Stefan M. Grünvogel stefan.gruenvogel@fh-koeln.de Institut für Medien- und Phototechnik Fachhochschule Köln 2. Mathematische Grundlagen
MehrLineare Algebra I (WS 13/14)
Lineare Algebra I (WS 13/14) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 29.11.2013 Alexander Lytchak 1 / 13 Wiederholung Der Rang einer linearen Abbildung ist gleich dem Spaltenrang der darstellenden
Mehr7 KONVERGENTE FOLGEN 35. inf M = Infimum von M. bezeichnet haben. Definition. Sei (a n ) n N eine beschränkte Folge in R. Dann heißt.
7 KONVERGENTE FOLGEN 35 und die größe untere Schranke mit bezeichnet haben. inf M = Infimum von M Definition. Sei (a n ) n N eine beschränkte Folge in R. Dann heißt der Limes superior der Folge, und lim
MehrOptimierung I. Dr. Ulf Lorenz F2.413
Optimierung I Dr. Ulf Lorenz F2.413 flulo@upb.de Organisation Dozent: Dr. Ulf Lorenz F2.413 Fürstenallee 11 email: flulo@upb.de WWW: http://www.upb.de/cs/flulo (hier auch aktuelle Infos + Ü-Zettel) Vorlesungen:
Mehr6.3 Hauptachsentransformation
Im Wintersemester 6/7 wurde in der Vorlesung Höhere Mathematik für Ingenieurstudiengänge der folgende Algorithmus zur Hauptachsentransformation besprochen: 63 Hauptachsentransformation Die Matrizen, die
MehrMat(2 2, R) Wir bestimmen das charakterische Polynom 1 f A (t) = t 2 t 2 = (t 2)(t + ( 1). ) 2 2. Eigenvektor zu EW 2 ist v 2 = 1 1
Aufgabe. Bestimmen Sie das Exponential expa) der Matrix ) 5 6 A = Mat, R). 4. Wir bestimmen das charakterische Polynom f A t) = t t = t )t + ). ). Eigenvektor zu EW ist v = ). Eigenvektor zu EW ist v =
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
MehrExemplar für Prüfer/innen
Exemplar für Prüfer/innen Kompensationsprüfung zur standardisierten kompetenzorientierten schriftlichen Reifeprüfung AHS Juni 2015 Mathematik Kompensationsprüfung Angabe für Prüfer/innen Hinweise zur Kompensationsprüfung
Mehr1 0 1, V 3 = M, und λ A = λa
Aufgabe 57. Magische Quadrate Eine reelle 3 3-Matrix A = a 11 a 12 a 13 a 21 a 22 a 23 heißt magisches Quadrat, falls alle Zeilensummen, alle Spaltensummen und die beiden Diagonalsummen a 11 + a 22 + a
Mehr3.4 Gradient, Divergenz, Rotation in anderen Koordinaten
3.3.5 Rechenregeln Für Skalarfelder f, g und Vektorfelder v, w gelten die Beziehungen fg) = f g + g f v w) = v ) w + w ) v + v w) + w v) f v) = f v + v f v w) = w v) v w) 3.5a) 3.5b) 3.5c) 3.5d) f) = div
MehrKurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok
Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html karin.halupczok@math.uni-freiburg.de
Mehr4.5 Schranken an die Dichte von Kugelpackungen
Gitter und Codes c Rudolf Scharlau 19. Juli 2009 341 4.5 Schranken an die Dichte von Kugelpackungen Schon in Abschnitt 1.4 hatten wir die Dichte einer Kugelpackung, speziell eines Gitters bzw. einer quadratischen
Mehr40 Lokale Extrema und Taylor-Formel
198 VI. Differentialrechnung in mehreren Veränderlichen 40 Lokale Extrema und Taylor-Formel Lernziele: Resultate: Satz von Taylor und Kriterien für lokale Extrema Methoden aus der linearen Algebra Kompetenzen:
Mehr1 Lineare Optimierung, Simplex-Verfahren
1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und
Mehr