Automatisierte Hyperparameter Optimierung im Maschinellen Lernen
|
|
- Christian Beck
- vor 6 Jahren
- Abrufe
Transkript
1 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Nicolas Schilling Information Systems and Machine Learning Lab (ISMLL) Institute of Computer Science University of Hildesheim, Germany / 35
2 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Outline Einführung in Maschinelles Lernen Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung / 35
3 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Einführung in Maschinelles Lernen Outline Einführung in Maschinelles Lernen Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung / 35
4 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Einführung in Maschinelles Lernen Ziel des Maschinellen Lernens Ziel im maschinellen Lernen ist es, aus gegebenen Inputs einen oder mehrere Outputs vorherzusagen, zum Beispiel anhand der Wörter in einer Mail bestimmen, ob es Spam ist erkennen, ob und wo auf einem Bild ein Objekt zu sehen ist aus Gesprochenem bestimmen, welche Wörter gesagt wurden vorherzusagen, welche Gegenstände für den Kunden eines Web-Shops interessant sind und viele mehr / 35
5 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Einführung in Maschinelles Lernen Maschinelles Lernen Das Ziel ist also eine Abbildung/Modell f zu lernen welches zu gegebenem Input x einen Output y vorhersagt, so dass f (x) y für das Lernen werden Trainingsdaten benötigt D = {(x 1, y 1 ),..., (x n, y n )} das gelernte Modell wird auf Testdaten evaluiert, die unterschiedlich zu den Trainingsdaten sind / 35
6 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Einführung in Maschinelles Lernen Fehlerfunktionen Wann ist ein gelerntes Modell ein gutes Modell? wenn es die Trainingsdaten akkurat vorhersagen kann also wenn der Fehler in der Vorhersage gering wird Als Fehlerfunktion wird beispielsweise der quadratische Fehler genutzt L(f, D) = (y f (x)) 2 (x,y) D das Ziel ist es ein Modell f zu finden welches den Fehler minimiert / 35
7 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Einführung in Maschinelles Lernen Beispiel: Lineare Regression Das Vorhersagemodell für p verschiedene Input Variablen wird definiert als p f (x; θ) = θ 0 + θ i x i i=1 = θ 0 + θ 1 x θ p x p Ein lineares Regressionsmodell wird dann komplett durch seine Parameter θ bestimmt / 35
8 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Einführung in Maschinelles Lernen Lernen des Modells Gesucht werden dann die Parameter θ die den Fehler minimieren θ = arg min (y f (x; θ)) 2 θ (x,y) D Üblicherweise werden die Parameter regularisiert, um eine Überanpassung an die Trainingsdaten zu vermeiden θ = arg min (y f (x; θ)) 2 + λ θ 2 θ (x,y) D Dafür muss jedoch der richtige Tradeoff λ erst gefunden werden! / 35
9 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Einführung in Maschinelles Lernen Überanpassung Wird ein Modell nicht entsprechend regularisiert: kann es sich den Trainingsdaten überanpassen die Fähigkeit zu generalisieren verschwindet die Performance auf den Testdaten ist schlecht / 35
10 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Einführung in Maschinelles Lernen Lernen des Modells Üblicherweise werden die Parameter zufällig initialisiert und dann mit einem Gradientenabstieg gelernt: der Gradient des Trainingsfehlers zeigt in die Richtung des stärksten Anstiegs also folgen wir der entgegengesetzten (negativen) Richtung die Parameter werden aktualisiert: θ neu i = θ alt i α L θ i die Schrittweite α bestimmt wie lange wir dem negativen Gradienten folgen / 35
11 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Einführung in Maschinelles Lernen Einfluss der Schrittweite / 35
12 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Einführung in Maschinelles Lernen Einfluss der Schrittweite / 35
13 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Einführung in Maschinelles Lernen Empfehlungssysteme im E-Commerce Ziel ist es, zu einem Item/Nutzer Input das Rating vorherzusagen, dazu sind Daten gegeben: Nutzer Matrix Toy Story 3 Titanic Tim Lara 2-1 Lucas Sarah 1-5 Wie kann ein Modell aussehen, welches die Bewertungen vorhersagt? / 35
14 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Einführung in Maschinelles Lernen Empfehlungssysteme im E-Commerce Lineare Regression funktioniert nicht, da keine aussagekräftigen Features vorhanden sind f (x) = θ 0 + θ Nutzer + θ Film erstelle Features/Merkmale für jeden Nutzer und Film beispielsweise wie sehr ein Nutzer ein gewisses Genre mag oder wie sehr ein Film einem Genre entspricht / 35
15 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Einführung in Maschinelles Lernen Empfehlungssysteme im E-Commerce Es seien Merkmale p i gegeben wie sehr der Film i einem von drei Genres angehört. Für die Genres Action, Comedy und Romance und für den Film Toy Story 3 beispielsweise: p i = ( ) Dazu kennen Sie die Kundeninteressen q u für den u-ten Kunden: q u = ( ) Dann könnte eine Vorhersage aussehen: f (i, u) = p i q u = p i,1 q u,1 + p i,2 q u,2 + p i,3 q u,3 = = / 35
16 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Einführung in Maschinelles Lernen Empfehlungssysteme im E-Commerce Wo ist der Haken an dem Modell? jeder Film muss aufwändig einsortiert werden. wie sehr ein Film dem Genre Comedy entspricht liegt im Auge des Betrachters jeder Nutzer müsste eingeben, welche Genres er wie sehr mag wieviele Genres sollten genommen werden? Die Lösung ist nicht praktikabel! Allerdings kann so ein Modell und die Features direkt gelernt werden! / 35
17 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Einführung in Maschinelles Lernen Empfehlungssysteme: Faktorisierungsmodelle Das Rating von Nutzer u für Item i wird als Faktorisierung modelliert: r(u, i) = q u p i q u R K beschreibt latente Features für den Nutzer u p i R K beschreibt latente Features für das Item i Interaktion der beiden Vektoren (Skalarprodukt) beschreibt das Rating alle Parameter werden aus den Daten gelernt Welche Dimensionalität K ist sinnvoll? / 35
18 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Hyperparameter Optimierung im Maschinellen Lernen Outline Einführung in Maschinelles Lernen Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung / 35
19 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Hyperparameter Optimierung im Maschinellen Lernen Hyperparameter im Maschinellen Lernen Parameter die von Hand gesetzt werden müssen und nicht von Daten gelernt werden heißen Hyperparameter. Sie tauchen überall im Maschinellen Lernen auf Regularisierung/Komplexität des Modells Lernalgorithmus Auswahl der Fehlerfunktion Auswahl des Modells an sich Vorverarbeitung der Daten / 35
20 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Hyperparameter Optimierung im Maschinellen Lernen Hyperparameter Optimierung Für Daten D, Fehlerfunktion L und Lernalgorithmus A, finde die Hyperparameter Konfiguration λ Λ so dass: λ := arg min λ Λ L(A λ (D train ), D val ) := arg min λ Λ b(λ, D). suchen die Konfiguration, die auf den Validierungsdaten die beste Performance zeigt wir schreiben die Black Box Funktion kurz b(λ, D) / 35
21 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Hyperparameter Optimierung im Maschinellen Lernen Grid Suche Grid Suche ist eine primitive Form der Suche für jeden Hyperparameter, definiere eine Menge von Konfigurationen z.b. für die Schrittweite α {0.1, 0.001, , } lerne das Modell unter jeglicher möglichen Hyperparameter Kombination nehme das Modell welches den geringsten Fehler auf den Validierungsdaten hat Problem: Die Anzahl an Auswertungen wachst exponenziell mit der Anzahl an Hyperparametern immer komplexere Modelle benötigen immer mehr Rechenzeit / 35
22 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung Outline Einführung in Maschinelles Lernen Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung / 35
23 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung Sequential Model Based Optimization Optimierung der Validierungsperformance ist kostspielig, daher lerne ein sogenanntes Surrogatmodell auf den bekannten Observationen sodass Ψ b nutze das Surrogatmodell um Regionen zu finden in denen die Hyperparameter gut funktionieren evaluiere die Black Box (lerne das Modell zu der Hyperparameter Konfiguration) wiederhole den Prozess, bis b optimiert ist oder das Budget ausgeht / 35
24 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung Sequential Model Based Optimization Angenommen, ein Surrogat Modell ist schon gelernt: Wie wird der nächste Punkt ausgewählt? Punkt mit maximaler Performance? = Exploitation Punkt mit maximaler Unsicherheit? = Exploration Einen guten Tradeoff bietet das Expected Improvement EI (λ) = 0 I P(I Ψ, λ best ) di / 35
25 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung SMBO Beispiel Objective Predicted Mean Prediction Uncertainty Expected Improvement Observed Points / 35
26 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung SMBO Beispiel Objective Predicted Mean Prediction Uncertainty Expected Improvement Observed Points / 35
27 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung SMBO Beispiel Objective Predicted Mean Prediction Uncertainty Expected Improvement Observed Points / 35
28 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung SMBO Beispiel Objective Predicted Mean Prediction Uncertainty Expected Improvement Observed Points / 35
29 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung Hyperparameter Optimierung über Datensätze Üblicherweise wird die Hyperparameter Optimierung für jeden Datensatz neu gemacht Grid Suche funktioniert wenn der Suchraum durch Erfahrung schon eingeschränkt werden kann diese Erfahrung macht man typischerweise beim Optimieren der Hyperparameter für andere Datensätze können wir das nicht auch automatisieren, indem wir vergangene Ergebnisse auf anderen Datensätzen in das Surrogatmodell integrieren? / 35
30 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung Hinzunahme der Datensatzinformation Datensatz Ids können beispielsweise über eine binäre Indikator Variable eingefügt werden leicht und intuitiv ein normales Regressionsmodell lernt wieder nur einen Bias Datensatzcharakteristiken können berechnet werden, beispielsweise die Anzahl der Features, Instanzen usw. höhere Ausdrucksstärke aufwendig zu berechnen / 35
31 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung Meta Surrogatmodelle - Anforderungen Nichtlinearität: Validierungsperformance in Abhängigkeit der Hyperparameter ist nichtlinear Ein Multilayer Perceptron kann gut mit Nichtlinearität umgehen Kategorische Features: Das Surrogatmodell sollte mehr als einen Bias aus kategorischen features lernen Faktorisierungsmodelle funktionieren gut in diesem Szenario Latente Features können als gelernte Meta-Features verstanden werden = Kombination aus Multilayer Perceptrons und Faktorisierungsmodellen? / 35
32 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung Unsere Herangehensweise: Factorized Multilayer Perceptrons Wir nutzen ein neues Surrogatmodell: der erste Layer hat eine Faktorisierungsmaschine als Signalfunktion (normalerweise nur eine lineare Summe) ( z k = σ w 0,k + n w i,k x i i=1 n i=1 j=i+1 v i,k sind latente Features für Input i und Output k n ) v i,k, v j,k x i x j Interaktionen von Hyperparametern und Datensätzen kann so modelliert werden das Modell bietet ausreichend Komplexität um nichtlineare Vorhersagen zu treffen kann mittels Backpropagation gelernt werden / 35
33 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung Erstellung der Meta Daten Wir haben für zwei bekannte Modelle: LibSVM und AdaBoost die Validierungsperformance für 25 Datensätze durch eine Grid Suche berechnet. AdaBoost LibSVM Anzahl an Iterationen I Anzahl der Produktterme M Insgesamt 108 Observationen pro Datensatz Wahl des Kernels Tradeoff Parameter C Kernel Breite γ, Kernel Grad d Insgesamt 288 Observationen pro Datensatz / 35
34 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung Evaluationsmetriken Alle Experimente werden im leave-one-out Scheme über alle 25 Datensätze ausgeführt Average Rank: Durchschnittlicher Rang aller zu vergleichenden Methoden Average Hyperparameter Rank: Durschnittlicher Rang der besten Hyperparameter Konfiguration die bisher gefunden wurde / 35
35 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung SMBO: Konkurrierende Surrogatmodelle Random Search (Bergstra and Bengio) Independent Gaussian Process (Snoek et al.) SMAC++ (Random Forest Surrogate) (Hutter et al.) SCoT (SVM Rank + Gaussian Process) (Bardenet et al.) MKL-GP (Gaussian Process with Kernel also modelling data set distances) (Yogatama and Mann) Multilayer Perceptron Factorized Multilayer Perceptron / 35
36 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung Average Rank AdaBoost SVM Random Random 6 SMAC++ 6 SMAC++ SCoT SCoT Average Rank 4 FMLP Average Rank 4 FMLP 2 Optimal Random I GP SMAC++ SCoT MKL GP MLP FMLP Optimal 2 Optimal Number of Trials Number of Trials / 35
37 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung Average Hyperparameter Rank AdaBoost SVM 40 Random I GP SMAC++ SCoT MKL GP MLP FMLP 100 Random I GP SMAC++ SCoT MKL GP MLP FMLP Average Hyperparameter Rank MKL GP SCoT Average Hyperparameter Rank SMAC++ MKL GP FMLP 0 FMLP Number of Trials Number of Trials / 35
38 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung Zusammenfassung Hyperparameter Optimierung ist ein allgegenwärtiges Problem im Maschinellen Lernen automatische Hyperparameter Optimierung ist mit Hilfe von Meta-Wissen möglich Auch die Wahl des Vorhersagemodells kann teilautomatisiert werden für mehr Informationen: / 35
39 Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung Vielen Dank für die Aufmerksamkeit Kontakt: Nicolas Schilling Mail: The authors gratefully acknowledge the co-funding of their work by the German Research Foundation (DFG) under grant SCHM 2583/ / 35
Übersicht. Definition Daten Problemklassen Fehlerfunktionen
Übersicht 1 Maschinelle Lernverfahren Definition Daten Problemklassen Fehlerfunktionen 2 Entwickeln von maschinellen Lernverfahren Aufteilung der Daten Underfitting und Overfitting Erkennen Regularisierung
MehrMarina Sedinkina Folien von Benjamin Roth Planen (CIS LMU andmünchen) Evaluieren von Machine Learning Experimenten 1 / 38
Planen and Evaluieren von Machine Learning Eperimenten Marina Sedinkina Folien von Benjamin Roth CIS LMU München Evaluieren von Machine Learning Eperimenten 1 / 38 Übersicht 1 Entwickeln von maschinellen
MehrSo lösen Sie das multivariate lineare Regressionsproblem von Christian Herta
Multivariate Lineare Regression Christian Herta Oktober, 2013 1 von 34 Christian Herta Multivariate Lineare Regression Lernziele Multivariate Lineare Regression Konzepte des Maschinellen Lernens: Kostenfunktion
MehrValidation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation
Validation Oktober, 2013 1 von 20 Validation Lernziele Konzepte des maschinellen Lernens Validierungsdaten Model Selection Kreuz-Validierung (Cross Validation) 2 von 20 Validation Outline 1 Validation
MehrEinführung in Support Vector Machines (SVMs)
Einführung in (SVM) Januar 31, 2011 Einführung in (SVMs) Table of contents Motivation Einführung in (SVMs) Outline Motivation Vektorrepräsentation Klassifikation Motivation Einführung in (SVMs) Vektorrepräsentation
MehrLineare Regression. Christian Herta. Oktober, Problemstellung Kostenfunktion Gradientenabstiegsverfahren
Lineare Regression Christian Herta Oktober, 2013 1 von 33 Christian Herta Lineare Regression Lernziele Lineare Regression Konzepte des Maschinellen Lernens: Lernen mittels Trainingsmenge Kostenfunktion
MehrNeural Networks: Architectures and Applications for NLP
Neural Networks: Architectures and Applications for NLP Session 02 Julia Kreutzer 8. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Backpropagation 3. Ausblick 2 Recap
MehrLineare Regression. Volker Tresp
Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M
MehrRidge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel
Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel Dr. Dominik Grimm Probelehrveranstaltung Fakultät für Informatik und Mathematik Hochschule
MehrVergleich von SVM und Regel- und Entscheidungsbaum-Lernern
Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern Chahine Abid Bachelor Arbeit Betreuer: Prof. Johannes Fürnkranz Frederik Janssen 28. November 2013 Fachbereich Informatik Fachgebiet Knowledge
MehrModell Komplexität und Generalisierung
Modell Komplexität und Generalisierung Christian Herta November, 2013 1 von 41 Christian Herta Bias-Variance Lernziele Konzepte des maschinellen Lernens Targetfunktion Overtting, Undertting Generalisierung
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Dominik Lahmann Tobias Scheffer Überblick Hypothesenbewertung, Risikoschätzung
MehrLogistische Regression
Logistische Regression Christian Herta August, 2013 1 von 45 Christian Herta Logistische Regression Lernziele Logistische Regression Konzepte des maschinellen Lernens (insb. der Klassikation) Entscheidungsgrenze,
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Modellevaluierung. Niels Landwehr
Universität Potsdam Institut für Informatik ehrstuhl Maschinelles ernen Modellevaluierung Niels andwehr ernen und Vorhersage Klassifikation, Regression: ernproblem Eingabe: Trainingsdaten Ausgabe: Modell
MehrPareto optimale lineare Klassifikation
Seminar aus Maschinellem Lernen Pareto optimale lineare Klassifikation Vesselina Poulkova Betreuer: Eneldo Loza Mencía Gliederung 1. Einleitung 2. Pareto optimale lineare Klassifizierer 3. Generelle Voraussetzung
MehrTextmining Klassifikation von Texten Teil 2: Im Vektorraummodell
Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil
MehrRL und Funktionsapproximation
RL und Funktionsapproximation Bisher sind haben wir die Funktionen V oder Q als Tabellen gespeichert. Im Allgemeinen sind die Zustandsräume und die Zahl der möglichen Aktionen sehr groß. Deshalb besteht
MehrFeature Selection / Preprocessing
1 Feature Selection / Preprocessing 2 Was ist Feature Selection? 3 Warum Feature Selection? Mehr Variablen führen nicht automatisch zu besseren Ergebnissen. Lernen von unwichtigen Daten Mehr Daten notwendig
MehrHannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
MehrNaive Bayes für Regressionsprobleme
Naive Bayes für Regressionsprobleme Vorhersage numerischer Werte mit dem Naive Bayes Algorithmus Nils Knappmeier Fachgebiet Knowledge Engineering Fachbereich Informatik Technische Universität Darmstadt
MehrEfficient Learning of Label Ranking by Soft Projections onto Polyhedra
Efficient Learning of Label Ranking by Soft Projections onto Polyhedra Technische Universität Darmstadt 18. Januar 2008 Szenario Notation duales Problem Weitere Schritte Voraussetzungen Tests Szenario
MehrA linear-regression analysis resulted in the following coefficients for the available training data
Machine Learning Name: Vorname: Prof. Dr.-Ing. Klaus Berberich Matrikel: Aufgabe 1 2 3 4 Punkte % % (Bonus) % (Gesamt) Problem 1 (5 Points) A linear-regression analysis resulted in the following coefficients
MehrKapitel 10. Maschinelles Lernen Lineare Regression. Welche Gerade? Problemstellung. Th. Jahn. Sommersemester 2017
10.1 Sommersemester 2017 Problemstellung Welche Gerade? Gegeben sind folgende Messungen: Masse (kg) 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0 Kraft (N) 1.6 2.2 3.2 3.0 4.9 5.7 7.1 7.3 8.1 Annahme: Es gibt eine Funktion
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen
INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und Selektion
MehrSoftwareprojektpraktikum Maschinelle Übersetzung
Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl max.bleu@i6.informatik.rwth-aachen.de Vorbesprechung 5. Aufgabe 22. Juni 2017 Human Language Technology
MehrGrundlagen zu neuronalen Netzen. Kristina Tesch
Grundlagen zu neuronalen Netzen Kristina Tesch 03.05.2018 Gliederung 1. Funktionsprinzip von neuronalen Netzen 2. Das XOR-Beispiel 3. Training des neuronalen Netzes 4. Weitere Aspekte Kristina Tesch Grundlagen
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik 8.11.2011 1 von 38 Gliederung 1 2 Lagrange-Optimierung 2 von 38 Übersicht über die Stützvektormethode (SVM) Eigenschaften
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen
INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und Selektion
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik Technische Universität Dortmund 12.11.2013 1 von 39 Gliederung 1 Hinführungen zur SVM 2 Maximum Margin Methode Lagrange-Optimierung
MehrReinforcement Learning
Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied
MehrSupport Vector Machines (SVM)
Universität Ulm 12. Juni 2007 Inhalt 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor-
MehrMaschinelles Lernen Vorlesung
Maschinelles Lernen Vorlesung SVM Kernfunktionen, Regularisierung Katharina Morik 15.11.2011 1 von 39 Gliederung 1 Weich trennende SVM 2 Kernfunktionen 3 Bias und Varianz bei SVM 2 von 39 SVM mit Ausnahmen
MehrDie Datenmatrix für Überwachtes Lernen
Die Datenmatrix für Überwachtes Lernen X j j-te Eingangsvariable X = (X 0,..., X M 1 ) T Vektor von Eingangsvariablen M Anzahl der Eingangsvariablen N Anzahl der Datenpunkte Y Ausgangsvariable x i = (x
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken, Häufige Mengen Nico Piatkowski und Uwe Ligges 09.05.2017 1 von 15 Überblick Was bisher geschah... Heute Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrINTELLIGENTE DATENANALYSE IN MATLAB
INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Sh Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und
MehrSupport Vector Machines, Kernels
Support Vector Machines, Kernels Katja Kunze 13.01.04 19.03.2004 1 Inhalt: Grundlagen/Allgemeines Lineare Trennung/Separation - Maximum Margin Hyperplane - Soft Margin SVM Kernels Praktische Anwendungen
MehrUnüberwachte Nächste Nachbarn
Unüberwachte Nächste Nachbarn Ein effizientes Verfahren zur Dimensionsreduktion Oliver Kramer Department für Informatik Carl von Ossietzky Universität Oldenburg 4. Mai 2012 (Oliver Kramer, Abteilung CI)
MehrKlassische Klassifikationsalgorithmen
Klassische Klassifikationsalgorithmen Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at
Mehr6.2 Feed-Forward Netze
6.2 Feed-Forward Netze Wir haben gesehen, dass wir mit neuronalen Netzen bestehend aus einer oder mehreren Schichten von Perzeptren beispielsweise logische Funktionen darstellen können Nun betrachten wir
MehrOptimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp
Optimal-trennende Hyperebenen und die Support Vector Machine Volker Tresp 1 (Vapnik s) Optimal-trennende Hyperebenen (Optimal Separating Hyperplanes) Wir betrachten wieder einen linearen Klassifikator
MehrLineare Regression 2: Gute Vorhersagen
Lineare Regression 2: Gute Vorhersagen Markus Kalisch 23.09.2014 1 Big Picture: Statistisches Lernen Supervised Learning (X,Y) Unsupervised Learning X VL 7, 11, 12 Regression Y kontinuierlich VL 1, 2,
MehrData Mining 8-1. Kapitel 8: Recommendation Systems. Johannes Zschache Wintersemester 2018/19
Data Mining Kapitel 8: Recommendation Systems Johannes Zschache Wintersemester 08/9 Abteilung Datenbanken, Universität Leipzig http://dbs.uni-leipzig.de Data Mining 8- 8- Data Mining Übersicht Hochdimension.
MehrLineare Klassifikatoren. Volker Tresp
Lineare Klassifikatoren Volker Tresp 1 Einführung Lineare Klassifikatoren trennen Klassen durch eine lineare Hyperebene (genauer: affine Menge) In hochdimensionalen Problemen trennt schon eine lineare
MehrNeuronale Netze. Christian Böhm.
Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch
MehrNutzung maschinellen Lernens zur Extraktion von Paragraphen aus PDF-Dokumenten
Nutzung maschinellen Lernens zur Extraktion von Paragraphen aus PDF-Dokumenten Albert-Ludwigs-Universität zu Freiburg 13.09.2016 Maximilian Dippel max.dippel@tf.uni-freiburg.de Überblick I Einführung Problemstellung
MehrEntscheidungsbäume aus großen Datenbanken: SLIQ
Entscheidungsbäume aus großen Datenbanken: SLIQ C4.5 iteriert häufig über die Trainingsmenge Wie häufig? Wenn die Trainingsmenge nicht in den Hauptspeicher passt, wird das Swapping unpraktikabel! SLIQ:
MehrLearning to Rank Sven Münnich
Learning to Rank Sven Münnich 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 1 Übersicht 1. Einführung 2. Methoden 3. Anwendungen 4. Zusammenfassung & Fazit 06.12.12 Fachbereich 20 Seminar
MehrPolynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen
Rückblick Polynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen Ridge Regression vermeidet Überanpassung, indem einfachere Modelle mit
MehrData Mining Kapitel 11: Machine Learning. Johannes Zschache Wintersemester 2018/19
Data Mining Kapitel 11: Machine Learning Johannes Zschache Wintersemester 2018/19 Abteilung Datenbanken, Universität Leipzig http://dbs.unileipzig.de Data Mining 111 112 Data Mining Übersicht Hochdimension.
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?
MehrAutomatic segmentation for dental operation planning. Diplomarbeit. Nguyen The Duy
Automatic segmentation for dental operation planning Diplomarbeit Nguyen The Duy 24.02.2012 Motivation Quelle: bestbudapestdentist.com Aufgabenstellung Segmentierung des Oberkiefers (Maxilla) Detektion
MehrMaschinelle Sprachverarbeitung
Maschinelle Sprachverarbeitung Übung Aufgabe 5: Gen-Erkennung mit Maschinellen Lernen Mario Sänger Problemstellung Erkennung von Genen in Texten NEU: Beachtung von Multi-Token-Entitäten (B-/I-protein)
MehrMulti-label Lazy Associative Classification. Darko Popovic. Seminar aus maschinellem Lernen WS 2007/2008
Multi-label Lazy Associative Classification Darko Popovic Seminar aus maschinellem Lernen WS 2007/2008 Klassifizierung Klassifikatoren Binärer Klassifikator Multi-class Klassifikator eine Klasse pro Instanz
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
MehrApproximate Maximum Margin Algorithms with Rules Controlled by the Number of Mistakes
Approximate Maximum Margin Algorithms with Rules Controlled by the Number of Mistakes Seminar Maschinelles Lernen VORTRAGENDER: SEBASTIAN STEINMETZ BETREUT VON: ENELDO LOZA MENCÍA Inhalt Vorbedingungen
MehrInhalt. Einleitung... XIII
Inhalt Einleitung................................................. XIII 1 Vektoren, Matrizen und Arrays.................................. 1 1.0 Einführung.......................................... 1 1.1
MehrSKOPOS Webinar 22. Mai 2018
SKOPOS Webinar 22. Mai 2018 Marktforschung 2020: Künstliche Intelligenz und automatische Text Analysen? Christopher Harms, Consultant Research & Development 2 So? Terminator Exhibition: T-800 by Dick Thomas
MehrMACHINE VISION KLASSIFIKATOREN VORTEILE UND HERAUSFORDERUNGEN AUSGEWÄHLTER METHODEN
MACHINE VISION KLASSIFIKATOREN VORTEILE UND HERAUSFORDERUNGEN AUSGEWÄHLTER METHODEN FRANK ORBEN, TECHNICAL SUPPORT / DEVELOPER IMAGE PROCESSING, STEMMER IMAGING GLIEDERUNG Einführung Aufgabe: Klassifikation
MehrKalibrierung eines ökonomischen Szenariengenerators. Albert Meeser und Wiebke Burdag
Kalibrierung eines ökonomischen Szenariengenerators Albert Meeser und Wiebke Burdag Übersicht Einführung Vasicek Modell Black Scholes mit Vasicek Optimierungsalgorithmen Implementierung Ergebnisse der
MehrKlassische Klassifikationsalgorithmen
Klassische Klassifikationsalgorithmen Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at
MehrLineare Klassifikationsmethoden
Verena Krieg Fakultät für Mathematik und Wirtschaftswissenschaften 08. Mai 2007 Inhaltsverzeichnis 1. Einführung 2. Lineare Regression 3. Lineare Diskriminanzanalyse 4. Logistische Regression 4.1 Berechnung
MehrFocusing Search in Multiobjective Evolutionary Optimization through Preference Learning from User Feedback
Focusing Search in Multiobjective Evolutionary Optimization through Preference Learning from User Feedback Thomas Fober Weiwei Cheng Eyke Hüllermeier AG Knowledge Engineering & Bioinformatics Fachbereich
MehrMustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines
Mustererkennung R. Neubecker, WS 018 / 019 (SVM) kommen aus der statistischen Lerntheorie gehören zu den optimalen Klassifikatoren = SVMs minimieren nicht nur den Trainingsfehler, sondern auch den (voraussichtlichen)
MehrStrukturelle SVM zum Graph-labelling
23. Juni 2009 1 Was wir gerne hätten...... und der Weg dorthin Erinnerung: strukturelle SVM 2 Junction Tree Algorithmus Loopy Belief Propagation Gibbs Sampling 3 Umfang Qualität der Algorithmen Schlussfolgerungen
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Modellklassen, Verlustfunktionen Nico Piatkowski und Uwe Ligges 02.05.2017 1 von 15 Literatur Trevor Hastie, Robert Tibshirani, Jerome Friedman. The Elements of Statistical
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr Paul Prasse
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Paul Prasse Tobias Scheffer Sawade/Landwehr/Prasse/Scheffer, Maschinelles Lernen
MehrItem-based Collaborative Filtering
Item-based Collaborative Filtering Paper presentation Martin Krüger, Sebastian Kölle 28.04.2011 Seminar Collaborative Filtering KDD Cup 2011: Aufgabenbeschreibung Track 1 Item-based Collaborative Filtering
MehrModellierung mit künstlicher Intelligenz
Samuel Kost kosts@mailbox.tu-freiberg.de Institut für Numerische Mathematik und Optimierung Modellierung mit künstlicher Intelligenz Ein Überblick über existierende Methoden des maschinellen Lernens 13.
MehrGeneral Online Research Conference GOR February to 2 March 2018, TH Köln University of Applied Sciences, Cologne, Germany
General Online Research Conference GOR 18 28 February to 2 March 2018, TH Köln University of Applied Sciences, Cologne, Germany Christopher Harms, SKOPOS GmbH & Co. KG Keine Angst vor Ihrem neuen Kollegen,
MehrStudientag zur Algorithmischen Mathematik
Studientag zur Algorithmischen Mathematik Aufgaben zur nicht-linearen Optimierung Teil II Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Aufgabe 5 Bestimmen
MehrReduced-Rank Least Squares Modelle
16.12.2008 Wiederholung Gegeben: Matrix A m n Paar Rechter Eigenvektor x, Eigenwert λ: A x = λ x mit x R n \ 0, λ N Paar Linker Eigenvektor y, Eigenwert λ: y T A = λ y T Singulärwertzerlegung (SVD): A
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Belief Propagation, Strukturlernen Nico Piatkowski und Uwe Ligges 29.06.2017 1 von 13 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung
MehrLeipziger Institut für Informatik. Wintersemester Seminararbeit. im Studiengang Informatik der Universität Leipzig
Leipziger Institut für Informatik Wintersemester 2017 Seminararbeit im Studiengang Informatik der Universität Leipzig Forschungsseminar Deep Learning Begriffsbildung, Konzepte und Überblick Verfasser:
MehrSkipgram (Word2Vec): Praktische Implementierung
Skipgram (Word2Vec): Praktische Implementierung Benjamin Roth Centrum für Informations- und Sprachverarbeitung Ludwig-Maximilian-Universität München beroth@cis.uni-muenchen.de Benjamin Roth (CIS) Skipgram
MehrArtificial Intelligence. Was ist das? Was kann das?
Artificial Intelligence Was ist das? Was kann das? Olaf Erichsen Tech-Day Hamburg 13. Juni 2017 Sehen wir hier bereits Künstliche Intelligenz (AI)? Quelle: www.irobot.com 2017 Hierarchie der Buzzwords
MehrWeitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff
Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2 Tom Schelthoff 30.11.2018 Inhaltsverzeichnis Deep Learning Seed-Stabilität Regularisierung Early Stopping Dropout Batch Normalization
MehrÜberblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression
Überblic Grundonepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münwürfe Lineare Regression Logistische Regression Bayes sche Vorhersage Münwürfe Lineare Regression 14 Modell für Münwürfe
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale
MehrMachine Learning. Kurzeinführung Erfahrungen in GIS
Machine Learning Kurzeinführung Erfahrungen in GIS Bernd Torchala Anlass advangeo prediction Seit über 10 Jahren entwickelt, angewandt und vertrieben Integriert bislang: Neuronale Netze, Weights of Evidence
MehrLDA-based Document Model for Adhoc-Retrieval
Martin Luther Universität Halle-Wittenberg 30. März 2007 Inhaltsverzeichnis 1 2 plsi Clusterbasiertes Retrieval 3 Latent Dirichlet Allocation LDA-basiertes Retrieval Komplexität 4 Feineinstellung Parameter
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Probabilistische Nico Piatkowski und Uwe Ligges 22.06.2017 1 von 32 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrKünstliche Neuronale Netze und Data Mining
Künstliche Neuronale Netze und Data Mining Catherine Janson, icasus GmbH Heidelberg Abstract Der Begriff "künstliche Neuronale Netze" fasst Methoden der Informationstechnik zusammen, deren Entwicklung
MehrÜberwachtes Lernen II: Netze und Support-Vektor-Maschinen
Überwachtes Lernen II: Klassifikation und Regression - Neuronale Netze und Support-Vektor-Maschinen Praktikum: Data Warehousing und Data Mining Praktikum Data Warehousing und Mining, Sommersemester 2009
MehrDOKUMENTENKLASSIFIKATION MIT MACHINE LEARNING
DOKUMENTENKLASSIFIKATION MIT MACHINE LEARNING Andreas Nadolski Softwareentwickler andreas.nadolski@enpit.de Twitter: @enpit Blogs: enpit.de/blog medium.com/enpit-developer-blog 05.10.2018, DOAG Big Data
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Organisation und Überblick Nico Piatkowski und Uwe Ligges 8.0.07 von Fakten Team Vorlesung: Uwe Ligges, Nico Piatkowski Übung: Sarah Schnackenberg, Sebastian Buschjäger
MehrKonzepte der AI Neuronale Netze
Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale
MehrIdeen und Konzepte der Informatik. Maschinelles Lernen. Kurt Mehlhorn
Ideen und Konzepte der Informatik Maschinelles Lernen Kurt Mehlhorn Übersicht Lernen: Begriff Beispiele für den Stand der Kunst Spamerkennung Handschriftenerkennung mit und ohne Trainingsdaten Gesichts-
MehrRekurrente Neuronale Netze
Rekurrente Neuronale Netze Gregor Mitscha-Baude May 9, 2016 Motivation Standard neuronales Netz: Fixe Dimensionen von Input und Output! Motivation In viele Anwendungen variable Input/Output-Länge. Spracherkennung
MehrRechner. Verlauf ansehen. Ausdruck teilen. Graph Gleichungen. OXY Seite öffnen. SCI/ENG Schreibweise. Eigene Gleichung zuweisen
Rechner Taste Funktion Verlauf ansehen Ausdruck teilen Zurück (bis zu 30 Schritte) Vorwärts (bis zu 30 Schritte) Graph Gleichungen Eigene Gleichung zuweisen OXY Seite öffnen Bruch/Grad Konvertierung SCI/ENG
Mehr6.2 Lineare Regression
6.2 Lineare Regression Einfache lineare Regression (vgl. Kap. 4.7) Y i = θ 0 + θ 1 X i + ǫ i ǫ i (0, σ 2 ) ˆθ 1 ˆθ 0 = S XY S 2 X = 1 ( Yi n ˆθ ) 1 Xi als Lösung der Minimumaufgabe n (Y i θ 1 X 1 θ 0 )
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Support Vector Machine Nico Piatkowski und Uwe Ligges 30.05.2017 1 von 14 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrNeuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation
Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für
MehrFunktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen
5. Klassifikation 5.6 Support Vector Maschines (SVM) übernommen von Stefan Rüping, Katharina Morik, Universität Dortmund Vorlesung Maschinelles Lernen und Data Mining, WS 2002/03 und Katharina Morik, Claus
MehrNeuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation
Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für
MehrX =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode?
Aufgabe 1 (25 Punkte) Zur Schätzung der Produktionsfunktion des Unternehmens WV wird ein lineares Regressionsmodell der Form angenommen. Dabei ist y t = β 1 + x t2 β 2 + e t, t = 1,..., T (1) y t : x t2
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrOptimierung. Optimierung. Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 4 Newton und Quasi Newton Verfahren (Teil II) 1 Newton Verfahren Taylor Approximation 1. Ordnung von Newton Verfahren! 0 Setze 0und berechne Löse lineares Gleichungssystem für : 2
Mehr6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode
6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode In diesem Kapitel orientieren wir uns stark an den Büchern: 1. Knut Sydsæter, Peter Hammond, Mathematik für Wirtschaftswissenschaftler,
Mehr