Statistical Learning

Größe: px
Ab Seite anzeigen:

Download "Statistical Learning"

Transkript

1 Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in Abb.1 rechts sehen kann. Auf der blauen Teilmenge soll er den Wert annehmen, auf der weißen den Wert. Als Bausteine stehen zwei Perzeptrons zur Verfügung, deren Wirkung in Abb.1 links bzw. mitte zu sehen ist. Wir konstruieren den Klassifikator im Stil eines neuronalen Netzes und wählen Bezeichnungen, die für neuronale Netze üblich sind. Abbildung 1: Zwei Perzeptrons (links und mitte) teilen die Inputmenge. Blaue Bereiche sind - Bereiche, weiße -Bereiche. Der Klassifikator rechts wird aus diesen Perzeptrons als neuronales Netz konstruiert. Typisch für neuronale Netze ist die hierarchische Schichtstruktur. Man stellt sich vor, dass ein Reiz aus der Eingabeschicht zu einem Signal für die nächste Schicht verarbeitet wird, das dort wieder einen Reiz auslöst usw.. Am Ende kommt in der Ausgabeschicht ein Signal an und löst einen Reiz aus. Unser neuronales Netz wird vier Schichten (layers) haben, numeriert mit Ð ¼. Aus Reizen Ü Ð der Schicht Ð werden Signale. Aus diesen gehen die Reize Ü Ðµ der Schicht Ð hervor. Alles wird durch Abbildungen realisiert. Eingabeschicht ist in unserem Fall die Menge. Die Komponente mit der Eins zählt als nullte Komponente. Nullte Komponenten werden zur Verrechnung von Schwellwerten (thresholds) genutzt. Im Signal steckt die Wirkung unserer Perzeptrons. Ist Perzeptron 1 die Abbildung Ü Ò Ù Ì Üµ und Perzeptron 2 die Abbildung Ü Ò ÙÌ Üµ, so ist Ï µ Ì Ü ¼µ mit Ï Ù Ù. Der von ausgelöste Reiz ist Ü µ Ò µ Ò µ Ì. Die Abbildung ist im Wesentlichen eine kompo- mit µ nentenweise Ò-Funktion. Der Übergang von Schicht Ð ¼ zu Schicht Ð wird durch Æ Ï µ Ì realisiert. 1

2 Wir sind nun in Schicht Ð, die zu den verborgenen Schichten (hidden layers) des neuronalen Netzes zählt. Der Übergang zur nächsten verborgenen Schicht Ð ist ähnlich. Er wird durch die Funktion µ Æ Ï µ µ Ì realisiert. Dabei ist µ und Ï µ Ì Ú Ú mit Ú Ì und Ú Ì. Sei Ü µ Ü µ µ Ï Ü µ µ Ì. In Komponente 1 von Ü µ erscheint genau dann, wenn Perzeptron 1 den Wert und Perzeptron 2 den Wert geliefert hat. In Komponente 2 erscheint genau dann, wenn Perzeptron 1 den Wert und Perzeptron 2 den Wert geliefert hat. liefert die Bestandteile einer XOR-Verknüpfung an Schicht Ð. Es fehlt nur noch die OR-Verknüpfung dieser Bestandteile. Die letzte Schicht (Ð ) ist die Ausgabeschicht. Den Übergang zu ihr vermittelt Ì und µ Ò. Die einspaltige Matrix Ï µ µ Æ Ï µ µ Ì. Hier ist Ï µ realisiert die OR-Verknüpfung. Die Ausgabeschicht hat keine nullte Komponente (man braucht keine mehr) und sie ist eindimensional. In ihr steht das Rechenergebnis des neuronalen Netzes. Die Funktion Æ Æ ist ein neuronales Netz mit einer Eingabeschicht, zwei verborgenen Schichten und einer Ausgabeschicht. Die Dimensionen der Schichten sind ¼µ µ, µ (nullte Komponenten zählen nicht). Die Funktion erfüllt die Anforderung genau. Sie klassifiziert fehlerlos. Im Unterschied zu unserem Beispiel sind bei Problemen, die mit neuronalen Netzen gelöst werden, nur die Eingabe- und Ausgabeschicht bekannt. Mit neuronalen Netzen bildet man eine unbekannte Funktion, die sich nur in Trainingsdaten dokumentiert, bestmöglich nach. Man hat ein Fehlermaß, das die Abweichung der Netzfunktion von auf der Trainingsmenge misst. Der Fehler wird minimiert, indem man optimale Gewichte Ï µ findet. Man braucht Differenzierbarkeit nach den Komponenten der Ï µ s. Statt der Ò-Funktion verwendet man deshalb glatte, Ò-artige Funktionen (soft thresholds), beispielsweise ØÒ. Definition 1 (Neuronales Netz, informell) Ein neuronales Netz ist eine Funktion, die zu einem Eingabevektor in Ä Schritten einen skalaren Ausgabewert zwischen und berechnet. Jeder Schritt ist eine Funktion Ð, Ð Ä die aus zwei Operationen besteht. Die eine, lineare, berechnet Signale, die andere, Ò-artige, verarbeitet die Signale zu Reizen oder. Die Anzahl Ä der Schritte und die Dimensionen е der Wertebereiche von Ð können für Ð Ä gewählt werden. Der Wertebereich von Ä ist eindimensional. Die linearen Operationen in den Ð enthalten die Parameter, über die man die Eigenschaften des neuronalen Netzes verändern und an Erfordernisse anpassen kann. Definition 2 (Neuronales Netz, formal) Ein neuronales Netz ist eine Funktion R ¼µ mit folgenden Eigenschaften: 1. Ä Æ Ä Æ Æ mit (a) R ¼µ, (b) РРе für Ð Ä, Ä (c) Ä (d.h. Ä ). Dabei sind die Dimensionen ¼µ Ä N Ò ¼ und ĵ. 2

3 2. Jedes Ð ist von der Form Рܵ е Ï Ðµ µ Ì Ü mit (a) Ï Ðµ R Ð R е für Ð Ä, (b) е R е е, µ е µ Ì für Ð Ä, (c) ĵ. Dabei ist eine Ò-artige glatte Funktion, z.b. ØÒ. Wie kann ein neuronales Netz trainiert werden? Gegeben sei eine Trainingsmenge Ü Ý Ü Æ Ý Æ. Sei die unbekannte Funktion, die die Trainingsmenge erzeugt hat (Ý Ò Ü Ò µ, Ò Æ). Sei das neuronale Netz, das mit möglichst gut übereinstimmen soll. Unser Fehlermaß muss von jenen Parametern abhängen, die wir variieren wollen, um den Fehler zu drücken, d.h. von den Koeffizienten der Ï Ï Äµ. Denken wir uns die Elemente dieser Matrizen in einem Vektor Û angeordnet und schreiben wir Ü Ûµ statt ܵ. Das passende Fehlermaß für unser Vorhaben ist ÖÖ in Ûµ Ü Ò Ûµ Ý Ò µ Æ ÒÆ Zur Minimierung des in-sample errors bietet sich das Gradientenabstiegsverfahren an. Bei der Berechnung des Gradienten muss nach Komponenten von Û differenziert werden. Unter anderem muss man auch differenzieren. Wir wählen µ ØÒ µ Diese Funktion ist für und für und hat zudem die schöne Eigenschaft ¼ µ µ Das klassische Grandientenabstiegsverfahren erfordert einen hohen Rechenaufwand, denn bei jeder Berechnung des Gradienten wird die gesamte Lernmenge ausgewertet. Bei neuronalen Netzen hat sich das stochastische Gradientenabstiegsverfahren als Alternative bewährt. Hier wird bei jedem Schritt ein Ò Æ zufällig bestimmt und der Gradient des Elementarfehlers Ò Ûµ Ü Ò Ûµ Ý Ò µ zur Berechnung des neuen Û herangezogen: Û neu Û alt Ö Ò Û alt µ Der Vollständigkeit halber geben wir an, wie Û konstruiert werden kann. Die Elemente der Matrix Ï Ðµ seien. Die Größe ist das Gewicht, mit dem die -te Komponente des Reizes Ü Ð multipliziert wird und damit zur -ten Komponente des Signals beiträgt. Man denke sich die Spalten zu einem Vektor aneinandergereiht. Die Vektoren denke man sich zum Vektor Û aneinandergereiht. Die Größe Ò Ûµ kann man von der Ð-ten Schicht aus berechnen, wenn man das Signal kennt, denn dann kann man weiterrechnen bis zur Ausgabeschicht. Also kann man Ò auch als Funktion des Signals auffassen und entsprechend differenzieren. Das wollen wir jetzt tun. Wir führen noch eine neue Bezeichnung ein: Æ Ðµ Ò µ 3

4 Im Fall Ð Ä gibt es nur ein, nämlich, und man erhält sofort Æ Äµ ĵ µ Ý Ò µ ĵ µ µ Schicht für Schicht kann man nun weiterrechnen. Angenommen, man hat Æ Ðµ ist mit Æ Ð Ò µ Wegen und ist µ Ð Ì Ðµ µ und Ò µ Ï Ðµ µ Ì Ð µµ Æ Ð µ Æ Ðµ е µ е Ì Æ Ðµ е schon. Dann µ Æ Ðµ µ µ е Ï Ðµ µ Ì Ð µµ µì Ð µ ¼ µ µ µ für Ð Ä (1) Die Beziehung (1) kennt man unter dem Namen back propagation. Damit haben wir nun ein effizientes Verfahren zur Berechnung des Û-Gradienten von Ò in der Hand. Es ist nämlich Ò Die Größe Ò µ ist Æ Ðµ und Ò ist einfach Ü Ð. (2) Beispiel 2 (Computer-Experiment) Mit dem neuronalen Netz aus Beispiel 1 wurde eine Trainingsmenge vom Umfang Æ ¼¼ erzeugt. Ein neuronales Netz mit zwei vierdimensionalen hidden layers wurde an den Daten trainiert. Ergebnis war eine Funktion mit Werten in, dessen Kontur man in Abb. 3 rechts sieht. Als Gewichtsmatrizen des neuronalen Netzes ergaben sich Ï Ï µ ¼ ¼¼ ¼ ¼ ¼ ¼¼ ¼¼ ¼ ¼ ¼¼ ¼ ¼¼¼ ¼¼ ¼ ¼ ¼¼ ¼ ¼ ¼ ¼¼ ¼ ¼ ¼¼ ¼¼¼ ¼¼ ¼ ¼¼ Ï µ ¼ ¼ 4

5 Abbildung 2: Trainingsmenge. Der Lernkoeffizient für den stochastischen Grandientenabstieg war ¼. Die Iteration wurde beendet, sobald das Norm-Quadrat des Gradienten den Wert ¼ ¼ unterschritt. Die obere Schranke für die Anzahl der Iterationen war ¼ Abbildung 3: Trainingsmenge und Konturplot des neuronalen Netzes. Literatur [1] Y. S. Abu-Mostafa. Learning from Data. Caltech CS

Statistical Learning

Statistical Learning Statistical Learning M Gruber KW 45 Rev 1 1 Support Vector Machines Definition 1 (Lineare Trennbarkeit) Eine Menge Ü µ Ý µ Ü Æµ Ý Æµ R ist linear trennbar, wenn mindestens ein Wertepaar Û R µ existiert

Mehr

Neuronale Netze. M. Gruber (1) ausgeloste Reiz ist x (1) = (1) (s (1) ) mit (1) (s) = 1 sgn(s 1 ) sgn(s 2 ) T. .

Neuronale Netze. M. Gruber (1) ausgeloste Reiz ist x (1) = (1) (s (1) ) mit (1) (s) = 1 sgn(s 1 ) sgn(s 2 ) T. . Neuronale Netze M. Gruber 7.11.015 Begnnen wr mt enem Bespel. Bespel 1 Wr konstrueren enen Klasskator auf der Menge X = [ 1; 1], dessen Wrkung man n Abb.1 rechts sehen kann. Auf der blauen Telmenge soll

Mehr

Thema 3: Radiale Basisfunktionen und RBF- Netze

Thema 3: Radiale Basisfunktionen und RBF- Netze Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung

Mehr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

6.2 Feed-Forward Netze

6.2 Feed-Forward Netze 6.2 Feed-Forward Netze Wir haben gesehen, dass wir mit neuronalen Netzen bestehend aus einer oder mehreren Schichten von Perzeptren beispielsweise logische Funktionen darstellen können Nun betrachten wir

Mehr

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Albayrak, Fricke (AOT) Oer, Thiel (KI) Wintersemester 2014 / 2015 8. Aufgabenblatt

Mehr

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)

Mehr

Lineare Algebra I (WS 12/13)

Lineare Algebra I (WS 12/13) Lineare Algebra I (WS 12/13) Bernhard Hanke Universität Augsburg 17.10.2012 Bernhard Hanke 1 / 9 Wir beschreiben den folgenden Algorithmus zur Lösung linearer Gleichungssysteme, das sogenannte Gaußsche

Mehr

Multiplikation von Matrizen

Multiplikation von Matrizen Multiplikation von Matrizen Die Regeln der Multiplikation von Zahlen können nicht direkt auf die Multiplikation von Matrizen übertragen werden. 2-E Ma Lubov Vassilevskaya Multiplikation ccvon Matrizen

Mehr

Beziehungen zwischen Verteilungen

Beziehungen zwischen Verteilungen Kapitel 5 Beziehungen zwischen Verteilungen In diesem Kapitel wollen wir Beziehungen zwischen Verteilungen betrachten, die wir z.t. schon bei den einzelnen Verteilungen betrachtet haben. So wissen Sie

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?

Mehr

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14. Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?

Mehr

6. Vorlesung. Rechnen mit Matrizen.

6. Vorlesung. Rechnen mit Matrizen. 6. Vorlesung. Rechnen mit Matrizen. In dieser Vorlesung betrachten wir lineare Gleichungs System. Wir betrachten lineare Gleichungs Systeme wieder von zwei Gesichtspunkten her: dem angewandten Gesichtspunkt

Mehr

Neuronale Netze (Konnektionismus)

Neuronale Netze (Konnektionismus) Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Daniel Göhring Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Mustererkennung: Neuronale Netze D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Feed-Forward Netze y 1 y 2 y m...... x 1 x 2 x n Output Schicht i max... Zwischenschicht i... Zwischenschicht 1

Mehr

So lösen Sie das multivariate lineare Regressionsproblem von Christian Herta

So lösen Sie das multivariate lineare Regressionsproblem von Christian Herta Multivariate Lineare Regression Christian Herta Oktober, 2013 1 von 34 Christian Herta Multivariate Lineare Regression Lernziele Multivariate Lineare Regression Konzepte des Maschinellen Lernens: Kostenfunktion

Mehr

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

Modell Komplexität und Generalisierung

Modell Komplexität und Generalisierung Modell Komplexität und Generalisierung Christian Herta November, 2013 1 von 41 Christian Herta Bias-Variance Lernziele Konzepte des maschinellen Lernens Targetfunktion Overtting, Undertting Generalisierung

Mehr

3 Determinanten, Eigenwerte, Normalformen

3 Determinanten, Eigenwerte, Normalformen Determinanten, Eigenwerte, Normalformen.1 Determinanten Beispiel. Betrachte folgendes Parallelogramm in der Ebene R 2 : y (a + c, b + d) (c, d) (a, b) x Man rechnet leicht nach, dass die Fläche F dieses

Mehr

Lineare Regression. Volker Tresp

Lineare Regression. Volker Tresp Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M

Mehr

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit

3 Lineare Algebra (Teil 1): Lineare Unabhängigkeit 3 Lineare Algebra (Teil : Lineare Unabhängigkeit 3. Der Vektorraum R n Die Menge R n aller n-dimensionalen Spalten a reeller Zahlen a,..., a n R bildet bezüglich der Addition a b a + b a + b. +. :=. (53

Mehr

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze. Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Basen von Schnitt und Summe berechnen

Basen von Schnitt und Summe berechnen Basen von Schnitt und Summe berechnen 1 / 8 Voraussetzung Es seien U 1, U 2 Untervektorräume von K n. Wir wollen Basen des Schnittes U 1 U 2 und der Summe bestimmen. U 1 + U 2 2 / 8 Bezeichnung Der Einfachheit

Mehr

Die Datenmatrix für Überwachtes Lernen

Die Datenmatrix für Überwachtes Lernen Die Datenmatrix für Überwachtes Lernen X j j-te Eingangsvariable X = (X 0,..., X M 1 ) T Vektor von Eingangsvariablen M Anzahl der Eingangsvariablen N Anzahl der Datenpunkte Y Ausgangsvariable x i = (x

Mehr

Ausgleichsproblem. Definition (1.0.3)

Ausgleichsproblem. Definition (1.0.3) Ausgleichsproblem Definition (1.0.3) Gegeben sind n Wertepaare (x i, y i ), i = 1,..., n mit x i x j für i j. Gesucht ist eine stetige Funktion f, die die Wertepaare bestmöglich annähert, d.h. dass möglichst

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Praktische Optimierung

Praktische Optimierung Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze

Mehr

Methode der kleinsten Quadrate

Methode der kleinsten Quadrate 1. Phase: Methode der kleinsten Quadrate Einführung Im Vortrag über das CT-Verfahren hat Herr Köckler schon auf die Methode der kleinsten Quadrate hingewiesen. Diese Lösungsmethode, welche bei überbestimmten

Mehr

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018 (Analysis und lineare Algebra) im Sommersemester 2018 5. April 2018 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

Validation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation

Validation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation Validation Oktober, 2013 1 von 20 Validation Lernziele Konzepte des maschinellen Lernens Validierungsdaten Model Selection Kreuz-Validierung (Cross Validation) 2 von 20 Validation Outline 1 Validation

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

Zugriff auf Matrizen. Anhängen von Elementen. Punktweise Operatoren. Vektoren und Matrizen in MATLAB II

Zugriff auf Matrizen. Anhängen von Elementen. Punktweise Operatoren. Vektoren und Matrizen in MATLAB II Zugriff auf Matrizen. Anhängen von Elementen. Punktweise Operatoren. Vektoren und Matrizen in MATLAB II Matrixzugriff Wir wollen nun unsere Einführung in die Arbeit mit Vektoren und Matrizen in MATLAB

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches

Mehr

Chr.Nelius: Lineare Algebra (SS 2008) 1. 4: Matrizenrechnung. c ik := a ik + b ik. A := ( a ik ). A B := A + ( B). ist A =

Chr.Nelius: Lineare Algebra (SS 2008) 1. 4: Matrizenrechnung. c ik := a ik + b ik. A := ( a ik ). A B := A + ( B). ist A = Chr.Nelius: Lineare Algebra SS 28 4: Matrizenrechnung 4. DEF: a Die Summe A + B zweier m n Matrizen A a ik und B b ik ist definiert als m n Matrix C c ik, wobei c ik : a ik + b ik für alle i, 2,..., m

Mehr

1 Matrizenrechnung zweiter Teil

1 Matrizenrechnung zweiter Teil MLAN1 1 Literatur: K. Nipp/D. Stoffer, Lineare Algebra, Eine Einführung für Ingenieure, VDF der ETHZ, 4. Auflage, 1998, oder neuer. 1 Matrizenrechnung zweiter Teil 1.1 Transponieren einer Matrix Wir betrachten

Mehr

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015 Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler

Mehr

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Mehrere Neuronen, Assoziative Speicher und Mustererkennung Prof. Dr. rer. nat. Nikolaus Wulff Modell eines Neuron x x 2 x 3. y y= k = n w k x k x n Die n binären Eingangssignale x k {,}

Mehr

2.4.4 Die Fraktale Dimension

2.4.4 Die Fraktale Dimension 2.4.4 Die Fraktale Dimension Ausgehend vom euklidischen Dimensionsbegriff (Punkt = 0, Linie = 1, Fläche = 2...) lässt sich einem fraktalen Gebilde eine fraktale Dimension d f zuordnen. Wir verwenden die

Mehr

Spezielle Matrixformen

Spezielle Matrixformen Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß

Mehr

Lösungen zu den Hausaufgaben zur Analysis II

Lösungen zu den Hausaufgaben zur Analysis II Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden = = 83 79

In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden = = 83 79 Matrixpotenzen n Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden. a) terative Berechnung = 2 = 2 2 2 5 = 7 = 2 2 2 2 = 5 4 4 5 = 5 4 4 5 5 = 29 25 = 5 4 4 5 2 3 = 4 2 3

Mehr

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018 (Analysis und lineare Algebra) im Sommersemester 2018 15. April 2018 1/46 Die Dimension eines Vektorraums Satz 2.27 (Basisergänzungssatz) Sei V ein Vektorraum über einem Körper K. Weiter seien v 1,...,

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Lineare Algebra I. Christian Ebert & Fritz Hamm. Gruppen & Körper. Vektorraum, Basis & Dimension. Lineare Algebra I. 18.

Lineare Algebra I. Christian Ebert & Fritz Hamm. Gruppen & Körper. Vektorraum, Basis & Dimension. Lineare Algebra I. 18. 18. November 2011 Wozu das alles? Bedeutung von Termen Vektoren in R n Ähnlichkeiten zwischen Termbedeutungen Skalarprodukt/Norm/Metrik in R n Komposition von Termbedeutungen Operationen auf/abbildungen

Mehr

10.5 Maximum-Likelihood Klassifikation (I)

10.5 Maximum-Likelihood Klassifikation (I) Klassifikation (I) Idee Für die Klassifikation sind wir interessiert an den bedingten Wahrscheinlichkeiten p(c i (x,y) D(x,y)). y Wenn man diese bedingten Wahrscheinlichkeiten kennt, dann ordnet man einem

Mehr

Deskriptive Beschreibung linearer Zusammenhänge

Deskriptive Beschreibung linearer Zusammenhänge 9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,

Mehr

α i e i. v = α i σ(e i )+µ

α i e i. v = α i σ(e i )+µ Beweis: Der Einfachheit halber wollen wir annehmen, dass V ein endlich-dimensionaler Vektorraum mit Dimension n ist. Wir nehmen als Basis B {e 1,e 2,...e n }. Für beliebige Elemente v V gilt dann v α i

Mehr

Klausur Modellbildung und Simulation (Prof. Bungartz) SS 2007 Seite 1/7

Klausur Modellbildung und Simulation (Prof. Bungartz) SS 2007 Seite 1/7 Klausur Modellbildung und Simulation (Prof. Bungartz) SS 2007 Seite /7 Matrikelnummer: Systeme gewöhnlicher Differentialgleichungen (3 + 3 = 6 Pkt.) Die Abbildung zeigt die Richtungsfelder von drei Differentialgleichungssystemen

Mehr

mit "Skalarprodukt" aus i-tem "Zeilenvektor" und j-tem "Spaltenvektor"

mit Skalarprodukt aus i-tem Zeilenvektor und j-tem Spaltenvektor Zusammenfassung Matrizen Transponierte: Addition: mit Skalare Multiplikation: Matrixmultiplikation: m x p m x n n x p mit ES "Skalarprodukt" aus i-tem "Zeilenvektor" und j-tem "Spaltenvektor" "Determinante"

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Lineare Algebra I (WS 12/13)

Lineare Algebra I (WS 12/13) Lineare Algebra I (WS 12/13) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 18.10.2012 Alexander Lytchak 1 / 12 Lineare Gleichungssysteme Wir untersuchen nun allgemeiner Gleichungssysteme der

Mehr

Linear nichtseparable Probleme

Linear nichtseparable Probleme Linear nichtseparable Probleme Mustererkennung und Klassifikation, Vorlesung No. 10 1 M. O. Franz 20.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Diagonalisierbarkeit symmetrischer Matrizen

Diagonalisierbarkeit symmetrischer Matrizen ¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren

Mehr

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $ Mathematik für Ingenieure I, WS 8/9 Freitag 9. $Id: linabb.tex,v.3 9//9 3:7:34 hk Exp hk $ II. Lineare Algebra 9 Lineare Abbildungen 9. Lineare Abbildungen Der folgende Satz gibt uns eine einfachere Möglichkeit

Mehr

5. Lernregeln für neuronale Netze

5. Lernregeln für neuronale Netze 5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1

Mehr

36 2 Lineare Algebra

36 2 Lineare Algebra 6 Lineare Algebra Quadratische Matrizen a a n sei jetzt n m, A, a ij R, i, j,, n a n a nn Definition Eine quadratische Matrix A heißt invertierbar genau dann, wenn es eine quadratische Matrix B gibt, so

Mehr

3 Systeme linearer Gleichungen

3 Systeme linearer Gleichungen 3 Systeme linearer Gleichungen Wir wenden uns nun dem Problem der Lösung linearer Gleichungssysteme zu. Beispiel 3.1: Wir betrachten etwa das folgende System linearer Gleichungen: y + 2z = 1 (1) x 2y +

Mehr

Lektion 3. 1 Theorie. NTS1-P Natur, Technik und Systeme 1 Praktikum Herbstsemester 2012

Lektion 3. 1 Theorie. NTS1-P Natur, Technik und Systeme 1 Praktikum Herbstsemester 2012 NTS1-P Natur, Technik und Systeme 1 Praktikum Herbstsemester 2012 Dr Christoph Kirsch ZHAW Winterthur Lektion 3 In dieser Lektion werden Sie in MATLAB mit Vektoren und Matrizen rechnen 1 Theorie Wie Sie

Mehr

Kapitel 14 Lineare Gleichungssysteme

Kapitel 14 Lineare Gleichungssysteme Kapitel 4 Lineare Gleichungssysteme Kapitel 4 Lineare Gleichungssysteme Mathematischer Vorkurs TU Dortmund Seite 83 / 246 Kapitel 4 Lineare Gleichungssysteme Definition 4. (Lineares Gleichungssystem LGS)

Mehr

Kapitel 15 Lineare Gleichungssysteme

Kapitel 15 Lineare Gleichungssysteme Kapitel 15 Lineare Gleichungssysteme Kapitel 15 Lineare Gleichungssysteme Mathematischer Vorkurs TU Dortmund Seite 1 / 27 Kapitel 15 Lineare Gleichungssysteme Definition 15.1 (Lineares Gleichungssystem

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen

Mehr

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009 Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx

Mehr

Leitfaden 20. t = dim V dimu.

Leitfaden 20. t = dim V dimu. Leitfaden 2 Einschub (Nachtrag zur LA I): Komplementärbasen Sei V ein Vektorraum, U ein Unterraum Eine Folge (v,, v t ) von Vektoren aus V heißt linear unabhängig modulo U, falls folgendes gilt: sind p

Mehr

Lineare Hülle. span(a) := λ i v i : so dass k N, λ i R und v i A.

Lineare Hülle. span(a) := λ i v i : so dass k N, λ i R und v i A. Lineare Hülle Def A sei eine nichtleere Teilmenge des Vektorraums (V,+, ) Die lineare Hülle von A (Bezeichung: span(a)) ist die Menge aller Linearkombinationen der Elemente aus A { k } span(a) := λ i v

Mehr

Selektion (bedingte Auswahl):

Selektion (bedingte Auswahl): Selektion (bedingte Auswahl): ÒØ Ü Ý Ö ÙÐØ Ü Ö µ Ý Ö µ Ü Ýµ Ö ÙÐØ Ü ¹ Ý Ð Ö ÙÐØ Ý ¹ Ü ÛÖ Ø Ö ÙÐص Zuerst wird die Bedingung ausgewertet. Ist sie erfüllt, wird die nächste Operation ausgeführt. Ist sie

Mehr

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema: Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag

Mehr

Konzepte der AI Neuronale Netze

Konzepte der AI Neuronale Netze Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale

Mehr

Klassifikation linear separierbarer Probleme

Klassifikation linear separierbarer Probleme Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear

Mehr

Nützliches Hilfsmittel (um Schreiberei zu reduzieren): 'Erweiterte Matrix': Gauß- Verfahren

Nützliches Hilfsmittel (um Schreiberei zu reduzieren): 'Erweiterte Matrix': Gauß- Verfahren L5.4 Inverse einer Matrix Ausgangsfrage: Wie löst man ein lineares Gleichungsystem (LSG)? Betrachte n lineare Gleichungen für n Unbekannte: Ziel: durch geeignete Umformungen bringe man das LSG in folgende

Mehr

Algebraische Kurven. Vorlesung 24. Tangenten bei Parametrisierungen. (Q)) die Richtung der Tangente von C in P.

Algebraische Kurven. Vorlesung 24. Tangenten bei Parametrisierungen. (Q)) die Richtung der Tangente von C in P. Prof. Dr. H. Brenner Osnabrück SS 2012 Algebraische Kurven Vorlesung 24 Tangenten bei Parametrisierungen Satz 24.1. Es sei K ein unendlicher Körper und ϕ: A 1 K A n K eine durch n Polynome ϕ = (ϕ 1 (t),...,ϕ

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

Definition 4.1 Die Wahrscheinlichkeitsfunktion der Bernoulli-Verteilung ist gegeben durch

Definition 4.1 Die Wahrscheinlichkeitsfunktion der Bernoulli-Verteilung ist gegeben durch Kapitel 4 Diskrete Verteilungen 4.1 Bernoulli-Verteilung Definition 4.1 Die Wahrscheinlichkeitsfunktion der Bernoulli-Verteilung ist gegeben durch È Üµ ½ für Ü ¼ für Ü ½ ¼ sonst Die Bernoulli-Verteilung

Mehr

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte

Matrizen. a12 a1. a11. a1n a 21. a 2 j. a 22. a 2n. A = (a i j ) (m, n) = i te Zeile. a i 1. a i 2. a i n. a i j. a m1 a m 2 a m j a m n] j te Spalte Mathematik I Matrizen In diesem Kapitel werden wir lernen was Matrizen sind und wie man mit Matrizen rechnet. Matrizen ermöglichen eine kompakte Darstellungsform vieler mathematischer Strukturen. Zum Darstellung

Mehr

a 21 a 22 a 21 a 22 = a 11a 22 a 21 a 12. Nun zur Denition und Berechnung von n n-determinanten: ( ) a 11 a 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33 A =

a 21 a 22 a 21 a 22 = a 11a 22 a 21 a 12. Nun zur Denition und Berechnung von n n-determinanten: ( ) a 11 a 12 a 13 a 21 a 22 a 23 a 31 a 32 a 33 A = 3 Determinanten Man bestimmt Determinanten nur von quadratischen Matrizen Wir werden die Berechnung von Determinanten rekursiv durchfuhren, dh wir denieren wie man eine 2 2-Determinante berechnet und fuhren

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion

Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion Kapitel 2 Erwartungswert 2.1 Erwartungswert einer Zufallsvariablen Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion È ist definiert als Ü ÜÈ Üµ Für spätere

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 18. April 2016 Übersicht über die Methoden Seien v 1,..., v r Vektoren in K n. 1. Um zu prüfen, ob die Vektoren v 1,...,

Mehr

10 Lineare Gleichungssysteme

10 Lineare Gleichungssysteme ChrNelius : Lineare Algebra I (WS 2004/05) 1 10 Lineare Gleichungssysteme (101) Bezeichnungen: Ein System a 11 x 1 + a 12 x 2 + + a 1n x n = b 1 ( ) a 21 x 1 + a 22 x 2 + + a 2n x n = b 2 a m1 x 1 + a

Mehr

Matrixzerlegungen. 6. Vorlesung Numerische Methoden I. Clemens Brand. 2. April Nachträge und Wiederholung. Links-Rechts- Zerlegung

Matrixzerlegungen. 6. Vorlesung Numerische Methoden I. Clemens Brand. 2. April Nachträge und Wiederholung. Links-Rechts- Zerlegung Matrixzerlegungen. 6. Vorlesung 170004 Numerische Methoden I Clemens Brand QR- QR- 2. April 2009 Gliederung Elimination faktorisiert A = L R QR- QR- QR- QR- Eine Zusammenfassung der Folien 6 14 der letzten

Mehr

Einführung in die Mathematik des Operations Research

Einführung in die Mathematik des Operations Research Universität zu Köln Mathematisches Institut Prof. Dr. F. Vallentin Einführung in die Mathematik des Operations Research Sommersemester 3 en zur Klausur (7. Oktober 3) Aufgabe ( + 3 + 5 = Punkte). Es sei

Mehr

a 1 a 1 A = a n . det = λ det a i

a 1 a 1 A = a n . det = λ det a i 49 Determinanten Für gegebene Vektoren a 1,,a n K n, betrachte die Matrix deren Zeilenvektoren a 1,,a n sind, also A = Ab sofort benutzen wir diese bequeme Schreibweise Definition Sei M : K n K }{{ n K

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Klausurenkurs zum Staatsexamen (WS 2016/17): Lineare Algebra und analytische Geometrie 4

Klausurenkurs zum Staatsexamen (WS 2016/17): Lineare Algebra und analytische Geometrie 4 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 26/7): Lineare Algebra und analytische Geometrie 4 4. (Frühjahr 27, Thema, Aufgabe ) Zeigen Sie, dass die beiden folgenden Unterräume des R 3 übereinstimmen:

Mehr

Lineares Gleichungssystem - Vertiefung

Lineares Gleichungssystem - Vertiefung Lineares Gleichungssystem - Vertiefung Die Lösung Linearer Gleichungssysteme ist das "Gauß'sche Eliminationsverfahren" gut geeignet - schon erklärt unter Z02. Alternativ kann mit einem Matrixformalismus

Mehr

Nützliches Hilfsmittel (um Schreiberei zu reduzieren): 'Erweiterte Matrix': Gauß- Verfahren

Nützliches Hilfsmittel (um Schreiberei zu reduzieren): 'Erweiterte Matrix': Gauß- Verfahren L5.4 Inverse einer Matrix Ausgangsfrage: Wie löst man ein lineares Gleichungsystem (LSG)? Betrachte n lineare Gleichungen für n Unbekannte: Ziel: durch geeignete Umformungen bringe man das LSG in folgende

Mehr

Pareto optimale lineare Klassifikation

Pareto optimale lineare Klassifikation Seminar aus Maschinellem Lernen Pareto optimale lineare Klassifikation Vesselina Poulkova Betreuer: Eneldo Loza Mencía Gliederung 1. Einleitung 2. Pareto optimale lineare Klassifizierer 3. Generelle Voraussetzung

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1 Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten

Mehr

Vektoren - Lineare Abhängigkeit

Vektoren - Lineare Abhängigkeit Vektoren - Lineare Abhängigkeit Linearkombination Eine Linearkombination ist ein Ausdruck r a + r a +... Dabei nennt man die (reellen) Zahlen r i auch Koeffizienten. Lineare Abhängigkeit Wenn ein Vektor

Mehr

Das Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation

Das Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation Das Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation Hochdimensionaler Eingaberaum {0,1} Z S quadratisch aufgemalt (zwecks besserer Visualisierung) als Retina bestehend

Mehr

Name: Matr.-Nr.: 2. Aufgabe 1. Gegeben sei das folgende lineare Gleichungssystem: b a 2 3a 1

Name: Matr.-Nr.: 2. Aufgabe 1. Gegeben sei das folgende lineare Gleichungssystem: b a 2 3a 1 Name: Matr.-Nr.: 2 Aufgabe 1. Gegeben sei das folgende lineare Gleichungssystem: 1 1 0 2 b 1 1 2 4 1 1 4 6 x = 1 1. 2 2 2a 2 3a 1 (a) Bringen Sie das lineare Gleichungssystem auf Treppenform. (b) Für welche

Mehr

14 Skalarprodukt Abstände und Winkel

14 Skalarprodukt Abstände und Winkel 4 Skalarprodukt Abstände und Winkel Um Abstände und Winkel zu definieren benötigen wir einen neuen Begriff. Zunächst untersuchen wir die Länge eines Vektors v. Wir schreiben dafür v und sprechen auch von

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

Numerik SS Musterlösung zu Hausaufgabenblatt 1

Numerik SS Musterlösung zu Hausaufgabenblatt 1 PROF DR BERND SIMEON CHRISTIAN GOBERT THOMAS MÄRZ Numerik SS 2009 Musterlösung zu Hausaufgabenblatt Aufgabe Links- und Rechtseigenpaare (20 P) Definition: Sei A C n n Ein Vektor 0 = x C n heißt (Rechts-)eigenvektor

Mehr