Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120

Größe: px
Ab Seite anzeigen:

Download "Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120"

Transkript

1 Radiale-Basisfunktionen-Netze Rudolf Kruse Neuronale Netze 2

2 Radiale-Basisfunktionen-Netze Eigenschaften von Radiale-Basisfunktionen-Netzen (RBF-Netzen) RBF-Netze sind streng geschichtete, vorwärtsbetriebene neuronale Netze mit genau einer versteckten Schicht. Als Netzeingabe- und Aktivierungsfunktion werden radiale Basisfunktionen verwendet. Jedes Neuron erhält eine Art Einzugsgebiet. Die Gewichte der Verbindungen von der Eingabeschicht zu einem Neuron geben das Zentrum an. Rudolf Kruse Neuronale Netze 2

3 Radiale-Basisfunktionen-Netze Ein radiale-basisfunktionen-netz (RBF-Netz) ist ein neuronales Netz mit einem Graph G = (U, C), das die folgenden Bedingungen erfüllt: (i)u in U out =, (ii)c = (U in U hidden ) C, C (U hidden U out ) Die Netzeingabefunktion jedes versteckten Neurons ist eine Abstandsfunktion zwischen dem Eingabevektor und dem Gewichtsvektor, d.h. u U hidden : f (u) net (w u, in u ) =d(w u, in u ), wobeid:ir n IR n IR + eine Funktion ist, die x,,z IRn : erfüllt: (i) d(x,) = x =, (ii) d(x,) =d(,x) (iii) d(x, z) d(x, ) + d(, z) (Smmetrie), (Dreiecksungleichung). Rudolf Kruse Neuronale Netze 22

4 Abstandsfunktionen Veranschaulichung von Abstandsfunktionen d k (x,) = Bekannte Spezialfälle dieser Familie sind: n (x i i ) k i= k = : Manhattan-Abstand, k = 2 : Euklidischer Abstand, k : Maximum-Abstand, d.h.d (x,) = max n i= x i i. k = k = 2 k k (alle Punkte auf dem Kreis bzw. den Vierecken haben denselben Abstand zum Mittelpunkt, entsprechend der jeweiligen Abstandsfunktion) Rudolf Kruse Neuronale Netze 23

5 Radiale-Basisfunktionen-Netze Die Netzeingabefunktion der Ausgabeneuronen ist die gewichtete Summe ihrer Eingaben, d.h. u U out : f (u) net (w u, in u ) =w u in u = v pred (u) w uv out v. Die Aktivierungsfunktion jedes versteckten Neurons ist eine sogenannte radiale Funktion, d.h. eine monoton fallende Funktion f : IR + [, ] with f() = and lim f(x) =. x Die Aktivierungsfunktion jedes Ausgabeneurons ist eine lineare Funktion f (u) act (net u,θ u ) = net u θ u. (Die lineare Aktivierungsfunktion ist wichtig für die Initialisierung.) Rudolf Kruse Neuronale Netze 24

6 Radiale Aktivierungsfunktionen Rechteckfunktion: f act (net,) =, falls net>,, sonst. Dreiecksfunktion: f act (net,) =, falls net>, net, sonst. net net Kosinus bis Null: f act (net,) =, falls net>2, cos( π 2 net )+ 2, sonst. Gaußsche Funktion: f act (net,) =e net e 2 2 net e 2 2 net Rudolf Kruse Neuronale Netze 25

7 Radiale-Basisfunktionen-Netze: Beispiele Radiale-Basisfunktionen-Netz für die Konjunktionx x 2 x x 2 2 x 2 x (,) ist Zentrum Referenzradius ist 2 Euklidischer Abstand Rechteckfunktion als Aktivierung Biaswert im Ausgabeneuron Rudolf Kruse Neuronale Netze 26

8 Radiale-Basisfunktionen-Netze: Beispiele Radiale-Basisfunktionen-Netz für die Konjunktionx x 2 x x x 2 x (,) ist Zentrum Referenzradius ist 6 5 Euklidischer Abstand Rechteckfunktion als Aktivierung Biaswert im Ausgabeneuron Rudolf Kruse Neuronale Netze 27

9 Radiale-Basisfunktionen-Netze: Beispiele Radiale-Basisfunktionen-Netz für die Biimplikationx x 2 Idee: logische Zerlegung x x 2 (x x 2 ) (x x 2 ) x x x 2 x Rudolf Kruse Neuronale Netze 28

10 Radiale-Basisfunktionen-Netze: Funktionsapproximation x x x x 2 x 3 x 4 x x 2 x 3 x Annäherung der Originalfunktion durch Stufenfunktionen, deren Stufen durch einzelne Neuronen eines RBF-Netzes dargestellt werden können (vgl. MLPs). Rudolf Kruse Neuronale Netze 29

11 Radiale-Basisfunktionen-Netze: Funktionsapproximation.. x. x 2 2 x x 3 3 x 4.. Rudolf Kruse Neuronale Netze 3 4. = 2 x = 2 (x i+ x i ) Ein RBF-Netz, das die Treppenfunktion von der vorherigen Folie bzw. die stückweise lineare Funktion der folgenden Folie berechnet (dazu muss nur die Aktivierungsfunktion der versteckten Neuronen geändert werden).

12 Radiale-Basisfunktionen-Netze: Funktionsapproximation x x x x 2 x 3 x 4 x x 2 x 3 x 4 4 Darstellung einer stückweise linearen Funktion durch eine gewichtete Summe von Dreiecksfunktionen mit Zentrenx i. 3 2 Rudolf Kruse Neuronale Netze 3

13 Radiale-Basisfunktionen-Netze: Funktionsapproximation x x Annäherung einer Funktion durch eine Summe von Gaußkurven mit Radius =. Es istw = 2,w 2 = 3 undw 3 = 2. w w 2 w 3 Rudolf Kruse Neuronale Netze 32

14 Radiale-Basisfunktionen-Netze: Funktionsapproximation RBF-Netz für eine Summe dreier Gaußfunktionen 2 x Rudolf Kruse Neuronale Netze 33

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134 Training von RBF-Netzen Rudolf Kruse Neuronale Netze 34 Radiale-Basisfunktionen-Netze: Initialisierung SeiL fixed ={l,...,l m } eine feste Lernaufgabe, bestehend ausmtrainingsbeispielenl=ı l,o l. Einfaches

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten (engl. Self-Organizing Maps (SOMs)) Rudolf Kruse Neuronale Netze 169 Selbstorganisierende Karten Eine selbstorganisierende Karte oder Kohonen-Merkmalskarte ist ein neuronales

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches

Mehr

Hopfield-Netze. Rudolf Kruse Neuronale Netze 192

Hopfield-Netze. Rudolf Kruse Neuronale Netze 192 Hopfield-Netze Rudolf Kruse Neuronale Netze 192 Hopfield-Netze Ein Hopfield-Netz ist ein neuronales Netz mit einem Graphen G = (U, C), das die folgenden Bedingungen erfüllt: (i)u hidden =,U in =U out =U,

Mehr

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40 Allgemeine (Künstliche) Neuronale Netze Rudolf Kruse Neuronale Netze 40 Allgemeine Neuronale Netze Graphentheoretische Grundlagen Ein (gerichteter) Graph ist ein Tupel G = (V, E), bestehend aus einer (endlichen)

Mehr

Thema 3: Radiale Basisfunktionen und RBF- Netze

Thema 3: Radiale Basisfunktionen und RBF- Netze Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung

Mehr

Aufbau und Beschreibung Neuronaler Netzwerke

Aufbau und Beschreibung Neuronaler Netzwerke Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem

Mehr

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1 Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?

Mehr

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise

Mehr

Praktische Optimierung

Praktische Optimierung Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Rekurrente Neuronale Netze. Rudolf Kruse Neuronale Netze 227

Rekurrente Neuronale Netze. Rudolf Kruse Neuronale Netze 227 Rekurrente Neuronale Netze Rudolf Kruse Neuronale Netze 227 Rekurrente Netze: Abkühlungsgesetz Ein Körper der Temperaturϑ wird in eine Umgebung der Temperaturϑ A eingebracht. Die Abkühlung/Aufheizung des

Mehr

11. Neuronale Netze 1

11. Neuronale Netze 1 11. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form

Mehr

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische

Mehr

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen 6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1

Mehr

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14. Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen

Mehr

Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung

Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung Skript zum Vortrag im Proseminar Analysis bei Dr. Gerhard Mülich Christian Maaß 6.Mai 8 Im letzten Vortrag haben wir gesehen, dass das

Mehr

Lineare Algebra I Vorlesung - Prof. Dr. Daniel Roggenkamp & Falko Gauß

Lineare Algebra I Vorlesung - Prof. Dr. Daniel Roggenkamp & Falko Gauß Lineare Algebra I - 26. Vorlesung - Prof. Dr. Daniel Roggenkamp & Falko Gauß Donnerstag 8.12.: 8:30 Uhr - Vorlesung 10:15 Uhr - große Übung / Fragestunde Klausur: Mittwoch, 14.12. 14:15 Uhr, A3 001 Cauchy-Schwarz

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J}

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J} 9 Der Satz über implizite Funktionen 41 9 Der Satz über implizite Funktionen Wir haben bisher Funktionen g( von einer reellen Variablen immer durch Formelausdrücke g( dargestellt Der Zusammenhang zwischen

Mehr

5. Lernregeln für neuronale Netze

5. Lernregeln für neuronale Netze 5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Differential- und Integralrechnung

Differential- und Integralrechnung Brückenkurs Mathematik TU Dresden 2016 Differential- und Integralrechnung Schwerpunkte: Differentiation Integration Eigenschaften und Anwendungen Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen

Mehr

Grundlagen neuronaler Netzwerke

Grundlagen neuronaler Netzwerke AUFBAU DES NEURONALEN NETZWERKS Enrico Biermann enrico@cs.tu-berlin.de) WS 00/03 Timo Glaser timog@cs.tu-berlin.de) 0.. 003 Marco Kunze makunze@cs.tu-berlin.de) Sebastian Nowozin nowozin@cs.tu-berlin.de)

Mehr

Mathematik II für Inf und WInf

Mathematik II für Inf und WInf Gruppenübung Mathematik II für Inf und WInf 8. Übung Lösungsvorschlag G 28 (Partiell aber nicht total differenzierbar) Gegeben sei die Funktion f : R 2 R mit f(x, ) := x. Zeige: f ist stetig und partiell

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

Kohonennetze Selbstorganisierende Karten

Kohonennetze Selbstorganisierende Karten Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

Lösungsvorschlag Theoretische Physik A Neuntes Übungsblatt

Lösungsvorschlag Theoretische Physik A Neuntes Übungsblatt Lösungsvorschlag Theoretische Physik A Neuntes Übungsblatt Aufgabe 3 Prof. Dr. Schön und Dr. Eschrig Wintersemester 004/005 Durch Trennung der Veränderlichen und anschließende Integration ergibt sich aus

Mehr

Implementationsaspekte

Implementationsaspekte Implementationsaspekte Überlegungen zur Programmierung Neuronaler Netzwerke Implementationsprinzipien Trennung der Aspekte: Datenhaltung numerische Eigenschaften der Objekte Funktionalität Methoden der

Mehr

a) Im Berührungspunkt müssen die y-werte und die Steigungen übereinstimmen:

a) Im Berührungspunkt müssen die y-werte und die Steigungen übereinstimmen: . ANALYSIS Gegeben ist die kubische Parabel f: y = x 3 6x + 8x + a) Die Gerade g: y = k x + berührt die Parabel an der Stelle x = x 0 > 0. Bestimmen Sie den Parameter k. b) Berechnen Sie den Inhalt der

Mehr

Vorbereitungsaufgaben zur Klausur Mathematik I für Studierende des Studienganges Elektrotechnik und Informationssystemtechnik

Vorbereitungsaufgaben zur Klausur Mathematik I für Studierende des Studienganges Elektrotechnik und Informationssystemtechnik Vorbereitungsaufgaben zur Klausur Mathematik I für Studierende des Studienganges Elektrotechnik und Informationssystemtechnik (Aufgaben aus Klausuren). Bestimmen und skizzieren Sie in der Gaußschen Zahlenebene

Mehr

Bayern Musterlösung zu Klausur Analysis, Aufgabengruppe I

Bayern Musterlösung zu Klausur Analysis, Aufgabengruppe I Diese Lösung wurde erstellt von Tanja Reimbold. Sie ist keine offizielle Lösung des Bayerischen Staatsministeriums für Unterricht und Kultus. Teil 1 Aufgabe 1 Definitionsbereich: Bestimmung der Nullstelle

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

Angewandte Mathematik und Programmierung

Angewandte Mathematik und Programmierung Angewandte Mathematik und Programmierung Einführung in das Konzept der objektorientierten Anwendungen zu mathematischen Rechnens SS2013 Inhalt Fourier Reihen Sehen wir in 2 Wochen Lösung der lin. Dgln.

Mehr

RL und Funktionsapproximation

RL und Funktionsapproximation RL und Funktionsapproximation Bisher sind haben wir die Funktionen V oder Q als Tabellen gespeichert. Im Allgemeinen sind die Zustandsräume und die Zahl der möglichen Aktionen sehr groß. Deshalb besteht

Mehr

Computational Intelligence I Künstliche Neuronale Netze

Computational Intelligence I Künstliche Neuronale Netze Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 5. Juni 2016 Definition 5.21 Ist a R, a > 0 und a 1, so bezeichnet man die Umkehrfunktion der Exponentialfunktion x a x als

Mehr

Funktionen lassen sich durch verschiedene Eigenschaften charakterisieren. Man nennt die Untersuchung von Funktionen auch Kurvendiskussion.

Funktionen lassen sich durch verschiedene Eigenschaften charakterisieren. Man nennt die Untersuchung von Funktionen auch Kurvendiskussion. Tutorium Mathe 1 MT I Funktionen: Funktionen lassen sich durch verschiedene Eigenschaften charakterisieren Man nennt die Untersuchung von Funktionen auch Kurvendiskussion 1 Definitionsbereich/Wertebereich

Mehr

Klassifikation linear separierbarer Probleme

Klassifikation linear separierbarer Probleme Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear

Mehr

Lösungen der Aufgaben zu Kapitel 9

Lösungen der Aufgaben zu Kapitel 9 Lösungen der Aufgaben zu Kapitel 9 Abschnitt 9. Aufgabe a) Wir bestimmen die ersten Ableitungen von f, die uns dann das Aussehen der k-ten Ableitung erkennen lassen: fx) = x + e x xe x, f x) = e x e x

Mehr

Satz von Stokes. Für ein stetig differenzierbares Vektorfeld F auf einer regulären Fläche S mit orientiertem Rand C gilt. Satz von Stokes 1-1

Satz von Stokes. Für ein stetig differenzierbares Vektorfeld F auf einer regulären Fläche S mit orientiertem Rand C gilt. Satz von Stokes 1-1 Satz von Stokes Für ein stetig differenzierbares Vektorfeld F auf einer regulären Fläche S mit orientiertem Rand C gilt rot F ds = F d r. S C Satz von Stokes 1-1 Satz von Stokes Für ein stetig differenzierbares

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten Yacin Bessas yb1@informatik.uni-ulm.de Proseminar Neuronale Netze 1 Einleitung 1.1 Kurzüberblick Die Selbstorganisierenden Karten, auch Self-Organizing (Feature) Maps, Kohonen-

Mehr

Volumen eines Rotationskörpers

Volumen eines Rotationskörpers Volumen eines Rotationskörpers Das Volumen V des durch Rotation des Funktionsgraphen r = f (x) 0, a x b, um die x-achse erzeugten Körpers lässt sich durch Integration über die kreisförmigen Querschnitte

Mehr

Funktionen mehrerer Variabler

Funktionen mehrerer Variabler Funktionen mehrerer Variabler Fakultät Grundlagen Juli 2015 Fakultät Grundlagen Funktionen mehrerer Variabler Übersicht Funktionsbegriff 1 Funktionsbegriff Beispiele Darstellung Schnitte 2 Partielle Ableitungen

Mehr

Einführung in Neuronale Netze

Einführung in Neuronale Netze Einführung in Neuronale Netze Thomas Ruland Contents 1 Das menschliche Gehirn - Höchstleistungen im täglichen Leben 2 2 Die Hardware 2 2.1 Das Neuron 2 2.2 Nachahmung in der Computertechnik: Das künstliche

Mehr

Einführung in neuronale Netze

Einführung in neuronale Netze Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze

Mehr

Übungsblatt 3 - Lösungen

Übungsblatt 3 - Lösungen Übungsblatt 3 - Lösungen zur Vorlesung EP2 (Prof. Grüner) im 2010 3. Juni 2011 Aufgabe 1: Plattenkondensator Ein Kondensator besteht aus parallelen Platten mit einer quadratischen Grundäche von 20cm Kantenlänge.

Mehr

Serie 3. z = f(x, y) = 9 (x 2) 2 (y 3) 2 z 2 = 9 (x 2) 2 (y 3) 2, z 0 9 = (x 2) 2 + (y 3) 2 + z 2, z 0.

Serie 3. z = f(x, y) = 9 (x 2) 2 (y 3) 2 z 2 = 9 (x 2) 2 (y 3) 2, z 0 9 = (x 2) 2 + (y 3) 2 + z 2, z 0. Analysis D-BAUG Dr Cornelia Busch FS 2016 Serie 3 1 a) Zeigen Sie, dass der Graph von f(x, y) = 9 (x 2) 2 (y 3) 2 eine Halbkugel beschreibt und bestimmen Sie ihren Radius und ihr Zentrum z = f(x, y) =

Mehr

Analysis II. 8. Klausur mit Lösungen

Analysis II. 8. Klausur mit Lösungen Fachbereich Mathematik/Informatik Prof. Dr. H. Brenner Analysis II 8. Klausur mit en 1 2 Aufgabe 1. Definiere die folgenden kursiv gedruckten) Begriffe. 1) Eine Metrik auf einer Menge M. 2) Die Kurvenlänge

Mehr

Optimales Routing. Paul Kunze

Optimales Routing. Paul Kunze Optimales Routing Paul Kunze 10.07.2015 Grundlagen Grundlagen endliche Menge an Punkten Φ = {x i } aus R 2 hier: gebildet durch Poisson-Punktprozess A = A D : Route zum Ziel D Φ. Abbildung auf einem Graphen

Mehr

Die Topologie von R, C und R n

Die Topologie von R, C und R n Die Topologie von R, C und R n Für R haben wir bereits eine Reihe von Strukturen kennengelernt: eine algebraische Struktur (Körper), eine Ordnungsstruktur und eine metrische Struktur (Absolutbetrag, Abstand).

Mehr

Viele Statistiken werden durch endliche Folgen beschrieben. (z.b. Anzahl der Studierenden an der TU München in den Jahren 1962 bis 1976)

Viele Statistiken werden durch endliche Folgen beschrieben. (z.b. Anzahl der Studierenden an der TU München in den Jahren 1962 bis 1976) Kapitel 9 Folgen und Reihen 9.1 Folgen 9.1.1 Was ist eine Folge? Abbildungen, die auf N definiert sind (mit Werten z.b. in R), heißen (unendliche) Folgen. Abb., die auf einer endlichen Menge aufeinander

Mehr

Modulprüfung Numerische Mathematik 1

Modulprüfung Numerische Mathematik 1 Prof. Dr. Klaus Höllig 18. März 2011 Modulprüfung Numerische Mathematik 1 Lösungen Aufgabe 1 Geben Sie (ohne Beweis an, welche der folgenden Aussagen richtig und welche falsch sind. 1. Die Trapezregel

Mehr

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) 29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein

Mehr

Analysis1-Klausuren in den ET-Studiengängen (Ba) ab 2007

Analysis1-Klausuren in den ET-Studiengängen (Ba) ab 2007 Analysis-Klausuren in den ET-Studiengängen (Ba) ab 7 Im Folgenden finden Sie die Aufgabenstellungen der bisherigen Klausuren Analysis im Bachelorstudium der ET-Studiengänge sowie knapp gehaltene Ergebnisangaben.

Mehr

Mathematik 1 für Wirtschaftsinformatik

Mathematik 1 für Wirtschaftsinformatik Mathematik 1 für Wirtschaftsinformatik Wintersemester 2012/13 Hochschule Augsburg elementarer Funktionen Gegeben: f : D R, mit D R und a > 0, b R. Dann gilt: f(x) f (x) 1 ln x x 1 log a x x ln a e x e

Mehr

7. Übungsblatt zur Mathematik II für Inf, WInf

7. Übungsblatt zur Mathematik II für Inf, WInf Fachbereich Mathematik Prof. Dr. Streicher Dr. Sergiy Nesenenko Pavol Safarik SS 2010 27.-31.05.10 7. Übungsblatt zur Mathematik II für Inf, WInf Gruppenübung Aufgabe G24 (Grundlegende Definitionen) Betrachten

Mehr

(u, v) z(u, v) u Φ(u, v) (v = const.) Parameterlinie v = const. v Φ(u, v) (u = const.) Parameterlinie u = const.

(u, v) z(u, v) u Φ(u, v) (v = const.) Parameterlinie v = const. v Φ(u, v) (u = const.) Parameterlinie u = const. 13 Flächenintegrale 64 13 Flächenintegrale Im letzten Abschnitt haben wir Integrale über Kurven betrachtet. Wir wollen uns nun mit Integralen über Flächen beschäftigen. Wir haben bisher zwei verschiedene

Mehr

Cauchy-Folgen und Kompaktheit. 1 Cauchy-Folgen und Beschränktheit

Cauchy-Folgen und Kompaktheit. 1 Cauchy-Folgen und Beschränktheit Vortrag zum Seminar zur Analysis, 10.05.2010 Michael Engeländer, Jonathan Fell Dieser Vortrag stellt als erstes einige Sätze zu Cauchy-Folgen auf allgemeinen metrischen Räumen vor. Speziell wird auch das

Mehr

Polynomiale Approximation. und. Taylor-Reihen

Polynomiale Approximation. und. Taylor-Reihen Polynomiale Approximation und Taylor-Reihen Heute gehts um die Approximation von glatten (d.h. beliebig oft differenzierbaren) Funktionen f nicht nur durch Gerade (sprich Polynome vom Grade 1) und Polynome

Mehr

Dynamische Systeme und Zeitreihenanalyse // Komplexe Zahlen 3 p.2/29

Dynamische Systeme und Zeitreihenanalyse // Komplexe Zahlen 3 p.2/29 Dynamische Systeme und Zeitreihenanalyse Komplexe Zahlen Kapitel 3 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Komplexe Zahlen 3 p.0/29 Motivation Für die

Mehr

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger Proseminar Machine Learning Neuronale Netze: mehrschichtige Perzeptrone Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger 27.Mai 2006 Inhaltsverzeichnis 1 Biologische Motivation 2 2 Neuronale

Mehr

1 Metrische Räume. In diesem Abschnitt wollen wir den Begriff des metrischen Raumes einführen und an einigen Beispielen illustrieren.

1 Metrische Räume. In diesem Abschnitt wollen wir den Begriff des metrischen Raumes einführen und an einigen Beispielen illustrieren. 1 Metrische Räume 1 Metrische Räume In diesem Abschnitt wollen wir den Begriff des metrischen Raumes einführen und an einigen Beispielen illustrieren. Definition und Beispiele (1.1) Definition (Metrischer

Mehr

φ(ζ, η) = (ζ η, η) = (x, y), bijektiv und stetig differenzierbar ist. Die Jacobi-Matrix von φ lautet: f(ζ) det(dφ(ζ, η)) dζ dη f(ζ) dζ dη.

φ(ζ, η) = (ζ η, η) = (x, y), bijektiv und stetig differenzierbar ist. Die Jacobi-Matrix von φ lautet: f(ζ) det(dφ(ζ, η)) dζ dη f(ζ) dζ dη. Übungen (Aufg und Lösungen zu Mathem u Lin Alg II SS 6 Blatt 9 66 Aufgabe 43: Sei f : R R eine stetige Funktion Formen Sie das Integral f(x + y dx dy in ein einfaches Integral um Lösung: Führe neue Koordinaten

Mehr

Konzepte der AI Neuronale Netze

Konzepte der AI Neuronale Netze Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Der n-dimensionale Raum

Der n-dimensionale Raum Der n-dimensionale Raum Mittels R kann nur eine Größe beschrieben werden. Um den Ort eines Teilchens im Raum festzulegen, werden schon drei Größen benötigt. Interessiert man sich für den Bewegungszustand

Mehr

Prüfungsklausur Mathematik II für Wirtschaftsingenieure,

Prüfungsklausur Mathematik II für Wirtschaftsingenieure, HTWD, Fakultät Informatik/Mathematik Prof. Dr. M. Voigt Prüfungsklausur Mathematik II für Wirtschaftsingenieure, 15.7.2014 A Name, Vorname Matr. Nr. Sem. gr. Aufgabe 1 2 3 4 5 6 gesamt erreichbare P. 10

Mehr

6 Weiterer Ausbau der Differentialrechnung

6 Weiterer Ausbau der Differentialrechnung 6 Weiterer Ausbau der Differentialrechnung 6.1 Mittelwertsätze, Extremwerte, Satz von Taylor Motivation: Wie wählt man Höhe und Durchmesser einer Konservendose, so dass bei festem Volumen V möglichst wenig

Mehr

Mathematik für Studierende der Erdwissenschaften Lösungen der Beispiele des 1. Übungsblatts

Mathematik für Studierende der Erdwissenschaften Lösungen der Beispiele des 1. Übungsblatts Mathematik für Studierende der Erdwissenschaften Lösungen der Beispiele des 1. Übungsblatts 1. Wolfram Alpha: (a) Der Befehl Plot[{x^3-x,2/(3 Sqrt[3]),-2/(3 Sqrt[3]),-x,2(x+1),2(x-1)},{x,-1,1}] stellt

Mehr

Seite 1. sin 2 x dx. b) Berechnen Sie das Integral. e (t s)2 ds. (Nur Leibniz-Formel) c) Differenzieren Sie die Funktion f(t) = t. d dx ln(x + x3 ) dx

Seite 1. sin 2 x dx. b) Berechnen Sie das Integral. e (t s)2 ds. (Nur Leibniz-Formel) c) Differenzieren Sie die Funktion f(t) = t. d dx ln(x + x3 ) dx Seite Aufgabe : a Berechnen Sie das Integral b Berechnen Sie das Integral +x x+x dx. π sin x dx. c Differenzieren Sie die Funktion ft = t e t s ds. Nur Leibniz-Formel a + x x + x dx = d dx lnx + x dx =

Mehr

Linien- oder Kurvenintegrale: Aufgaben

Linien- oder Kurvenintegrale: Aufgaben Linien- oder Kurvenintegrale: Aufgaben 4-E Das ebene Linienintegral Im Fall eines ebenen Linienintegrals liegt der Integrationsweg C häufig in Form einer expliziten Funktionsgleichung y = f (x) vor. Das

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 4

Technische Universität München Zentrum Mathematik. Übungsblatt 4 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 4 Hausaufgaben Aufgabe 4. Gegeben sei die Funktion f : D R mit f(x) :=

Mehr

Spickzettel Mathe C1

Spickzettel Mathe C1 Spickzettel Mathe C1 1 Mengenlehre 1.1 Potenzmenge Die Potenzmenge P (Ω) einer Menge Ω ist die Menge aller Teilmengen von Ω. Dabei gilt: P (Ω) := {A A Ω} card P (Ω) = 2 card Ω P (Ω) 1.2 Mengenalgebra Eine

Mehr

KNN für XOR-Funktion. 6. April 2009

KNN für XOR-Funktion. 6. April 2009 KNN für XOR-Funktion G.Döben-Henisch Fachbereich Informatik und Ingenieurswissenschaften FH Frankfurt am Main University of Applied Sciences D-60318 Frankfurt am Main Germany Email: doeben at fb2.fh-frankfurt.de

Mehr

12 Integralrechnung, Schwerpunkt

12 Integralrechnung, Schwerpunkt Dr. Dirk Windelberg Leibniz Universität Hannover Mathematik für Ingenieure Mathematik http://www.windelberg.de/agq Integralrechnung, Schwerpunkt Schwerpunkt Es sei ϱ die Dichte innerhalb der zu untersuchenden

Mehr

1.2 Einfache Eigenschaften von Funktionen

1.2 Einfache Eigenschaften von Funktionen 1.2 Einfache Eigenschaften von Funktionen 1.2.1 Nullstellen Seien A und B Teilmengen von R und f : A B f : Df Wf eine Funktion. Eine Nullstelle der Funktion f ist ein 2 D f, für das f ( = 0 ist. (Eine

Mehr

Integration über allgemeine Integrationsbereiche.

Integration über allgemeine Integrationsbereiche. Integration über allgemeine Integrationsbereiche. efinition: Sei R n eine kompakte und messbare Menge. Man nennt Z = { 1,..., m } eine allgemeine Zerlegung von, falls die Mengen k kompakt, messbar und

Mehr

Lösungsvorschläge für das 5. Übungsblatt

Lösungsvorschläge für das 5. Übungsblatt Lösungsvorschläge für das 5. Übungsblatt Aufgabe 6 a) Sei = [0, ], f(x) := [e x ] für x. Hierbei ist [y] := maxk Z k y} für y. Behauptung: f ist messbar und es ist f(x) dx = 2 log 2. falls x [0, log 2),

Mehr

1.3. Beträge, Gleichungen und Ungleichungen

1.3. Beträge, Gleichungen und Ungleichungen 1.3. Beträge, Gleichungen und Ungleichungen Das Maximum zweier Zahlen a, b wird mit max(a,b) bezeichnet, ihr Minimum mit min(a,b). Der Absolutbetrag einer reellen Zahl a ist a = max ( a, a ) oder auch

Mehr

42 Orthogonalität Motivation Definition: Orthogonalität Beispiel

42 Orthogonalität Motivation Definition: Orthogonalität Beispiel 4 Orthogonalität 4. Motivation Im euklidischen Raum ist das euklidische Produkt zweier Vektoren u, v IR n gleich, wenn die Vektoren orthogonal zueinander sind. Für beliebige Vektoren lässt sich sogar der

Mehr

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell Fachbereich Design Informatik Medien Studiengang Master Informatik Künstliche neuronale Netze Das Perzeptron Sebastian Otte Dezember 2009 1 Grundlegendes Als Perzeptron bezeichnet man eine Form von künstlichen

Mehr

MATHEMATIK I für Bauingenieure (Fernstudium)

MATHEMATIK I für Bauingenieure (Fernstudium) TU DRESDEN Dresden, 2. Februar 2004 Fachrichtung Mathematik / Institut für Analysis Doz.Dr.rer.nat.habil. N. Koksch Prüfungs-Klausur MATHEMATIK I für Bauingenieure (Fernstudium) Name: Vorname: Matrikel-Nr.:

Mehr

Simulation neuronaler Netzwerke mit TIKAPP

Simulation neuronaler Netzwerke mit TIKAPP Überblick Michael Hanke Sebastian Krüger Institut für Psychologie Martin-Luther-Universität Halle-Wittenberg Forschungskolloquium, SS 2004 Überblick Fragen 1 Was sind neuronale Netze? 2 Was ist TIKAPP?

Mehr

Technische Universität Berlin Fakultät II Institut für Mathematik SS 13 G. Bärwolff, C. Mehl, G. Penn-Karras

Technische Universität Berlin Fakultät II Institut für Mathematik SS 13 G. Bärwolff, C. Mehl, G. Penn-Karras Technische Universität Berlin Fakultät II Institut für Mathematik SS 3 G. Bärwolff, C. Mehl, G. Penn-Karras 9..3 Oktober Klausur Analysis II für Ingenieure Rechenteil. Aufgabe Punkte i) Wir berechnen zunächst

Mehr

16. Differentialquotient, Mittelwertsatz

16. Differentialquotient, Mittelwertsatz 16. Differentialquotient, Mittelwertsatz Gegeben sei eine stetige Funktion f : R R. Wir suchen die Gleichung der Tangente t an die Kurve y = f(x) im Punkt (x, f(x ), x R. Das Problem dabei ist, dass vorderhand

Mehr

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist: Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,

Mehr

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze. Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).

Mehr

MAA = MAB + B AA = B CA + CAA BA A Nun sehen wir mit Proposition 10.7 aus dem Skript, dass A M AB gelten muss.

MAA = MAB + B AA = B CA + CAA BA A Nun sehen wir mit Proposition 10.7 aus dem Skript, dass A M AB gelten muss. 1. Konvexität in der absoluten Ebene In einem Dreieck in der Euklidischen Ebene hat die Strecke zwischen zwei Seitenmittelpunkten die halbe Länge der dritten Seite. In der absoluten Ebene hat man eine

Mehr

cos(kx) sin(nx)dx =?

cos(kx) sin(nx)dx =? 3.5 Fourierreihen 3.5.1 Vorbemerkungen cos(kx) sin(nx)dx =? cos gerade Funktion x cos(kx) gerade Funktion sin ungerade Funktion x sin(nx) ungerade Funktion x cos(kx) sin(nx) ungerade Funktion Weil [, π]

Mehr

von Michael Knorrenschild Fachbuchverlag Leipzig im Carl Hanser Verlag 2009, ISBN

von Michael Knorrenschild Fachbuchverlag Leipzig im Carl Hanser Verlag 2009, ISBN Errata zu Mathematik für Ingenieure 1 von Michael Knorrenschild Fachbuchverlag Leipzig im Carl Hanser Verlag 2009, ISBN 978-3-446-41346-7 Die Änderungen sind blau hervorgehoben. Dank an Prof. Dr. Klaus-Werner

Mehr