% ' ' & w 1. x 1 M $ # w = x n. w n.,l,x n. x T = (x 1. x i. w i. Treppenfunktion H (Heavisidefunktion) als Aktivierungsfunktion

Größe: px
Ab Seite anzeigen:

Download "% ' ' & w 1. x 1 M $ # w = x n. w n.,l,x n. x T = (x 1. x i. w i. Treppenfunktion H (Heavisidefunktion) als Aktivierungsfunktion"

Transkript

1 Perzeptron (mit Gewichten w 1,..., w n und Schwellwert θ, an dessen Eingänge Werte x 1,...,x n angelegt worden sind) x 1 w 1 θ x n w n Eingabewerte x 1,...,x n (reelle Zahlen, oft zwischen 0 und 1, manchmal binär 0 oder 1) Gewichte w 1,...,w n (reelle Zahlen) Schwellwert θ (reelle Zahl) Eingabevektor x und Gewichtevektor w (Spaltenvektoren) x = M x 1 x n % ' ' & w = M w 1 w n % ' ' & ransponierter Eingabevektor (Zeilenvektor) x = (x 1,L,x n ) Skalarprodukt zwischen x und w (mit zwei dafür gebräuchlichen Schreibweisen) x w = x,w = n i= x i w i Nettoinput net als Funktion von x, w, also genauer net(x,w): net = net(x,w) = x w = x,w = n i=1 x i w i reppenfunktion H (Heavisidefunktion) als Aktivierungsfunktion H(z) = 1 fallsz 0 % 0 fallsz < 0

2 liefert den Ausgabewert y in Abhängigkeit von x, w, und θ : y = y(x,w,) = H(net(x,w) ) Explizit also: % n 1 falls x i w i ' i=1 y = y(x,w,) = & n ' 0 falls x i w i < (' i=1 Die Festlegung H(0) = 1 ist recht willkürlich. Zusammenfassung: Ein Perzeptron liefert den Ausgabewert 1 (es feuert), falls die gewichtete Summe x w mindestens den Wert θ hat, ansonsten liefert es den Ausgabewert 0 (es geht oder bleibt in Ruhe). Wir können auf Schwellwerte θ verzichten (genauer gesagt, durch Schwellwert 0 ersetzen), indem wir die Dimension n um 1 erhöhen und Inputs und Gewichte wie folgt verändern: x 1 w 1 0 w n x n θ 1 Dies macht manche mathematische Formel etwas eleganter und bezieht auch Schwellwerte in den Vorgang der Adaption (via negatives Extragewicht) mit ein.

3 Eine Perzeptron-Lernaufgabe in der Dimension n besteht aus einer endlichen Menge P sog. positiver Vektoren der Dimension n (auch Punkte genannt) und einer zu P disjunkten endlichen Menge N sog. negativer Vektoren der Dimension n. Beispiel in der Dimension 2 (positive Punkte blau, negative Punkte rot): Beispiel in der Dimension 11: Welche der 11 Bauklötzchen aus der vorigen Vorlesungsstunde (siehe auch Skriptum Sperschneider) in einem Baukasten vorhanden sind, wird durch ein Bit 1 an der jeweiligen Vektorkomponente kodiert. Eine Lernaufgabe P, N in der Dimension n wird durch ein Perzeptron mit Gewichtevektor strikt gelöst, falls gilt: w = M w 1 w n % ' ' & x(x P x w > 0) x(x N x w < 0) Geometrische Veranschaulichung: Gewichtevektor w definiert, sofern es sich nicht um den Nullvektor handelt, im n-dimensionalen reellen Raum eine durch den Nullpunkt gehende Hyperebene

4 H(w) = { x R n x w = 0} Im 2-dimensionalen Fall ist H(w) eine Gerade, außer w ist der Nullvektor. Im 3- dimensionalen Fall ist H(w) eine Ebene, außer w ist der Nullvektor. Der durch w definierte positive Halbraum ist Der durch w definierte negative Halbraum ist H pos (w) = { x R n x w > 0}. H neg (w) = { x R n x w < 0}. Im Falle einer Lösung liegen die positiven Punkte im positiven Halbraum und die negativen Punkte im negativen Halbraum: P H pos (w) N H neg (w) Man sagt, auch, dass die Hyperebene P und N linear trennt. Das obige Beispiel in der Dimension 2 ist eine Lernaufgabe, die offensichtlich nicht strikt lösbar ist. rainieren eines Perzeptrons auf eine Lernaufgabe (Perzeptronalgorithmus) Gegeben sei eine Lernaufgabe P, N in der Dimension n. Wenn es in P einen Punkt x mit x w 0 gibt, so sollte man durch eine Adaption der Gewichte versuchen, das Skalarprodukt zu vergrößern. Ein einfacher Weg wäre, jede Komponente von w um den Wert 1 zu vergrößern (und dies ggfs. mehrmals zu wiederholen). Wenn es in N einen Punkt x mit x w 0 gibt, so sollte man durch eine Adaption der Gewichte versuchen, das Skalarprodukt zu vergrößern. Ein einfacher Weg wäre, jede Komponente von w um den Wert 1 zu verkleinern (und dies ggfs. mehrmals zu wiederholen). Der beschriebene simple Ansatz für eine Gewichteadaption ist leider wenig brauchbar, wie das folgende Beispiel zeigt:

5 ( P = 1 % + ) ', * 0& - ( N = 1 % + ) ', * 1& - Wir starten mit Gewichtevektor w(0) = 0.5 & % (. Wir berechnen und adptieren: 0.25' w(0) = 0.5 & % ( 0.25' 1 % ' w(0) = (0.5 < 0 0& w(1) = w(0) + 1% ' = 0.5 % ' 1& 0.75& 1% ' w(1) = 0.5 > 0 0& falsch Adaption richtig 1% ' w(1) =1.25 > 0 1& falsch w(2) = w(1) 1 & % ( = 0.5 & % ( 1' 0.25' Adaption 1% ' w(2) = (0.75 < 0 1& richtig Leider drehen wir uns im Kreise, da wir mit w(2) wieder w(0) hergestellt haben. Das undifferenzierte Vergrößern (Verkleinern) aller Gewichte ist ja auch nicht wirklich sinnvoll: Ist eine der Komponenten von x, beispielsweise x i, gleich 0, so bewirkt eine Veränderung von w i ja sowieso nichts. Wir sollten nur diejenigen w i um den Wert 1 vergrößern (vergrößern), für die x i = 1 gilt. In Vektorausdrucksweise heißt das: Für x P und x w 0, ersetze w durch w + x. Für x N und x w 0, ersetze w durch w x.

6 In dem obigen Beispiel würde nun das Folgende passieren: w(0) = 0.5 & % ( 0.25' 1 % ' w(0) = (0.5 < 0 0& w(1) = w(0) + 1% ' = 0.5 % ' 0& (0.25& 1 % ' w(1) = 0.25 > 0 0& falsch Adaption richtig 1 % ' w(1) = 0.25 > 0 1& falsch w(2) = w(1) 1 & % ( = 0.5 & % ( Adaption 1' 1.25' 1% ' w(2) = (1.75 < 0 1& 1% ' w(2) = (0.5 < 0 0& w(3) = w(2) + 1 % ' = 0.5 % ' 0& (1.25& 1% ' w(3) = 0.5 > 0 0& 1% ' w(3) = (0.75 < 0 1& richtig wieder falsch Adaption richtig immer noch richtig Nun sind wir fertig. Anregung: Der Leser möge einen entsprechenden Ablauf für den Startvektor w(0) = ( 0 0) durchrechnen und verifizieren, dass wiederum nach endlich vielen Schritten eine Lösung entsteht. Das ist kein Zufall gewesen. Zunächst formulieren wir den Perzeptronalgorithmus:

7 t = 0; w(t) wird beliebig initialisiert; WHILE w(t) ist noch keine Lösung für P, N DO waehle x in P mit x w 0 und setze w(t + 1) = w(t) + x oder waehle x in N mit x w 0 und setze w(t + 1) = w(t) x; t = t + 1; END Perzeptronkonvergenztheorem: Wenn P, N eine strikt lösbare Lernaufgabe ist, so endet der Perzeptonalgorithmus nach endlich vielen Schritten mit einem Gewichtevektor, der die Lernaufgabe strikt löst. Dies gilt für jeden beliebigen Startvektor w(0) und unabhängig davon, welcher Punkt nach t Schritten von w(t) zu w(t + 1) geführt hat. Beweis: Es sei w ein Gewichtevektor mit x(x P x w > 0) x(x N x w < 0). Einen solchen Vektor gibt es, wir möchten nun aber sogar einen solchen auch noch konkret durch den Perzeptronalgorithmus berechnen lassen. Wir benötigen im Beweis noch folgende positive reelle Zahl: = min x P U N x w Nun lassen wir den Perzeptronalgorithmus ablaufen. Für jeden in seinem Verlauf erzeugten Gewichtevektor w(t) rechnen wir durch vollständige Induktion nach der Schrittzahl t zwei Abschätzungen nach, nämlich: w w(t) w w(0) + t w(t) w(t) w(0) w(0) + tn Für t = 0 sind die Abschätzungen trivialer Weise korrekt. Seien sie schon für t verifiziert und es werde w(t + 1) gebildet.

8 Fall 1: w(t + 1) = w(t) + x mit x P und x w(t) 0. Dann folgt: w w(t +1) = w (w(t) + x) = w w(t) + w x w w(0) + t + w x (Induktionsvoraussetzung) w w(0) + t + (da x P) = w w(0) + (t +1) w(t +1) w(t +1) = (w(t) + x) (w(t) + x) = w(t) w(t) + 2w(t) x + x x w(0) w(0) + tn + 2w(t) x + x x (Induktionsvoraussetzung) w(0) w(0) + tn + x x (da w(t) x 0) w(0) w(0) + tn + n w(0) w(0) + (t +1)n Fall 2: w(t + 1) = w(t) - x mit x N und x w(t) 0. Dann folgt: w w(t +1) = w (w(t) x) = w w(t) w x w w(0) + t w x (Induktionsvoraussetzung) w w(0) + t + (da x % N) = w w(0) + (t +1) w(t +1) w(t +1) = (w(t) x) (w(t) x) = w(t) w(t) 2w(t) x + x x w(0) w(0) + tn 2w(t) x + x x (Induktionsvoraussetzung) w(0) w(0) + tn + x x (da w(t) x 0) w(0) w(0) + tn + n w(0) w(0) + (t +1)n

9 Nun benötigen wir die Cauchy-Schwarz sche Ungleichung (Beweis siehe Exkurs dazu), in der von der Norm von Vektoren die Rede ist: 2 Norm eines Vektors w = w w Cauchy-Schwarz sche Ungleichung x y x y n 2 = 2 w i i=1 Damit ergibt sich die folgende Ungleichunsgkette: w w(0) + t w w(t) w w(t) w w(t) w 2 w(0) 2 + tn Die linke Seite wächst linear mit t, die rechte Seite im Wesentlichen linear mit der Wurzel von t. Da ε positiv ist, gibt es ein letztes t, für das die Abschätzungskette noch gültig sein kann. Da kein w(t + 1) mehr erzeugt wird, heißt das, dass der Gewichtevektor w(t) die Lernaufgabe strikt gelöst haben muss. Frage: Wenn wir explizite Schwellwerte wieder reaktivieren würden, wie würde der Perzeptronalgorithmus dann in jedem Schritt den aktuellen Schwellwert updaten? Diverse Hintergrundinformationen zum Perzeptronlernen (ohne Beweise aus gutem Grund) 1.) Gegeben sei ein Perzeptron mit Gewichtevektor w und eine Lernaufgabe P, N. Wir definieren wir für jeden Vektor x in P oder N folgenden Fehlerterm δ(x): ( +1 falls x P x w % 0 * (x) = )&1 falls x N x w ' 0 * + 0 sonst Die anschauliche Beschreibung ist, dass δ(x) für jeden Vektor x mit x w 0 die Differenz zwischen dem gewünschten Klassifikationswert d(x) ( desired ) und dem vom Perzeptron abgelieferten Klassifikationswert y(x) angibt, wenn wir definieren:

10 d(x) = 1 x P % 0 x N y(x) = 1 x w > 0 % 0 x w < 0 &(x) = d(x) ' y(x) Nun kann man den Lernschritt des Perzeptronalgorithmus im t-ten Schritt bei ausgewähltem Vektor x auch so schreiben: w(t +1) = w(t) + (x) x w(t +1) w(t) = (x) x %w(t) = (x) x Die Formel würde auch für ein ausgewähltes, bereits korrekt behandeltes x Sinn machen: Hier wäre δ(x) = 0, es fände also keine Gewichteänderung statt. Komponentenweise geschrieben lautet die Lernregel: w i (t) = (x) x i Diese Form von Lernregel nennt man die δ-regel. Sie besagt, dass das Gewicht zwischen zwei Neuronen (hier Inputneuron und Ausgabeneuron) sich um das Produkt zwischen dem Aktivierungswert des präsynaptischen Neurons und dem Fehlerterm des postsynaptischen Neurons ändert: x i Δw ji = x i δ j δ j präsynaptisches Neuron postsynaptisches Neuron Insbesondere wird ein Gewicht nur verändert, wenn sein präsynaptisches Neuron aktiv war (Wert 1 hatte). Dies kennt man von natürlichen neuronalen Netzen, beispielsweise auch bei der berühmten Hebb schen Lernregel (siehe später). Der Fehlerterm des postsynaptischen Neurons gibt das Vorzeichen der Gewichteänderung an (und später auch noch die Größenordnung, die hier stets fest bei 1 lag). Ob auch diesem Verhalten ein kognitives Korrelat entspricht, weiß zumindest ich nicht.

11 2.) Wie lange braucht der Perzeptronalgorithmus im schlimmsten Fall (worst case), bis im Falle einer strikt lösbaren Lernaufgabe ein passender Gewichtevektor w(t) gefunden wird? Da die Wahl des Startvektors w(0) frei stand, nehmen wir den einfachstmöglichen, den Nullvektor. Rechnen wir das maximale t aus, zu dem die linear wachsende Komponente der obigen Ungleichung noch kleiner oder gleich der mit der Wurzel aus t wachsenden Komponente ist: 2 t = w tn t = w 2 n 2 Das nützt uns leider aber gar nichts, denn wir kannten ja weder w noch ε. Eine aufwändige mathematische Analyse würde zeigen, dass man t durch einen exponentiellen erm in n und den Komponenten der Vektoren der Lernaufgabe beschränken könnte. Im Falle binärer Eingabevektoren kann man die etwas einfachere Laufzeitabschätzung (n +1) 2 (n +1) n +1 beweisen. 3.) Immerhin können wir nach dieser exponentiellen Schrittzahl den Algorithmus beenden: Hat er bis dahin keinen strikt lösenden Gewichtevektor gefunden, so kommt auch später keiner mehr: Die Lernaufgabe ist nicht strikt lösbar. 4.) Praktische Erfahrungen zeigen dagegen, dass bei vielen lösbaren Lernaufgaben die Laufzeit des Perzeptronalgorithmus dramatisch kurz ist. Ein solches Beispiel ist die Baukastenaufgabe. 5.) Dennoch sind nicht alle lösbaren Lernaufgaben so harmlos. Mit einigem Aufwand kann ein Komplexitätstheoretiker folgendes beweisen: Es gibt eine fixe Konstante c > 0 und in jeder Dimension n eine strikt lösbare ( bösartige ) Lernaufgabe mit der Eigenschaft, dass jeder diese Lernaufgabe strikt lösende Gewichtevektor mindestens eine Komponente hat, deren Betrag mindestens c2 n groß ist. Starten wir den Perzeptronalgorithmus mit dem Nullvektor, so muss er mindestens c2 n Schritte machen, da in jedem Schritt jede Komponente des aktuellen Gewichtevektors maximal um den Wert 1 verändert wird. Wie eine solche bösartige Lernaufgabe aussieht, können Sie im Skriptum Sperschneider auf Seite 21 nachlesen.

12 6.) Könnte man die Unlösbarkeit einer Lernaufgabe vielleicht auch noch anders erkennen, als exponentiell viele Schritte zu machen. Ja, das sagt das folgende Perzeptronzyklustheorem: Ist eine Lernaufgabe nicht strikt lösbar, so erzeugt der Perzeptronalgorithms, mit dem Nullvektor startend, garantiert einen Gewichtevektor ein zweites Mal. Der Beweis zeigt, dass man die Norm der erzeugten Gewichtevektoren beschränkt bleibt. (Diese Aussage ist nicht etwa trivial, wie man auf den ersten Blick meinen könnte; der Grund ist, dass manche der rainingsvektoren durchaus mehrmals zum Gewichtevektor addiert oder von ihm subtrahiert werden können, wie eines der vorigen simplen Rechenbeispiele bereits zeigte.) Da somit die Menge aller möglichen erzeugbaren Gewichtevektoren eine endliche Menge ist, muss es zu der besagten Wiederholung kommen. Und hat man einmal eine solche entdeckt, weiß man um die Unlösbarkeit der Lernaufgabe. Somit muss man nur alle Gewichtevektoren abspeichern und immer mit dem aktuellen Gewichtevektor vergleichen. Das ist von der Laufzeit gesehen ebenfalls nicht unbedingt berauschend (und dazu noch extrem speicherplatzintensiv). 7.) Um nicht alle jemals erzeugten Gewichtevektoren abspeichern zu müssen, würde sich folgendes simple Vorgehen aufdrängen. Wir merken uns in der Westentasche stets den Gewichtevektor w pocket, der bislang die meisten rainingsvektoren korrekt klassifiziert hat. Stellen wir fest, dass der aktuelle Gewichtevektor w(t) mehr rainingsvektoren korrekt klassifiziert als der Westentaschenvektor, so wird w(t) zum neuen Westentaschenvektor. Nennen wir diesen Algorithmus den Pocket-Algorithmus. Ob man dabei jemals einen optimalen Westentaschenvektor erreicht, also einen, der die maximal mögliche Anzahl an korrekt klassifizierten rainingsvektoren aufweist, hängt von der Auswahl der im jeweiligen Schritt des Perzeptronalgorithmus zum Gewichteupdate verwendeten rainingsvektoren ab. Wir setzen voraus, dass die Lernaufgabe aus Vektoren mit ganzzahligen Einträgen besteht (diese technische Voraussetzung, die nicht besonders gravierend ist, wird im Beweis des folgenden heorems benötigt) und wählen in jedem Schritt unter den aktuell noch falsch klassifizierten rainingsvektoren irgendeinen zum Gewichteupdate nach Gleichverteilung aus. Nun kann man die folgende Aussage beweisen:

13 Pocket-Konvergenztheorem: Zu der gewünschten Konfidenz δ < 1 gibt es eine Schrittzahl (δ), sodass mit Wahrscheinlichkeit mindestens δ ( Wahrscheinlichkeit bezieht sich auf die Zufallsauswahl der verwendeten rainingsvektoren) nach (δ) vielen Schritten ein optimaler Westentaschenvektor erreicht ist. Je näher δ bei 1 liegt, umso größer wird (δ) sein. Über die Größenordnung von (δ) ist nichts ausgesagt. Das folgende heorem aber besagt, dass wir im worst case mit langen Laufzeiten rechnen müssen. 9.) Den Pocket-Algorithmus könnten wir vorzeitig abbrechen, wenn wir für eine Lernaufgabe die maximal mögliche Anzahl k korrekt klassifizierbarer rainingsvektoren bestimmen könnten. Haben wir diese Anzahl mit dem Westentaschenvektor einmal erreicht, so können wir stoppen. Leider aber gilt: heorem: Selbst für binäre Lernaufgaben (das sind solche, bei denen die Vektoren nur Komponenten 0 oder 1 haben) ist das Problem zu entscheiden, ob es zu einer Zahl k einen Gewichtevektor gibt, der mindestens k der rainingsvektoren korrekt klassifiziert, ein NPvollständiges Problem. Was dabei NP-vollständig heißt, lernen wir in einem mathematischen Exkurs demnächst kennen. Intuitiv bedeutet es, dass es eine sehr starke Evidenz gibt, dass es für das beschriebene Problem keinen Entscheidungsalgorithmus mit polynomieller Laufzeit gibt. Der Beweis ist nicht ganz trivial und wird deshalb übergangen. 10.) Ein ganz einfaches Lernproblem, welches nicht strikt lösbar ist, ist das XOR-Problem: ( P XOR = 1 % 0& ', 0 % + ) 1 ', * &- ( N XOR = 1 % 1& ', 0 % + ) 0 ', * &-

14 Es ist offensichtlich, dass eine lineare rennung nicht möglich ist. 11.) Bislang haben wir gelernt, dass der Perzeptron-Algorithmus in vielen natürlichen, lösbaren Anwendungsaufgaben gut funktioniert, ansonsten aber eher Anlass zu Sorge gibt. Erstaunlicherweise liegt dass nicht an der Problemstellung als solcher, denn von dieser weiß man seit längerem, dass sie durch einen Algorithmus mit polynomieller Zeit lösbar ist. Der erste solche Algorithmus war der von Khachyian, ein verbesserter kam von Karmarkar (1984). Unser Problem ist kein anderes als das berühmte Problem der linearen Programmierung. Die genannten Algorithmen haben eine Laufzeit von O(n 7 2 ). 12.) Selbst vor diesen polynomiellen Algorithmen kam man in der Praxis lineares Programmieren ist ein für die Praxis ungemein wichtiges Problem ganz gut zu Recht, und zwar mit Hilfe des berühmten Simplex-Algorithmus. Dass man trotzdem Algorithmen wie den Perzeptron-Algorithmus studiert, hat mehrere Gründe: O(n 7 2 ) ist nicht besonders gut, während der Perzeptron-Algorithmus oft sehr schnell ist; der Perzeptron-Algorithmus hat via δ-regel eine gewisse kognitive Adäquatheit; der Perzeptron-Algorithmus ist Vorbild für spätere kompliziertere Lernalgorithmen.

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Klassifikation linear separierbarer Probleme

Klassifikation linear separierbarer Probleme Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck Lemma 15 KLP 1 ist genau dann lösbar, wenn das dazugehörige LP KLP 2 eine Lösung mit dem Wert Z = 0 besitzt. Ist Z = 0 für x 0, x 0, dann ist x eine zulässige Lösung von KLP 1. Beweis von Lemma 15: Nach

Mehr

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)

Mehr

Vortrag 20: Kurze Vektoren in Gittern

Vortrag 20: Kurze Vektoren in Gittern Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die

Mehr

10.2 Linearkombinationen

10.2 Linearkombinationen 147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition

Mehr

Dem Anschein nach werden diese Zahlen kleiner und kleiner und streben gegen Null. Was sollen sie sonst auch tun? Aber der Begriff

Dem Anschein nach werden diese Zahlen kleiner und kleiner und streben gegen Null. Was sollen sie sonst auch tun? Aber der Begriff 47 5 Irrationales 5.1 Folgen, Konvergenz und Vollständigkeit Eine Abbildung a : N R definiert eine Folge von reellen Werten a 1 = a(1), a 2 = a(2), a 3 = a(3),... Solche Zahlenfolgen werden uns dazu dienen,

Mehr

3.1 Sukzessive Minima und reduzierte Basen: Resultate

3.1 Sukzessive Minima und reduzierte Basen: Resultate Gitter und Codes c Rudolf Scharlau 4. Juni 2009 202 3.1 Sukzessive Minima und reduzierte Basen: Resultate In diesem Abschnitt behandeln wir die Existenz von kurzen Basen, das sind Basen eines Gitters,

Mehr

Der n-dimensionale Raum

Der n-dimensionale Raum Der n-dimensionale Raum Mittels R kann nur eine Größe beschrieben werden. Um den Ort eines Teilchens im Raum festzulegen, werden schon drei Größen benötigt. Interessiert man sich für den Bewegungszustand

Mehr

Analysis I. Guofang Wang Universität Freiburg

Analysis I. Guofang Wang Universität Freiburg Universität Freiburg 22.11.2016 3. Mächtigkeit und die komplexe Zahlen Komplexe Zahlen Definition Die komplexe Zahlen sind definiert als C = R 2 = R R, mit (x 1, y 1 ) + (x 2, y 2 ) = (x 1 + x 2, y 1 +

Mehr

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html karin.halupczok@math.uni-freiburg.de

Mehr

5 Teilmengen von R und von R n

5 Teilmengen von R und von R n 5 Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,...,x n ) : x i R} = R }... {{ R }. n mal Für x R ist x der Abstand zum Nullpunkt. Die entsprechende Verallgemeinerung

Mehr

6. Vorlesung. Rechnen mit Matrizen.

6. Vorlesung. Rechnen mit Matrizen. 6. Vorlesung. Rechnen mit Matrizen. In dieser Vorlesung betrachten wir lineare Gleichungs System. Wir betrachten lineare Gleichungs Systeme wieder von zwei Gesichtspunkten her: dem angewandten Gesichtspunkt

Mehr

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn

Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,

Mehr

2.2 Kollineare und koplanare Vektoren

2.2 Kollineare und koplanare Vektoren . Kollineare und koplanare Vektoren Wie wir schon gelernt haben, können wir einen Vektor durch Multiplikation mit einem Skalar verlängern oder verkürzen. In Abbildung 9 haben u und v die gleiche Richtung,

Mehr

14 Skalarprodukt Abstände und Winkel

14 Skalarprodukt Abstände und Winkel 4 Skalarprodukt Abstände und Winkel Um Abstände und Winkel zu definieren benötigen wir einen neuen Begriff. Zunächst untersuchen wir die Länge eines Vektors v. Wir schreiben dafür v und sprechen auch von

Mehr

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }. 154 e Gegeben sind die Vektoren v 1 = ( 10 1, v = ( 10 1. Sei V 1 = v 1 der von v 1 aufgespannte Vektorraum in R 3. 1 Dann besteht V 1 aus allen Vielfachen von v 1, V 1 = { c v 1 c R }. ( 0 ( 01, v 3 =

Mehr

Vektoren. Kapitel 13 Vektoren. Mathematischer Vorkurs TU Dortmund Seite 114 / 1

Vektoren. Kapitel 13 Vektoren. Mathematischer Vorkurs TU Dortmund Seite 114 / 1 Vektoren Kapitel 13 Vektoren Mathematischer Vorkurs TU Dortmund Seite 114 / 1 Vektoren 131 Denition: Vektoren im Zahlenraum Ein Vektor (im Zahlenraum) mit n Komponenten ist ein n-tupel reeller Zahlen,

Mehr

Vektoren, Vektorräume

Vektoren, Vektorräume Vektoren, Vektorräume Roman Wienands Sommersemester 2010 Mathematisches Institut der Universität zu Köln Roman Wienands (Universität zu Köln) Mathematik II für Studierende der Chemie Sommersemester 2010

Mehr

& sind die Vektorkomponenten von und sind die Vektorkoordinaten von. A x. a) Der Betrag eines Vektors

& sind die Vektorkomponenten von und sind die Vektorkoordinaten von. A x. a) Der Betrag eines Vektors Einführu hnung Was ist ein Vektor? In Bereichen der Naturwissenschaften treten Größen auf, die nicht nur durch eine Zahlenangabe dargestellt werden können, wie Kraft oder Geschwindigkeit. Zur vollständigen

Mehr

5.7 Lineare Abhängigkeit, Basis und Dimension

5.7 Lineare Abhängigkeit, Basis und Dimension 8 Kapitel 5. Lineare Algebra 5.7 Lineare Abhängigkeit, Basis und Dimension Seien v,...,v n Vektoren auseinemvektorraumv über einem KörperK. DieMenge aller Linearkombinationen von v,...,v n, nämlich { n

Mehr

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem

Mehr

Vektoren. Vektorrechnung

Vektoren. Vektorrechnung Vektoren Dieser Text behandelt das Thema Vektoren, sowei es die gymnasiale Oberstufe betrifft. Vektoren können mehr als das, aber das würde in diesem Überblich zu weit führen. Ein großes Defizit der meisten

Mehr

5 Lineare Algebra (Teil 3): Skalarprodukt

5 Lineare Algebra (Teil 3): Skalarprodukt 5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale

Mehr

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische

Mehr

Universität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n

Universität Stuttgart Physik und ihre Didaktik PD Dr. Holger Cartarius. Matrizen. a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A = a m,1 a m,2 a m,n Universität Stuttgart Physik und ihre Didaktik PD Dr Holger Cartarius Matrizen Matrizen: Ein rechteckiges Zahlenschema der Form a 1,1 a 1,2 a 1,n a 2,1 a 2,2 a 2,n A a m,1 a m,2 a m,n (a) nennt man eine

Mehr

n=1 a n mit reellen Zahlen a n einen

n=1 a n mit reellen Zahlen a n einen 4 Unendliche Reihen 4. Definition und Beispiele Ein altes Problem der Analysis ist es, einer Reihe mit reellen Zahlen einen Wert zuzuordnen. Ein typisches Beispiel ist die unendliche Reihe + +..., die

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 Perzeptronen Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 1/25 Gliederung Vorbilder Neuron McCulloch-Pitts-Netze Perzeptron

Mehr

Basiswissen Matrizen

Basiswissen Matrizen Basiswissen Matrizen Mathematik GK 32 Definition (Die Matrix) Eine Matrix A mit m Zeilen und n Spalten heißt m x n Matrix: a a 2 a 4 A a 2 a 22 a 24 a 4 a 42 a 44 Definition 2 (Die Addition von Matrizen)

Mehr

Übung zur Vorlesung Berechenbarkeit und Komplexität

Übung zur Vorlesung Berechenbarkeit und Komplexität RWTH Aachen Lehrgebiet Theoretische Informatik Reidl Ries Rossmanith Sanchez Tönnis WS 2012/13 Übungsblatt 7 26.11.2012 Übung zur Vorlesung Berechenbarkeit und Komplexität Aufgabe T15 Entwickeln Sie ein

Mehr

11. Folgen und Reihen.

11. Folgen und Reihen. - Funktionen Folgen und Reihen Folgen Eine Folge reeller Zahlen ist eine Abbildung a: N R Statt a(n) für n N schreibt man meist a n ; es handelt sich also bei einer Folge um die Angabe der Zahlen a, a

Mehr

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $ Mathematik für Ingenieure I, WS 8/9 Freitag 9. $Id: linabb.tex,v.3 9//9 3:7:34 hk Exp hk $ II. Lineare Algebra 9 Lineare Abbildungen 9. Lineare Abbildungen Der folgende Satz gibt uns eine einfachere Möglichkeit

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Kapitel 3 Lineare Algebra

Kapitel 3 Lineare Algebra Kapitel 3 Lineare Algebra Inhaltsverzeichnis VEKTOREN... 3 VEKTORRÄUME... 3 LINEARE UNABHÄNGIGKEIT UND BASEN... 4 MATRIZEN... 6 RECHNEN MIT MATRIZEN... 6 INVERTIERBARE MATRIZEN... 6 RANG EINER MATRIX UND

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

Zahlen und metrische Räume

Zahlen und metrische Räume Zahlen und metrische Räume Natürliche Zahlen : Die natürlichen Zahlen sind die grundlegendste Zahlenmenge, da man diese Menge für das einfache Zählen verwendet. N = {1, 2, 3, 4,...} bzw. N 0 = {0, 1, 2,

Mehr

Kapitel 5. Vektorräume mit Skalarprodukt

Kapitel 5. Vektorräume mit Skalarprodukt Kapitel 5 Vektorräume mit Skalarprodukt 119 120 Kapitel V: Vektorräume mit Skalarprodukt 5.1 Elementare Eigenschaften des Skalarprodukts Dienstag, 20. April 04 Wollen wir in einem Vektorraum wie in der

Mehr

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 } A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder

Mehr

2.6 Asymptotische Approximation: Min Binpacking

2.6 Asymptotische Approximation: Min Binpacking 2.6 Asymptotische Approximation: Min Binpacking In diesem Abschnitt geht es die Erscheinung, dass manche Optimierungsprobleme Approximationsalgorithmen haben, die nur für Inputs x mit groÿem Wert m (x)

Mehr

2.3 Basis und Dimension

2.3 Basis und Dimension Lineare Algebra I WS 205/6 c Rudolf Scharlau 65 2.3 Basis und Dimension In diesem zentralen Abschnitt werden einige für die gesamte Lineare Algebra fundamentale Grundbegriffe eingeführt: Lineare Abhängigkeit

Mehr

Signale und Codes Vorlesung 4

Signale und Codes Vorlesung 4 Signale und Codes Vorlesung 4 Nico Döttling December 6, 2013 1 / 18 2 / 18 Letztes Mal Allgemeine Hamming Codes als Beispiel linearer Codes Hamming Schranke: Obere Schranke für k bei gegebenem d bzw. für

Mehr

Datenstrukturen & Algorithmen Lösungen zu Blatt 4 FS 15

Datenstrukturen & Algorithmen Lösungen zu Blatt 4 FS 15 Eidgenössische Technische Hochschule Zürich Ecole polytechnique fédérale de Zurich Politecnico federale di Zurigo Federal Institute of Technology at Zurich Institut für Theoretische Informatik 18. März

Mehr

Zahlen und metrische Räume

Zahlen und metrische Räume Zahlen und metrische Räume Natürliche Zahlen : Die natürlichen Zahlen sind die grundlegendste Zahlenmenge, da man diese Menge für das einfache Zählen verwendet. N = {1, 2, 3, 4,...} Ganze Zahlen : Aus

Mehr

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015 Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler

Mehr

6 Polynomielle Gleichungen und Polynomfunktionen

6 Polynomielle Gleichungen und Polynomfunktionen 6 Polynomielle Gleichungen und Polynomfunktionen Lineare Gleichungen Eine lineare Gleichung in einer Variablen ist eine Gleichung der Form ax + b = cx + d mit festen Zahlen a und c mit a c. Dies kann man

Mehr

Folgen und Reihen Folgen

Folgen und Reihen Folgen Folgen und Reihen 30307 Folgen Einstieg: Wir beginnen mit einigen Beispielen für reelle Folgen: (i),, 4, 8, 6, (ii) 4,, 6, 3, 7, (iii) 0,,,, 3,, (iv), 3, 7,,, Aufgabe : Setzt die Zahlenfolgen logisch fort

Mehr

Inexakte Newton Verfahren

Inexakte Newton Verfahren Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n

Mehr

1 Mengen. 1.1 Elementare Definitionen. Einige mathematische Konzepte

1 Mengen. 1.1 Elementare Definitionen. Einige mathematische Konzepte Einige mathematische Konzepte 1 Mengen 1.1 Elementare Definitionen Mengendefinition Die elementarsten mathematischen Objekte sind Mengen. Für unsere Zwecke ausreichend ist die ursprüngliche Mengendefinition

Mehr

1 Euklidische und unitäre Vektorräume

1 Euklidische und unitäre Vektorräume 1 Euklidische und unitäre Vektorräume In diesem Abschnitt betrachten wir reelle und komplexe Vektorräume mit Skalarprodukt. Dieses erlaubt uns die Länge eines Vektors zu definieren und (im Fall eines reellen

Mehr

Konstruktion der reellen Zahlen

Konstruktion der reellen Zahlen Konstruktion der reellen Zahlen Zur Wiederholung: Eine Menge K (mit mindestens zwei Elementen) heißt Körper, wenn für beliebige Elemente x, y K eindeutig eine Summe x+y K und ein Produkt x y K definiert

Mehr

Das inhomogene System. A x = b

Das inhomogene System. A x = b Ein homogenes lineares Gleichungssystem A x = 0 mit m Gleichungen und n Unbestimmten hat immer mindestens die Lösung 0. Ist r der Rang von A, so hat das System n r Freiheitsgrade. Insbesondere gilt: Ist

Mehr

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren

Mehr

Die Dreiecks Ungleichung: I x + y I I x I + I y I

Die Dreiecks Ungleichung: I x + y I I x I + I y I Die Dreiecks Ungleichung: I x + y I I x I + I y I In dieser Proseminar-Arbeit geht es um die sog. Dreiecks-Ungleichung (Δ-Ungl.). Wir werden unter anderen sehen, wie man die Δ-Ungl. beweisen kann, welche

Mehr

Der Kern einer Matrix

Der Kern einer Matrix Die elementaren Zeilenoperationen p. 1 Der Kern einer Matrix Multipliziert man eine Matrix mit den Spaltenvektoren s 1,..., s m von rechts mit einem Spaltenvektor v := (λ 1,..., λ m ) T, dann ist das Ergebnis

Mehr

Mathematik I. Vorlesung 11. Lineare Unabhängigkeit

Mathematik I. Vorlesung 11. Lineare Unabhängigkeit Prof. Dr. H. Brenner Osnabrück WS 2009/2010 Mathematik I Vorlesung 11 Lineare Unabhängigkeit Definition 11.1. Es sei K ein Körper und V ein K-Vektorraum. Dann heißt eine Familie von Vektoren v i, i I,

Mehr

Lineare Regression. Volker Tresp

Lineare Regression. Volker Tresp Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M

Mehr

Vollständige Induktion

Vollständige Induktion Schweizer Mathematik-Olympiade smo osm Vollständige Induktion Aktualisiert: 1 Dezember 01 vers 100 Eine der wichtigsten Beweistechniken der Mathematik überhaupt ist die (vollständige) Induktion Wir nehmen

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN

TECHNISCHE UNIVERSITÄT MÜNCHEN TECHNISCHE UNIVERSITÄT MÜNCHEN Zentrum Mathematik PROF. DR.DR. JÜRGEN RICHTER-GEBERT, VANESSA KRUMMECK, MICHAEL PRÄHOFER Höhere Mathematik für Informatiker II (Sommersemester 2004) Lösungen zu Aufgabenblatt

Mehr

Die Formel für die Standardabweichung lautet (ohne die Wurzel haben wir die Varianz):

Die Formel für die Standardabweichung lautet (ohne die Wurzel haben wir die Varianz): Mittelwert und Standardabweichung Klasse: StandardDeviation Schreiben Sie ein Programm StandardDeviation, das von den zufällig erzeugten Werten eines Arrays beliebiger Größe den Mittelwert und die Standardabweichung

Mehr

P, NP und NP -Vollständigkeit

P, NP und NP -Vollständigkeit P, NP und NP -Vollständigkeit Mit der Turing-Maschine haben wir einen Formalismus kennengelernt, um über das Berechenbare nachdenken und argumentieren zu können. Wie unsere bisherigen Automatenmodelle

Mehr

Algorithmen II Vorlesung am

Algorithmen II Vorlesung am Algorithmen II Vorlesung am 0..0 Minimale Schnitte in Graphen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum

Mehr

2 - Konvergenz und Limes

2 - Konvergenz und Limes Kapitel 2 - Folgen Reihen Seite 1 2 - Konvergenz Limes Definition 2.1 (Folgenkonvergenz) Eine Folge komplexer Zahlen heißt konvergent gegen, wenn es zu jeder positiven Zahl ein gibt, so dass gilt: Die

Mehr

3.3 Reduzierte Basen nach Lenstra, Lenstra und Lovász

3.3 Reduzierte Basen nach Lenstra, Lenstra und Lovász Gitter und Codes c Rudolf Scharlau 15. Juni 2009 221 3.3 Reduzierte Basen nach Lenstra, Lenstra und Lovász Alternativ zu klassischen Konzepten wie dem von Minkowski gibt es seit gut 25 Jahren den Reduktionsbegriff

Mehr

Elemente der Analysis II

Elemente der Analysis II Elemente der Analysis II Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 8. Mai 2009 1 / 29 Bemerkung In der Vorlesung Elemente der Analysis I wurden Funktionen

Mehr

Vorkurs Mathematik B

Vorkurs Mathematik B Vorkurs Mathematik B Dr. Thorsten Camps Fakultät für Mathematik TU Dortmund 20. September 2011 Definition (R n ) Wir definieren: 1 Der R 2 sei die Menge aller Punkte in der Ebene. Jeder Punkt wird in ein

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Ingenieure II, SS 9 Freitag 6 $Id: jordantex,v 7 9/6/ :8:5 hk Exp $ 5 Eigenwerte und die Jordansche Normalform 5 Die Jordansche Normalform Nachdem wir bisher das Vorgehen zur Berechnung

Mehr

Grundlagen: Algorithmen und Datenstrukturen

Grundlagen: Algorithmen und Datenstrukturen Technische Universität München Fakultät für Informatik Lehrstuhl für Effiziente Algorithmen Dr. Hanjo Täubig Tobias Lieber Sommersemester 2011 Übungsblatt 1 16. September 2011 Grundlagen: Algorithmen und

Mehr

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt - 17 - Die Frage ist hier also: Für welche x R gilt x = x + 1? Das ist eine quadratische Gleichung für x. Es gilt x = x + 1 x x 3 = 0, und man kann quadratische Ergänzung machen:... ( ) ( ) x x + = 3 +

Mehr

Kurzskript zur Vorlesung Mathematik I für MB, WI/MB und andere Prof. Dr. Ulrich Reif

Kurzskript zur Vorlesung Mathematik I für MB, WI/MB und andere Prof. Dr. Ulrich Reif 14 Oktober 2008 1 Kurzskript zur Vorlesung Mathematik I für MB, WI/MB und andere Prof Dr Ulrich Reif Inhalt: 1 Vektorrechnung 2 Lineare Gleichungssysteme 3 Matrizenrechnung 4 Lineare Abbildungen 5 Eigenwerte

Mehr

7. LINEARISIERUNG UND DAS DIFFERENTIAL

7. LINEARISIERUNG UND DAS DIFFERENTIAL 63 Dieses Skript ist ein Auszug mit Lücken aus Einführung in die mathematische Behandlung der Naturwissenschaften I von Hans Heiner Storrer, Birkhäuser Skripten. Als StudentIn sollten Sie das Buch auch

Mehr

Teil 1 Gleichungen und Ungleichungen

Teil 1 Gleichungen und Ungleichungen Teil 1 Gleichungen und Ungleichungen Gleichungen Eine mathematische Gleichung ist eine logische Aussage über die Gleichheit von Termen. Das, was links vom Gleichheitszeichen (=) steht, hat den gleichen

Mehr

Die Fakultät. Thomas Peters Thomas Mathe-Seiten 13. September 2003

Die Fakultät. Thomas Peters Thomas Mathe-Seiten  13. September 2003 Die Fakultät Thomas Peters Thomas Mathe-Seiten www.mathe-seiten.de 3. September 2003 Dieser Artikel gibt die Definition der klassischen Fakultät und führt von dort aus zunächst zu der Anwendung in Taylor-Reihen

Mehr

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D. Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion

Mehr

Kapitel 13. Lineare Gleichungssysteme und Basen

Kapitel 13. Lineare Gleichungssysteme und Basen Kapitel 13. Lineare Gleichungssysteme und Basen Matrixform des Rangsatzes Satz. Sei A eine m n-matrix mit den Spalten v 1, v 2,..., v n. A habe den Rang r. Dann ist die Lösungsmenge L := x 1 x 2. x n x

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

Konvergenz im quadratischen Mittel - Hilberträume

Konvergenz im quadratischen Mittel - Hilberträume CONTENTS CONTENTS Konvergenz im quadratischen Mittel - Hilberträume Contents 1 Ziel 2 1.1 Satz........................................ 2 2 Endlich dimensionale Vektorräume 2 2.1 Defintion: Eigenschaften

Mehr

Elemente in Φ werden Wurzeln genannt. Bemerkung 3.2. (a) Zu einem Wurzelsystem können wir immer eine Spiegelungsgruppe definieren

Elemente in Φ werden Wurzeln genannt. Bemerkung 3.2. (a) Zu einem Wurzelsystem können wir immer eine Spiegelungsgruppe definieren 3. Wurzelsysteme Als erstes führen wir den Begriff eines Wurzelsystems ein. Definition 3.1 (Wurzelsystem). Eine endliche Teilmenge Φ V {0} heißt Wurzelsystem falls gilt: (R1) Φ Rα = {±α} für α Φ, (R2)

Mehr

Computational Intelligence I Künstliche Neuronale Netze

Computational Intelligence I Künstliche Neuronale Netze Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.

Mehr

Programmierung 1 (Wintersemester 2012/13) Lösungsblatt 10 (Kapitel 11)

Programmierung 1 (Wintersemester 2012/13) Lösungsblatt 10 (Kapitel 11) Fachrichtung 6.2 Informatik Universität des Saarlandes Tutorenteam der Vorlesung Programmierung 1 Programmierung 1 (Wintersemester 2012/13) Lösungsblatt 10 (Kapitel 11) Hinweis: Dieses Übungsblatt enthält

Mehr

3 Vom Zählen zur Induktion

3 Vom Zählen zur Induktion 7 3 Vom Zählen zur Induktion 3.1 Natürliche Zahlen und Induktions-Prinzip Seit unserer Kindheit kennen wir die Zahlen 1,, 3, 4, usw. Diese Zahlen gebrauchen wir zum Zählen, und sie sind uns so vertraut,

Mehr

Lineare Optimierung und Simplex-Algorithmus

Lineare Optimierung und Simplex-Algorithmus Lineare Optimierung und Simplex-Algorithmus Problemstellung Beispiel : Unser Unternehmen verfügt über drei Maschinen A, B, C, mit denen zwei verschiedene Produkte P, P2 hergestellt werden. Die Maschinen

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Topologische Grundbegriffe I. 1 Offene und Abgeschlossene Mengen

Topologische Grundbegriffe I. 1 Offene und Abgeschlossene Mengen Topologische Grundbegriffe I Vortrag zum Proseminar Analysis, 26.04.2010 Nina Neidhardt und Simon Langer Im Folgenden soll gezeigt werden, dass topologische Konzepte, die uns schon für die Reellen Zahlen

Mehr

Summen- und Produktzeichen

Summen- und Produktzeichen Summen- und Produktzeichen Ein großer Vorteil der sehr formalen mathematischen Sprache ist es, komplizierte Zusammenhänge einfach und klar ausdrücken zu können. Gerade auch diese Eigenschaft der Mathematik

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Vorlesung am 20. November 2014 INSTITUT FÜR THEORETISCHE 0 KIT 20.11.2014 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der

Mehr

Überblick. 3. Mathematische Grundlagen 3.1 Mengen und Abbildungen 3.2 Induktion und Rekursion 3.3 Boolsche Algebra

Überblick. 3. Mathematische Grundlagen 3.1 Mengen und Abbildungen 3.2 Induktion und Rekursion 3.3 Boolsche Algebra Überblick 3. Mathematische Grundlagen 3.1 Mengen und Abbildungen 3.2 3.3 Boolsche Algebra Peer Kröger (LMU München) Einführung in die Programmierung WS 14/15 72 / 179 Beweisprinzip der vollständigen Induktion

Mehr

1 Zahlentheorie. 1.1 Kongruenzen

1 Zahlentheorie. 1.1 Kongruenzen 3 Zahlentheorie. Kongruenzen Der letzte Abschnitt zeigte, daß es sinnvoll ist, mit großen Zahlen möglichst einfach rechnen zu können. Oft kommt es nicht darauf, an eine Zahl im Detail zu kennen, sondern

Mehr

,...) ist eine Folge, deren Glieder der Null beliebig nahe kommen. (iii) Die Folge a n = ( 1) n + 1 n oder (a n) = (0, 3 2, 2 3, 5 4, 4 5

,...) ist eine Folge, deren Glieder der Null beliebig nahe kommen. (iii) Die Folge a n = ( 1) n + 1 n oder (a n) = (0, 3 2, 2 3, 5 4, 4 5 3 Folgen 3.1 Definition und Beispiele Eine Abbildung a : Æ Ê heißt (reelle) Zahlenfolge. Statt a(n) schreiben wir kürzer a n und bezeichnen die ganze Folge mit (a n ) n Æ oder einfach (a n ), was aber

Mehr

1 x. Eine kurze Erinnerung an die Definition der Betragsfunktion:

1 x. Eine kurze Erinnerung an die Definition der Betragsfunktion: Wie rechne ich mit Ungleichungen? Die do s und don t s mit Beispielen aus der Miniklausur Lukas Steenvoort Addition und Subtraktion 1 ) Dies funktioniert ähnlich wie bei Gleichungen addieren wir denselben

Mehr

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1) 34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)

Mehr

Innere-Punkt-Methoden

Innere-Punkt-Methoden Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction

Mehr

1.3 Gleichungen und Ungleichungen

1.3 Gleichungen und Ungleichungen 1.3 Gleichungen und Ungleichungen Ein zentrales Thema der Algebra ist das Lösen von Gleichungen. Ganz einfach ist dies für sogenannte lineare Gleichungen a x = b Wenn hier a 0 ist, können wir beide Seiten

Mehr

Übersicht Kapitel 9. Vektorräume

Übersicht Kapitel 9. Vektorräume Vektorräume Definition und Geometrie von Vektoren Übersicht Kapitel 9 Vektorräume 9.1 Definition und Geometrie von Vektoren 9.2 Teilräume 9.3 Linearkombinationen und Erzeugendensysteme 9.4 Lineare Abhängigkeiten

Mehr

Elemente der Analysis II

Elemente der Analysis II Elemente der Analysis II Kapitel 5: Differentialrechnung im R n Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 17. Juni 2009 1 / 31 5.1 Erinnerung Kapitel

Mehr

Übungsblatt

Übungsblatt Übungsblatt 3 3.5.27 ) Die folgenden vier Matrizen bilden eine Darstellung der Gruppe C 4 : E =, A =, B =, C = Zeigen Sie einige Gruppeneigenschaften: a) Abgeschlossenheit: Berechnen Sie alle möglichen

Mehr

9 Metrische und normierte Räume

9 Metrische und normierte Räume 9 Metrische und normierte Räume Idee: Wir wollen Abstände zwischen Punkten messen. Der Abstand soll eine reelle Zahl 0 sein (ohne Dimensionsangabe wie Meter...). 9.1 Definition Sei X eine Menge. Eine Metrik

Mehr

l p h (x) δw(x) dx für alle δw(x).

l p h (x) δw(x) dx für alle δw(x). 1.3 Potentielle Energie 5 In der modernen Statik benutzen wir statt dessen einen schwächeren Gleichheitsbegriff. Wir verlangen nur, dass die beiden Streckenlasten bei jeder virtuellen Verrückung dieselbe

Mehr

5 Lineare Gleichungssysteme und Determinanten

5 Lineare Gleichungssysteme und Determinanten 5 Lineare Gleichungssysteme und Determinanten 51 Lineare Gleichungssysteme Definition 51 Bei einem linearen Gleichungssystem (LGS) sind n Unbekannte x 1, x 2,, x n so zu bestimmen, dass ein System von

Mehr