Beaufsichtigtes Lernen

Größe: px
Ab Seite anzeigen:

Download "Beaufsichtigtes Lernen"

Transkript

1 Vortragsausarbeitung Beaufsichtigtes Lernen Seminar NEURONALE NETZE Leiter: Dr. B. Freisleben Sommersemester 1993 Torsten Felzer Matr.-Nr.: Semester Inf Alexandra Heidger Matr.-Nr.: Semester Inf Maria Wiesiollek Matr.-Nr.: Semester Winf PDF version by TORSTEN FELZER (Dec. 10, 2002)

2 Zusammenfassung Die vorliegende Ausarbeitung beschäftigt sich mit dem Problem des Beaufsichtigten Lernens durch Fehlerkorrektur in Neuronalen Netzen. Es werden zahlreiche Lern-Algorithmen vorgestellt, es werden Vor- und Nachteile der Algorithmen aufgelistet sowie (soweit bekannt) Ergebnisse hinsichtlich der Anwendung der einzelnen Algorithmen auf bestimmte grundlegende Probleme. Dort, wo der mathematische Hintergrund nicht allzu große geistige Klimmzüge erfordert, werden die theoretischen Grundlagen erläutert, ansonsten beschränken wir uns hier (auch mit Rücksicht auf den Leser, der das ganze ja schließlich nachvollziehen soll) auf eine Darstellung der grundlegenden Idee, die hinter dem jeweiligen Verfahren steht. Beim Anfertigen dieser Ausarbeitung ergaben sich gewisse Schwierigkeiten mit der englischen Sprache (oder besser: mit englischen Fachbegriffen). In den uns vorliegenden Artikeln fallen immer wieder bestimmte Fachtermini, wie z. B. Backpropagation, Momentum, feedforward oder Bias. Wir sind der Meinung, daß es wenig Sinn macht, diese feststehenden Begriffe ins Deutsche zu übersetzen. Wo ein sinnvolles deutsches Äquivalent existiert, werden wir es selbstverständlich tunlichst vermeiden, die englischen Begriffe zu verwenden (z. B. werden wir uns hüten, Sätze zu bilden, in denen neudeutsche Ausdrücke wie etwas nach außen supporten vorkommen). Außerdem ist es durchaus sinnvoll, Begriffe wie verborgenes Neuron statt hidden unit oder Schicht statt Layer zu verwenden. Wir werden zusätzlich dem Anhang ein kleines deutsch-englisches Wörterbuch beifügen, um die deutschen Übersetzungen zu verstehen. Nach einer kurzen Einführung im ersten Abschnitt, werden im zweiten Abschnitt die Grundlagen eingeführt: Was ist ein Neuronales Netz?, Was ist beaufsichtigtes Lernen?. Im dritten Abschnitt geht es dann um das Lernverfahren, dessen Name man am häufigsten in Verbindung mit beaufsichtigtem Lernen hört, nämlich Backpropagation (kurz: BP). Im vierten Abschnitt werden verschiedentliche Modifikationen und Weiterführungen des BP vorgestellt, Versuche also, den Standard BP zu verbessern. Der fünfte Abschnitt beschäftigt sich mit zwei Lernverfahren, die nicht auf BP basieren, und zwar SCG und CCA. Im sechsten und letzten Abschnitt wird das ganze noch einmal kurz (sehr kurz) zusammengefaßt und ein kleiner Ausblick auf die Zukunft gegeben. Im Anhang findet man das Programmlisting einer Implementierung des BP sowie dazugehörige Ablaufprotokolle. Außerdem enthält der Anhang (wie oben schon versprochen) ein kleines deutschenglisches Wörterbuch. Ganz am Ende befindet sich eine Liste mit der zur Bearbeitung dieser Ausarbeitung herangezogenen Literatur.

3 Beaufsichtigtes Lernen Seminar NEURONALE NETZE 1 Inhaltsverzeichnis 1 Einführung 2 2 Grundlagen Knoten und Synapsen Topologien Darstellungsarten Klassifizierung der Lernverfahren Der konventionelle Backpropagation Algorithmus (BP) Einleitung Die Delta Regel Das Gradienten Verfahren Die Verallgemeinerung der Delta Regel Einige Feinheiten des BP Algorithmus Einige konkrete Anwendungsbeispiele Vor- und Nachteile von BP Modifikationen & Weiterführungen des BP Quickprop RPROP Adaptives Backpropagation Autoregressives Backpropagation Heuristischer Lernalgorithmus Moving-Target Algorithmus Orthogonalisiertes Backpropagation mit Novelty Filter Nicht BP basierte Algorithmen Cascade Correlation Algorithmus (CCA) Motivation Dynamische Netzwerk-Architektur Der CCA-Lernalgorithmus Simulationsergebnisse Scaled Conjugate Gradient Algorithmus (SCG) Motivation Grundlagen Der SCG-Algorithmus Simulationsergebnisse Zusammenfassung und Ausblick 53 A Implementierung des Backpropagation Algorithmus 54 B Ablaufprotokolle 60 C Kleines Deutsch Englisches Fachwörterbuch 65 D Literaturverzeichnis 66

4 Beaufsichtigtes Lernen Seminar NEURONALE NETZE 2 1 Einführung Seit einigen Jahren gewinnt in Informatikerkreisen das Thema NEURONALE NETZE in Verbindung mit KÜNSTLICHER INTELLIGENZ zusehends an Bedeutung. Doch auch wenn das Thema in aller Munde ist, weiß längst nicht jeder darüber bescheid. Wenn man fragt, worum es dabei eigentlich geht, erhält man oftmals von sogenannten Experten die lapidare Antwort: mit Neuronalen Netzen wird versucht, die Arbeitsweise des menschlichen Gehirns durch den Computer nachzubilden. Jemand, der sich mit der Materie nicht auskennt, wird sich vielleicht mit dieser Erklärung zufrieden geben. Die Vorstellung, daß Computer in Zukunft nicht mehr in Pascal oder C programmiert werden müssen, sondern die angemessene Vorgehensweise zur Lösung eines gegebenen Problems selbständig mit Hilfe eines Elektronischen Gehirns erlernen bzw. sich erarbeiten können, scheint für einige Informatiker recht amüsant und angenehm zu sein. Selbst manche Experten in Sachen Neuronale Netze sehen diese Vorstellung als realistisch an. Manche sprechen sogar voller Begeisterung von der Möglichkeit, in die Schöpfung einzugreifen und quasi ein bißchen Gott zu spielen 1. Diese Leute bilden sich ein, das WUNDERWERK Menschliches Gehirn vollkommen (bzw. in ausreichendem Maße) zu verstehen und nehmen für sich selbst in Anspruch, einen Beweis für die Nichtexistenz Gottes gefunden zu haben. Sie argumentieren, daß die Entstehung des Lebens, die Entwicklung von Sprache und Intelligenz sowie die Ausprägung gewisser ethischer Grundvorstellungen alleine durch rationale Überlegungen (wie etwa der Evolutionstheorie) erklärbar seien und daß deswegen kein Gott notwendig sei (den es demzufolge auch gar nicht gibt eine äußerst fadenscheinige Begründung). Mit Hilfe von Neuronalen Netzen versuchen diese Experten dann den Entwicklungsprozeß im kleinen Stil in Zeitraffer zu modellieren und sich selbst als eine Art Schöpfer zu betätigen (eine wohl krankhafte Form von Größenwahnsinn). Es ist kein Wunder, wenn jemand, der von Computern kaum Ahnung hat, abgesehen von dem, was ihm in den Medien (Zeitung, Fernsehen) darüber erzählt wird (der sogenannte Otto-Normalverbraucher also), angesichts dieser Fantastereien vereinzelter Computerspezialisten regelrecht Angst bekommt. Angst davor, die angesprochenen Amateurschöpfer könnten einen perfekten künstlichen Menschen entwickeln, einen Roboter, dessen Elektronenhirn weit leistungsfähiger sein würde als das menschliche Gehirn, oder Computer, die irgendwann sich so verselbständigen, daß sie durch bewußtes Handeln den Menschen bedrohen oder gar vernichten könnten. Gott sei Dank ist die Forschung auf dem Gebiet der KÜNSTLICHEN INTELLIGENZ heute scheinbar unendlich weit davon entfernt, ein solches Horrorszenario verwirklichen zu können. Die Methoden, die angewendet werden, wenn man ein Neuronales Netz zum Erlernen eines bestimmten Sachverhalts bringen will, haben nämlich biologisch gesehen so gut wie gar nichts mit dem zu tun, was das menschliche Gehirn beim Lernen macht 2. Beim BEAUFSICHTIGTEN LERNEN, einem sehr wichtigen Teilgebiet der NEURONALEN NETZE, um das sich die vorliegende Ausarbeitung dreht, gibt es beispielsweise ein ziemlich grundlegendes Lernverfahren namens BACKPROPAGATION. Lernen wird mit Backpropagation abstrahiert zu der Anwendung eines mathematischen Kalküls, der Verwendung der aus der Analysis bekannten ein- und mehrdimensionalen Kettenregel sowie der Berechnung mittels einer Rekursionsformel. Es gibt nun keinerlei ernstzunehmende Begründung dafür, daß das Gehirn auch nur annähernd ähnliches veranstaltet. Geht man andererseits nüchtern an die Sache heran (ohne den Ehrgeiz, Gott spielen zu wollen), so lassen sich trotz aller (Interpretations-)Schwierigkeiten mit Neuronalen Netzen allgemein und beaufsichtigtem Lernen im besonderen interessante und zum Teil erstaunliche Ergebnisse beobachten, und darum wird es in den nachfolgenden Abschnitten gehen. 1 ein ziemlich bekannter Vertreter dieser radikalen Richtung ist der leidlich berühmte MARVIN MINSKY 2 was das Gehirn genau macht, ist noch weitgehend unbekannt, man kann aber sagen, daß die für Neuronale Netze benutzten Lernverfahren damit nichts zu tun haben

5 Beaufsichtigtes Lernen Seminar NEURONALE NETZE 3 2 Grundlagen Lernfähigkeit, Verallgemeinerungsfähigkeit und Fehlertoleranz sind die drei Eigenschaften neuronaler Netze, die diese so interessant machen und die Entwicklungsarbeiten auf diesem Gebiet motivieren. Es werden flexible, lernfähige Universalprogramme gesucht, die für ihre spezifische Aufgabe nicht in allen Einzelheiten programmiert, sondern anhand von Beispielen trainiert werden und sich dadurch selbst organisieren. Nach der Trainingsphase sollen sie in der Lage sein, auf unbekannte Eingaben korrekt zu reagieren, also das vorher Gelernte zu verallgemeinern und auf neue Situationen anzuwenden. Mit jeder neuen Eingabe lernen sie weiter, indem sie ihre Signalverstärker anpassen und dadurch den gemachten Fehler reduzieren. Doch was genau passiert bei solch einem Lernvorgang? Das Trainieren eines neuronalen Netzes folgt bestimmten Regeln bzw. Verfahren. Solche Lernverfahren bilden den Schwerpunkt dieser vorliegenden Ausarbeitung. Es werden Algorithmen aus dem Bereich des beaufsichtigten Lernens und die damit erzielten Ergebnisse vorgestellt. Bevor jedoch die einzelnen Algorithmen angegangen werden, sollen die wesentlichen Komponenten eines neuronalen Netzes umrissen werden. Ein neuronales Netz besteht im technischen Sinne aus 3 Komponenten: den Knoten und ihren Synapsen, der Netztopologie, die die Netzstruktur und Vernetzung bestimmt und den Lernregeln bzw. -verfahren, die die Veränderung der synaptischen Gewichte zwischen den Neuronen bestimmen 2.1 Knoten und Synapsen Die Knoten eines neuronalen Netzes sollen im weitesten Sinne den Neuronen des biologischen Vorbildes entsprechen. Ein Knoten erhält eine Menge von Eingangssignalen, verarbeitet diese mit Hilfe diverser Rechenoperationen und erzeugt ein Ausgangssignal, das an verschiedene andere Knoten weitergeleitet wird. Eingangssignale Knoten Abb. 2.1: Modell des Knotens Ausgabefunktion Aktivierungsfunktion Eingabefunktion ( ) incl. Bias Synapsen Ausgangssignal

6 ) ) Beaufsichtigtes Lernen Seminar NEURONALE NETZE 4 Das Gedächtnis bzw. die lokalen Speicher des Knotens werden durch die Synapsen repräsentiert. Diese werden auch als (synaptische) Gewichte bezeichnet, da sie die eingehenden Signale gewichten, also verstärken oder abschwächen. Die Rechenoperationen erfolgen in drei Etappen. Zunächst werden die gewichteten Eingangssignale von der Eingabefunktion zum Netto-Eingangssignal zusammengefaßt, z.b. durch Aufaddieren: "! #%$ # #. Aus diesem Netto-Eingangssignal und evtl. der Vorgeschichte des Knotens ergibt sich mit Hilfe der Aktivierungsfunktion die Aktivität des Knotens (siehe Abb. 2.2). Schließlich bestimmt die Ausgabefunktion aus der momentanen Aktivität des Knoten, welcher Wert nach außen weitergegeben wird. In vielen Fällen ist die Ausgabefunktion die identische Funktion und spielt bei den weiteren Untersuchungen keine Rolle. Nachfolgend sind einige Beispiele für Aktivierungsfunktionen aufgeführt. 1 1 ) 1 0 Stückweise linear &(' 0 Schwellwert &*' 0 Sigmoid & ' Abb. 2.2: Aktivierungsfunktionen Besonders interessant für das Trainieren von neuronalen Netzen ist die sigmoide (s-förmige) logistische Funktion, da sie einige wichtige Eigenschaften besitzt, von denen hier zwei erwähnt werden sollen: Sie ist stetig differenzierbar - eine wichtige Voraussetzung für beispielsweise das in Kap. 3.3 vorgestellte Gradienten-Verfahren. Die x-werte werden in drei Bereiche abgebildet: - linear region: sehr kleine + ' + werden auf den linearen Bereich um den Wendepunkt herum abgebildet, - clipped region: sehr große + ' + werden auf die Werte,.- und,0/ abgebildet (zur x-achse parallele Bereiche), - curved region: alle anderen x-werte werden in die dazwischenliegenden gekrümmten Bereiche abgebildet. Durch Wahl von unterschiedlichen Größenordnungen für die Gewichte kann aufgrund dieser Eigenschaft erreicht werden, daß das Netz auf gleiche Eingabe völlig unterschiedlich reagiert (siehe Autoregressiver Backpropagation-Algorithmus in Kap. 4.4). 2.2 Topologien Wie die Knoten des Netzes angeordnet sind und welche miteinander kommunizieren, wird durch die Netztopologie festgelegt. Sie gibt die innere Struktur des Netzes wieder, z.b. die Anzahl der Schichten und Vernetzungsart. In vielen Fällen liegt es in der Hand des Netzdesigners, eine für die zu bewältigende Problemstellung adäquate Topologie zu wählen. Es existieren allerdings auch Lernalgorithmen, die ihre Topologie selbst dynamisch an das Poblem anpassen können.

7 Beaufsichtigtes Lernen Seminar NEURONALE NETZE 5 Ausgabeschicht Ausgabeschicht Verborgene Schicht Eingabeschicht zweischichtig Eingabeschicht dreischichtig Abb. 2.3: Netztopologien I Ein zweischichtiges Netz besteht aus einer sog. Eingabe- und einer Ausgabeschicht. Das Beispiel zeigt den allgemeinen Ansatz mit vollständiger Vernetzung (die sich durch Nullsetzen einzelner Gewichte ausdünnen läßt). Demgegenüber besitzt ein mehrschichtiges Netz zusätzlich eine oder mehrere verborgene Schichten, deren Ein- und Ausgangswerte von der Ein- und Ausgabeschicht verdeckt sind. Verborgene Knoten sind die Quellen möglicher Abstraktionsleistungen und erlauben die Lösung von wesentlich komplexeren Problemstellungen. Einen Speziallfall dieses allgemeinen Ansatzes bilden sog. Feed-Forward-Netze. Die linke Graphik der Abbildung 2.3 stellt ein vollständig vernetztes Feed-Forward-Netz dar. Alle Eingangssignale kommen nur von den darunter liegenden Schichten und alle Ausgangssignale werden nur an die darüberliegenden weitergeleitet. Die Knoten der Eingabeschicht besitzen die Besonderheit, daß sie keine Eingabesignale im üblichen Sinne erhalten, sondern gesetzt werden. D.h. den Eingabeknoten wird ein Wert zugewiesen, den sie ohne weitere Verarbeitung an die folgende Schicht weiterleiten. Diese Eigenschaft führt dazu, daß in der Literatur (z.b. in [6]) ein Netz wie das in Abbildung 2.4 links manchmal als ein zweischichtiges Netz bezeichnet wird. Die Graphik rechts ist dagegen kein Feed-Forward-Netz. Sie zeigt ein unvollständig und schichtenübergreifend vernetztes, stark rückgekoppeltes Netz. Ausgabeschicht Ausgabeschicht verborgene Schicht verborgene Schicht Eingabeschicht Feed-Forward-Netz Eingabeschicht kein Feed-Forward-Netz Abb. 2.4: Netztopologien II

8 Beaufsichtigtes Lernen Seminar NEURONALE NETZE Darstellungsarten Die eben vorgestellte Knotendarstellung lehnt sich an das biologische Vorbild an und ist intuitiv verständlich. Anders die Matrixdarstellung. Sie ist mathematisch orientiert und verlangt vom Leser eine höhere Abstraktionsleistung. S c h i c h t B x y S c h i c h t A a b c Abb. 2.5: Matrixdarstellung Die Knoten einer Schicht werden als Zeilen, die der benachbarten Schicht als Spalten dargestellt. Rechtecke an den Kreuzungspukten der Zeilen und Spalten bilden die Verbindung zwischen den Knoten der zwei Schichten ab. Beide Darstellungsformen sind inhaltlich identisch, sie unterscheiden sich nur in der Zweckmäßigkeit für bestimmte Aufgaben. 2.4 Klassifizierung der Lernverfahren Die Lernregeln bzw. -verfahren lassen sich gemäß der Vorgehensweise beim Lernen in verschiedene Klassen unterteilen. unbeaufsichtigt Lernregeln Fehlerkorrektur-Lernen beaufsichtigt Verstärkungslernen Abb. 2.6: Klassen der Lernverfahren Das beaufsichtigte Lernen erfordert einen Lehrer, der sagt, wie das Netz in der vorliegenden Situation zu reagieren hat. Beim Fehlerkorrektur-Lernen wird die Kenntnis der gewünschten Ausgabe (target ) vorausgesetzt. Das Lernen, d.h. die Gewichteänderung erfolgt entsprechend dem gemachten Fehler, also der Differenz zwischen der gewünschten und der tatsächlich erzielten Ausgabe 213. Dabei wird eine Aktualisierung der Gewichte nach dem Durchlauf (Präsentation) einer einzelnen Eingabe als fortlaufende Aktualisierung bezeichnet. Werden die Gewichte dagegen erst nach einer ganzen Epoche (d.h. nach Durchlauf aller Eingaben einer Trainingsmenge) korrigiert, handelt es sich um periodische Aktualisierung. Beim Verstärkungslernen ist dem Netz der genauer Fehler nicht bekannt. Es orientiert sich allein an der Bewertung des Ergebnises durch den Lehrer mit gut oder schlecht, 1 oder 0. Beim unbeaufsichtigten Lernen arbeiten die Netze völlig autark ohne Unterstützung von außen. Der Lernvorgang, d.h. die Änderung der synaptischen Gewichte erfolgt in Abhängigkeit der Korrelation zwischen den Eingabesignalen und der Aktivität des Knotens. In den folgenden Kapiteln werden diverse Lernalgorithmen aus der Klasse des beaufsichtigten Fehlerkorrektur-Lernens betrachtet.

9 Beaufsichtigtes Lernen Seminar NEURONALE NETZE 7 3 Der konventionelle Backpropagation Algorithmus (BP) 3.1 Einleitung Was Neuronale Netze eigentlich sind, wurde ja in den vorangegangenen Abschnitten bereits erläutert, ebenso wie die Grundidee des beaufsichtigten Lernens. Beim Entwurf von Neuronalen Netzen spielen Strukturüberlegungen zwar keine unwichtige Rolle, besondere Bedeutung kommt aber der Wahl des Lernverfahrens bzw. der Lernregel zu. Da Neuronale Netze nicht wie konventionelle Computer explizit durch Befehle und Anweisungen programmiert werden, sondern selbstorganisiert durch die Anpassung ihrer Gewichte gemäß einer vorgegebenen Lernregel, ist man natürlich stark daran interessiert, daß die vollständige Anpassung der Gewichte nicht allzu lange dauert und daß die Lösung auch einigermaßen sicher gefunden wird. Konvergenzgeschwindigkeit und Sicherheit (bzw. Stabilität) werden in besonderem Maße von der verwendeten Lernregel beeinflußt. Es gibt nun (wie eigentlich immer bei populären Problemen der Informatik) viele verschiedene Lernregeln. Alle paar Monate stellt ein Forscherteam ein neues Verfahren vor, in der Hoffnung, damit endlich das Ei des Kolumbus gefunden zu haben. Diese neuen Lernregeln haben in vielen Fällen direkt etwas mit einem sehr bekannten Algorithmus zu tun, und zwar mit dem Backpropagation Algorithmus 1. Dieser Algorithmus wurde 1986 von Rumelhart, Hinton und Williams [9] vorgestellt, und die Tatsache, daß deren Veröffentlichung liebevoll als Bibel der Neuronalen Netze bezeichnet wird, zeigt schon, wie ungeheuer populär BP ist 2. Wenn also über beaufsichtigtes Lernen gesprochen wird, dann muß auch von BP gesprochen werden, und deshalb wird BP an dieser Stelle als erstes einer ganzen Reihe von Lernverfahren vorgestellt. 3.2 Die Delta Regel Das Ziel von beaufsichtigtem Lernen ist es ja stets, durch Änderung (oder Aktualisierung ) der Gewichte, ein Neuronales Netz eine (durch Ein-/Ausgabe Paare) vorgegebene mathematische Abbildung erlernen zu lassen. Das Netz soll dabei bei Eingabe eines bestimmten Musters das zugehörige Ausgabemuster erzeugen. Wie die Gewichte zur Erreichung dieses Ziels geändert werden sollen, wird durch eine sogenannte Lernregel festgelegt. BP basiert auf der Verallgemeinerung einer sehr einfachen Lernregel für zweischichtige Netze (für Netze also, die lediglich eine Eingabe- und eine Ausgabeschicht besitzen, aber keinerlei verborgene Neuronen), der sogenannten Delta Regel 3. Ganz abstrakt, unter Zugrundelegung der in Abschnitt 2 eingeführten Bezeichnungen, hat die Delta Regel folgende Gestalt: 465 #87 9;: 5 # 1< 5 #>= 5 7 / = (1) BADCE #87 GFIH #K7ML J 425 #K7 (2) Man sieht hier schon an der Verwendung des Indexes N, daß diese Lernregel fortlaufende Aktualisierung verwendet. N ist hier somit der Index des aktuellen Ein-/Ausgabe Paares. Bei diesem Verfahren macht man also nichts anderes, als dem System von Zeit zu Zeit symbolisch auf die Finger zu klopfen. Man gibt nämlich der Eingabeschicht den Eingabevektor (die 7 s), 1 in der Folge abgekürzt mit BP 2 neue Lernalgorithmen sind in den meisten Fällen entweder Weiterentwicklungen von BP (damit werden wir uns in Abschnitt 4 beschäftigen) oder sie werden zusammen mit BP auf dasselbe Problem angesetzt, um ihre vermeintliche Überlegenheit zu demonstrieren 3 manchmal wird diese Regel auch als Widrow-Hoff-Regel bezeichnet, der Name Delta Regel gefällt mir aber besser, da er direkt auf den Aufbau der Regel schließen läßt

10 ' ' Beaufsichtigtes Lernen Seminar NEURONALE NETZE 8 läßt das System den Ausgabevektor (die # s) an der Ausgabeschicht berechnen, vergleicht dann 5 tatsächliche mit gewünschter Ausgabe (daher ( # 1O 5 # ) ) und ändert die entsprechenden Gewichte proportional (mit Proportionalitätsfaktor 9 ) zur 465 entstehenden Differenz. Daß in der Formel zur Berechnung von #K7 5 auch noch 7 mit eingeht, hat damit zu tun, daß es keinen Sinn machen würde, das Gewicht von Eingabe Neuron nach Ausgabe Neuron P zu verändern, wenn der Fehler an Neuron P (also ( # 1O # )) gar nicht von Neuron verursacht wurde, sondern von anderen Eingabe Neuronen ( 7 / 4 impliziert dann nämlich 7 / Q ). Im übrigen sollte die Änderung von #K7 nach der Präsentation des Ein-/Ausgabe Paares N umso größer sein, je mehr #K7 zum Fehler bei der Präsentation N 5 beigetragen hat (je größer also 7 ist). 3.3 Das Gradienten Verfahren Daß die Delta Regel auch wirklich funktioniert, daß durch sie also die Gewichte so eingestellt werden, daß der Gesamtfehler minimal 4 wird, das hängt mit dem aus der Mathematik bekannten Minimierungsverfahren durch Gradienten Abstieg (oder kurz: Gradienten Verfahren) zusammen. Bevor ich diesen Zusammenhang aber genauer beleuchte, möchte ich allgemein auf das Gradienten Verfahren eingehen. Das Gradienten Verfahren ist ein Iterationsverfahren, das YX zur Minimierung mehrdimensionaler gegeben. Gesucht ist dasjenige Funktionen verwendet wird. Sei z. B. eine Funktion RTSVU W U W '[Z, für das R : '\Z = minimal wird. Gegeben sei weiterhin ein Startpunkt 'V] ^: '[] 'V] =. Aus der Analysis ist nun bekannt, daß der Vektor _a`cbed R : ' ] = gfihj hk l ausgehend vom Punkt '[] angibt. Für den nächsten Iterationsschritt wählt man demzufolge einen Punkt ', der von ' ] aus in genau der entgegengesetzten Richtung cp 5 erreichbar ist. Anschaulich gesprochen ist das die Richtung, in die eine Kugel, die im U W im Punkt : '[] R : 'V] == auf den Graphen von R aufgesetzt und losgelassen würde, losrollen würde. Dies wiederholt man im Punkt ', um ' die Richtung des stärksten Anstiegs von R : 'V] = h>j hkm : '[] =on zu erhalten, usw., bis der Gradient von R (zumindest näherungsweise). Allgemein erhält man also die Vorschrift p 1rqtsD_u` bed R : ' = :vqw@ / = verschwindet wobei q die Größe des Schrittes bestimmt, der in der jeweiligen Iteration in der Richtung des steilsten Abstiegs gewählt wird. Wären die Schritte infinitesimal klein, so würde die Folge R : 'V] = R : ' = R : '\Z = streng monoton abfallen, und man würde (auf jeden Fall) den Punkt ' Z finden, auch wenn dies dann unendlich lange dauern würde. Beim mathematischen Gradientenverfahren wird daher der Parameter q durch zusätzliche Optimierungsverfahren im jeweiligen Iterationsschritt so groß wie möglich gewählt. Der Einfachheit halber (auch im Hinblick auf die spätere Verwendung bei BP) wählt man q hier konstant, und dabei groß genug, damit die Konvergenz nicht zu lange dauert. Damit ist aber auch klar, daß es sich hier nur um ein Näherungsverfahren handelt, daß also kein hundertprozentiger Gradienten Abstieg durchgeführt wird. Man muß aufpassen, daß der Parameter q nicht zu groß gewählt wird, sonst ist Konvergenz eventuell gar nicht mehr möglich. Als einfaches Beispiel möchte ich die Funktion R : ' ) = yx L ' L ) minimieren, die in Abbildung 3.1 dargestellt ist. 4 im Idealfall natürlich 0 5 also in der Richtung des steilsten Abstiegs (3)

11 5 x 5 ) & ' Beaufsichtigtes Lernen Seminar NEURONALE NETZE 9 R : ' ) = Abbildung 3.1: R : ' ) = yx L ' Man sieht sofort, daß die Funktion R L ) (Parabolid) ihr globales (und einziges lokales) Minimum im Punkt : ' ) = z: / / = hat. Als Startpunkt wähle ich : ' ] ) ] = {: -/c/ - = und als q den Wert / ~}. Da _a`cbud R : ' ) = : ' ) =, erhält man nacheinander folgende Näherungen (die Iteration wurde so lange durchgeführt, bis die Abweichung beider Werte ' und ) vom gewünschten Optimalwert jeweils kleiner als -/e waren): : ' ) = ^:?ƒ / ƒ ~ = : ' ) = ^: - - ~ = : 'V ) = ^: ƒ / ˆ = : 'VŠ ) Š = ^: ~ / ~} / ˆ = : ' ) = ^: - /Œ ƒ / - c c = : 'V ) = ^: / ƒ / / / ƒ - = : '[Ž ) Ž = ^: / - }c ƒ / / - c / = : ' ) =, : / / = es werden also lediglich 18 Iterationsschritte benötigt, um das Minimum zu finden 6. Dies soll zur Veranschaulichung des Gradienten Verfahrens einmal genügen. Ich möchte nun zeigen, daß die Delta Regel auch nichts anderes macht. (die Fehlerfunktion) gegeben durch: Sei hierzu für jedes Ein-/Ausgabe Paar N die Funktion 5 - # : 5 # 1< 5 # = (P läuft über alle Indizes der Ausgabeneuronen) (4) Außerdem nehmen wir an, daß die Aktivierungsfunktionen der Ausgabeneuronen linear sind, daß also gilt: 5 # 7 #K7 5 7 ( läuft hier über alle Indizes der Eingabeneuronen) (5) Ich werde nun zeigen, daß die Delta Regel unter diesen Voraussetzungen genau eine Minimierung der Funktion (aufgefaßt als abhängig von den Gewichten #K7 ) durch Gradienten Abstieg implementiert. 6 bei š > œ verringert sich die Anzahl der benötigten Iterationsschritte auf 11, bei ž braucht man gar nur einen Schritt; bei [ OŸ aber oszilliert das Verfahren zwischen den Punkten ŸI Ÿ8 und tÿi tÿ8

12 Beaufsichtigtes Lernen Seminar NEURONALE NETZE 10 Der Gradient von Für eine solche partielle Ableitung gilt nun: 1< #K7 bezüglich der Gewichte #87 besteht ja aus den partiellen Ableitungen h hªe. 1 5 # 5 # #K7 : 5 # 1< 5 #>= si 5 # #87 (Gleichung (4)) : 5 # 1< 5 #>= 5 7 (Gleichung (5)) 4 5 #87 (Gleichung (1)) (eindimensionale Kettenregel) Daraus folgt also, daß die Anwendung der Delta Regel gerade einer Minimierung der Funktion durch Gradienten Abstieg entspricht. Falls der Proportionalitätsfaktor 7 9 klein genug ist, so entspricht ein Vorgehen nach der Delta Regel sogar einer Minimierung des Gesamtfehlers! summiert über alle N (näherungsweise) durch Gradienten Abstieg, denn #K7 3.4 Die Verallgemeinerung der Delta Regel 5 #87 Die Delta Regel funktioniert wunderbar bei zweischichtigen Netzen, sie ist einfach, unmittelbar einsichtig und nach dem im letzten Unterabschnitt Gesagten auch mathematisch sinnvoll. Es stellt sich nur das Problem, daß manche (durchaus interessante und realistische) Aufgaben eben nicht von zweischichtigen Netzen gelöst werden können. So wird man es z. B. nicht schaffen, ein Neuronales Netz, das keinerlei verborgene Neuronen besitzt, die bekannte XOR Funktion lernen zu lassen. Für allgemeinere, mehrschichtige Netze ist aber die Delta Regel nicht geeignet, denn sie erfordert die Kenntnis einer gewünschten Ausgabe, und für verborgene Neuronen gibt es nun einmal keine gewüschte Ausgabe (nur für die Ausgabe Neuronen sind Zieldaten festgelegt). BP benutzt nun eine Verallgemeinerung der Delta Regel auf eine umfassendere Klasse von Neuronalen Netzen, und zwar auf die sogenannten feedforward Netze, die keine Zieldaten für verborgene Neuronen benötigen. Für diese Verallgemeinerung muß zunächst vorausgesetzt werden, daß die Aktivierungsfunktion der einzelnen Neuronen differenzierbar sein muß. Außerdem muß diese Funktion (die übrigens nicht unbedingt für jedes Neuron gleich sein muß, dies meistens aber doch ist) nichtlinear sein 8. Oft verwendet man die in Abbildung 2.2 dargestellte sigmoide ( s-förmige ), logistische Funtion : ' = p\ 8±c². 5 Für die Gesamteingabe #, die bei Präsentation N an dem (verborgenen oder Ausgabe ) Neuron P anliegt sowie deren Ausgabe 5 # soll nun folgendes gelten: 5 #z³ Cv #K7 5 7 L µ # (6) 7 5 # ³ Cv : 5 # = (7) Dabei ist µ # der Bias des Neurons P. Er kann als Gewicht einer Verbindung interpretiert werden, die ein Neuron, das an seinem Ausgang stets den Wert - anliegen hat, mit dem Neuron P verbindet und wie eine Art negativer Schwellwert wirkt. Außerdem gilt für ein Eingabe Neuron : (die 7 wird auch Lernrate genannt 8 ein paar kluge Köpfe konnten zeigen, daß es zu jedem mehrschichtigen Netz mit linearen Aktivierungsfunktionen ein funktional-äquivalentes zweischichtiges Netz gibt

13 ¼ ¼ ¼ ¼ ¼ Beaufsichtigtes Lernen Seminar NEURONALE NETZE 11 Aktivierungen der Eingabe Neuronen ergeben sich also direkt aus dem Eingabemuster, es wird hier nicht die Aktivierungsfunktion angewendet). Es wird sich später herausstellen, daß wir die Ableitung der Aktivierungsfunktion benötigen, ich möchte diese daher hier schon bereitstellen: : ' = - - L k [¹ : ' = 1 - : :I1 - L k = k = 5 # 5 # - - L k<º L k[» y 5 # : - 1< 5 # = (8) Nun (endlich) kann man herangehen, die Delta Regel zu verallgemeinern 9. Will man erreichen, daß (wie bei der Delta Regel) eine Minimierung der Fehlerfunktion (Gleichung 4) durch Gradienten Abstieg erfolgt, so muß man dafür sorgen, daß der Wert, mit dem ein Gewicht im Anschluß an die Präsentation N aktualisiert wird (das Delta ), proportional zur partiellen Ableitung der Fehlerfunktion nach dem jeweiligen Gewicht ist. Genauer gesagt muß also gelten: 465 #K7 ^1< #K7 Nun ist es zunächst einmal hilfreich, zu wissen, wie diese partiellen Ableitungen überhaupt berechnet werden können. Ich zeige dazu vorher eine Hilfseigenschaft und nehme dafür folgende Setzung vor: 5 #½³ ¾1 Cv 5 # 5 # s sollen Fehlersignale heißen. Die Berechnung eines Fehlersignals ist abhängig davon, ob Die das zugehörige Neuron ein Ausgabe Neuron oder ein verborgenes Neuron ist. I. (P Ausgabe Neuron) II. (P verborgenes Neuron) 9 dies ist jetzt der eigentliche Kern von BP 5 # 1 5 # (Definition) 1 5 # 5 # 5 # (eindimensionale Kettenregel) # : # - 1< 5 #>= (Gleichung (8)) 5 # : 5 # 1< 5 # = 5 # : - 1r 5 # = (Gleichung (4)) (9) 5 # 1 5 À1 5 # # 5 # 5 ^1 # 5 5 # : # - 1< 5 #>= (s. o.) 1 5 # : - 1< 5 5 #>= 5 5 # (mehrdim. Kettenr.) 1 5 # : - 1< 5 #>= 5 # (Gleichung (6))

14 5 ¼ ¼ ¼ 5 ¼ ¼ ¼ ¼ Beaufsichtigtes Lernen Seminar NEURONALE NETZE 12 5 # 5 # : - 1< 5 #>= 5 # (Definition) (10) Die Fehlersignale der Ausgabe Neuronen werden also direkt (ähnlich wie in der Delta Regel) berechnet und die Fehlersignale der verborgenen Neuronen rekursiv aus den Fehlersignalen der darüber liegenden Schichten. Die Eingabe Neuronen haben weder eingehende Gewichte noch Fehlersignale. Diese Rückwärts Ausbreitung der Fehlersignale hat übrigens auch zu dem Namen Backpropagation geführt. Mit all dieser Vorarbeit ist es nun ein leichtes, die partiellen Ableitungen Negat) zu berechnen. Es folgt nämlich: 1< # # # # # # #K7 5 # 5 7 (Gleichung (6)) (Definition) (eindimensionale Kettenregel) 5aÁ #K7 (bzw. deren Nun muß man nur noch einen Proportionalitätsfaktor (oder eine Lernrate) 9 wählen, und schon ergibt sich mit 465 # # 5 7 (11) in Verbindung mit Gleichung 2 die Verallgemeinerug der Delta Regel auf beliebige feedforward Netze. Technisch wird das Verfahren so realisiert, daß man zuerst in einem Vorwärts Durchlauf alle 5 Werte # bzw. 5 # 5 berechnet und dann in einem Rückwärts Durchlauf die Fehlersignale # und daraus die Werte 465 #K7 für die Aktualisierung. 3.5 Einige Feinheiten des BP Algorithmus Im Prinzip funktioniert BP alleine unter Benutzung der im vorangegangenen Unterabschnitt aufgeführten grundlegenden Gleichungen für # bzw. #87. Es gibt allerdings Beschleunigungsmethoden, die bereits in [9] angegeben wurden, und die deshalb als direkter Bestandteil des Backpropagation Algorithmus anzusehen sind. Die Biases Zuallererst möchte ich jedoch etwas zu den Biases sagen, auch wenn es sich dabei eigentlich nicht um eine Feinheit von BP speziell, sondern eher um eine Feinheit jedes Lernverfahrens allgemein handelt. Bei genauerem Hinsehen fällt einem nämlich auf, daß im vorangegangenen Abschnitt zwar ständig von der Aktualisierung der Gewichte bzw. von den 465 #87 die Rede ist, nie aber von den Biases. Es stellt sich die Frage, wie man zu deren Werten kommt. Fallen die etwa vom Himmel (d. h. muß man die erraten)? Nun, Gott sei Dank ist hier keine Raterei vonnöten. Man kann die Biases genauso lernen lassen, wie jedes andere Gewicht auch 10, denn im Grunde sind Biases (wie schon gesagt) nichts anderes als Eingangs Gewichte von einem Neuron kommend, das permanent den Wert - liefert. 10 das ist auch der Grund dafür, warum es für die Biases keine extra Lernregel gibt

15 ¼ Beaufsichtigtes Lernen Seminar NEURONALE NETZE 13 Die Lernrate Ein anderes Problem (das nun aber wirklich speziell mit BP zusammenhängt) ist die Größe der Lernrate 9. Wie im Zusammenhang mit dem Gradienten Verfahren bereits erläutert, müßten für eine exakte Minimierung durch Gradienten Abstieg infinitesimal kleine Schritte gewählt werden, was dazu führen würde, daß man unendlich lange brauchen würde (vor allem dann, wenn sich ein Iterationspunkt weit entfernt vom gesuchten Optimum befindet). Man muß daher die Schritte vergrößern und dabei in Kauf nehmen, daß das ganze dann nur noch ein Näherungsverfahren ist. Nun gilt allgemein, daß die Größe eines Schrittes umso größer ist, je größer der Wert der Lernrate ist. Man wird demnach bestrebt sein, die Lernrate möglichst groß zu wählen. Dabei ist allerdings zu beachten, daß bei großer Lernrate das Verfahren schnell instabil werden kann. Wird in der Iteration nämlich ein Punkt erreicht, der an der Wand einer Schlucht hinsichtlich des Graphen 11 von gelegen ist, so wird die Steigung in diesem Punkt (d. h. die partielle Ableitung der Fehlerfunktion nach der Koordinate, die senkrecht zu der Schlucht verläuft) sehr groß sein, und wegen der großen Lernrate wird dann ein sehr großer Schritt ausgeführt, der eventuell über das gesuchte Minimum an die gegenüberliegende Wand der Schlucht führt. Die Folge wäre dann, daß das Verfahren zwischen mehreren Punkten rund um das gesuchte Minimum oszilliert. Der Momentum Term Um dieser Gefahr (zumindest teilweise) auszuweichen, kann man auf den Aktualisierungswert einen sogenannten Momentum Term draufaddieren, der das Verfahren etwas träger, also nicht so anfällig für plötzliche Änderungen der Steigung macht. Dies sieht dann so aus: 465 #K7 : L - = 9 5 # 5 7 L3 465 #K7 : = (12) Mit anderen Worten: die Änderung des Gewichts #K7 im Anschluß an die : L - = te Präsentation ist jetzt nicht mehr nur abhängig vom aktuellen Gradienten, sondern auch von der Änderung im Zuge der ten Präsentation 12. Der Parameter  (der zwischen 0 und 1 liegt) bestimmt, wie stark der Einfluß des vorherigen Schrittes auf den aktuellen ist. Der Momentum Term leistet aus der Sicht vieler Autoren nicht das, was er leisten soll (nämlich eine Beschleunigung durch Ermöglichung der Erhöhung der Lernrate), und es sei, so die Meinung vieler Autoren, eine üble Probiererei, bis man den optimalen Wert für  gefunden habe. Ich persönlich muß aber sagen, daß ich sehr gute Erfahrungen mit dem Momentum Term gemacht habe, und zwar bei der Lösung des XOR -Problems (siehe hierzu das Listing im Anhang). Die Konvergenz war mit Momentum Term viel schneller als ohne, und auch die Suche nach einem optimalen Wert für  war nicht schwer (Werte nahe bei -, d. h. / ~ und größer scheinen sehr gut geeignet zu sein). Warum der Parameter  zwischen 0 und 1 liegen muß, ist vielleicht nicht unmittelbar klar, man kann sich den Sinn dieser Forderung jedoch ganz leicht anhand einer Skizze (s. Abbildung 3.2) klarmachen. 11 man sollte sich diese Ausdrucksweise nur anhand des dreidimensionalen Raums klarmachen, da man sich sonst, angesicht der üblicherweise sehr vielen Dimensionen des Gewichtsvektors, nur unnötige Knoten ins Gehirn macht 12 man beachte, daß man sich damit immer mehr vom reinen Gradienten Verfahren entfernt

16 Æ Beaufsichtigtes Lernen Seminar NEURONALE NETZE 14 Abbildung 3.2: Konvergenz ohne Momentum 13 Man sieht, daß (ohne Momentum!) die vorgenommenen Schritte am Ende, in der Nähe des Minimums, (im Idealfall) immer kleiner werden. Bei einem Momentum Faktor größer oder gleich 1 würde dies zur Folge haben, daß der Beitrag, der vom Momentum Term her kommt größer wäre als der Beitrag des Gradienten Abstiegs Terms. Würde die Konvergenz tendenziell so aussehen, wie auf dem linken Bild von Abbildung 3.2, wo aufeinanderfolgende Aktualisierungsvektoren grundsätzlich unterschiedliche Orientierungen haben, dann kann in diesem Fall (ÂÄà - ) das System nicht konvergieren. Nur in Spezialfällen, etwa wenn die Konvergenz eher so verläuft, wie auf dem rechten Teilbild von Abbildung 3.2, wo die Richtungen aufeinanderfolgender Aktualisierungsvektoren beinahe gleich sind 14, kann manchmal eine Lösung mit  - (oder im Extremfall noch größer) gefunden werden. Es ist klar, daß Â nicht kleiner als 0 sein darf, da sonst in dem weiter oben beschriebenen Fall eines Sprungs über ein Minimum, von einer Wand einer Schlucht zur gegenüberliegenden, der nachfolgende Schritt durch den Momentum Term nicht (wie beabsichtigt) verkleinert wird 15, sondern im Gegenteil noch vergrößert wird. Die Gewichte Ein anderes Problem von BP (und übrigens von sehr vielen Lernverfahren) hängt mit Symmetrie zusammen. Die Gewichte müssen nämlich zu Beginn mit gewissen Werten initialisiert werden. Doch wie sind diese Werte zu wählen? Angenommen, alle Gewichte würden mit demselben Wert initialisiert. Wenn nun das gesamte Netz symmetrisch aufgebaut ist und alle Neuronen einer Schicht gleichstark aktiviert sind, dann führt das dazu, daß die Fehlersignale, die von oben nach unten Schicht für Schicht weitergegeben werden, jeweils identisch sind (dies kann man sich einfach an den Formeln der verallgemeinerten Delta Regel klarmachen) und mithin werden auch die Gewichte, die von ein und derselben Schicht von Neuronen ausgehen, alle mit haargenau demselben Wert aktualisiert. Folge ist, daß Gewichte zwischen zwei Neuronen Schichten immer jeweils gleich bleiben (die Gewichte können zwar ihre Werte ändern, aber wenn ein Gewicht zwischen einer Schicht Å und einer Schicht um den Wert ' aktualisiert wird, dann werden gleichzeitig auch alle anderen Gewichte zwischen Schicht Å Æ und Schicht um ' aktualisiert). Wenn es nun zur Lösung des spezifischen Problems notwendig ist, daß verschiedene Gewichte verwendet werden (zwischen zwei Schichten), so kann der Algorithmus die Lösung logischerweise nie finden. Um dieses Problem zu umgehen, kann man, wie in [9] vorgeschlagen wird, die Gewichte mit kleinen, individuell zufällig gewählten Werten initialisieren der Anschaulichkeit halber wurde hier der Konvergenzprozeß vereinfacht zweidimensional dargestellt; das gesuchte lokale (und hoffentlich auch globale) Minimum wurde durch einen dickeren Punkt angedeutet; die Länge der Kanten gibt den Betrag der Aktualisierung der Gewichte an, die Orientierung der Kanten deren Richtung, und die Ecken die jeweilige Lage des Gewichtsvektors 14 daß sie nicht genau gleich sind, ist Absicht, nicht etwa die Folge einer zittrigen Hand 15 Stichwort: Trägheit 16 was in diesem Zusammenhang klein bedeutet bzw. bedeuten kann, wird im nächsten Unterabschnitt näher erläutert;

17 Beaufsichtigtes Lernen Seminar NEURONALE NETZE 15 Das hill climbing Problem Am Ende dieses Unterabschnitts möchte ich noch kurz erwähnen, daß BP dasselbe Problem wie alle sogenannten hill climbing Algorithmen hat. Beim hill climbing geht es darum, einen Roboter selbständig auf den Gipfel eines Berges gehen zu lassen. Der Roboter kann in alle 4 Himmelsrichtungen sehen (und nur in diese) und entscheidet, in welche Richtung er einen Schritt macht, indem er die 4 Richtungen in bezug darauf, wie steil es in der jeweiligen Richtung nach oben geht, vergleicht. Er wählt dabei stets die Richtung mit dem steilsten Anstieg. Geht es in jeder Richtung gleichsteil nach oben, so wählt der Roboter irgendeinen willkürlichen Schritt (z. B. stets nach Norden), geht es in jeder Richtung bergab, so bleibt er stehen. Es ergeben sich nun mehrere Probleme, von denen das der lokalen Maxima wohl das gravierendste ist. Geht der Roboter nämlich auf einen Hügel, der bei weitem niedriger ist, als der zu erklimmende Berg, so wird er trotzdem auf dem Gipfel des Hügels stehenbleiben, denn es geht dort in allen Richtungen bergab, d. h. er wird sein Ziel 17 nie erreichen. Auch wenn er nicht zufällig die richtige Entscheidung trifft, wenn er mehrere Auswahlmöglichkeiten hat, findet er sein Ziel nicht. Schließlich führen Hochplateaus gar zu Endlosschleifen 18. Bei BP ist die Vorgehensweise vollkommen analog zu hill climbing, es wird allerdings nicht nach Maxima, sondern nach Minima gesucht. Statt der Frage, in welcher Richtung es am steilsten bergauf geht, wird der Gradient betrachtet. Ansonsten geht alles analog 19. Insbesondere treten auch analoge Probleme auf: lokale Minima, langgestreckte Ebenen (hier würde der Roboter willkürlich entscheiden müssen, welche Richtung er nimmt), etc. Weder beim hill climbing, noch bei BP ist also garantiert, daß man eine Lösung findet. Wie oft dies nicht der Fall ist, hängt zum einen vom Zufall ab und zum anderen beim hill climbing von der Beschaffenheit der Landschaft. Das Analogon zu Landschaft heißt bei BP Gewichtsraum. Kurz gesagt folgt also: die Konvergenzeigenschaften von BP hängt von der Beschaffenheit des Gewichtsraums des konkreten Problems ab. 3.6 Einige konkrete Anwendungsbeispiele In diesem Unterabschnitt möchte ich einige Standardprobleme (sogenannte benchmarks) vorstellen. Probleme also, die einem immer wieder über den Weg laufen, wenn irgendwelche neuen Lernverfahren veröffentlicht werden und mit BP in bezug auf Performance verglichen werden sollen. Das Gleichheitsproblem Ein Problem, das in diesem Zusammenhang sehr oft präsentiert wird, ist das sogenannte Gleichheits Problem. Dabei geht es darum, festzustellen, ob eine ungerade Anzahl von Einsen unter einer Menge von binären Werten ist oder nicht. Benutzt wird dazu ein Neuronales Netz mit einer Schicht bestehend aus Eingabe Neuronen, einer verborgenen Schicht (prinzipiell können auch mehrere, endlich viele verborgene Schichten verwendet werden) und einem einzigen Ausgabe Neuron, welches genau dann 1 liefern soll, wenn unter den Werten eine ungerade Anzahl von Einsen ist (und sonst 0). Es ist meines Erachtens nach fraglich, ob sich das Gleichheitsproblem wirklich zum Testen von Lernverfahren eignet, denn ein oft angestrebtes Ziel des beaufsichtigten Lernens ist es ja, nur eine Teilmenge der Ein-/Ausgabe Paare vom System wirklich lernen zu lassen, und für die restlichen es sei an dieser Stelle nur festgehalten, daß sich hier [9] nicht sonderlich exakt ausdrückt 17 den Gipfel des Berges bzw. das globale Maximum 18 der Roboter kann nie stehenbleiben, da es stets noch eine Richtung gibt, in der es nicht bergab geht 19 bei BP werden lediglich viel mehr Dimensionen betrachtet (zumindest meistens) als die beiden Dimensionen der 4 Himmelsrichtungen

18 Ç Ç Beaufsichtigtes Lernen Seminar NEURONALE NETZE 16 Paare darauf zu hoffen, daß das System durch Generalisierung bzw. Verallgemeinerung trotzdem die richtige Lösung liefert, wenn nur die Trainingsdaten hinreichend repräsentativ ausgewählt sind 20. Das Gleichheitsproblem ist im Hinblick auf eine Untersuchung der Generalisierungsfähigkeit denkbar ungeeignet, denn bei der Verallgemeinerung nutzt man die Eigenschaft aus, daß durch Neuronale Netze ähnliche Eingabemuster auf ähnliche Ausgabemuster abgebildet werden. Beim Gleichheitsproblem ist es aber gerade so, daß Eingabemuster, die sich nur in einer einzigen 1 unterscheiden (Muster also, die sich sehr ähnlich sind), vollkommen unterschiedliche Ausgaben liefern sollen. Gerade aus diesem Grund aber wird das Gleichheitsproblem als sehr schwer angesehen (zumindest was dessen Realisierung mit Hilfe von Neuronalen Netzen angeht), so daß man dieses Problem gerade zum Testen neuer Lernalgorithmen (quasi als Herausforderung für das neue Verfahren) für besonders geeignet hält. Das XOR Problem ist das Gleichheitsproblem gleichbedeutend mit dem XOR Problem 21, welches mit dem Programm aus Anhang A, aber auch in [9], eingehend untersucht wurde, und zwar unter Zugrundelegung der in Abbildung 3.3 dargestellten Struktur. Für Í Ê Ì ÉÊ Í Ê Ë ÉÌ ÉË Í ÌoÎ Í Ë8Ï È Í ÌÏ Í ËIÎ É Ì Í Ê Ì 1 Í Ê Ë Í ÌoÎ Í ËÏ È Í ÌIÏ Í ËIÎ É Ê É Ë 1 1 Abbildung 3.3: Struktur zur Lösung des XOR Problems 22 In einem ersten Testlauf (vgl. Anhang B) gab ich mich zufrieden, wenn der Wert des Ausgabeneurons bei keinem der vier Ein-/Ausgabepaare um mehr als / / vom gewünschten Wert abwich. Nach durchschnittlich gut ˆ zyklischen Durchläufen durch die vier Ein-/Ausgabe Paare (d. h. 27 Epochen), wurde dabei bereits eine Lösung gefunden. In [9] ist aber ein Durchschnitt von ungefähr 245 Epochen angegeben, allerdings wurde dabei eine viel kleinere Lernrate verwendet, und auch das Erfolgskriterium war viel strenger : eine Lösung wurde erst dann als solche akzeptiert, wenn bei jedem Ein-/Ausgabe Paar die Abweichung höchstens / / - betrug. Es fällt allerdings auf, daß ich dieses Ergebnis (245) nur dann bestätigen kann, wenn ich bei dieser Wahl der Parameter die Initialgewichte extrem klein ( 1 / /c/c/c/ - Ð / /c/c/c/ - ) wähle 23, bei normaler Wahl der Initialgewichte 24 ( 1 / - Ð / - ) ergab sich eine viel kürzere Lernzeit (- Epochen), und eine 20 vor allem bei einer sehr großen Anzahl von Ein-/Ausgabe Paaren lohnt sich dieses Vorgehen 21 die vier Ein-/Ausgabe Paare modellieren nämlich gerade die logische XOR Funktion 22 die beiden Teilbilder sind funktional völlig äquivalent, das rechte soll nur den Zusammenhang zwischen den Biases ÑoÒ, ÑoÓ und ÑÔ und den Gewichten hervorheben 23 der Effekt (das schlechte Ergebnis nämlich) kann aber auch durch einen unterschiedlichen Momentum Faktor, der leider in [9] nicht angegeben ist, verursacht worden sein 24 in sinnvollem Verhältnis zu den Werten der späteren endgültigen Lösung

19 Beaufsichtigtes Lernen Seminar NEURONALE NETZE 17 Vergrößerung der Lernrate (bei gleichstrengem Erfolgskriterium!) erbrachte eine Reduzierung der Lernzeit auf etwa ein Fünftel ( ƒ e Epochen). Im fünften und letzten Testlauf habe ich die Parameter zwar nicht geändert, aber ich habe ein Beschleunigungsverfahren angewendet, das in [2] vorgeschlagen wird. Hierbei geht es darum, den flachen Teil der logistischen Funktion )Õ Á - : - L c k = (also dort, wo sich die Funktion 0 bzw. 1 asymptotisch nähert; vgl. Unterabschnitt 2.1 [clipped region]) zu eliminieren. Denn in diesen Regionen ist die Ableitung ) ¹ Ö);: - 1O) = nahe bei Null. Da die Fehlersignale von der Ableitung und die Aktualisierungen von den Fehlersignalen abhängen (vgl. Unterabschnitt 3.4), werden deshalb die in ein Neuron P, dessen Ausgabe # nahe bei 0 oder 1 liegt, eingehenden Gewichte kaum verändert werden 25. Und dies trifft selbst dann zu, wenn P ein Ausgabe Neuron ist und # von # maximal abweicht (auch für solche Neuronen ist es möglich, sich im Laufe einer sehr [sehr] langen Zeit zu erholen und die gewünschte Ausgabe zu liefern, aber der Lernprozeß verzögert sich eben erheblich). Um auch bei diesen Neuronen eine (echte) Aktualisierung der Eingangsgewichte zu ermöglichen, addiert man auf die Ableitung der logistischen Funktion ) ¹ einfach einen konstanten Wert, etwa 0.1, auf. Man berechnet also ) ¹ ³ C );: - 1O) = L / - Folge ist, daß der Wert von ) ¹ nicht mehr zwischen 0 und 0.25, sondern zwischen 0.1 und 0.35 liegt und daß Neuronen, deren Ausgabe nahe bei 0 oder 1 liegt, sich schneller erholen (wenn deren Ausgabe denn wirklich falsch ist). Das Ergebnis dieser Beschleunigung ist beachtlich (die durchschnittliche Lernzeit geht zurück auf Epochen und die Standardabweichung verschwindet fast völlig). Um Ausreißer, bei denen der Algorithmus einfach in einem lokalen Minimum steckenbleibt und daher keine Lösung findet, sinnvoll herausfiltern zu können, habe ich die Gewichte jeweils neu initialisiert, wenn der Algorithmus nach einer gewissen Zahl von Epochen (der restart number ), die abhängig von der durchschnittlich zu erwartenden Lernzeit gewählt wurde, keine Lösung gefunden hat. Die gewonnenen Resultate habe ich in Tabelle 3.4 zusammengestellt. Testlauf # I II III IV V Z Restart number Erfolgskriterium Initialgewichte ( ) 0.5 -/ 0.1 Momentum Faktor Lernrate Durchschnitt (Epochen) Standardabweichung Stichprobenumfang 100 Tabelle 3.4: Resultate beim XOR Problem Schon an diesem kleinen und sehr einfachen Beispiel kann man sehen, welch großen Einfluß die vielen Parameter (Lernrate, Momentum Faktor, Erfolgskriterium, restart number, Größe der Initialgewichte) auf die Dauer einer Lösungsfindung haben können. Bereits eine kleine Änderung (etwa der Lernrate um / ~ nach oben oder unten) kann zu einer erheblichen Vergrößerung der Lernzeit 26 oder 25Ø Û enthält nämlich den Faktor Ù Ÿ ÚÙ (also just die Ableitung der logistischen Funktion) hier wurde zusätzlich eine verschobene Ableitung für die logistische Funktion verwendet 26 manchmal um mehrere Zehnerpotenzen

20 Beaufsichtigtes Lernen Seminar NEURONALE NETZE 18 gar zu Divergenz führen, und die Suche nach den passenden Parameterwerten kann ein unheimlich langwieriger und frustrierender Prozeß sein (eine Erfahrung, die ich selbst machen mußte). Die schier unendlich vielen Möglichkeiten, ein Ergebnis zu erhalten, sind auch der Grund dafür, daß die Ergebnisse verschiedener Autoren mit dem scheinbar gleichen Lernverfahren, angewendet auf das identische Problem, so schwer vergleichbar sind. Der eine benutzt ein strengeres Erfolgskriterium, der andere verzichtet auf den Momentum Term, ein dritter initialisiert die Gewichte mit viel kleineren Werten und ein vierter verwendet eigene Beschleunigungsmethoden. Das Codierungsproblem Ein ganz anderes benchmark Problem als das Gleichheitsproblem ist das sogenannte Codierungsproblem. Hier besteht das Netz aus drei Schichten: einer Eingabe Schicht, einer verborgenen Schicht und einer Ausgabe Schicht. Ein- und Ausgabeschicht bestehen jeweils aus Neuronen, die verborgene Schicht gewöhnlich aus weniger. Gelernt werden sollen Ein-/Ausgabe Paare, wobei zum einen in jedem Eingabemuster genau ein Eingabewert 27 - ist (und alle anderen / ) und zum anderen die Ein- und Ausgabemuster jeweils identisch sind. Das Netz muß also die Eingabe gleichsam in den verborgenen Neuronen codieren und dann für die Ausgabe wieder decodieren. Möchte man überall (also auch in den verborgenen Neuronen) nur binäre (0/1) Aktivierungen haben, so ist klar, daß die verborgene Schicht mindestens aus ÜÐÝcÞ Neuronen bestehen muß, denn à ÜÐÝcÞ ß falls genau ÜÐÝcÞ verborgene Neuronen vorhanden sind, dann ergibt sich hierbei eine vollständige binäre Codierung. Im allgemeinen läßt man aber dem System ein bißchen Spielraum, indem mehr verborgene Neuronen verwendet werden, z. B. wird in [7] für BP das Codierungsproblem getestet. Als durchschnittliche Lernzeit werden dabei übrigens - - Epochen angegeben. Andererseits ist es aber auch nicht unüblich, weniger als ÜÐÝcÞ verborgene Neuronen vorzusehen 28. Hier muß man sich dann allerdings von der Forderung trennen, nur binäre Aktivierungen haben zu wollen, d. h. man muß auch Zwischenwerte zulassen. Die gestellte Aufgabe kann prinzipiell wohl auch mit Hilfe von BP gelöst werden, doch scheint die Codierung mit Zwischenwerten (zwischen 0 und 1) für BP sehr schwierig, so daß ebenfalls in [7] zu lesen ist, daß BP es (trotz vieler Versuche) nicht geschafft hat, eine Lösung für das Codierungsproblem in weniger als - /c/c/ (!) Epochen zu finden. Es gibt noch viele andere benchmark Probleme, wie etwa das Zweispiralenproblem, das T-C- Problem oder das Zahlenerkennungsproblem. Sie alle hier im Detail vorzustellen würde meines Erachtens nach zu weit führen. An dieser Stelle sollen also das Gleichheits und das Codierungsproblem zur Veranschaulichung der vielfältigen Anwendungsmöglichkeiten von BP einmal genügen. 3.7 Vor- und Nachteile von BP BP ist der wohl bekannteste und vielleicht auch beliebteste Lernalgorithmus in Verbindung mit beaufsichtigtem Lernen durch Fehlerkorrektur. Dies hat sicher seine Gründe. Sicher ist aber auch, daß nicht alles an BP gut ist, daß im Gegenteil einiges verbesserungswürdig erscheint (was dann Thema des folgenden Abschnitts über Modifikationen von BP sein wird). Ich möchte in diesem Unterabschnitt, am Ende des Abschnitts über BP, die Vor- und Nachteile aufzeigen, die den Backpropagation Algorithmus charakterisieren. 27 und zwar jeweils ein anderer 28 das resultierende Netz ist dann ein sogenannter Tight Encoder Ã

Primzahlen und RSA-Verschlüsselung

Primzahlen und RSA-Verschlüsselung Primzahlen und RSA-Verschlüsselung Michael Fütterer und Jonathan Zachhuber 1 Einiges zu Primzahlen Ein paar Definitionen: Wir bezeichnen mit Z die Menge der positiven und negativen ganzen Zahlen, also

Mehr

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren Lineargleichungssysteme: Additions-/ Subtraktionsverfahren W. Kippels 22. Februar 2014 Inhaltsverzeichnis 1 Einleitung 2 2 Lineargleichungssysteme zweiten Grades 2 3 Lineargleichungssysteme höheren als

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte 50. Mathematik-Olympiade. Stufe (Regionalrunde) Klasse 3 Lösungen c 00 Aufgabenausschuss des Mathematik-Olympiaden e.v. www.mathematik-olympiaden.de. Alle Rechte vorbehalten. 503 Lösung 0 Punkte Es seien

Mehr

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen Gleichungen Lösen Was bedeutet es, eine Gleichung zu lösen? Was ist überhaupt eine Gleichung? Eine Gleichung ist, grundsätzlich eine Aussage über zwei mathematische Terme, dass sie gleich sind. Ein Term

Mehr

Grundlagen der Theoretischen Informatik, SoSe 2008

Grundlagen der Theoretischen Informatik, SoSe 2008 1. Aufgabenblatt zur Vorlesung Grundlagen der Theoretischen Informatik, SoSe 2008 (Dr. Frank Hoffmann) Lösung von Manuel Jain und Benjamin Bortfeldt Aufgabe 2 Zustandsdiagramme (6 Punkte, wird korrigiert)

Mehr

1 Mathematische Grundlagen

1 Mathematische Grundlagen Mathematische Grundlagen - 1-1 Mathematische Grundlagen Der Begriff der Menge ist einer der grundlegenden Begriffe in der Mathematik. Mengen dienen dazu, Dinge oder Objekte zu einer Einheit zusammenzufassen.

Mehr

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Vollständigkeit halber aufgeführt. Gehen wir einmal davon aus, dass die von uns angenommenen 70% im Beispiel exakt berechnet sind. Was würde

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Persönliche Zukunftsplanung mit Menschen, denen nicht zugetraut wird, dass sie für sich selbst sprechen können Von Susanne Göbel und Josef Ströbl

Persönliche Zukunftsplanung mit Menschen, denen nicht zugetraut wird, dass sie für sich selbst sprechen können Von Susanne Göbel und Josef Ströbl Persönliche Zukunftsplanung mit Menschen, denen nicht zugetraut Von Susanne Göbel und Josef Ströbl Die Ideen der Persönlichen Zukunftsplanung stammen aus Nordamerika. Dort werden Zukunftsplanungen schon

Mehr

1. Standortbestimmung

1. Standortbestimmung 1. Standortbestimmung Wer ein Ziel erreichen will, muss dieses kennen. Dazu kommen wir noch. Er muss aber auch wissen, wo er sich befindet, wie weit er schon ist und welche Strecke bereits hinter ihm liegt.

Mehr

6.2 Scan-Konvertierung (Scan Conversion)

6.2 Scan-Konvertierung (Scan Conversion) 6.2 Scan-Konvertierung (Scan Conversion) Scan-Konvertierung ist die Rasterung von einfachen Objekten (Geraden, Kreisen, Kurven). Als Ausgabemedium dient meist der Bildschirm, der aus einem Pixelraster

Mehr

ONLINE-AKADEMIE. "Diplomierter NLP Anwender für Schule und Unterricht" Ziele

ONLINE-AKADEMIE. Diplomierter NLP Anwender für Schule und Unterricht Ziele ONLINE-AKADEMIE Ziele Wenn man von Menschen hört, die etwas Großartiges in ihrem Leben geleistet haben, erfahren wir oft, dass diese ihr Ziel über Jahre verfolgt haben oder diesen Wunsch schon bereits

Mehr

LU-Zerlegung. Zusätze zum Gelben Rechenbuch. Peter Furlan. Verlag Martina Furlan. Inhaltsverzeichnis. 1 Definitionen.

LU-Zerlegung. Zusätze zum Gelben Rechenbuch. Peter Furlan. Verlag Martina Furlan. Inhaltsverzeichnis. 1 Definitionen. Zusätze zum Gelben Rechenbuch LU-Zerlegung Peter Furlan Verlag Martina Furlan Inhaltsverzeichnis Definitionen 2 (Allgemeine) LU-Zerlegung 2 3 Vereinfachte LU-Zerlegung 3 4 Lösung eines linearen Gleichungssystems

Mehr

Lineare Funktionen. 1 Proportionale Funktionen 3 1.1 Definition... 3 1.2 Eigenschaften... 3. 2 Steigungsdreieck 3

Lineare Funktionen. 1 Proportionale Funktionen 3 1.1 Definition... 3 1.2 Eigenschaften... 3. 2 Steigungsdreieck 3 Lineare Funktionen Inhaltsverzeichnis 1 Proportionale Funktionen 3 1.1 Definition............................... 3 1.2 Eigenschaften............................. 3 2 Steigungsdreieck 3 3 Lineare Funktionen

Mehr

Einführung in. Logische Schaltungen

Einführung in. Logische Schaltungen Einführung in Logische Schaltungen 1/7 Inhaltsverzeichnis 1. Einführung 1. Was sind logische Schaltungen 2. Grundlegende Elemente 3. Weitere Elemente 4. Beispiel einer logischen Schaltung 2. Notation von

Mehr

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über Güte von s Grundlegendes zum Konzept der Güte Ableitung der Gütefunktion des Gauss im Einstichprobenproblem Grafische Darstellung der Gütefunktionen des Gauss im Einstichprobenproblem Ableitung der Gütefunktion

Mehr

!(0) + o 1("). Es ist damit möglich, dass mehrere Familien geschlossener Orbits gleichzeitig abzweigen.

!(0) + o 1(). Es ist damit möglich, dass mehrere Familien geschlossener Orbits gleichzeitig abzweigen. Bifurkationen an geschlossenen Orbits 5.4 167 der Schnittabbldung konstruiert. Die Periode T (") der zugehörigen periodischen Lösungen ergibt sich aus =! + o 1 (") beziehungsweise Es ist also t 0 = T (")

Mehr

Simulation LIF5000. Abbildung 1

Simulation LIF5000. Abbildung 1 Simulation LIF5000 Abbildung 1 Zur Simulation von analogen Schaltungen verwende ich Ltspice/SwitcherCAD III. Dieses Programm ist sehr leistungsfähig und wenn man weis wie, dann kann man damit fast alles

Mehr

1 topologisches Sortieren

1 topologisches Sortieren Wolfgang Hönig / Andreas Ecke WS 09/0 topologisches Sortieren. Überblick. Solange noch Knoten vorhanden: a) Suche Knoten v, zu dem keine Kante führt (Falls nicht vorhanden keine topologische Sortierung

Mehr

Konzepte der Informatik

Konzepte der Informatik Konzepte der Informatik Vorkurs Informatik zum WS 2011/2012 26.09. - 30.09.2011 17.10. - 21.10.2011 Dr. Werner Struckmann / Christoph Peltz Stark angelehnt an Kapitel 1 aus "Abenteuer Informatik" von Jens

Mehr

RS-Flip Flop, D-Flip Flop, J-K-Flip Flop, Zählschaltungen

RS-Flip Flop, D-Flip Flop, J-K-Flip Flop, Zählschaltungen Elektronik Praktikum / Digitaler Teil Name: Jens Wiechula, Philipp Fischer Leitung: Prof. Dr. U. Lynen Protokoll: Philipp Fischer Versuch: 3 Datum: 24.06.01 RS-Flip Flop, D-Flip Flop, J-K-Flip Flop, Zählschaltungen

Mehr

S/W mit PhotoLine. Inhaltsverzeichnis. PhotoLine

S/W mit PhotoLine. Inhaltsverzeichnis. PhotoLine PhotoLine S/W mit PhotoLine Erstellt mit Version 16.11 Ich liebe Schwarzweiß-Bilder und schaue mir neidisch die Meisterwerke an, die andere Fotografen zustande bringen. Schon lange versuche ich, auch so

Mehr

Gutes Leben was ist das?

Gutes Leben was ist das? Lukas Bayer Jahrgangsstufe 12 Im Hirschgarten 1 67435 Neustadt Kurfürst-Ruprecht-Gymnasium Landwehrstraße22 67433 Neustadt a. d. Weinstraße Gutes Leben was ist das? Gutes Leben für alle was genau ist das

Mehr

SEK II. Auf den Punkt gebracht!

SEK II. Auf den Punkt gebracht! SEK II Profil- und Kurswahl Einbringungspflicht Abitur-Bestimmungen Gesamtqualifikation Auf den Punkt gebracht! 1 Inhaltsverzeichnis Sinn und Zweck dieses Dokuments...3 Profil- und Kurswahl für den 11.

Mehr

Informationsblatt Induktionsbeweis

Informationsblatt Induktionsbeweis Sommer 015 Informationsblatt Induktionsbeweis 31. März 015 Motivation Die vollständige Induktion ist ein wichtiges Beweisverfahren in der Informatik. Sie wird häufig dazu gebraucht, um mathematische Formeln

Mehr

OECD Programme for International Student Assessment PISA 2000. Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland

OECD Programme for International Student Assessment PISA 2000. Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland OECD Programme for International Student Assessment Deutschland PISA 2000 Lösungen der Beispielaufgaben aus dem Mathematiktest Beispielaufgaben PISA-Hauptstudie 2000 Seite 3 UNIT ÄPFEL Beispielaufgaben

Mehr

Lernerfolge sichern - Ein wichtiger Beitrag zu mehr Motivation

Lernerfolge sichern - Ein wichtiger Beitrag zu mehr Motivation Lernerfolge sichern - Ein wichtiger Beitrag zu mehr Motivation Einführung Mit welchen Erwartungen gehen Jugendliche eigentlich in ihre Ausbildung? Wir haben zu dieser Frage einmal die Meinungen von Auszubildenden

Mehr

Professionelle Seminare im Bereich MS-Office

Professionelle Seminare im Bereich MS-Office Der Name BEREICH.VERSCHIEBEN() ist etwas unglücklich gewählt. Man kann mit der Funktion Bereiche zwar verschieben, man kann Bereiche aber auch verkleinern oder vergrößern. Besser wäre es, die Funktion

Mehr

1. Was ihr in dieser Anleitung

1. Was ihr in dieser Anleitung Leseprobe 1. Was ihr in dieser Anleitung erfahren könnt 2 Liebe Musiker, in diesem PDF erhaltet ihr eine Anleitung, wie ihr eure Musik online kostenlos per Werbevideo bewerben könnt, ohne dabei Geld für

Mehr

Kreativ visualisieren

Kreativ visualisieren Kreativ visualisieren Haben Sie schon einmal etwas von sogenannten»sich selbst erfüllenden Prophezeiungen«gehört? Damit ist gemeint, dass ein Ereignis mit hoher Wahrscheinlichkeit eintritt, wenn wir uns

Mehr

L10N-Manager 3. Netzwerktreffen der Hochschulübersetzer/i nnen Mannheim 10. Mai 2016

L10N-Manager 3. Netzwerktreffen der Hochschulübersetzer/i nnen Mannheim 10. Mai 2016 L10N-Manager 3. Netzwerktreffen der Hochschulübersetzer/i nnen Mannheim 10. Mai 2016 Referentin: Dr. Kelly Neudorfer Universität Hohenheim Was wir jetzt besprechen werden ist eine Frage, mit denen viele

Mehr

Zahlen auf einen Blick

Zahlen auf einen Blick Zahlen auf einen Blick Nicht ohne Grund heißt es: Ein Bild sagt mehr als 1000 Worte. Die meisten Menschen nehmen Informationen schneller auf und behalten diese eher, wenn sie als Schaubild dargeboten werden.

Mehr

Kulturelle Evolution 12

Kulturelle Evolution 12 3.3 Kulturelle Evolution Kulturelle Evolution Kulturelle Evolution 12 Seit die Menschen Erfindungen machen wie z.b. das Rad oder den Pflug, haben sie sich im Körperbau kaum mehr verändert. Dafür war einfach

Mehr

SUDOKU - Strategien zur Lösung

SUDOKU - Strategien zur Lösung SUDOKU Strategien v. /00 SUDOKU - Strategien zur Lösung. Naked Single (Eindeutiger Wert)? "Es gibt nur einen einzigen Wert, der hier stehen kann". Sind alle anderen Werte bis auf einen für eine Zelle unmöglich,

Mehr

Lineare Differentialgleichungen erster Ordnung erkennen

Lineare Differentialgleichungen erster Ordnung erkennen Lineare Differentialgleichungen erster Ordnung In diesem Kapitel... Erkennen, wie Differentialgleichungen erster Ordnung aussehen en für Differentialgleichungen erster Ordnung und ohne -Terme finden Die

Mehr

Modellbildungssysteme: Pädagogische und didaktische Ziele

Modellbildungssysteme: Pädagogische und didaktische Ziele Modellbildungssysteme: Pädagogische und didaktische Ziele Was hat Modellbildung mit der Schule zu tun? Der Bildungsplan 1994 formuliert: "Die schnelle Zunahme des Wissens, die hohe Differenzierung und

Mehr

Statuten in leichter Sprache

Statuten in leichter Sprache Statuten in leichter Sprache Zweck vom Verein Artikel 1: Zivil-Gesetz-Buch Es gibt einen Verein der selbstbestimmung.ch heisst. Der Verein ist so aufgebaut, wie es im Zivil-Gesetz-Buch steht. Im Zivil-Gesetz-Buch

Mehr

Plotten von Linien ( nach Jack Bresenham, 1962 )

Plotten von Linien ( nach Jack Bresenham, 1962 ) Plotten von Linien ( nach Jack Bresenham, 1962 ) Ac Eine auf dem Bildschirm darzustellende Linie sieht treppenförmig aus, weil der Computer Linien aus einzelnen (meist quadratischen) Bildpunkten, Pixels

Mehr

Charakteristikum des Gutachtenstils: Es wird mit einer Frage begonnen, sodann werden die Voraussetzungen Schritt für Schritt aufgezeigt und erörtert.

Charakteristikum des Gutachtenstils: Es wird mit einer Frage begonnen, sodann werden die Voraussetzungen Schritt für Schritt aufgezeigt und erörtert. Der Gutachtenstil: Charakteristikum des Gutachtenstils: Es wird mit einer Frage begonnen, sodann werden die Voraussetzungen Schritt für Schritt aufgezeigt und erörtert. Das Ergebnis steht am Schluß. Charakteristikum

Mehr

Zeichen bei Zahlen entschlüsseln

Zeichen bei Zahlen entschlüsseln Zeichen bei Zahlen entschlüsseln In diesem Kapitel... Verwendung des Zahlenstrahls Absolut richtige Bestimmung von absoluten Werten Operationen bei Zahlen mit Vorzeichen: Addieren, Subtrahieren, Multiplizieren

Mehr

GEVITAS Farben-Reaktionstest

GEVITAS Farben-Reaktionstest GEVITAS Farben-Reaktionstest GEVITAS Farben-Reaktionstest Inhalt 1. Allgemeines... 1 2. Funktionsweise der Tests... 2 3. Die Ruhetaste und die Auslösetaste... 2 4. Starten der App Hauptmenü... 3 5. Auswahl

Mehr

Insiderwissen 2013. Hintergrund

Insiderwissen 2013. Hintergrund Insiderwissen 213 XING EVENTS mit der Eventmanagement-Software für Online Eventregistrierung &Ticketing amiando, hat es sich erneut zur Aufgabe gemacht zu analysieren, wie Eventveranstalter ihre Veranstaltungen

Mehr

Erstellen von x-y-diagrammen in OpenOffice.calc

Erstellen von x-y-diagrammen in OpenOffice.calc Erstellen von x-y-diagrammen in OpenOffice.calc In dieser kleinen Anleitung geht es nur darum, aus einer bestehenden Tabelle ein x-y-diagramm zu erzeugen. D.h. es müssen in der Tabelle mindestens zwei

Mehr

AGROPLUS Buchhaltung. Daten-Server und Sicherheitskopie. Version vom 21.10.2013b

AGROPLUS Buchhaltung. Daten-Server und Sicherheitskopie. Version vom 21.10.2013b AGROPLUS Buchhaltung Daten-Server und Sicherheitskopie Version vom 21.10.2013b 3a) Der Daten-Server Modus und der Tresor Der Daten-Server ist eine Betriebsart welche dem Nutzer eine grosse Flexibilität

Mehr

Quadratische Gleichungen

Quadratische Gleichungen Quadratische Gleichungen Aufgabe: Versuche eine Lösung zu den folgenden Zahlenrätseln zu finden:.) Verdoppelt man das Quadrat einer Zahl und addiert, so erhält man 00..) Addiert man zum Quadrat einer Zahl

Mehr

Nina. bei der Hörgeräte-Akustikerin. Musterexemplar

Nina. bei der Hörgeräte-Akustikerin. Musterexemplar Nina bei der Hörgeräte-Akustikerin Nina bei der Hörgeräte-Akustikerin Herausgeber: uphoff pr-consulting Alfred-Wegener-Str. 6 35039 Marburg Tel.: 0 64 21 / 4 07 95-0 info@uphoff-pr.de www.uphoff-pr.de

Mehr

Hohe Kontraste zwischen Himmel und Landschaft abmildern

Hohe Kontraste zwischen Himmel und Landschaft abmildern PhotoLine-Bildbearbeitung Erstellt mit Version 16.11 In diesem Beispiel möchte ich zeigen, wie ich zur Zeit Landschaftsbilder mit hohen Kontrasten bearbeite. "Zur Zeit" deshalb, weil sich das natürlich

Mehr

Was meinen die Leute eigentlich mit: Grexit?

Was meinen die Leute eigentlich mit: Grexit? Was meinen die Leute eigentlich mit: Grexit? Grexit sind eigentlich 2 Wörter. 1. Griechenland 2. Exit Exit ist ein englisches Wort. Es bedeutet: Ausgang. Aber was haben diese 2 Sachen mit-einander zu tun?

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme 1 Zwei Gleichungen mit zwei Unbekannten Es kommt häufig vor, dass man nicht mit einer Variablen alleine auskommt, um ein Problem zu lösen. Das folgende Beispiel soll dies verdeutlichen

Mehr

Das Mathematik-Abitur im Saarland

Das Mathematik-Abitur im Saarland Informationen zum Abitur Das Mathematik-Abitur im Saarland Sie können Mathematik im Abitur entweder als grundlegenden Kurs (G-Kurs) oder als erhöhten Kurs (E-Kurs) wählen. Die Bearbeitungszeit für die

Mehr

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen 1. Quadratische Gleichungen Quadratische Gleichungen lassen sich immer auf die sog. normierte Form x 2 + px + = 0 bringen, in

Mehr

Ist Fernsehen schädlich für die eigene Meinung oder fördert es unabhängig zu denken?

Ist Fernsehen schädlich für die eigene Meinung oder fördert es unabhängig zu denken? UErörterung zu dem Thema Ist Fernsehen schädlich für die eigene Meinung oder fördert es unabhängig zu denken? 2000 by christoph hoffmann Seite I Gliederung 1. In zu großen Mengen ist alles schädlich. 2.

Mehr

Beweisbar sichere Verschlüsselung

Beweisbar sichere Verschlüsselung Beweisbar sichere Verschlüsselung ITS-Wahlpflichtvorlesung Dr. Bodo Möller Ruhr-Universität Bochum Horst-Görtz-Institut für IT-Sicherheit Lehrstuhl für Kommunikationssicherheit bmoeller@crypto.rub.de 6

Mehr

Microsoft Excel 2010 Mehrfachoperation

Microsoft Excel 2010 Mehrfachoperation Hochschulrechenzentrum Justus-Liebig-Universität Gießen Microsoft Excel 2010 Mehrfachoperation Mehrfachoperationen in Excel 2010 Seite 1 von 6 Inhaltsverzeichnis Einleitung... 2 Mehrfachoperation mit

Mehr

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung. Lineare Gleichungen mit einer Unbekannten Die Grundform der linearen Gleichung mit einer Unbekannten x lautet A x = a Dabei sind A, a reelle Zahlen. Die Gleichung lösen heißt, alle reellen Zahlen anzugeben,

Mehr

Lange Nacht der Wissenschaft. Ein Klassiker. Die Mathematik der Kürzesten Wege

Lange Nacht der Wissenschaft. Ein Klassiker. Die Mathematik der Kürzesten Wege Lange Nacht der Wissenschaft Ein Klassiker Die Mathematik der Kürzesten Wege 09.06.2007 schlechte@zib.de Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB) http://www.zib.de/schlechte 2 Überblick

Mehr

50 Fragen, um Dir das Rauchen abzugewöhnen 1/6

50 Fragen, um Dir das Rauchen abzugewöhnen 1/6 50 Fragen, um Dir das Rauchen abzugewöhnen 1/6 Name:....................................... Datum:............... Dieser Fragebogen kann und wird Dir dabei helfen, in Zukunft ohne Zigaretten auszukommen

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

Speicher in der Cloud

Speicher in der Cloud Speicher in der Cloud Kostenbremse, Sicherheitsrisiko oder Basis für die unternehmensweite Kollaboration? von Cornelius Höchel-Winter 2013 ComConsult Research GmbH, Aachen 3 SYNCHRONISATION TEUFELSZEUG

Mehr

Anleitung über den Umgang mit Schildern

Anleitung über den Umgang mit Schildern Anleitung über den Umgang mit Schildern -Vorwort -Wo bekommt man Schilder? -Wo und wie speichert man die Schilder? -Wie füge ich die Schilder in meinen Track ein? -Welche Bauteile kann man noch für Schilder

Mehr

Outlook. sysplus.ch outlook - mail-grundlagen Seite 1/8. Mail-Grundlagen. Posteingang

Outlook. sysplus.ch outlook - mail-grundlagen Seite 1/8. Mail-Grundlagen. Posteingang sysplus.ch outlook - mail-grundlagen Seite 1/8 Outlook Mail-Grundlagen Posteingang Es gibt verschiedene Möglichkeiten, um zum Posteingang zu gelangen. Man kann links im Outlook-Fenster auf die Schaltfläche

Mehr

24. Algorithmus der Woche Bin Packing Wie bekomme ich die Klamotten in die Kisten?

24. Algorithmus der Woche Bin Packing Wie bekomme ich die Klamotten in die Kisten? 24. Algorithmus der Woche Wie bekomme ich die Klamotten in die Kisten? Autor Prof. Dr. Friedhelm Meyer auf der Heide, Universität Paderborn Joachim Gehweiler, Universität Paderborn Ich habe diesen Sommer

Mehr

Aufgabe 1. Zunächst wird die allgemeine Tangentengleichung in Abhängigkeit von a aufgestellt:

Aufgabe 1. Zunächst wird die allgemeine Tangentengleichung in Abhängigkeit von a aufgestellt: Aufgabe 1 1.1. Bestimmung von D max : 1. Bedingung: x >0 ; da ln(x) nur für x > 0 definiert ist. 2. Bedingung: Somit ist die Funktion f a nur für x > 0 definiert und sie besitzt eine Definitionslücke an

Mehr

Produktionsplanung und steuerung (SS 2011)

Produktionsplanung und steuerung (SS 2011) Produktionsplanung und steuerung (SS 2011) Teil 1 Sie arbeiten seit 6 Monaten als Wirtschaftsingenieur in einem mittelständischen Unternehmen in Mittelhessen. Das Unternehmen Möbel-Meier liefert die Büroaustattung

Mehr

sondern alle Werte gleich behandelt. Wir dürfen aber nicht vergessen, dass Ergebnisse, je länger sie in der Vergangenheit

sondern alle Werte gleich behandelt. Wir dürfen aber nicht vergessen, dass Ergebnisse, je länger sie in der Vergangenheit sondern alle Werte gleich behandelt. Wir dürfen aber nicht vergessen, dass Ergebnisse, je länger sie in der Vergangenheit liegen, an Bedeutung verlieren. Die Mannschaften haben sich verändert. Spieler

Mehr

Das Briefträgerproblem

Das Briefträgerproblem Das Briefträgerproblem Paul Tabatabai 30. Dezember 2011 Inhaltsverzeichnis 1 Problemstellung und Modellierung 2 1.1 Problem................................ 2 1.2 Modellierung.............................

Mehr

Buchhaltung mit WISO EÜR & Kasse 2011

Buchhaltung mit WISO EÜR & Kasse 2011 Vorbemerkung... 1 1. Erste Schritte...Fehler! Textmarke nicht definiert.3 2. Einrichten des Programms... 5 3. Buchungen... 22 1. Anfangsbestand buchen... 22 2. Privateinlage in die Kasse... 26 4. Buchungen

Mehr

Approximation durch Taylorpolynome

Approximation durch Taylorpolynome TU Berlin Fakultät II - Mathematik und Naturwissenschaften Sekretariat MA 4-1 Straße des 17. Juni 10623 Berlin Hochschultag Approximation durch Taylorpolynome Im Rahmen der Schülerinnen- und Schüler-Uni

Mehr

Leseprobe. Bruno Augustoni. Professionell präsentieren. ISBN (Buch): 978-3-446-44285-6. ISBN (E-Book): 978-3-446-44335-8

Leseprobe. Bruno Augustoni. Professionell präsentieren. ISBN (Buch): 978-3-446-44285-6. ISBN (E-Book): 978-3-446-44335-8 Leseprobe Bruno Augustoni Professionell präsentieren ISBN (Buch): 978-3-446-44285-6 ISBN (E-Book): 978-3-446-44335-8 Weitere Informationen oder Bestellungen unter http://wwwhanser-fachbuchde/978-3-446-44285-6

Mehr

Handbuch Fischertechnik-Einzelteiltabelle V3.7.3

Handbuch Fischertechnik-Einzelteiltabelle V3.7.3 Handbuch Fischertechnik-Einzelteiltabelle V3.7.3 von Markus Mack Stand: Samstag, 17. April 2004 Inhaltsverzeichnis 1. Systemvorraussetzungen...3 2. Installation und Start...3 3. Anpassen der Tabelle...3

Mehr

PTV VISWALK TIPPS UND TRICKS PTV VISWALK TIPPS UND TRICKS: VERWENDUNG DICHTEBASIERTER TEILROUTEN

PTV VISWALK TIPPS UND TRICKS PTV VISWALK TIPPS UND TRICKS: VERWENDUNG DICHTEBASIERTER TEILROUTEN PTV VISWALK TIPPS UND TRICKS PTV VISWALK TIPPS UND TRICKS: VERWENDUNG DICHTEBASIERTER TEILROUTEN Karlsruhe, April 2015 Verwendung dichte-basierter Teilrouten Stellen Sie sich vor, in einem belebten Gebäude,

Mehr

Zwischenablage (Bilder, Texte,...)

Zwischenablage (Bilder, Texte,...) Zwischenablage was ist das? Informationen über. die Bedeutung der Windows-Zwischenablage Kopieren und Einfügen mit der Zwischenablage Vermeiden von Fehlern beim Arbeiten mit der Zwischenablage Bei diesen

Mehr

Behörde für Bildung und Sport Abitur 2008 Lehrermaterialien zum Leistungskurs Mathematik

Behörde für Bildung und Sport Abitur 2008 Lehrermaterialien zum Leistungskurs Mathematik Abitur 8 II. Insektenpopulation LA/AG In den Tropen legen die Weibchen einer in Deutschland unbekannten Insektenpopulation jedes Jahr kurz vor Beginn der Regenzeit jeweils 9 Eier und sterben bald darauf.

Mehr

Zeit lässt sich nicht wie Geld für schlechte Zeiten zur Seite legen. Die Zeit vergeht egal, ob genutzt oder ungenutzt.

Zeit lässt sich nicht wie Geld für schlechte Zeiten zur Seite legen. Die Zeit vergeht egal, ob genutzt oder ungenutzt. Zeitmanagement Allgemeine Einleitung Wie oft haben Sie schon gehört Ich habe leider keine Zeit? Und wie oft haben Sie diesen Satz schon selbst gesagt? Wahrscheinlich nahezu jeden Tag. Dabei stimmt der

Mehr

Folge 19 - Bäume. 19.1 Binärbäume - Allgemeines. Grundlagen: Ulrich Helmich: Informatik 2 mit BlueJ - Ein Kurs für die Stufe 12

Folge 19 - Bäume. 19.1 Binärbäume - Allgemeines. Grundlagen: Ulrich Helmich: Informatik 2 mit BlueJ - Ein Kurs für die Stufe 12 Grundlagen: Folge 19 - Bäume 19.1 Binärbäume - Allgemeines Unter Bäumen versteht man in der Informatik Datenstrukturen, bei denen jedes Element mindestens zwei Nachfolger hat. Bereits in der Folge 17 haben

Mehr

Algorithmen und Datenstrukturen. Große Übung vom 29.10.09 Nils Schweer

Algorithmen und Datenstrukturen. Große Übung vom 29.10.09 Nils Schweer Algorithmen und Datenstrukturen Große Übung vom 29.10.09 Nils Schweer Diese Folien Braucht man nicht abzuschreiben Stehen im Netz unter www.ibr.cs.tu-bs.de/courses/ws0910/aud/index.html Kleine Übungen

Mehr

Korrigenda Handbuch der Bewertung

Korrigenda Handbuch der Bewertung Korrigenda Handbuch der Bewertung Kapitel 3 Abschnitt 3.5 Seite(n) 104-109 Titel Der Terminvertrag: Ein Beispiel für den Einsatz von Future Values Änderungen In den Beispielen 21 und 22 ist der Halbjahressatz

Mehr

Welche Unterschiede gibt es zwischen einem CAPAund einem Audiometrie- Test?

Welche Unterschiede gibt es zwischen einem CAPAund einem Audiometrie- Test? Welche Unterschiede gibt es zwischen einem CAPAund einem Audiometrie- Test? Auch wenn die Messungsmethoden ähnlich sind, ist das Ziel beider Systeme jedoch ein anderes. Gwenolé NEXER g.nexer@hearin gp

Mehr

Repetitionsaufgaben Wurzelgleichungen

Repetitionsaufgaben Wurzelgleichungen Repetitionsaufgaben Wurzelgleichungen Inhaltsverzeichnis A) Vorbemerkungen B) Lernziele C) Theorie mit Aufgaben D) Aufgaben mit Musterlösungen 4 A) Vorbemerkungen Bitte beachten Sie: Bei Wurzelgleichungen

Mehr

Korrelation (II) Korrelation und Kausalität

Korrelation (II) Korrelation und Kausalität Korrelation (II) Korrelation und Kausalität Situation: Seien X, Y zwei metrisch skalierte Merkmale mit Ausprägungen (x 1, x 2,..., x n ) bzw. (y 1, y 2,..., y n ). D.h. für jede i = 1, 2,..., n bezeichnen

Mehr

Alle Schlüssel-Karten (blaue Rückseite) werden den Schlüssel-Farben nach sortiert und in vier getrennte Stapel mit der Bildseite nach oben gelegt.

Alle Schlüssel-Karten (blaue Rückseite) werden den Schlüssel-Farben nach sortiert und in vier getrennte Stapel mit der Bildseite nach oben gelegt. Gentlemen", bitte zur Kasse! Ravensburger Spiele Nr. 01 264 0 Autoren: Wolfgang Kramer und Jürgen P. K. Grunau Grafik: Erhard Dietl Ein Gaunerspiel für 3-6 Gentlemen" ab 10 Jahren Inhalt: 35 Tresor-Karten

Mehr

Mind Mapping am PC. für Präsentationen, Vorträge, Selbstmanagement. von Isolde Kommer, Helmut Reinke. 1. Auflage. Hanser München 1999

Mind Mapping am PC. für Präsentationen, Vorträge, Selbstmanagement. von Isolde Kommer, Helmut Reinke. 1. Auflage. Hanser München 1999 Mind Mapping am PC für Präsentationen, Vorträge, Selbstmanagement von Isolde Kommer, Helmut Reinke 1. Auflage Hanser München 1999 Verlag C.H. Beck im Internet: www.beck.de ISBN 978 3 446 21222 0 schnell

Mehr

Abitur 2013 Mathematik GK Stochastik Aufgabe C1

Abitur 2013 Mathematik GK Stochastik Aufgabe C1 Seite 1 Abiturloesung.de - Abituraufgaben Abitur 2013 Mathematik GK Stochastik Aufgabe C1 Wissenschaftler der israelischen Ben-Gurion-Universität sind der Frage nachgegangen, ob die Attraktivität eines

Mehr

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort: Tangentengleichung Wie Sie wissen, gibt die erste Ableitung einer Funktion deren Steigung an. Betrachtet man eine fest vorgegebene Stelle, gibt f ( ) also die Steigung der Kurve und somit auch die Steigung

Mehr

8. Quadratische Reste. Reziprozitätsgesetz

8. Quadratische Reste. Reziprozitätsgesetz O Forster: Prizahlen 8 Quadratische Reste Rezirozitätsgesetz 81 Definition Sei eine natürliche Zahl 2 Eine ganze Zahl a heißt uadratischer Rest odulo (Abkürzung QR, falls die Kongruenz x 2 a od eine Lösung

Mehr

Handbuch. NAFI Online-Spezial. Kunden- / Datenverwaltung. 1. Auflage. (Stand: 24.09.2014)

Handbuch. NAFI Online-Spezial. Kunden- / Datenverwaltung. 1. Auflage. (Stand: 24.09.2014) Handbuch NAFI Online-Spezial 1. Auflage (Stand: 24.09.2014) Copyright 2016 by NAFI GmbH Unerlaubte Vervielfältigungen sind untersagt! Inhaltsangabe Einleitung... 3 Kundenauswahl... 3 Kunde hinzufügen...

Mehr

Verband der TÜV e. V. STUDIE ZUM IMAGE DER MPU

Verband der TÜV e. V. STUDIE ZUM IMAGE DER MPU Verband der TÜV e. V. STUDIE ZUM IMAGE DER MPU 2 DIE MEDIZINISCH-PSYCHOLOGISCHE UNTERSUCHUNG (MPU) IST HOCH ANGESEHEN Das Image der Medizinisch-Psychologischen Untersuchung (MPU) ist zwiespältig: Das ist

Mehr

Wie halte ich Ordnung auf meiner Festplatte?

Wie halte ich Ordnung auf meiner Festplatte? Wie halte ich Ordnung auf meiner Festplatte? Was hältst du von folgender Ordnung? Du hast zu Hause einen Schrank. Alles was dir im Wege ist, Zeitungen, Briefe, schmutzige Wäsche, Essensreste, Küchenabfälle,

Mehr

Einführung in die Algebra

Einführung in die Algebra Prof. Dr. H. Brenner Osnabrück SS 2009 Einführung in die Algebra Vorlesung 13 Einheiten Definition 13.1. Ein Element u in einem Ring R heißt Einheit, wenn es ein Element v R gibt mit uv = vu = 1. DasElementv

Mehr

Enigmail Konfiguration

Enigmail Konfiguration Enigmail Konfiguration 11.06.2006 Steffen.Teubner@Arcor.de Enigmail ist in der Grundkonfiguration so eingestellt, dass alles funktioniert ohne weitere Einstellungen vornehmen zu müssen. Für alle, die es

Mehr

Projektmanagement in der Spieleentwicklung

Projektmanagement in der Spieleentwicklung Projektmanagement in der Spieleentwicklung Inhalt 1. Warum brauche ich ein Projekt-Management? 2. Die Charaktere des Projektmanagement - Mastermind - Producer - Projektleiter 3. Schnittstellen definieren

Mehr

Mathematischer Vorbereitungskurs für Ökonomen

Mathematischer Vorbereitungskurs für Ökonomen Mathematischer Vorbereitungskurs für Ökonomen Dr. Thomas Zehrt Wirtschaftswissenschaftliches Zentrum Universität Basel Gleichungen Inhalt: 1. Grundlegendes 2. Lineare Gleichungen 3. Gleichungen mit Brüchen

Mehr

Wir arbeiten mit Zufallszahlen

Wir arbeiten mit Zufallszahlen Abb. 1: Bei Kartenspielen müssen zu Beginn die Karten zufällig ausgeteilt werden. Wir arbeiten mit Zufallszahlen Jedesmal wenn ein neues Patience-Spiel gestartet wird, muss das Computerprogramm die Karten

Mehr

Abschlussprüfung Realschule Bayern II / III: 2009 Haupttermin B 1.0 B 1.1

Abschlussprüfung Realschule Bayern II / III: 2009 Haupttermin B 1.0 B 1.1 B 1.0 B 1.1 L: Wir wissen von, dass sie den Scheitel hat und durch den Punkt läuft. Was nichts bringt, ist beide Punkte in die allgemeine Parabelgleichung einzusetzen und das Gleichungssystem zu lösen,

Mehr

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN CHRISTIAN HARTFELDT. Zweiter Mittelwertsatz Der Mittelwertsatz Satz VI.3.4) lässt sich verallgemeinern zu Satz.. Seien f, g : [a, b] R auf [a,

Mehr

~~ Swing Trading Strategie ~~

~~ Swing Trading Strategie ~~ ~~ Swing Trading Strategie ~~ Ebook Copyright by Thomas Kedziora www.forextrade.de Die Rechte des Buches Swing Trading Strategie liegen beim Autor und Herausgeber! -- Seite 1 -- Haftungsausschluss Der

Mehr

Welches Übersetzungsbüro passt zu mir?

Welches Übersetzungsbüro passt zu mir? 1 Welches Übersetzungsbüro passt zu mir? 2 9 Kriterien für Ihre Suche mit Checkliste! Wenn Sie auf der Suche nach einem passenden Übersetzungsbüro das Internet befragen, werden Sie ganz schnell feststellen,

Mehr

B: bei mir war es ja die X, die hat schon lange probiert mich dahin zu kriegen, aber es hat eine Weile gedauert.

B: bei mir war es ja die X, die hat schon lange probiert mich dahin zu kriegen, aber es hat eine Weile gedauert. A: Ja, guten Tag und vielen Dank, dass du dich bereit erklärt hast, das Interview mit mir zu machen. Es geht darum, dass viele schwerhörige Menschen die Tendenz haben sich zurück zu ziehen und es für uns

Mehr

Umgang mit Schaubildern am Beispiel Deutschland surft

Umgang mit Schaubildern am Beispiel Deutschland surft -1- Umgang mit Schaubildern am Beispiel Deutschland surft Im Folgenden wird am Beispiel des Schaubildes Deutschland surft eine Lesestrategie vorgestellt. Die Checkliste zur Vorgehensweise kann im Unterricht

Mehr