Genetische Algorithmen

Größe: px
Ab Seite anzeigen:

Download "Genetische Algorithmen"

Transkript

1 Genetische Algorithmen Ottmar Beucher, Fachhochschule Karlsruhe 7. Dezember

2 Guten Tag, meine Damen und Herren! Ich begrüße Sie recht herzlich zu meinem Vortrag über Genetische Algorithmen. Hierbei handelt es sich um eine in den letzten 20 Jahren entwickelte neue Art von sogenannten Optimierungsalgorithmen, die auf Grund ihrer vielfältigen Anwendungsmöglichkeiten eine, wie ich versuchen werde zu zeigen, bedenkenswerte Alternative zu den klassischen Methoden der mathematischen Optimierung darstellen. Inhalt Lassen sie mich Ihnen zunächst einen Überblick geben über die Themen, die ich im Laufe der nächsten ca. 40 Minuten darzustellen versuche. Ich werde zunächst versuchen, zu erläutern, was ich unter dem Begriff Optimierung verstehe. Dieser Begriff ist nicht eindeutig belegt, denn ein Politiker wird hierunter sicherlich etwas deutlich anderes verstehen, als ein Ingenieur. Wenn ich im Folgenden von Optimierung spreche, so meine ich natürlich die sogenannte mathematische Optimierung. Ich werde zunächst an Hand eines sehr einfachen und einfach zu verstehenden Anwendungsbeispiels versuchen, präzise formulieren, was ich darunter verstehe. Im Folgenden möchte ich einige spezielle Lösungsansätze diskutieren. Konkret sind dies zunächst der sogenannte Hill-Climbing-Algorithmus und das Monte-Carlo-Verfahren. Natürlich stellen diese beiden Verfahren nur einen kleinen Ausschnitt der bekannten mathematischen Optimierungsverfahren dar und somit erhebt die kleine Diskussion der Lösungsansätze natürlich nicht den Anspruch der Vollständigkeit. Die beiden Verfahren repräsentieren vielmehr, wie wir sehen werden, zwei Gegenpole, zwischen denen sich die sogenannten Evolutionsstrategien platzieren, zu denen die Genetischen Algorithmen gehören. Ich werde versuchen, diesen Sachverhalt an Hand eines sehr einfachen kleinen Beispiels zu erläutern, ohne im Detail auf den Aufbau dieser Algorithmen einzugehen und eingehen zu müssen. Im Anschluss daran, möchte ich auf das Kernthema zu sprechen kommen, die sogenannten Genetischen Algorithmen. Hierbei handelt es sich, wie ich erläutern werde, um eine Klasse von Optimierungsalgorithmen, die die optimale Lösung eines Optimierungsproblems zu finden versuchen, in dem die Mechanismen der natürlichen Evolution imitiert werden. Dazu muss natürlich zunächst erläutert werden, um welche Mechanismen es sich hierbei handelt. Außerdem muss erläutert, wie im evolutionären Umfeld die Eigenschaften, deren Optimalität bewertet wird codiert werden. Hierzu werden wir kurz auf die Struktur des genetischen Codes eingehen. Im Anschluss daran können wir auf die mathematische Formalisierung der evolutionären Mechanismen zu sprechen kommen. Danach werde ich versuchen, Ihnen einen etwas tieferen Einblick in die Funktionsweise dieser Algorithmen zu geben und Ihnen zu vermitteln, warum und wie solche Algorithmen funktionieren. Diese Fragen werden mit dem sogenannten Fundamentalsatz der Genetischen Algorithmen zum großen Teil beantwortet, so dass auf die detaillierte Diskussion die- 2

3 ses Resultats nicht verzichtet werden soll. Aus Zeitgründen kann ich hier zu einigen interessanten Fragen, etwa zum Thema der Konvergenz dieser Algorithmen, leider nicht eingehen. Für den Ingenieur ist natürlich, viel mehr als die Diskussion des Warum die Frage nach dem Was interessant. Welche Probleme kann ich mit dieser Methode lösen? Ich werde hierzu zwei Anwendungsbeispiele, nämlich die Standortbestimmung bei Funksendern und die statistische Modellierung von Last-/Drehzahl-Daten andiskutieren, die ich selbst im Rahmen von eigenen Forschungstätigkeiten näher bearbeitet habe. An Schluss des Vortrags folgt natürlich, wie üblich, eine kleine Zusammenfassung. Optimierungsaufgaben Lassen Sie uns nun zur Erläuterung des Optimierungsbegriffs mit einem sehr einfachen kleinen Beispiel beginnen, welches allen Zuhörern hinreichend bekannt sein dürfte, ist es doch eine Frage, die in der messtechnischen Praxis immer wieder vorkommt und die auch in Ingenieurmathematik-Kursen standardmäßig behandelt wird. Es geht hier um das Problem, zu gegebenen Messdaten eine Ausgleichsgerade zu finden, d.h. eine Gerade, die den linearen Zusammenhang zwischen Einund Ausgangsgröße der Messung am besten repräsentiert. Legt man nun eine Gerade in die Grafik, wie etwa in dem vorliegenden Bild, so erkennt man sehr schnell, was am besten heißen soll und warum im vorliegenden Fall keine optimale Lösung dargestellt ist. Man sieht, dass die Punkte zu weit von der vorgeschlagenen Geraden weg liegen. Gelingt es nun, dieses zu weit durch Einführung eines geeigneten Abstandsmaßes zu quantifizieren, so erhalten wir die Möglichkeit dieses Problem mit mathematischen Methoden zu bearbeiten. Ein geeignetes Abstandsmaß ist, wie wir alle wissen die Summe der Beträge der Abstände der Messwerte von der Geraden. Die Aufgabe besteht nun darin, diese Größe (eine Zahl, die von der Lage der gewählten Geraden und somit von ihren Bestimmungsparametern abhängt) zu optimieren, was in diesem Fall zu minimieren heißt. Die folgende Grafik zeigt das Ergebnis einer solchen Optimierung. Zusammenfassend kann man das Problem also folgendermaßen mathematisch formulieren: Gegeben N Paare von Messwerten. Zwischen Ein- und Ausgangsgröße bestehe bekanntermaßen ein linearer Zusammenhang. Bezüglich des Abstandsmaßes Summe der Quadrate der Abstände vom Messwert - die Quadrate sind hier aus Gründen der mathematischen Bequemlichkeit gewählt - suchen wir optimale Bestimmungsparameter â und ˆb einer Geraden, so dass dieses Abstandsmaß minimal wird. Aus dem Beispiel können wir nun für den Begriff der mathematischen Optimierung folgende allgemeine prinzipielle Formulierung einer Optimierungsauf- 3

4 gabe ableiten: Gegeben ist eine (i.a. von mehreren Parametern abhängende) reellwertige Funktion, die sogenannte Zielfunktion. Gesucht ist der Satz von Parametern x 0, bei dem diese Funktion ein Maximum (Optimum) einnimmt, gegebenenfalls unter Einhaltung gewisser Nebenbedingungen, welche in Form von Gleichungen oder Ungleichungen formuliert werden. Die Formulierung als Maximierungsaufgabe stellt hierbei keine Einschränkung dar. Jeder Maximierungsaufgabe kann leicht, etwa durch Änderung des Vorzeichens der Zielfunktion, in eine Minimierungsaufgabe umgewandelt werden und umgekehrt. Lösungsansätze Lösungsansätze für Optimierungsaufgaben sind in der mathematischen Literatur sehr zahlreich und hängen oft sehr stark von der Struktur des jeweiligen Problems ab. Der ein oder andere mag sich z.b. an den Vortrag des Kollegen Voigt über das Problem des Chinesischen Postboten erinnern, wo es um das Auffinden der besten Route für einen Postboten ging und an die zu dessen Lösung verwendeten graphentheoretischen Methoden. Ein weiteres prominentes Beispiel für einen auf eine spezielle Problemklasse zugeschnittenen Algorithmus ist der Simplex-Algorithmus zur Lösung linearer Optimierungsaufgaben, die im Operations Reasearch überragende Bedeutung haben. Wir wollen und können auf diese Methodenvielfalt im Rahmen dieses Vortrages natürlich nicht eingehen. Stattdessen werden wir zunächst an Hand eines sehr einfachen Beispiels und unter zu Hilfe Nahme von MATLAB-Simulationen, zwei sehr allgemeine Verfahren betrachten, das Hill-Climbing und das Monte-Carlo-Verfahren. Wir tun dies, weil diese zum einen auf sehr allgemeinen und leicht verständlichen Prinzipien beruhen, zum andern eine Art Referenz bilden für die Evolutionsstrategien, zu denen die Genetischen Algorithmen gehören. Das Hill-Climbing-Verfahren besteht darin, das Maximum einer Funktion dadurch zu finden, indem von einem gewissen Startpunkt aus entlang der Richtung der stärksten Steigung gesucht wird. Das Hill-Climbing-Verfahren ist somit ein einfaches Verfahren aus der Klasse der Optimierungsverfahren, die die Gradienteninformation der Zielfunktion verwenden. Die folgende MATLAB-Simulation zeigt für 4 Startpunkte, wie die Iteration von statten geht. Man erkennt wie sich die Iterationswerte zielgerichtet von jedem Startpunkt aus in Richtung des nächstgelegenen lokalen Maximums (also Hügels, um in der Hill-Climbing-Terminologie zu bleiben) bewegen. Der Vorteil eines solchen Algorithmus ist also die Ausnutzung zusätzlicher Informationen über die Zielfunktion, im vorliegenden Fall der Gradienteninformation. Daraus resultiert seine Schnelligkeit im Vergleich zu andern Algorithmen. Auch ist es für Verfahren dieser Klasse oft möglich Konvergenzanalysen durchzuführen, den Suchaufwand abzuschätzen oder Fehleranalysen zu betreiben. Nachteilig, und das zeigt die Simulation ganz klar, ist die Tendenz, sehr schnell 4

5 zu lokalen Optima zu konvergieren. Ist ein solches einmal gefunden, so kann es verfahrensbedingt nie mehr verlassen werden. Ein weiterer Nachteil ist die Verwendung des Gradienten oder gar, wie beim Newton-Verfahren, der Ableitungen zweiter Ordnung, eine Information, die oft nicht oder ungenau vorliegt. Das Verfahren ist somit nicht universell verwendbar. Dem Hill-Climbing-Verfahren in gewisser Weise diametral entgegengesetzt ist das Monte-Carlo-Verfahren. Hier wird der Suchraum und die Zielfunktion völlig unsystematisch abgesucht, da die Suchpunkte zufällig (wie beim Glücksspiel, daher der Name) und wahllos im Suchraum erzeugt werden. Die folgende MATLAB-Simulation zeigt dies für die vorhin verwendeten 4 Startpunkte eindrucksvoll. Zusätzlich ist mit dem schwarzen Punkt die bislang beste gefundene Lösung markiert. Wir sehen, wie dieser sich dem globalen Maximum annähert. Die Vorteile eines solchen Verfahrens bestehen in der universellen Verwendbarkeit der zu Grunde liegenden Idee. Es benötigt keinerlei zusätzliche à- priori-informationen über die Zielfunktion. Außerdem können suboptimale Lösungen offenbar jederzeit wieder verlassen werden. Darüber hinaus ist, nebenbei bemerkt, der Algorithmus sogar auf zeitlich veränderliche Zielfunktionen anwendbar. Sehr nachteilig ist hingegen der Aufwand und die Tatsache, dass keine Konvergenzsicherheit herrscht und Fehler- und Aufwandsabschätzungen prinzipiell nicht möglich sind. Die Evolutionsstrategien und damit die Genetischen Algorithmen, die Gegenstand unseres Vortrages sind, liegen in gewissem Sinne zwischen diesen beiden Verfahren. Wie bereits erwähnt, folgen diese Algorithmen den Optimierungsmechanismen der Evolution. Auch hier werden die Suchpunkte stochastisch erzeugt, aber nicht wahllos sondern zielgerichtet und unter Verwendung der Informationen der Zielfunktion, angelehnt an Mechanismen der Evolution. Wie dies im Einzelnen funktioniert, soll im Folgenden erläutert werden. Die MATLAB-Simulation für unser Beispielproblem vermittelt einen ersten Eindruck. Man erkennt, dass der Suchraum stochastisch, aber nicht wahllos abgesucht wird. Im Vorgriff auf die Ergebnisse der nachfolgenden Präsentation kann an dieser Stelle auf Grund des Beispiels schon einmal festgehalten werden, dass die Vorteile der beiden vorangegangenen Verfahren kombiniert werden. Das Verfahren führt eine, von zusätzlichen Informationen über die Zielfunktion gesteuerte, zielgerichtete stochastische Suche durch. Es ist auf Grund seiner Struktur, ähnlich wie die Monte-Carlo-Methode, universell anwendbar, allerdings bei einem weitaus verbesserten Aufwand. Außerdem ist auch dieses Verfahren auf zeitvariate Probleme anwendbar. Allerdings werden auch die Nachteile des Monte-Carlo-Verfahrens vererbt, wie die unklare Konvergenz und der Mangel an theoretischen Aussagen. Hinzu kommt, wie wir sehen werden eine spezielle Problematik der Parametrierung des Verfahrens. 5

6 Mechanismen der natürlichen Evolution Nach diesem ersten Eindruck zur Funktionsweise Genetischer Algorithmen möchte ich nun detaillierter auf die Idee und das Funktionsprinzip dieser Algorithmenklasse eingehen. Wie schon erwähnt, beruhen die Verfahren auf einer Formalisierung der Mechanismen der natürlichen Evolution. Rekapitulieren wir zunächst in einer Art trivialdarwinistischen Betrachtung, die wohl das übliche Wissen zu diesem Thema widerspiegeln sollte, die Funktionsweise dieser Mechanismen. Dazu gehen wir zunächst von einer Population von Individuen mit unterschiedlichen Merkmalen, hier symbolisiert durch geometrische Formen und Farben, aus. Diese Individuen leben in einer gewissen Umwelt und sind den dadurch gegebenen Lebensbedingungen ausgesetzt. Die Lebensbedingungen erzeugen einen sogenannten Selektionsdruck, d.h. einige Individuen überleben die Umweltbedingungen nicht und sterben oder sind nicht fortpflanzungsfähig, andere Individuen sind gut angepasst und verbreiten ihre Erbanlagen. Dabei werden verschiedene Erbanlagen und damit Eigenschaften im Vermehrungsprozess durch Kreuzung mit Eigenschaften anderer (mehr oder weniger zufällig ausgewählter) Individuen verändert. Einige wenige Individuen erhalten dabei zufällig, etwa durch radioaktive Einstrahlung oder andere Umwelteinflüsse oder sporadisch auftretende Erbgutveränderungen neue Eigenschaften. Dieser (seltene) Prozess der zufälligen Änderung wird Mutation genannt. Die neue Population findet sich dann wieder dem Selektionsdruck ausgesetzt und so fort. Oft erhält man durch diesen Prozess besser angepasste Populationen von Individuen. Zusammenfassend kann man also sagen, dass es sich bei der natürlichen Evolution um eine (iteratives) Optimierungsverfahren handelt, welches von drei zufallsbehafteten Basismechanismen angetrieben wird, nämlich Selektion, Kreuzung und Mutation und immerwährend fortschreitet. Diese Basismechanismen werden in der mathematischen Formalisierung des Evolutionsprozesses zu sogenannten stochastischen Operatoren und machen den Kern der Genetischen Algorithmen aus. Der Genetische Code Für die Umsetzung dieser Mechanismen in einen brauchbaren mathematischen Algorithmus fehlt jedoch noch ein wichtiger Baustein, nämlich die Codierung des Problems. Es muss die Frage beantwortet werden, wie ein Optimierungsproblem in eine Form gebracht werden kann, die es erlaubt, genetische Operatoren hierauf anzuwenden. Es erscheint klug, zunächst einmal wieder nach der Lösung zu fragen, die die Natur für dieses Problem gefunden hat. Die Information über die Eigenschaften eines Individuums und somit die Fähigkeit, sich an seine Lebensbedingungen anzupassen, sind im genetischen Co- 6

7 de festgehalten. Die Natur bedient sich hierbei zur Informationscodierung eines Alphabets, bestehend aus den 4 Basen Cytosin, Adenin, Guanin und Uracil (bzw. Thymin auf der DNA), die jeweils in Dreierkombinationen, sogenannten Triplets zusammengefasst die Anlagerung einer Aminosäure bei der Eiweißsynthese steuern. Diese Basentriplets formen Sequenzen auf der RNA ( Wörter ) resp. der DNA. Diese Sequenzen werden als Gene bezeichnet. Zusammengefaltete DNA-Ketten wiederum respräsentieren die Chromosomen, die die komplexen Eigenschaften des Individuums festlegen. Wir können also im weitesten Sinne von einer Informationscodierung auf der Grundlage eines 4-buchstabigen Alphabets sprechen. Mathematische Formalisierung Diese Tatsache wird nun folgendermaßen für eine Formalisierung herangezogen. Statt eines 4-buchstabigen Alphabets wird ein binäres Alphabet verwendet. Auch bezüglich der Gene wird eine Vereinfachung durchgeführt. Triplets und Gene werden mit dem Zeichenumfang des binären Alphabets identifiziert. Ein Gen im Sinne des Genetischen Algorithmus entspricht also der kleinsten Informationseinheit. Mit Hilfe der Gene wird die genetische Information in Binären Strings codiert. Die Binären Strings ersetzen die komplexeren natürlichen Chromosomen ebenso wie die sie tragenden Individuen, so dass im letzten Vereinfachungsschritt die Binären Strings als Individuen angesehen werden. Der evolutionäre Optimierungsprozess wird somit folgendermaßen zu einer mathematischen Optimierungsaufgabe: Die Zielfunktion, welche die Angepasstheit des Individuums an seine Umgebung repräsentiert und im Folgenden als Fitnessfunktion bezeichnet wird, muss auf Binärstrings definiert werden (reelle Zahlen können zum Beispiel diskretisiert und über einen Binärcode des Index dargestellt werden). Der Suchraum muss entsprechend codiert werden. Gesucht ist das Individuum (Binärstring) mit der maximalen Fitness, ggf. unter Einbeziehung von Nebenbedingungen. Die stochastischen Operatoren Selektion, Kreuzung und Mutation werden mit Hilfe des Binärcodes in Anlehnung an die natürlichen Mechanismen realisiert. Die Selektion etwa kann entsprechend der Fitness (Wert der Zielfunktion) der Individuen erfolgen. Im Beispiel auf Folie 16 wird hierfür ein Roulette-Rad verwendet. In jedem Selektionschritt (der ebenfalls mit einer gewissen vorgegebenen Wahrscheinlichkeit vorgenommen werden kann) wird ein Individuum durch drehen des Rouletterades ausgewählt. Da Individuen mit hoher Fitness auf dem Rad einen proportional größeren Raum einnehmen, haben diese eine höhere Wahrscheinlichkeit ausgewählt zu werden und landen, ggf. mehrfach reproduziert, in einem Paarungs-Pool (Mating-Pool). Die Individuen des Mating-Pools haben (wiederum mit einer gewissen Wahrscheinlichkeit) das Recht, sich zu kreuzen und ihre Gene auszutauschen. Dies kann bei binärer Codierung so erfolgen, dass die Binärstrings zweier Indivi- 7

8 duen an einer Stelle aufgeschnitten und vertauscht werden. Die Beispiele auf Folie 17 erläutern die Funktionsweise. Zum Abschluss wird die Mutation simuliert. Hierzu kann man mit einer gewissen, i.a. sehr kleinen Wahrscheinlichkeit die Bits der Binärstrings kippen. Man erhält, wie wir später sehen werden, durch diesen Prozess eine Population mit im Schnitt höherer Fitness und ggf. existiert auch ein fitteres Einzelindividuum. Der beschriebene Prozess wird dann, bis zum Erreichen eines noch zu definierenden Endekriteriums, in der beschriebenen Abfolge wiederholt. Der Fundamentalsatz In dem am Anfang des Vortrags vorgestellten Beispiel wurde gezeigt, dass der oben beschriebene Prozess zu einer sinnvollen Lösung führt. Ich möchte jedoch nicht fortfahren, ohne etwas näher zu beleuchten, warum dies so ist und der formalisierte Mechanismus als Optimierungsverfahren geeignet ist. Ich will daher versuchen, das zentrale Ergebnis, welches Antwort auf diese Frage gibt, das sogenannte Schema-Theorem näher zu beleuchten. Der wesentliche Begriff für das Verständnis des Algorithmus ist der des Schemas. Unter einem Schema versteht man eine Menge von Binärstrings (Individuen), die durch eine gemeinsame fixierte Bitkombination gekennzeichnet sind. Eine solche Bitkombination kann als eine Eigenschaft oder einer Eigenschaftenkombination interpretiert werden. Folie 19 zeigt ein Beispiel. Am besten kann diese Menge durch einen Hyperwürfel im Raum der Bitkombinationen visualisiert werden. So entspricht in dem dargestellten Beispiel das Schema 10 einem 3-dimensionalen Würfel und das Schema 100 einem zweidimensionalen Rechteck im 5-dimensionalen Suchraum der Individuen. Die Zusammenfassung der Individuen zu Schemata trägt der Funktionsweise Genetischer Algorithmen Rechnung. Die Herleitung der Algorithmen zeigt, dass es keinen Sinn macht, die Entwicklung einzelner Individuen zu verfolgen, sondern nur der Eigenschaften innerhalb einer ganzen Population. Die Population wiederum repräsentiert eine Vielzahl von Schemata, da ein Individuum einer Vielzahl von Schemata angehört (eine Vielzahl von Eigenschaften hat). Im Idealfall stellt die Population einen Schätzer für die Verteilung der (fitten) Schemata dar. Statt also zu fragen, wie einzelne Individuen im Laufe der Evolution verändert werden, macht es mehr Sinn, zu fragen, wie die Genetischen Operatoren die Schemata verändern bzw. wie ein Schema im Laufe der Evolution (Iteration) durch die Populationen repräsentiert wird. Schauen wir uns dazu die Wirkung der Operatoren auf ein Schema genauer an: wie wir gesehen haben, wird bei der fitnessproportionalen Selektion ein Individuum mit einer Wahrscheinlichkeit p j = f j ausgewählt. Die Wahrscheinlichkeit, dass ein Individuum eines Schemas H ausgewählt wird, ergibt N f sich aus der Summe dieser Wahrscheinlichkeiten. Damit ist die Anzahl der aus einer Population ausgewählten Schema-H-Individuen MH M = N p(h). Bezüg- 8

9 lich der Anzahl M H der schon vorher zum Schema H gehörenden Individuen ergibt sich daraus, dass die Zahl MH M (n + 1) der aus der n-ten Generation in dem Mating-Pool selektierten Individuen gleich M H (n) fh ist, wobei f f H die relative Fitness der Schema-H-Individuen innerhalb der Population ist. Der Faktor f H repräsentiert somit den auf das Schema ausgeübten Selektionsdruck. f Ist die relative Fitness innerhalb eines Schemas eine Zeit lang etwa gleichbleibend hoch und höher als die durchschnittliche Fitness der Population, so wächst der Anteil der Schema-H-Individuen in diesem Zeitraum exponentiell an. Dies kann, wie wir später an Hand eines Beispiels sehen werden, experimentell nachvollzogen werden und ist ein wesentlicher Punkt, denn dieser Effekt bewirkt, dass es sich bei einem genetischen Algorithmus eben nicht um ein wahlloses Suchverfahren handelt, sonder in gewissem Sinne um eine zielgerichtete Suche, die noch dazu mit (anfangs) exponentieller Geschwindigkeit von statten geht. Dass der Selektionsdruck alleine die Population nicht auf Dauer in einen suboptimalen Bereich treibt, dafür sorgen die anderen beiden genetischen Operatoren. Durch die Kreuzung werden, wie die Beispiele auf Folie 23 zeigen, Schemata i.a. zerstört, wobei jedoch kurze Schemata offenbar eine bessere Überlebenschance haben, als längere. Es können allerdings auch Schema-Individuen neu entstehen, was wiederum dazu beiträgt, dass weniger erfolgreiche Schemata verlassen und andere Regionen des Suchraums aufgesucht werden können. Ähnlich verhält es sich mit der Mutation. Auch hier werden Schemata i.a. zerstört, wobei jedoch kurze Schemata offenbar eine bessere Überlebenschance haben, als längere. Fasst man alle diese Einflüsse auf ein Schema zusammen, so erhält man folgendes Resultat, welches die Propagation des relativen Anteils P H eines Schemas innerhalb der Population im Laufe der Generationen beschreibt: Satz: Ist H ein Schema mit der definierenden Länge δ(h) und mit der Ordnung o(h) in einem binär codierten (klassischen) Genetischen Algorithmus mit Kreuzungs- Wahrscheinlichkeit p c und Mutations-Wahrscheinlichkeit p m. Sei weiter P H (n) der relative Anteil der zum Schema H gehörenden Individuen in einer Population zum Iterationszeitpunkt n. Dann gilt: P H (n + 1) P H (n) f H(n) f(n) ( 1 p c δ(h) ) N 1 o(h)p m Zur Illustration dieses Sachverhaltes greifen wir wieder auf das Eingangsbeispiel zurück, an Hand dessen wir unter MATLAB die Funktionsweise der Algorithmen visualisiert haben. Der Suchraum wurde in diesem Beispiel für die Anwendung des Genetischen Algorithmus mit einer Genauigkeit von ca diskretisiert und mit 18-Bit-Strings binär codiert. Die beiden Streifen über den Graphen der Zielfunktion repräsentieren zwei sehr unterschiedliche Schemata, nämlich ein Schema hoher Fitness in der Nähe des globalen Optimums und 9

10 ein Schema mit sehr niedriger Fitness in der Nähe des globalen Minimums. Die übrigen Grafiken repräsentieren die durchschnittliche Fitness der Population aus 4 Individuen in einem Lauf und jeweils die (durchschnittliche) Fitness des Schemas und die (durchschnittliche) Anzahl der Schema-Individuen, welche über mehrere Läufe gemittelt wurde. Man erkennt deutlich, dass die Fitness der Population anfangs dramatisch, später leicht ansteigt. Ebenso deutlich erkennt man den exponentiellen Anstieg der durchschnittlichen Schema- Fitness und der Schema-Anzahl für das überdurchschnittliche Schema. Das schlechte Schema hingegen ist von Anfang an so gut wie nicht in der Population vertreten. Als Fazit kann die Aussage des Fundamentalsatzes wie folgt beschrieben werden: Mittlere Fitness der Populationen steigt an. Fitte Schemata breiten sich (durch den Selektionsdruck) exponentiell aus. Kreuzung und Mutation wirken dem entgegen. Dadurch können fittere Schemata und Individuen gefunden werden. Algorithmus durchsucht gleichzeitig viele Hyper flächen des Suchraums (implizite Parallelität der GA). Fitte Schemata mit kleinen Bitblöcken werden bevorzugt durch die Generationen verbreitet (building-block-hypothese). Jede Population ist ein Schätzer für die Fitnessverteilung der Schemata. Anwendungen Leider kann ich an dieser Stelle aus Zeitgründen auf interessante Fragestellungen, wie etwa die nach der Konvergenz oder nach der Parametrierung der Genetischen Algorithmen nicht eingehen. Lassen sie mich stattdessen exemplarisch zwei Anwendungen diskutieren, die eigenen Forschungsarbeiten entstammen. Im ersten Beispiel soll das Problem der Standortoptimierung für Funkgeräte diskutiert werden. Die erste Grafik zeigt die Ausleuchtung eines Geländes mit Funkwellen von einem beliebigen, hier blau markierten Standpunkt aus. Die zweite Grafik zeigt die Ausleuchtung vom optimalen Standpunkt aus. Das Problem bei dieser Anwendung ist das Vorhandensein von sehr vielen lokalen Optima, wie die Grafik der Ausleuchtungsfunktion (Zielfunktion) zeigt. Darüber hinaus haben wir es mit einer riesigen Datenmenge, also einem sehr großen Suchraum zu tun, was neben der Bestimmung des Optimums schon allein die Berechnung der Zielfunktion sehr aufwendig macht. Gleichzeitig sind aber geringe Berechnungszeiten für den optimalen Standort gefordert. 10

11 Für dieses Problem ist die Anwendung eines gradientenbasierte Verfahrens auf Grund der Vielzahl lokaler Maxima ungünstig, zumal der Gradient immer erst numerisch geschätzt werden müsste. Die i.a. riesige Datenmenge verbietet eine Monte-Carlo-Suche, zumal geringe Antwortzeiten gefordert waren. Mit Hilfe Genetischer Algorithmen und einiger Zusatzmaßnahmen gelang es, die Anforderungen befriedigend zu erfüllen, da hier nur einige tausend Gitterpunkte zu durchsuchen waren. In einem Hybridverfahren kann der Genetische Algorithmus für eine schnelle Grobsuche verwendet werden, um anschließend mit einem Hill-Climbing-Verfahren eine Feinsuche durchzuführen. Die nächste Anwendung stammt aus dem Bereich der (statistischen) Parameteroptimierung. Bei diesem Problem ging es um den Entwurf einer zweidimensionalen statistischen Verteilung von Last/Drehzahl-Messdaten. Ein entsprechendes Modell lieferte 12 zu optimierende, d.h. an die Daten anzupassende Parameter, wobei die Verteilung, wie im gerahmten Kasten zu sehen ist, abschnittsweise definiert ist, was für gradientenbasierte Verfahren riskant ist. Mit Hilfe Genetischer Algorithmen gelang es, die Parameter befriedigend anzupassen. Zusammenfassung Lassen Sie mich nun zum Abschluss die wichtigsten Punkte des Vortrages zusammenfassen. Ich habe in diesem Vortrag versucht, Ihnen ein neues neues Prinzip der Optimierung vorzustellen, welches sich an dem Vorbild der Natur orientiert, die sogenannten Genetischen Algorithmen. Die Vorteile dieser Algorithmenklasse liegen in ihrer universelle Einsetzbarkeit, ihrer Einsetzbarkeit für große Probleme und auf Grund ihrer prinzipiell dauerhaft angelegten Struktur in ihrer Einsetzbarkeit für zeitvariate Umgebungen, wofür ich aber kein Beispiel angegeben habe. Die Nachteile sind allerdings auch nicht unerheblich. So gibt es leider wenige theoretische Grundlagen, die es beispielsweise erlauben, gesicherte Konvergenzaussagen zu machen, oder à-priori geeignete Parameter einzustellen. Hier ist man auf empirische Werte und experimentelle Aussagen angewiesen. Vielen Dank für Ihre Aufmerksamkeit. 11

Optimale Produktliniengestaltung mit Genetischen Algorithmen

Optimale Produktliniengestaltung mit Genetischen Algorithmen Optimale Produktliniengestaltung mit Genetischen Algorithmen 1 Einleitung 2 Produktlinienoptimierung 3 Genetische Algorithmen 4 Anwendung 5 Fazit Seite 1 Optimale Produktliniengestaltung mit Genetischen

Mehr

Dynamisches Huffman-Verfahren

Dynamisches Huffman-Verfahren Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

Seminararbeit zum Thema Genetische Algorithmen

Seminararbeit zum Thema Genetische Algorithmen Seminararbeit zum Thema Genetische Algorithmen Seminar in Intelligent Management Models in Transportation und Logistics am Institut für Informatik-Systeme Lehrstuhl Verkehrsinformatik Univ.-Prof. Dr.-Ing.

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

Genetische Algorithmen

Genetische Algorithmen Projekt für Algorithmische Anwendungen Genetische Algorithmen Von Mike Müller 11037091 Dennis Freese 11038517 Gruppe: B-ROT 1 Inhaltsverzeichnis Allgemeines...3 Geschichtliche Entwicklung der genetischen

Mehr

Outline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel

Outline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel Outline 1 Funktionen von mehreren Veränderlichen 2 Grenzwert und Stetigkeit 3 Partielle Ableitungen 4 Die verallgemeinerte Kettenregel 5 Das totale Differential 6 Extremstellen Roman Wienands (Universität

Mehr

So viel wie möglich Extremwertaufgaben aus Geometrie

So viel wie möglich Extremwertaufgaben aus Geometrie So viel wie möglich Extremwertaufgaben aus Geometrie Andreas Ulovec 1 Einführung Die meisten Leute sind mit Extremwertaufgaben vertraut: Was ist das flächengrößte Dreieck, das man in einen Kreis einschreiben

Mehr

Einsatz Evolutionärer Algorithmen zur Optimierung der Tourenplanung eines Wachschutzunternehmens

Einsatz Evolutionärer Algorithmen zur Optimierung der Tourenplanung eines Wachschutzunternehmens Fachhochschule Brandenburg Fachbereich Informatik und Medien Kolloquium zur Diplomarbeit Einsatz Evolutionärer Algorithmen zur Optimierung der Tourenplanung eines Wachschutzunternehmens Übersicht Darstellung

Mehr

Genetische Programmierung

Genetische Programmierung 15. Juli 2007 Anfang der 90er von John R. Koza entwickelt. Verfahren zur automatisierten Erstellung von Programmen. Von der Evolution inspiriert. Anforderungen an die Möglichst korrekte Lösung ergeben

Mehr

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit) 3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände

Mehr

15. Algorithmus der Woche Das Rucksackproblem Die Qual der Wahl bei zu vielen Möglichkeiten

15. Algorithmus der Woche Das Rucksackproblem Die Qual der Wahl bei zu vielen Möglichkeiten 15. Algorithmus der Woche Das Rucksackproblem Die Qual der Wahl bei zu vielen Möglichkeiten Autoren Rene Beier, MPI Saarbrücken Berthold Vöcking, RWTH Aachen In zwei Monaten startet die nächste Rakete

Mehr

Eine Analyse des Effektes von Lernen auf Populationsfitness und Diversität in einer NK-Fitnesslandschaft. Lars Melchior

Eine Analyse des Effektes von Lernen auf Populationsfitness und Diversität in einer NK-Fitnesslandschaft. Lars Melchior Eine Analyse des Effektes von Lernen auf Populationsfitness und Diversität in einer NK-Fitnesslandschaft Lars Melchior Theoretische Grundlagen Theoretische Grundlagen Genetik Genetische Algorithmen NK

Mehr

Eine zweidimensionale Stichprobe

Eine zweidimensionale Stichprobe Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,

Mehr

4 Genetische Algorithmen

4 Genetische Algorithmen WS1993/94 AuD II 113 4 Genetische Algorithmen Gegeben: Problem P Menge potentieller Lösungen S= {L 1,,L s } (auch Suchraum) Zielfunktion z : S [0,1] IR (manchmal auch z : S IR ) Gesucht: z(l) > z(l') L

Mehr

9. Heuristische Suche

9. Heuristische Suche 9. Heuristische Suche Prof. Dr. Rudolf Kruse University of Magdeburg Faculty of Computer Science Magdeburg, Germany rudolf.kruse@cs.uni-magdeburg.de S Heuristische Suche Idee: Wir nutzen eine (heuristische)

Mehr

Evolutionsstrategien

Evolutionsstrategien Evolutionsstrategien zum Seminar Evolutionäre Algorithmen von Jana Schäfer INHALTVERZEICHNIS 1. Einführung... 3 2. Die Geschichte der Evolutionsstrategien...4 3. Grundlegendes... 6 3.1 Begriffe... 6 3.2

Mehr

Lineare (Un-)Gleichungen und lineare Optimierung

Lineare (Un-)Gleichungen und lineare Optimierung Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-6020 Innsbruck, Österreich franz.pauer@uibk.ac.at 1 Einleitung In der linearen

Mehr

Teil II Optimierung. Peter Buchholz 2016. Modellgestützte Analyse und Optimierung Kap. 9 Einführung Optimierung

Teil II Optimierung. Peter Buchholz 2016. Modellgestützte Analyse und Optimierung Kap. 9 Einführung Optimierung Teil II Optimierung Gliederung 9 Einführung, Klassifizierung und Grundlagen 10 Lineare Optimierung 11 Ganzzahlige und kombinatorische Optimierung 12 Dynamische Optimierung Literatur: zu 10-12: Neumann,

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

Informatik-Sommercamp 2012. Mastermind mit dem Android SDK

Informatik-Sommercamp 2012. Mastermind mit dem Android SDK Mastermind mit dem Android SDK Übersicht Einführungen Mastermind und Strategien (Stefan) Eclipse und das ADT Plugin (Jan) GUI-Programmierung (Dominik) Mastermind und Strategien - Übersicht Mastermind Spielregeln

Mehr

Scheduling-Theorie. Mathematische Modelle und Methoden für deterministische Scheduling-Probleme. LiSA - A Library of Scheduling Algorithms

Scheduling-Theorie. Mathematische Modelle und Methoden für deterministische Scheduling-Probleme. LiSA - A Library of Scheduling Algorithms Scheduling-Theorie Mathematische Modelle und Methoden für deterministische Scheduling-Probleme LiSA - A Library of Scheduling Algorithms Otto-von-Guericke Universität Magdeburg/FMA/Heidemarie Bräsel &

Mehr

Die Menge C der komplexen Zahlen wird im Kapitel Weitere Themen behandelt.

Die Menge C der komplexen Zahlen wird im Kapitel Weitere Themen behandelt. 1 1 Funktionen 1.1 Grundlegende Zahlenmengen Georg Cantor (1845-1918) hat den Begriff der Menge eingeführt. Man versteht darunter die Zusammenfassung einzelner Dinge, welche Elemente genannt werden, zu

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2016 Lineare Gleichungssysteme Schwerpunkte: Interpretation und Verständnis der Gleichungen Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik unter

Mehr

Folgen und Reihen. Wirtschaftswissenschaftliches Zentrum Universität Basel. Mathematik für Ökonomen 1 Dr. Thomas Zehrt

Folgen und Reihen. Wirtschaftswissenschaftliches Zentrum Universität Basel. Mathematik für Ökonomen 1 Dr. Thomas Zehrt Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen Dr. Thomas Zehrt Folgen und Reihen Literatur Referenz: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen, Band, 7. Auflage,

Mehr

8.3 Lösen von Gleichungen mit dem Newton-Verfahren

8.3 Lösen von Gleichungen mit dem Newton-Verfahren 09.2.202 8.3 Lösen von Gleichungen mit dem Newton-Verfahren Beispiel: + 2 e Diese Gleichung kann nicht nach aufgelöst werden, da die beiden nicht zusammengefasst werden können. e - - 2 0 Die gesuchten

Mehr

2. Stetige lineare Funktionale

2. Stetige lineare Funktionale -21-2. Stetige lineare Funktionale Die am Ende von 1 angedeutete Eigenschaft, die ein lineares Funktional T : D(ú) 6 verallgemeinerten Funktion macht, ist die Stetigkeit von T in jedem n 0 0 D(ú). Wenn

Mehr

Lineare Gleichungssysteme (Teschl/Teschl 11.1)

Lineare Gleichungssysteme (Teschl/Teschl 11.1) Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...

Mehr

Mathematik 1 für Informatiker und Wirtschaftsinformatiker Wintersemester 07/08 (Winkler) Musterprüfung mit Lösungen

Mathematik 1 für Informatiker und Wirtschaftsinformatiker Wintersemester 07/08 (Winkler) Musterprüfung mit Lösungen Mathematik für Informatiker und Wirtschaftsinformatiker Wintersemester 07/08 (Winkler Musterprüfung mit Lösungen. Sei T N. (a Unter welchen beiden Voraussetzungen an T garantiert das Induktionsaxiom (nach

Mehr

5 Selbstkonstruktion und interpersonale Distanz empirische Prüfung

5 Selbstkonstruktion und interpersonale Distanz empirische Prüfung Selbstkonstruktion und interpersonale Distanz U.R. Roeder - 66-5 Selbstkonstruktion und interpersonale Distanz empirische Prüfung 5.1 Die Hypothesen Im Rahmen dieser Arbeit können nur wenige der im theoretischen

Mehr

7 KONVERGENTE FOLGEN 35. inf M = Infimum von M. bezeichnet haben. Definition. Sei (a n ) n N eine beschränkte Folge in R. Dann heißt.

7 KONVERGENTE FOLGEN 35. inf M = Infimum von M. bezeichnet haben. Definition. Sei (a n ) n N eine beschränkte Folge in R. Dann heißt. 7 KONVERGENTE FOLGEN 35 und die größe untere Schranke mit bezeichnet haben. inf M = Infimum von M Definition. Sei (a n ) n N eine beschränkte Folge in R. Dann heißt der Limes superior der Folge, und lim

Mehr

Pocket Cards (Winning Probabilities) 6.1 Anzahl der Kombinationen Monte Carlo Simulation Ergebnisse 6

Pocket Cards (Winning Probabilities) 6.1 Anzahl der Kombinationen Monte Carlo Simulation Ergebnisse 6 6 6.1 Anzahl der Kombinationen 6. Monte Carlo Simulation 3 6.3 Ergebnisse 6 in case you do not speak German ignore the description and jump to the preflop win probability tables in chapter 6.3 Poker Trainer

Mehr

Informationsmenge. Maßeinheit: 1 Bit. 1 Byte. Umrechnungen: Informationsmenge zur Beantwortung einer Binärfrage kleinstmögliche Informationseinheit

Informationsmenge. Maßeinheit: 1 Bit. 1 Byte. Umrechnungen: Informationsmenge zur Beantwortung einer Binärfrage kleinstmögliche Informationseinheit Informationsmenge Maßeinheit: 1 Bit Informationsmenge zur Beantwortung einer Binärfrage kleinstmögliche Informationseinheit 1 Byte Zusammenfassung von 8 Bit, kleinste Speichereinheit im Computer, liefert

Mehr

Fadenpendel (M1) Ziel des Versuches. Theoretischer Hintergrund

Fadenpendel (M1) Ziel des Versuches. Theoretischer Hintergrund Fadenpendel M) Ziel des Versuches Der Aufbau dieses Versuches ist denkbar einfach: eine Kugel hängt an einem Faden. Der Zusammenhang zwischen der Fadenlänge und der Schwingungsdauer ist nicht schwer zu

Mehr

1. Einleitung wichtige Begriffe

1. Einleitung wichtige Begriffe 1. Einleitung wichtige Begriffe Da sich meine besondere Lernleistung mit dem graziösen Färben (bzw. Nummerieren) von Graphen (speziell von Bäumen), einem Teilgebiet der Graphentheorie, beschäftigt, und

Mehr

Hochschule Regensburg. Übung 12_3 Genetische Algorithmen 1. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer

Hochschule Regensburg. Übung 12_3 Genetische Algorithmen 1. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Hochschule Regensburg Übung 12_ Genetische Algorithmen 1 Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Name: Vorname: 1. Was sind GA? - Ein GA ist ein Algorithmus, der Strategien aus der Evolutionstheorie

Mehr

Mathematik für Wirtschaftswissenschaftler

Mathematik für Wirtschaftswissenschaftler Knut Sydsaeter Peter HammondJ Mathematik für Wirtschaftswissenschaftler Basiswissen mit Praxisbezug 2., aktualisierte Auflage Inhaltsverzeichnis Vorwort 13 Vorwort zur zweiten Auflage 19 Kapitel 1 Einführung,

Mehr

Ausarbeitung zum Modulabschluss. Graphentheorie. spannende Bäume, bewertete Graphen, optimale Bäume, Verbindungsprobleme

Ausarbeitung zum Modulabschluss. Graphentheorie. spannende Bäume, bewertete Graphen, optimale Bäume, Verbindungsprobleme Universität Hamburg Fachbereich Mathematik Seminar: Proseminar Graphentheorie Dozentin: Haibo Ruan Sommersemester 2011 Ausarbeitung zum Modulabschluss Graphentheorie spannende Bäume, bewertete Graphen,

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.

f(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum. Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit

Mehr

8. Konfidenzintervalle und Hypothesentests

8. Konfidenzintervalle und Hypothesentests 8. Konfidenzintervalle und Hypothesentests Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Beispiel. Sie wollen den durchschnittlichen Fruchtsaftgehalt eines bestimmten Orangennektars

Mehr

Inhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57

Inhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57 Vorwort... 13 Vorwort zur 3. deutschen Auflage... 17 Kapitel 1 Einführung, I: Algebra... 19 1.1 Die reellen Zahlen... 20 1.2 Ganzzahlige Potenzen... 23 1.3 Regeln der Algebra... 29 1.4 Brüche... 34 1.5

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Lineares Optimieren. W. Kippels 12. April Inhaltsverzeichnis. 1 Einleitung 2. 2 Die Beispielaufgabe 2. 3 Einführung von Schlupfvariablen 2

Lineares Optimieren. W. Kippels 12. April Inhaltsverzeichnis. 1 Einleitung 2. 2 Die Beispielaufgabe 2. 3 Einführung von Schlupfvariablen 2 Lineares Optimieren W. Kippels 1. April 015 Inhaltsverzeichnis 1 Einleitung Die Beispielaufgabe Einführung von Schlupfvariablen 4 Die Simplex-Methode 5 Das Basis-Austauschverfahren 4 6 Fortsetzung der

Mehr

-Generation sehen alle gleich aus (Uniformitätsregel). In der F 2. -Generation treten unterschiedliche Phänotypen auf (Spaltungsregel).

-Generation sehen alle gleich aus (Uniformitätsregel). In der F 2. -Generation treten unterschiedliche Phänotypen auf (Spaltungsregel). Mendelsche Regeln 1 + 2 (1) Merkmale wie die Blütenfarbe können dominant-rezessiv oder intermediär vererbt werden. Bei einem intermediären Erbgang wird die Merkmalsausprägung von beiden Allelen (z. B.

Mehr

00. Einiges zum Vektorraum R n

00. Einiges zum Vektorraum R n 00. Einiges zum Vektorraum R n In diesem einleitenden Kapitel werden die in der LV Einführung in die mathematischen Methoden erwähnten Konzepte über Vektoren (im R 2 und R 3 ) im Rahmen des n-dimensionalen

Mehr

1 Lineare Optimierung, Simplex-Verfahren

1 Lineare Optimierung, Simplex-Verfahren 1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und

Mehr

Topologische Begriffe

Topologische Begriffe Kapitel 3 Topologische Begriffe 3.1 Inneres, Rand und Abschluss von Mengen Definition (innerer Punkt und Inneres). Sei (V, ) ein normierter Raum über K, und sei M V eine Menge. Ein Vektor v M heißt innerer

Mehr

Algorithmen und Datenstrukturen Kapitel 10

Algorithmen und Datenstrukturen Kapitel 10 Algorithmen und Datenstrukturen Kapitel 10 Flüsse Frank Heitmann heitmann@informatik.uni-hamburg.de 6. Januar 2016 Frank Heitmann heitmann@informatik.uni-hamburg.de 1/8 Flüsse Graphen Grundlagen Definition

Mehr

Algorithmen & Programmierung. Rekursive Funktionen (1)

Algorithmen & Programmierung. Rekursive Funktionen (1) Algorithmen & Programmierung Rekursive Funktionen (1) Berechnung der Fakultät Fakultät Die Fakultät N! einer nichtnegativen ganzen Zahl N kann folgendermaßen definiert werden: d.h. zur Berechnung werden

Mehr

Kapitel 13. Evolutionäre Spieltheorie. Einleitung. Evolutionäre Biologie. Übersicht 2. Alternative: Biologische Evolutionstheorie

Kapitel 13. Evolutionäre Spieltheorie. Einleitung. Evolutionäre Biologie. Übersicht 2. Alternative: Biologische Evolutionstheorie Übersicht : Evolutionäre Spieltheorie Einleitung Evolutionäre Biologie Evolutionäre Spieltheorie: Idee Gefangenendilemma (Beispiel) Evolutionäre Stabilität Beispiele Wiederholtes Gefangenendilemma Chicken-Spiel

Mehr

Schule. Station USA ein Land unbegrenzter Möglichkeiten? Teil 1. Klasse. Tischnummer. Arbeitsheft. Teilnehmercode

Schule. Station USA ein Land unbegrenzter Möglichkeiten? Teil 1. Klasse. Tischnummer. Arbeitsheft. Teilnehmercode Schule Station USA ein Land unbegrenzter Möglichkeiten? Teil 1 Arbeitsheft Klasse Tischnummer Teilnehmercode Liebe Schülerinnen und Schüler! Mathematik-Labor Station USA - ein Land der In Ihrem bisherigen

Mehr

Synthese Eingebetteter Systeme. 16 Abbildung von Anwendungen: Optimierung mit DOL

Synthese Eingebetteter Systeme. 16 Abbildung von Anwendungen: Optimierung mit DOL 12 Synthese Eingebetteter Systeme Sommersemester 2011 16 Abbildung von Anwendungen: Optimierung mit DOL 2011/06/24 Michael Engel Informatik 12 TU Dortmund unter Verwendung von Foliensätzen von Prof. Lothar

Mehr

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte

Mehr

Grundlagen der biologischen Evolution

Grundlagen der biologischen Evolution Ausgewählte Grundlagen der biologischen Evolution Grundlagen der biologischen Evolution Chromosome und Gene Genotyp und Phänotyp Evolutionsfaktoren Epigenetik und was wir sonst noch nicht verstanden haben

Mehr

Frage 8.3. Wozu dienen Beweise im Rahmen einer mathematischen (Lehramts-)Ausbildung?

Frage 8.3. Wozu dienen Beweise im Rahmen einer mathematischen (Lehramts-)Ausbildung? 8 Grundsätzliches zu Beweisen Frage 8.3. Wozu dienen Beweise im Rahmen einer mathematischen (Lehramts-)Ausbildung? ˆ Mathematik besteht nicht (nur) aus dem Anwenden auswendig gelernter Schemata. Stattdessen

Mehr

13 Java 4 - Entwurfsmuster am Beispiel des Rucksackproblems

13 Java 4 - Entwurfsmuster am Beispiel des Rucksackproblems 13 Java 4 - Entwurfsmuster am Beispiel des Rucksackproblems 13.1 Modellierung des Rucksackproblems 13.2 Lösung mit Greedy-Algorithmus 13.3 Lösung mit Backtracking 13.4 Lösung mit Dynamischer Programmierung

Mehr

A. Anhang Daubechies-Wavelets General characteristics: Compactly supported wavelets with extremal phase and highest number of vanishing moments for a

A. Anhang Daubechies-Wavelets General characteristics: Compactly supported wavelets with extremal phase and highest number of vanishing moments for a A. Anhang A.1. Eigenschaften von Wavelets und Wavelet-Familien Die folgenden tabellarischen Zusammenstellungen der wichtigsten Eigenschaften der in dieser Arbeit verwendeten Wavelet-Typen und Wavelet-Familien

Mehr

4. Wässrige Lösungen schwacher Säuren und Basen

4. Wässrige Lösungen schwacher Säuren und Basen 4. Wässrige Lösungen schwacher Säuren und Basen Ziel dieses Kapitels ist es, das Vorgehenskonzept zur Berechnung von ph-werten weiter zu entwickeln und ph-werte von wässrigen Lösungen einprotoniger, schwacher

Mehr

11 Optimierung von Funktionen einer Veränderlichen

11 Optimierung von Funktionen einer Veränderlichen 11 Optimierung von Funktionen einer Veränderlichen In diesem Kapitel werden die bis hier behandelten Grundlagen der Analysis genutzt, um Methoden aus der Optimierungstheorie für eindimensionale Entscheidungsmengen

Mehr

2. Optimierungsprobleme 6

2. Optimierungsprobleme 6 6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen

Mehr

Domain-independent. independent Duplicate Detection. Vortrag von Marko Pilop & Jens Kleine. SE Data Cleansing

Domain-independent. independent Duplicate Detection. Vortrag von Marko Pilop & Jens Kleine. SE Data Cleansing SE Data Cleansing Domain-independent independent Duplicate Detection Vortrag von Marko Pilop & Jens Kleine http://www.informatik.hu-berlin.de/~pilop/didd.pdf {pilop jkleine}@informatik.hu-berlin.de 1.0

Mehr

Numerische Integration von Differential-Gleichungen Das klassische Runge-Kutta-Verfahren

Numerische Integration von Differential-Gleichungen Das klassische Runge-Kutta-Verfahren Numerische Integration von Differential-Gleichungen Das klassische Runge-Kutta-Verfahren Gegeben sei ein Anfangswertproblem erster Ordnung: y = f (x;y y(x 0 = y 0 Wie schon erörtert, beschreibt eine DGl

Mehr

mathe plus Aussagenlogik Seite 1

mathe plus Aussagenlogik Seite 1 mathe plus Aussagenlogik Seite 1 1 Aussagenlogik 1.1 Grundbegriffe Def 1 Aussage Eine Aussage ist ein beschriebener Sachverhalt, dem eindeutig einer der Wahrheitswerte entweder wahr oder falsch zugeordnet

Mehr

Biometrie im neuen Antragsverfahren

Biometrie im neuen Antragsverfahren 8. Fortbildungsveranstaltung der GV-SOLAS für Tierschutzbeauftragte und Behördenvertreter Warum biometrische Planung? Einfachste Antwort: Weil es im Genehmigungsantrag so vorgesehen ist. 2 Warum biometrische

Mehr

Demo für

Demo für SUMMENZEICHEN Regeln und Anwendungen Gebrauchs des Summenzeichens mit Aufgaben aus vielen Bereichen für Angela Datei Nr. 4 Stand:. Oktober INTERNETBIBLIOTHEK FÜR SCHULMATHEMATIK Demo für 4 Summenzeichen

Mehr

Teil: lineare Regression

Teil: lineare Regression Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge

Mehr

Systeme von linearen Ungleichungen

Systeme von linearen Ungleichungen Systeme von linearen Ungleichungen ALGEBRA Kapitel 6 MNProfil - Mittelstufe KZN Ronald Balestra CH - 8046 Zürich www.ronaldbalestra.ch Name: Vorname: 28. Februar 2016 Überblick über die bisherigen ALGEBRA

Mehr

Proseminarvortrag. Markov-Ketten in der Biologie (Anwendungen)

Proseminarvortrag. Markov-Ketten in der Biologie (Anwendungen) Proseminarvortrag Markov-Ketten in der Biologie (Anwendungen) von Peter Drössler 20.01.2010 2 Markov-Ketten in der Biologie (Peter Drössler, KIT 2010) Inhalt 1. Das Wright-Fisher Modell... 3 1.1. Notwendige

Mehr

Kapitel 3. Minkowski-Raum. 3.1 Raumzeitlicher Abstand

Kapitel 3. Minkowski-Raum. 3.1 Raumzeitlicher Abstand Kapitel 3 Minkowski-Raum Die Galilei-Transformation lässt zeitliche Abstände und Längen unverändert. Als Länge wird dabei der räumliche Abstand zwischen zwei gleichzeitigen Ereignissen verstanden. Solche

Mehr

Parameteroptimierung von Simulationsmodellen mit Evolutionären Algorithmen in optislang

Parameteroptimierung von Simulationsmodellen mit Evolutionären Algorithmen in optislang Parameteroptimierung von Simulationsmodellen mit Evolutionären Algorithmen in optislang Kopplung mit CAE-Tools SimulationX und Simulink Dipl.-Ing. M. Koch Weimarer Optimierungs- und Stochastiktage 6.0

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen Projektgruppe 431 Metaheuristiken Bianca Selzam Inhaltsverzeichnis 1 Einleitung......................................................... 1 2 Grundlagen aus der Biologie.......................................

Mehr

Nichtdeterministische Platzklassen

Nichtdeterministische Platzklassen Sommerakademie 2010 Rot an der Rot AG 1: Wieviel Platz brauchen Algorithmen wirklich? Nichtdeterministische Platzklassen Ulf Kulau August 23, 2010 1 Contents 1 Einführung 3 2 Nichtdeterminismus allgemein

Mehr

Mathematik für Wirtschaftswissenschaftler Kapitel 4-6. Universität Trier Wintersemester 2013 / 2014

Mathematik für Wirtschaftswissenschaftler Kapitel 4-6. Universität Trier Wintersemester 2013 / 2014 Mathematik für Kapitel 4-6 Universität Trier Wintersemester 2013 / 2014 Kapitel 4 1. Extremwerte 2. Lokale Optimalpunkte 3. Wendepunkte 2 Kapitel 4.1 EXTREMWERTE 3 Extrempunkte und Extremwerte 4 Strikte

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Exemplar für Prüfer/innen

Exemplar für Prüfer/innen Exemplar für Prüfer/innen Kompensationsprüfung zur standardisierten kompetenzorientierten schriftlichen Reifeprüfung AHS Juni 2016 Mathematik Kompensationsprüfung 3 Angabe für Prüfer/innen Hinweise zur

Mehr

4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 4.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte

Mehr

A2.3 Lineare Gleichungssysteme

A2.3 Lineare Gleichungssysteme A2.3 Lineare Gleichungssysteme Schnittpunkte von Graphen Bereits weiter oben wurden die Schnittpunkte von Funktionsgraphen mit den Koordinatenachsen besprochen. Wenn sich zwei Geraden schneiden, dann müssen

Mehr

Datenbankanwendung. Prof. Dr.-Ing. Sebastian Michel TU Kaiserslautern. Wintersemester 2014/15. smichel@cs.uni-kl.de

Datenbankanwendung. Prof. Dr.-Ing. Sebastian Michel TU Kaiserslautern. Wintersemester 2014/15. smichel@cs.uni-kl.de Datenbankanwendung Wintersemester 2014/15 Prof. Dr.-Ing. Sebastian Michel TU Kaiserslautern smichel@cs.uni-kl.de Wiederholung: Anfragegraph Anfragen dieses Typs können als Graph dargestellt werden: Der

Mehr

1 Mengen und Aussagen

1 Mengen und Aussagen $Id: mengen.tex,v 1.2 2010/10/25 13:57:01 hk Exp hk $ 1 Mengen und Aussagen Der wichtigste Grundbegriff der Mathematik ist der Begriff einer Menge, und wir wollen damit beginnen die klassische, 1878 von

Mehr

Lösungen zu den Hausaufgaben zur Analysis II

Lösungen zu den Hausaufgaben zur Analysis II Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin

Mehr

Verwandte Begriffe Maxwell-Gleichungen, elektrisches Wirbelfeld, Magnetfeld von Spulen, magnetischer Fluss, induzierte Spannung.

Verwandte Begriffe Maxwell-Gleichungen, elektrisches Wirbelfeld, Magnetfeld von Spulen, magnetischer Fluss, induzierte Spannung. Verwandte Begriffe Maxwell-Gleichungen, elektrisches Wirbelfeld, Magnetfeld von Spulen, magnetischer Fluss, induzierte Spannung. Prinzip In einer langen Spule wird ein Magnetfeld mit variabler Frequenz

Mehr

Mathematische Grundlagen der Computerlinguistik

Mathematische Grundlagen der Computerlinguistik Centrum für Informations- und Sprachverarbeitung (CIS) 10. Juni 2014 Table of Contents 1 2 Äquivalenz Der Begriff der Äquivalenz verallgemeinert den Begriff der Gleichheit. Er beinhaltet in einem zu präzisierenden

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare

Mehr

dgpf Distributed Genetic Programming Framework http://dgpf.sourceforge.net/

dgpf Distributed Genetic Programming Framework http://dgpf.sourceforge.net/ dgpf Distributed Genetic Programming Framework http://dgpf.sourceforge.net/ University of Kassel, Chair of Distributed Systems, Wilhelmshöher Allee 73, D-34121 Kassel, Hesse, Germany Projektarbeiten Allgemeine

Mehr

3. Das Reinforcement Lernproblem

3. Das Reinforcement Lernproblem 3. Das Reinforcement Lernproblem 1. Agierender Agent in der Umgebung 2. Discounted Rewards 3. Markov Eigenschaft des Zustandssignals 4. Markov sche Entscheidung 5. Werte-Funktionen und Bellman sche Optimalität

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Poelchau-Oberschule Berlin A. Mentzendorff September 2007 Lineare Gleichungssysteme Inhaltsverzeichnis 1 Grundlagen 2 2 Das Lösungsverfahren von Gauß 4 3 Kurzschreibweise und Zeilensummenkontrolle 6 4

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den

Mehr

Schule. Klasse. Station Figurierte Zahlen Teil 1. Tischnummer. Arbeitsheft. Teilnehmercode

Schule. Klasse. Station Figurierte Zahlen Teil 1. Tischnummer. Arbeitsheft. Teilnehmercode Schule Station Figurierte Zahlen Teil 1 Klasse Tischnummer Arbeitsheft Teilnehmercode Liebe Schülerinnen und Schüler! Schon die alten Griechen haben Zahlen mit Hilfe von Zählsteinen dargestellt. Die Steinchen

Mehr

Mathematik EF. Bernhard Scheideler

Mathematik EF. Bernhard Scheideler Mathematik EF Bernhard Scheideler Stand: 7. September 20 Inhaltsverzeichnis Die Kurvendiskussion. Stetigkeit und Differenzierbarkeit:....................2 Standardsymmetrie:............................

Mehr

Hypothesen: Fehler 1. und 2. Art, Power eines statistischen Tests

Hypothesen: Fehler 1. und 2. Art, Power eines statistischen Tests ue biostatistik: hypothesen, fehler 1. und. art, power 1/8 h. lettner / physik Hypothesen: Fehler 1. und. Art, Power eines statistischen Tests Die äußerst wichtige Tabelle über die Zusammenhänge zwischen

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 4

Technische Universität München Zentrum Mathematik. Übungsblatt 4 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 4 Hausaufgaben Aufgabe 4. Gegeben sei die Funktion f : D R mit f(x) :=

Mehr

Übungsbeispiel 1: Quadratische Modellierung

Übungsbeispiel 1: Quadratische Modellierung Übungsbeispiel 1: Quadratische Modellierung Ein Uhrenhersteller möchte den Preis für sein neues Modell festlegen und führt dazu eine Marktanalyse durch. Das Ergebnis lautet: Bei einem Preis von 60 ist

Mehr

8. Statistik Beispiel Noten. Informationsbestände analysieren Statistik

8. Statistik Beispiel Noten. Informationsbestände analysieren Statistik Informationsbestände analysieren Statistik 8. Statistik Nebst der Darstellung von Datenreihen bildet die Statistik eine weitere Domäne für die Auswertung von Datenbestände. Sie ist ein Fachgebiet der Mathematik

Mehr

Routing Algorithmen. Begriffe, Definitionen

Routing Algorithmen. Begriffe, Definitionen Begriffe, Definitionen Routing (aus der Informatik) Wegewahl oder Verkehrslenkung bezeichnet in der Telekommunikation das Festlegen von Wegen für Nachrichtenströme bei der Nachrichtenübermittlung über

Mehr

Gliederung. Kapitel 4. Lokale Suchverfahren. Meta-Heuristiken. Simulated Annealing. Lokale Suchverfahren. Optimierungsalgorithmen

Gliederung. Kapitel 4. Lokale Suchverfahren. Meta-Heuristiken. Simulated Annealing. Lokale Suchverfahren. Optimierungsalgorithmen Kapitel Optimierungsalgorithmen Gunnar Klau Institut für Computergraphik und Algorithmen Gliederung Kombinatorische vs. Ganzzahlige Optimierung Exakte Verfahren Branch-and-Bound Schnittebenenverfahren

Mehr