Genetische Algorithmen
|
|
- Lorenz Baum
- vor 7 Jahren
- Abrufe
Transkript
1 Genetische Algorithmen Ottmar Beucher, Fachhochschule Karlsruhe 7. Dezember
2 Guten Tag, meine Damen und Herren! Ich begrüße Sie recht herzlich zu meinem Vortrag über Genetische Algorithmen. Hierbei handelt es sich um eine in den letzten 20 Jahren entwickelte neue Art von sogenannten Optimierungsalgorithmen, die auf Grund ihrer vielfältigen Anwendungsmöglichkeiten eine, wie ich versuchen werde zu zeigen, bedenkenswerte Alternative zu den klassischen Methoden der mathematischen Optimierung darstellen. Inhalt Lassen sie mich Ihnen zunächst einen Überblick geben über die Themen, die ich im Laufe der nächsten ca. 40 Minuten darzustellen versuche. Ich werde zunächst versuchen, zu erläutern, was ich unter dem Begriff Optimierung verstehe. Dieser Begriff ist nicht eindeutig belegt, denn ein Politiker wird hierunter sicherlich etwas deutlich anderes verstehen, als ein Ingenieur. Wenn ich im Folgenden von Optimierung spreche, so meine ich natürlich die sogenannte mathematische Optimierung. Ich werde zunächst an Hand eines sehr einfachen und einfach zu verstehenden Anwendungsbeispiels versuchen, präzise formulieren, was ich darunter verstehe. Im Folgenden möchte ich einige spezielle Lösungsansätze diskutieren. Konkret sind dies zunächst der sogenannte Hill-Climbing-Algorithmus und das Monte-Carlo-Verfahren. Natürlich stellen diese beiden Verfahren nur einen kleinen Ausschnitt der bekannten mathematischen Optimierungsverfahren dar und somit erhebt die kleine Diskussion der Lösungsansätze natürlich nicht den Anspruch der Vollständigkeit. Die beiden Verfahren repräsentieren vielmehr, wie wir sehen werden, zwei Gegenpole, zwischen denen sich die sogenannten Evolutionsstrategien platzieren, zu denen die Genetischen Algorithmen gehören. Ich werde versuchen, diesen Sachverhalt an Hand eines sehr einfachen kleinen Beispiels zu erläutern, ohne im Detail auf den Aufbau dieser Algorithmen einzugehen und eingehen zu müssen. Im Anschluss daran, möchte ich auf das Kernthema zu sprechen kommen, die sogenannten Genetischen Algorithmen. Hierbei handelt es sich, wie ich erläutern werde, um eine Klasse von Optimierungsalgorithmen, die die optimale Lösung eines Optimierungsproblems zu finden versuchen, in dem die Mechanismen der natürlichen Evolution imitiert werden. Dazu muss natürlich zunächst erläutert werden, um welche Mechanismen es sich hierbei handelt. Außerdem muss erläutert, wie im evolutionären Umfeld die Eigenschaften, deren Optimalität bewertet wird codiert werden. Hierzu werden wir kurz auf die Struktur des genetischen Codes eingehen. Im Anschluss daran können wir auf die mathematische Formalisierung der evolutionären Mechanismen zu sprechen kommen. Danach werde ich versuchen, Ihnen einen etwas tieferen Einblick in die Funktionsweise dieser Algorithmen zu geben und Ihnen zu vermitteln, warum und wie solche Algorithmen funktionieren. Diese Fragen werden mit dem sogenannten Fundamentalsatz der Genetischen Algorithmen zum großen Teil beantwortet, so dass auf die detaillierte Diskussion die- 2
3 ses Resultats nicht verzichtet werden soll. Aus Zeitgründen kann ich hier zu einigen interessanten Fragen, etwa zum Thema der Konvergenz dieser Algorithmen, leider nicht eingehen. Für den Ingenieur ist natürlich, viel mehr als die Diskussion des Warum die Frage nach dem Was interessant. Welche Probleme kann ich mit dieser Methode lösen? Ich werde hierzu zwei Anwendungsbeispiele, nämlich die Standortbestimmung bei Funksendern und die statistische Modellierung von Last-/Drehzahl-Daten andiskutieren, die ich selbst im Rahmen von eigenen Forschungstätigkeiten näher bearbeitet habe. An Schluss des Vortrags folgt natürlich, wie üblich, eine kleine Zusammenfassung. Optimierungsaufgaben Lassen Sie uns nun zur Erläuterung des Optimierungsbegriffs mit einem sehr einfachen kleinen Beispiel beginnen, welches allen Zuhörern hinreichend bekannt sein dürfte, ist es doch eine Frage, die in der messtechnischen Praxis immer wieder vorkommt und die auch in Ingenieurmathematik-Kursen standardmäßig behandelt wird. Es geht hier um das Problem, zu gegebenen Messdaten eine Ausgleichsgerade zu finden, d.h. eine Gerade, die den linearen Zusammenhang zwischen Einund Ausgangsgröße der Messung am besten repräsentiert. Legt man nun eine Gerade in die Grafik, wie etwa in dem vorliegenden Bild, so erkennt man sehr schnell, was am besten heißen soll und warum im vorliegenden Fall keine optimale Lösung dargestellt ist. Man sieht, dass die Punkte zu weit von der vorgeschlagenen Geraden weg liegen. Gelingt es nun, dieses zu weit durch Einführung eines geeigneten Abstandsmaßes zu quantifizieren, so erhalten wir die Möglichkeit dieses Problem mit mathematischen Methoden zu bearbeiten. Ein geeignetes Abstandsmaß ist, wie wir alle wissen die Summe der Beträge der Abstände der Messwerte von der Geraden. Die Aufgabe besteht nun darin, diese Größe (eine Zahl, die von der Lage der gewählten Geraden und somit von ihren Bestimmungsparametern abhängt) zu optimieren, was in diesem Fall zu minimieren heißt. Die folgende Grafik zeigt das Ergebnis einer solchen Optimierung. Zusammenfassend kann man das Problem also folgendermaßen mathematisch formulieren: Gegeben N Paare von Messwerten. Zwischen Ein- und Ausgangsgröße bestehe bekanntermaßen ein linearer Zusammenhang. Bezüglich des Abstandsmaßes Summe der Quadrate der Abstände vom Messwert - die Quadrate sind hier aus Gründen der mathematischen Bequemlichkeit gewählt - suchen wir optimale Bestimmungsparameter â und ˆb einer Geraden, so dass dieses Abstandsmaß minimal wird. Aus dem Beispiel können wir nun für den Begriff der mathematischen Optimierung folgende allgemeine prinzipielle Formulierung einer Optimierungsauf- 3
4 gabe ableiten: Gegeben ist eine (i.a. von mehreren Parametern abhängende) reellwertige Funktion, die sogenannte Zielfunktion. Gesucht ist der Satz von Parametern x 0, bei dem diese Funktion ein Maximum (Optimum) einnimmt, gegebenenfalls unter Einhaltung gewisser Nebenbedingungen, welche in Form von Gleichungen oder Ungleichungen formuliert werden. Die Formulierung als Maximierungsaufgabe stellt hierbei keine Einschränkung dar. Jeder Maximierungsaufgabe kann leicht, etwa durch Änderung des Vorzeichens der Zielfunktion, in eine Minimierungsaufgabe umgewandelt werden und umgekehrt. Lösungsansätze Lösungsansätze für Optimierungsaufgaben sind in der mathematischen Literatur sehr zahlreich und hängen oft sehr stark von der Struktur des jeweiligen Problems ab. Der ein oder andere mag sich z.b. an den Vortrag des Kollegen Voigt über das Problem des Chinesischen Postboten erinnern, wo es um das Auffinden der besten Route für einen Postboten ging und an die zu dessen Lösung verwendeten graphentheoretischen Methoden. Ein weiteres prominentes Beispiel für einen auf eine spezielle Problemklasse zugeschnittenen Algorithmus ist der Simplex-Algorithmus zur Lösung linearer Optimierungsaufgaben, die im Operations Reasearch überragende Bedeutung haben. Wir wollen und können auf diese Methodenvielfalt im Rahmen dieses Vortrages natürlich nicht eingehen. Stattdessen werden wir zunächst an Hand eines sehr einfachen Beispiels und unter zu Hilfe Nahme von MATLAB-Simulationen, zwei sehr allgemeine Verfahren betrachten, das Hill-Climbing und das Monte-Carlo-Verfahren. Wir tun dies, weil diese zum einen auf sehr allgemeinen und leicht verständlichen Prinzipien beruhen, zum andern eine Art Referenz bilden für die Evolutionsstrategien, zu denen die Genetischen Algorithmen gehören. Das Hill-Climbing-Verfahren besteht darin, das Maximum einer Funktion dadurch zu finden, indem von einem gewissen Startpunkt aus entlang der Richtung der stärksten Steigung gesucht wird. Das Hill-Climbing-Verfahren ist somit ein einfaches Verfahren aus der Klasse der Optimierungsverfahren, die die Gradienteninformation der Zielfunktion verwenden. Die folgende MATLAB-Simulation zeigt für 4 Startpunkte, wie die Iteration von statten geht. Man erkennt wie sich die Iterationswerte zielgerichtet von jedem Startpunkt aus in Richtung des nächstgelegenen lokalen Maximums (also Hügels, um in der Hill-Climbing-Terminologie zu bleiben) bewegen. Der Vorteil eines solchen Algorithmus ist also die Ausnutzung zusätzlicher Informationen über die Zielfunktion, im vorliegenden Fall der Gradienteninformation. Daraus resultiert seine Schnelligkeit im Vergleich zu andern Algorithmen. Auch ist es für Verfahren dieser Klasse oft möglich Konvergenzanalysen durchzuführen, den Suchaufwand abzuschätzen oder Fehleranalysen zu betreiben. Nachteilig, und das zeigt die Simulation ganz klar, ist die Tendenz, sehr schnell 4
5 zu lokalen Optima zu konvergieren. Ist ein solches einmal gefunden, so kann es verfahrensbedingt nie mehr verlassen werden. Ein weiterer Nachteil ist die Verwendung des Gradienten oder gar, wie beim Newton-Verfahren, der Ableitungen zweiter Ordnung, eine Information, die oft nicht oder ungenau vorliegt. Das Verfahren ist somit nicht universell verwendbar. Dem Hill-Climbing-Verfahren in gewisser Weise diametral entgegengesetzt ist das Monte-Carlo-Verfahren. Hier wird der Suchraum und die Zielfunktion völlig unsystematisch abgesucht, da die Suchpunkte zufällig (wie beim Glücksspiel, daher der Name) und wahllos im Suchraum erzeugt werden. Die folgende MATLAB-Simulation zeigt dies für die vorhin verwendeten 4 Startpunkte eindrucksvoll. Zusätzlich ist mit dem schwarzen Punkt die bislang beste gefundene Lösung markiert. Wir sehen, wie dieser sich dem globalen Maximum annähert. Die Vorteile eines solchen Verfahrens bestehen in der universellen Verwendbarkeit der zu Grunde liegenden Idee. Es benötigt keinerlei zusätzliche à- priori-informationen über die Zielfunktion. Außerdem können suboptimale Lösungen offenbar jederzeit wieder verlassen werden. Darüber hinaus ist, nebenbei bemerkt, der Algorithmus sogar auf zeitlich veränderliche Zielfunktionen anwendbar. Sehr nachteilig ist hingegen der Aufwand und die Tatsache, dass keine Konvergenzsicherheit herrscht und Fehler- und Aufwandsabschätzungen prinzipiell nicht möglich sind. Die Evolutionsstrategien und damit die Genetischen Algorithmen, die Gegenstand unseres Vortrages sind, liegen in gewissem Sinne zwischen diesen beiden Verfahren. Wie bereits erwähnt, folgen diese Algorithmen den Optimierungsmechanismen der Evolution. Auch hier werden die Suchpunkte stochastisch erzeugt, aber nicht wahllos sondern zielgerichtet und unter Verwendung der Informationen der Zielfunktion, angelehnt an Mechanismen der Evolution. Wie dies im Einzelnen funktioniert, soll im Folgenden erläutert werden. Die MATLAB-Simulation für unser Beispielproblem vermittelt einen ersten Eindruck. Man erkennt, dass der Suchraum stochastisch, aber nicht wahllos abgesucht wird. Im Vorgriff auf die Ergebnisse der nachfolgenden Präsentation kann an dieser Stelle auf Grund des Beispiels schon einmal festgehalten werden, dass die Vorteile der beiden vorangegangenen Verfahren kombiniert werden. Das Verfahren führt eine, von zusätzlichen Informationen über die Zielfunktion gesteuerte, zielgerichtete stochastische Suche durch. Es ist auf Grund seiner Struktur, ähnlich wie die Monte-Carlo-Methode, universell anwendbar, allerdings bei einem weitaus verbesserten Aufwand. Außerdem ist auch dieses Verfahren auf zeitvariate Probleme anwendbar. Allerdings werden auch die Nachteile des Monte-Carlo-Verfahrens vererbt, wie die unklare Konvergenz und der Mangel an theoretischen Aussagen. Hinzu kommt, wie wir sehen werden eine spezielle Problematik der Parametrierung des Verfahrens. 5
6 Mechanismen der natürlichen Evolution Nach diesem ersten Eindruck zur Funktionsweise Genetischer Algorithmen möchte ich nun detaillierter auf die Idee und das Funktionsprinzip dieser Algorithmenklasse eingehen. Wie schon erwähnt, beruhen die Verfahren auf einer Formalisierung der Mechanismen der natürlichen Evolution. Rekapitulieren wir zunächst in einer Art trivialdarwinistischen Betrachtung, die wohl das übliche Wissen zu diesem Thema widerspiegeln sollte, die Funktionsweise dieser Mechanismen. Dazu gehen wir zunächst von einer Population von Individuen mit unterschiedlichen Merkmalen, hier symbolisiert durch geometrische Formen und Farben, aus. Diese Individuen leben in einer gewissen Umwelt und sind den dadurch gegebenen Lebensbedingungen ausgesetzt. Die Lebensbedingungen erzeugen einen sogenannten Selektionsdruck, d.h. einige Individuen überleben die Umweltbedingungen nicht und sterben oder sind nicht fortpflanzungsfähig, andere Individuen sind gut angepasst und verbreiten ihre Erbanlagen. Dabei werden verschiedene Erbanlagen und damit Eigenschaften im Vermehrungsprozess durch Kreuzung mit Eigenschaften anderer (mehr oder weniger zufällig ausgewählter) Individuen verändert. Einige wenige Individuen erhalten dabei zufällig, etwa durch radioaktive Einstrahlung oder andere Umwelteinflüsse oder sporadisch auftretende Erbgutveränderungen neue Eigenschaften. Dieser (seltene) Prozess der zufälligen Änderung wird Mutation genannt. Die neue Population findet sich dann wieder dem Selektionsdruck ausgesetzt und so fort. Oft erhält man durch diesen Prozess besser angepasste Populationen von Individuen. Zusammenfassend kann man also sagen, dass es sich bei der natürlichen Evolution um eine (iteratives) Optimierungsverfahren handelt, welches von drei zufallsbehafteten Basismechanismen angetrieben wird, nämlich Selektion, Kreuzung und Mutation und immerwährend fortschreitet. Diese Basismechanismen werden in der mathematischen Formalisierung des Evolutionsprozesses zu sogenannten stochastischen Operatoren und machen den Kern der Genetischen Algorithmen aus. Der Genetische Code Für die Umsetzung dieser Mechanismen in einen brauchbaren mathematischen Algorithmus fehlt jedoch noch ein wichtiger Baustein, nämlich die Codierung des Problems. Es muss die Frage beantwortet werden, wie ein Optimierungsproblem in eine Form gebracht werden kann, die es erlaubt, genetische Operatoren hierauf anzuwenden. Es erscheint klug, zunächst einmal wieder nach der Lösung zu fragen, die die Natur für dieses Problem gefunden hat. Die Information über die Eigenschaften eines Individuums und somit die Fähigkeit, sich an seine Lebensbedingungen anzupassen, sind im genetischen Co- 6
7 de festgehalten. Die Natur bedient sich hierbei zur Informationscodierung eines Alphabets, bestehend aus den 4 Basen Cytosin, Adenin, Guanin und Uracil (bzw. Thymin auf der DNA), die jeweils in Dreierkombinationen, sogenannten Triplets zusammengefasst die Anlagerung einer Aminosäure bei der Eiweißsynthese steuern. Diese Basentriplets formen Sequenzen auf der RNA ( Wörter ) resp. der DNA. Diese Sequenzen werden als Gene bezeichnet. Zusammengefaltete DNA-Ketten wiederum respräsentieren die Chromosomen, die die komplexen Eigenschaften des Individuums festlegen. Wir können also im weitesten Sinne von einer Informationscodierung auf der Grundlage eines 4-buchstabigen Alphabets sprechen. Mathematische Formalisierung Diese Tatsache wird nun folgendermaßen für eine Formalisierung herangezogen. Statt eines 4-buchstabigen Alphabets wird ein binäres Alphabet verwendet. Auch bezüglich der Gene wird eine Vereinfachung durchgeführt. Triplets und Gene werden mit dem Zeichenumfang des binären Alphabets identifiziert. Ein Gen im Sinne des Genetischen Algorithmus entspricht also der kleinsten Informationseinheit. Mit Hilfe der Gene wird die genetische Information in Binären Strings codiert. Die Binären Strings ersetzen die komplexeren natürlichen Chromosomen ebenso wie die sie tragenden Individuen, so dass im letzten Vereinfachungsschritt die Binären Strings als Individuen angesehen werden. Der evolutionäre Optimierungsprozess wird somit folgendermaßen zu einer mathematischen Optimierungsaufgabe: Die Zielfunktion, welche die Angepasstheit des Individuums an seine Umgebung repräsentiert und im Folgenden als Fitnessfunktion bezeichnet wird, muss auf Binärstrings definiert werden (reelle Zahlen können zum Beispiel diskretisiert und über einen Binärcode des Index dargestellt werden). Der Suchraum muss entsprechend codiert werden. Gesucht ist das Individuum (Binärstring) mit der maximalen Fitness, ggf. unter Einbeziehung von Nebenbedingungen. Die stochastischen Operatoren Selektion, Kreuzung und Mutation werden mit Hilfe des Binärcodes in Anlehnung an die natürlichen Mechanismen realisiert. Die Selektion etwa kann entsprechend der Fitness (Wert der Zielfunktion) der Individuen erfolgen. Im Beispiel auf Folie 16 wird hierfür ein Roulette-Rad verwendet. In jedem Selektionschritt (der ebenfalls mit einer gewissen vorgegebenen Wahrscheinlichkeit vorgenommen werden kann) wird ein Individuum durch drehen des Rouletterades ausgewählt. Da Individuen mit hoher Fitness auf dem Rad einen proportional größeren Raum einnehmen, haben diese eine höhere Wahrscheinlichkeit ausgewählt zu werden und landen, ggf. mehrfach reproduziert, in einem Paarungs-Pool (Mating-Pool). Die Individuen des Mating-Pools haben (wiederum mit einer gewissen Wahrscheinlichkeit) das Recht, sich zu kreuzen und ihre Gene auszutauschen. Dies kann bei binärer Codierung so erfolgen, dass die Binärstrings zweier Indivi- 7
8 duen an einer Stelle aufgeschnitten und vertauscht werden. Die Beispiele auf Folie 17 erläutern die Funktionsweise. Zum Abschluss wird die Mutation simuliert. Hierzu kann man mit einer gewissen, i.a. sehr kleinen Wahrscheinlichkeit die Bits der Binärstrings kippen. Man erhält, wie wir später sehen werden, durch diesen Prozess eine Population mit im Schnitt höherer Fitness und ggf. existiert auch ein fitteres Einzelindividuum. Der beschriebene Prozess wird dann, bis zum Erreichen eines noch zu definierenden Endekriteriums, in der beschriebenen Abfolge wiederholt. Der Fundamentalsatz In dem am Anfang des Vortrags vorgestellten Beispiel wurde gezeigt, dass der oben beschriebene Prozess zu einer sinnvollen Lösung führt. Ich möchte jedoch nicht fortfahren, ohne etwas näher zu beleuchten, warum dies so ist und der formalisierte Mechanismus als Optimierungsverfahren geeignet ist. Ich will daher versuchen, das zentrale Ergebnis, welches Antwort auf diese Frage gibt, das sogenannte Schema-Theorem näher zu beleuchten. Der wesentliche Begriff für das Verständnis des Algorithmus ist der des Schemas. Unter einem Schema versteht man eine Menge von Binärstrings (Individuen), die durch eine gemeinsame fixierte Bitkombination gekennzeichnet sind. Eine solche Bitkombination kann als eine Eigenschaft oder einer Eigenschaftenkombination interpretiert werden. Folie 19 zeigt ein Beispiel. Am besten kann diese Menge durch einen Hyperwürfel im Raum der Bitkombinationen visualisiert werden. So entspricht in dem dargestellten Beispiel das Schema 10 einem 3-dimensionalen Würfel und das Schema 100 einem zweidimensionalen Rechteck im 5-dimensionalen Suchraum der Individuen. Die Zusammenfassung der Individuen zu Schemata trägt der Funktionsweise Genetischer Algorithmen Rechnung. Die Herleitung der Algorithmen zeigt, dass es keinen Sinn macht, die Entwicklung einzelner Individuen zu verfolgen, sondern nur der Eigenschaften innerhalb einer ganzen Population. Die Population wiederum repräsentiert eine Vielzahl von Schemata, da ein Individuum einer Vielzahl von Schemata angehört (eine Vielzahl von Eigenschaften hat). Im Idealfall stellt die Population einen Schätzer für die Verteilung der (fitten) Schemata dar. Statt also zu fragen, wie einzelne Individuen im Laufe der Evolution verändert werden, macht es mehr Sinn, zu fragen, wie die Genetischen Operatoren die Schemata verändern bzw. wie ein Schema im Laufe der Evolution (Iteration) durch die Populationen repräsentiert wird. Schauen wir uns dazu die Wirkung der Operatoren auf ein Schema genauer an: wie wir gesehen haben, wird bei der fitnessproportionalen Selektion ein Individuum mit einer Wahrscheinlichkeit p j = f j ausgewählt. Die Wahrscheinlichkeit, dass ein Individuum eines Schemas H ausgewählt wird, ergibt N f sich aus der Summe dieser Wahrscheinlichkeiten. Damit ist die Anzahl der aus einer Population ausgewählten Schema-H-Individuen MH M = N p(h). Bezüg- 8
9 lich der Anzahl M H der schon vorher zum Schema H gehörenden Individuen ergibt sich daraus, dass die Zahl MH M (n + 1) der aus der n-ten Generation in dem Mating-Pool selektierten Individuen gleich M H (n) fh ist, wobei f f H die relative Fitness der Schema-H-Individuen innerhalb der Population ist. Der Faktor f H repräsentiert somit den auf das Schema ausgeübten Selektionsdruck. f Ist die relative Fitness innerhalb eines Schemas eine Zeit lang etwa gleichbleibend hoch und höher als die durchschnittliche Fitness der Population, so wächst der Anteil der Schema-H-Individuen in diesem Zeitraum exponentiell an. Dies kann, wie wir später an Hand eines Beispiels sehen werden, experimentell nachvollzogen werden und ist ein wesentlicher Punkt, denn dieser Effekt bewirkt, dass es sich bei einem genetischen Algorithmus eben nicht um ein wahlloses Suchverfahren handelt, sonder in gewissem Sinne um eine zielgerichtete Suche, die noch dazu mit (anfangs) exponentieller Geschwindigkeit von statten geht. Dass der Selektionsdruck alleine die Population nicht auf Dauer in einen suboptimalen Bereich treibt, dafür sorgen die anderen beiden genetischen Operatoren. Durch die Kreuzung werden, wie die Beispiele auf Folie 23 zeigen, Schemata i.a. zerstört, wobei jedoch kurze Schemata offenbar eine bessere Überlebenschance haben, als längere. Es können allerdings auch Schema-Individuen neu entstehen, was wiederum dazu beiträgt, dass weniger erfolgreiche Schemata verlassen und andere Regionen des Suchraums aufgesucht werden können. Ähnlich verhält es sich mit der Mutation. Auch hier werden Schemata i.a. zerstört, wobei jedoch kurze Schemata offenbar eine bessere Überlebenschance haben, als längere. Fasst man alle diese Einflüsse auf ein Schema zusammen, so erhält man folgendes Resultat, welches die Propagation des relativen Anteils P H eines Schemas innerhalb der Population im Laufe der Generationen beschreibt: Satz: Ist H ein Schema mit der definierenden Länge δ(h) und mit der Ordnung o(h) in einem binär codierten (klassischen) Genetischen Algorithmus mit Kreuzungs- Wahrscheinlichkeit p c und Mutations-Wahrscheinlichkeit p m. Sei weiter P H (n) der relative Anteil der zum Schema H gehörenden Individuen in einer Population zum Iterationszeitpunkt n. Dann gilt: P H (n + 1) P H (n) f H(n) f(n) ( 1 p c δ(h) ) N 1 o(h)p m Zur Illustration dieses Sachverhaltes greifen wir wieder auf das Eingangsbeispiel zurück, an Hand dessen wir unter MATLAB die Funktionsweise der Algorithmen visualisiert haben. Der Suchraum wurde in diesem Beispiel für die Anwendung des Genetischen Algorithmus mit einer Genauigkeit von ca diskretisiert und mit 18-Bit-Strings binär codiert. Die beiden Streifen über den Graphen der Zielfunktion repräsentieren zwei sehr unterschiedliche Schemata, nämlich ein Schema hoher Fitness in der Nähe des globalen Optimums und 9
10 ein Schema mit sehr niedriger Fitness in der Nähe des globalen Minimums. Die übrigen Grafiken repräsentieren die durchschnittliche Fitness der Population aus 4 Individuen in einem Lauf und jeweils die (durchschnittliche) Fitness des Schemas und die (durchschnittliche) Anzahl der Schema-Individuen, welche über mehrere Läufe gemittelt wurde. Man erkennt deutlich, dass die Fitness der Population anfangs dramatisch, später leicht ansteigt. Ebenso deutlich erkennt man den exponentiellen Anstieg der durchschnittlichen Schema- Fitness und der Schema-Anzahl für das überdurchschnittliche Schema. Das schlechte Schema hingegen ist von Anfang an so gut wie nicht in der Population vertreten. Als Fazit kann die Aussage des Fundamentalsatzes wie folgt beschrieben werden: Mittlere Fitness der Populationen steigt an. Fitte Schemata breiten sich (durch den Selektionsdruck) exponentiell aus. Kreuzung und Mutation wirken dem entgegen. Dadurch können fittere Schemata und Individuen gefunden werden. Algorithmus durchsucht gleichzeitig viele Hyper flächen des Suchraums (implizite Parallelität der GA). Fitte Schemata mit kleinen Bitblöcken werden bevorzugt durch die Generationen verbreitet (building-block-hypothese). Jede Population ist ein Schätzer für die Fitnessverteilung der Schemata. Anwendungen Leider kann ich an dieser Stelle aus Zeitgründen auf interessante Fragestellungen, wie etwa die nach der Konvergenz oder nach der Parametrierung der Genetischen Algorithmen nicht eingehen. Lassen sie mich stattdessen exemplarisch zwei Anwendungen diskutieren, die eigenen Forschungsarbeiten entstammen. Im ersten Beispiel soll das Problem der Standortoptimierung für Funkgeräte diskutiert werden. Die erste Grafik zeigt die Ausleuchtung eines Geländes mit Funkwellen von einem beliebigen, hier blau markierten Standpunkt aus. Die zweite Grafik zeigt die Ausleuchtung vom optimalen Standpunkt aus. Das Problem bei dieser Anwendung ist das Vorhandensein von sehr vielen lokalen Optima, wie die Grafik der Ausleuchtungsfunktion (Zielfunktion) zeigt. Darüber hinaus haben wir es mit einer riesigen Datenmenge, also einem sehr großen Suchraum zu tun, was neben der Bestimmung des Optimums schon allein die Berechnung der Zielfunktion sehr aufwendig macht. Gleichzeitig sind aber geringe Berechnungszeiten für den optimalen Standort gefordert. 10
11 Für dieses Problem ist die Anwendung eines gradientenbasierte Verfahrens auf Grund der Vielzahl lokaler Maxima ungünstig, zumal der Gradient immer erst numerisch geschätzt werden müsste. Die i.a. riesige Datenmenge verbietet eine Monte-Carlo-Suche, zumal geringe Antwortzeiten gefordert waren. Mit Hilfe Genetischer Algorithmen und einiger Zusatzmaßnahmen gelang es, die Anforderungen befriedigend zu erfüllen, da hier nur einige tausend Gitterpunkte zu durchsuchen waren. In einem Hybridverfahren kann der Genetische Algorithmus für eine schnelle Grobsuche verwendet werden, um anschließend mit einem Hill-Climbing-Verfahren eine Feinsuche durchzuführen. Die nächste Anwendung stammt aus dem Bereich der (statistischen) Parameteroptimierung. Bei diesem Problem ging es um den Entwurf einer zweidimensionalen statistischen Verteilung von Last/Drehzahl-Messdaten. Ein entsprechendes Modell lieferte 12 zu optimierende, d.h. an die Daten anzupassende Parameter, wobei die Verteilung, wie im gerahmten Kasten zu sehen ist, abschnittsweise definiert ist, was für gradientenbasierte Verfahren riskant ist. Mit Hilfe Genetischer Algorithmen gelang es, die Parameter befriedigend anzupassen. Zusammenfassung Lassen Sie mich nun zum Abschluss die wichtigsten Punkte des Vortrages zusammenfassen. Ich habe in diesem Vortrag versucht, Ihnen ein neues neues Prinzip der Optimierung vorzustellen, welches sich an dem Vorbild der Natur orientiert, die sogenannten Genetischen Algorithmen. Die Vorteile dieser Algorithmenklasse liegen in ihrer universelle Einsetzbarkeit, ihrer Einsetzbarkeit für große Probleme und auf Grund ihrer prinzipiell dauerhaft angelegten Struktur in ihrer Einsetzbarkeit für zeitvariate Umgebungen, wofür ich aber kein Beispiel angegeben habe. Die Nachteile sind allerdings auch nicht unerheblich. So gibt es leider wenige theoretische Grundlagen, die es beispielsweise erlauben, gesicherte Konvergenzaussagen zu machen, oder à-priori geeignete Parameter einzustellen. Hier ist man auf empirische Werte und experimentelle Aussagen angewiesen. Vielen Dank für Ihre Aufmerksamkeit. 11
Optimale Produktliniengestaltung mit Genetischen Algorithmen
Optimale Produktliniengestaltung mit Genetischen Algorithmen 1 Einleitung 2 Produktlinienoptimierung 3 Genetische Algorithmen 4 Anwendung 5 Fazit Seite 1 Optimale Produktliniengestaltung mit Genetischen
MehrDynamisches Huffman-Verfahren
Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
Mehr9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
MehrSeminararbeit zum Thema Genetische Algorithmen
Seminararbeit zum Thema Genetische Algorithmen Seminar in Intelligent Management Models in Transportation und Logistics am Institut für Informatik-Systeme Lehrstuhl Verkehrsinformatik Univ.-Prof. Dr.-Ing.
MehrOptimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
MehrGenetische Algorithmen
Projekt für Algorithmische Anwendungen Genetische Algorithmen Von Mike Müller 11037091 Dennis Freese 11038517 Gruppe: B-ROT 1 Inhaltsverzeichnis Allgemeines...3 Geschichtliche Entwicklung der genetischen
MehrOutline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel
Outline 1 Funktionen von mehreren Veränderlichen 2 Grenzwert und Stetigkeit 3 Partielle Ableitungen 4 Die verallgemeinerte Kettenregel 5 Das totale Differential 6 Extremstellen Roman Wienands (Universität
MehrSo viel wie möglich Extremwertaufgaben aus Geometrie
So viel wie möglich Extremwertaufgaben aus Geometrie Andreas Ulovec 1 Einführung Die meisten Leute sind mit Extremwertaufgaben vertraut: Was ist das flächengrößte Dreieck, das man in einen Kreis einschreiben
MehrEinsatz Evolutionärer Algorithmen zur Optimierung der Tourenplanung eines Wachschutzunternehmens
Fachhochschule Brandenburg Fachbereich Informatik und Medien Kolloquium zur Diplomarbeit Einsatz Evolutionärer Algorithmen zur Optimierung der Tourenplanung eines Wachschutzunternehmens Übersicht Darstellung
MehrGenetische Programmierung
15. Juli 2007 Anfang der 90er von John R. Koza entwickelt. Verfahren zur automatisierten Erstellung von Programmen. Von der Evolution inspiriert. Anforderungen an die Möglichst korrekte Lösung ergeben
Mehr3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)
3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände
Mehr15. Algorithmus der Woche Das Rucksackproblem Die Qual der Wahl bei zu vielen Möglichkeiten
15. Algorithmus der Woche Das Rucksackproblem Die Qual der Wahl bei zu vielen Möglichkeiten Autoren Rene Beier, MPI Saarbrücken Berthold Vöcking, RWTH Aachen In zwei Monaten startet die nächste Rakete
MehrEine Analyse des Effektes von Lernen auf Populationsfitness und Diversität in einer NK-Fitnesslandschaft. Lars Melchior
Eine Analyse des Effektes von Lernen auf Populationsfitness und Diversität in einer NK-Fitnesslandschaft Lars Melchior Theoretische Grundlagen Theoretische Grundlagen Genetik Genetische Algorithmen NK
MehrEine zweidimensionale Stichprobe
Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,
Mehr4 Genetische Algorithmen
WS1993/94 AuD II 113 4 Genetische Algorithmen Gegeben: Problem P Menge potentieller Lösungen S= {L 1,,L s } (auch Suchraum) Zielfunktion z : S [0,1] IR (manchmal auch z : S IR ) Gesucht: z(l) > z(l') L
Mehr9. Heuristische Suche
9. Heuristische Suche Prof. Dr. Rudolf Kruse University of Magdeburg Faculty of Computer Science Magdeburg, Germany rudolf.kruse@cs.uni-magdeburg.de S Heuristische Suche Idee: Wir nutzen eine (heuristische)
MehrEvolutionsstrategien
Evolutionsstrategien zum Seminar Evolutionäre Algorithmen von Jana Schäfer INHALTVERZEICHNIS 1. Einführung... 3 2. Die Geschichte der Evolutionsstrategien...4 3. Grundlegendes... 6 3.1 Begriffe... 6 3.2
MehrLineare (Un-)Gleichungen und lineare Optimierung
Lineare (Un-)Gleichungen und lineare Optimierung Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-6020 Innsbruck, Österreich franz.pauer@uibk.ac.at 1 Einleitung In der linearen
MehrTeil II Optimierung. Peter Buchholz 2016. Modellgestützte Analyse und Optimierung Kap. 9 Einführung Optimierung
Teil II Optimierung Gliederung 9 Einführung, Klassifizierung und Grundlagen 10 Lineare Optimierung 11 Ganzzahlige und kombinatorische Optimierung 12 Dynamische Optimierung Literatur: zu 10-12: Neumann,
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren
MehrInformatik-Sommercamp 2012. Mastermind mit dem Android SDK
Mastermind mit dem Android SDK Übersicht Einführungen Mastermind und Strategien (Stefan) Eclipse und das ADT Plugin (Jan) GUI-Programmierung (Dominik) Mastermind und Strategien - Übersicht Mastermind Spielregeln
MehrScheduling-Theorie. Mathematische Modelle und Methoden für deterministische Scheduling-Probleme. LiSA - A Library of Scheduling Algorithms
Scheduling-Theorie Mathematische Modelle und Methoden für deterministische Scheduling-Probleme LiSA - A Library of Scheduling Algorithms Otto-von-Guericke Universität Magdeburg/FMA/Heidemarie Bräsel &
MehrDie Menge C der komplexen Zahlen wird im Kapitel Weitere Themen behandelt.
1 1 Funktionen 1.1 Grundlegende Zahlenmengen Georg Cantor (1845-1918) hat den Begriff der Menge eingeführt. Man versteht darunter die Zusammenfassung einzelner Dinge, welche Elemente genannt werden, zu
MehrLineare Gleichungssysteme
Brückenkurs Mathematik TU Dresden 2016 Lineare Gleichungssysteme Schwerpunkte: Interpretation und Verständnis der Gleichungen Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik unter
MehrFolgen und Reihen. Wirtschaftswissenschaftliches Zentrum Universität Basel. Mathematik für Ökonomen 1 Dr. Thomas Zehrt
Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen Dr. Thomas Zehrt Folgen und Reihen Literatur Referenz: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen, Band, 7. Auflage,
Mehr8.3 Lösen von Gleichungen mit dem Newton-Verfahren
09.2.202 8.3 Lösen von Gleichungen mit dem Newton-Verfahren Beispiel: + 2 e Diese Gleichung kann nicht nach aufgelöst werden, da die beiden nicht zusammengefasst werden können. e - - 2 0 Die gesuchten
Mehr2. Stetige lineare Funktionale
-21-2. Stetige lineare Funktionale Die am Ende von 1 angedeutete Eigenschaft, die ein lineares Funktional T : D(ú) 6 verallgemeinerten Funktion macht, ist die Stetigkeit von T in jedem n 0 0 D(ú). Wenn
MehrLineare Gleichungssysteme (Teschl/Teschl 11.1)
Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...
MehrMathematik 1 für Informatiker und Wirtschaftsinformatiker Wintersemester 07/08 (Winkler) Musterprüfung mit Lösungen
Mathematik für Informatiker und Wirtschaftsinformatiker Wintersemester 07/08 (Winkler Musterprüfung mit Lösungen. Sei T N. (a Unter welchen beiden Voraussetzungen an T garantiert das Induktionsaxiom (nach
Mehr5 Selbstkonstruktion und interpersonale Distanz empirische Prüfung
Selbstkonstruktion und interpersonale Distanz U.R. Roeder - 66-5 Selbstkonstruktion und interpersonale Distanz empirische Prüfung 5.1 Die Hypothesen Im Rahmen dieser Arbeit können nur wenige der im theoretischen
Mehr7 KONVERGENTE FOLGEN 35. inf M = Infimum von M. bezeichnet haben. Definition. Sei (a n ) n N eine beschränkte Folge in R. Dann heißt.
7 KONVERGENTE FOLGEN 35 und die größe untere Schranke mit bezeichnet haben. inf M = Infimum von M Definition. Sei (a n ) n N eine beschränkte Folge in R. Dann heißt der Limes superior der Folge, und lim
MehrPocket Cards (Winning Probabilities) 6.1 Anzahl der Kombinationen Monte Carlo Simulation Ergebnisse 6
6 6.1 Anzahl der Kombinationen 6. Monte Carlo Simulation 3 6.3 Ergebnisse 6 in case you do not speak German ignore the description and jump to the preflop win probability tables in chapter 6.3 Poker Trainer
MehrInformationsmenge. Maßeinheit: 1 Bit. 1 Byte. Umrechnungen: Informationsmenge zur Beantwortung einer Binärfrage kleinstmögliche Informationseinheit
Informationsmenge Maßeinheit: 1 Bit Informationsmenge zur Beantwortung einer Binärfrage kleinstmögliche Informationseinheit 1 Byte Zusammenfassung von 8 Bit, kleinste Speichereinheit im Computer, liefert
MehrFadenpendel (M1) Ziel des Versuches. Theoretischer Hintergrund
Fadenpendel M) Ziel des Versuches Der Aufbau dieses Versuches ist denkbar einfach: eine Kugel hängt an einem Faden. Der Zusammenhang zwischen der Fadenlänge und der Schwingungsdauer ist nicht schwer zu
Mehr1. Einleitung wichtige Begriffe
1. Einleitung wichtige Begriffe Da sich meine besondere Lernleistung mit dem graziösen Färben (bzw. Nummerieren) von Graphen (speziell von Bäumen), einem Teilgebiet der Graphentheorie, beschäftigt, und
MehrHochschule Regensburg. Übung 12_3 Genetische Algorithmen 1. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer
Hochschule Regensburg Übung 12_ Genetische Algorithmen 1 Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Name: Vorname: 1. Was sind GA? - Ein GA ist ein Algorithmus, der Strategien aus der Evolutionstheorie
MehrMathematik für Wirtschaftswissenschaftler
Knut Sydsaeter Peter HammondJ Mathematik für Wirtschaftswissenschaftler Basiswissen mit Praxisbezug 2., aktualisierte Auflage Inhaltsverzeichnis Vorwort 13 Vorwort zur zweiten Auflage 19 Kapitel 1 Einführung,
MehrAusarbeitung zum Modulabschluss. Graphentheorie. spannende Bäume, bewertete Graphen, optimale Bäume, Verbindungsprobleme
Universität Hamburg Fachbereich Mathematik Seminar: Proseminar Graphentheorie Dozentin: Haibo Ruan Sommersemester 2011 Ausarbeitung zum Modulabschluss Graphentheorie spannende Bäume, bewertete Graphen,
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern
Mehrf(x) f(x 0 ) lokales Maximum x U : gilt, so heißt x 0 isoliertes lokales Minimum lokales Minimum Ferner nennen wir x 0 Extremum.
Fabian Kohler Karolina Stoiber Ferienkurs Analsis für Phsiker SS 4 A Extrema In diesem Abschnitt sollen Extremwerte von Funktionen f : D R n R diskutiert werden. Auch hier gibt es viele Ähnlichkeiten mit
Mehr8. Konfidenzintervalle und Hypothesentests
8. Konfidenzintervalle und Hypothesentests Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Beispiel. Sie wollen den durchschnittlichen Fruchtsaftgehalt eines bestimmten Orangennektars
MehrInhaltsverzeichnis. Vorwort Kapitel 1 Einführung, I: Algebra Kapitel 2 Einführung, II: Gleichungen... 57
Vorwort... 13 Vorwort zur 3. deutschen Auflage... 17 Kapitel 1 Einführung, I: Algebra... 19 1.1 Die reellen Zahlen... 20 1.2 Ganzzahlige Potenzen... 23 1.3 Regeln der Algebra... 29 1.4 Brüche... 34 1.5
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
MehrBestimmung einer ersten
Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,
MehrLineares Optimieren. W. Kippels 12. April Inhaltsverzeichnis. 1 Einleitung 2. 2 Die Beispielaufgabe 2. 3 Einführung von Schlupfvariablen 2
Lineares Optimieren W. Kippels 1. April 015 Inhaltsverzeichnis 1 Einleitung Die Beispielaufgabe Einführung von Schlupfvariablen 4 Die Simplex-Methode 5 Das Basis-Austauschverfahren 4 6 Fortsetzung der
Mehr-Generation sehen alle gleich aus (Uniformitätsregel). In der F 2. -Generation treten unterschiedliche Phänotypen auf (Spaltungsregel).
Mendelsche Regeln 1 + 2 (1) Merkmale wie die Blütenfarbe können dominant-rezessiv oder intermediär vererbt werden. Bei einem intermediären Erbgang wird die Merkmalsausprägung von beiden Allelen (z. B.
Mehr00. Einiges zum Vektorraum R n
00. Einiges zum Vektorraum R n In diesem einleitenden Kapitel werden die in der LV Einführung in die mathematischen Methoden erwähnten Konzepte über Vektoren (im R 2 und R 3 ) im Rahmen des n-dimensionalen
Mehr1 Lineare Optimierung, Simplex-Verfahren
1 Lineare Optimierung, Simplex-Verfahren 1.1 Einführung Beispiel: In einer Fabrik werden n Produkte A 1, A 2,..., A n hergestellt. Dazu werden m Rohstoffe B 1, B 2,..., B m (inklusive Arbeitskräfte und
MehrTopologische Begriffe
Kapitel 3 Topologische Begriffe 3.1 Inneres, Rand und Abschluss von Mengen Definition (innerer Punkt und Inneres). Sei (V, ) ein normierter Raum über K, und sei M V eine Menge. Ein Vektor v M heißt innerer
MehrAlgorithmen und Datenstrukturen Kapitel 10
Algorithmen und Datenstrukturen Kapitel 10 Flüsse Frank Heitmann heitmann@informatik.uni-hamburg.de 6. Januar 2016 Frank Heitmann heitmann@informatik.uni-hamburg.de 1/8 Flüsse Graphen Grundlagen Definition
MehrAlgorithmen & Programmierung. Rekursive Funktionen (1)
Algorithmen & Programmierung Rekursive Funktionen (1) Berechnung der Fakultät Fakultät Die Fakultät N! einer nichtnegativen ganzen Zahl N kann folgendermaßen definiert werden: d.h. zur Berechnung werden
MehrKapitel 13. Evolutionäre Spieltheorie. Einleitung. Evolutionäre Biologie. Übersicht 2. Alternative: Biologische Evolutionstheorie
Übersicht : Evolutionäre Spieltheorie Einleitung Evolutionäre Biologie Evolutionäre Spieltheorie: Idee Gefangenendilemma (Beispiel) Evolutionäre Stabilität Beispiele Wiederholtes Gefangenendilemma Chicken-Spiel
MehrSchule. Station USA ein Land unbegrenzter Möglichkeiten? Teil 1. Klasse. Tischnummer. Arbeitsheft. Teilnehmercode
Schule Station USA ein Land unbegrenzter Möglichkeiten? Teil 1 Arbeitsheft Klasse Tischnummer Teilnehmercode Liebe Schülerinnen und Schüler! Mathematik-Labor Station USA - ein Land der In Ihrem bisherigen
MehrSynthese Eingebetteter Systeme. 16 Abbildung von Anwendungen: Optimierung mit DOL
12 Synthese Eingebetteter Systeme Sommersemester 2011 16 Abbildung von Anwendungen: Optimierung mit DOL 2011/06/24 Michael Engel Informatik 12 TU Dortmund unter Verwendung von Foliensätzen von Prof. Lothar
MehrDatenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität
Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte
MehrGrundlagen der biologischen Evolution
Ausgewählte Grundlagen der biologischen Evolution Grundlagen der biologischen Evolution Chromosome und Gene Genotyp und Phänotyp Evolutionsfaktoren Epigenetik und was wir sonst noch nicht verstanden haben
MehrFrage 8.3. Wozu dienen Beweise im Rahmen einer mathematischen (Lehramts-)Ausbildung?
8 Grundsätzliches zu Beweisen Frage 8.3. Wozu dienen Beweise im Rahmen einer mathematischen (Lehramts-)Ausbildung? ˆ Mathematik besteht nicht (nur) aus dem Anwenden auswendig gelernter Schemata. Stattdessen
Mehr13 Java 4 - Entwurfsmuster am Beispiel des Rucksackproblems
13 Java 4 - Entwurfsmuster am Beispiel des Rucksackproblems 13.1 Modellierung des Rucksackproblems 13.2 Lösung mit Greedy-Algorithmus 13.3 Lösung mit Backtracking 13.4 Lösung mit Dynamischer Programmierung
MehrA. Anhang Daubechies-Wavelets General characteristics: Compactly supported wavelets with extremal phase and highest number of vanishing moments for a
A. Anhang A.1. Eigenschaften von Wavelets und Wavelet-Familien Die folgenden tabellarischen Zusammenstellungen der wichtigsten Eigenschaften der in dieser Arbeit verwendeten Wavelet-Typen und Wavelet-Familien
Mehr4. Wässrige Lösungen schwacher Säuren und Basen
4. Wässrige Lösungen schwacher Säuren und Basen Ziel dieses Kapitels ist es, das Vorgehenskonzept zur Berechnung von ph-werten weiter zu entwickeln und ph-werte von wässrigen Lösungen einprotoniger, schwacher
Mehr11 Optimierung von Funktionen einer Veränderlichen
11 Optimierung von Funktionen einer Veränderlichen In diesem Kapitel werden die bis hier behandelten Grundlagen der Analysis genutzt, um Methoden aus der Optimierungstheorie für eindimensionale Entscheidungsmengen
Mehr2. Optimierungsprobleme 6
6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen
MehrDomain-independent. independent Duplicate Detection. Vortrag von Marko Pilop & Jens Kleine. SE Data Cleansing
SE Data Cleansing Domain-independent independent Duplicate Detection Vortrag von Marko Pilop & Jens Kleine http://www.informatik.hu-berlin.de/~pilop/didd.pdf {pilop jkleine}@informatik.hu-berlin.de 1.0
MehrNumerische Integration von Differential-Gleichungen Das klassische Runge-Kutta-Verfahren
Numerische Integration von Differential-Gleichungen Das klassische Runge-Kutta-Verfahren Gegeben sei ein Anfangswertproblem erster Ordnung: y = f (x;y y(x 0 = y 0 Wie schon erörtert, beschreibt eine DGl
Mehrmathe plus Aussagenlogik Seite 1
mathe plus Aussagenlogik Seite 1 1 Aussagenlogik 1.1 Grundbegriffe Def 1 Aussage Eine Aussage ist ein beschriebener Sachverhalt, dem eindeutig einer der Wahrheitswerte entweder wahr oder falsch zugeordnet
MehrBiometrie im neuen Antragsverfahren
8. Fortbildungsveranstaltung der GV-SOLAS für Tierschutzbeauftragte und Behördenvertreter Warum biometrische Planung? Einfachste Antwort: Weil es im Genehmigungsantrag so vorgesehen ist. 2 Warum biometrische
MehrDemo für
SUMMENZEICHEN Regeln und Anwendungen Gebrauchs des Summenzeichens mit Aufgaben aus vielen Bereichen für Angela Datei Nr. 4 Stand:. Oktober INTERNETBIBLIOTHEK FÜR SCHULMATHEMATIK Demo für 4 Summenzeichen
MehrTeil: lineare Regression
Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge
MehrSysteme von linearen Ungleichungen
Systeme von linearen Ungleichungen ALGEBRA Kapitel 6 MNProfil - Mittelstufe KZN Ronald Balestra CH - 8046 Zürich www.ronaldbalestra.ch Name: Vorname: 28. Februar 2016 Überblick über die bisherigen ALGEBRA
MehrProseminarvortrag. Markov-Ketten in der Biologie (Anwendungen)
Proseminarvortrag Markov-Ketten in der Biologie (Anwendungen) von Peter Drössler 20.01.2010 2 Markov-Ketten in der Biologie (Peter Drössler, KIT 2010) Inhalt 1. Das Wright-Fisher Modell... 3 1.1. Notwendige
MehrKapitel 3. Minkowski-Raum. 3.1 Raumzeitlicher Abstand
Kapitel 3 Minkowski-Raum Die Galilei-Transformation lässt zeitliche Abstände und Längen unverändert. Als Länge wird dabei der räumliche Abstand zwischen zwei gleichzeitigen Ereignissen verstanden. Solche
MehrParameteroptimierung von Simulationsmodellen mit Evolutionären Algorithmen in optislang
Parameteroptimierung von Simulationsmodellen mit Evolutionären Algorithmen in optislang Kopplung mit CAE-Tools SimulationX und Simulink Dipl.-Ing. M. Koch Weimarer Optimierungs- und Stochastiktage 6.0
MehrGenetische Algorithmen
Genetische Algorithmen Projektgruppe 431 Metaheuristiken Bianca Selzam Inhaltsverzeichnis 1 Einleitung......................................................... 1 2 Grundlagen aus der Biologie.......................................
MehrNichtdeterministische Platzklassen
Sommerakademie 2010 Rot an der Rot AG 1: Wieviel Platz brauchen Algorithmen wirklich? Nichtdeterministische Platzklassen Ulf Kulau August 23, 2010 1 Contents 1 Einführung 3 2 Nichtdeterminismus allgemein
MehrMathematik für Wirtschaftswissenschaftler Kapitel 4-6. Universität Trier Wintersemester 2013 / 2014
Mathematik für Kapitel 4-6 Universität Trier Wintersemester 2013 / 2014 Kapitel 4 1. Extremwerte 2. Lokale Optimalpunkte 3. Wendepunkte 2 Kapitel 4.1 EXTREMWERTE 3 Extrempunkte und Extremwerte 4 Strikte
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrExemplar für Prüfer/innen
Exemplar für Prüfer/innen Kompensationsprüfung zur standardisierten kompetenzorientierten schriftlichen Reifeprüfung AHS Juni 2016 Mathematik Kompensationsprüfung 3 Angabe für Prüfer/innen Hinweise zur
Mehr4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)
4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 4.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte
MehrA2.3 Lineare Gleichungssysteme
A2.3 Lineare Gleichungssysteme Schnittpunkte von Graphen Bereits weiter oben wurden die Schnittpunkte von Funktionsgraphen mit den Koordinatenachsen besprochen. Wenn sich zwei Geraden schneiden, dann müssen
MehrDatenbankanwendung. Prof. Dr.-Ing. Sebastian Michel TU Kaiserslautern. Wintersemester 2014/15. smichel@cs.uni-kl.de
Datenbankanwendung Wintersemester 2014/15 Prof. Dr.-Ing. Sebastian Michel TU Kaiserslautern smichel@cs.uni-kl.de Wiederholung: Anfragegraph Anfragen dieses Typs können als Graph dargestellt werden: Der
Mehr1 Mengen und Aussagen
$Id: mengen.tex,v 1.2 2010/10/25 13:57:01 hk Exp hk $ 1 Mengen und Aussagen Der wichtigste Grundbegriff der Mathematik ist der Begriff einer Menge, und wir wollen damit beginnen die klassische, 1878 von
MehrLösungen zu den Hausaufgaben zur Analysis II
Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin
MehrVerwandte Begriffe Maxwell-Gleichungen, elektrisches Wirbelfeld, Magnetfeld von Spulen, magnetischer Fluss, induzierte Spannung.
Verwandte Begriffe Maxwell-Gleichungen, elektrisches Wirbelfeld, Magnetfeld von Spulen, magnetischer Fluss, induzierte Spannung. Prinzip In einer langen Spule wird ein Magnetfeld mit variabler Frequenz
MehrMathematische Grundlagen der Computerlinguistik
Centrum für Informations- und Sprachverarbeitung (CIS) 10. Juni 2014 Table of Contents 1 2 Äquivalenz Der Begriff der Äquivalenz verallgemeinert den Begriff der Gleichheit. Er beinhaltet in einem zu präzisierenden
MehrLineare Gleichungssysteme
Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare
Mehrdgpf Distributed Genetic Programming Framework http://dgpf.sourceforge.net/
dgpf Distributed Genetic Programming Framework http://dgpf.sourceforge.net/ University of Kassel, Chair of Distributed Systems, Wilhelmshöher Allee 73, D-34121 Kassel, Hesse, Germany Projektarbeiten Allgemeine
Mehr3. Das Reinforcement Lernproblem
3. Das Reinforcement Lernproblem 1. Agierender Agent in der Umgebung 2. Discounted Rewards 3. Markov Eigenschaft des Zustandssignals 4. Markov sche Entscheidung 5. Werte-Funktionen und Bellman sche Optimalität
MehrLineare Gleichungssysteme
Poelchau-Oberschule Berlin A. Mentzendorff September 2007 Lineare Gleichungssysteme Inhaltsverzeichnis 1 Grundlagen 2 2 Das Lösungsverfahren von Gauß 4 3 Kurzschreibweise und Zeilensummenkontrolle 6 4
MehrOptimierung für Nichtmathematiker
Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den
MehrSchule. Klasse. Station Figurierte Zahlen Teil 1. Tischnummer. Arbeitsheft. Teilnehmercode
Schule Station Figurierte Zahlen Teil 1 Klasse Tischnummer Arbeitsheft Teilnehmercode Liebe Schülerinnen und Schüler! Schon die alten Griechen haben Zahlen mit Hilfe von Zählsteinen dargestellt. Die Steinchen
MehrMathematik EF. Bernhard Scheideler
Mathematik EF Bernhard Scheideler Stand: 7. September 20 Inhaltsverzeichnis Die Kurvendiskussion. Stetigkeit und Differenzierbarkeit:....................2 Standardsymmetrie:............................
MehrHypothesen: Fehler 1. und 2. Art, Power eines statistischen Tests
ue biostatistik: hypothesen, fehler 1. und. art, power 1/8 h. lettner / physik Hypothesen: Fehler 1. und. Art, Power eines statistischen Tests Die äußerst wichtige Tabelle über die Zusammenhänge zwischen
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrTechnische Universität München Zentrum Mathematik. Übungsblatt 4
Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 4 Hausaufgaben Aufgabe 4. Gegeben sei die Funktion f : D R mit f(x) :=
MehrÜbungsbeispiel 1: Quadratische Modellierung
Übungsbeispiel 1: Quadratische Modellierung Ein Uhrenhersteller möchte den Preis für sein neues Modell festlegen und führt dazu eine Marktanalyse durch. Das Ergebnis lautet: Bei einem Preis von 60 ist
Mehr8. Statistik Beispiel Noten. Informationsbestände analysieren Statistik
Informationsbestände analysieren Statistik 8. Statistik Nebst der Darstellung von Datenreihen bildet die Statistik eine weitere Domäne für die Auswertung von Datenbestände. Sie ist ein Fachgebiet der Mathematik
MehrRouting Algorithmen. Begriffe, Definitionen
Begriffe, Definitionen Routing (aus der Informatik) Wegewahl oder Verkehrslenkung bezeichnet in der Telekommunikation das Festlegen von Wegen für Nachrichtenströme bei der Nachrichtenübermittlung über
MehrGliederung. Kapitel 4. Lokale Suchverfahren. Meta-Heuristiken. Simulated Annealing. Lokale Suchverfahren. Optimierungsalgorithmen
Kapitel Optimierungsalgorithmen Gunnar Klau Institut für Computergraphik und Algorithmen Gliederung Kombinatorische vs. Ganzzahlige Optimierung Exakte Verfahren Branch-and-Bound Schnittebenenverfahren
Mehr