Proseminar Genetische und Evolutionäre Algorithmen

Größe: px
Ab Seite anzeigen:

Download "Proseminar Genetische und Evolutionäre Algorithmen"

Transkript

1 Proseminar Genetische und Evolutionäre Algorithmen Genetische Algorithmen Erweiterungen und Analyse Seite 1/11

2 Inhaltsverzeichnis 1. Erweiterungen zu den Genetischen Algorithmen 1.1. Der steady-state-ga 1.2. Nischentechniken Deterministisches Crowding Sharing 1.3. Mehrzieloptimierung / Pareto-Optimalität Aggregationsansatz Ansätze mit wechselnden Zielen Einsatz von Nischentechniken Pareto-basierte Ansätze 1.4. Berücksichtigung von Nebenbedingungen Straffunktionen Techniken der Mehrzieloptimierung Intelligente Decodierung Spezialisierte Lösungsrepräsentation und Operatoren 2. Wie funktioniert ein GA? Analyse 2.1. Das Schema-Theorem und seine Bedeutung 2.2. Die Building-Block-Hypothese 2.3. Kritik am Schema-Theorem 2.4. Konvergenz auf das globale Optimum 2.5. Schwierige und leichte Probleme für GAs Epistasie Die statistische Korrelationsanalyse Die Fitness-Distanz-Korrelationsanalyse 3. Nachwort 4. Literaturverzeichnis Seite 2/11

3 1. Erweiterungen zu den GAs So gut der kanonische Genetische Algorithmus (das ist der GA in der Form, wie er anfangs von Holland definiert wurde) in der Praxis auch funktioniert, er ist in dieser Form nicht das letzte Wort im Fachgebiet der GAs. Seit der ersten theoretischen Analyse von J. Holland 1975 hat sich die Familie der GAs stetig weiterentwickelt, neue Herangehensweisen an eine Problemstellung und Verfeinerungen des kanonischen GA wurden formuliert und erfolgreich eingesetzt. 1.1 Der steady-state-ga Der kanonische GA ersetzt bei einer Generation (Verfahrensiteration) stets alle Individuen einer Population durch deren Nachkommen. Diese Ersetzungsstrategie wird general replacement genannt, wohingegen der steady-state-ga den Generationsschritt leicht abändert: Bei jeder neuen Generation werden nur wenige Individuen i.a. die mit der geringsten Fitness durch Nachkommen ersetzt, was den Vorteil bietet, gute Lösungen tendenziell länger in der Population zu halten. Die Implementierung unterscheidet sich vom kanonischen GA nur gering: Bei der Erzeugung und Bewertung von Nachkommen werden zuerst 2 Individuen aus der Population mit Zurücklegen gezogen und zu Eltern bestimmt. Dann werden von ihnen Kopien erzeugt, auf die ein Uniform- oder n-punkt-crossover (meist deterministisch, d.h. mit der Wahrscheinlichkeit p c =1) angewendet wird. Nach der Mutation die äquivalent zum kanonischen GA erfolgt werden die Nachkommen mittels der Fitnessfunktion bewertet. Sofern Duplikate auftreten, werden diese verworfen. Diese Selektionsschritte werden sooft wiederholt, bis q Nachkommen erzeugt worden sind. q bisherige Populationsmitglieder meistens die mit der geringsten Fitness werden durch die neuen Nachkommen ersetzt. Beim steady-state-ga können höhere Mutations- / Crossoverwahrscheinlichkeiten verwendet werden, da gute Populationsmitglieder durch die gewählte Ersetzungsstrategie geschützt werden. Dadurch soll der Algorithmus einen stärker explorativeren Charakter erhalten. Nicht geeignet sind steady-state-gas für Optimierungsprobleme mit stochastisch beeinflusster Lösungsbewertung, hier besteht die Gefahr, dass schlechte Lösungen aufgrund des stochastischen Einflusses bei der Bewertung zufällig relativ gute Fitnessbewertungen erhalten. Diese eigentlich schlechten Individuen können, durch die Ersetzungsstrategie bedingt, nun zu Unrecht über längere Zeit in der Population überleben. 1.2 Nischentechniken Für den Erfolg eines GA ist es wichtig, möglichst lange die Diversität der Populationsmitglieder zu erhalten, da sie die Effektivität des Crossovers wesentlich mitbestimmt. Diese Heterogenität kann von GA-Techniken gefördert werden, indem sie die Bildung von Nischen in natürlichen Ökosystemen nachahmen. Zwei bekannte und oft angewandte Nischentechniken sind deterministisches Crowding und sharing. Seite 3/11

4 Deterministisches Crowding Die Grundidee des deterministischen Crowding ist, Individuen immer mit denen ihnen ähnlichsten Nachkommen zu ersetzen. Durch diese Technik soll verhindert werden, dass sich die Population allzu homogen entwickelt. Der Ablauf des Algorithmus ist wie folgt: Alle Individuen werden in den mating pool kopiert und 2 Eltern werden stochastisch ausgewählt. Diese werden deterministisch mittels Crossover gekreuzt und die Mutation erfolgt wie beim kanonischen GA. Für beide Nachkommen wird die Fitness bestimmt. Jeder Elter bildet nun mit dem ihm ähnlicheren Nachkommen ein Paar, das Individuum jeden Paares mit der besseren Fitness wird der Folgepopulation hinzugefügt. Diese Schritte werden µ/2 mal durchgeführt. Ähnlichkeit kann man hier genotypisch oder phänotypisch messen (siehe auch Vortrag 1 GA Grundkonzept und genetische Operatoren 2.6 und 2.7). Ein genotypisches Ähnlichkeitsmaß wäre z.b. die Hamming-Distanz. Ein phänotypisches Ähnlichkeitsmaß wäre z.b. die euklidische Distanz, die folgendermaßen definiert ist: d euklid (x 1, x 2 ) = ( i=1 Σ n (x 1,i x 2,,i ) 2 ) Die Wahl des Distanzmaßes ist problemabhängig. Sharing Beim sharing wird die Heterogenität der Population durch eine Herabsetzung der Fitness forciert, sofern sich in der phäno- oder genotypischen Nachbarschaft eines Individuums ein anderes befindet. Die Fitnessfunktion sieht dabei wie folgt aus: Φ (a i ) = (Φ(a i ) / j=1 Σ µ λ( d(a i, a j )) i=1..µ (µ ist die Größe der Population, a ist ein Individuum aus der Population) Die Funktion λ gibt eine 1 zurück, wenn die Distanzfunktion d einen gewissen Schwellenwert T share unterschreitet, also in der Nachbarschaft oder der Nische des Individuums a i sich andere Individuen befinden, ansonsten eine 0. T share wird Nischenradius genannt, der Nenner der neuen Fitnessfunktion j=1 Σµ λ( d(a i, a j )) wird auch niche count genannt, da er über eventuelle benachbarte Individuen Aufschluß gibt. Nischentechniken eignen sich besonders für Optimierungsprobleme mit mehrfacher Zielsetzung sowie für Problemstellungen, bei denen verschiedene Optima eines multimodalen Zielfunktionsgebirges gefunden werden soll Mehrzieloptimierung Da häufig bei Entscheidungsproblemen mit mehrfacher Zielsetzung nicht eindeutig die optimale Lösung bestimmt werden kann, ist es manchmal erforderlich, eine bestimmte Menge effizienter Lösungen zu berechnen. Eine effiziente Lösung wird in diesem Zusammenhang auch als pareto-optimal bezeichnet. Pareto-Optimalität bedeutet, es existiert keine Lösung für das gestellte Problem, das von einer anderen dominiert wird, d.h. deren Zielerreichungsgrad bei keinem Zielkriterium von einer anderen Lösung übertroffen wird. Seite 4/11

5 Mehrzieloptimierung setzt meistens bei der Selektion an und lässt sich im wesentlichen in vier Gruppen aufteilen: Aggregationsansatz Beim Aggregationsansatz werden die Funktionswerte einer Lösung der g verschiedenen Zielkriterien in evtl. gewichteter Form zu einem Gesamtzielfunktionswert aggregiert, d.h. zusammengefasst. Dadurch kann das Optimierungsproblem als Einzelproblem behandelt werden, was bedeutet, daß das Ergebnis i.d.r. aus einer Lösung besteht, also keine Menge pareto-optimaler Lösungen bestimmt werden. Ansätze mit wechselnden Zielen Bei Vorliegen von g verschiedenen Zielkriterien teilt man die Selektion in g Schritte auf: in jedem Teilschritt wählt man aus der Gesamtpopulation eine gleichgroße Anzahl Individuen, die in dem spezifischen Zielkriterium gute Ergebnisse bieten, in den mating pool; somit ist die Wahrscheinlichkeit für Individuen mit guten Werten in mehreren Zielkriterien, sich zu reproduzieren, sehr hoch. Daraufhin werden Crossover und Mutation auf den gesamten mating pool angewandt. Einsatz von Nischentechniken Bei der Mehrzieloptimierung werden oft Nischentechniken eingesetzt. Ein Beispiel: der niched pareto GA. Bei diesem wird eine erweiterte Wettkampfselektion eingesetzt: Zwei Individuen (Kandidaten) werden stochastisch aus der Population gezogen und mit einer gleichfalls stochastisch bestimmten Teilmenge der Population (Vergleichsmenge) verglichen. Dominiert einer der Kandidaten die Vergleichsmenge, darf er sich reproduzieren, dominieren beide oder keiner der Kandidaten, wird einer mittels einer speziellen Form des sharing ausgewählt: Der Kandidat, in dessen Nische sich weniger Individuen befinden, also der mit dem kleineren niche count, darf sich reproduzieren. Pareto-basierte Ansätze Eine weitere Art der Mehrzieloptimierung ist z.b. das pareto-ranking: Es basiert auf einer Form der rangbasierten Selektion. Nicht-dominierte Individuen erhalten den höchsten Rang und werden bei der weitergehenden Einteilung nicht mehr berücksichtigt. Auf der Restmenge wiederholt man diesen Schritt, bis alle Individuen einen Rang haben. Individuen mit gleichem Rang haben dieselbe Selektionswahrscheinlichkeit. Die reine pareto-basierte Selektion liefert oft sehr viele pareto-optimale Lösungen, was Entscheidungsträger bei der Auswahl einer Lösung überfordern könnte. Aus diesem Grund bietet sie sich in der praktischen Verwendung nicht unbedingt an Berücksichtigung von Nebenbedingungen Praktisch alle Optimierungsprobleme sind durch Nebenbedingungen, wie z.b. - Grenzwerte für Variablen - Ganzzahligkeitsbedingungen für Variablen - (Un-) Gleichungsbeschränkungen gekennzeichnet, um den Raum zulässiger Lösungen zu begrenzen. Folglich werden Konzepte benötigt, die aussagen, wie ungültige Lösungen zu behandeln sind. Seite 5/11

6 Eine einfache Herangehensweise wäre, Nachkommen solange zu generieren, bis eine Lösung gültig ist, d.h. alle Nebenbedingungen erfüllt, bei Problemstellungen mit vielen Beschränkungen ist dies jedoch aus Laufzeitgründen nicht praktikabel. Die angewandten Verfahren zur Behandlung ungültiger Lösungen lassen sich grob in zwei Klassen aufteilen: - die Verfahren der ersten Klasse behindern das Entstehen ungültiger Lösungen nicht (z.b. Straffunktionen, Techniken der Mehrzieloptimierung) - die Verfahren der zweiten Klasse vermeiden ungültige Lösungen von vorneherein (z.b. Intelligente Decodierung, spezialisierte Lösungsrepräsentation) Einige der möglichen Verfahren werden im folgenden kurz vorgestellt. Straffunktionen (penalty functions) Sind das gebräuchlichste Mittel, um in GAs Nebenbedingungen zu berücksichtigen, da der Lösungsansatz einfach und universell verwendbar ist: ungültige Lösungen werden bei der Fitnessermittlung bestraft, z.b. mit einer eigenen Straffunktion Z : R n R +, die einen Wert >0 besitzt, wenn nicht alle Nebenbedingung des Optimierungsproblems des Individuums erfüllt werden. Die Fitnessfunktion Φ sieht dann folgendermaßen aus: Φ (a) = F(x)-Z(x) (F(x) ist die Zielfunktion) Techniken der Mehrzieloptimierung Auch Techniken der Mehrzieloptimierung (siehe 1.3.) sind prinzipiell dazu geeignet, die Einhaltung von Nebenbedingungen zu gewährleisten. Dazu wird die ursprüngliche Zielfunktion F(x) nur noch als eine von mehreren Zielkriterien betrachtet, die restlichen Zielfunktionen sind nun Straffunktionen Z k (x) (k=anzahl der Nebenbedingungen), die im Laufe der Optimierung minimal werden sollen. Intelligente Decodierung Bei dieser Methode werden i.a. nicht binäre Lösungsrepräsentationen und wenig spezialisierte Lösungsoperatoren verwendet. Im Rahmen der Fitnessfunktion kommt eine Decodierungsfunktion Γ dazu, die entsprechend der Codierung der Zielwerte anwendungsbezogen implementiert werden muss. Diese Decodierungsfunktion korrigiert die Zielwerte ungültiger Individuen automatisch bei der Fitnessbewertung. Spezialisierte Lösungsrepräsentation und Operatoren Durch eine problemspezifische Form der Lösungsrepräsentation und darauf abgestimmte Suchoperatoren können ungültige Lösung von vorneherein vermieden werden. Die Suchoperatoren haben somit gewisse Nebenbedingungen, wie z.b. Werte bei Permutationen nicht doppelt zuzulassen (siehe auch letzter Vortrag). Seite 6/11

7 2. Wie funktioniert ein GA? Analyse Obwohl GAs in praktischen Anwendungen mittlerweile sehr erfolgreich eingesetzt werden, sind die theoretischen Grundlagen, die deren Funktionsweise erklären, bewerten und vorhersagen sollen, bislang noch unzureichend erforscht. Von einer einheitlichen und universell akzeptierten Theorie der GA ist man gegenwärtig noch weit entfernt Das Schema-Theorem und seine Bedeutung 1975 legte J. Holland in seinem Buch Adaption in Natural and Artificial Systems die Basis für viele nachfolgende theoretischen Arbeiten zu den GAs. Holland analysierte darin die Funktionsweise adaptiver Systeme, worunter auch GAs einzuordnen sind. Um die Auswirkungen einer Anwendung von genetischen Operatoren (Crossover, Mutation, Selektion) auf eine Population von Chromosomen formalisieren zu können, führte er den Begriff des Schemas ein. Ein Schema ist eine Schablone, die eine Menge von Individuen beschreibt, deren Allele an definierten Positionen übereinstimmen. Anstelle von manchen Genen steht die Variable # don t care, die Positionen von Allelen sind fest definiert. Bsp.: h = < 1, 0, 1, 0, #, #> ist ein Schema der Länge 6. h 1 = < 1, 0, 1, 0, 1, 0> bezeichnet man als eine Instanz des Schemas h. Die Ordnung o(h) eines Schemas h ist durch die Anzahl der nicht-variablen Positionen definiert, also wäre z.b. o(< 1, 0, 1, 0, #, #>) = 4. Unter der definierenden Länge δ(h) eines Schemas h versteht man den Abstand zwischen der ersten und letzten von # verschiedenen Positionen, im Beispiel wäre δ(< 1, 0, 1, 0, #, #>) = 4 1 = 3. Mathematisch gesehen definiert ein Schema der Länge n einen Unterraum des M n, also einen Unterraum des gesamten Suchraumes. So repräsentiert obiges Schema h eine Hyperebene als Unterraum des M 6. Im M n gibt es 3 n verschiedene Instanzen von Schemata, da als Ausprägung jeweils 3 Elemente ( 0, 1 und #) auf den n Positionen vorkommen können. Jeder String aus M n stellt eine Instanz von 2 n Schemata dar und liegt damit gleichzeitig in 2 n Hyperräumen des M n. Folglich repräsentiert eine Population von p Chromosomen der Länge n jeweils zwischen 2 n und p*2 n Schemata. J. Holland untersuchte empirisch die Anzahl der Hyperebenen, die während eines Zyklus verarbeitet werden. Er kam zu dem Ergebnis, dass bei einer Population der Größe p mindestens p 3 Hyperebenen gleichzeitig untersucht werden, so liegt die Anzahl der Schemata, die bei einer Population von p Chromosomen pro Generierung indirekt verarbeitet werden, in der Größenordnung O(p 3 ). Folglich untersucht ein GA während seiner Abarbeitung demnach mit minimalem Aufwand (p Individuen werden bewertet) parallel die Güte von O(p 3 ) Unterräumen. Diesen Mechanismus nennt man implicit parallelism. Bei der zufälligen Initialisierung eines GA liegen unterschiedlichste Individuen, also auch Schemata, noch in gleichberechtigter Anzahl (wohlverteilt) vor. Durch die Generation neuer Populationen konzentriert sich der Suchprozess durch Selektion immer mehr auf erfolgversprechende Bereiche des Suchraumes, wobei sich implizit bessere Schemata gegen schlechtere durchsetzen (Evolution). Gleichzeitig variieren Seite 7/11

8 die Suchoperatoren, vor allem der Crossover, die Schemata immer wieder und testen somit neue Bereiche des Suchraums aus. Die Balance zwischen den beiden Strategien exploitation (Ausnutzen schon bekannter guter Strukturen) und exploration (Suche nach neuen, noch besseren Strukturen) ist für den Sucherfolg des GA von großer Bedeutung. I(h) sei im folgenden die Menge aller Instanzen des Schemas h und N(h,t) bezeichne die Anzahl von Instanzen des Schemas h in der Population P(t) zum Zeitpunkt t. Mit diesen Definitionen lässt sich dann die durchschnittliche Fitness aller Instanzen des Schemas h in P(t) bestimmen als Φ(h, t) = (1/N(h,t)) * a(t) I(h) P(t) Φ(a(t)). Die durchschnittliche Fitness aller Individuen in P(t) ist gegeben durch Φ (t) = (1/µ) * i=1 µ Φ(a i (t)) gegeben. Vernachlässigt man zunächst Mutation und Crossover und betrachtet nur den Einfluss fitnessproportionaler Selektion auf das Schema h, so gilt N(h, t+1) = N(h, t) * [ Φ(h, t)/φ (t) ] (1) Das bedeutet in Worten, dass gute Schemata mit überdurchschnittlicher Fitness in der Population im Verlauf der Generationen zunehmen, was der Strategie der exploitation entspricht. Die Mutation und der Crossover hingegen verkörpern die Strategie der exploration. Anhand der Ordnung o(h) und der definierenden Länge δ(h) können Überlebenswahrscheinlichkeiten für ein Schema h berechnet werden: p survive (mutation) = (1 - p m ) o(h) 1 p m * o(h) für p m << 1 (2) Bei der Mutation wird jedes Bit unabhängig mit der Wahrscheinlichkeit p m invertiert, p survive drückt also die Überlebenswahrscheinlichkeit eines Schemas h aus. Beim 1-point-Crossover wird das Schema zerstört, wenn der Crossover zwischen das erste und letzte fixierte Bit, also innerhalb der definierenden Länge, fällt. Sind beide Eltern jedoch eine Instanz desselben Schemas, bleibt es erhalten. Daraus ergibt sich: p survive (xover) = 1 p c * (δ(h)/l-1) * (1 N(h)/µ) (3) Fasst man (1) (3) zusammen, ergibt sich das Schema-Theorem: N(h,t+1) N(h,t) * Φ(h,t)/Φ (t) * [ 1-p c * (δ(h)/(l-1)) * (1 N(h)/µ) ] * (1 p m ) o(h) Oder auch näherungsweise N(h,t+1) N(h,t) * Φ(h,t)/Φ (t) * [ 1-p c * (δ(h)/(l-1)) p m * o(h) ] Das Schema-Theorem kann so interpretiert werden, dass Schemata mit überdurchschnittlicher Fitness, kurzer definierender Länge und niedriger Ordnung eine hohe Überlebenschance haben, also häufiger zur Erzeugung von Nachkommen herangezogen werden. Praktisch bedeutet dies: Die Codierung eines Problems sollte, um optimale Effizienz des GA zu gewährleisten, kompakt erfolgen, d.h. zusammengehörige Informationen sollten auf einem Chromosom eng beieinander abgelegt werden. Seite 8/11

9 2.2 Die Building-Block-Hypothese (BBH) Aus dem Schema-Theorem kann man, wie oben gezeigt, ableiten, daß Schemata mit den genannten Eigenschaften (kurze def. Länge, niedrige Ordnung, hohe Fitness) gute potentielle Lösungen über die Generationen aufbauen, d.h. solche Schemata erfüllen praktisch die Funktion von Bausteinen, mit deren Hilfe sukzessive die optimale Lösung Schritt für Schritt zusammengesetzt wird. Die Building-Block- Hypothese verdankt dieser Annahme ihren Namen. 2.3 Kritik am Schema-Theorem und der BBH Ein Kritikpunkt am Schema-Theorem ist, dass in Populationen endlicher Größe unweigerlich stichprobenbedingte Schätzfehler bei der Bestimmung der Fitness von Schemata entstehen, da sich die wahre statische Fitness eines Schemas h von der durchschnittlichen Fitness aller Instanzen von h unterscheidet, denn die Fitness unter den Instanzen ein und desselben Schemas variiert normalerweise beträchtlich. Ebenso geht das Schema-Theorem von der Unabhängigkeit der einzelnen Schemata aus, da sich diese jedoch oft überlappen, ist dies nicht gewährleistet. 2.4 Konvergenz auf das globale Optimum Bei Optimierungsverfahren stellt sich grundsätzlich die Frage, ob und wie schnell die Lösung auf ein globales Optimum der Zielfunktion konvergiert. Wie jedoch bewiesen werden kann, konvergiert der kanonische GA nicht auf das globale Optimum. Dies ist für die Praxis zwar enttäuschend, doch der kanonische GA ist dazu ausgelegt, in möglichst kurzer Zeit eine nahe-optimale Lösung zu finden. Ergänzt man den kanonischen GA um eine Elite-Sektion (d.h. die besten Individuen werden separat abgelegt, damit ihre Fitness nicht durch Crossover oder Mutation verringert wird, sie sind somit auf jeden Fall in der nächsten Population noch erhalten siehe auch 1.1. steady-state-ga), lässt sich allerdings beweisen, dass dieser erweiterte GA für t auf das globale Optimum konvergiert. 2.5 Schwierige und leichte Probleme für GAs Für eine praktische Verwendung von GAs ist es wichtig, Kriterien zu finden, nach denen man die Tauglichkeit eines GAs für bestimmte Probleme bewerten kann. Die Verfahren, die diese Kriterien einsetzen, machen den Aufbau einer Beispielpopulation für das spezifische Problem notwendig, anhand der die Schwierigkeit des Problems für den GA ersehen werden kann. Im folgenden sind einige solcher Kriterien kurz umrissen: Epistasie In der Biologie wird ein Gen als epistatisch bezeichnet, wenn es ein anderes Gen daran hindert, seine Wirkung zu entfalten. Bei den GAs bedeutet Epistasie, dass die Fitness eines Individuums von Änderungen der codierten Werte der Entscheidungsvariablen abhängt, aber auch von anderen Entscheidungsvariablen auf dem Chromosom beeinflusst wird. Epistasie bemisst sich im Bereich von 0% bis 100%, wobei i.a. gilt, dass GAs für Probleme im Bereich von ca. 30% - 70% sinnvoll sind. Seite 9/11

10 Da Epistasie eine sehr schlecht messbare Größe ist, ist der praktische Nutzen dieses Ansatzes umstritten. Die statistische Korrelationsanalyse Bei den Bemühungen um ein universelles Maß zur Beurteilung der Eignung eines Problems für GAs sind einige Ansätze der statistischen Korrelationsanalyse von Interesse: Sie beruhen auf der Vorstellung einer Fitnesslandschaft ( Hügel und Täler, also lokale Extrema der Fitnessfunktion), die über dem Suchraum aufgespannt ist. Diese Fitnesslandschaft kann durch die in der Population enthaltenen Individuen analysiert werden und daraus dann ein Korrelationskoeffizient r op gebildet werden. Ist der Wert von r op hoch, bedeutet dies, die Suchlandschaft erscheint glatt, was einem GA erleichtern sollte, Regelmäßigkeiten der Fitnesslandschaft auszunutzen. Die Fitness-Distanz-Korrelationsanalyse (FDKA) Diese Methode ist universeller als die statistische Korrelationsanalyse. Aus der Korrelation zwischen Fitness eines Individuums und seiner Distanz zum nahegelegensten globalen Optimum (z.b. per Hamming-Distanz) ergibt sich ein Maß für die Schwierigkeit des Problems unpraktischerweise setzt dieser Ansatz das Wissen um die i.a. unbekannte Lage des globalen Optimums voraus. Seite 10/11

11 3. Zusammenfassung Wie dieser Vortrag hoffentlich zeigen konnte, existieren sehr viele unterschiedliche Spielarten der GAs, die ihre verschiedenen Stärken und Schwächen haben. Ebenso sollte verdeutlicht werden, wie die theoretischen Grundlagen der GAs nach heutigem Wissensstand aussehen und wie der kanonische GA funktioniert. Die Forschung in der GA-Theorie steckt immer noch in den Kinderschuhen, und man wird in Zukunft sicher noch mehr von dieser Art der Evolutionären Algorithmen hören. 4. Literaturverzeichnis Nissen, Volker: Einführung in Evolutionäre Algorithmen; Vieweg Verlag 1997 Schöneburg E., Heinzmann F., Feddersen F.: Genetische Algorithmen und Evolutionsstrategien; Addison Wesley 1996 Netz: Claassen, Manfred: Einführung in genetische Algorithmen, Seite 11/11

Genetische und Evolutionäre Algorithmen (Vol. 1)

Genetische und Evolutionäre Algorithmen (Vol. 1) Vortrag über Genetische und Evolutionäre Algorithmen (Vol. ) von Adam El Sayed Auf und Kai Lienemann Gliederung: ) Einführung 2) Grundkonzept 3) Genaue Beschreibung des Genetischen Algorithmus Lösungsrepräsentation

Mehr

Warum konvergieren Genetische Algorithmen gegen ein Optimum?

Warum konvergieren Genetische Algorithmen gegen ein Optimum? 1 / 21 Gliederung 1 Das Schematheorem Motivation Begriffe Herleitung Ergebnis Das Schematheorem Das Schematheorem Motivation 3 / 21 Warum konvergieren Genetische Algorithmen gegen ein Optimum? Theoretische

Mehr

10. Vorlesung Stochastische Optimierung

10. Vorlesung Stochastische Optimierung Soft Control (AT 3, RMA) 10. Vorlesung Stochastische Optimierung Genetische Algorithmen 10. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter"

Mehr

Optimale Produktliniengestaltung mit Genetischen Algorithmen

Optimale Produktliniengestaltung mit Genetischen Algorithmen Optimale Produktliniengestaltung mit Genetischen Algorithmen 1 Einleitung 2 Produktlinienoptimierung 3 Genetische Algorithmen 4 Anwendung 5 Fazit Seite 1 Optimale Produktliniengestaltung mit Genetischen

Mehr

Populationsbasierte Suche. Evolutionäre Algorithmen (1)

Populationsbasierte Suche. Evolutionäre Algorithmen (1) Populationsbasierte Suche Bisherige Meta-Heuristiken: Simulated Annealing Tabu Search Ausgehend von einer Lösung wird gesucht Populationsbasierte Heuristiken Suche erfolgt ausgehend von mehreren Lösungen

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen Shawn Keen Zusammenfassung Eine weitere Herangehensweise an das maschinelle Lernen ist die Nachahmung evolutionärer Prozesse. Hier wollen wir uns mit den sogenannten Genetischen

Mehr

Survival of the Fittest Optimierung mittels Genetischer Algorithmen

Survival of the Fittest Optimierung mittels Genetischer Algorithmen Übung zu Organic Computing Survival of the Fittest Optimierung mittels Genetischer Algorithmen Sabine Helwig Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Universität Erlangen-Nürnberg sabine.helwig@informatik.uni-erlangen.de

Mehr

Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen

Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen Einführung in die Methoden der Künstlichen Intelligenz Evolutionäre Algorithmen Dr. David Sabel WS 2012/13 Stand der Folien: 12. November 2012 Evolutionäre / Genetische Algorithmen Anwendungsbereich: Optimierung

Mehr

InformatiCup 2009 EvolutionConsole

InformatiCup 2009 EvolutionConsole InformatiCup 2009 EvolutionConsole Wilhelm Büchner Hochschule 19. März 2010 1 1. Das Team Teammitglieder Ralf Defrancesco KION Information Services GmbH Systemadministrator Daniel Herken Scooter Attack

Mehr

Synthese Eingebetteter Systeme. Übung 6

Synthese Eingebetteter Systeme. Übung 6 12 Synthese Eingebetteter Systeme Sommersemester 2011 Übung 6 Michael Engel Informatik 12 TU Dortmund 2011/07/15 Übung 6 Evolutionäre Algorithmen Simulated Annealing - 2 - Erklären Sie folgende Begriffe

Mehr

Computational Intelligence

Computational Intelligence / 4 Computational Intelligence Wintersemester 007/008 4. Genetische Algorithmen Stefan Berlik Fachgruppe Praktische Informatik FB, Elektrotechnik und Informatik Universität Siegen 5. November 007 Gliederung

Mehr

Genetische Algorithmen

Genetische Algorithmen Michael Gerhäuser Universität Bayreuth 28.06.2008 1 Motivierende Beispiele 2 Grundbegriffe der biologischen Evolution 3 Formalisierung der Grundbegriffe 4 Modellierung mit Markov-Ketten 5 Konvergenzanalyse

Mehr

Proseminar Genetische und Evolutionäre Algorithmen Evolutionsstrategien

Proseminar Genetische und Evolutionäre Algorithmen Evolutionsstrategien Proseminar Genetische und Evolutionäre Algorithmen Evolutionsstrategien Michael Stahl 4. Juni 2002 Inhaltsverzeichnis 1 Überblick 2 2 Generischer ES-Algorithmus 2 2.1 Initialisierung....................................

Mehr

55 Lokale Extrema unter Nebenbedingungen

55 Lokale Extrema unter Nebenbedingungen 55 Lokale Extrema unter Nebenbedingungen Sei f : O R mit O R n differenzierbar. Notwendige Bescheinigung für ein lokales Extremum in p 0 ist dann die Bedingung f = 0 (siehe 52.4 und 49.14). Ist nun F :

Mehr

Evolutionäre Algorithmen

Evolutionäre Algorithmen Karsten Weicker Evolutionäre Algorithmen 2., überarbeitete und erweiterte Auflage m Teubner Inhaltsverzeichnis 1 Natürliche Evolution 1 1.1 Entwicklung der evolutionären Mechanismen 2 1.2 Evolutionsfaktoren

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen Von Valentina Hoppe und Jan Rörden Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Gliederung Biologische Evolution Genetischer Algorithmus Definition theoretischer

Mehr

Systempartitionierung Evol. Algorithmen

Systempartitionierung Evol. Algorithmen Systempartitionierung Evol. Algorithmen Hw-Sw-Co-Design Übersicht Grundlagen Evolutionärer Algorithmen Strömungsrichtungen Hybride evolutionäre Algorithmen Systempartitionierung und -exploration 1 Einleitung

Mehr

Das Trust-Region-Verfahren

Das Trust-Region-Verfahren Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein

Mehr

Evolutionsstrategien

Evolutionsstrategien Evolutionsstrategien zum Seminar Evolutionäre Algorithmen von Jana Schäfer INHALTVERZEICHNIS 1. Einführung... 3 2. Die Geschichte der Evolutionsstrategien...4 3. Grundlegendes... 6 3.1 Begriffe... 6 3.2

Mehr

Hauptseminar Repräsentationen für Optimierungsalgorithmen

Hauptseminar Repräsentationen für Optimierungsalgorithmen Stefan Bens Hauptseminar Dresden, 03.07.2008 Inhalt 1. Motivation 2. Einleitung 3. Repräsentationsarten und Eigenschaften 4. Beispiel 5. Zusammenfassung Folie 2 Als Repräsentation bezeichnet man die Kodierung

Mehr

Greedy Algorithms - Gierige Algorithmen

Greedy Algorithms - Gierige Algorithmen Greedy Algorithms - Gierige Algorithmen Marius Burfey 23. Juni 2009 Inhaltsverzeichnis 1 Greedy Algorithms 1 2 Interval Scheduling - Ablaufplanung 2 2.1 Problembeschreibung....................... 2 2.2

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

2 Extrema unter Nebenbedingungen

2 Extrema unter Nebenbedingungen $Id: lagrangetex,v 18 01/11/09 14:07:08 hk Exp $ $Id: untermfgtex,v 14 01/11/1 10:00:34 hk Exp hk $ Extrema unter Nebenbedingungen Lagrange-Multiplikatoren In der letzten Sitzung hatten wir begonnen die

Mehr

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie Mathematische Grundlagen für die Vorlesung Differentialgeometrie Dr. Gabriele Link 13.10.2010 In diesem Text sammeln wir die nötigen mathematischen Grundlagen, die wir in der Vorlesung Differentialgeometrie

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

Genetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008

Genetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008 Genetische Algorithmen Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 8. Juli 2008 Inhalt Einführung Algorithmus Erweiterungen alternative Evolutions- und Lernmodelle Inhalt 1 Einführung

Mehr

Willkürlich legen wir fest: Akzeptanz schlechterer Werte am Anfang der Iteration: , Akzeptanz schlechterer Werte am Ende der Iteration: 0:05.

Willkürlich legen wir fest: Akzeptanz schlechterer Werte am Anfang der Iteration: , Akzeptanz schlechterer Werte am Ende der Iteration: 0:05. 126 Kapitel 4: Non-Standard-Optimierung Willkürlich legen wir fest: Akzeptanz schlechterer Werte am Anfang der Iteration: 1 10 3, Akzeptanz schlechterer Werte am Ende der Iteration: 0:05. Daraus errechnet

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Selektions-Mutations-Modelle

Selektions-Mutations-Modelle Selektions-Mutations-Modelle Claudia Groÿmann January 16, 2012 Claudia Groÿmann () Selektions-Mutations-Modelle January 16, 2012 1 / 29 Inhaltsverzeichnis 1 Selektions-Mutations-Modelle 2 Mutation und

Mehr

Innere-Punkt-Methoden

Innere-Punkt-Methoden Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction

Mehr

Die Höhe von binären Suchbäumen Ausarbeitung zum Seminar zu Stochastischen Rekursionsgleichungen im WS 2011/2012

Die Höhe von binären Suchbäumen Ausarbeitung zum Seminar zu Stochastischen Rekursionsgleichungen im WS 2011/2012 Die Höhe von binären Suchbäumen Ausarbeitung zum Seminar zu Stochastischen Rekursionsgleichungen im WS 011/01 Sandra Uhlenbrock 03.11.011 Die folgende Ausarbeitung wird, basierend auf Branching Processes

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen Ottmar Beucher, Fachhochschule Karlsruhe 7. Dezember 2001 1 Guten Tag, meine Damen und Herren! Ich begrüße Sie recht herzlich zu meinem Vortrag über Genetische Algorithmen. Hierbei

Mehr

Theoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme

Theoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien

Mehr

5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS)

5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS) 5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS) Sommersemester 2009 Dr. Carsten Sinz, Universität Karlsruhe Datenstruktur BDD 2 1986 von R. Bryant vorgeschlagen zur Darstellung von aussagenlogischen Formeln (genauer:

Mehr

Allgemeine Betriebswirtschaftslehre Planungs- und Entscheidungstechniken

Allgemeine Betriebswirtschaftslehre Planungs- und Entscheidungstechniken FernUniversität in Hagen Lehrstuhl für Betriebswirtschaftslehre, insb. Operations Research Prof. Dr. Wilhelm Rödder Allgemeine Betriebswirtschaftslehre Planungs- und Entscheidungstechniken Sandra Rudolph,

Mehr

Konvexe Optimierungsprobleme

Konvexe Optimierungsprobleme von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Elemente in Φ werden Wurzeln genannt. Bemerkung 3.2. (a) Zu einem Wurzelsystem können wir immer eine Spiegelungsgruppe definieren

Elemente in Φ werden Wurzeln genannt. Bemerkung 3.2. (a) Zu einem Wurzelsystem können wir immer eine Spiegelungsgruppe definieren 3. Wurzelsysteme Als erstes führen wir den Begriff eines Wurzelsystems ein. Definition 3.1 (Wurzelsystem). Eine endliche Teilmenge Φ V {0} heißt Wurzelsystem falls gilt: (R1) Φ Rα = {±α} für α Φ, (R2)

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Sommer-Semester 2008 Konzept-Lernen Konzept-Lernen Lernen als Suche Inductive Bias Konzept-Lernen: Problemstellung Ausgangspunkt:

Mehr

Algorithmen für schwierige Optimierungsprobleme Vorlesung für den Bereich Bachelor Informatik

Algorithmen für schwierige Optimierungsprobleme Vorlesung für den Bereich Bachelor Informatik Algorithmen für schwierige Optimierungsprobleme Vorlesung für den Bereich Bachelor Informatik Dozent: Prof. Dr. Henning Meyerhenke Paralleles Rechnen, Fakultät für Informatik 1 KIT Universität des Landes

Mehr

8. Konfidenzintervalle und Hypothesentests

8. Konfidenzintervalle und Hypothesentests 8. Konfidenzintervalle und Hypothesentests Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Beispiel. Sie wollen den durchschnittlichen Fruchtsaftgehalt eines bestimmten Orangennektars

Mehr

Das Gradientenverfahren

Das Gradientenverfahren Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1

Mehr

Lagrange-Multiplikatoren

Lagrange-Multiplikatoren Lagrange-Multiplikatoren Ist x eine lokale Extremstelle der skalaren Funktion f unter den Nebenbedingungen g i (x) = 0, dann existieren Lagrange-Multiplikatoren λ i, so dass grad f (x ) = λ i grad g i

Mehr

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)

3.2 Lineare Optimierung (Entscheidungen unter Sicherheit) 3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände

Mehr

Heuristische Verfahren

Heuristische Verfahren Heuristische Verfahren Bei heuristischen Verfahren geht es darum in polynomieller Zeit eine Näherungslösung zu bekommen. Diese kann sehr gut oder sogar optimal sein, jedoch gibt es keine Garantie dafür.

Mehr

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 } A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder

Mehr

Einstieg in die Informatik mit Java

Einstieg in die Informatik mit Java 1 / 16 Einstieg in die Informatik mit Java Innere Klassen Gerd Bohlender Institut für Angewandte und Numerische Mathematik Gliederung 2 / 16 1 Einführung 2 Element-Klassen 3 Lokale Klassen 4 Anonyme Klassen

Mehr

MOP: Metaheuristiken Multipunktmethoden. Bisher: je Iteration wird ein Entscheidungsvektor variiert und bewertet. Praktische Optimierung

MOP: Metaheuristiken Multipunktmethoden. Bisher: je Iteration wird ein Entscheidungsvektor variiert und bewertet. Praktische Optimierung Wintersemester 2007/08 Praktische Optimierung (Vorlesung) Bisher: je Iteration wird ein Entscheidungsvektor variiert und bewertet Jetzt: je Iteration werden mehrere Entscheidungsvektoren variiert und bewertet

Mehr

Genetische Algorithmen

Genetische Algorithmen Genetische Algorithmen Projektgruppe 431 Metaheuristiken Bianca Selzam Inhaltsverzeichnis 1 Einleitung......................................................... 1 2 Grundlagen aus der Biologie.......................................

Mehr

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge ÜBUNGSBLATT 0 LÖSUNGEN MAT/MAT3 ANALYSIS II FRÜHJAHRSSEMESTER 0 PROF DR CAMILLO DE LELLIS Aufgabe Finden Sie für folgende Funktionen jene Punkte im Bildraum, in welchen sie sich lokal umkehren lassen,

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Künstliche Intelligenz

Künstliche Intelligenz Künstliche Intelligenz Vorlesung 9 und 10: Evolutionäre Standardalgorithmen 1/69 LERNZIELE Die gängigen Standardalgorithmen, aus der Anfangszeit bis heute, werden vorgestellt. Die bekannten Standardalgorithmen

Mehr

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist: Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,

Mehr

5. Lokale Suchverfahren. Beispiel TSP: k-change Nachbarschaft. Nachbarschaft. k-opt Algorithmus

5. Lokale Suchverfahren. Beispiel TSP: k-change Nachbarschaft. Nachbarschaft. k-opt Algorithmus 5. Lokale Suchverfahren Lokale Suche 5. Lokale Suchverfahren Beispiel TSP: k-change Nachbarschaft Optimale Lösungen können oft nicht effizient ermittelt werden. Heuristiken liefern zwar zulässige Lösungen,

Mehr

1. Inhaltsverzeichnis

1. Inhaltsverzeichnis 1. Inhaltsverzeichnis Inhaltsverzeichnis 1. Einleitung 1.1. Darwins Evolutionstheorie 1.2. Darwins Evolutionstheorie als Inspiration für Evolutionäre Algorithmen 1.3. Die Unterschiede der verschiedenen

Mehr

Grundlagen und Basisalgorithmus

Grundlagen und Basisalgorithmus Grundlagen und Basisalgorithmus Proseminar -Genetische Programmierung- Dezember 2001 David König Quelle: Kinnebrock W.: Optimierung mit genetischen und selektiven Algorithmen. München, Wien: Oldenbourg

Mehr

A. Anhang Daubechies-Wavelets General characteristics: Compactly supported wavelets with extremal phase and highest number of vanishing moments for a

A. Anhang Daubechies-Wavelets General characteristics: Compactly supported wavelets with extremal phase and highest number of vanishing moments for a A. Anhang A.1. Eigenschaften von Wavelets und Wavelet-Familien Die folgenden tabellarischen Zusammenstellungen der wichtigsten Eigenschaften der in dieser Arbeit verwendeten Wavelet-Typen und Wavelet-Familien

Mehr

Proseminarvortrag. Markov-Ketten in der Biologie (Anwendungen)

Proseminarvortrag. Markov-Ketten in der Biologie (Anwendungen) Proseminarvortrag Markov-Ketten in der Biologie (Anwendungen) von Peter Drössler 20.01.2010 2 Markov-Ketten in der Biologie (Peter Drössler, KIT 2010) Inhalt 1. Das Wright-Fisher Modell... 3 1.1. Notwendige

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Konvergenz, Filter und der Satz von Tychonoff

Konvergenz, Filter und der Satz von Tychonoff Abschnitt 4 Konvergenz, Filter und der Satz von Tychonoff In metrischen Räumen kann man topologische Begriffe wie Stetigkeit, Abschluss, Kompaktheit auch mit Hilfe von Konvergenz von Folgen charakterisieren.

Mehr

Projektive Räume und Unterräume

Projektive Räume und Unterräume Projektive Räume und Unterräume Erik Slawski Proseminar Analytische Geometrie bei Prof. Dr. Werner Seiler und Marcus Hausdorf Wintersemester 2007/2008 Fachbereich 17 Mathematik Universität Kassel Inhaltsverzeichnis

Mehr

Automaten und Formale Sprachen

Automaten und Formale Sprachen Automaten und Formale Sprachen Einführung Ralf Möller Hamburg Univ. of Technology Übung Fr. 14:30-15:15 Max Berndt, D1025 Literatur Gottfried Vossen, Kurt-Ulrich Witt: Grundkurs Theoretische Informatik,

Mehr

Verfeinerungen des Bayesianischen Nash Gleichgewichts

Verfeinerungen des Bayesianischen Nash Gleichgewichts Spieltheorie Sommersemester 007 Verfeinerungen des Bayesianischen Nash Gleichgewichts Das Bayesianische Nash Gleichgewicht für Spiele mit unvollständiger Information ist das Analogon zum Nash Gleichgewicht

Mehr

Das Lagrange-duale Problem

Das Lagrange-duale Problem Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Computational Intelligence 1 / 28. Computational Intelligence Evolutionsstrategien 3 / 28

Computational Intelligence 1 / 28. Computational Intelligence Evolutionsstrategien 3 / 28 1 / 28 Gliederung 1 Evolutionsstrategien Selektion Rekombination Mutation Ablauf 2 Genetische Programmierung Repräsentation Genetische Operatoren Ablauf Überblick Evolutionsstrategien 3 / 28 Repräsentation

Mehr

Lösungen zu den Hausaufgaben zur Analysis II

Lösungen zu den Hausaufgaben zur Analysis II Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin

Mehr

Bayesianische Netzwerke - Lernen und Inferenz

Bayesianische Netzwerke - Lernen und Inferenz Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel

Mehr

Einsatz Evolutionärer Algorithmen zur Optimierung der Tourenplanung eines Wachschutzunternehmens

Einsatz Evolutionärer Algorithmen zur Optimierung der Tourenplanung eines Wachschutzunternehmens Fachhochschule Brandenburg Fachbereich Informatik und Medien Kolloquium zur Diplomarbeit Einsatz Evolutionärer Algorithmen zur Optimierung der Tourenplanung eines Wachschutzunternehmens Übersicht Darstellung

Mehr

Ausarbeitung zum Modulabschluss. Graphentheorie. spannende Bäume, bewertete Graphen, optimale Bäume, Verbindungsprobleme

Ausarbeitung zum Modulabschluss. Graphentheorie. spannende Bäume, bewertete Graphen, optimale Bäume, Verbindungsprobleme Universität Hamburg Fachbereich Mathematik Seminar: Proseminar Graphentheorie Dozentin: Haibo Ruan Sommersemester 2011 Ausarbeitung zum Modulabschluss Graphentheorie spannende Bäume, bewertete Graphen,

Mehr

9 Minimum Spanning Trees

9 Minimum Spanning Trees Im Folgenden wollen wir uns genauer mit dem Minimum Spanning Tree -Problem auseinandersetzen. 9.1 MST-Problem Gegeben ein ungerichteter Graph G = (V,E) und eine Gewichtsfunktion w w : E R Man berechne

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Einführung in die statistische Testtheorie

Einführung in die statistische Testtheorie 1 Seminar Simulation und Bildanalyse mit Java von Benjamin Burr und Philipp Orth 2 Inhalt 1. Ein erstes Beispiel 2. 3. Die Gütefunktion 4. Gleichmäßig beste Tests (UMP-Tests) 1 Einführendes Beispiel 3

Mehr

Der Ergodensatz. Hendrik Hülsbusch

Der Ergodensatz. Hendrik Hülsbusch Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen

Mehr

F A C H H O C H S C H U L E W E D E L

F A C H H O C H S C H U L E W E D E L F A C H H O C H S C H U L E W E D E L Seminar Verkehrsinformatik Offline-Optimierung der Lichtsignal-Koordinierung mittels genetischer Algorithmen Eingereicht von: Erarbeitet im: Marco Lehmann Hoheluftchaussee

Mehr

Innere Klassen. Gerd Bohlender. Institut für Angewandte und Numerische Mathematik. Vorlesung: Einstieg in die Informatik mit Java

Innere Klassen. Gerd Bohlender. Institut für Angewandte und Numerische Mathematik. Vorlesung: Einstieg in die Informatik mit Java Innere Klassen Gerd Bohlender Institut für Angewandte und Numerische Mathematik Vorlesung: Einstieg in die Informatik mit Java 13.06.07 G. Bohlender (IANM UNI Karlsruhe) Innere Klassen 13.06.07 1 / 11

Mehr

Endliche Markov-Ketten - eine Übersicht

Endliche Markov-Ketten - eine Übersicht Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und

Mehr

Gliederung. Genetische Algorithmen (GA) Einfuehrung II. Einfuehrung I

Gliederung. Genetische Algorithmen (GA) Einfuehrung II. Einfuehrung I Genetische (GA) Gliederung 2.1. Grundbegriffe. Anwendungsgebiete GA Jens Mueller 15.12.200 Folie 1 Jens Mueller 15.12.200 Folie 2 Einfuehrung I Einfuehrung II Einordnung: Soft Computing Soft Computing

Mehr

8. Evolution (Teil II): Koevolution

8. Evolution (Teil II): Koevolution 8. Evolution (Teil II): Koevolution Darwinsche Evolution bedeutet zunächst einmal Konkurrenz wie können mehrere Arten gemeinsam evolvieren? was passiert, wenn die Arten ihre Fitnesslandschaften gegenseitig

Mehr

IR Seminar SoSe 2012 Martin Leinberger

IR Seminar SoSe 2012 Martin Leinberger IR Seminar SoSe 2012 Martin Leinberger Suchmaschinen stellen Ergebnisse häppchenweise dar Google: 10 Ergebnisse auf der ersten Seite Mehr Ergebnisse gibt es nur auf Nachfrage Nutzer geht selten auf zweite

Mehr

Automaten und Coinduktion

Automaten und Coinduktion Philipps-Univestität Marburg Fachbereich Mathematik und Informatik Seminar: Konzepte von Programmiersprachen Abgabedatum 02.12.03 Betreuer: Prof. Dr. H. P. Gumm Referentin: Olga Andriyenko Automaten und

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

4 Messbare Funktionen

4 Messbare Funktionen 4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und

Mehr

Folgerungen aus dem Auflösungsatz

Folgerungen aus dem Auflösungsatz Folgerungen aus dem Auflösungsatz Wir haben in der Vorlesung den Satz über implizite Funktionen (Auflösungssatz) kennen gelernt. In unserer Formulierung lauten die Resultate: Seien x 0 R m, y 0 R n und

Mehr

Dualitätssätze der linearen Optimierung

Dualitätssätze der linearen Optimierung Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =

Mehr

1 Umkehrfunktionen und implizite Funktionen

1 Umkehrfunktionen und implizite Funktionen Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13

Mehr

Proseminar Genetische und Evolutionäre Algorithmen

Proseminar Genetische und Evolutionäre Algorithmen Proseminar Genetische und Evolutionäre Algorithmen Genetische Algorithmen Grundkonzept und genetische Operatoren Vortragender: Frank Förster Datum: 29.04.02 Inhaltsverzeichnis 1 Einleitung...1 2 Grundbegriffe...2

Mehr

v R n ist Abstiegsrichtung in x R n wenn f(x) v < 0 v R n ist Abstiegsrichtung in x R n wenn i=1,,d: f i

v R n ist Abstiegsrichtung in x R n wenn f(x) v < 0 v R n ist Abstiegsrichtung in x R n wenn i=1,,d: f i MOP: Pareto-Gradientenabstiegsverfahren Annahme: Zielfunktion differenzierbar Wintersemester 2007/08 Praktische Optimierung (Vorlesung) d = 1: (monokriteriell) v R n ist Abstiegsrichtung in x R n wenn

Mehr

NICHTRESTRINGIERTE OPTIMIERUNG

NICHTRESTRINGIERTE OPTIMIERUNG 3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene

Mehr

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit

Mehr

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002)

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) 3. Entscheidungsbäume Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) (aus Wilhelm 2001) Beispiel: (aus Böhm 2003) Wann sind Entscheidungsbäume

Mehr

Konstruktions-Verbesserungsheuristiken. Iterierte lokale Suche (ILS)

Konstruktions-Verbesserungsheuristiken. Iterierte lokale Suche (ILS) Konstruktions-Verbesserungsheuristiken Iterierte lokale Suche (ILS) Idee: 2-Phasen-Suche 1. Phase: Randomisierte Konstruktionsheuristik 2. Phase: Lokale Suche Beispiele: Multi-Start lokale Suche GRASP:

Mehr

Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe

Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe Kapitel 4 Statistische Tests 4.1 Grundbegriffe Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe X 1,..., X n. Wir wollen nun die Beobachtung der X 1,...,

Mehr

Isomorphie von Bäumen

Isomorphie von Bäumen Isomorphie von Bäumen Alexandra Weinberger 23. Dezember 2011 Inhaltsverzeichnis 1 Einige Grundlagen und Definitionen 2 1.1 Bäume................................. 3 1.2 Isomorphie..............................

Mehr

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Einführung in die Theorie der Markov-Ketten. Jens Schomaker Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch

Mehr

Kapitel 9: Lineare Programmierung Gliederung

Kapitel 9: Lineare Programmierung Gliederung Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen

Mehr

4 Genetische Algorithmen

4 Genetische Algorithmen WS1993/94 AuD II 113 4 Genetische Algorithmen Gegeben: Problem P Menge potentieller Lösungen S= {L 1,,L s } (auch Suchraum) Zielfunktion z : S [0,1] IR (manchmal auch z : S IR ) Gesucht: z(l) > z(l') L

Mehr

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass

Mehr

2 Polynome und rationale Funktionen

2 Polynome und rationale Funktionen Gleichungen spielen auch in der Ingenieurmathematik eine große Rolle. Sie beschreiben zum Beispiel Bedingungen, unter denen Vorgänge ablaufen, Gleichgewichtszustände, Punktmengen. Gleichungen für eine

Mehr

2 Die Dimension eines Vektorraums

2 Die Dimension eines Vektorraums 2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1

Mehr