Proseminar Genetische und Evolutionäre Algorithmen
|
|
- Sara Busch
- vor 6 Jahren
- Abrufe
Transkript
1 Proseminar Genetische und Evolutionäre Algorithmen Genetische Algorithmen Erweiterungen und Analyse Seite 1/11
2 Inhaltsverzeichnis 1. Erweiterungen zu den Genetischen Algorithmen 1.1. Der steady-state-ga 1.2. Nischentechniken Deterministisches Crowding Sharing 1.3. Mehrzieloptimierung / Pareto-Optimalität Aggregationsansatz Ansätze mit wechselnden Zielen Einsatz von Nischentechniken Pareto-basierte Ansätze 1.4. Berücksichtigung von Nebenbedingungen Straffunktionen Techniken der Mehrzieloptimierung Intelligente Decodierung Spezialisierte Lösungsrepräsentation und Operatoren 2. Wie funktioniert ein GA? Analyse 2.1. Das Schema-Theorem und seine Bedeutung 2.2. Die Building-Block-Hypothese 2.3. Kritik am Schema-Theorem 2.4. Konvergenz auf das globale Optimum 2.5. Schwierige und leichte Probleme für GAs Epistasie Die statistische Korrelationsanalyse Die Fitness-Distanz-Korrelationsanalyse 3. Nachwort 4. Literaturverzeichnis Seite 2/11
3 1. Erweiterungen zu den GAs So gut der kanonische Genetische Algorithmus (das ist der GA in der Form, wie er anfangs von Holland definiert wurde) in der Praxis auch funktioniert, er ist in dieser Form nicht das letzte Wort im Fachgebiet der GAs. Seit der ersten theoretischen Analyse von J. Holland 1975 hat sich die Familie der GAs stetig weiterentwickelt, neue Herangehensweisen an eine Problemstellung und Verfeinerungen des kanonischen GA wurden formuliert und erfolgreich eingesetzt. 1.1 Der steady-state-ga Der kanonische GA ersetzt bei einer Generation (Verfahrensiteration) stets alle Individuen einer Population durch deren Nachkommen. Diese Ersetzungsstrategie wird general replacement genannt, wohingegen der steady-state-ga den Generationsschritt leicht abändert: Bei jeder neuen Generation werden nur wenige Individuen i.a. die mit der geringsten Fitness durch Nachkommen ersetzt, was den Vorteil bietet, gute Lösungen tendenziell länger in der Population zu halten. Die Implementierung unterscheidet sich vom kanonischen GA nur gering: Bei der Erzeugung und Bewertung von Nachkommen werden zuerst 2 Individuen aus der Population mit Zurücklegen gezogen und zu Eltern bestimmt. Dann werden von ihnen Kopien erzeugt, auf die ein Uniform- oder n-punkt-crossover (meist deterministisch, d.h. mit der Wahrscheinlichkeit p c =1) angewendet wird. Nach der Mutation die äquivalent zum kanonischen GA erfolgt werden die Nachkommen mittels der Fitnessfunktion bewertet. Sofern Duplikate auftreten, werden diese verworfen. Diese Selektionsschritte werden sooft wiederholt, bis q Nachkommen erzeugt worden sind. q bisherige Populationsmitglieder meistens die mit der geringsten Fitness werden durch die neuen Nachkommen ersetzt. Beim steady-state-ga können höhere Mutations- / Crossoverwahrscheinlichkeiten verwendet werden, da gute Populationsmitglieder durch die gewählte Ersetzungsstrategie geschützt werden. Dadurch soll der Algorithmus einen stärker explorativeren Charakter erhalten. Nicht geeignet sind steady-state-gas für Optimierungsprobleme mit stochastisch beeinflusster Lösungsbewertung, hier besteht die Gefahr, dass schlechte Lösungen aufgrund des stochastischen Einflusses bei der Bewertung zufällig relativ gute Fitnessbewertungen erhalten. Diese eigentlich schlechten Individuen können, durch die Ersetzungsstrategie bedingt, nun zu Unrecht über längere Zeit in der Population überleben. 1.2 Nischentechniken Für den Erfolg eines GA ist es wichtig, möglichst lange die Diversität der Populationsmitglieder zu erhalten, da sie die Effektivität des Crossovers wesentlich mitbestimmt. Diese Heterogenität kann von GA-Techniken gefördert werden, indem sie die Bildung von Nischen in natürlichen Ökosystemen nachahmen. Zwei bekannte und oft angewandte Nischentechniken sind deterministisches Crowding und sharing. Seite 3/11
4 Deterministisches Crowding Die Grundidee des deterministischen Crowding ist, Individuen immer mit denen ihnen ähnlichsten Nachkommen zu ersetzen. Durch diese Technik soll verhindert werden, dass sich die Population allzu homogen entwickelt. Der Ablauf des Algorithmus ist wie folgt: Alle Individuen werden in den mating pool kopiert und 2 Eltern werden stochastisch ausgewählt. Diese werden deterministisch mittels Crossover gekreuzt und die Mutation erfolgt wie beim kanonischen GA. Für beide Nachkommen wird die Fitness bestimmt. Jeder Elter bildet nun mit dem ihm ähnlicheren Nachkommen ein Paar, das Individuum jeden Paares mit der besseren Fitness wird der Folgepopulation hinzugefügt. Diese Schritte werden µ/2 mal durchgeführt. Ähnlichkeit kann man hier genotypisch oder phänotypisch messen (siehe auch Vortrag 1 GA Grundkonzept und genetische Operatoren 2.6 und 2.7). Ein genotypisches Ähnlichkeitsmaß wäre z.b. die Hamming-Distanz. Ein phänotypisches Ähnlichkeitsmaß wäre z.b. die euklidische Distanz, die folgendermaßen definiert ist: d euklid (x 1, x 2 ) = ( i=1 Σ n (x 1,i x 2,,i ) 2 ) Die Wahl des Distanzmaßes ist problemabhängig. Sharing Beim sharing wird die Heterogenität der Population durch eine Herabsetzung der Fitness forciert, sofern sich in der phäno- oder genotypischen Nachbarschaft eines Individuums ein anderes befindet. Die Fitnessfunktion sieht dabei wie folgt aus: Φ (a i ) = (Φ(a i ) / j=1 Σ µ λ( d(a i, a j )) i=1..µ (µ ist die Größe der Population, a ist ein Individuum aus der Population) Die Funktion λ gibt eine 1 zurück, wenn die Distanzfunktion d einen gewissen Schwellenwert T share unterschreitet, also in der Nachbarschaft oder der Nische des Individuums a i sich andere Individuen befinden, ansonsten eine 0. T share wird Nischenradius genannt, der Nenner der neuen Fitnessfunktion j=1 Σµ λ( d(a i, a j )) wird auch niche count genannt, da er über eventuelle benachbarte Individuen Aufschluß gibt. Nischentechniken eignen sich besonders für Optimierungsprobleme mit mehrfacher Zielsetzung sowie für Problemstellungen, bei denen verschiedene Optima eines multimodalen Zielfunktionsgebirges gefunden werden soll Mehrzieloptimierung Da häufig bei Entscheidungsproblemen mit mehrfacher Zielsetzung nicht eindeutig die optimale Lösung bestimmt werden kann, ist es manchmal erforderlich, eine bestimmte Menge effizienter Lösungen zu berechnen. Eine effiziente Lösung wird in diesem Zusammenhang auch als pareto-optimal bezeichnet. Pareto-Optimalität bedeutet, es existiert keine Lösung für das gestellte Problem, das von einer anderen dominiert wird, d.h. deren Zielerreichungsgrad bei keinem Zielkriterium von einer anderen Lösung übertroffen wird. Seite 4/11
5 Mehrzieloptimierung setzt meistens bei der Selektion an und lässt sich im wesentlichen in vier Gruppen aufteilen: Aggregationsansatz Beim Aggregationsansatz werden die Funktionswerte einer Lösung der g verschiedenen Zielkriterien in evtl. gewichteter Form zu einem Gesamtzielfunktionswert aggregiert, d.h. zusammengefasst. Dadurch kann das Optimierungsproblem als Einzelproblem behandelt werden, was bedeutet, daß das Ergebnis i.d.r. aus einer Lösung besteht, also keine Menge pareto-optimaler Lösungen bestimmt werden. Ansätze mit wechselnden Zielen Bei Vorliegen von g verschiedenen Zielkriterien teilt man die Selektion in g Schritte auf: in jedem Teilschritt wählt man aus der Gesamtpopulation eine gleichgroße Anzahl Individuen, die in dem spezifischen Zielkriterium gute Ergebnisse bieten, in den mating pool; somit ist die Wahrscheinlichkeit für Individuen mit guten Werten in mehreren Zielkriterien, sich zu reproduzieren, sehr hoch. Daraufhin werden Crossover und Mutation auf den gesamten mating pool angewandt. Einsatz von Nischentechniken Bei der Mehrzieloptimierung werden oft Nischentechniken eingesetzt. Ein Beispiel: der niched pareto GA. Bei diesem wird eine erweiterte Wettkampfselektion eingesetzt: Zwei Individuen (Kandidaten) werden stochastisch aus der Population gezogen und mit einer gleichfalls stochastisch bestimmten Teilmenge der Population (Vergleichsmenge) verglichen. Dominiert einer der Kandidaten die Vergleichsmenge, darf er sich reproduzieren, dominieren beide oder keiner der Kandidaten, wird einer mittels einer speziellen Form des sharing ausgewählt: Der Kandidat, in dessen Nische sich weniger Individuen befinden, also der mit dem kleineren niche count, darf sich reproduzieren. Pareto-basierte Ansätze Eine weitere Art der Mehrzieloptimierung ist z.b. das pareto-ranking: Es basiert auf einer Form der rangbasierten Selektion. Nicht-dominierte Individuen erhalten den höchsten Rang und werden bei der weitergehenden Einteilung nicht mehr berücksichtigt. Auf der Restmenge wiederholt man diesen Schritt, bis alle Individuen einen Rang haben. Individuen mit gleichem Rang haben dieselbe Selektionswahrscheinlichkeit. Die reine pareto-basierte Selektion liefert oft sehr viele pareto-optimale Lösungen, was Entscheidungsträger bei der Auswahl einer Lösung überfordern könnte. Aus diesem Grund bietet sie sich in der praktischen Verwendung nicht unbedingt an Berücksichtigung von Nebenbedingungen Praktisch alle Optimierungsprobleme sind durch Nebenbedingungen, wie z.b. - Grenzwerte für Variablen - Ganzzahligkeitsbedingungen für Variablen - (Un-) Gleichungsbeschränkungen gekennzeichnet, um den Raum zulässiger Lösungen zu begrenzen. Folglich werden Konzepte benötigt, die aussagen, wie ungültige Lösungen zu behandeln sind. Seite 5/11
6 Eine einfache Herangehensweise wäre, Nachkommen solange zu generieren, bis eine Lösung gültig ist, d.h. alle Nebenbedingungen erfüllt, bei Problemstellungen mit vielen Beschränkungen ist dies jedoch aus Laufzeitgründen nicht praktikabel. Die angewandten Verfahren zur Behandlung ungültiger Lösungen lassen sich grob in zwei Klassen aufteilen: - die Verfahren der ersten Klasse behindern das Entstehen ungültiger Lösungen nicht (z.b. Straffunktionen, Techniken der Mehrzieloptimierung) - die Verfahren der zweiten Klasse vermeiden ungültige Lösungen von vorneherein (z.b. Intelligente Decodierung, spezialisierte Lösungsrepräsentation) Einige der möglichen Verfahren werden im folgenden kurz vorgestellt. Straffunktionen (penalty functions) Sind das gebräuchlichste Mittel, um in GAs Nebenbedingungen zu berücksichtigen, da der Lösungsansatz einfach und universell verwendbar ist: ungültige Lösungen werden bei der Fitnessermittlung bestraft, z.b. mit einer eigenen Straffunktion Z : R n R +, die einen Wert >0 besitzt, wenn nicht alle Nebenbedingung des Optimierungsproblems des Individuums erfüllt werden. Die Fitnessfunktion Φ sieht dann folgendermaßen aus: Φ (a) = F(x)-Z(x) (F(x) ist die Zielfunktion) Techniken der Mehrzieloptimierung Auch Techniken der Mehrzieloptimierung (siehe 1.3.) sind prinzipiell dazu geeignet, die Einhaltung von Nebenbedingungen zu gewährleisten. Dazu wird die ursprüngliche Zielfunktion F(x) nur noch als eine von mehreren Zielkriterien betrachtet, die restlichen Zielfunktionen sind nun Straffunktionen Z k (x) (k=anzahl der Nebenbedingungen), die im Laufe der Optimierung minimal werden sollen. Intelligente Decodierung Bei dieser Methode werden i.a. nicht binäre Lösungsrepräsentationen und wenig spezialisierte Lösungsoperatoren verwendet. Im Rahmen der Fitnessfunktion kommt eine Decodierungsfunktion Γ dazu, die entsprechend der Codierung der Zielwerte anwendungsbezogen implementiert werden muss. Diese Decodierungsfunktion korrigiert die Zielwerte ungültiger Individuen automatisch bei der Fitnessbewertung. Spezialisierte Lösungsrepräsentation und Operatoren Durch eine problemspezifische Form der Lösungsrepräsentation und darauf abgestimmte Suchoperatoren können ungültige Lösung von vorneherein vermieden werden. Die Suchoperatoren haben somit gewisse Nebenbedingungen, wie z.b. Werte bei Permutationen nicht doppelt zuzulassen (siehe auch letzter Vortrag). Seite 6/11
7 2. Wie funktioniert ein GA? Analyse Obwohl GAs in praktischen Anwendungen mittlerweile sehr erfolgreich eingesetzt werden, sind die theoretischen Grundlagen, die deren Funktionsweise erklären, bewerten und vorhersagen sollen, bislang noch unzureichend erforscht. Von einer einheitlichen und universell akzeptierten Theorie der GA ist man gegenwärtig noch weit entfernt Das Schema-Theorem und seine Bedeutung 1975 legte J. Holland in seinem Buch Adaption in Natural and Artificial Systems die Basis für viele nachfolgende theoretischen Arbeiten zu den GAs. Holland analysierte darin die Funktionsweise adaptiver Systeme, worunter auch GAs einzuordnen sind. Um die Auswirkungen einer Anwendung von genetischen Operatoren (Crossover, Mutation, Selektion) auf eine Population von Chromosomen formalisieren zu können, führte er den Begriff des Schemas ein. Ein Schema ist eine Schablone, die eine Menge von Individuen beschreibt, deren Allele an definierten Positionen übereinstimmen. Anstelle von manchen Genen steht die Variable # don t care, die Positionen von Allelen sind fest definiert. Bsp.: h = < 1, 0, 1, 0, #, #> ist ein Schema der Länge 6. h 1 = < 1, 0, 1, 0, 1, 0> bezeichnet man als eine Instanz des Schemas h. Die Ordnung o(h) eines Schemas h ist durch die Anzahl der nicht-variablen Positionen definiert, also wäre z.b. o(< 1, 0, 1, 0, #, #>) = 4. Unter der definierenden Länge δ(h) eines Schemas h versteht man den Abstand zwischen der ersten und letzten von # verschiedenen Positionen, im Beispiel wäre δ(< 1, 0, 1, 0, #, #>) = 4 1 = 3. Mathematisch gesehen definiert ein Schema der Länge n einen Unterraum des M n, also einen Unterraum des gesamten Suchraumes. So repräsentiert obiges Schema h eine Hyperebene als Unterraum des M 6. Im M n gibt es 3 n verschiedene Instanzen von Schemata, da als Ausprägung jeweils 3 Elemente ( 0, 1 und #) auf den n Positionen vorkommen können. Jeder String aus M n stellt eine Instanz von 2 n Schemata dar und liegt damit gleichzeitig in 2 n Hyperräumen des M n. Folglich repräsentiert eine Population von p Chromosomen der Länge n jeweils zwischen 2 n und p*2 n Schemata. J. Holland untersuchte empirisch die Anzahl der Hyperebenen, die während eines Zyklus verarbeitet werden. Er kam zu dem Ergebnis, dass bei einer Population der Größe p mindestens p 3 Hyperebenen gleichzeitig untersucht werden, so liegt die Anzahl der Schemata, die bei einer Population von p Chromosomen pro Generierung indirekt verarbeitet werden, in der Größenordnung O(p 3 ). Folglich untersucht ein GA während seiner Abarbeitung demnach mit minimalem Aufwand (p Individuen werden bewertet) parallel die Güte von O(p 3 ) Unterräumen. Diesen Mechanismus nennt man implicit parallelism. Bei der zufälligen Initialisierung eines GA liegen unterschiedlichste Individuen, also auch Schemata, noch in gleichberechtigter Anzahl (wohlverteilt) vor. Durch die Generation neuer Populationen konzentriert sich der Suchprozess durch Selektion immer mehr auf erfolgversprechende Bereiche des Suchraumes, wobei sich implizit bessere Schemata gegen schlechtere durchsetzen (Evolution). Gleichzeitig variieren Seite 7/11
8 die Suchoperatoren, vor allem der Crossover, die Schemata immer wieder und testen somit neue Bereiche des Suchraums aus. Die Balance zwischen den beiden Strategien exploitation (Ausnutzen schon bekannter guter Strukturen) und exploration (Suche nach neuen, noch besseren Strukturen) ist für den Sucherfolg des GA von großer Bedeutung. I(h) sei im folgenden die Menge aller Instanzen des Schemas h und N(h,t) bezeichne die Anzahl von Instanzen des Schemas h in der Population P(t) zum Zeitpunkt t. Mit diesen Definitionen lässt sich dann die durchschnittliche Fitness aller Instanzen des Schemas h in P(t) bestimmen als Φ(h, t) = (1/N(h,t)) * a(t) I(h) P(t) Φ(a(t)). Die durchschnittliche Fitness aller Individuen in P(t) ist gegeben durch Φ (t) = (1/µ) * i=1 µ Φ(a i (t)) gegeben. Vernachlässigt man zunächst Mutation und Crossover und betrachtet nur den Einfluss fitnessproportionaler Selektion auf das Schema h, so gilt N(h, t+1) = N(h, t) * [ Φ(h, t)/φ (t) ] (1) Das bedeutet in Worten, dass gute Schemata mit überdurchschnittlicher Fitness in der Population im Verlauf der Generationen zunehmen, was der Strategie der exploitation entspricht. Die Mutation und der Crossover hingegen verkörpern die Strategie der exploration. Anhand der Ordnung o(h) und der definierenden Länge δ(h) können Überlebenswahrscheinlichkeiten für ein Schema h berechnet werden: p survive (mutation) = (1 - p m ) o(h) 1 p m * o(h) für p m << 1 (2) Bei der Mutation wird jedes Bit unabhängig mit der Wahrscheinlichkeit p m invertiert, p survive drückt also die Überlebenswahrscheinlichkeit eines Schemas h aus. Beim 1-point-Crossover wird das Schema zerstört, wenn der Crossover zwischen das erste und letzte fixierte Bit, also innerhalb der definierenden Länge, fällt. Sind beide Eltern jedoch eine Instanz desselben Schemas, bleibt es erhalten. Daraus ergibt sich: p survive (xover) = 1 p c * (δ(h)/l-1) * (1 N(h)/µ) (3) Fasst man (1) (3) zusammen, ergibt sich das Schema-Theorem: N(h,t+1) N(h,t) * Φ(h,t)/Φ (t) * [ 1-p c * (δ(h)/(l-1)) * (1 N(h)/µ) ] * (1 p m ) o(h) Oder auch näherungsweise N(h,t+1) N(h,t) * Φ(h,t)/Φ (t) * [ 1-p c * (δ(h)/(l-1)) p m * o(h) ] Das Schema-Theorem kann so interpretiert werden, dass Schemata mit überdurchschnittlicher Fitness, kurzer definierender Länge und niedriger Ordnung eine hohe Überlebenschance haben, also häufiger zur Erzeugung von Nachkommen herangezogen werden. Praktisch bedeutet dies: Die Codierung eines Problems sollte, um optimale Effizienz des GA zu gewährleisten, kompakt erfolgen, d.h. zusammengehörige Informationen sollten auf einem Chromosom eng beieinander abgelegt werden. Seite 8/11
9 2.2 Die Building-Block-Hypothese (BBH) Aus dem Schema-Theorem kann man, wie oben gezeigt, ableiten, daß Schemata mit den genannten Eigenschaften (kurze def. Länge, niedrige Ordnung, hohe Fitness) gute potentielle Lösungen über die Generationen aufbauen, d.h. solche Schemata erfüllen praktisch die Funktion von Bausteinen, mit deren Hilfe sukzessive die optimale Lösung Schritt für Schritt zusammengesetzt wird. Die Building-Block- Hypothese verdankt dieser Annahme ihren Namen. 2.3 Kritik am Schema-Theorem und der BBH Ein Kritikpunkt am Schema-Theorem ist, dass in Populationen endlicher Größe unweigerlich stichprobenbedingte Schätzfehler bei der Bestimmung der Fitness von Schemata entstehen, da sich die wahre statische Fitness eines Schemas h von der durchschnittlichen Fitness aller Instanzen von h unterscheidet, denn die Fitness unter den Instanzen ein und desselben Schemas variiert normalerweise beträchtlich. Ebenso geht das Schema-Theorem von der Unabhängigkeit der einzelnen Schemata aus, da sich diese jedoch oft überlappen, ist dies nicht gewährleistet. 2.4 Konvergenz auf das globale Optimum Bei Optimierungsverfahren stellt sich grundsätzlich die Frage, ob und wie schnell die Lösung auf ein globales Optimum der Zielfunktion konvergiert. Wie jedoch bewiesen werden kann, konvergiert der kanonische GA nicht auf das globale Optimum. Dies ist für die Praxis zwar enttäuschend, doch der kanonische GA ist dazu ausgelegt, in möglichst kurzer Zeit eine nahe-optimale Lösung zu finden. Ergänzt man den kanonischen GA um eine Elite-Sektion (d.h. die besten Individuen werden separat abgelegt, damit ihre Fitness nicht durch Crossover oder Mutation verringert wird, sie sind somit auf jeden Fall in der nächsten Population noch erhalten siehe auch 1.1. steady-state-ga), lässt sich allerdings beweisen, dass dieser erweiterte GA für t auf das globale Optimum konvergiert. 2.5 Schwierige und leichte Probleme für GAs Für eine praktische Verwendung von GAs ist es wichtig, Kriterien zu finden, nach denen man die Tauglichkeit eines GAs für bestimmte Probleme bewerten kann. Die Verfahren, die diese Kriterien einsetzen, machen den Aufbau einer Beispielpopulation für das spezifische Problem notwendig, anhand der die Schwierigkeit des Problems für den GA ersehen werden kann. Im folgenden sind einige solcher Kriterien kurz umrissen: Epistasie In der Biologie wird ein Gen als epistatisch bezeichnet, wenn es ein anderes Gen daran hindert, seine Wirkung zu entfalten. Bei den GAs bedeutet Epistasie, dass die Fitness eines Individuums von Änderungen der codierten Werte der Entscheidungsvariablen abhängt, aber auch von anderen Entscheidungsvariablen auf dem Chromosom beeinflusst wird. Epistasie bemisst sich im Bereich von 0% bis 100%, wobei i.a. gilt, dass GAs für Probleme im Bereich von ca. 30% - 70% sinnvoll sind. Seite 9/11
10 Da Epistasie eine sehr schlecht messbare Größe ist, ist der praktische Nutzen dieses Ansatzes umstritten. Die statistische Korrelationsanalyse Bei den Bemühungen um ein universelles Maß zur Beurteilung der Eignung eines Problems für GAs sind einige Ansätze der statistischen Korrelationsanalyse von Interesse: Sie beruhen auf der Vorstellung einer Fitnesslandschaft ( Hügel und Täler, also lokale Extrema der Fitnessfunktion), die über dem Suchraum aufgespannt ist. Diese Fitnesslandschaft kann durch die in der Population enthaltenen Individuen analysiert werden und daraus dann ein Korrelationskoeffizient r op gebildet werden. Ist der Wert von r op hoch, bedeutet dies, die Suchlandschaft erscheint glatt, was einem GA erleichtern sollte, Regelmäßigkeiten der Fitnesslandschaft auszunutzen. Die Fitness-Distanz-Korrelationsanalyse (FDKA) Diese Methode ist universeller als die statistische Korrelationsanalyse. Aus der Korrelation zwischen Fitness eines Individuums und seiner Distanz zum nahegelegensten globalen Optimum (z.b. per Hamming-Distanz) ergibt sich ein Maß für die Schwierigkeit des Problems unpraktischerweise setzt dieser Ansatz das Wissen um die i.a. unbekannte Lage des globalen Optimums voraus. Seite 10/11
11 3. Zusammenfassung Wie dieser Vortrag hoffentlich zeigen konnte, existieren sehr viele unterschiedliche Spielarten der GAs, die ihre verschiedenen Stärken und Schwächen haben. Ebenso sollte verdeutlicht werden, wie die theoretischen Grundlagen der GAs nach heutigem Wissensstand aussehen und wie der kanonische GA funktioniert. Die Forschung in der GA-Theorie steckt immer noch in den Kinderschuhen, und man wird in Zukunft sicher noch mehr von dieser Art der Evolutionären Algorithmen hören. 4. Literaturverzeichnis Nissen, Volker: Einführung in Evolutionäre Algorithmen; Vieweg Verlag 1997 Schöneburg E., Heinzmann F., Feddersen F.: Genetische Algorithmen und Evolutionsstrategien; Addison Wesley 1996 Netz: Claassen, Manfred: Einführung in genetische Algorithmen, Seite 11/11
Genetische und Evolutionäre Algorithmen (Vol. 1)
Vortrag über Genetische und Evolutionäre Algorithmen (Vol. ) von Adam El Sayed Auf und Kai Lienemann Gliederung: ) Einführung 2) Grundkonzept 3) Genaue Beschreibung des Genetischen Algorithmus Lösungsrepräsentation
MehrWarum konvergieren Genetische Algorithmen gegen ein Optimum?
1 / 21 Gliederung 1 Das Schematheorem Motivation Begriffe Herleitung Ergebnis Das Schematheorem Das Schematheorem Motivation 3 / 21 Warum konvergieren Genetische Algorithmen gegen ein Optimum? Theoretische
Mehr10. Vorlesung Stochastische Optimierung
Soft Control (AT 3, RMA) 10. Vorlesung Stochastische Optimierung Genetische Algorithmen 10. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter"
MehrOptimale Produktliniengestaltung mit Genetischen Algorithmen
Optimale Produktliniengestaltung mit Genetischen Algorithmen 1 Einleitung 2 Produktlinienoptimierung 3 Genetische Algorithmen 4 Anwendung 5 Fazit Seite 1 Optimale Produktliniengestaltung mit Genetischen
MehrPopulationsbasierte Suche. Evolutionäre Algorithmen (1)
Populationsbasierte Suche Bisherige Meta-Heuristiken: Simulated Annealing Tabu Search Ausgehend von einer Lösung wird gesucht Populationsbasierte Heuristiken Suche erfolgt ausgehend von mehreren Lösungen
MehrGenetische Algorithmen
Genetische Algorithmen Shawn Keen Zusammenfassung Eine weitere Herangehensweise an das maschinelle Lernen ist die Nachahmung evolutionärer Prozesse. Hier wollen wir uns mit den sogenannten Genetischen
MehrSurvival of the Fittest Optimierung mittels Genetischer Algorithmen
Übung zu Organic Computing Survival of the Fittest Optimierung mittels Genetischer Algorithmen Sabine Helwig Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Universität Erlangen-Nürnberg sabine.helwig@informatik.uni-erlangen.de
MehrEinführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen
Einführung in die Methoden der Künstlichen Intelligenz Evolutionäre Algorithmen Dr. David Sabel WS 2012/13 Stand der Folien: 12. November 2012 Evolutionäre / Genetische Algorithmen Anwendungsbereich: Optimierung
MehrInformatiCup 2009 EvolutionConsole
InformatiCup 2009 EvolutionConsole Wilhelm Büchner Hochschule 19. März 2010 1 1. Das Team Teammitglieder Ralf Defrancesco KION Information Services GmbH Systemadministrator Daniel Herken Scooter Attack
MehrSynthese Eingebetteter Systeme. Übung 6
12 Synthese Eingebetteter Systeme Sommersemester 2011 Übung 6 Michael Engel Informatik 12 TU Dortmund 2011/07/15 Übung 6 Evolutionäre Algorithmen Simulated Annealing - 2 - Erklären Sie folgende Begriffe
MehrComputational Intelligence
/ 4 Computational Intelligence Wintersemester 007/008 4. Genetische Algorithmen Stefan Berlik Fachgruppe Praktische Informatik FB, Elektrotechnik und Informatik Universität Siegen 5. November 007 Gliederung
MehrGenetische Algorithmen
Michael Gerhäuser Universität Bayreuth 28.06.2008 1 Motivierende Beispiele 2 Grundbegriffe der biologischen Evolution 3 Formalisierung der Grundbegriffe 4 Modellierung mit Markov-Ketten 5 Konvergenzanalyse
MehrProseminar Genetische und Evolutionäre Algorithmen Evolutionsstrategien
Proseminar Genetische und Evolutionäre Algorithmen Evolutionsstrategien Michael Stahl 4. Juni 2002 Inhaltsverzeichnis 1 Überblick 2 2 Generischer ES-Algorithmus 2 2.1 Initialisierung....................................
Mehr55 Lokale Extrema unter Nebenbedingungen
55 Lokale Extrema unter Nebenbedingungen Sei f : O R mit O R n differenzierbar. Notwendige Bescheinigung für ein lokales Extremum in p 0 ist dann die Bedingung f = 0 (siehe 52.4 und 49.14). Ist nun F :
MehrEvolutionäre Algorithmen
Karsten Weicker Evolutionäre Algorithmen 2., überarbeitete und erweiterte Auflage m Teubner Inhaltsverzeichnis 1 Natürliche Evolution 1 1.1 Entwicklung der evolutionären Mechanismen 2 1.2 Evolutionsfaktoren
MehrGenetische Algorithmen
Genetische Algorithmen Von Valentina Hoppe und Jan Rörden Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Gliederung Biologische Evolution Genetischer Algorithmus Definition theoretischer
MehrSystempartitionierung Evol. Algorithmen
Systempartitionierung Evol. Algorithmen Hw-Sw-Co-Design Übersicht Grundlagen Evolutionärer Algorithmen Strömungsrichtungen Hybride evolutionäre Algorithmen Systempartitionierung und -exploration 1 Einleitung
MehrDas Trust-Region-Verfahren
Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein
MehrEvolutionsstrategien
Evolutionsstrategien zum Seminar Evolutionäre Algorithmen von Jana Schäfer INHALTVERZEICHNIS 1. Einführung... 3 2. Die Geschichte der Evolutionsstrategien...4 3. Grundlegendes... 6 3.1 Begriffe... 6 3.2
MehrHauptseminar Repräsentationen für Optimierungsalgorithmen
Stefan Bens Hauptseminar Dresden, 03.07.2008 Inhalt 1. Motivation 2. Einleitung 3. Repräsentationsarten und Eigenschaften 4. Beispiel 5. Zusammenfassung Folie 2 Als Repräsentation bezeichnet man die Kodierung
MehrGreedy Algorithms - Gierige Algorithmen
Greedy Algorithms - Gierige Algorithmen Marius Burfey 23. Juni 2009 Inhaltsverzeichnis 1 Greedy Algorithms 1 2 Interval Scheduling - Ablaufplanung 2 2.1 Problembeschreibung....................... 2 2.2
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
Mehr2 Extrema unter Nebenbedingungen
$Id: lagrangetex,v 18 01/11/09 14:07:08 hk Exp $ $Id: untermfgtex,v 14 01/11/1 10:00:34 hk Exp hk $ Extrema unter Nebenbedingungen Lagrange-Multiplikatoren In der letzten Sitzung hatten wir begonnen die
MehrMathematische Grundlagen für die Vorlesung. Differentialgeometrie
Mathematische Grundlagen für die Vorlesung Differentialgeometrie Dr. Gabriele Link 13.10.2010 In diesem Text sammeln wir die nötigen mathematischen Grundlagen, die wir in der Vorlesung Differentialgeometrie
MehrOptimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
MehrGenetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008
Genetische Algorithmen Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 8. Juli 2008 Inhalt Einführung Algorithmus Erweiterungen alternative Evolutions- und Lernmodelle Inhalt 1 Einführung
MehrWillkürlich legen wir fest: Akzeptanz schlechterer Werte am Anfang der Iteration: , Akzeptanz schlechterer Werte am Ende der Iteration: 0:05.
126 Kapitel 4: Non-Standard-Optimierung Willkürlich legen wir fest: Akzeptanz schlechterer Werte am Anfang der Iteration: 1 10 3, Akzeptanz schlechterer Werte am Ende der Iteration: 0:05. Daraus errechnet
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrSelektions-Mutations-Modelle
Selektions-Mutations-Modelle Claudia Groÿmann January 16, 2012 Claudia Groÿmann () Selektions-Mutations-Modelle January 16, 2012 1 / 29 Inhaltsverzeichnis 1 Selektions-Mutations-Modelle 2 Mutation und
MehrInnere-Punkt-Methoden
Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction
MehrDie Höhe von binären Suchbäumen Ausarbeitung zum Seminar zu Stochastischen Rekursionsgleichungen im WS 2011/2012
Die Höhe von binären Suchbäumen Ausarbeitung zum Seminar zu Stochastischen Rekursionsgleichungen im WS 011/01 Sandra Uhlenbrock 03.11.011 Die folgende Ausarbeitung wird, basierend auf Branching Processes
MehrGenetische Algorithmen
Genetische Algorithmen Ottmar Beucher, Fachhochschule Karlsruhe 7. Dezember 2001 1 Guten Tag, meine Damen und Herren! Ich begrüße Sie recht herzlich zu meinem Vortrag über Genetische Algorithmen. Hierbei
MehrTheoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme
Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien
Mehr5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS)
5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS) Sommersemester 2009 Dr. Carsten Sinz, Universität Karlsruhe Datenstruktur BDD 2 1986 von R. Bryant vorgeschlagen zur Darstellung von aussagenlogischen Formeln (genauer:
MehrAllgemeine Betriebswirtschaftslehre Planungs- und Entscheidungstechniken
FernUniversität in Hagen Lehrstuhl für Betriebswirtschaftslehre, insb. Operations Research Prof. Dr. Wilhelm Rödder Allgemeine Betriebswirtschaftslehre Planungs- und Entscheidungstechniken Sandra Rudolph,
MehrKonvexe Optimierungsprobleme
von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel
MehrBestimmung einer ersten
Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,
MehrElemente in Φ werden Wurzeln genannt. Bemerkung 3.2. (a) Zu einem Wurzelsystem können wir immer eine Spiegelungsgruppe definieren
3. Wurzelsysteme Als erstes führen wir den Begriff eines Wurzelsystems ein. Definition 3.1 (Wurzelsystem). Eine endliche Teilmenge Φ V {0} heißt Wurzelsystem falls gilt: (R1) Φ Rα = {±α} für α Φ, (R2)
MehrModerne Methoden der KI: Maschinelles Lernen
Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Sommer-Semester 2008 Konzept-Lernen Konzept-Lernen Lernen als Suche Inductive Bias Konzept-Lernen: Problemstellung Ausgangspunkt:
MehrAlgorithmen für schwierige Optimierungsprobleme Vorlesung für den Bereich Bachelor Informatik
Algorithmen für schwierige Optimierungsprobleme Vorlesung für den Bereich Bachelor Informatik Dozent: Prof. Dr. Henning Meyerhenke Paralleles Rechnen, Fakultät für Informatik 1 KIT Universität des Landes
Mehr8. Konfidenzintervalle und Hypothesentests
8. Konfidenzintervalle und Hypothesentests Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Beispiel. Sie wollen den durchschnittlichen Fruchtsaftgehalt eines bestimmten Orangennektars
MehrDas Gradientenverfahren
Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1
MehrLagrange-Multiplikatoren
Lagrange-Multiplikatoren Ist x eine lokale Extremstelle der skalaren Funktion f unter den Nebenbedingungen g i (x) = 0, dann existieren Lagrange-Multiplikatoren λ i, so dass grad f (x ) = λ i grad g i
Mehr3.2 Lineare Optimierung (Entscheidungen unter Sicherheit)
3. Lineare Optimierung (Entscheidungen unter Sicherheit) Betrachtet wird hier der Fall Θ = (bzw. die Situation u(a, ϑ) bzw. l(a,ϑ) konstant in ϑ Θ für alle a A). Da hier keine Unsicherheit über die Umweltzustände
MehrHeuristische Verfahren
Heuristische Verfahren Bei heuristischen Verfahren geht es darum in polynomieller Zeit eine Näherungslösung zu bekommen. Diese kann sehr gut oder sogar optimal sein, jedoch gibt es keine Garantie dafür.
MehrWenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }
A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder
MehrEinstieg in die Informatik mit Java
1 / 16 Einstieg in die Informatik mit Java Innere Klassen Gerd Bohlender Institut für Angewandte und Numerische Mathematik Gliederung 2 / 16 1 Einführung 2 Element-Klassen 3 Lokale Klassen 4 Anonyme Klassen
MehrMOP: Metaheuristiken Multipunktmethoden. Bisher: je Iteration wird ein Entscheidungsvektor variiert und bewertet. Praktische Optimierung
Wintersemester 2007/08 Praktische Optimierung (Vorlesung) Bisher: je Iteration wird ein Entscheidungsvektor variiert und bewertet Jetzt: je Iteration werden mehrere Entscheidungsvektoren variiert und bewertet
MehrGenetische Algorithmen
Genetische Algorithmen Projektgruppe 431 Metaheuristiken Bianca Selzam Inhaltsverzeichnis 1 Einleitung......................................................... 1 2 Grundlagen aus der Biologie.......................................
Mehr(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge
ÜBUNGSBLATT 0 LÖSUNGEN MAT/MAT3 ANALYSIS II FRÜHJAHRSSEMESTER 0 PROF DR CAMILLO DE LELLIS Aufgabe Finden Sie für folgende Funktionen jene Punkte im Bildraum, in welchen sie sich lokal umkehren lassen,
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
MehrKünstliche Intelligenz
Künstliche Intelligenz Vorlesung 9 und 10: Evolutionäre Standardalgorithmen 1/69 LERNZIELE Die gängigen Standardalgorithmen, aus der Anfangszeit bis heute, werden vorgestellt. Die bekannten Standardalgorithmen
MehrMusterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:
Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,
Mehr5. Lokale Suchverfahren. Beispiel TSP: k-change Nachbarschaft. Nachbarschaft. k-opt Algorithmus
5. Lokale Suchverfahren Lokale Suche 5. Lokale Suchverfahren Beispiel TSP: k-change Nachbarschaft Optimale Lösungen können oft nicht effizient ermittelt werden. Heuristiken liefern zwar zulässige Lösungen,
Mehr1. Inhaltsverzeichnis
1. Inhaltsverzeichnis Inhaltsverzeichnis 1. Einleitung 1.1. Darwins Evolutionstheorie 1.2. Darwins Evolutionstheorie als Inspiration für Evolutionäre Algorithmen 1.3. Die Unterschiede der verschiedenen
MehrGrundlagen und Basisalgorithmus
Grundlagen und Basisalgorithmus Proseminar -Genetische Programmierung- Dezember 2001 David König Quelle: Kinnebrock W.: Optimierung mit genetischen und selektiven Algorithmen. München, Wien: Oldenbourg
MehrA. Anhang Daubechies-Wavelets General characteristics: Compactly supported wavelets with extremal phase and highest number of vanishing moments for a
A. Anhang A.1. Eigenschaften von Wavelets und Wavelet-Familien Die folgenden tabellarischen Zusammenstellungen der wichtigsten Eigenschaften der in dieser Arbeit verwendeten Wavelet-Typen und Wavelet-Familien
MehrProseminarvortrag. Markov-Ketten in der Biologie (Anwendungen)
Proseminarvortrag Markov-Ketten in der Biologie (Anwendungen) von Peter Drössler 20.01.2010 2 Markov-Ketten in der Biologie (Peter Drössler, KIT 2010) Inhalt 1. Das Wright-Fisher Modell... 3 1.1. Notwendige
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
MehrKonvergenz, Filter und der Satz von Tychonoff
Abschnitt 4 Konvergenz, Filter und der Satz von Tychonoff In metrischen Räumen kann man topologische Begriffe wie Stetigkeit, Abschluss, Kompaktheit auch mit Hilfe von Konvergenz von Folgen charakterisieren.
MehrProjektive Räume und Unterräume
Projektive Räume und Unterräume Erik Slawski Proseminar Analytische Geometrie bei Prof. Dr. Werner Seiler und Marcus Hausdorf Wintersemester 2007/2008 Fachbereich 17 Mathematik Universität Kassel Inhaltsverzeichnis
MehrAutomaten und Formale Sprachen
Automaten und Formale Sprachen Einführung Ralf Möller Hamburg Univ. of Technology Übung Fr. 14:30-15:15 Max Berndt, D1025 Literatur Gottfried Vossen, Kurt-Ulrich Witt: Grundkurs Theoretische Informatik,
MehrVerfeinerungen des Bayesianischen Nash Gleichgewichts
Spieltheorie Sommersemester 007 Verfeinerungen des Bayesianischen Nash Gleichgewichts Das Bayesianische Nash Gleichgewicht für Spiele mit unvollständiger Information ist das Analogon zum Nash Gleichgewicht
MehrDas Lagrange-duale Problem
Das Lagrange-duale Problem Tobias Kulke 29. April 2010 1 Einführung Für jedes Paar (λ, ν) mit λ 0 liefert die Langrange-duale Funktion ( ) p g(λ, ν) = inf L(x, λ, ν) = inf f 0 (x) + λ i f i (x) + ν i h
MehrOptimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
MehrComputational Intelligence 1 / 28. Computational Intelligence Evolutionsstrategien 3 / 28
1 / 28 Gliederung 1 Evolutionsstrategien Selektion Rekombination Mutation Ablauf 2 Genetische Programmierung Repräsentation Genetische Operatoren Ablauf Überblick Evolutionsstrategien 3 / 28 Repräsentation
MehrLösungen zu den Hausaufgaben zur Analysis II
Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin
MehrBayesianische Netzwerke - Lernen und Inferenz
Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel
MehrEinsatz Evolutionärer Algorithmen zur Optimierung der Tourenplanung eines Wachschutzunternehmens
Fachhochschule Brandenburg Fachbereich Informatik und Medien Kolloquium zur Diplomarbeit Einsatz Evolutionärer Algorithmen zur Optimierung der Tourenplanung eines Wachschutzunternehmens Übersicht Darstellung
MehrAusarbeitung zum Modulabschluss. Graphentheorie. spannende Bäume, bewertete Graphen, optimale Bäume, Verbindungsprobleme
Universität Hamburg Fachbereich Mathematik Seminar: Proseminar Graphentheorie Dozentin: Haibo Ruan Sommersemester 2011 Ausarbeitung zum Modulabschluss Graphentheorie spannende Bäume, bewertete Graphen,
Mehr9 Minimum Spanning Trees
Im Folgenden wollen wir uns genauer mit dem Minimum Spanning Tree -Problem auseinandersetzen. 9.1 MST-Problem Gegeben ein ungerichteter Graph G = (V,E) und eine Gewichtsfunktion w w : E R Man berechne
MehrNewton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme
Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es
MehrEinführung in die statistische Testtheorie
1 Seminar Simulation und Bildanalyse mit Java von Benjamin Burr und Philipp Orth 2 Inhalt 1. Ein erstes Beispiel 2. 3. Die Gütefunktion 4. Gleichmäßig beste Tests (UMP-Tests) 1 Einführendes Beispiel 3
MehrDer Ergodensatz. Hendrik Hülsbusch
Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen
MehrF A C H H O C H S C H U L E W E D E L
F A C H H O C H S C H U L E W E D E L Seminar Verkehrsinformatik Offline-Optimierung der Lichtsignal-Koordinierung mittels genetischer Algorithmen Eingereicht von: Erarbeitet im: Marco Lehmann Hoheluftchaussee
MehrInnere Klassen. Gerd Bohlender. Institut für Angewandte und Numerische Mathematik. Vorlesung: Einstieg in die Informatik mit Java
Innere Klassen Gerd Bohlender Institut für Angewandte und Numerische Mathematik Vorlesung: Einstieg in die Informatik mit Java 13.06.07 G. Bohlender (IANM UNI Karlsruhe) Innere Klassen 13.06.07 1 / 11
MehrEndliche Markov-Ketten - eine Übersicht
Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und
MehrGliederung. Genetische Algorithmen (GA) Einfuehrung II. Einfuehrung I
Genetische (GA) Gliederung 2.1. Grundbegriffe. Anwendungsgebiete GA Jens Mueller 15.12.200 Folie 1 Jens Mueller 15.12.200 Folie 2 Einfuehrung I Einfuehrung II Einordnung: Soft Computing Soft Computing
Mehr8. Evolution (Teil II): Koevolution
8. Evolution (Teil II): Koevolution Darwinsche Evolution bedeutet zunächst einmal Konkurrenz wie können mehrere Arten gemeinsam evolvieren? was passiert, wenn die Arten ihre Fitnesslandschaften gegenseitig
MehrIR Seminar SoSe 2012 Martin Leinberger
IR Seminar SoSe 2012 Martin Leinberger Suchmaschinen stellen Ergebnisse häppchenweise dar Google: 10 Ergebnisse auf der ersten Seite Mehr Ergebnisse gibt es nur auf Nachfrage Nutzer geht selten auf zweite
MehrAutomaten und Coinduktion
Philipps-Univestität Marburg Fachbereich Mathematik und Informatik Seminar: Konzepte von Programmiersprachen Abgabedatum 02.12.03 Betreuer: Prof. Dr. H. P. Gumm Referentin: Olga Andriyenko Automaten und
Mehr3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
Mehr4 Messbare Funktionen
4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und
MehrFolgerungen aus dem Auflösungsatz
Folgerungen aus dem Auflösungsatz Wir haben in der Vorlesung den Satz über implizite Funktionen (Auflösungssatz) kennen gelernt. In unserer Formulierung lauten die Resultate: Seien x 0 R m, y 0 R n und
MehrDualitätssätze der linearen Optimierung
Kapitel 9 Dualitätssätze der linearen Optimierung Sei z = c T x min! Ax = b 9.1 x 0 mit c, x R n, b R m, A R m n ein lineares Programm. Definition 9.1 Duales lineares Programm. Das lineare Programm z =
Mehr1 Umkehrfunktionen und implizite Funktionen
Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13
MehrProseminar Genetische und Evolutionäre Algorithmen
Proseminar Genetische und Evolutionäre Algorithmen Genetische Algorithmen Grundkonzept und genetische Operatoren Vortragender: Frank Förster Datum: 29.04.02 Inhaltsverzeichnis 1 Einleitung...1 2 Grundbegriffe...2
Mehrv R n ist Abstiegsrichtung in x R n wenn f(x) v < 0 v R n ist Abstiegsrichtung in x R n wenn i=1,,d: f i
MOP: Pareto-Gradientenabstiegsverfahren Annahme: Zielfunktion differenzierbar Wintersemester 2007/08 Praktische Optimierung (Vorlesung) d = 1: (monokriteriell) v R n ist Abstiegsrichtung in x R n wenn
MehrNICHTRESTRINGIERTE OPTIMIERUNG
3 NICHTRESTRINGIERTE OPTIMIERUNG Die Aufgabe, mit der wir uns im Folgen beschäftigen werden, ist die Lösung von Minimierungsproblemen der Form minimiere f(x) in R n, (3.1) wobei f : R n R eine gegebene
MehrTeil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation
Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit
Mehr3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002)
3. Entscheidungsbäume Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) (aus Wilhelm 2001) Beispiel: (aus Böhm 2003) Wann sind Entscheidungsbäume
MehrKonstruktions-Verbesserungsheuristiken. Iterierte lokale Suche (ILS)
Konstruktions-Verbesserungsheuristiken Iterierte lokale Suche (ILS) Idee: 2-Phasen-Suche 1. Phase: Randomisierte Konstruktionsheuristik 2. Phase: Lokale Suche Beispiele: Multi-Start lokale Suche GRASP:
MehrStatistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe
Kapitel 4 Statistische Tests 4.1 Grundbegriffe Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe X 1,..., X n. Wir wollen nun die Beobachtung der X 1,...,
MehrIsomorphie von Bäumen
Isomorphie von Bäumen Alexandra Weinberger 23. Dezember 2011 Inhaltsverzeichnis 1 Einige Grundlagen und Definitionen 2 1.1 Bäume................................. 3 1.2 Isomorphie..............................
MehrEinführung in die Theorie der Markov-Ketten. Jens Schomaker
Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch
MehrKapitel 9: Lineare Programmierung Gliederung
Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen
Mehr4 Genetische Algorithmen
WS1993/94 AuD II 113 4 Genetische Algorithmen Gegeben: Problem P Menge potentieller Lösungen S= {L 1,,L s } (auch Suchraum) Zielfunktion z : S [0,1] IR (manchmal auch z : S IR ) Gesucht: z(l) > z(l') L
Mehr9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
Mehr2 Polynome und rationale Funktionen
Gleichungen spielen auch in der Ingenieurmathematik eine große Rolle. Sie beschreiben zum Beispiel Bedingungen, unter denen Vorgänge ablaufen, Gleichgewichtszustände, Punktmengen. Gleichungen für eine
Mehr2 Die Dimension eines Vektorraums
2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1
Mehr