Evolutionäre Algorithmen
|
|
- Mina Baum
- vor 5 Jahren
- Abrufe
Transkript
1 Evolutionäre Algorithmen Mehrkriterienoptimierung Prof. Dr. Rudolf Kruse Christian Moewes Otto-von-Guericke-Universität Magdeburg Fakultät für Informatik Institut für Wissens- und Sprachverarbeitung Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
2 Übersicht 1. Mehrkriterienoptimierung Einfachster Lösungsansatz Pareto-optimale Lösungen Lösung mit evolutionären Algorithmen 2. Antennenplatzierung Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung 27. Juni 2011
3 Mehrkriterienoptimierung in viele Alltagsproblemen: nicht eine Größe zu optimieren verschiedene Ziele zu möglichst hohem Grad erreichen Beispiel: Wünsche beim Autokauf niedriger Preis, geringer Kraftstoffverbrauch, möglichst viel Komfort (elektr. Fensterheber, Klimaanlage) verschiedenen, zu erreichenden Ziele oft nicht unabhängig, sondern gegensätzlich: nicht alle gleichzeitig voll erreichbar Beispiel: Autokauf Aufpreis für viele Ausstattungsmerkmale Klimaanlage oder geräumigeres Auto bedingen oft größeren Motor und damit höheren Preis und Kraftstoffverbrauch Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
4 Mehrkriterienoptimierung formale Beschreibung: k Kriterien gegeben, denen jeweils eine zu optimierende Zielfunktion zugeordnet ist: f i : Ω IR, i = 1,..., k einfachster Lösungsansatz: fasse k Zielfunktionen zu einer Gesamtzielfunktion zusammen, z.b. durch k f(s) = w i f i (s) i=1 Wahl der Gewichte: Vorzeichen: falls f max, dann alle w i > 0 von zu maximierenden f i, anderen w i < 0 Absolutwert: relative Wichtigkeit der Kriterien (Schwankungsbreite berücksichtigen!) Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
5 Mehrkriterienoptimierung Probleme dieses Ansatzes: relative Wichtigkeit verschiedenen Kriterien bereits muss vor Suche festlegt werden Wahl der Gewichte nicht immer einfach, sodass Präferenzen zwischen Kriterien angemessen Probleme, die mit Linearkombination der f i auftreten, sind noch viel fundamentaler: allgemein: Problem der Aggregation von Präferenzordnungen tritt auch bei Personenwahlen auf (Kandidatenpräferenzen der Wähler müssen zusammengefasst werden) Arrowsches Paradoxon [Arrow, 1951]: es gibt keine Wahlfunktion, die alle wünschenswerten Eigenschaften hat Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
6 Mehrkriterienoptimierung Arrowschen Unmöglichkeitssätze [Arrow, 1951] lassen sich im Prinzip durch skalierte Präferenzordnungen umgehen Aber: Skalierung der Präferenzordnung ist weiterer Freiheitsgrad es ist u.u. noch schwieriger, passende Skalierung zu finden, als Gewichte einer Linearkombination angemessen zu bestimmen Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
7 Pareto-optimale Lösungen alternativer Ansatz: versuche, alle/möglichst viele Pareto-optimale Lösungen zu finden Definition Ein Element s Ω heißt Pareto-optimal bezüglich der Zielfunktionen f i, i = 1,..., k, wenn es kein Element s Ω gibt, für das gilt i, 1 i k : f i (s ) f i (s) und i, 1 i k : f i (s ) > f i (s). Anschaulich: Wert keiner Zielfunktion kann verbessert werden, ohne Wert einer anderen zu verschlechtern Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
8 Definition des Begriffs Pareto-optimal Element s 1 Ω dominiert Element s 2 Ω, wenn gilt i, 1 i k : f i (s 1 ) f i (s 2 ) Element s 1 Ω dominiert Element s 2 Ω echt, wenn s 1 s 2 dominiert und außerdem gilt i, 1 i k : f i (s 1 ) > f i (s 2 ) Element s 1 S heißt Pareto-optimal, wenn es von keinem Element s 2 Ω echt dominiert wird Menge der Pareto-optimalen Elemente heißt Pareto-Front Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
9 Mehrkriterienoptimierung Vorteile der Suche nach Pareto-optimalen Lösungen: Zielfunktionen müssen nicht zusammengefasst werden Bestimmung von Gewichten entfällt Suche muss auch für verschiedene Präferenzen nur einmal durchgeführt werden erst anschließend wird aus gefundenen Lösungen gewählt Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
10 Pareto-optimaler Lösungen / Pareto-Front f 2 f 2 f 2 f 1 f 1 f 1 alle Punkte von Ω liegen im grau gezeichneten Bereich Pareto-optimale Lösungen = fett gezeichneten Teil des Randes beachte: je nach Lage der Lösungskandidaten kann Pareto-optimale Lösung auch eindeutig sein Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
11 Lösung mit evolutionären Algorithmen Ziel: möglichst breite Verteilung der Population entlang Pareto-Front Herausforderung: ohne vorab bestimmte Gewichtung viele verschiedene, gleichwertige Lösungen Einfachster Ansatz: verwende gewichtete Summe der einzelnen Zielfunktionen als Fitnessfunktion hat erwähnten Nachteile Bemerkung: dieser Ansatz führt zu Pareto-optimalen Lösung nur eben durch Gewichtungen ausgezeichnet Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
12 Lösung mit evolutionären Algorithmen naheliegende Alternative: sog. VEGA-Verfahren gegeben k Kriterien, denen Zielfunktionen f i, 1..., k zugeordnet sind i, 1,..., k: wähle P k Individuen basierend auf Fitnessfunktion f i Vorteil: einfach, geringer Rechenaufwand Nachteil: Lösungen, die alle Kriterien recht gut, aber keines maximal erfüllen, haben deutlichen Selektionsnachteil Folge: Suche konzentriert sich auf Randlösungen Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
13 Lösung mit evolutionären Algorithmen besserer Ansatz: nutze Dominanzbegriff zur Selektion Aufbau einer Rangskala der Individuen einer Population: finde alle nicht dominierten Lösungskandidaten der Population ordne Lösungskandidaten höchsten Rang zu und entferne sie aus Population wiederhole Bestimmen und Entfernen der nicht dominierten Lösungskandidaten für weiteren Ränge, bis Population leer führe mithilfe der Rangskala Rangauswahl durch Problem: alle Individuen der Pareto-Front werden gleich bewertet Gendrift: Pareto-Front konvergiert an beliebigem Punkt durch Zufallseffekte Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
14 Verhindern des Gendrifts Ziel: möglichst gleichmäßige Verteilung entlang Pareto-Front Lösung: Nischentechniken um zwischen Individuen mit gleichem Rang zu unterscheiden z.b. power law sharing: Individuen mit häufiger Kombination von Funktionswerten erhalten geringere Fitness isoliert auftretende Kombinationen gleich wahrscheinlich wie Lösungskandidaten der gehäuft vorkommenden Kombination Sharing wie für eine Bewertungsfunktion, nur mit Abstandsmaß für Funktionswerte Problem: aufwändige Berechnung der Rangskala Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
15 NSGA-Selektion Non-dominated Sorted Genetic Algorithm Alternative: Turnierauswahl, wobei Turniersieger über Dominanzbegriff und ggf. Nischentechniken bestimmt Vorgehensweise: wähle Referenzindividuen selektiere nichtdominiertes Individuum ansonsten: Individuum mit weniger Individuen in Nische hier: Nische durch Radius ε bestimmt Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
16 Algorithm 1 NSGA-Selektion Input: Gütewerte A (i).f j 1 i r,1 j k, Stichprobengröße N dom 1: I {} 2: for t 1,..., s { 3: a U({1,..., r}) 4: b U({1,..., r}) 5: Q Teilmenge von {1,..., r} der Größe N dom 6: d a i Q : A (i) > dom A (a) 7: d b i Q : A (i) > dom A (b) 8: if d a and not d b { 9: I I {b} 10: } else { 11: if not d a and d b { 12: I I {a} 13: } else { 14: n a 1 i r d(a (i), A (a) ) < ε 15: n b { } 1 i r d(a (i), A (b) ) < ε 16: if n a > n b { 17: I I {b} 18: } else { 19: I I {a} 20: } 21: } 22: } 23: } 24: return I
17 NSGA-Selektion trotzdem mangelhafte Approximation der Pareto-Front, Gründe: Parametereinstellung von ε Population wird für zwei Zwecke genutzt als Speicher für nicht-dominierte Individuen (Pareto-Front) als lebendige Population (zur Durchforstung des Suchraums) Abhilfe: Trennung des Archivs für nicht-dominierte Individuen von Population Archiv hat (meistens) endliche Größe Test aller Individuen auf Dominanz durch Archivindividuen bei Neuzugängen: dominierte Individuen aus Archiv entfernen Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
18 Strength Pareto EA (SPEA2) gewöhnlicher EA Bewertungsfunktion: zwei Komponenten 1. wie viele Individuen dominieren Individuen, die dieses Individuum dominieren 2. Distanz zum n-nächsten Individuum Archiv geht in Güteberechnung mit ein und enthält nicht-dominierte Individuen falls zu wenig: zusätzlich gütebeste Individuen Ersetzen im Archiv aufgrund der Entfernung zu anderen archivierten Individuen Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
19 Algorithm 2 SPEA2 Input: Zielfunktionen F 1,..., F k, Populationsgröße µ, Archivgröße µ 1: t 0 2: P(t) erzeuge Population mit µ Individuen 3: R(t) 4: while Terminierungsbedingung nicht erfüllt { 5: bewerte P(t) durch F 1,..., F k 6: for each A P(t) R(t) { 7: AnzDom(A) {B P(t) R(t) A > dom B} 8: } 9: for each A P(t) R(t) { 10: d Distanz von A und seinen µ + µ nächsten Individuen in P(t) R(t) 11: A.F d+2 1 B P(t) R(t),B> + AnzDom(B) dom A 12: } 13: R(t + 1) {A P(t) R(t) Aist nicht-dominiert} 14: while R(t + 1) > µ { 15: entferne dasjenige Individuum aus R(t + 1) mit dem kürzesten/zweitkürzesten Abstand 16: } 17: if R(t + 1) < µ { 18: fülle R(t + 1) mit den gütebesten dominierten Individuen aus P(t) R(t) 19: } 20: if Terminierungsbedingung nicht erfüllt { 21: Selektion aus P(t) mittels Turnier-Selektion 22: P(t + 1) wende Rekombination und Mutation an 23: t t : } 25: } 26: return nicht-dominierte Individuen aus R(t + 1)
20 Pareto-Archived ES (PAES) (1 + 1)-Evolutionsstrategie Akzeptanzbedingung: Archivindividuum wird dominiert oder Funktionswertebereich is wenig frequentiert Nischen: ergeben sich aus Organisation des Archivs als mehrdimensionale Hash-Tabelle Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
21 Algorithm 3 PAES Input: Zielfunktionen F 1,..., F k, Archivgröße µ 1: t 0 2: A erzeuge ein zufälliges Individuen 3: R(t) {A} als mehrdimensionale Hash-Tabelle organisiert 4: while Terminierungsbedingung nicht erfüllt { 5: B Mutation auf A 6: bewerte B durch F 1,..., F k 7: if C R(t) {A} : not (C > dom B) { 8: if C R(t) : (B > dom C) { 9: entferne alle durch B dominierten Individuen aus R(t) 10: R(t) R(t) {B} 11: A B 12: } else { 13: if R(t) = µ { 14: g Hash-Eintrag mit meisten Einträgen 15: g Hash-Eintrag für B 16: if Einträge in g < Einträge in g { 17: entferne einen Eintrag aus g 18: R(t) füge B in R(t) ein 19: } 20: } else { 21: R(t) füge B in R(t) ein 22: g A Hash-Eintrag für A 23: g B Hash-Eintrag für B 24: if Einträge in g B < Einträge in g A { 25: A B 26: } 27: } 28: } 29: } 30: t t : } 32: return nicht-dominierte Individuen aus R(t + 1)
22 Zusammenfassung selbst modernste Verfahren haben bei mehr als 3 Kriterien Probleme, Pareto-Front anzunähern Grund: Rechenzeit zur Detektion ist riesig Abhilfe: iterative Präsentation der bisherigen Lösungen Nutzer fällt Entscheidungen über Konzentration der Suche auf Teilbereich Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
23 Übersicht 1. Mehrkriterienoptimierung 2. Antennenplatzierung Einführung Formalisierung Entwurfsmuster Selektion Algorithmus Konkretes Problem Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung 27. Juni 2011
24 Antennenplatzierung [Weicker et al., 2003] Lerneffekt Eingang der Problemaspekte in Bewertungsfunktion und Randbedingungen Zuschnitt der Operatoren auf das Problem Kriterien für Zusammenstellung der Operatoren Einsatz einer Reparaturfunktion für Randbedingungen neuer Selektionsmechanismus aufgrund von Effizienzüberlegungen Vergleichkriterium für Mehrzieloptimierung Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
25 Aufgabenstellung Basisantennen für Mobilfunknetze erstes Ziel: hohe Netzverfügbarkeit zweites Ziel: geringe Kosten übliche Vorgehensweise: Basisantennen platzieren und Größe/Reichweite konfigurieren Bedarf abdecken Frequenzen zuweisen Interferenzen minimal halten Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
26 Ausgangssituation beide Probleme sind N P-hart Platzierung kann Frequenzzuweisung stark einschränken in einer Iteration können Ergebnisse der Frequenzzuweisung nur bedingt in Platzierung wieder einfließen Grundsatzentscheidung: beide Probleme werden gleichzeitig bearbeitet Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
27 Formalisierung rechteckiges Gebiet (x min, y min ) und (x max, y max ) mit Rasterung res Menge aller (mögliche) Positionen: Pos = { (x min + i res, y min + j res) 0 i x max x min res und 0 j y } max y min res Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
28 Gesprächsbedarf Zürich statistisch ermitteltes Gesprächsaufkommen bedarf (zelle) IN für einige zelle Pos Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
29 Formalisierung: Antenne Antenne t = (pow, cap, pos, frq) Sende-/Empfangsstärke pow [MinPow, MaxPow] IN Gesprächskapazität cap [0, MaxCap] IN] Frequenzen/Kanäle frq Frequ = {f 1,..., f k } mit frq cap alle möglichen Antennenkonfigurationen: T = [MinPow, MaxPow] [0, MaxCap] Pos Frequ Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
30 Genotyp problemnaher Genotyp Ω = G = {{t 1,..., t k } k IN und i {1,..., k} : t i T} variable Länge Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
31 Randbedingungen Netzverfügbarkeit hat oberste Priorität als harte Randbedinung formuliert erreichbare Positionen gemäß Wellenverbreitungsmodell: wp : Pos [MinPow, MaxPow] P(Pos) A.G = (t 1,..., t k ) heißt legal, wenn für jedes t i eine Zuordnung bedient(t i, zelle) IN (mit zelle Pos) existiert, sodass bedient(t i, zelle) > 0 zelle wp(t i ) k i=1 bedient(t i, zelle) bedarf(zelle) zelle Pos bedient(t i, pos) cap mit t i = (pow, cap, pos, frq) Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
32 Bewertungsfunktionen Störungen durch Antennen mit gleichen oder eng beieinander liegenden Frequenzen in einer Zelle f interferenz (A) = ki=1 #gestörtegespräche(t i ) zelle Pos bedarf(zelle) Kosten kosten(pow i, cap i ) pro Antenne k f kosten (A) = kosten(t i ) i=1 Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
33 Entwurfsmuster nur legale Individuen, daher Reparaturfunktion notwendig jede Antennenkonfiguration muss noch erreichbar sein verlängernde und verkürzende Operatoren halten sich die Waage Feinabstimmung und Erforschung sind ausgeglichen problemspezifische und zufällige Operatoren Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
34 Reparaturfunktion Zellen in einer zufälligen Reihenfolge besuchen falls deren Bedarf nicht gedeckt ist: 1. bei Existenz mindestens einer Antennen mit freier Kapazität: die stärkste Antenne wählen und Frequenzen zuweisen 2. ggf. diejenige Antenne ermitteln, die kostenminimal durch Erhöhung der Stärke den Bedarf decken kann 3. ggf. prüfen, welche Kosten durch eine neue Antenne unmittelbar bei der Zelle entstehen 4. ggf. Lösung (2) oder (3) umsetzen Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
35 Reparaturfunktion Einsatz auf jedes neu erzeugte Individuum zur Initialisierung der Anfangspopulation Reparaturfunktion auf leeres Individuum max. 2 Pos Individuen durch mögliche zufällige Reihenfolge der Bedarfszellen Mutationsoperatoren 6 gerichtete Mutationen, die spezieller Idee folgen 5 zufällige Mutationen Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
36 Gerichtete Mutationsoperatoren Name DM1 DM2 DM3 DM4 DM5 DM6 Wirkung falls Antenne unbenutzte Frequenzen hat Kapazität entsprechend reduzieren falls Antenne maximale Kapazität nutzt weitere Antenne mit Standardeinstellungen in der Nähe platzieren falls Antennen große uberlappende Regionen haben eine Antenne entfernen falls Antennen große uberlappende Regionen haben Stärke einer Antenne reduzieren, so dass dennoch alle Anrufe bedient falls Interferenzen vorkommen involvierende Frequenzen verändern falls Antenne nur kleine Anzahl von Anrufen hat Antenne entfernen Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
37 Zufällige Mutationsoperatoren Name RM1 RM2 RM3 RM4 RM5 Wirkung Position einer Antenne ändern (Stärke und Kapazität unverändert, Frequenzen neu durch Reparaturfunktion) komplett zufälliges Individuum (wie in Initialisierung) Stärke einer Antenne zufällig ändern Ausgleich zu DM4 Kapazität einer Antenne zufällig verändern Ausgleich zu DM1 zugeordnete Frequenzen einer Antenne ändern Ausgleich zu DM5 Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
38 Rekombination Gesamtheit in zwei Hälften teilen (vertikal oder horizontal) pro Hälfte Antennen eines Individuums übernehmen Korridor um Grenze durch Reparaturalgorithmus füllen Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
39 Rekombination Ein Beispiel Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
40 Selektion moderne Mehrzielselektion notwendig Problem bestehender Algorithmen (z.b. SPEA): Individuum wird mit O(µ 2 ) in Archiv der Größe µ integriert schlecht für steady state -Ansatz (siehe Grundsatzentscheidung!) schnelle Alternative benötigt Elternselektion als Turnierselektion basierend auf Dominiert(A) = Menge der von A dominierten Individuen in Population WirdDominiert(A) = Menge der Individuen, die A dominieren Rang zuweisen Rang(A) = #WirdDominiert(A) µ +#Dominiert(A) einziges Problem: Gendrift, wenn alle Individuen gleichwertig Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
41 Selektion Vier Möglichkeiten Wird das neue Individuum übernommen? Welches wird ersetzt? 1. beide Mengen leer übernehmen und Individuum mit schlechtesten Rang löschen 2. Dominiert(B) übernehmen und schlechtestes Individuum aus Dominiert(B) löschen 3. Dominiert(B) = WirdDominiert(B) B bleibt unberücksichtigt 4. beide Mengen leer und kein Individuum von einem anderen dominiert übernehmen und gemäß Maß für Nischenbildung löschen Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
42 Selektion Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
43 Selektion Datenstruktur für Population: 2D Bereichsbaum Bereiche entsprechen beiden Zielfunktionswerten Suchen, Einfügen und Löschen in O(log 2 µ) 2D Bereichsanfragen (alle Individuen in diesem Bereich) in O(k + log 2 µ) mit Anzahl k der gefundenen Individuen Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
44 Algorithmus Algorithm 4 Antennen-Optimierung Input: Antennenproblem 1: t 0 2: P(t) initialisiere µ Individuen mit Reparaturfunktion 3: berechne Rang für Individuen in P(t) 4: while t G { /* maximale Generationenzahl G */ 5: A, B selektiere aus P(t) gemäß Rang und Turnier- Selektion 6: C wende Operator auf A (und bei Rekombination auf B) an 7: berechne Mengen Dominiert(C) und WirdDominiert(C) 8: P(t + 1) integriere C in P(t) und aktualisiere Ränge 9: t t : } 11: return nicht-dominierte Individuen aus P(t) Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
45 Konkrete Problemdaten 9 9 km 2 Gebiet in Zürich Rasterung Bedarf 500m Platzierung von Antennen 100m insgesamt 505 Anrufe #Frequ = 128 maximale Kapazität MaxCap = 64 Stärke zwischen MinPow = 10dBmW und MaxPow = 130dBmW Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
46 Kostenfunktion und Parameter Kostenfunktion Kosten einer Antenne: kosten(pow i, cap i ) = 10 pow i + cap i Parametereinstellungen Populationsgröße µ = Bewertungen Archivgröße von 80 Individuen (SPEA) Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
47 Pareto-Front SPEA2, p RM = p DM = 0.5 und p Rek = 0 Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
48 Pareto-Front eigene Selektion, p RM = p DM = 0.5 und p Rek = 0 Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
49 Mehrziel-Hypothesentest da Fronten annähernd konvex: f inferenz (A) = f inferenz 0.7 f kosten (A) = f kosten Qual(P) = min A P t-test auf Werte von je 16 Experimenten ( α f inferenz (A)+(1 α) f kosten (A) positiv nur, wenn signifikant für alle α {0.1, 0.2,..., 0.9} signifikant: Kombination besser als rein zufällig kein Unterschied: vorherige Bilder bestes Ergebnis: nächste Seite ) Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
50 Pareto-Front eigene Selektion, p RM = p DM = 0.3 und p Rek = 0.4 Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung / 47
51 Literatur zur Lehrveranstaltung I Arrow, K. J. (1951). Social Choice and Individual Values. PhD thesis, Wiley, New York, USA. Weicker, N., Szabo, G., Weicker, K., and Widmayer, P. (2003). Evolutionary multiobjective optimization for base station transmitter placement with frequency assignment. In IEEE Trans. on Evolutionary Computing, volume 7, page Prof. R. Kruse, C. Moewes EA Mehrkriterienoptimierung
Intelligente Systeme
Intelligente Systeme Evolutionäre Algorithmen Prof. Dr. R. Kruse C. Braune {rudolf.kruse,christian.braune}@ovgu.de Institut für Intelligente Kooperierende Systeme Fakultät für Informatik Otto-von-Guericke-Universität
Intelligente Systeme
Intelligente Systeme Evolutionäre Algorithmen Prof. Dr. R. Kruse C. Moewes G. Ruß {kruse,cmoewes,russ}@iws.cs.uni-magdeburg.de Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke
Focusing Search in Multiobjective Evolutionary Optimization through Preference Learning from User Feedback
Focusing Search in Multiobjective Evolutionary Optimization through Preference Learning from User Feedback Thomas Fober Weiwei Cheng Eyke Hüllermeier AG Knowledge Engineering & Bioinformatics Fachbereich
Hauptseminar Repräsentationen für Optimierungsalgorithmen
Stefan Bens Hauptseminar Dresden, 03.07.2008 Inhalt 1. Motivation 2. Einleitung 3. Repräsentationsarten und Eigenschaften 4. Beispiel 5. Zusammenfassung Folie 2 Als Repräsentation bezeichnet man die Kodierung
Survival of the Fittest Optimierung mittels Genetischer Algorithmen
Übung zu Organic Computing Survival of the Fittest Optimierung mittels Genetischer Algorithmen Sabine Helwig Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Universität Erlangen-Nürnberg sabine.helwig@informatik.uni-erlangen.de
Evolutionäre Algorithmen
Karsten Weicker Evolutionäre Algorithmen 2., überarbeitete und erweiterte Auflage m Teubner Inhaltsverzeichnis 1 Natürliche Evolution 1 1.1 Entwicklung der evolutionären Mechanismen 2 1.2 Evolutionsfaktoren
Optimierung und Entwurf mit Evolutionären Algorithmen
Fakultät Informatik, Institut für Angewandte Informatik, Lehrstuhl für Technische Informationssysteme Optimierung und Entwurf mit Evolutionären Algorithmen Dresden, 01.02.2007 Gliederung natürliche Evolution
Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Evolutionäre Algorithmen: Überlebenskampf und Evolutionäre Strategien Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überblick Einleitung Adaptive Filter Künstliche
Evolutionäre Algorithmen - Kapitel 15
Evolutionäre Algorithmen - Kapitel 15 Metaheuristiken Prof. Dr. Rudolf Kruse ÖÙ Û º ºÙÒ ¹Ñ ÙÖ º Fakultät für Informatik Otto-von-Guericke-Universität Magdeburg 9. Juni 2008 R. Kruse (Uni Magdeburg) Metaheuristiken
2. Evolution als Optimierungsprinzip
2. Evolution als Optimierungsprinzip Biologen betrachten Evolution als Mechanismus, der in der Natur Lösungen für spezielle Probleme erzeugt Prinzipien der biologischen Evolution werden zur Lösung von
Evolution und Algorithmen
Kapitel 6 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics
Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen
Einführung in die Methoden der Künstlichen Intelligenz Evolutionäre Algorithmen Dr. David Sabel WS 2012/13 Stand der Folien: 12. November 2012 Evolutionäre / Genetische Algorithmen Anwendungsbereich: Optimierung
10. Vorlesung Stochastische Optimierung
Soft Control (AT 3, RMA) 10. Vorlesung Stochastische Optimierung Genetische Algorithmen 10. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter"
Evolutionäre / Genetische Algorithmen. Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre / Genetische Algorithmen (2) Beispiel
Evolutionäre / Genetische Algorithmen Einführung in die Methoden der Künstlichen Intelligenz PD Dr. David Sabel SoSe 0 Anwendungsbereich: Optimierung von Objekten mit komplexer Beschreibung Objekte: Üblicherweise
Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen
Einführung in die Methoden der Künstlichen Intelligenz Prof. Dr. Manfred Schmidt-Schauß SoSe 2018 Stand der Folien: 9. Mai 2018 Evolutionäre / Genetische Algorithmen Anwendungsbereich: Optimierung von
MOP: Metaheuristiken Multipunktmethoden. Bisher: je Iteration wird ein Entscheidungsvektor variiert und bewertet. Praktische Optimierung
Wintersemester 2007/08 Praktische Optimierung (Vorlesung) Bisher: je Iteration wird ein Entscheidungsvektor variiert und bewertet Jetzt: je Iteration werden mehrere Entscheidungsvektoren variiert und bewertet
Evolutionäre Algorithmen Kodierung, Fitness, Selektion
Evolutionäre Algorithmen Kodierung, Fitness, Selektion Prof. Dr. Rudolf Kruse Pascal Held {kruse,pheld}@iws.cs.uni-magdeburg.de Otto-von-Guericke-Universität Magdeburg Fakultät für Informatik Institut
Anwendung genetischer Algorithmen zur Lösung des n Dame Problems und zur Optimierung von Autoprofilen
Anwendung genetischer Algorithmen zur Lösung des n Dame Problems und zur Optimierung von Autoprofilen Jana Müller Seminar Das Virtuelle Labor Otto von Guericke Universität Magdeburg Gliederung 1. Motivation
Fundamente der Computational Intelligence
Wintersemester 2006/07 Fundamente der Computational Intelligence (Vorlesung) Dozent: Prof. Dr. Günter Rudolph Vertretung: Boris Naujoks Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS XI)
6. Texterkennung in Videos Videoanalyse
6. Texterkennung in Videos Videoanalyse Dr. Stephan Kopf 1 Übersicht Motivation Texterkennung in Videos 1. Erkennung von Textregionen/Textzeilen 2. Segmentierung einzelner Buchstaben 3. Auswahl der Buchstabenpixel
Voronoi-Diagramme. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK
Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 29.05.2011 Das Postamt-Problem b(p, q) = {x R 2 : xp = xq } p q h(p, q) h(q, p) = {x :
Genetische Algorithmen
Genetische Algorithmen Prof. Dr. Ottmar Beucher Dezember 2001 Genetische Algorithmen 1 Optimierungsaufgaben Ein einfaches Beispiel Prinzipielle Formulierung Lösungsansätze Genetische Algorithmen Anwendungen
Intelligente Systeme
Intelligente Systeme Heuristische Suchalgorithmen Prof. Dr. R. Kruse C. Braune {rudolf.kruse,christian.braune}@ovgu.de Institut für Intelligente Kooperierende Systeme Fakultät für Informatik Otto-von-Guericke-Universität
Distributed Algorithms. Image and Video Processing
Chapter 6 Optical Character Recognition Distributed Algorithms for Übersicht Motivation Texterkennung in Bildern und Videos 1. Erkennung von Textregionen/Textzeilen 2. Segmentierung einzelner Buchstaben
Berechnung von Abständen
3. Kreis- und Wegeprobleme Abstände in Graphen Abstände in Graphen Definition 3.4. Es sei G = (V, E) ein Graph. Der Abstand d(v, w) zweier Knoten v, w V ist die minimale Länge eines Weges von v nach w.
Randomisierte Datenstrukturen
Seminar über Algorithmen DozentInnen: Helmut Alt, Claudia Klost Randomisierte Datenstrukturen Ralph Schäfermeier 13. 2. 2007 Das Verwalten von Mengen, so dass ein schneller Zugriff auf deren Elemente gewährleistet
Betriebliche Optimierung
Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 19 1 Joachim Schauer ( Institut für
Algorithmen und Datenstrukturen
Universität Innsbruck Institut für Informatik Zweite Prüfung 16. Oktober 2008 Algorithmen und Datenstrukturen Name: Matrikelnr: Die Prüfung besteht aus 8 Aufgaben. Die verfügbaren Punkte für jede Aufgabe
Genetische und Evolutionäre Algorithmen (Vol. 2)
Vortrag über Genetische und Evolutionäre Algorithmen (Vol. 2) von Adam El Sayed Auf und Kai Lienemann Gliederung: 4) Rückblick 5) Allgemeine Einführung 6) Genauere Beschreibung von Evolutionären Strategien
Genetische Algorithmen
Genetische Algorithmen Von Valentina Hoppe und Jan Rörden Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Gliederung Biologische Evolution Genetischer Algorithmus Definition theoretischer
Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle
Mustererkennung Unüberwachtes Lernen R. Neubecker, WS 01 / 01 Übersicht (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren 1 Lernen Überwachtes Lernen Zum Training des Klassifikators
GP-Music: An Interactive Genetic Programming System for Music Generation with Automated Fitness
GP-Music: An Interactive Genetic Programming System for Music Generation with Automated Fitness Raters Brad Johanson, Riccardo Poli Seminarvortrag von Thomas Arnold G ˇ ˇ ˇ ˇ WS 2012/13 TU Darmstadt Seminar
Lernmodul 7 Algorithmus von Dijkstra
Folie 1 von 30 Lernmodul 7 Algorithmus von Dijkstra Quelle: http://www.map24.de Folie 2 von 30 Algorithmus von Dijkstra Übersicht Kürzester Weg von A nach B in einem Graphen Problemstellung: Suche einer
Genetische und Evolutionäre Algorithmen (Vol. 1)
Vortrag über Genetische und Evolutionäre Algorithmen (Vol. ) von Adam El Sayed Auf und Kai Lienemann Gliederung: ) Einführung 2) Grundkonzept 3) Genaue Beschreibung des Genetischen Algorithmus Lösungsrepräsentation
Frameworks für Evolutionäre Algorithmen und ihre Anwendung für Problemstellungen aus der Spieltheorie und der komponentenbasierten Struktursynthese
Fakultät Informatik, Institut für Angewandte Informatik, Lehrstuhl für Technische Informationssysteme Frameworks für Evolutionäre Algorithmen und ihre Anwendung für Problemstellungen aus der Spieltheorie
Datenstrukturen & Algorithmen Lösungen zu Blatt 6 FS 14
Eidgenössische Technische Hochschule Zürich Ecole polytechnique fédérale de Zurich Politecnico federale di Zurigo Federal Institute of Technology at Zurich Institut für Theoretische Informatik 2. April
v R n ist Abstiegsrichtung in x R n wenn f(x) v < 0 v R n ist Abstiegsrichtung in x R n wenn i=1,,d: f i
MOP: Pareto-Gradientenabstiegsverfahren Annahme: Zielfunktion differenzierbar Wintersemester 2007/08 Praktische Optimierung (Vorlesung) d = 1: (monokriteriell) v R n ist Abstiegsrichtung in x R n wenn
Vorlesung Datenstrukturen
Vorlesung Datenstrukturen Kürzeste Wege Maike Buchin 4. und 6.7.2017 Einführung Motivation: Bestimmung von kürzesten Wegen ist in vielen Anwendungen, z.b. Routenplanung, ein wichtiges Problem. Allgemeine
Optimale Produktliniengestaltung mit Genetischen Algorithmen
Optimale Produktliniengestaltung mit Genetischen Algorithmen 1 Einleitung 2 Produktlinienoptimierung 3 Genetische Algorithmen 4 Anwendung 5 Fazit Seite 1 Optimale Produktliniengestaltung mit Genetischen
Bewertung von Optimierungs- und Zuverlässigkeitsalgorithmen für die virtuelle Produktauslegung
Weimarer Optimierungs- und Stochastiktage 4.0 Bewertung von Optimierungs- und Zuverlässigkeitsalgorithmen für die virtuelle Produktauslegung Dr.-Ing. Andreas Plotzitza, PT/EST4 29. November 2007 1 Inhalt
Voronoi-Diagramme INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie
Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 03.06.2014 1 Das Postamt-Problem b(p, q) = {x 2 R 2 : xp = xq } p q h(p, q) h(q, p) = {x
Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Evolutionäre Algorithmen Teil II Evolutionsfenster durch Mutation und sexuelle Rekombination Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Evolutionäre Algorithmen
Grundlagen: Algorithmen und Datenstrukturen
Technische Universität München Fakultät für Informatik Lehrstuhl für Effiziente Algorithmen Dr. Hanjo Täubig Jeremias Weihmann Sommersemester 2014 Übungsblatt 2 28. April 2014 Grundlagen: Algorithmen und
21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3
581 21. Greedy Algorithmen Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 Aktivitäten Auswahl 582 Koordination von Aktivitäten, die gemeinsame Resource exklusiv
1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3
Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................
Erfolgversprechende Konfigurationen für Versuche mit Evolutionsstrategien anhand von ausgewählten Testfunktionen
Erfolgversprechende Konfigurationen für Versuche mit Evolutionsstrategien anhand von ausgewählten Testfunktionen Krischan Keitsch 3. Juni 214 Zusammenfassung Um ein Optimierungsproblem mit einer Evolutionsstrategie
Systempartitionierung Evol. Algorithmen
Systempartitionierung Evol. Algorithmen Hw-Sw-Co-Design Übersicht Grundlagen Evolutionärer Algorithmen Strömungsrichtungen Hybride evolutionäre Algorithmen Systempartitionierung und -exploration 1 Einleitung
Softwareprojektpraktikum Maschinelle Übersetzung
Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl max.bleu@i6.informatik.rwth-aachen.de Vorbesprechung 5. Aufgabe 22. Juni 2017 Human Language Technology
Evolu&onäre Algorithmen Kapitel 3: Kodierung, Fitness und Selek&on
Evolu&onäre Algorithmen Kapitel 3: Kodierung, Fitness und Selek&on Sanaz Mostaghim Lehrstuhl für Intelligente Systeme SS 2016 Outline Kodierung Hamming-Klippen Problem der Epistasie Verlassen des Suchraums
Fortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester
Vortrag 20: Kurze Vektoren in Gittern
Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die
General Video Game AI Competition 2016
General Video Game AI Competition 2016 BFS, MCTS und GA - Einführung Miriam Moneke, Nils Schröder, Tobias Joppen Christan Wirth, Prof. J. Fürnkranz 27.04.2016 Fachbereich Informatik Knowledge Engineering
4. Kreis- und Wegeprobleme Abstände in Graphen
4. Kreis- und Wegeprobleme Abstände in Graphen Abstände in Graphen Definition 4.4. Es sei G = (V,E) ein Graph. Der Abstand d(v,w) zweier Knoten v,w V ist die minimale Länge eines Weges von v nach w. Falls
Projekt 1: Constraint-Satisfaction-Probleme Abgabe: 7. Juni 2009
KI-Praktikum M. Helmert, M. Westphal, S. Wölfl, J.-G. Smaus Sommersemester 2009 Universität Freiburg Institut für Informatik Projekt 1: Constraint-Satisfaction-Probleme Abgabe: 7. Juni 2009 Präsenzaufgaben
Algorithmen und Datenstrukturen 2
Algorithmen und Datenstrukturen Lerneinheit : Kürzeste Pfade in Graphen Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 016.6.01 Einleitung Diese Lerneinheit beschäftigt
Evolutionäre Algorithmen Variation und genetische Operatoren
Evolutionäre Algorithmen Variation und genetische Operatoren Prof. Dr. Rudolf Kruse Pascal Held {kruse,pheld}@iws.cs.uni-magdeburg.de Otto-von-Guericke-Universität Magdeburg Fakultät für Informatik Institut
Kombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 16 Programm: Einführung
Evolution im Computer
Evolution im Computer Stephan Pirnbaum @spirnbaum Junior-Consultant @buschmais Steffen Gemkow @SteffenGemkow Geschäftsführer @ObjectFab Infinite-Monkey Theorem Man nehme: Unendliche Anzahl Affen Je Affe
Algorithmen für Sensornetze
Algorithmen für Sensornetze Markus Völker 02. Februar 2010 Lokalisierung in Gebäuden Lokalisierung Ausgangssituation? Lokalisierung Ziel! Lokalisierung Signalabfall in Gebäuden Signalabfall mit ca. 1/d
Betriebliche Optimierung
Betriebliche Optimierung Joachim Schauer Joachim Schauer Betriebliche Optimierung 1 / 31 1 Metaheuristische Verfahren 2 Joachim Schauer Betriebliche Optimierung 2 / 31 Einleitendes Metaheuristische Verfahren
Algorithmen und Datenstrukturen 1
Algorithmen und Datenstrukturen 1 6. Vorlesung Martin Middendorf / Universität Leipzig Institut für Informatik middendorf@informatik.uni-leipzig.de studla@bioinf.uni-leipzig.de Merge-Sort Anwendbar für
Routing A lgorithmen Algorithmen Begriffe, Definitionen Wegewahl Verkehrslenkung
Begriffe, Definitionen Routing (aus der Informatik) Wegewahl oder Verkehrslenkung bezeichnet in der Telekommunikation das Festlegen von Wegen für Nachrichtenströme bei der Nachrichtenübermittlung über
Algorithmen zur Visualisierung von Graphen Lagenlayouts
Algorithmen zur Visualisierung von Graphen Lagenlayouts Marcus Krug Institut für Theoretische Informatik 25.06.2009 1/ 41 E-Mail-Graph der Fakultät für Informatik 2/ 41 E-Mail-Graph der Fakultät für Informatik
Fundamente der Computational Intelligence
Fundamente der Computational Intelligence Dozent: Günter Rudolph Vertretung: Nicola Beume Wintersemester 2006/07 Universität Dortmund Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS11) Fachgebiet
Hashing II. Übersicht. 1 Hashing und Verkettung. 2 Offene Adressierung
Übersicht Datenstrukturen und Algorithmen Vorlesung 13: 1 Joost-Pieter Katoen Lehrstuhl für Informatik 2 Software Modeling and Verification Group http://moves.rwth-aachen.de/teaching/ss-15/dsal/ 2 Effizienz
b) Nennen Sie vier hinreichende Bedingungen für Evolution. b) Anzahl fortlaufender Einsen von rechts. c) Sind in a) oder b) Plateaus enthalten?
Übungsblatt LV Künstliche Intelligenz, Evolutionäre Algorithmen (), 204 Exercise. Evolution a) Finden Sie zwei Evolutionsbeispiele auÿerhalb der Biologie. Identizieren Sie jeweils Genotyp, Phänotyp, genetische
ADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil 4 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 24. April 2019 [Letzte Aktualisierung: 24/04/2019,
Datenstrukturen und Algorithmen (SS 2013)
Datenstrukturen und Algorithmen (SS 2013) Übungsblatt 10 Abgabe: Montag, 08.07.2013, 14:00 Uhr Die Übungen sollen in Gruppen von zwei bis drei Personen bearbeitet werden. Schreiben Sie die Namen jedes
Algorithmen und Datenstrukturen 2 VU 3.0 Nachtragstest SS Oktober 2016
Technische Universität Wien Institut für Computergraphik und Algorithmen Algorithms and Complexity Group 186.815 Algorithmen und Datenstrukturen 2 VU 3.0 Nachtragstest SS 2016 5. Oktober 2016 Machen Sie
Hashing II. Übersicht. 1 Hashing und Verkettung. 2 Offene Adressierung
Übersicht Datenstrukturen und Algorithmen Vorlesung 13: 1 Joost-Pieter Katoen Lehrstuhl für Informatik 2 Software Modeling and Verification Group https://moves.rwth-aachen.de/teaching/ss-18/dsal/ 2 Effizienz
Konvexe Hülle. Konvexe Hülle. Mathematik. Konvexe Hülle: Definition. Mathematik. Konvexe Hülle: Eigenschaften. AK der Algorithmik 5, SS 2005 Hu Bin
Konvexe Hülle Konvexe Hülle AK der Algorithmik 5, SS 2005 Hu Bin Anwendung: Computergraphik Boundary Kalkulationen Geometrische Optimierungsaufgaben Konvexe Hülle: Definition Mathematik Konvex: Linie zwischen
Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben
Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Das Nelder Mead Verfahren Sei f : R n R eine (nicht
9. Rekursion. 1 falls n 1 n (n 1)!, andernfalls. Experiment: Die Türme von Hanoi. Links Mitte Rechts. Mathematische Rekursion
Experiment: Die Türme von Hanoi. Rekursion Mathematische Rekursion, Terminierung, der Aufrufstapel, Beispiele, Rekursion vs. Iteration Links Mitte Rechts Mathematische Rekursion Viele mathematische Funktionen
Routing Algorithmen. Begriffe, Definitionen
Begriffe, Definitionen Routing (aus der Informatik) Wegewahl oder Verkehrslenkung bezeichnet in der Telekommunikation das Festlegen von Wegen für Nachrichtenströme bei der Nachrichtenübermittlung über
ADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil 6 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 16. Mai 2018 [Letzte Aktualisierung: 18/05/2018,
6. Algorithmen auf Zeichenketten
6. Algorithmen auf Zeichenketten Motivation Wir lernen nun Algorithmen zur Lösung verschiedener elementarer Probleme auf Zeichenketten zu lösen Zeichenketten spielen eine wichtige Rolle in diversen Gebieten
Informatik II, SS 2018
Informatik II - SS 2018 (Algorithmen & Datenstrukturen) Vorlesung 6 (7.5.2018) Dictionaries, Binäre Suche, Hashtabellen I / Yannic Maus Algorithmen und Komplexität Abstrakte Datentypen : Dictionary Dictionary:
21. Dynamic Programming III
Approximation 21. Dynamic Programming III FPTAS [Ottman/Widmayer, Kap. 7.2, 7.3, Cormen et al, Kap. 15,35.5] Sei ein ε (, 1) gegeben. Sei I eine bestmögliche Auswahl. Suchen eine gültige Auswahl I mit
5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS)
5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS) Sommersemester 2009 Dr. Carsten Sinz, Universität Karlsruhe Datenstruktur BDD 2 1986 von R. Bryant vorgeschlagen zur Darstellung von aussagenlogischen Formeln (genauer:
Quadtrees und Meshing
Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 19.06.2012 Motivation: Meshing von Platinenlayouts Zur Simulation der Hitzeentwicklung
Optimierung auf rekonfigurierbaren Rechensystemen
Optimierung auf rekonfigurierbaren Rechensystemen Evolution in dynamisch rekonfigurierbarer Hardware Peter Bungert Hartmut Schmeck Institut für Angewandte Informatik und Formale Bescheibungsverfahren (AIFB)
Quadtrees und Meshing
Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 19.06.2012 Motivation: Meshing von Platinenlayouts Zur Simulation der Hitzeentwicklung
Polygontriangulierung
Übung Algorithmische Geometrie Polygontriangulierung LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Benjamin Niedermann 07.05.204 Ablauf Vergabe der Projekte Übungsblatt
Greedy Algorithms - Gierige Algorithmen
Greedy Algorithms - Gierige Algorithmen Marius Burfey 23. Juni 2009 Inhaltsverzeichnis 1 Greedy Algorithms 1 2 Interval Scheduling - Ablaufplanung 2 2.1 Problembeschreibung....................... 2 2.2
Quadtrees und Meshing
Vorlesung Algorithmische Geometrie LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 21.06.2011 Motivation: Meshing von Platinenlayouts Zur Simulation
Algorithmen und Datenstrukturen 2
Algorithmen und Datenstrukturen 2 Lerneinheit 3: Greedy Algorithmen Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2016 10.5.2016 Einleitung Einleitung Diese Lerneinheit
3.3 Optimale binäre Suchbäume
3.3 Optimale binäre Suchbäume Problem 3.3.1. Sei S eine Menge von Schlüsseln aus einem endlichen, linear geordneten Universum U, S = {a 1,,...,a n } U und S = n N. Wir wollen S in einem binären Suchbaum
Berechnung approximierter Voronoi-Zellen auf geometrischen Datenströmen
Definition Berechnung approximierter Voronoi-Zellen auf geometrischen Datenströmen Seminar über Algorithmen WS 2005/2006 Vorgetragen von Oliver Rieger und Patrick-Thomas Chmielewski basierend auf der Arbeit
2. November Gradfolgen Zusammenhang Kürzeste Wege. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 37
2. November 2011 Gradfolgen Zusammenhang Kürzeste Wege H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 37 Satz von Erdős und Gallai Eine Partition einer natürlichen Zahl ist genau dann die Gradfolge
Evolu&onäre Algorithmen Kapitel 2: Metaheuris&ken und verwandte Op&mierungsverfahren I/II
Evolu&onäre Algorithmen Kapitel 2: Metaheuris&ken und verwandte Op&mierungsverfahren I/II Sanaz Mostaghim Intelligente Systeme Ins2tut für Wissens- und Sprachverarbeitung (IWS) SS 2016 Outline Standard-Optimierungsverfahren
Evolutionäre Algorithmen
Evolutionäre Algorithmen Variation und genetische Operatoren Prof. Dr. Rudolf Kruse Christian Moewes {kruse,cmoewes}@iws.cs.uni-magdeburg.de Otto-von-Guericke-Universität Magdeburg Fakultät für Informatik
Geometrie 2. Julian Fischer Julian Fischer Geometrie / 30
Geometrie 2 Julian Fischer 6.7.2009 Julian Fischer Geometrie 2 6.7.2009 1 / 30 Themen 1 Bereichssuche und kd-bäume 1 Bereichssuche 2 kd-bäume 2 Divide and Conquer 1 Closest pair 2 Beispiel: Points (IOI
Quadtrees und Meshing
Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 24.06.2014 Motivation: Meshing von Platinenlayouts Zur Simulation der Hitzeentwicklung
Hallo Welt für Fortgeschrittene
Hallo Welt für Fortgeschrittene Geometrie II Benjamin Zenke Informatik 2 Programmiersysteme Martensstraße 3 91058 Erlangen Inhalt Closest Pair Divide & Conquer Bereichssuche Gitterverfahren k-d-tree Sweep-Line-Algorithmen
Klausur Algorithmen und Datenstrukturen II 29. Juli 2013
Technische Universität Braunschweig Sommersemester 2013 Institut für Betriebssysteme und Rechnerverbund Abteilung Algorithmik Prof. Dr. Sándor P. Fekete Stephan Friedrichs Klausur Algorithmen und Datenstrukturen