Evolutionäre Algorithmen - Kapitel 15
|
|
|
- Uwe Maurer
- vor 8 Jahren
- Abrufe
Transkript
1 Evolutionäre Algorithmen - Kapitel 15 Metaheuristiken Prof. Dr. Rudolf Kruse ÖÙ Û º ºÙÒ ¹Ñ ÙÖ º Fakultät für Informatik Otto-von-Guericke-Universität Magdeburg 9. Juni 2008 R. Kruse (Uni Magdeburg) Metaheuristiken / 59
2 Überblick 1 Was sind Metaheuristiken? 2 Klassifizierende Systeme 3 Tabu-Suche 4 Memetische Algorithmen 5 Populationsbasiertes inkrementelles Lernen 6 Differentialevolution 7 Scatter Search 8 Kulturelle Algorithmen 9 Zusammenfassung R. Kruse (Uni Magdeburg) Metaheuristiken / 59
3 Was sind Metaheuristiken? Problemspezifische Heuristiken nur auf bestimmtes Optimierungsproblem anwendbar Metaheuristiken ein Algorithmus zur näherungsweisen Lösung eines kombinatorischen Optimierungsproblems definieren abstrakte Folge von Schritten, die auf beliebige Problemstellung anwendbar sind einzelnen Schritte müssen allerdings problemspezifisch implementiert werde R. Kruse (Uni Magdeburg) Metaheuristiken / 59
4 Einsatz von Metaheuristiken Einsatz für Probleme, wo kein effizienterer Lösungsalgorithmus bekannt (z.b. kombinatorische Optimierungsprobleme) Finden einer optimalen Lösung in der Regel nicht garantiert gute Lösungen können beliebig schlecht zu einer Optimallösung sein Erfolg und Laufzeit hängen ab von Problemdefinition Implementierung der einzelnen Schritte Genetische Algorithmen, schwarmbasierte Optimierungsverfahren sind somit auch Metaheuristiken R. Kruse (Uni Magdeburg) Metaheuristiken / 59
5 Überblick 1 Was sind Metaheuristiken? 2 Klassifizierende Systeme 3 Tabu-Suche 4 Memetische Algorithmen 5 Populationsbasiertes inkrementelles Lernen 6 Differentialevolution 7 Scatter Search 8 Kulturelle Algorithmen 9 Zusammenfassung R. Kruse (Uni Magdeburg) Metaheuristiken / 59
6 Klassifizierende Systeme - Situation Technisches System soll geregelt werden Detektoren beobachten Zustand, Effektoren beeinflussen Zustand gelegentliche kommt Rückmeldung, wie gut System geregelt wird R. Kruse (Uni Magdeburg) Metaheuristiken / 59
7 Klassifizierende Systeme Definition: Regeln Regel reg = (reg.b,reg.a,reg.s) Bedingung Aktion IR mit Bedingung reg.b Bedingung = {0,1, } l Aktion reg.a Aktion = {0,1} m Stärke reg.s IR Regelsatz: regeln Bedingung Aktion IR Definition: Anwendbare Regeln Regel aus regeln ist anwendbar unter Statusmeldung ν Status = {0,1} l, wenn die Bedingung passt. { } l aktiv(ν) = reg regeln (reg.b i reg.b i ) = ν i i=1 R. Kruse (Uni Magdeburg) Metaheuristiken / 59
8 Klassifizierende Systeme Definition: Auswahlwahrscheinlichkeit aktive Regeln aktiv(ν) liegen vor mögliche Reaktionen: aktion(ν) = {reg.a reg aktiv(ν)} anwendbare Regeln für x aktion(ν): aktiv (ν,x) = {reg aktiv reg.a = x} fitnessproportionale Auswahlwahrscheinlichkeit: P[x ν] = reg aktiv (ν,x) reg.s reg aktiv(ν) reg.s R. Kruse (Uni Magdeburg) Metaheuristiken / 59
9 Klassifizierende Systeme Definition: Modifikation der Stärke ausgeführte Regeln zur Zeit t : ausgef (t) Rückmeldung vom System: rück IR Modifikation von reg ausgef (t) : rück reg.s (1 α) reg.s+ α #ausgef (t) Modifikation von reg aktiv(ν) \ ausgef (t) : reg.s (1 τ) reg.s Modifikation der letzten Regeln reg ausgef (t 1) : reg.s reg.s+ α β reg ausgef (t) reg.s #ausgef (t 1) R. Kruse (Uni Magdeburg) Metaheuristiken / 59
10 Klassifizierende Systeme Rolle des Genetischen Algorithmus (GA) GA erzeugt neue Regeln im Regelsatz steady-state (nur zwei neue Individuen) mehrere Lernschritte wechseln mit einer GA-Generation Auswahl proportional zu Stärkewerten Crossover und Mutation, neue Stärke als Durchschnitt der elterlichen Stärke proportional zur inversen Stärke gewählter Individuen werden ersetzt Paramter Wertebereich Populationsgröße Lernrate α 0.2 Dämpfungsfaktor β 0.71 Straffaktor τ 0.1 R. Kruse (Uni Magdeburg) Metaheuristiken / 59
11 Überblick 1 Was sind Metaheuristiken? 2 Klassifizierende Systeme 3 Tabu-Suche 4 Memetische Algorithmen 5 Populationsbasiertes inkrementelles Lernen 6 Differentialevolution 7 Scatter Search 8 Kulturelle Algorithmen 9 Zusammenfassung R. Kruse (Uni Magdeburg) Metaheuristiken / 59
12 Tabu-Suche Grundlegendes lokales Sucheverfahren ähnelt dem Ablauf einer (1, λ)-evolutionsstrategie bei der Erzeugung neuer Individuen wird Geschichte berücksichtigt sogenannte Tabu-Listen verhindern Rückkehr zu gerade betrachteten Lösungskandidaten R. Kruse (Uni Magdeburg) Metaheuristiken / 59
13 Tabu-Suche Technik Tabu-Liste: FIFO-Warteschlange fester Länge Einträge sind ganze Lösungskandidaten oder Aspekte Mutationen dürfen Tabu-Einträge nicht erzeugen meist FIFO-Liste mit erstrebenswerten Eigenschaften können Tabu brechen auch möglich neue beste Gesamtgüte bricht Tabu R. Kruse (Uni Magdeburg) Metaheuristiken / 59
14 Tabu-Suche Beispiel Graphfärbung mit k Farben, sodass keine Kante zwischen gleich gefärbten Knoten ist Ω = {1,...,k} n minimiert wird f(x) = (v i,v j ) E { 1 falls x i = x j 0 sonst Mutation färbt v i von c auf d Tabu-Eintrag (i,c) R. Kruse (Uni Magdeburg) Metaheuristiken / 59
15 Tabu-Suche TABU-SUCHE(Zielfunktion F ) 1 t 0 2 A(t) erzeuge zufälligen Lösungskandidaten 3 bewerte A(t) durch F 4 bestind A(t) 5 initalisiere Tabu-Liste 6 while Terminierungsbedingung nicht erfüllt 7 do P {} 8 while #P < λ 9 do B MUTATION(A(t)) 10 bewerte B durch F 11 if (A(t), B) / Tabu-Liste oder B.F bestind.f 12 then P P {B} 13 t t A(t) bestes Individuum aus P 15 if A(t).F bestind.f 16 then bestind A(t) 17 Tabu-Liste aktualisiere durch (A(t 1), A(t)) 18 return bestind R. Kruse (Uni Magdeburg) Metaheuristiken / 59
16 Überblick 1 Was sind Metaheuristiken? 2 Klassifizierende Systeme 3 Tabu-Suche 4 Memetische Algorithmen 5 Populationsbasiertes inkrementelles Lernen 6 Differentialevolution 7 Scatter Search 8 Kulturelle Algorithmen 9 Zusammenfassung R. Kruse (Uni Magdeburg) Metaheuristiken / 59
17 Memetische Algorithmen Motivation und Grundidee populationsbasierte Algorithmen Vorteil: breites Durchforsten des Suchraums Nachteil: langsam lokale Suche Vorteil: schnelle Optimierung Nachteil: anfällig für lokale Optima Kombination beider Techniken Herkunft des Names Richard Dawkins: Meme sind Verhaltenselemente, die individuell erworben werden können (im Gegensatz zu Genen) konkretes Vorgehen jedes neue Individuum wird sofort lokal optimiert nur wenige Schritte oder bis in das lokale Optimum R. Kruse (Uni Magdeburg) Metaheuristiken / 59
18 Memetische Algorithmen Beispiel: SAGA Genetischer Algorithmus mit Simulated Annealing R. Kruse (Uni Magdeburg) Metaheuristiken / 59
19 Memetische Algorithmen MEMETISCHER-ALGORITHMUS(Bewertungsfunktion F ) 1 t 0 2 P(t) initalisiere Population der Größe µ 3 P(t) LOKALE-SUCHE(F ) für jedes Individuum in P(t) 4 bewerte P(t) durch F 5 while Terminierungsbedingung nicht erfüllt 6 do E selektiere Eltern für λ Nachkommen aus P(t) 7 P erzeuge Nachkommen durch Rekombination aus E 8 P mutiere Individuen in P 9 P LOKALE-SUCHE(F ) für jedes Individuum in P 10 bewerte P durch F 11 t t P(t) Umweltselektion auf P 13 return bestes Individuum aus P(t) R. Kruse (Uni Magdeburg) Metaheuristiken / 59
20 Memetische Algorithmen Eigenschaften oft stark beschleunigte Optimierung aber: Suchdynamik kann entscheidend eingeschränkt werden Mutation bleibt oft in breiten lokalen Optima Rekombination hat beschränkte Ausgangssituation Teile des Suchraums sind evtl. unerreichbar Arbeitsweise entspricht der Lamarckschen Evolution R. Kruse (Uni Magdeburg) Metaheuristiken / 59
21 Überblick 1 Was sind Metaheuristiken? 2 Klassifizierende Systeme 3 Tabu-Suche 4 Memetische Algorithmen 5 Populationsbasiertes inkrementelles Lernen 6 Differentialevolution 7 Scatter Search 8 Kulturelle Algorithmen 9 Zusammenfassung R. Kruse (Uni Magdeburg) Metaheuristiken / 59
22 Populationsbasiertes inkrementelles Lernen PBIL: Grundidee und Operatoren genetischer Algorithmus ohne Population stattdessen: nur Populationsstatistik speichern bei G = IB l für alle l Bits die Häufigkeit der 1 konkrete Individuen (z.b. für die Bewertung) werden zufällig gemäß der Häufigkeiten erzeugt Rekombination: uniformer Crossover implizit bei der Erzeugung eines Individuums Selektion: Wahl des besten Individuums zur Aktualisierung der Populationsstatistik P (t) k B k α + P (t 1) k (1 α) Mutation: Bit-Flipping leichte zufällige Verschiebung der Populationsstatistik R. Kruse (Uni Magdeburg) Metaheuristiken / 59
23 Populationsbasiertes inkrementelles Lernen PBIL(Bewertungsfunktion F ) 1 t 0 2 bestind erzeuge zufälliges Individuum aus G = IB l 3 P (t) (0.5,...,0.5) [0,1] l 4 while Terminierungsbedingung nicht erfüllt 5 do P {} 6 for i 1,...,λ 7 do A erzeuge Individuum aus IB l gemäß P (t) 8 P P {B} 9 bewerte B durch F 10 {B} Selektion aus P mittels BESTEN-SELEKTION 11 if F(B) F(bestInd) 12 then bestind B 13 t t for each k {1,...,l} 15 do P (t) k B k α + P (t 1) k (1 α) 16 for each k {1,...,l} 17 do u wähle Zufallszahl gemäß U ((0,1]) 18 if u < p m 19 then u wähle Zufallszahl gemäß U ({0,1}) 20 P (t) k u β + P (t) k (1 β) 21 return bestind R. Kruse (Uni Magdeburg) Metaheuristiken / 59
24 Populationsbasiertes inkrementelles Lernen Lernrate α niedrig: betont Erforschung hoch: betont Feinabstimmung Paramter Wertebereich Populationsgröße λ Lernrate α Mutationsrate p m Mutationskonstate β 0.05 R. Kruse (Uni Magdeburg) Metaheuristiken / 59
25 Populationsbasiertes inkrementelles Lernen Probleme genetischer Algorithmus kann Abhängigkeit zwischen einzelnen Bits lernen PBIL betrachtet einzelnen Bits isoliert Beispiel Population 1 Population Individuum Individuum Individuum Individuum Populationsstatistik R. Kruse (Uni Magdeburg) Metaheuristiken / 59
26 Alternative Verfahren bessere Techniken zur Schätzung der Verteilung guter Lösungskandidaten insbesondere: interne Abhängigkeiten modellieren (z.b. durch Bayes sche Netze) Beispiel: BOA etc. R. Kruse (Uni Magdeburg) Metaheuristiken / 59
27 Überblick 1 Was sind Metaheuristiken? 2 Klassifizierende Systeme 3 Tabu-Suche 4 Memetische Algorithmen 5 Populationsbasiertes inkrementelles Lernen 6 Differentialevolution 7 Scatter Search 8 Kulturelle Algorithmen 9 Zusammenfassung R. Kruse (Uni Magdeburg) Metaheuristiken / 59
28 Differentialevolution Idee ähnlich zur Evolutionsstrategie keine Anpassung der Schrittweite in A.S sondern: Relation der Individuen in der Population wird als Grundlage für Schrittweite herangezogen R. Kruse (Uni Magdeburg) Metaheuristiken / 59
29 Differentialevolution DE-OPERATOR(Individuen A, B, C, D) 1 index wähle Zufallszahl gemäß U({1,...,l}) 2 for each i {1,...,l} 3 do u wähle Zufallszahl gemäß U([0, 1)) 4 if u τ or i = index 5 then A i B i +(C i D i ) α 6 else A i A i 7 return A R. Kruse (Uni Magdeburg) Metaheuristiken / 59
30 Differentialevolution Details DE-Operator: Kombination aus Rekombination und Mutation Selektion: ein neues Individuum ersetzt Elternindividuum genau dann, wenn es besser ist Paramter Wertebereich Populationsgröße µ , 10 n Wichtung der Rekombination τ Skalierungsfaktor α R. Kruse (Uni Magdeburg) Metaheuristiken / 59
31 Differentialevolution DIFFERENTIALEVOLUTION(Bewertungsfunktion F ) 1 t 0 2 P(t) erzeuge Population der Größe µ 3 bewerte P(t) durch F 4 while Terminierungsbedingung nicht erfüllt 5 do P(t + 1) {} 6 for i 1,..., µ 7 do repeat A, B, C, D selektiere Eltern uniform zufällig aus P(t) 8 until A, B, C, D paarweise verschieden 9 A DE-OPERATOR(A,B,C,D) 10 bewerte A durch F 11 if F(A ) F(A) 12 then P(t + 1) P(t + 1) {A } 13 else P(t + 1) P(t + 1) {A} 14 t t return bestes Individuum aus P(t) R. Kruse (Uni Magdeburg) Metaheuristiken / 59
32 Überblick 1 Was sind Metaheuristiken? 2 Klassifizierende Systeme 3 Tabu-Suche 4 Memetische Algorithmen 5 Populationsbasiertes inkrementelles Lernen 6 Differentialevolution 7 Scatter Search 8 Kulturelle Algorithmen 9 Zusammenfassung R. Kruse (Uni Magdeburg) Metaheuristiken / 59
33 Scatter Search Zutaten Population mit Lösungskandidaten Variationsoperatoren Selektionsdruck zusätzlich: lokale Suche Aber... ein deterministisches Verfahren! weiträumige Erforschung des Suchraums: breite Initialisierung systematische Erzeugung neuer Individuen R. Kruse (Uni Magdeburg) Metaheuristiken / 59
34 Scatter Search Ablauf iterierter Ablauf durch zwei Phasen Erzeugen neuer Individuen und Auswahl derjenigen, die die größte Vielfalt garantieren Rekombination aller Paarungen der gewählten Individuen Selektion der Besten und Iteration bis sich nichts mehr ändert Beispiel reellwertige Problemräume mit G = Ω = IR n R. Kruse (Uni Magdeburg) Metaheuristiken / 59
35 Scatter Search Phase 1 Diversitätsgenerator erzeugt µ Individuen in P Beispiel: pro Suchraumdimension Wertebereich in vier Partitionen Häufigkeit der erzeugten Individuen pro Partition merken Partition invers proportional auswählen separat: Population der besten α Individuen wird um die β Individuen aus P erweitert, die min B bestp d(a.g,b.g) maximieren (A P) R. Kruse (Uni Magdeburg) Metaheuristiken / 59
36 Scatter Search Phase 2 Teilmengengenerator wählt Individuen aus Menge der Besten aus Beispiel: (hier sehr einfach) alle möglichen Paare Kombinationsoperator anwenden (Beispiel: arithmetischer Crossover mit U ([ 1 2, 3 2]) ) anschließend: lokal optimieren wenn alle erzeugt: Wahl der α + β Besten iterieren solange sich Menge der Besten ändert dann: α Besten für nächste Phase 1 R. Kruse (Uni Magdeburg) Metaheuristiken / 59
37 Scatter Search SCATTER-SEARCH(Bewertungsfunktion F) 1 bestp = {} 2 P = {} 3 for t 1,..., maxiter 4 do while #P < µ 5 do A erzeuge ein Individuum mit Diversitätsgenerator 6 A LOKALE-SUCHE(F) angewandt auf A 7 bewerte A durch F 8 if A / P bestp 9 then P P {A} 10 if t = 1 11 then bestp selektiere α Individuen aus P mit BESTEN-SELEKTION 12 P streiche Individuum A in P 13 for k 1,...,β 14 do A dasjenige Individuum aus P, das min B bestp d(a.g,b.g) maximiert 15 P streiche Individuum A in P 16 bestp bestp {A} 17 repeat P {} 18 Mengen erzeuge Teilmengen von bestp durch Teilmengenoperator 19 for each M Mengen 20 do A wende Kombinationsoperator auf M an 21 A LOKALE-SUCHE(F) angewandt auf A 22 bewerte A durch F 23 if A / bestp P 24 then P P {A} 25 bestp selektiere α + β Ind. aus bestp P mit BESTEN-SELEKTION 26 until bestp hat sich nicht geändert 27 bestp selektiere α Individuen aus P mit BESTEN-SELEKTION 28 return bestind R. Kruse (Uni Magdeburg) Metaheuristiken / 59
38 Scatter Search Empfohlene Parameter Paramter Wertebereich Populationsgröße µ Anzahl der besten Individuen α 5-20 Erweiterung der besten Individuen β 5-20 R. Kruse (Uni Magdeburg) Metaheuristiken / 59
39 Überblick 1 Was sind Metaheuristiken? 2 Klassifizierende Systeme 3 Tabu-Suche 4 Memetische Algorithmen 5 Populationsbasiertes inkrementelles Lernen 6 Differentialevolution 7 Scatter Search 8 Kulturelle Algorithmen 9 Zusammenfassung R. Kruse (Uni Magdeburg) Metaheuristiken / 59
40 Kulturelle Algorithmen Motivation weitere Informationsspeicher zusätzlich zur genetischen Ebene Kultur bestimmt auf Werten gestütztes Verhalten Ebene der Kultur wird in EAs eingeführt Kollektives kulturelles Wissen Speicher: Überzeugungsraum (engl. belief space) wird durch die besten Individuen einer Generation modifiziert situatives und normatives Wissen R. Kruse (Uni Magdeburg) Metaheuristiken / 59
41 Kulturelle Algorithmen CULTURAL-ALGORITHMUS(Bewertungsfunktion F ) 1 t 0 2 P(t) initalisiere Population 3 BS (t) initialisiere Überzeugungsraum 4 bewerte P(t) durch F 5 while Terminierungsbedingung nicht erfüllt 6 do P bestimme wichtige Individuen aus P(t) 7 BS (t + 1) BS (t) wird durch P angepasst 8 P erzeuge Nachkommen von P(t) auf Basis von BS (t + 1) 9 bewerte P(t) durch F 10 t t P(t) Selektion aus P ( P(t 1)) 12 return bestes Individuum aus P(t) R. Kruse (Uni Magdeburg) Metaheuristiken / 59
42 Kulturelle Algorithmen Situatives Wissen für Ω = IR n : letzten beiden besten Individuen Mutation soll sich ggf. in diese Richtung orientieren Normatives Wissen für Ω = IR n : Ober- und Untergrenze pro Dimension größter/kleinster Wert der 20% besten Individuen der letzten Generation ermitteln immer: Vergrößerung akzeptieren nur bei besserem Gütewert des entsprechenden Grenzindividuums : Verkleinerung akzeptieren R. Kruse (Uni Magdeburg) Metaheuristiken / 59
43 Kulturelle Algorithmen Stabile Suchraumdimensionen wenn Bereich auf < 1% eingeschränkt und letzte beste Individuen innerhalb Mutation falls stabil: am besten Individuum orientieren sonst: selbstangepasste Schrittweite R. Kruse (Uni Magdeburg) Metaheuristiken / 59
44 Kulturelle Algorithmen CA-MUTATION(Individuum A) 1 u wähle zufällig gemäß N (0,1) 2 for each i {1,...,l} 3 do u i wähle zufällig ( gemäß N (0, 1) ) 1 4 B.S i A.S i exp 2l u l u i 5 u wähle zufällig gemäß N (0,B.S i ) 6 if BS ist stabil für Dimension i 7 then switch 8 case A.G i < BestInd.G i : B.G i A.G i + u 9 case A.G i > BestInd.G i : B.G i A.G i u 10 case A.G i = BestInd.G i : B.G i A.G i + u 2 11 else B.G i A.G i + u 12 B.G i max{ug i,min{og i,b.g i }} 13 return B R. Kruse (Uni Magdeburg) Metaheuristiken / 59
45 Überblick 1 Was sind Metaheuristiken? 2 Klassifizierende Systeme 3 Tabu-Suche 4 Memetische Algorithmen 5 Populationsbasiertes inkrementelles Lernen 6 Differentialevolution 7 Scatter Search 8 Kulturelle Algorithmen 9 Zusammenfassung R. Kruse (Uni Magdeburg) Metaheuristiken / 59
46 Genetischer Algorithmus Repräsentation: (klassisch) IB l mit fester Länge l (auch IR l und S n, Dekodierung) Mutation: Bitflipping, gleichverteilte reellwertige Mutation, spezielle Permutationsoperatoren Rekombination: k-punkt- und uniformer Crossover, arithmethischer Crossover, Ordnungsrekombination Selektion: Elternselektion, fitnessproportional oder Turnierselektion Population: mittelgroße Populationen Besonderheiten: theoretische Grundlage durch Schema-Theorem R. Kruse (Uni Magdeburg) Metaheuristiken / 59
47 Evolutionsstrategie Repräsentation: IR l, meist gilt Genotyp = Phänotyp, zusätzliche Strategieparameter Mutation: Gauß-Mutation, erst Mutation der Strategieparameter Rekombination: anfangs keine, später arithmetischer und uniformer Crossover, auch globale Varianten, anderer Operator auf Strategieparametern Selektion: gleichverteilt (Eltern), Komma- bzw. Plus-Selektion (Kinder) Population: eher kleine Populationen, manchmal µ = 1 Besonderheiten: Selbstadaption für Schrittweiten R. Kruse (Uni Magdeburg) Metaheuristiken / 59
48 Evolutionäres Programmieren Repräsentation: anfangs endlicher Automat, später IR l mit Strategieparametern Mutation: Modifikation der Zustände und Übergänge in Automaten, Gauß-Mutation, gleichzeitige Mutation der Strategieparameter Rekombination: keine Selektion: anfangs Plus-Selektion, später 2-fache q-stufige Turnierselektion aus Eltern und Kindern Population: mittelgroße Populationen Besonderheiten: es gilt µ = λ, Selbstadaption R. Kruse (Uni Magdeburg) Metaheuristiken / 59
49 Genetisches Programmieren Repräsentation: Bäume aber auch lineare Darstellung variabler Länge Mutation: internes Umhängen oder Modifikation von Teilbäumen Rekombination: Austausch von Teilbäumen Selektion: verschiedene (meist wie genetischer Algorithmus) Population: sehr große Populationen Besonderheiten: oft nur ein Operator auf ein Individuum, spezielle Initialisierung, Methoden zur Vermeidung von Introns R. Kruse (Uni Magdeburg) Metaheuristiken / 59
50 Lokale Suche Repräsentation: beliebig Mutation: beliebig Rekombination: keine Selektion: Verbesserungen immer, Verschlechterungen mit gewisser Wahrscheinlichkeit Population: ein Individuum Besonderheiten: zu frühe Konvergenz ist zentrales Problem R. Kruse (Uni Magdeburg) Metaheuristiken / 59
51 Klassifizierendes System Repräsentation: Regel oder Menge an Regeln, k-är kodiert Mutation: Bitflipping Rekombination: k-punkt-crossover Selektion: fitnessproportional Population: ausreichend für Komplexität der Aufgabe (bei Michigan) Besonderheiten: Population ist Regelsatz (bei Michigan), Individuum ist Regelsatz (bei Pittsburgh) R. Kruse (Uni Magdeburg) Metaheuristiken / 59
52 Tabu-Suche Repräsentation: phänotypnah Mutation: unumkehrbare durch Tabu-Listen Rekombination: keine Selektion: bestes Individuum Population: ein Elter, mehrere Kinder Besonderheiten: bestes gefundenes Individuum wird zusätzlich gespeichert R. Kruse (Uni Magdeburg) Metaheuristiken / 59
53 Memetischer Algorithmus Repräsentation: beliebig Mutation: wird mit lokaler Suche verknüpft Rekombination: beliebig Selektion: beliebig Population: beliebig Besonderheiten: beliebig R. Kruse (Uni Magdeburg) Metaheuristiken / 59
54 Populationsbasiertes inkrementelles Lernen Repräsentation: IB l Mutation: Änderung in der Populationsstatistik Rekombination: implizit Selektion: bestes Kindindividuum geht in Statistik ein Population: wird durch Populationsstatistik ersetzt Besonderheiten: benötigte Individuum werden aus der Statistik zufällig erzeugt R. Kruse (Uni Magdeburg) Metaheuristiken / 59
55 Differentialevolution Repräsentation: IR l Mutation: Mischoperator Rekombination: Mischoperator Selektion: Kind ersetzt Elter bei Verbesserung Population: klein/mittelgrß Besonderheiten: Mutation nutzt Populationsinformation R. Kruse (Uni Magdeburg) Metaheuristiken / 59
56 Scatter Search Repräsentation: IR l und andere Mutation: keine Rekombination: Teilmengenoperator und Kombination Selektion: Selektion der Besten Population: mittelgroß Besonderheiten: viele Varianten, deterministisches Verfahren R. Kruse (Uni Magdeburg) Metaheuristiken / 59
57 Kultureller Algorithmus Repräsentation: IR l und andere Mutation: nutzt Information des Überzeugungsraums Rekombination: keine Selektion: Umweltselektion Population: mittelgroß Besonderheiten: Überzeugungsraum speichert normatives und situationsbezogenes Wissen R. Kruse (Uni Magdeburg) Metaheuristiken / 59
58 Ameisenkolonie Repräsentation: verschiedene Mutation: jede Ameise konstruiert einen Lösungskandidaten Rekombination: keine Selektion: Güte bestimmt Einfluss auf globale Pheromonmenge Population: Anzahl der Ameisen pro Iterationsschritt Besonderheiten: kein EA-Schema, globale Pheromonmengen repräsentieren Lösungskandidaten ähnlich zur Statistik in PBIL R. Kruse (Uni Magdeburg) Metaheuristiken / 59
59 Partikelschwarm Repräsentation: IR l Mutation: basiert auf Trägheit und Orientierung an Nachbarn Rekombination: keine Selektion: Orientierung am Besten (Population/eigene Historie) Population: klein/mittelgroß Besonderheiten: kein EA-Schema, eher synchrones Durchkämmen des Suchraums R. Kruse (Uni Magdeburg) Metaheuristiken / 59
Populationsbasierte Suche. Evolutionäre Algorithmen (1)
Populationsbasierte Suche Bisherige Meta-Heuristiken: Simulated Annealing Tabu Search Ausgehend von einer Lösung wird gesucht Populationsbasierte Heuristiken Suche erfolgt ausgehend von mehreren Lösungen
Optimale Produktliniengestaltung mit Genetischen Algorithmen
Optimale Produktliniengestaltung mit Genetischen Algorithmen 1 Einleitung 2 Produktlinienoptimierung 3 Genetische Algorithmen 4 Anwendung 5 Fazit Seite 1 Optimale Produktliniengestaltung mit Genetischen
Künstliche Intelligenz
Künstliche Intelligenz Vorlesung 9 und 10: Evolutionäre Standardalgorithmen 1/69 LERNZIELE Die gängigen Standardalgorithmen, aus der Anfangszeit bis heute, werden vorgestellt. Die bekannten Standardalgorithmen
Evolutionäre Algorithmen Metaheuristiken und verwandte Optimierungsverfahren II/II
Evolutionäre Algorithmen Metaheuristiken und verwandte Optimierungsverfahren II/II Prof. Dr. Rudolf Kruse Pascal Held {kruse,pheld}@iws.cs.uni-magdeburg.de Otto-von-Guericke-Universität Magdeburg Fakultät
InformatiCup 2009 EvolutionConsole
InformatiCup 2009 EvolutionConsole Wilhelm Büchner Hochschule 19. März 2010 1 1. Das Team Teammitglieder Ralf Defrancesco KION Information Services GmbH Systemadministrator Daniel Herken Scooter Attack
Konstruktions-Verbesserungsheuristiken. Iterierte lokale Suche (ILS)
Konstruktions-Verbesserungsheuristiken Iterierte lokale Suche (ILS) Idee: 2-Phasen-Suche 1. Phase: Randomisierte Konstruktionsheuristik 2. Phase: Lokale Suche Beispiele: Multi-Start lokale Suche GRASP:
Genetische und Evolutionäre Algorithmen (Vol. 1)
Vortrag über Genetische und Evolutionäre Algorithmen (Vol. ) von Adam El Sayed Auf und Kai Lienemann Gliederung: ) Einführung 2) Grundkonzept 3) Genaue Beschreibung des Genetischen Algorithmus Lösungsrepräsentation
Survival of the Fittest Optimierung mittels Genetischer Algorithmen
Übung zu Organic Computing Survival of the Fittest Optimierung mittels Genetischer Algorithmen Sabine Helwig Lehrstuhl für Informatik 12 (Hardware-Software-Co-Design) Universität Erlangen-Nürnberg [email protected]
Hauptseminar Repräsentationen für Optimierungsalgorithmen
Stefan Bens Hauptseminar Dresden, 03.07.2008 Inhalt 1. Motivation 2. Einleitung 3. Repräsentationsarten und Eigenschaften 4. Beispiel 5. Zusammenfassung Folie 2 Als Repräsentation bezeichnet man die Kodierung
Gliederung. Kapitel 4. Lokale Suchverfahren. Meta-Heuristiken. Simulated Annealing. Lokale Suchverfahren. Optimierungsalgorithmen
Kapitel Optimierungsalgorithmen Gunnar Klau Institut für Computergraphik und Algorithmen Gliederung Kombinatorische vs. Ganzzahlige Optimierung Exakte Verfahren Branch-and-Bound Schnittebenenverfahren
8.1 Einleitung. Grundlagen der Künstlichen Intelligenz. 8.1 Einleitung. 8.2 Lokale Suchverfahren. 8.3 Zusammenfassung. Suchprobleme: Überblick
Grundlagen der Künstlichen Intelligenz 5. April 0 8. Suchalgorithmen: Lokale Suche Grundlagen der Künstlichen Intelligenz 8. Suchalgorithmen: Lokale Suche 8.1 Einleitung Malte Helmert Universität Basel
Genetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008
Genetische Algorithmen Uwe Reichel IPS, LMU München [email protected] 8. Juli 2008 Inhalt Einführung Algorithmus Erweiterungen alternative Evolutions- und Lernmodelle Inhalt 1 Einführung
5. Lokale Suchverfahren. Beispiel TSP: k-change Nachbarschaft. Nachbarschaft. k-opt Algorithmus
5. Lokale Suchverfahren Lokale Suche 5. Lokale Suchverfahren Beispiel TSP: k-change Nachbarschaft Optimale Lösungen können oft nicht effizient ermittelt werden. Heuristiken liefern zwar zulässige Lösungen,
Heuristische Verfahren
Heuristische Verfahren Bei heuristischen Verfahren geht es darum in polynomieller Zeit eine Näherungslösung zu bekommen. Diese kann sehr gut oder sogar optimal sein, jedoch gibt es keine Garantie dafür.
Theoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme
Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien
Einführung in die Methoden der Künstlichen Intelligenz. Evolutionäre Algorithmen
Einführung in die Methoden der Künstlichen Intelligenz Evolutionäre Algorithmen Dr. David Sabel WS 2012/13 Stand der Folien: 12. November 2012 Evolutionäre / Genetische Algorithmen Anwendungsbereich: Optimierung
Softwareprojektpraktikum Maschinelle Übersetzung
Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl [email protected] Vorbesprechung 5. Aufgabe 22. Juni 2017 Human Language Technology
Genetische Algorithmen
Genetische Algorithmen Von Valentina Hoppe und Jan Rörden Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Gliederung Biologische Evolution Genetischer Algorithmus Definition theoretischer
Optimierung und Simulation
2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Optimierung und Simulation Von Dr. Jörg Biethahn O. Professor für
Ant Colony Optimization (ACO)
Ant Colony Optimization (ACO) Daniel Blum 24.4.2003 Projektgruppe 431 Metaheuristiken Lehrstuhl 11, Fachbereich Informatik, Universität Dortmund 1 Übersicht Vorbild Natur Übertragung der Ideen Beispiele
11. Übung zu Algorithmen I 6. Juli 2016
11. Übung zu Algorithmen I 6. Juli 2016 Lisa Kohl [email protected] mit Folien von Lukas Barth Roadmap Ausblick: Was sind schwierige Probleme? Travelling Salesman Problem - Reprise ein ILP ein Algorithmus
14. Rot-Schwarz-Bäume
Bislang: Wörterbuchoperationen bei binären Suchbäume effizient durchführbar, falls Höhe des Baums klein. Rot-Schwarz-Bäume spezielle Suchbäume. Rot-Schwarz-Baum mit n Knoten hat Höhe höchstens 2 log(n+1).
Warum konvergieren Genetische Algorithmen gegen ein Optimum?
1 / 21 Gliederung 1 Das Schematheorem Motivation Begriffe Herleitung Ergebnis Das Schematheorem Das Schematheorem Motivation 3 / 21 Warum konvergieren Genetische Algorithmen gegen ein Optimum? Theoretische
Algorithmen für schwierige Optimierungsprobleme Vorlesung für den Bereich Bachelor Informatik
Algorithmen für schwierige Optimierungsprobleme Vorlesung für den Bereich Bachelor Informatik Dozent: Prof. Dr. Henning Meyerhenke Paralleles Rechnen, Fakultät für Informatik 1 KIT Universität des Landes
Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen
Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Optimierungsprobleme
Computational Intelligence
Vorlesung Computational Intelligence Stefan Berlik Raum H-C 80 Tel: 027/70-267 email: [email protected] Inhalt Überblick Rückblick Optimierungsprobleme Optimierungsalgorithmen Vorlesung Computational
Verbesserungsheuristiken
Verbesserungsheuristiken Bestandteile der Lokalen Suche Für schwierige Optimierungsaufgaben haben Verbesserungsheuristiken eine große praktische Bedeutung. Sie starten mit Ausgangslösungen, die von z.b.
Genetische Algorithmen von der Evolution lernen
Genetische Algorithmen von der Evolution lernen (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Nils J. Nilsson Artificial Intelligence Morgan Kaufmann, 1998 Ansatz Bisher: Problemlösung
Graphdurchmusterung, Breiten- und Tiefensuche
Prof. Thomas Richter 18. Mai 2017 Institut für Analysis und Numerik Otto-von-Guericke-Universität Magdeburg [email protected] Material zur Vorlesung Algorithmische Mathematik II am 18.05.2017 Graphdurchmusterung,
EVOLUTION STRATEGIES DANIELA SCHACHERER SEMINAR: IST KÜNSTLICHE INTELLIGENZ GEFÄHRLICH? SOMMERSEMESTER 2017
EVOLUTION STRATEGIES DANIELA SCHACHERER SEMINAR: IST KÜNSTLICHE INTELLIGENZ GEFÄHRLICH? SOMMERSEMESTER 2017 Inhalt Einleitung und Überblick Evolutionsstrategien Grundkonzept Evolutionsstrategien als Alternative
2. Von der Evolution zur Optimierung
2. Von der Evolution zur Optimierung Die Prinzipien der biologischen Evolution werden auf die Optimierung übertragen. Am Beispiel wird ein erster evolutionärer Algorithmus zur Optimierung konstruiert und
Algorithms for Regression and Classification
Fakultät für Informatik Effiziente Algorithmen und Komplexitätstheorie Algorithms for Regression and Classification Robust Regression and Genetic Association Studies Robin Nunkesser Fakultät für Informatik
Heuristiken Greedy-Algorithmen Lokale Suche Tabu Suche
Seminar Ausgewählte Themen des Operations Research bei Prof. R. Schrader Heuristiken Greedy-Algorithmen Lokale Suche Tabu Suche Wintersemester 2007/2008 Eingereicht von: Florian Schuster Datum: 12.12.2007
Exkurs Modelle und Algorithmen
Exkurs Modelle und Algorithmen Ansatz künstlich neuronaler Netze (KNN) Versuch, die Wirkungsweise menschlicher Gehirnzellen nachzubilden dabei wird auf formale mathematische Beschreibungen und Algorithmen
Datenstrukturen und Algorithmen. 7. Suchen in linearen Feldern
Datenstrukturen und Algorithmen 7. Suchen in linearen Feldern VO 708.031 Suchen in linearen Feldern [email protected] 1 Inhalt der Vorlesung 1. Motivation, Einführung, Grundlagen 2. Algorithmische
Einführung in Heuristische Suche
Einführung in Heuristische Suche Beispiele 2 Überblick Intelligente Suche Rundenbasierte Spiele 3 Grundlagen Es muss ein Rätsel / Puzzle / Problem gelöst werden Wie kann ein Computer diese Aufgabe lösen?
Überblick. Motivation. Kap. 7.6 Verbesserungsheuristiken. Nachbarschaft einer Lösung Einfache lokale Suche
Kap. 7.6 Verbesserungsheuristiken (letzte VO) Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 7. VO DAP SS 008 17. Juli 008 Überblick Verbesserungsheuristiken
Evolutionäre Algorithmen Software
Evolutionäre Algorithmen Software Prof. Dr. Rudolf Kruse Pascal Held {kruse,pheld}@iws.cs.uni-magdeburg.de Otto-von-Guericke-Universität Magdeburg Fakultät für Informatik Institut für Wissens- und Sprachverarbeitung
Kap. 7.6 Verbesserungsheuristiken (letzte VO)
Kap. 7.6 Verbesserungsheuristiken (letzte VO) Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 25. VO DAP2 SS 2009 23. Juli 2009 1 Überblick Verbesserungsheuristiken
Quadtrees und Meshing
Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 24.06.2014 Motivation: Meshing von Platinenlayouts Zur Simulation der Hitzeentwicklung
1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3
Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................
Suche in Spielbäumen Spielbäume Minimax Algorithmus Alpha-Beta Suche. Suche in Spielbäumen. KI SS2011: Suche in Spielbäumen 1/20
Suche in Spielbäumen Suche in Spielbäumen KI SS2011: Suche in Spielbäumen 1/20 Spiele in der KI Suche in Spielbäumen Spielbäume Minimax Algorithmus Alpha-Beta Suche Einschränkung von Spielen auf: 2 Spieler:
Evolutionäre Algorithmen
Evolutionäre Algorithmen No-Free-Lunch-Theorem, Parallelisierung, Zufallszahlen Prof. Dr. Rudolf Kruse Christian Moewes {kruse,cmoewes}@iws.cs.uni-magdeburg.de Otto-von-Guericke-Universität Magdeburg Fakultät
Algorithmen I. Prof. Jörn Müller-Quade Institut für Theoretische Informatik Web: https://crypto.iti.kit.edu/index.php?
Algorithmen I Prof. Jörn Müller-Quade 10.07.2017 Institut für Theoretische Informatik Web: https://crypto.iti.kit.edu/index.php?id=799 (Folien von Peter Sanders) KIT Institut für Theoretische Informatik
9. Heuristische Suche
9. Heuristische Suche Prof. Dr. Rudolf Kruse University of Magdeburg Faculty of Computer Science Magdeburg, Germany [email protected] S Heuristische Suche Idee: Wir nutzen eine (heuristische)
Das Trust-Region-Verfahren
Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein
1.8 Shift-And-Algorithmus
.8 Shift-And-Algorithmus nutzt durch Bitoperationen mögliche Parallelisierung Theoretischer Hintergrund: Nichtdeterministischer endlicher Automat Laufzeit: Θ(n), falls die Länge des Suchwortes nicht größer
Lineare Kongruenzgeneratoren und Quicksort
Seminar Perlen der theoretischen Informatik Dozenten: Prof. Johannes Köbler und Olaf Beyersdorff Lineare Kongruenzgeneratoren und Quicksort Ausarbeitung zum Vortrag Mia Viktoria Meyer 12. November 2002
Evolutionsstrategien
Evolutionsstrategien zum Seminar Evolutionäre Algorithmen von Jana Schäfer INHALTVERZEICHNIS 1. Einführung... 3 2. Die Geschichte der Evolutionsstrategien...4 3. Grundlegendes... 6 3.1 Begriffe... 6 3.2
Seminar: Randomisierte Algorithmen Auswerten von Spielbäumen Nele Küsener
Seminar: Randomisierte Algorithmen Auswerten von Sielbäumen Nele Küsener In diesem Vortrag wird die Laufzeit von Las-Vegas-Algorithmen analysiert. Das Ergebnis ist eine obere und eine untere Schranke für
Lineares Programmieren
Vorlesung Algorithmische Geometrie LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 03.05.2011 Nachtrag Art Gallery Problem Lässt sich der Triangulierungs-Algorithmus
Statistics, Data Analysis, and Simulation SS 2015
Mainz, May 12, 2015 Statistics, Data Analysis, and Simulation SS 2015 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Dr. Michael O. Distler
Algorithmen und Datenstrukturen II
Algorithmen und Datenstrukturen II Algorithmen zur Textverarbeitung III: D. Rösner Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke Universität Magdeburg Sommer 2009,
Theoretische Analyse evolutionärer Algorithmen unter dem Aspekt der Optimierung in diskreten Suchräumen. Thomas Jansen
Theoretische Analyse evolutionärer Algorithmen unter dem Aspekt der Optimierung in diskreten Suchräumen Thomas Jansen Fachbereich Informatik, Lehrstuhl 2 Universität Dortmund http://ls2-www.cs.uni-dortmund.de/
7. Optimierung von Simulationsmodellen
7. Optimierung von Ziel vieler Simulationsmodelle ist das finden einer guten/optimalen Lösung Allgemein formuliert: Min f(x) unter den Nebenbedingungen x W oft sind die Nebenbedingungen durch Gleichungen/Ungleichungen
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
Effiziente Algorithmen
Effiziente Algorithmen Aufgabe 5 Gruppe E Martin Schliefnig, 0160919 Christoph Holper, 9927191 Ulrike Ritzinger, 0125779 1. Problemstellung Gegeben ist eine Datei, die eine Million reelle Zahlen enthält.
Optimierung. Optimierung. Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus Fabian Kuhn
Optimierung Vorlesung 8 Lineare Programmierung III: Simplex Algorithmus 1 Resource Allocation Beispiel aus Vorlesung 6 Primales LP: Duales LP: max 3 4 2 2 4 2 8 3 6 0, 0, 0 min 4 8 6 2 3 3 4 2 2 0, 0,
Polygontriangulierung
Vorlesung Algorithmische Geometrie Polygone triangulieren LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 26.04.2011 Das Kunstgalerie-Problem
Bereichsabfragen II. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie
Vorlesung Algorithmische Geometrie LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 17.07.2012 Objekttypen in Bereichsabfragen y0 y0 y x x0 Bisher
Euklidische Distanzmatrizen. Andrei Grecu
Euklidische Distanzmatrizen Andrei Grecu Übersicht Motivation Definition und Problemstellung Algo 1: Semidefinite Programmierung Algo 2: Multidimensional Scaling Algo 3: Spring Embedder Algo 4: Genetischer
MOP: Metaheuristiken Multipunktmethoden. Bisher: je Iteration wird ein Entscheidungsvektor variiert und bewertet. Praktische Optimierung
Wintersemester 2007/08 Praktische Optimierung (Vorlesung) Bisher: je Iteration wird ein Entscheidungsvektor variiert und bewertet Jetzt: je Iteration werden mehrere Entscheidungsvektoren variiert und bewertet
Dynamisches Routing in der Logistik
Informatik, Angewandte Informatik, Technische Informationssysteme Dynamisches Routing in der Logistik Tobias Dimmel Dresden, 24.05.2012 Agenda 1. Begriffe 2. Traveling Salesman Problem 3. Ameisenalgorithmus
Kürzeste und Schnellste Wege
Kürzeste und Schnellste Wege Wie funktionieren Navis? André Nusser (Folien inspiriert von Kurt Mehlhorn) Struktur Straßennetzwerke Naiver Algorithmus Dijkstras Algorithmus Transitknoten Nachbemerkungen
Der Dreyfus-Wagner Algorithmus für das Steiner Baum Problem
Der Dreyfus-Wagner Algorithmus für das Steiner Baum Problem Andreas Moser Dietmar Ebner Christian Schauer Markus Bauer 9. Dezember 2003 1 Einführung Der in der Vorlesung gezeigte Algorithmus für das Steiner
Entscheidungsbäume aus großen Datenbanken: SLIQ
Entscheidungsbäume aus großen Datenbanken: SLIQ C4.5 iteriert häufig über die Trainingsmenge Wie häufig? Wenn die Trainingsmenge nicht in den Hauptspeicher passt, wird das Swapping unpraktikabel! SLIQ:
Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart
Institut für maschinelle Sprachverarbeitung Universität Stuttgart [email protected] Die Folien basieren teilweise auf Folien von Mark Johnson. Koordinationen Problem: PCFGs können nicht alle
Bereichsabfragen II. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie
Vorlesung Algorithmische Geometrie LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 17.07.2012 Objekttypen in Bereichsabfragen y0 y x x0 Bisher
Künstliche Intelligenz
Künstliche Intelligenz Vorlesung 6: Evolutionäre Algorithmen 1/74 NATÜRLICHE EVOLUTION Grundverständnis für die Zusammenhänge und die Komplexität der natürlichen Evolution mit dem Ziel deren Nachahmung
NP-vollständige Probleme
Effiziente Algorithmen Lösen NP-vollständiger Probleme 256 NP-vollständige Probleme Keine polynomiellen Algorithmen, falls P NP. Viele wichtige Probleme sind NP-vollständig. Irgendwie müssen sie gelöst
Clusteranalyse: Gauß sche Mischmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität
Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte
Evolutionäre Algorithmen Genetische Programmierung
Evolutionäre Algorithmen Genetische Programmierung Prof. Dr. Rudolf Kruse Pascal Held {kruse,pheld}@iws.cs.uni-magdeburg.de Otto-von-Guericke-Universität Magdeburg Fakultät für Informatik Institut für
ADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil 5 Prof. Peter F. Stadler & Dr. Christian Höner zu Siederdissen Bioinformatik/IZBI Institut für Informatik & Interdisziplinäres Zentrum für Bioinformatik Universität
Dynamisches Huffman-Verfahren
Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über
Klausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13)
Berlin, 21. Februar 2013 Name:... Matr.-Nr.:... Klausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13) 1 2 3 4 5 6 7 8 9 Σ Bearbeitungszeit: 90 min. max. Punktezahl:
Programmieren 1 C Überblick
Programmieren 1 C Überblick 1. Einleitung 2. Graphische Darstellung von Algorithmen 3. Syntax und Semantik 4. Einstieg in C: Einfache Sprachkonstrukte und allgemeiner Programmaufbau 5. Skalare Standarddatentypen
Sachrechnen/Größen WS 14/15-
Kapitel Daten & Wahrscheinlichkeit 3.1 Kombinatorische Grundlagen 3.2 Kombinatorik & Wahrscheinlichkeit in der Grundschule 3.3 Daten Darstellen 3.1 Kombinatorische Grundlagen Verschiedene Bereiche der
Algorithmen und Datenstrukturen Heapsort
Algorithmen und Datenstrukturen 2 5 Heapsort In diesem Kapitel wird Heapsort, ein weiterer Sortieralgorithmus, vorgestellt. Dieser besitzt wie MERGE-SORT eine Laufzeit von O(n log n), sortiert jedoch das
Fortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester
7. Sortieren Lernziele. 7. Sortieren
7. Sortieren Lernziele 7. Sortieren Lernziele: Die wichtigsten Sortierverfahren kennen und einsetzen können, Aufwand und weitere Eigenschaften der Sortierverfahren kennen, das Problemlösungsparadigma Teile-und-herrsche
Parallele Algorithmen in der Bildverarbeitung
Seminar über Algorithmen - SoSe 2009 Parallele Algorithmen in der Bildverarbeitung von Christopher Keiner 1 Allgemeines 1.1 Einleitung Parallele Algorithmen gewinnen immer stärker an Bedeutung. Es existieren
Lösungen zu Kapitel 5
Lösungen zu Kapitel 5 Lösung zu Aufgabe : (a) Es gibt derartige Graphen: (b) Offensichtlich besitzen 0 der Graphen einen solchen Teilgraphen. Lösung zu Aufgabe : Es sei G = (V, E) zusammenhängend und V
Resolutionsalgorithmus
112 Resolutionskalkül Mit dem Begriff Kalkül bezeichnet man eine Menge von syntaktischen Umformungsregeln, mit denen man semantische Eigenschaften der Eingabeformel herleiten kann. Für den Resolutionskalkül:
