Online Lernen: Die Themen
|
|
- Sara Heidrich
- vor 5 Jahren
- Abrufe
Transkript
1 Online Lernen: Die Themen (a) Das Online-Spiel: In jeder Runde präsentiert ein Lehrer ein Beispiel, das ein Schüler klassifiziert. Nach wie vielen Runden hat der Schüler das unbekannte Zielkonzept gelernt? Charakterisierung der minimalen Rundenzahl. Zusammenhang zur VC-Dimension. Der Zusammenhang zwischen Online- und PAC-Algorithmen. (b) Wichtige algorithmische Ideen: Der Halbierungs-Algorithmus, Weighted-Majority: Auswahl von Experten, Winnow: Relevante Eigenschaften schnell bestimmen! der Perzeptron-Algorithmus: das Online-Lernen von Halbräumen. Online Lernen 1 / 77
2 Das Online-Spiel Das Online-Spiel 2 / 77
3 Das Online-Spiel 1. Das Spiel beginnt in Runde t = Solange das Spiel noch nicht beendet ist: (a) Der Lehrer präsentiert ein Beispiel x t. (b) Der Schüler gibt eine Klassifizierung an. /* Der Schüler ist an keine Hypothesenklasse gebunden. */ Ist die Klassizierung richtig, ist das Spiel beendet: Der Schüler hat gewonnen. Bei einer falschen Antwort (x t ist ein Gegenbeispiel), erhält der Schüler die richtige Klassifikation. (d) Setze t := t + 1. Das Online-Spiel 3 / 77
4 Das Online-Spiel 1. Das Spiel beginnt in Runde t = Solange das Spiel noch nicht beendet ist: (a) Der Lehrer präsentiert ein Beispiel x t. (b) Der Schüler gibt eine Klassifizierung an. /* Der Schüler ist an keine Hypothesenklasse gebunden. */ Ist die Klassizierung richtig, ist das Spiel beendet: Der Schüler hat gewonnen. Bei einer falschen Antwort (x t ist ein Gegenbeispiel), erhält der Schüler die richtige Klassifikation. (d) Setze t := t + 1. Der Schüler möchte möchte so schnell wie möglich gewinnen. Der Lehrer ist bösartig. Das Online-Spiel 3 / 77
5 Gegenbeispiel-Komplexität (a) Sei A ein Algorithmus, mit dem der Schüler Beispiele klassifizieren kann. Dann ist Gegenbeispiel A (C) := m, falls bei Klassifikation der Beispiele durch A ( ) jedes Konzept in C nach höchstens m Gegenbeispielen für jeden Lehrer gelernt wird ( ) und mindestens m Gegenbeispiele für irgendeinen Lehrer und irgendein Konzept benötigt werden. Das Online-Spiel 4 / 77
6 Gegenbeispiel-Komplexität (a) Sei A ein Algorithmus, mit dem der Schüler Beispiele klassifizieren kann. Dann ist Gegenbeispiel A (C) := m, falls bei Klassifikation der Beispiele durch A ( ) jedes Konzept in C nach höchstens m Gegenbeispielen für jeden Lehrer gelernt wird ( ) und mindestens m Gegenbeispiele für irgendeinen Lehrer und irgendein Konzept benötigt werden. (b) Es ist Gegenbeispiel(C) := m, falls es einen Algorithmus A mit Gegenbeispiel A (C) = m gibt und falls Gegenbeispiel B (C) m für jeden Algorithmus B gilt. Das Online-Spiel 4 / 77
7 Gegenbeispiel-Komplexität: Konzeptklassen (a) Sei X = {1,..., n}. Die Konzeptklasse 1 n bestehe aus allen Es ist Gegenbeispiel(1 n ) = Einermengen {i} für 1 i n. Das Online-Spiel 5 / 77
8 Gegenbeispiel-Komplexität: Konzeptklassen (a) Sei X = {1,..., n}. Die Konzeptklasse 1 n bestehe aus allen Einermengen {i} für 1 i n. Es ist Gegenbeispiel(1 n ) = 1: Der Schüler behauptet, dass x 1 ein negatives Beispiel ist :-)) Das Online-Spiel 5 / 77
9 Gegenbeispiel-Komplexität: Konzeptklassen (a) Sei X = {1,..., n}. Die Konzeptklasse 1 n bestehe aus allen Einermengen {i} für 1 i n. Es ist Gegenbeispiel(1 n ) = 1: Der Schüler behauptet, dass x 1 ein negatives Beispiel ist :-)) (b) Ein Online-Algorithmus für MONOM n : Der Schüler klassifiziert anfänglich mit der Hypothese Das Online-Spiel 5 / 77
10 Gegenbeispiel-Komplexität: Konzeptklassen (a) Sei X = {1,..., n}. Die Konzeptklasse 1 n bestehe aus allen Einermengen {i} für 1 i n. Es ist Gegenbeispiel(1 n ) = 1: Der Schüler behauptet, dass x 1 ein negatives Beispiel ist :-)) (b) Ein Online-Algorithmus für MONOM n : Der Schüler klassifiziert anfänglich mit der Hypothese x 1 x 1 x 2 x 2 x n x n. Der Schüler erhält ein Gegenbeispiel und arbeitet mit der maximal-konsistenten Hypothese weiter. Der Lehrer kann nur positive Gegenbeispiele geben. Es ist Gegenbeispiel(MONOM n ) Das Online-Spiel 5 / 77
11 Gegenbeispiel-Komplexität: Konzeptklassen (a) Sei X = {1,..., n}. Die Konzeptklasse 1 n bestehe aus allen Einermengen {i} für 1 i n. Es ist Gegenbeispiel(1 n ) = 1: Der Schüler behauptet, dass x 1 ein negatives Beispiel ist :-)) (b) Ein Online-Algorithmus für MONOM n : Der Schüler klassifiziert anfänglich mit der Hypothese x 1 x 1 x 2 x 2 x n x n. Der Schüler erhält ein Gegenbeispiel und arbeitet mit der maximal-konsistenten Hypothese weiter. Der Lehrer kann nur positive Gegenbeispiele geben. Es ist Gegenbeispiel(MONOM n ) n + 1. Das Online-Spiel 5 / 77
12 Gegenbeispiele und VC-Dimension Für jede Konzeptklasse C gilt VC(C) Gegenbeispiel(C). 1. Sei s = VC(C) und C zertrümmere die Menge S = {x 1,..., x s }. Das Online-Spiel 6 / 77
13 Gegenbeispiele und VC-Dimension Für jede Konzeptklasse C gilt VC(C) Gegenbeispiel(C). 1. Sei s = VC(C) und C zertrümmere die Menge S = {x 1,..., x s }. 2. = jede Teilmenge von S ist ein Konzept. 3. = Gegenbeispiel(C) s. Das Online-Spiel 6 / 77
14 Gegenbeispiele und VC-Dimension Für jede Konzeptklasse C gilt VC(C) Gegenbeispiel(C). 1. Sei s = VC(C) und C zertrümmere die Menge S = {x 1,..., x s }. 2. = jede Teilmenge von S ist ein Konzept. 3. = Gegenbeispiel(C) s. Eine erste Konsequenz: n Gegenbeispiel(MONOM n ) n + 1. Das Online-Spiel 6 / 77
15 Endliche Konzeptklassen Die Konzeptklasse C bestehe aus endlich vielen Konzepten. Dann folgt Gegenbeispiel(C) log 2 C. 1. Der Schüler führt den Halbierungs-Algorithmus aus und klassifiziert mit der Mehrheitshypothese x M : { c C : x c } { c C : x c }. Jedes falsch klassifizierende Konzept c C wird aus C entfernt. Das Online-Spiel 7 / 77
16 Endliche Konzeptklassen Die Konzeptklasse C bestehe aus endlich vielen Konzepten. Dann folgt Gegenbeispiel(C) log 2 C. 1. Der Schüler führt den Halbierungs-Algorithmus aus und klassifiziert mit der Mehrheitshypothese x M : { c C : x c } { c C : x c }. Jedes falsch klassifizierende Konzept c C wird aus C entfernt. 2. Ein Gegenbeispiel eliminiert mindestens die Hälfte aller Konzepte. Insbesondere: Gegenbeispiel Halbierung (C) log 2 C. Das Online-Spiel 7 / 77
17 Wie viele Gegenbeispiele? Eine exakte Charakterisierung Das Online-Spiel Die Tiefe einer Konzeptklasse 8 / 77
18 Wie arbeitet ein Lehrer? (a) Der Lehrer beginnt mit einem ersten Beispiel b ɛ := x 1. (b) Wenn der Lehrer gerade Beispiel b w präsentiert, dann zeigt er Beispiel bw0 bei einer negativen Klassifizierung von b w durch den Schüler bzw bw1 bei einer positiven Klassifizierung. Das Online-Spiel Die Tiefe einer Konzeptklasse 9 / 77
19 Wie arbeitet ein Lehrer? (a) Der Lehrer beginnt mit einem ersten Beispiel b ɛ := x 1. (b) Wenn der Lehrer gerade Beispiel b w präsentiert, dann zeigt er Beispiel bw0 bei einer negativen Klassifizierung von b w durch den Schüler bzw bw1 bei einer positiven Klassifizierung. (c) Die Strategie des Lehrers wird durch einen vollständigen binären, geordneten Baum B modelliert: Innere Knoten w sind mit den Beispielen bw markiert und Kanten mit der Antwort des Schülers.! Es muss zu jedem Weg W ein Konzept c C geben, so dass c konsistent mit den Klassifizierungen von W ist. Das Online-Spiel Die Tiefe einer Konzeptklasse 9 / 77
20 Wie arbeitet ein Lehrer? (a) Der Lehrer beginnt mit einem ersten Beispiel b ɛ := x 1. (b) Wenn der Lehrer gerade Beispiel b w präsentiert, dann zeigt er Beispiel bw0 bei einer negativen Klassifizierung von b w durch den Schüler bzw bw1 bei einer positiven Klassifizierung. (c) Die Strategie des Lehrers wird durch einen vollständigen binären, geordneten Baum B modelliert: Innere Knoten w sind mit den Beispielen bw markiert und Kanten mit der Antwort des Schülers.! Es muss zu jedem Weg W ein Konzept c C geben, so dass c konsistent mit den Klassifizierungen von W ist. 1 Ein solcher Baum B heißt konsistent mit C. 2 Tiefe(C) ist die maximale Tiefe eines mit C konsistenten Baums. Das Online-Spiel Die Tiefe einer Konzeptklasse 9 / 77
21 Wie arbeitet ein Lehrer? (a) Der Lehrer beginnt mit einem ersten Beispiel b ɛ := x 1. (b) Wenn der Lehrer gerade Beispiel b w präsentiert, dann zeigt er Beispiel bw0 bei einer negativen Klassifizierung von b w durch den Schüler bzw bw1 bei einer positiven Klassifizierung. (c) Die Strategie des Lehrers wird durch einen vollständigen binären, geordneten Baum B modelliert: Innere Knoten w sind mit den Beispielen bw markiert und Kanten mit der Antwort des Schülers.! Es muss zu jedem Weg W ein Konzept c C geben, so dass c konsistent mit den Klassifizierungen von W ist. 1 Ein solcher Baum B heißt konsistent mit C. 2 Tiefe(C) ist die maximale Tiefe eines mit C konsistenten Baums. 3 Tiefe(C) Gegenbeispiel(C) Das Online-Spiel Die Tiefe einer Konzeptklasse 9 / 77
22 Wie arbeitet ein Lehrer? (a) Der Lehrer beginnt mit einem ersten Beispiel b ɛ := x 1. (b) Wenn der Lehrer gerade Beispiel b w präsentiert, dann zeigt er Beispiel bw0 bei einer negativen Klassifizierung von b w durch den Schüler bzw bw1 bei einer positiven Klassifizierung. (c) Die Strategie des Lehrers wird durch einen vollständigen binären, geordneten Baum B modelliert: Innere Knoten w sind mit den Beispielen bw markiert und Kanten mit der Antwort des Schülers.! Es muss zu jedem Weg W ein Konzept c C geben, so dass c konsistent mit den Klassifizierungen von W ist. 1 Ein solcher Baum B heißt konsistent mit C. 2 Tiefe(C) ist die maximale Tiefe eines mit C konsistenten Baums. 3 Tiefe(C) Gegenbeispiel(C) Das Online-Spiel Die Tiefe einer Konzeptklasse 9 / 77
23 Tiefe(C) Gegenbeispiel(C) Ein pfiffiger Schüler: 1. Setze i = 1 und C i := C. 2. Wiederhole, solange der Schüler noch nicht gewonnen hat: (a) Wenn der Lehrer das Beispiel x vorlegt, dann (b) bestimme C (0) i := {c C i : x c } und C (1) i := {c C i : x c }. Das Online-Spiel Die Tiefe einer Konzeptklasse 10 / 77
24 Tiefe(C) Gegenbeispiel(C) Ein pfiffiger Schüler: 1. Setze i = 1 und C i := C. 2. Wiederhole, solange der Schüler noch nicht gewonnen hat: (a) Wenn der Lehrer das Beispiel x vorlegt, dann (b) bestimme C (0) i := {c C i : x c } und C (1) i := {c C i : x c }. (c) Wenn Tiefe(C (0) i ) Tiefe(C (1) i ), dann Das Online-Spiel Die Tiefe einer Konzeptklasse 10 / 77
25 Tiefe(C) Gegenbeispiel(C) Ein pfiffiger Schüler: 1. Setze i = 1 und C i := C. 2. Wiederhole, solange der Schüler noch nicht gewonnen hat: (a) Wenn der Lehrer das Beispiel x vorlegt, dann (b) bestimme C (0) i := {c C i : x c } und C (1) i := {c C i : x c }. (c) Wenn Tiefe(C (0) i ) Tiefe(C (1) i ), dann antworte mit Klassifizierung a = 0 und sonst mit Klassifizierung a = 1. (d) Ist die Antwort falsch, dann setze C i+1 := C (1 a) i und i = i + 1. Das Online-Spiel Die Tiefe einer Konzeptklasse 10 / 77
26 Tiefe(C) Gegenbeispiel(C) Ein pfiffiger Schüler: 1. Setze i = 1 und C i := C. 2. Wiederhole, solange der Schüler noch nicht gewonnen hat: (a) Wenn der Lehrer das Beispiel x vorlegt, dann (b) bestimme C (0) i := {c C i : x c } und C (1) i := {c C i : x c }. (c) Wenn Tiefe(C (0) i ) Tiefe(C (1) i ), dann antworte mit Klassifizierung a = 0 und sonst mit Klassifizierung a = 1. (d) Ist die Antwort falsch, dann setze C i+1 := C (1 a) i und i = i + 1. Sei Tiefe(C) = t. Wenn Tiefe(C (0) i ) < Tiefe(C i ) oder Tiefe(C (1) i ) < Tiefe(C i ), dann sind wir fertig: Ein Gegenbeispiel senkt die Tiefe um mindestens 1. Das Online-Spiel Die Tiefe einer Konzeptklasse 10 / 77
27 Tiefe(C) Gegenbeispiel(C) Ein pfiffiger Schüler: 1. Setze i = 1 und C i := C. 2. Wiederhole, solange der Schüler noch nicht gewonnen hat: (a) Wenn der Lehrer das Beispiel x vorlegt, dann (b) bestimme C (0) i := {c C i : x c } und C (1) i := {c C i : x c }. (c) Wenn Tiefe(C (0) i ) Tiefe(C (1) i ), dann antworte mit Klassifizierung a = 0 und sonst mit Klassifizierung a = 1. (d) Ist die Antwort falsch, dann setze C i+1 := C (1 a) i und i = i + 1. Sei Tiefe(C) = t. Wenn Tiefe(C (0) i ) < Tiefe(C i ) oder Tiefe(C (1) i ) < Tiefe(C i ), dann sind wir fertig: Ein Gegenbeispiel senkt die Tiefe um mindestens 1. Also ist Tiefe(C 0 i ) = Tiefe(C 1 i ) = Tiefe(C i ). Das Online-Spiel Die Tiefe einer Konzeptklasse 10 / 77
28 Tiefe(C) Gegenbeispiel(C) Ein pfiffiger Schüler: 1. Setze i = 1 und C i := C. 2. Wiederhole, solange der Schüler noch nicht gewonnen hat: (a) Wenn der Lehrer das Beispiel x vorlegt, dann (b) bestimme C (0) i := {c C i : x c } und C (1) i := {c C i : x c }. (c) Wenn Tiefe(C (0) i ) Tiefe(C (1) i ), dann antworte mit Klassifizierung a = 0 und sonst mit Klassifizierung a = 1. (d) Ist die Antwort falsch, dann setze C i+1 := C (1 a) i und i = i + 1. Sei Tiefe(C) = t. Wenn Tiefe(C (0) i ) < Tiefe(C i ) oder Tiefe(C (1) i ) < Tiefe(C i ), dann sind wir fertig: Ein Gegenbeispiel senkt die Tiefe um mindestens 1. Also ist Tiefe(Ci 0 ) = Tiefe(Ci 1 ) = Tiefe(C i ). Seien B (0), B (1) tiefste mit C (0) i bzw C (1) i konsistente Bäume = Tiefe(C) = t + 1 Das Online-Spiel Die Tiefe einer Konzeptklasse 10 / 77
29 Zusammenfassung (a) Für alle Konzeptklassen gilt VC(C) Tiefe(C) = Gegenbeispiel(C). (b) Für Konzeptklassen mit endlich vielen Konzepten folgt zusätzlich VC(C) Tiefe(C) = Gegenbeispiel(C) Gegenbeispiel Halbierung (C) log 2 C Die Unterschiede zwischen VC-Dimension und Gegenbeispielzahl sowie zwischen Gegenbeispielzahl und der logarithmierten Konzeptzahl können unbeschränkt groß werden. Das Online-Spiel Die Tiefe einer Konzeptklasse 11 / 77
30 Auswahl von Experten Die Auswahl von Experten 12 / 77
31 Die Auswahl von Experten! n Experten geben in mehreren Runden Ja/Nein Empfehlungen ab wie etwa zum Kauf oder Verkauf einer Aktie.! Nach jeder Runde wird mitgeteilt, welche Empfehlung richtig ist. Die Auswahl von Experten 13 / 77
32 Die Auswahl von Experten! n Experten geben in mehreren Runden Ja/Nein Empfehlungen ab wie etwa zum Kauf oder Verkauf einer Aktie.! Nach jeder Runde wird mitgeteilt, welche Empfehlung richtig ist.? Gibt es eine Strategie, die fast mit dem besten Experten mithält?? Warum nicht in jeder Runde den bisher besten Experten wählen? Die Auswahl von Experten 13 / 77
33 Die Auswahl von Experten! n Experten geben in mehreren Runden Ja/Nein Empfehlungen ab wie etwa zum Kauf oder Verkauf einer Aktie.! Nach jeder Runde wird mitgeteilt, welche Empfehlung richtig ist.? Gibt es eine Strategie, die fast mit dem besten Experten mithält?? Warum nicht in jeder Runde den bisher besten Experten wählen? Eine erste Anwendung: Lerne eine unbekannte Threshold-Funktion n sign( w i x i ) i=1 Interpretiere die Variablen x i als Experten. Die Auswahl von Experten 13 / 77
34 Weighted-Majority, die deterministische Variante Die Auswahl von Experten Weighted-Majority 14 / 77
35 Weighted-Majority: Die deterministische Variante Es gelte 0 < β < 1 für den Bestrafungsparameter β. 1. Setze w i = 1 für alle Experten i. 2. Wenn Experte i die Empfehlung x i {Ja, Nein} abgibt, dann treffe die Entscheidung Ja, falls Die Auswahl von Experten Weighted-Majority 15 / 77
36 Weighted-Majority: Die deterministische Variante Es gelte 0 < β < 1 für den Bestrafungsparameter β. 1. Setze w i = 1 für alle Experten i. 2. Wenn Experte i die Empfehlung x i {Ja, Nein} abgibt, dann treffe die Entscheidung Ja, falls w i i,x i =Ja i,x i =Nein und ansonsten treffe die Entscheidung Nein. 3. Nach Erhalt der richtigen Entscheidung: Hat Experte i eine falsche Empfehlung abgegeben, dann w i Die Auswahl von Experten Weighted-Majority 15 / 77
37 Weighted-Majority: Die deterministische Variante Es gelte 0 < β < 1 für den Bestrafungsparameter β. 1. Setze w i = 1 für alle Experten i. 2. Wenn Experte i die Empfehlung x i {Ja, Nein} abgibt, dann treffe die Entscheidung Ja, falls w i i,x i =Ja i,x i =Nein und ansonsten treffe die Entscheidung Nein. 3. Nach Erhalt der richtigen Entscheidung: Hat Experte i eine falsche Empfehlung abgegeben, dann bestrafe ihn mit der Setzung w i = β w i. Ansonsten lasse das Gewicht w i unverändert. w i Die Auswahl von Experten Weighted-Majority 15 / 77
38 Analyse (1) Sei W t das Gesamtgewicht aller Experten zu Beginn von Runde t. Dann ist anfänglich W 1 = n. Die Auswahl von Experten Weighted-Majority 16 / 77
39 Analyse (1) Sei W t das Gesamtgewicht aller Experten zu Beginn von Runde t. Dann ist anfänglich W 1 = n. (2) Wenn die Entscheidung in Runde t falsch ist, dann haben sich Experten mit einem Gesamtgewicht von mindestens W t /2 geirrt: Die Auswahl von Experten Weighted-Majority 16 / 77
40 Analyse (1) Sei W t das Gesamtgewicht aller Experten zu Beginn von Runde t. Dann ist anfänglich W 1 = n. (2) Wenn die Entscheidung in Runde t falsch ist, dann haben sich Experten mit einem Gesamtgewicht von mindestens W t /2 geirrt: W t+1 W t 2 + β Wt 2 Die Auswahl von Experten Weighted-Majority 16 / 77
41 Analyse (1) Sei W t das Gesamtgewicht aller Experten zu Beginn von Runde t. Dann ist anfänglich W 1 = n. (2) Wenn die Entscheidung in Runde t falsch ist, dann haben sich Experten mit einem Gesamtgewicht von mindestens W t /2 geirrt: W t+1 W t 2 + β Wt 2 = 1 + β 2 W t. Die Auswahl von Experten Weighted-Majority 16 / 77
42 Analyse (1) Sei W t das Gesamtgewicht aller Experten zu Beginn von Runde t. Dann ist anfänglich W 1 = n. (2) Wenn die Entscheidung in Runde t falsch ist, dann haben sich Experten mit einem Gesamtgewicht von mindestens W t /2 geirrt: W t+1 W t 2 + β Wt 2 = 1 + β 2 W t. (3) Bei f falschen Entscheidungen bis zum Zeitpunkt t, ist W t n ( 1 + β 2 )f. Die Auswahl von Experten Weighted-Majority 16 / 77
43 Analyse (1) Sei W t das Gesamtgewicht aller Experten zu Beginn von Runde t. Dann ist anfänglich W 1 = n. (2) Wenn die Entscheidung in Runde t falsch ist, dann haben sich Experten mit einem Gesamtgewicht von mindestens W t /2 geirrt: W t+1 W t 2 + β Wt 2 = 1 + β 2 W t. (3) Bei f falschen Entscheidungen bis zum Zeitpunkt t, ist W t n ( 1 + β 2 )f. (4) Wenn der beste Experte i bis zum Zeitpunkt t genau f opt Fehler gemacht hat, dann ist w i = β fopt Die Auswahl von Experten Weighted-Majority 16 / 77
44 Analyse (1) Sei W t das Gesamtgewicht aller Experten zu Beginn von Runde t. Dann ist anfänglich W 1 = n. (2) Wenn die Entscheidung in Runde t falsch ist, dann haben sich Experten mit einem Gesamtgewicht von mindestens W t /2 geirrt: W t+1 W t 2 + β Wt 2 = 1 + β 2 W t. (3) Bei f falschen Entscheidungen bis zum Zeitpunkt t, ist W t n ( 1 + β 2 )f. (4) Wenn der beste Experte i bis zum Zeitpunkt t genau f opt Fehler gemacht hat, dann ist w i = β fopt und als Konsequenz β fopt W t n ( 1 + β 2 )f. Die Auswahl von Experten Weighted-Majority 16 / 77
45 Das Resultat Es ist β fopt W t n ( 1+β 2 )f und nach Logarithmierung: f opt log 2 β log 2 n + f log β 2. Die Auswahl von Experten Weighted-Majority 17 / 77
46 Das Resultat Es ist β fopt W t n ( 1+β 2 )f und nach Logarithmierung: f opt log 2 β log 2 n + f log β 2. (a) Sei f opt die Anzahl der Fehlentscheidungen des besten Experten und f die Anzahl der Fehlentscheidungen von Weighted-Majority. (b) Für n Experten und 0 < β < 1 gilt f f 1 opt log 2 β + log 2 n. log β Die Auswahl von Experten Weighted-Majority 17 / 77
47 Das Resultat Es ist β fopt W t n ( 1+β 2 )f und nach Logarithmierung: f opt log 2 β log 2 n + f log β 2. (a) Sei f opt die Anzahl der Fehlentscheidungen des besten Experten und f die Anzahl der Fehlentscheidungen von Weighted-Majority. (b) Für n Experten und 0 < β < 1 gilt f f 1 opt log 2 β + log 2 n. log β Nach logarithmischer Aufwärmzeit wird die Prognosekraft des besten Experten erreicht bis auf den Faktor log 2 ( 1 β )/ log 2 ( 2 1+β ) 2. Die Auswahl von Experten Weighted-Majority 17 / 77
48 Die Methode der Analyse Wir haben die Potentialmethode angewandt: Wir haben beobachtet wie schnell sich das Potential W t im Vergleich zum Gewicht des besten Experten verringert. Die Auswahl von Experten Weighted-Majority 18 / 77
49 Weighted-Majority, die randomisierte Variante Die Auswahl von Experten Randomized Weighted-Majority 19 / 77
50 Weighted-Majority: Wir würfeln Bewerte die komplexe Empfehlung eines Experten i zum Zeitpunkt t mit der Note c t i auf einer Skala von 0 (sehr gut) bis 1 (sehr schlecht). Die Auswahl von Experten Randomized Weighted-Majority 20 / 77
51 Weighted-Majority: Wir würfeln Bewerte die komplexe Empfehlung eines Experten i zum Zeitpunkt t mit der Note c t i auf einer Skala von 0 (sehr gut) bis 1 (sehr schlecht). Unser Algorithmus: 1. Setze w i := 1 für alle Experten i. Setze t := 1 und wähle ε ]0, 1/2[. 2. Wähle den Experten i mit Wahrscheinlichkeit p i = Die Auswahl von Experten Randomized Weighted-Majority 20 / 77
52 Weighted-Majority: Wir würfeln Bewerte die komplexe Empfehlung eines Experten i zum Zeitpunkt t mit der Note c t i auf einer Skala von 0 (sehr gut) bis 1 (sehr schlecht). Unser Algorithmus: 1. Setze w i := 1 für alle Experten i. Setze t := 1 und wähle ε ]0, 1/2[. 2. Wähle den Experten i mit Wahrscheinlichkeit p i = w i n k=1 w k und übernimm seine Entscheidung. 3. Berechne neue Gewichte: Setze w i = Die Auswahl von Experten Randomized Weighted-Majority 20 / 77
53 Weighted-Majority: Wir würfeln Bewerte die komplexe Empfehlung eines Experten i zum Zeitpunkt t mit der Note c t i auf einer Skala von 0 (sehr gut) bis 1 (sehr schlecht). Unser Algorithmus: 1. Setze w i := 1 für alle Experten i. Setze t := 1 und wähle ε ]0, 1/2[. 2. Wähle den Experten i mit Wahrscheinlichkeit p i = w i n k=1 w k und übernimm seine Entscheidung. 3. Berechne neue Gewichte: Setze w i = w i (1 ε c t i ). Setze t := t + 1. Kommentar: Beachte ε c t i [0, 1/2[. Die Auswahl von Experten Randomized Weighted-Majority 20 / 77
54 Analyse (1/3) (1) t sei das Gewicht von Experte i zu Beginn von Runde t. Die Gewichtssumme aller Experten vor Runde t ist W t = n i=1 w t i. Die Auswahl von Experten Randomized Weighted-Majority 21 / 77
55 Analyse (1/3) (1) t sei das Gewicht von Experte i zu Beginn von Runde t. Die Gewichtssumme aller Experten vor Runde t ist W t = n i=1 w t w t i (2) K t = n i=1 W t ci t ist die erwartete Benotung unserer Entscheidung zum Zeitpunkt t. i. Die Auswahl von Experten Randomized Weighted-Majority 21 / 77
56 Analyse (1/3) (1) t sei das Gewicht von Experte i zu Beginn von Runde t. Die Gewichtssumme aller Experten vor Runde t ist W t = n i=1 w t w t i (2) K t = n i=1 W t ci t ist die erwartete Benotung unserer Entscheidung zum Zeitpunkt t. (3) Wie berechnet sich W t+1 aus W t? i. W t+1 = n i=1 w t i (1 ε c t i ) Die Auswahl von Experten Randomized Weighted-Majority 21 / 77
57 Analyse (1/3) (1) t sei das Gewicht von Experte i zu Beginn von Runde t. Die Gewichtssumme aller Experten vor Runde t ist W t = n i=1 w t w t i (2) K t = n i=1 W t ci t ist die erwartete Benotung unserer Entscheidung zum Zeitpunkt t. (3) Wie berechnet sich W t+1 aus W t? i. W t+1 = n i=1 w t i (1 ε c t i ) = n i=1 w t i ε n i=1 w t i c t i Die Auswahl von Experten Randomized Weighted-Majority 21 / 77
58 Analyse (1/3) (1) t sei das Gewicht von Experte i zu Beginn von Runde t. Die Gewichtssumme aller Experten vor Runde t ist W t = n i=1 w t w t i (2) K t = n i=1 W t ci t ist die erwartete Benotung unserer Entscheidung zum Zeitpunkt t. (3) Wie berechnet sich W t+1 aus W t? W t+1 = n i=1 w t i (1 ε c t i ) = = W t ε K t W t n i=1 w t i ε n i=1 w t i c t i i. Die Auswahl von Experten Randomized Weighted-Majority 21 / 77
59 Analyse (1/3) (1) t sei das Gewicht von Experte i zu Beginn von Runde t. Die Gewichtssumme aller Experten vor Runde t ist W t = n i=1 w t w t i (2) K t = n i=1 W t ci t ist die erwartete Benotung unserer Entscheidung zum Zeitpunkt t. (3) Wie berechnet sich W t+1 aus W t? W t+1 = n i=1 w t i (1 ε c t i ) = n i=1 w t i ε = W t ε K t W t = W t (1 ε K t ) n i=1 w t i c t i i. Die Auswahl von Experten Randomized Weighted-Majority 21 / 77
60 Analyse (1/3) (1) t sei das Gewicht von Experte i zu Beginn von Runde t. Die Gewichtssumme aller Experten vor Runde t ist W t = n i=1 w t w t i (2) K t = n i=1 W t ci t ist die erwartete Benotung unserer Entscheidung zum Zeitpunkt t. (3) Wie berechnet sich W t+1 aus W t? W t+1 = n i=1 w t i (1 ε c t i ) = n i=1 w t i ε = W t ε K t W t = W t (1 ε K t ) n i=1 w t i c t i i. Wir expandieren und erhalten W T +1 = W 1 Π T t=1 (1 ε K t). Die Auswahl von Experten Randomized Weighted-Majority 21 / 77
61 Analyse (2/3) Es ist W T +1 = W 1 Π t T (1 ε K t ). Die Auswahl von Experten Randomized Weighted-Majority 22 / 77
62 Analyse (2/3) Es ist W T +1 = W 1 Π t T (1 ε K t ). (4) Beachte log(1 x) x und ln W T +1 = ln W 1 + t T ln(1 ε K t ) Die Auswahl von Experten Randomized Weighted-Majority 22 / 77
63 Analyse (2/3) Es ist W T +1 = W 1 Π t T (1 ε K t ). (4) Beachte log(1 x) x und ln W T +1 = ln W 1 + t T ln(1 ε K t ) ln n t T εk t Die Auswahl von Experten Randomized Weighted-Majority 22 / 77
64 Analyse (2/3) Es ist W T +1 = W 1 Π t T (1 ε K t ). (4) Beachte log(1 x) x und ln W T +1 = ln W 1 + t T ln(1 ε K t ) ln n t T εk t Erhalten wir schlechte Noten, sinkt das Gesamtgewicht. Die Auswahl von Experten Randomized Weighted-Majority 22 / 77
65 Analyse (2/3) Es ist W T +1 = W 1 Π t T (1 ε K t ). (4) Beachte log(1 x) x und ln W T +1 = ln W 1 + t T ln(1 ε K t ) ln n t T εk t Erhalten wir schlechte Noten, sinkt das Gesamtgewicht. (5) Ein Experte mit guter Benotung hingegen stärkt das Gesamtgewicht: Für den Experten i gilt W T +1 w T +1 i = Π t T (1 ε c t i ). Die Auswahl von Experten Randomized Weighted-Majority 22 / 77
66 Analyse (3/3) Es ist W T +1 w T +1 i = Π t T (1 ε ci t) und ln(1 x) x x 2 für x [0, 1/2]. Die Auswahl von Experten Randomized Weighted-Majority 23 / 77
67 Analyse (3/3) Es ist W T +1 w T +1 i = Π t T (1 ε ci t) und ln(1 x) x x 2 für x [0, 1/2]. (6) Nach Logarithmierung folgt wegen 0 ci t 1: ln W T +1 ln(1 ε ci t ) t T Die Auswahl von Experten Randomized Weighted-Majority 23 / 77
68 Analyse (3/3) Es ist W T +1 w T +1 i = Π t T (1 ε ci t) und ln(1 x) x x 2 für x [0, 1/2]. (6) Nach Logarithmierung folgt wegen 0 ci t 1: ln W T +1 ln(1 ε ci t ) (ε ci t + (ε ci t )2 ) t T t T Die Auswahl von Experten Randomized Weighted-Majority 23 / 77
69 Analyse (3/3) Es ist W T +1 w T +1 i = Π t T (1 ε ci t) und ln(1 x) x x 2 für x [0, 1/2]. (6) Nach Logarithmierung folgt wegen 0 ci t 1: ln W T +1 ln(1 ε ci t ) (ε ci t + (ε ci t )2 ) t T t T t T (ε c t i + ε 2 c t i ) Die Auswahl von Experten Randomized Weighted-Majority 23 / 77
70 Analyse (3/3) Es ist W T +1 w T +1 i = Π t T (1 ε ci t) und ln(1 x) x x 2 für x [0, 1/2]. (6) Nach Logarithmierung folgt wegen 0 ci t 1: ln W T +1 ln(1 ε ci t ) (ε ci t + (ε ci t )2 ) t T t T (ε ci t + ε 2 ci t ) = (ε + ε2 ) ci t. t T t T Die Auswahl von Experten Randomized Weighted-Majority 23 / 77
71 Analyse (3/3) Es ist W T +1 w T +1 i = Π t T (1 ε ci t) und ln(1 x) x x 2 für x [0, 1/2]. (6) Nach Logarithmierung folgt wegen 0 ci t 1: ln W T +1 ln(1 ε ci t ) (ε ci t + (ε ci t )2 ) t T t T (ε ci t + ε 2 ci t ) = (ε + ε2 ) ci t. t T t T (7) Wir vergleichen die untere mit der oberen Gewichtsschranke: (ε + ε 2 ) ci t ln W T +1 ln n εk t. t T t T Die Auswahl von Experten Randomized Weighted-Majority 23 / 77
72 Das Ergebnis - Es ist (ε + ε 2 ) t T ct i ln n t T εk t. Die Auswahl von Experten Randomized Weighted-Majority 24 / 77
73 Das Ergebnis - Es ist (ε + ε 2 ) t T ct i ln n t T εk t. - Nach Division durch ε folgt: Die Auswahl von Experten Randomized Weighted-Majority 24 / 77
74 Das Ergebnis - Es ist (ε + ε 2 ) t T ct i ln n t T εk t. - Nach Division durch ε folgt: Wenn K opt die Gesamtbenotung des besten Experten ist und K t die erwartete Benotung unserer Entscheidung in Runde t ist, dann folgt t T K t (1 + ε) K opt + ln n ε. Die Auswahl von Experten Randomized Weighted-Majority 24 / 77
75 Das Ergebnis - Es ist (ε + ε 2 ) t T ct i ln n t T εk t. - Nach Division durch ε folgt: Wenn K opt die Gesamtbenotung des besten Experten ist und K t die erwartete Benotung unserer Entscheidung in Runde t ist, dann folgt t T K t (1 + ε) K opt + ln n ε. - Wir erreichen die Benotung des besten Experten bis auf den Faktor 1 + ε, wenn wir die Aufwärmzeit ln n ε erlauben. Die Auswahl von Experten Randomized Weighted-Majority 24 / 77
76 Weighted-Majority: Weitere Anwendungen 1 Im Lernen monotoner Threshold-Funktionen sign( w, x ) entsprechen die Variablen x i den Experten. Siehe später den Winnow-Algorithmus. 2 AdaBoost implementiert Weighted-Majority. Die Ensemble-Methode baut eine bessere Hypothese aus guten Hypothesen. 3 Der Universal Portfolio Algorithmus von Cover ist eine weitere Implementierung von Weighted-Majority: Portfolios, bestehend aus Finanzanlagen, stehen im Wettbewerb miteinander. Der Markt legt die Gewichte der Portfolios fest. Die Auswahl von Experten Randomized Weighted-Majority 25 / 77
77 Constant Rebalanced Portfolios, Der Universal Portfolio Algorithmus Die Auswahl von Experten Der Universal Portfolio Algorithmus 26 / 77
78 Constant Rebalanced Portfolio: Die CRP-Methode Ein Vermögen wird über mehrere Anlagezeitpunkte auf m Anlagemöglichkeiten verteilt: Anlage i erhält stets den Anteil p i. Die Auswahl von Experten Der Universal Portfolio Algorithmus 27 / 77
79 Constant Rebalanced Portfolio: Die CRP-Methode Ein Vermögen wird über mehrere Anlagezeitpunkte auf m Anlagemöglichkeiten verteilt: Anlage i erhält stets den Anteil p i. Zwei Aktien mit p 1 = p 2 = 0.5: Die erste Aktie bewegt sich nicht, während sich die zweite Aktie stets erst halbiert und dann verdoppelt. Das Vermögen nach einem Anlagezeitpunkt Die Auswahl von Experten Der Universal Portfolio Algorithmus 27 / 77
80 Constant Rebalanced Portfolio: Die CRP-Methode Ein Vermögen wird über mehrere Anlagezeitpunkte auf m Anlagemöglichkeiten verteilt: Anlage i erhält stets den Anteil p i. Zwei Aktien mit p 1 = p 2 = 0.5: Die erste Aktie bewegt sich nicht, während sich die zweite Aktie stets erst halbiert und dann verdoppelt. Das Vermögen nach einem Anlagezeitpunkt sinkt auf V (1/2 + (1/2) (1/2)) Die Auswahl von Experten Der Universal Portfolio Algorithmus 27 / 77
81 Constant Rebalanced Portfolio: Die CRP-Methode Ein Vermögen wird über mehrere Anlagezeitpunkte auf m Anlagemöglichkeiten verteilt: Anlage i erhält stets den Anteil p i. Zwei Aktien mit p 1 = p 2 = 0.5: Die erste Aktie bewegt sich nicht, während sich die zweite Aktie stets erst halbiert und dann verdoppelt. Das Vermögen nach einem Anlagezeitpunkt sinkt auf V (1/2 + (1/2) (1/2)) = 3 V /4 und steigt nach dem zweiten Anlagezeitpunkt auf V (3/ /8) Die Auswahl von Experten Der Universal Portfolio Algorithmus 27 / 77
82 Constant Rebalanced Portfolio: Die CRP-Methode Ein Vermögen wird über mehrere Anlagezeitpunkte auf m Anlagemöglichkeiten verteilt: Anlage i erhält stets den Anteil p i. Zwei Aktien mit p 1 = p 2 = 0.5: Die erste Aktie bewegt sich nicht, während sich die zweite Aktie stets erst halbiert und dann verdoppelt. Das Vermögen nach einem Anlagezeitpunkt sinkt auf V (1/2 + (1/2) (1/2)) = 3 V /4 und steigt nach dem zweiten Anlagezeitpunkt auf V (3/ /8) = 9 V /8. Vor dem Anlagetermin 2n + 1 ist das Vermögen damit exponentiell auf ( 9 8 )n V angewachsen! Die Auswahl von Experten Der Universal Portfolio Algorithmus 27 / 77
83 Der Universal Portfolio Algorithmus - Welche Verteilung p (über die verschiedenen Anlagemöglichkeiten) sollte gewählt werden? Die Auswahl von Experten Der Universal Portfolio Algorithmus 28 / 77
84 Der Universal Portfolio Algorithmus - Welche Verteilung p (über die verschiedenen Anlagemöglichkeiten) sollte gewählt werden? - Risiko-Minimierung: Der Universal Portfolio Algorithmus versucht die erwartete Vermögensentwickung des CRP-Ansatzes zu erreichen. Die Auswahl von Experten Der Universal Portfolio Algorithmus 28 / 77
85 Der Universal Portfolio Algorithmus - Welche Verteilung p (über die verschiedenen Anlagemöglichkeiten) sollte gewählt werden? - Risiko-Minimierung: Der Universal Portfolio Algorithmus versucht die erwartete Vermögensentwickung des CRP-Ansatzes zu erreichen. - Arbeiten mit N charakteristischen Verteilungen. - Zu jedem Anlagezeitpunkt: Rebalanciere ein Portfolio nach seiner Verteilung. - Gelder dürfen nicht zwischen Portfolios transferiert werden. Die Auswahl von Experten Der Universal Portfolio Algorithmus 28 / 77
86 Der Universal Portfolio Algorithmus - Welche Verteilung p (über die verschiedenen Anlagemöglichkeiten) sollte gewählt werden? - Risiko-Minimierung: Der Universal Portfolio Algorithmus versucht die erwartete Vermögensentwickung des CRP-Ansatzes zu erreichen. - Arbeiten mit N charakteristischen Verteilungen. - Zu jedem Anlagezeitpunkt: Rebalanciere ein Portfolio nach seiner Verteilung. - Gelder dürfen nicht zwischen Portfolios transferiert werden. Der Universal Portfolio Algorithmus und Weighted-Majority - Anfänglich erhält jedes der N Portfolios das Gewicht V N. - Der Markt akualisiert die Gewichte. - Die Gewichte geben den Erfolg wieder. Die Auswahl von Experten Der Universal Portfolio Algorithmus 28 / 77
87 Wie gut ist der Universal Portfolio Algorithmus? Es möge m Anlagemöglichkeiten und n Anlageperioden geben. Die Auswahl von Experten Der Universal Portfolio Algorithmus 29 / 77
88 Wie gut ist der Universal Portfolio Algorithmus? Es möge m Anlagemöglichkeiten und n Anlageperioden geben. opt n sei das Vermögen des besten Portfolios und e n das erwartete Vermögen nach n Anlageperioden = e n opt n (n + 1) m 1. Die Auswahl von Experten Der Universal Portfolio Algorithmus 29 / 77
89 Wie gut ist der Universal Portfolio Algorithmus? Es möge m Anlagemöglichkeiten und n Anlageperioden geben. opt n sei das Vermögen des besten Portfolios und e n das erwartete Vermögen nach n Anlageperioden = e n opt n (n + 1) m 1. - Für n >> m ist der durchschnittliche relative Verlustfaktor pro Anlageperiode (gegenüber der optimalen Strategie) höchstens ( (n + 1) m 1 ) 1/n Die Auswahl von Experten Der Universal Portfolio Algorithmus 29 / 77
90 Wie gut ist der Universal Portfolio Algorithmus? Es möge m Anlagemöglichkeiten und n Anlageperioden geben. opt n sei das Vermögen des besten Portfolios und e n das erwartete Vermögen nach n Anlageperioden = e n opt n (n + 1) m 1. - Für n >> m ist der durchschnittliche relative Verlustfaktor pro Anlageperiode (gegenüber der optimalen Strategie) höchstens ( (n + 1) m 1 ) 1/n ( n m 1 ) 1/n Die Auswahl von Experten Der Universal Portfolio Algorithmus 29 / 77
91 Wie gut ist der Universal Portfolio Algorithmus? Es möge m Anlagemöglichkeiten und n Anlageperioden geben. opt n sei das Vermögen des besten Portfolios und e n das erwartete Vermögen nach n Anlageperioden = e n opt n (n + 1) m 1. - Für n >> m ist der durchschnittliche relative Verlustfaktor pro Anlageperiode (gegenüber der optimalen Strategie) höchstens ( (n + 1) m 1 ) 1/n ( n m 1 ) 1/n = n (m 1)/n Die Auswahl von Experten Der Universal Portfolio Algorithmus 29 / 77
92 Wie gut ist der Universal Portfolio Algorithmus? Es möge m Anlagemöglichkeiten und n Anlageperioden geben. opt n sei das Vermögen des besten Portfolios und e n das erwartete Vermögen nach n Anlageperioden = e n opt n (n + 1) m 1. - Für n >> m ist der durchschnittliche relative Verlustfaktor pro Anlageperiode (gegenüber der optimalen Strategie) höchstens ( (n + 1) m 1 ) 1/n ( n m 1 ) 1/n = n (m 1)/n = 2 (m 1) log 2 n n Die Auswahl von Experten Der Universal Portfolio Algorithmus 29 / 77
93 Wie gut ist der Universal Portfolio Algorithmus? Es möge m Anlagemöglichkeiten und n Anlageperioden geben. opt n sei das Vermögen des besten Portfolios und e n das erwartete Vermögen nach n Anlageperioden = e n opt n (n + 1) m 1. - Für n >> m ist der durchschnittliche relative Verlustfaktor pro Anlageperiode (gegenüber der optimalen Strategie) höchstens ( (n + 1) m 1 ) 1/n ( n m 1 ) 1/n = n (m 1)/n = 2 (m 1) log 2 n n 1. Die Auswahl von Experten Der Universal Portfolio Algorithmus 29 / 77
94 Wie gut ist der Universal Portfolio Algorithmus? Es möge m Anlagemöglichkeiten und n Anlageperioden geben. opt n sei das Vermögen des besten Portfolios und e n das erwartete Vermögen nach n Anlageperioden = e n opt n (n + 1) m 1. - Für n >> m ist der durchschnittliche relative Verlustfaktor pro Anlageperiode (gegenüber der optimalen Strategie) höchstens ( (n + 1) m 1 ) 1/n ( n m 1 ) 1/n = n (m 1)/n = 2 (m 1) log 2 n n 1. - Wächst die optimale CRP-Strategie um den Faktor a n n für a n > 1, dann wächst das erwartete Vermögen um den Faktor b n n mit b n > 1 und lim n a n = lim n b n. Was passiert nach Steuern und Gebühren? Die Auswahl von Experten Der Universal Portfolio Algorithmus 29 / 77
95 Der Winnow-Algorithmus für Disjunktionen Die Auswahl von Experten Der Winnow Algorithmus 30 / 77
96 Der Winnow Algorithmus für monotone Disjunktionen (1) Setze t = n 2 und w 1 = = w n = 1. Die Mehrheitsfunktion m(x 1,..., x n ) = 1 x i = w i x i t = n 2 wird als Anfangshypothese verwendet. Die Auswahl von Experten Der Winnow Algorithmus 31 / 77
97 Der Winnow Algorithmus für monotone Disjunktionen (1) Setze t = n 2 und w 1 = = w n = 1. Die Mehrheitsfunktion m(x 1,..., x n ) = 1 x i = w i x i t = n 2 wird als Anfangshypothese verwendet. (2) Wiederhole, solange es Gegenbeispiele gibt. Wenn x ein positives Gegenbeispiel ist: Die Auswahl von Experten Der Winnow Algorithmus 31 / 77
98 Der Winnow Algorithmus für monotone Disjunktionen (1) Setze t = n 2 und w 1 = = w n = 1. Die Mehrheitsfunktion m(x 1,..., x n ) = 1 x i = w i x i t = n 2 wird als Anfangshypothese verwendet. (2) Wiederhole, solange es Gegenbeispiele gibt. Wenn x ein positives Gegenbeispiel ist: Verdopple wi, falls x i = 1. /* x i könnte ein relevantes Attribut sein. */ Die Auswahl von Experten Der Winnow Algorithmus 31 / 77
99 Der Winnow Algorithmus für monotone Disjunktionen (1) Setze t = n 2 und w 1 = = w n = 1. Die Mehrheitsfunktion m(x 1,..., x n ) = 1 x i = w i x i t = n 2 wird als Anfangshypothese verwendet. (2) Wiederhole, solange es Gegenbeispiele gibt. Wenn x ein positives Gegenbeispiel ist: Verdopple wi, falls x i = 1. /* x i könnte ein relevantes Attribut sein. */ Wenn x ein negatives Gegenbeispiel ist: Die Auswahl von Experten Der Winnow Algorithmus 31 / 77
100 Der Winnow Algorithmus für monotone Disjunktionen (1) Setze t = n 2 und w 1 = = w n = 1. Die Mehrheitsfunktion m(x 1,..., x n ) = 1 x i = w i x i t = n 2 wird als Anfangshypothese verwendet. (2) Wiederhole, solange es Gegenbeispiele gibt. Wenn x ein positives Gegenbeispiel ist: Verdopple wi, falls x i = 1. /* x i könnte ein relevantes Attribut sein. */ Wenn x ein negatives Gegenbeispiel ist: Setze wi = 0, falls x i = 1. /* Das nicht relevante Attribut x i wird eliminiert. */ Die Auswahl von Experten Der Winnow Algorithmus 31 / 77
101 Die Analyse (1/3) b + und b sind die Anzahlen positiver und negativer Gegenbeispiele. Dann ist n + b + t b t 0. Die Auswahl von Experten Der Winnow Algorithmus 32 / 77
102 Die Analyse (1/3) b + und b sind die Anzahlen positiver und negativer Gegenbeispiele. Dann ist n + b + t b t 0. (1) Bei einem positiven Gegenbeispiel wird das Gesamtgewicht der zu positiven Literalen gehörenden Gewichte verdoppelt. Die Auswahl von Experten Der Winnow Algorithmus 32 / 77
103 Die Analyse (1/3) b + und b sind die Anzahlen positiver und negativer Gegenbeispiele. Dann ist n + b + t b t 0. (1) Bei einem positiven Gegenbeispiel wird das Gesamtgewicht der zu positiven Literalen gehörenden Gewichte verdoppelt. Aber deren Gesamtgewicht hat t nicht erreicht: Ein positives Gegenbeispiel erhöht das Gesamtgewicht um höchstens t. Die Auswahl von Experten Der Winnow Algorithmus 32 / 77
104 Die Analyse (1/3) b + und b sind die Anzahlen positiver und negativer Gegenbeispiele. Dann ist n + b + t b t 0. (1) Bei einem positiven Gegenbeispiel wird das Gesamtgewicht der zu positiven Literalen gehörenden Gewichte verdoppelt. Aber deren Gesamtgewicht hat t nicht erreicht: Ein positives Gegenbeispiel erhöht das Gesamtgewicht um höchstens t. (2) Ein Bestrafungsschritt erniedrigt das Gesamtgewicht um mindestens t. Die Auswahl von Experten Der Winnow Algorithmus 32 / 77
105 Die Analyse (1/3) b + und b sind die Anzahlen positiver und negativer Gegenbeispiele. Dann ist n + b + t b t 0. (1) Bei einem positiven Gegenbeispiel wird das Gesamtgewicht der zu positiven Literalen gehörenden Gewichte verdoppelt. Aber deren Gesamtgewicht hat t nicht erreicht: Ein positives Gegenbeispiel erhöht das Gesamtgewicht um höchstens t. (2) Ein Bestrafungsschritt erniedrigt das Gesamtgewicht um mindestens t. (3) Das anfängliche Gesamtgewicht beträgt n und n + b + t b t ist eine obere Schranke für das aktuelle Gesamtgewicht. Die Auswahl von Experten Der Winnow Algorithmus 32 / 77
106 Die Analyse (1/3) b + und b sind die Anzahlen positiver und negativer Gegenbeispiele. Dann ist n + b + t b t 0. (1) Bei einem positiven Gegenbeispiel wird das Gesamtgewicht der zu positiven Literalen gehörenden Gewichte verdoppelt. Aber deren Gesamtgewicht hat t nicht erreicht: Ein positives Gegenbeispiel erhöht das Gesamtgewicht um höchstens t. (2) Ein Bestrafungsschritt erniedrigt das Gesamtgewicht um mindestens t. (3) Das anfängliche Gesamtgewicht beträgt n und n + b + t b t ist eine obere Schranke für das aktuelle Gesamtgewicht. (4) Die Behauptung folgt: Das Gesamtgewicht ist stets nicht-negativ. Die Auswahl von Experten Der Winnow Algorithmus 32 / 77
107 Die Analyse (2/3) Das Zielkonzept besitze genau k Literale. Warum ist die Anzahl positiver Gegenbeispiele klein? Die Auswahl von Experten Der Winnow Algorithmus 33 / 77
108 Die Analyse (2/3) Das Zielkonzept besitze genau k Literale. Warum ist die Anzahl positiver Gegenbeispiele klein? (1) Für jedes Gewicht w i gilt stets w i 2t: Die Auswahl von Experten Der Winnow Algorithmus 33 / 77
109 Die Analyse (2/3) Das Zielkonzept besitze genau k Literale. Warum ist die Anzahl positiver Gegenbeispiele klein? (1) Für jedes Gewicht w i gilt stets w i 2t: Ein Gewicht w i mit w i t nimmt nie an einem Belohnungsschritt teil. Die Auswahl von Experten Der Winnow Algorithmus 33 / 77
110 Die Analyse (2/3) Das Zielkonzept besitze genau k Literale. Warum ist die Anzahl positiver Gegenbeispiele klein? (1) Für jedes Gewicht w i gilt stets w i 2t: Ein Gewicht w i mit w i t nimmt nie an einem Belohnungsschritt teil. (2) Nach b + positiven Gegenbeispielen gibt es i mit log 2 w i b+ k. Jedes positive Gegenbeispiel verdoppelt das Gewicht von mindestens einem der k Literale des Zielkonzepts. Die Auswahl von Experten Der Winnow Algorithmus 33 / 77
111 Die Analyse (2/3) Das Zielkonzept besitze genau k Literale. Warum ist die Anzahl positiver Gegenbeispiele klein? (1) Für jedes Gewicht w i gilt stets w i 2t: Ein Gewicht w i mit w i t nimmt nie an einem Belohnungsschritt teil. (2) Nach b + positiven Gegenbeispielen gibt es i mit log 2 w i b+ k. Jedes positive Gegenbeispiel verdoppelt das Gewicht von mindestens einem der k Literale des Zielkonzepts. Kein Literal des Zielkonzepts wird je bestraft: Es gilt w i 2 b+/k für mindestens ein Literal x i des Zielkonzepts. Die Auswahl von Experten Der Winnow Algorithmus 33 / 77
112 Die Analyse (2/3) Das Zielkonzept besitze genau k Literale. Warum ist die Anzahl positiver Gegenbeispiele klein? (1) Für jedes Gewicht w i gilt stets w i 2t: Ein Gewicht w i mit w i t nimmt nie an einem Belohnungsschritt teil. (2) Nach b + positiven Gegenbeispielen gibt es i mit log 2 w i b+ k. Jedes positive Gegenbeispiel verdoppelt das Gewicht von mindestens einem der k Literale des Zielkonzepts. Kein Literal des Zielkonzepts wird je bestraft: Es gilt w i 2 b+/k für mindestens ein Literal x i des Zielkonzepts. (3) Es gibt ein Literal x i mit b + k log 2 w i log 2 t + 1. Die Auswahl von Experten Der Winnow Algorithmus 33 / 77
113 Die Analyse (3/3) Was wissen wir? Es ist n + b + t b t 0. Es gibt ein Literal x i mit b+ k log 2 w i log 2 t + 1. Die Auswahl von Experten Der Winnow Algorithmus 34 / 77
114 Die Analyse (3/3) Was wissen wir? Es ist n + b + t b t 0. Es gibt ein Literal x i mit b+ k log 2 w i log 2 t + 1. (1) Also ist b + k (log 2 t + 1). Es gibt höchstens k (log 2 t + 1) positive Gegenbeispiele. Die Auswahl von Experten Der Winnow Algorithmus 34 / 77
115 Die Analyse (3/3) Was wissen wir? Es ist n + b + t b t 0. Es gibt ein Literal x i mit b+ k log 2 w i log 2 t + 1. (1) Also ist b + k (log 2 t + 1). Es gibt höchstens k (log 2 t + 1) positive Gegenbeispiele. (2) Wieviele negative Gegenbeispiele kann es geben? Die Auswahl von Experten Der Winnow Algorithmus 34 / 77
116 Die Analyse (3/3) Was wissen wir? Es ist n + b + t b t 0. Es gibt ein Literal x i mit b+ k log 2 w i log 2 t + 1. (1) Also ist b + k (log 2 t + 1). Es gibt höchstens k (log 2 t + 1) positive Gegenbeispiele. (2) Wieviele negative Gegenbeispiele kann es geben? Es ist b n t + b + Die Auswahl von Experten Der Winnow Algorithmus 34 / 77
117 Die Analyse (3/3) Was wissen wir? Es ist n + b + t b t 0. Es gibt ein Literal x i mit b+ k log 2 w i log 2 t + 1. (1) Also ist b + k (log 2 t + 1). Es gibt höchstens k (log 2 t + 1) positive Gegenbeispiele. (2) Wieviele negative Gegenbeispiele kann es geben? Es ist b n t + b + n t + k (log 2 t + 1) Die Auswahl von Experten Der Winnow Algorithmus 34 / 77
118 Die Analyse (3/3) Was wissen wir? Es ist n + b + t b t 0. Es gibt ein Literal x i mit b+ k log 2 w i log 2 t + 1. (1) Also ist b + k (log 2 t + 1). Es gibt höchstens k (log 2 t + 1) positive Gegenbeispiele. (2) Wieviele negative Gegenbeispiele kann es geben? Es ist b n t + b + n t + k (log 2 t + 1) = 2 + k log 2 n. Die Auswahl von Experten Der Winnow Algorithmus 34 / 77
119 Die Analyse (3/3) Was wissen wir? Es ist n + b + t b t 0. Es gibt ein Literal x i mit b+ k log 2 w i log 2 t + 1. (1) Also ist b + k (log 2 t + 1). Es gibt höchstens k (log 2 t + 1) positive Gegenbeispiele. (2) Wieviele negative Gegenbeispiele kann es geben? Es ist b n t + b + n t + k (log 2 t + 1) = 2 + k log 2 n. Die Anzahl der Gegenbeispiele ist durch 2 + 2k log 2 n beschränkt. Die Auswahl von Experten Der Winnow Algorithmus 34 / 77
120 Weitere Anwendungen Annahme: Alle Beispiele liegen in {0, 1} n. Die Auswahl von Experten Weitere Anwendungen 35 / 77
121 Weitere Anwendungen Annahme: Alle Beispiele liegen in {0, 1} n. (1) Allgemeine Disjunktionen (und Monome) mit k Literalen können nach höchstens O(k log 2 n) Gegenbeispielen gelernt werden. Die Auswahl von Experten Weitere Anwendungen 35 / 77
122 Weitere Anwendungen Annahme: Alle Beispiele liegen in {0, 1} n. (1) Allgemeine Disjunktionen (und Monome) mit k Literalen können nach höchstens O(k log 2 n) Gegenbeispielen gelernt werden. Durch das Hinzufügen der n neuen Literale x 1,..., x n (mit x i = x i ) werden nicht-monotone Disjunktionen zu monotonen Disjunktionen. Die Auswahl von Experten Weitere Anwendungen 35 / 77
123 Weitere Anwendungen Annahme: Alle Beispiele liegen in {0, 1} n. (1) Allgemeine Disjunktionen (und Monome) mit k Literalen können nach höchstens O(k log 2 n) Gegenbeispielen gelernt werden. Durch das Hinzufügen der n neuen Literale x 1,..., x n (mit x i = x i ) werden nicht-monotone Disjunktionen zu monotonen Disjunktionen. Das Lernen von Monomen ist äquivalent zum Lernen ihrer Negationen, nämlich der Disjunktionen. Die Auswahl von Experten Weitere Anwendungen 35 / 77
124 Weitere Anwendungen Annahme: Alle Beispiele liegen in {0, 1} n. (1) Allgemeine Disjunktionen (und Monome) mit k Literalen können nach höchstens O(k log 2 n) Gegenbeispielen gelernt werden. Durch das Hinzufügen der n neuen Literale x 1,..., x n (mit x i = x i ) werden nicht-monotone Disjunktionen zu monotonen Disjunktionen. Das Lernen von Monomen ist äquivalent zum Lernen ihrer Negationen, nämlich der Disjunktionen. (2) DNFs mit höchstens k Literalen pro Monom und höchstens s Monomen werden nach höchstens O(s k log 2 n) Gegenbeispielen gelernt. Die Auswahl von Experten Weitere Anwendungen 35 / 77
125 Weitere Anwendungen Annahme: Alle Beispiele liegen in {0, 1} n. (1) Allgemeine Disjunktionen (und Monome) mit k Literalen können nach höchstens O(k log 2 n) Gegenbeispielen gelernt werden. Durch das Hinzufügen der n neuen Literale x 1,..., x n (mit x i = x i ) werden nicht-monotone Disjunktionen zu monotonen Disjunktionen. Das Lernen von Monomen ist äquivalent zum Lernen ihrer Negationen, nämlich der Disjunktionen. (2) DNFs mit höchstens k Literalen pro Monom und höchstens s Monomen werden nach höchstens O(s k log 2 n) Gegenbeispielen gelernt. Benutze statt Eingabe x = (x1,..., x n ) das Ergebnis von x auf allen N = O((2n) k ) möglichen Monomen mit k Literalen. Die Auswahl von Experten Weitere Anwendungen 35 / 77
126 Weitere Anwendungen Annahme: Alle Beispiele liegen in {0, 1} n. (1) Allgemeine Disjunktionen (und Monome) mit k Literalen können nach höchstens O(k log 2 n) Gegenbeispielen gelernt werden. Durch das Hinzufügen der n neuen Literale x 1,..., x n (mit x i = x i ) werden nicht-monotone Disjunktionen zu monotonen Disjunktionen. Das Lernen von Monomen ist äquivalent zum Lernen ihrer Negationen, nämlich der Disjunktionen. (2) DNFs mit höchstens k Literalen pro Monom und höchstens s Monomen werden nach höchstens O(s k log 2 n) Gegenbeispielen gelernt. Benutze statt Eingabe x = (x1,..., x n ) das Ergebnis von x auf allen N = O((2n) k ) möglichen Monomen mit k Literalen. Ist das Zielkonzept eine Disjunktion von s Monomen, benötigt Winnow nur O(s log 2 ((2n) k )) = O(s k log 2 n) Gegenbeispiele. Die Auswahl von Experten Weitere Anwendungen 35 / 77
127 Diskussion - Für die Konzeptklasse k-dnf n werden höchstens O(s k log 2 n) Gegenbeispielen benötigt, falls das Zielkonzept nur aus s Monomen besteht. - Allerdings muss die Laufzeit n O(k) investiert werdenen, da alle Monome mit höchstens k Literalen als neue Eingaben auftreten. Die Auswahl von Experten Weitere Anwendungen 36 / 77
128 Diskussion - Für die Konzeptklasse k-dnf n werden höchstens O(s k log 2 n) Gegenbeispielen benötigt, falls das Zielkonzept nur aus s Monomen besteht. - Allerdings muss die Laufzeit n O(k) investiert werdenen, da alle Monome mit höchstens k Literalen als neue Eingaben auftreten. Der Versuch einer weitreichenden Verallgemeinerung: Lerne eine unbekannte, monotone Threshold-Funktion sign( mit nicht-negativen Koeffizienten. n w i x i ) i=1 Die Auswahl von Experten Weitere Anwendungen 36 / 77
129 Threshold-Funktionen sign( n i=1 w ix i + t) Threshold-Funktionen 37 / 77
130 Analytische Geometrie (1/2) 1. (Vektornotation) Für w = (w 1,..., w n ), x = (x 1,..., x n ) R n gilt w, x := w T x = n w i x i. i=1 2. H w,t := {x : w, x + t = 0} ist eine Hyperebene. Threshold-Funktionen Analytische Geometrie 38 / 77
131 Analytische Geometrie (1/2) 1. (Vektornotation) Für w = (w 1,..., w n ), x = (x 1,..., x n ) R n gilt w, x := w T x = n w i x i. i=1 2. H w,t := {x : w, x + t = 0} ist eine Hyperebene. 3. Eine Drehung des R n wird durch eine orthogonale Matrix A beschrieben: Es ist A T A = Id. Threshold-Funktionen Analytische Geometrie 38 / 77
132 Analytische Geometrie (1/2) 1. (Vektornotation) Für w = (w 1,..., w n ), x = (x 1,..., x n ) R n gilt w, x := w T x = n w i x i. i=1 2. H w,t := {x : w, x + t = 0} ist eine Hyperebene. 3. Eine Drehung des R n wird durch eine orthogonale Matrix A beschrieben: Es ist A T A = Id. 4. Eine Konsequenz: A x, A y = x T A T A y = x, y. Threshold-Funktionen Analytische Geometrie 38 / 77
Online Lernen: Die Themen
Online Lernen: Die Themen (a) Das Online-Spiel: In jeder Runde präsentiert ein Lehrer ein Beispiel, das ein Schüler klassifiziert. Nach wie vielen Runden hat der Schüler das unbekannte Zielkonzept gelernt?
MehrVon schwachen zu starken Lernern
Von schwachen zu starken Lernern Wir nehmen an, dass ein schwacher Lernalgorithmus L mit vielen Beispielen, aber großem Fehler ε = 1 2 θ gegeben ist. - Wie lässt sich der Verallgemeinerungsfehler ε von
MehrComputational Learning Theory. Sommersemester 2018
Computational Learning Theory Sommersemester 2018 Prof. Dr. Georg Schnitger AG Theoretische Informatik Goethe-Universität Frankfurt am Main 1 / 163 Computational Learning Theory Sommersemester 2018 Prof.
MehrGrundlagen des Maschinellen Lernens Kapitel 4: PAC Lernen
Kapitel 4:. Motivation 2. Lernmodelle Teil I 2.. Lernen im Limes 2.2. Fallstudie: Lernen von Patternsprachen 3. Lernverfahren in anderen Domänen 3.. Automatensynthese 3.2. Entscheidungsbäume 3.3. Entscheidungsbäume
MehrTheoretische Informatik 1
Theoretische Informatik 1 Teil 12 Bernhard Nessler Institut für Grundlagen der Informationsverabeitung TU Graz SS 2007 Übersicht 1 Maschinelles Lernen Definition Lernen 2 agnostic -learning Definition
MehrTheoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme
Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien
MehrLernen mit Queries. Hans Kleine Büning Institut für Informatik, Universität Paderborn Paderborn (Germany),
Lernen mit Queries Hans Kleine Büning Institut für Informatik, Universität Paderborn 33095 Paderborn (Germany), E-mail: kbcsl @upb.de November 2007 1 Einführung In diesem Abschnitt beschreiben wir kurz,
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am..03 Randomisierte Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 7. Dezember 2017 INSTITUT FÜR THEORETISCHE 0 07.12.2017 Dorothea Wagner - Theoretische Grundlagen der Informatik INSTITUT FÜR THEORETISCHE KIT Die Forschungsuniversität
MehrGrundlagen des Maschinellen Lernens Kap. 4: Lernmodelle Teil II
1. Motivation 2. Lernmodelle Teil I 2.1. Lernen im Limes 2.2. Fallstudie: Lernen von Patternsprachen 3. Lernverfahren in anderen Domänen 3.1. Automatensynthese 3.2. Entscheidungsbäume 3.3. Entscheidungsbäume
MehrApproximationsalgorithmen für NP-harte Optimierungsprobleme
Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1 / 18 Was tun mit NP-harten Problemen? Viele praxisrelevante
MehrApproximationsalgorithmen
Effiziente Algorithmen Lösen NP-vollständiger Probleme 320 Approximationsalgorithmen In polynomieller Zeit lässen sich nicht exakte Lösungen von NP-harten Problemen berechnen. Approximationsalgorithmen
MehrApproximationsalgorithmen für NP-harte Optimierungsprobleme
Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 4. Januar 2011 Berthold Vöcking, Informatik 1 () Vorlesung
MehrApproximationsalgorithmen. 19. Dezember / 28
Approximationsalgorithmen 19. Dezember 2017 1 / 28 Optimierungsprobleme Das Ziel: Bearbeite schwierige Optimierungsprobleme der Form opt y f (x, y) so dass L(x, y). Die Zielfunktion f (x, y) ist zu minimieren
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am 17.01.013 Parametrisierte Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales
Mehr5 Zwei spieltheoretische Aspekte
5 Zwei spieltheoretische Aspekte In diesem Kapitel wollen wir uns mit dem algorithmischen Problem beschäftigen, sogenannte Und-Oder-Bäume (kurz UOB) auszuwerten. Sie sind ein Spezialfall von Spielbäumen,
MehrHerzlich willkommen!!!
Computational Learning Theory Sommersemester 2017 Prof. Dr. Georg Schnitger AG Theoretische Informatik Goethe-Universität Frankfurt am Main Herzlich willkommen!!! 1 / 159 Einführung Einführung 2 / 159
MehrRucksackproblem und Verifizierbarkeit
Rucksackproblem und Verifizierbarkeit Gegeben: n Gegenstände mit Gewichten G={g 1,g 2,,g n } und Werten W={w 1,w 2,,w n } sowie zulässiges Gesamtgewicht g. Gesucht: Teilmenge S {1,,n} mit i i S unter der
Mehr1. Musterlösung. Problem 1: Average-case-Laufzeit vs. Worst-case-Laufzeit ** i=1
Universität Karlsruhe Algorithmentechnik Fakultät für Informatik WS 05/06 ITI Wagner. Musterlösung Problem : Average-case-Laufzeit vs. Worst-case-Laufzeit ** (a) Im schlimmsten Fall werden für jedes Element
MehrÜBUNGSKLAUSUR Studienhalbjahr: 2. Semester. Datum: 20. Juli 2016 Bearbeitungszeit: 90 Minuten. Modul: T2INF Dozent: Stephan Schulz
Matrikelnummer: Fakultät Studiengang: Jahrgang / Kurs : Technik Angewandte Informatik 01 B/C/K ÜBUNGSKLAUSUR Studienhalbjahr:. Semester Datum: 0. Juli 01 Bearbeitungszeit: 90 Minuten Modul: TINF100.1 Dozent:
MehrPerlen der Informatik I Wintersemester 2012 Aufgabenblatt 7
Technische Universität München WS 2012 Institut für Informatik Prof. Dr. H.-J. Bungartz Prof. Dr. T. Huckle Prof. Dr. M. Bader Kristof Unterweger Perlen der Informatik I Wintersemester 2012 Aufgabenblatt
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 16.11.2010 INSTITUT FÜR THEORETISCHE INFORMATIK 0 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft
MehrModerne Methoden der KI: Maschinelles Lernen
Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Sommer-Semester 2008 Konzept-Lernen Konzept-Lernen Lernen als Suche Inductive Bias Konzept-Lernen: Problemstellung Ausgangspunkt:
MehrZeitkomplexität (1) Proseminar Theoretische Informatik. Proseminar Theoretische Informatik: Lisa Dohrmann 1
Zeitkomplexität (1) Proseminar Theoretische Informatik Proseminar Theoretische Informatik: Lisa Dohrmann 1 Warum Komplexitätsbetrachtung? Ein im Prinzip entscheidbares und berechenbares Problem kann in
MehrEinige Grundlagen der Komplexitätstheorie
Deterministische Polynomialzeit Einige Grundlagen der Komplexitätstheorie Ziel: NP-Vollständigkeit als ressourcenbeschränktes Analagon zur RE-Vollständigkeit. Komplexitätstheorie untersucht den Ressourcenbedarf
MehrEinführung in Berechenbarkeit, Komplexität und Formale Sprachen
Einführung in Berechenbarkeit, Komplexität und Formale Sprachen V17, 10.12.09 Willkommen zur Vorlesung Einführung in Berechenbarkeit, Komplexität und Formale Sprachen Friedhelm Meyer auf der Heide 1 Rückblick:
Mehrε δ Definition der Stetigkeit.
ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x
MehrFerien-Übungsblatt 8 Lösungsvorschläge
Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Ferien-Übungsblatt 8 Lösungsvorschläge Vorlesung Algorithmentechnik im WS 09/10 Problem 1: Probabilistische Komplexitätsklassen [vgl.
MehrÜbung zur Vorlesung Berechenbarkeit und Komplexität
RWTH Aachen Lehrgebiet Theoretische Informatik Reidl Ries Rossmanith Sanchez Tönnis WS 2012/13 Übungsblatt 7 26.11.2012 Übung zur Vorlesung Berechenbarkeit und Komplexität Aufgabe T15 Entwickeln Sie ein
MehrTableaukalkül für Aussagenlogik
Tableaukalkül für Aussagenlogik Tableau: Test einer Formel auf Widersprüchlichkeit Fallunterscheidung baumförmig organisiert Keine Normalisierung, d.h. alle Formeln sind erlaubt Struktur der Formel wird
Mehr1. Welche Eigenschaften sollte ein Pseudo-Random Generator haben?
Die Themen 1. Welche Eigenschaften sollte ein Pseudo-Random Generator haben? Er sollte von wirklichen Zufallsgeneratoren nicht unterscheidbar sein?! Eine viel zu starke Forderung: Stattdessen sollte ein
MehrEffiziente Algorithmen (SS2015)
Effiziente Algorithmen (SS205) Kapitel 5 Approximation II Walter Unger Lehrstuhl für Informatik 2.06.205 07:59 5 Inhaltsverzeichnis < > Walter Unger 5.7.205 :3 SS205 Z Inhalt I Set Cover Einleitung Approximation
MehrNäherungsalgorithmen (Approximationsalgorithmen) WiSe 2012/13 in Trier
Näherungsalgorithmen (Approximationsalgorithmen) WiSe 2012/13 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 29. Januar 2013 Näherungsalgorithmen, Fernau, Universität Trier, WiSe 2012/13
MehrKapitel V. V. Ensemble Methods. Einführung Bagging Boosting Cascading
Kapitel V V. Ensemble Methods Einführung Bagging Boosting Cascading V-1 Ensemble Methods c Lettmann 2005 Einführung Bewertung der Generalisierungsfähigkeit von Klassifikatoren R (c) wahre Missklassifikationsrate
MehrPunktlokalisierung. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK
Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 22.05.2012 Nachtrag: Dynamische Bereichsabfragen Letzte Woche: kd-trees und Range-Trees
Mehr5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS)
5 BINÄRE ENTSCHEIDUNGS- DIAGRAMME (BDDS) Sommersemester 2009 Dr. Carsten Sinz, Universität Karlsruhe Datenstruktur BDD 2 1986 von R. Bryant vorgeschlagen zur Darstellung von aussagenlogischen Formeln (genauer:
MehrAlle bislang betrachteten Sortieralgorithmen hatten (worst-case) Laufzeit Ω(nlog(n)).
8. Untere Schranken für Sortieren Alle bislang betrachteten Sortieralgorithmen hatten (worst-case) Laufzeit Ω(nlog(n)). Werden nun gemeinsame Eigenschaften dieser Algorithmen untersuchen. Fassen gemeinsame
MehrComputational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
Mehr2. Hausübung Algorithmen und Datenstrukturen
Prof. Dr. Gerd Stumme, Folke Eisterlehner, Dominik Benz Fachgebiet Wissensverarbeitung 7.4.009. Hausübung Algorithmen und Datenstrukturen Sommersemester 009 Abgabetermin: Montag, 04.05.009, 10:00 Uhr 1
MehrPunktlokalisierung. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie
Vorlesung Algorithmische Geometrie LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 24.05.2011 Motivation Gegeben eine Position p = (p x, p y )
MehrDie Klasse NP und die polynomielle Reduktion. Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen
Die Klasse NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1 / 26 Optimierungsprobleme und ihre Entscheidungsvariante Beim Rucksackproblem
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester
MehrProbleme aus NP und die polynomielle Reduktion
Probleme aus NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 15. Dezember 2009 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 20. November 2014 INSTITUT FÜR THEORETISCHE 0 KIT 20.11.2014 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der
MehrAlgorithmische Geometrie: Lineare Optimierung (I)
Algorithmische Geometrie: Lineare Optimierung (I) Nico Düvelmeyer WS 2009/2010, 17.11.2009 Überblick 1 Geometrie von Gießformen 2 Durchschnitte von Halbebenen 3 Inkrementeller Algorithmus Überblick 1 Geometrie
MehrDie Klasse NP und die polynomielle Reduktion
Die Klasse NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen Dezember 2011 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit
MehrDas Ski Problem. Das Ski Problem 1 / 38
Das Ski Problem Wir fahren in den Skiurlaub und sind vor die Entscheidung gestellt,? jeden Tag Skier für 1 Euro pro Tag zu leihen oder? für K Euro Skier zu kaufen. Leider wissen wir nicht, wie lange die
MehrMusterlösung Informatik-III-Nachklausur
Musterlösung Informatik-III-Nachklausur Aufgabe 1 (2+2+4+4 Punkte) (a) L = (0 1) 0(0 1) 11(0 1) 0(0 1) (b) Der Automat ist durch folgendes Übergangsdiagramm gegeben: 0, 1 0, 1 0, 1 0, 1 0 s q 1 1 0 0 q
MehrLernalgorithmen SoSe 2008 in Trier. Henning Fernau Universität Trier
Lernalgorithmen SoSe 2008 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Lernalgorithmen Gesamtübersicht 0. Einführung 1. Identifikation (aus positiven Beispielen) 2. Zur Identifikation
MehrTypischerweise sind randomisierte Algorithmen einfacher zu beschreiben und zu implementieren als deterministische Algorithmen.
Kapitel Randomisierte Algorithmen Einleitung Definition: Ein Algorithmus, der im Laufe seiner Ausführung gewisse Entscheidungen zufällig trifft, heisst randomisierter Algorithmus. Beispiel: Bei der randomisierten
MehrDynamische Programmierung II
Vorlesungstermin 10: Dynamische Programmierung II Markus Püschel David Steurer talks2.dsteurer.org/dp2.pdf Algorithmen und Datenstrukturen, Herbstsemester 2018, ETH Zürich Plan für heute Dynamische Programmierung
MehrAlgorithmen & Komplexität
Algorithmen & Komplexität Angelika Steger Institut für Theoretische Informatik steger@inf.ethz.ch Kürzeste Pfade Problem Gegeben Netzwerk: Graph G = (V, E), Gewichtsfunktion w: E N Zwei Knoten: s, t Kantenzug/Weg
MehrInformatik III - WS07/08
Informatik III - WS07/08 Kapitel 4 1 Informatik III - WS07/08 Prof. Dr. Dorothea Wagner dwagner@ira.uka.de Kapitel 4 : Komplexitätsklassen Informatik III - WS07/08 Kapitel 4 2 Sprachen, Probleme, Zeitkomplexität
MehrDas Rucksackproblem: schwache NP-Härte und Approximation
Das Rucksackproblem: schwache NP-Härte und Approximation Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1. Februar 2010 Berthold Vöcking, Informatik 1 () Vorlesung
MehrBildverarbeitung: RANSAC. D. Schlesinger () Bildverarbeitung: RANSAC 1 / 11
Bildverarbeitung: RANSAC D. Schlesinger () Bildverarbeitung: RANSAC 1 / 11 Beispielaufgaben Man suche eine Gerade ax + by = 1 d.h. die unbekannten Parameter a und b anhand einer Lernstichprobe der Punkte
MehrVoronoi-Diagramme. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK
Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 29.05.2011 Das Postamt-Problem b(p, q) = {x R 2 : xp = xq } p q h(p, q) h(q, p) = {x :
MehrBeweis: Annahme: T (n) c n, wobei c = c(m) konstant ist. Die Annahme ist ok, falls T (n)
Beweis: Annahme: T (n) c n, wobei c = c(m) konstant ist. Die Annahme ist ok, falls T (n) ( ( ) n 3 T + T m ) 4 n n 3 c + m 4 n c + n n + C m + cn; dies gilt, falls m 2 n m C m + n 2 (bis auf, ) c m + 3
Mehreine reelle oder komplexe Folge ist, kann man daraus eine neue Folge {s n } n=0 konstruieren durch s n = a 0 + a a n, a k.
Analysis, Woche 7 Reihen I 7. Folgen aus Folgen Wenn a n eine reelle oder komplexe Folge ist, kann man daraus eine neue Folge s n konstruieren durch s n = a 0 + a + + a n, oder netter geschrieben s n =
MehrDie Höhe von binären Suchbäumen Ausarbeitung zum Seminar zu Stochastischen Rekursionsgleichungen im WS 2011/2012
Die Höhe von binären Suchbäumen Ausarbeitung zum Seminar zu Stochastischen Rekursionsgleichungen im WS 011/01 Sandra Uhlenbrock 03.11.011 Die folgende Ausarbeitung wird, basierend auf Branching Processes
MehrOptimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp
Optimal-trennende Hyperebenen und die Support Vector Machine Volker Tresp 1 (Vapnik s) Optimal-trennende Hyperebenen (Optimal Separating Hyperplanes) Wir betrachten wieder einen linearen Klassifikator
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Übung am 16.12.2010 INSTITUT FÜR THEORETISCHE INFORMATIK 0 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft
MehrAlgorithmen 2. Kapitel: Online-Algorithmen. Thomas Worsch. Wintersemester 2017/2018. Fakultät für Informatik Karlsruher Institut für Technologie
Algorithmen 2 Algorithmen 2 Kapitel: Online-Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2017/2018 1 / 78 Einleitung Überblick Einleitung Job-Scheduling
MehrOptimierung. Vorlesung 04
Optimierung Vorlesung 04 Übungsbetrieb Mangels Teilnehmer keine Dienstagsübung mehr. Prüfung laut Paul: Di, 10. Feb. 2015 00:01-23:59 2 Was bisher geschah LP: Maximiere c T x unter Ax = b, x 0. Basis:
Mehreine reelle oder komplexe Folge ist, kann man daraus eine neue Folge {s n } n=0 konstruieren durch s n = a 0 + a a n, s n = a k.
Analysis, Woche 7 Reihen I A 7. Folgen aus Folgen Wenn a n eine reelle oder komplexe Folge ist, kann man daraus eine neue Folge s n konstruieren durch s n = a 0 + a + + a n, oder netter geschrieben s n
MehrKapitel 9: Lineare Programmierung Gliederung
Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen
MehrIR Seminar SoSe 2012 Martin Leinberger
IR Seminar SoSe 2012 Martin Leinberger Suchmaschinen stellen Ergebnisse häppchenweise dar Google: 10 Ergebnisse auf der ersten Seite Mehr Ergebnisse gibt es nur auf Nachfrage Nutzer geht selten auf zweite
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrStreaming Data: Das Modell
Streaming Data: Das Modell Berechnungen, bei fortlaufend einströmenden Daten (x t t 0), sind in Echtzeit zu erbringen. Beispiele sind: - Verkehrsmessungen im Internet, - Datenanalyse in der Abwehr einer
MehrLernalgorithmen SoSe 2008 in Trier. Henning Fernau Universität Trier
Lernalgorithmen SoSe 2008 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Lernalgorithmen Gesamtübersicht 0. Einführung 1. Identifikation (aus positiven Beispielen) 2. Zur Identifikation
MehrNotation für das asymptotische Verhalten von Funktionen
Vorbemerkungen: Notation für das asymptotische Verhalten von Funktionen 1. Aussagen über die Komplexität von Algorithmen und von Problemen sollen (in der Regel) unabhängig von speziellen Maschinenmodellen
Mehr1,2,3,4,5,... Dabei ist die Reihenfolge wichtig, jede Zahl hat also ihre feste Position. Die Folge 2,1,4,3,... ist eine andere als 1,2,3,4,...
9 Folgen Eine (unendliche) Folge im herkömmlichen Sinn entsteht durch Hintereinanderschreiben von Zahlen, z.b.: 1,2,3,4,5,... Dabei ist die Reihenfolge wichtig, jede Zahl hat also ihre feste Position.
Mehr2.1. Konvexe Hülle in 2D
Wir wollen die konvexe Hülle einer Menge von Punkten P = {p 1,..., p n } in der Ebene R 2 bestimmen. y y x x Def. 21: Eine Teilmenge S der Ebene ist konvex gdw für jedes Paar das Liniensegment pq in S
MehrAlgorithmen für schwierige Probleme
Algorithmen für schwierige Probleme Britta Dorn Wintersemester 2011/12 24. November 2011 Farbkodierung Beispiel Longest Path Longest Path gegeben: G = (V, E) und k N. Frage: Gibt es einen einfachen Pfad
MehrDefinition 77 Sei n N. Der Median (das mittlere Element) einer total geordneten Menge von n Elementen ist deren i-kleinstes Element, wobei n i =.
2. Der Blum-Floyd-Pratt-Rivest-Tarjan Selektions-Algorithmus Definition 77 Sei n N. Der Median (das mittlere Element) einer total geordneten Menge von n Elementen ist deren i-kleinstes Element, wobei n
Mehr1.3 Knuth-Morris-Pratt-Algorithmus
1.3 Knuth-Morris-Pratt-Algorithmus Präprozessing bestimmt längste Ränder der Präfixe von P Die Kenntnis der Ränder erspart Vergleiche bei periodischen Suchwörtern Laufzeit: Θ(m) für das Präprozessing,
MehrDatenstrukturen & Algorithmen Lösungen zu Blatt 4 FS 15
Eidgenössische Technische Hochschule Zürich Ecole polytechnique fédérale de Zurich Politecnico federale di Zurigo Federal Institute of Technology at Zurich Institut für Theoretische Informatik 18. März
MehrSeminar: Randomisierte Algorithmen Auswerten von Spielbäumen Nele Küsener
Seminar: Randomisierte Algorithmen Auswerten von Sielbäumen Nele Küsener In diesem Vortrag wird die Laufzeit von Las-Vegas-Algorithmen analysiert. Das Ergebnis ist eine obere und eine untere Schranke für
MehrGeradenarrangements und Dualität von Punkten und Geraden
Vorlesung Algorithmische Geometrie von Punkten und Geraden INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 12.06.2012 Dualitätsabbildung Bisher haben wir Dualität für planare
MehrTechnische Universität München Fakultät für Mathematik Algorithmische Diskrete Mathematik WS 2012/2013 Prof. Dr. P. Gritzmann 22.
Note: Name Vorname Matrikelnummer Studiengang Unterschrift der Kandidatin/des Kandidaten Hörsaal Reihe Platz Technische Universität München Fakultät für Mathematik Algorithmische Diskrete Mathematik WS
MehrSplitting. Impurity. c 1. c 2. c 3. c 4
Splitting Impurity Sei D(t) eine Menge von Lernbeispielen, in der X(t) auf die Klassen C = {c 1, c 2, c 3, c 4 } verteilt ist. Illustration von zwei möglichen Splits: c 1 c 2 c 3 c 4 ML: III-29 Decision
Mehr3 Folgen, Reihen, Grenzwerte 3.1 Zahlenfolgen Definition: Eine Folge ist eine geordnete Menge von Elementen an (den sogenannten Gliedern ), die
3 Folgen, Reihen, Grenzwerte 3.1 Zahlenfolgen Definition: Eine Folge ist eine geordnete Menge von Elementen an (den sogenannten Gliedern ), die eindeutig den natürlichen Zahlen zugeordnet sind ( n N, auch
MehrUntere Schranken, Entscheidungsbäume, Yao s Min-Max-Lemma
Untere Schranken, Entscheidungsbäume, Yao s Min-Max-Lemma Proseminar: Die P-ungleich-NP-Vermutung (SS 2012) Yassine Marrakchi, Yuanfan Wang 15. Juni 2012 INSTITUT FÜR THEORETISCHE INFORMATIK KIT Universität
MehrVorlesungsmitschrift zur Vorlesung Theoretische Informatik I vom 23. Juni Christian Franz
Vorlesungsmitschrift zur Vorlesung Theoretische Informatik I vom 23. Juni 2 Christian Franz Inhaltsverzeichnis Wiederholung: Vorlesung vom 9.6.2... Beispiele für Äquivalenzklassen... 4.5. Minimierung
Mehr1. Klausur zur Vorlesung Algorithmentechnik Wintersemester 2008/2009
. Klausur zur Vorlesung Algorithmentechnik Wintersemester 008/009 Hier Aufkleber mit Name und Matrikelnummer anbringen Vorname: Nachname: Matrikelnummer: Beachten Sie: Bringen Sie den Aufkleber mit Ihrem
Mehr3 a) Berechnen Sie die normierte Zeilenstufenform der Matrix A = normierte Zeilenstufenform:
1. Aufgabe (9 Punkte) In dieser Aufgabe müssen Sie Ihre Antwort nicht begründen. Es zählt nur das Ergebnis. Tragen Sie nur das Ergebnis auf diesem Blatt im jeweiligen Feld ein. 0 1 3 a) Berechnen Sie die
MehrDas Suchproblem. Gegeben Menge von Datensätzen. Beispiele Telefonverzeichnis, Wörterbuch, Symboltabelle
119 4. Suchen Lineare Suche, Binäre Suche, Interpolationssuche, Exponentielle Suche, Untere Schranken [Ottman/Widmayer, Kap. 3.2, Cormen et al, Kap. 2: Problems 2.1-3,2.2-3,2.3-5] 120 Das Suchproblem Gegeben
MehrDas Suchproblem 4. Suchen Das Auswahlproblem Suche in Array
Das Suchproblem Gegeben. Suchen Lineare Suche, Binäre Suche, Interpolationssuche, Exponentielle Suche, Untere Schranken [Ottman/Widmayer, Kap. 3.2, Cormen et al, Kap. 2: Problems 2.-3,2.2-3,2.3-] Menge
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick
MehrGeradenarrangements und Dualität von Punkten und Geraden
Vorlesung Algorithmische Geometrie von Punkten und Geraden INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 17.06.2014 1 Dualitätsabbildung Bisher haben wir Dualität für planare
Mehr20. Dynamic Programming II
Aufgabe 20. Dynamic Programming II Subset Sum Problem, Rucksackproblem, Greedy Algorithmus, Lösungen mit dynamischer Programmierung, FPTAS, Optimaler Suchbaum [Ottman/Widmayer, Kap. 7.2, 7.3, 5.7, Cormen
MehrGeradenarrangements und Dualität von Punkten und Geraden
Vorlesung Algorithmische Geometrie von Punkten und Geraden INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 12.06.2012 Dualitätsabbildung Bisher haben wir Dualität für planare
Mehr2. Klausur Datenstrukturen und Algorithmen SS 2014
Prof. aa Dr. E. Ábrahám F. Corzilius, S. Schupp, T. Ströder 2. Klausur Datenstrukturen und Algorithmen SS 2014 Vorname: Nachname: Studiengang (bitte genau einen markieren): Informatik Bachelor Informatik
Mehr20. Dynamic Programming II
536 20. Dynamic Programming II Subset Sum Problem, Rucksackproblem, Greedy Algorithmus, Lösungen mit dynamischer Programmierung, FPTAS, Optimaler Suchbaum [Ottman/Widmayer, Kap. 7.2, 7.3, 5.7, Cormen et
MehrMinimalpolynome und Implikanten
Kapitel 3 Minimalpolynome und Implikanten Wir haben bisher gezeigt, daß jede Boolesche Funktion durch einfache Grundfunktionen dargestellt werden kann. Dabei können jedoch sehr lange Ausdrücke enstehen,
MehrLösungen zur Vorlesung Berechenbarkeit und Komplexität
Lehrstuhl für Informatik 1 WS 009/10 Prof. Dr. Berthold Vöcking 0.0.010 Alexander Skopalik Thomas Kesselheim Lösungen zur Vorlesung Berechenbarkeit und Komplexität. Zulassungsklausur Aufgabe 1: (a) Worin
MehrGraphentheorie. Kürzeste Wege. Kürzeste Wege. Kürzeste Wege. Rainer Schrader. 25. Oktober 2007
Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 25. Oktober 2007 1 / 20 2 / 20 Wir werden Optimierungsprobleme vom folgenden Typ betrachten: gegeben eine Menge X und eine Funktion
Mehr