Algorithmen zur Analyse historischer Landkarten. Benedikt Budig Universität Würzburg
|
|
- Rainer Pohl
- vor 7 Jahren
- Abrufe
Transkript
1 Algorithmen zur Analyse historischer Landkarten Benedikt Budig Universität Würzburg
2 Einführung
3 Einführung Algorithmen zur Analyse historischer Landkarten
4 Einführung Algorithmen zur Analyse historischer Landkarten hergestellt im Jahr 1787
5 Einführung Algorithmen zur Analyse historischer Landkarten hergestellt im Jahr 1787
6 Einführung Algorithmen zur Analyse historischer Landkarten größere Bestände vorhanden hergestellt im Jahr 1787
7 Einführung Algorithmen zur Analyse historischer Landkarten größere Bestände vorhanden SUB Göttingen: , HAB: hergestellt im Jahr 1787
8 Einführung Algorithmen zur Analyse historischer Landkarten größere Bestände vorhanden SUB Göttingen: , HAB: Digitalisierung im Gang hergestellt im Jahr 1787
9 Einführung Algorithmen zur Analyse historischer Landkarten größere Bestände vorhanden SUB Göttingen: , HAB: Digitalisierung im Gang mit Spezial-Hardware (Scanner,...) hergestellt im Jahr 1787
10 Einführung Algorithmen zur Analyse historischer Landkarten größere Bestände vorhanden SUB Göttingen: , HAB: Digitalisierung im Gang mit Spezial-Hardware (Scanner,...) hergestellt im Jahr 1787
11 Einführung Algorithmen zur Analyse historischer Landkarten hergestellt im Jahr 1787
12 Einführung enthaltene Ortschaften Algorithmen zur Analyse historischer Landkarten hergestellt im Jahr 1787
13 Einführung enthaltene Ortschaften Geländetopographie Algorithmen zur Analyse historischer Landkarten hergestellt im Jahr 1787
14 Einführung enthaltene Ortschaften Geländetopographie Wälder, Flüsse,... Algorithmen zur Analyse historischer Landkarten hergestellt im Jahr 1787
15 Einführung enthaltene Ortschaften Geländetopographie Wälder, Flüsse,... und vieles mehr! Algorithmen zur Analyse historischer Landkarten hergestellt im Jahr 1787
16 Einführung enthaltene Ortschaften Geländetopographie Wälder, Flüsse,... wertvolle Metadaten und vieles mehr! Algorithmen zur Analyse historischer Landkarten hergestellt im Jahr 1787
17 Einführung enthaltene Ortschaften Geländetopographie Wälder, Flüsse,... wertvolle Metadaten und vieles mehr! Algorithmen zur Analyse historischer Landkarten hergestellt im Jahr 1787
18 Einführung enthaltene Ortschaften Geländetopographie Wälder, Flüsse,... wertvolle Metadaten und vieles mehr! Algorithmen zur Analyse historischer Landkarten hergestellt im Jahr 1787
19 Einführung Zur Erhebung solcher Metadaten sind pro Karte enthaltene Ortschaften Geländetopographie Wälder, Flüsse,... wertvolle Metadaten und vieles mehr! Algorithmen zur Analyse historischer Landkarten hergestellt im Jahr 1787
20 Einführung Zur Erhebung solcher Metadaten sind pro Karte etwa 30 Arbeitsstunden notwendig. enthaltene Ortschaften Geländetopographie Wälder, Flüsse,... wertvolle Metadaten und vieles mehr! Algorithmen zur Analyse historischer Landkarten hergestellt im Jahr 1787
21 Einführung Zur Erhebung solcher Metadaten sind pro Karte etwa 30 Arbeitsstunden notwendig. enthaltene Ortschaften Geländetopographie Wälder, Flüsse,... wertvolle Metadaten und vieles mehr! Algorithmen zur Analyse historischer Landkarten größere Bestände vorhanden SUB Göttingen: , HAB: Digitalisierung im Gang mit Spezial-Hardware (Scanner,...) hergestellt im Jahr 1787
22 Elemente historischer Landkarten
23 Elemente historischer Landkarten Karten-Quelle für diesen Vortrag: Franconica-Sammlung der Uni-Bibliothek Würzburg
24 Elemente historischer Landkarten Karten-Quelle für diesen Vortrag: Franconica-Sammlung der Uni-Bibliothek Würzburg hergestellt im Jahr 1676
25 Elemente historischer Landkarten Karten-Quelle für diesen Vortrag: Franconica-Sammlung der Uni-Bibliothek Würzburg Norden hergestellt im Jahr 1676
26 Elemente historischer Landkarten Karten-Quelle für diesen Vortrag: Franconica-Sammlung der Uni-Bibliothek Würzburg Wald Norden hergestellt im Jahr 1676
27 Elemente historischer Landkarten Karten-Quelle für diesen Vortrag: Franconica-Sammlung der Uni-Bibliothek Würzburg Wald Fluss Norden hergestellt im Jahr 1676
28 Elemente historischer Landkarten Karten-Quelle für diesen Vortrag: Franconica-Sammlung der Uni-Bibliothek Würzburg Wald Fluss Erhebung Norden hergestellt im Jahr 1676
29 Elemente historischer Landkarten Karten-Quelle für diesen Vortrag: Franconica-Sammlung der Uni-Bibliothek Würzburg Wald Fluss Erhebung Norden hergestellt im Jahr 1676 Geländetopogr.
30 Elemente historischer Landkarten Karten-Quelle für diesen Vortrag: Franconica-Sammlung der Uni-Bibliothek Würzburg Wald Fluss Label Erhebung Norden hergestellt im Jahr 1676 Geländetopogr.
31 Elemente historischer Landkarten Karten-Quelle für diesen Vortrag: Franconica-Sammlung der Uni-Bibliothek Würzburg Wald Geländetopogr. Ortsmarkierung Label Fluss Erhebung Norden hergestellt im Jahr 1676
32 Elemente historischer Landkarten Karten-Quelle für diesen Vortrag: Franconica-Sammlung der Uni-Bibliothek Würzburg Wald Ortsmarkierung Label Fluss Erhebung Siedlungstopogr. Norden hergestellt im Jahr 1676 Geländetopogr.
33 Elemente historischer Landkarten Karten-Quelle Extraktionsstrategie: für diesen Vortrag: Franconica-Sammlung der Uni-Bibliothek Würzburg Wald Ortsmarkierung Label Fluss Erhebung Siedlungstopogr. Norden hergestellt im Jahr 1676 Geländetopogr.
34 Elemente historischer Landkarten Karten-Quelle Extraktionsstrategie: für diesen findevortrag: die revelanten Elemente... Franconica-Sammlung der Uni-Bibliothek Würzburg Wald Ortsmarkierung Label Fluss Erhebung Siedlungstopogr. Norden hergestellt im Jahr 1676 Geländetopogr.
35 Elemente historischer Landkarten Karten-Quelle Extraktionsstrategie: für diesen findevortrag: die revelanten Elemente... Franconica-Sammlung... und lies die zugehörigen der Uni-Bibliothek BeschriftungenWürzburg Wald Ortsmarkierung Label Fluss Erhebung Siedlungstopogr. Norden hergestellt im Jahr 1676 Geländetopogr.
36 Verarbeitungs-Pipeline
37 Verarbeitungs-Pipeline Input
38 Verarbeitungs-Pipeline Input Historische Landkarte
39 Verarbeitungs-Pipeline Input Output Historische Landkarte Georeferenzierte Karte
40 Verarbeitungs-Pipeline Input Output Historische Landkarte Georeferenzierte Karte Orte Index enth. Ortschaften
41 Verarbeitungs-Pipeline Input Output Historische Landkarte Georeferenzierte Karte Orte Index enth. Ortschaften Geländemerkmale
42 Verarbeitungs-Pipeline Input Historische Landkarte Segmentierung, feature extraction Output Georeferenzierte Karte Orte Index enth. Ortschaften Geländemerkmale
43 Verarbeitungs-Pipeline Input Historische Landkarte Segmentierung, feature extraction Output Georeferenzierte Karte Orte Index enth. Ortschaften Geländemerkmale
44 Verarbeitungs-Pipeline Input Historische Landkarte Segmentierung, feature extraction Feedback Output Georeferenzierte Karte Orte Index enth. Ortschaften Geländemerkmale
45 Verarbeitungs-Pipeline Input Historische Landkarte Segmentierung, feature extraction Analyse Geländetopographie Feedback Output Georeferenzierte Karte Orte Index enth. Ortschaften Geländemerkmale
46 Verarbeitungs-Pipeline Input Historische Landkarte Segmentierung, feature extraction Analyse Geländetopographie Feedback Output Georeferenzierte Karte Orte Zuordnung der Beschriftungen Index enth. Ortschaften Geländemerkmale
47 Verarbeitungs-Pipeline Input Historische Landkarte Segmentierung, feature extraction Analyse Geländetopographie Feedback Output Georeferenzierte Karte Orte Zuordnung der Beschriftungen OCR von Beschriftungen Index enth. Ortschaften Geländemerkmale
48 Verarbeitungs-Pipeline Input Historische Landkarte Namen Segmentierung, feature extraction Analyse Geländetopographie Feedback Output Georeferenzierte Karte Orte Wörterbuch mit hist. Ortsnamen Zuordnung der Beschriftungen OCR von Beschriftungen Index enth. Ortschaften Geländemerkmale
49 Verarbeitungs-Pipeline Input Historische Landkarte Namen Segmentierung, feature extraction Analyse Geländetopographie Feedback Output Georeferenzierte Karte Orte Wörterbuch mit hist. Ortsnamen Zuordnung der Beschriftungen OCR von Beschriftungen Index enth. Ortschaften Modernes Kartenmaterial Geländemerkmale
50 Verarbeitungs-Pipeline Input Historische Landkarte Namen Segmentierung, feature extraction Analyse Geländetopographie Feedback Output Georeferenzierte Karte Orte Wörterbuch mit hist. Ortsnamen Zuordnung der Beschriftungen OCR von Beschriftungen Index enth. Ortschaften Modernes Kartenmaterial Georeferenzierung von Orten Geländemerkmale
51 Verarbeitungs-Pipeline Input Historische Landkarte Namen Segmentierung, feature extraction Analyse Geländetopographie Feedback Output Georeferenzierte Karte Orte Wörterbuch mit hist. Ortsnamen Zuordnung der Beschriftungen OCR von Beschriftungen Index enth. Ortschaften Modernes Kartenmaterial Georeferenzierung von Orten Geländemerkmale
52 Verarbeitungs-Pipeline Input Historische Landkarte Namen Segmentierung, feature extraction Analyse Geländetopographie Feedback Output Georeferenzierte Karte Orte Wörterbuch mit hist. Ortsnamen Zuordnung der Beschriftungen OCR von Beschriftungen Feedback Index enth. Ortschaften Modernes Kartenmaterial Georeferenzierung von Orten Geländemerkmale
53 Verarbeitungs-Pipeline Input Historische Landkarte Namen Segmentierung, feature extraction Analyse Geländetopographie Feedback Output Georeferenzierte Karte Orte Wörterbuch mit hist. Ortsnamen Zuordnung der Beschriftungen OCR von Beschriftungen Feedback Index enth. Ortschaften Modernes Kartenmaterial Georeferenzierung von Orten Geländemerkmale
54 Ausgangssituation
55 Ausgangssituation Input:
56 Ausgangssituation Input: Menge von Ortsmarkierungen P, dargestellt durch achsenparallele bounding boxes.
57 Ausgangssituation Input: Menge von Ortsmarkierungen P, dargestellt durch achsenparallele bounding boxes.
58 Ausgangssituation Input: Menge von Ortsmarkierungen P, dargestellt durch achsenparallele bounding boxes. Menge von Labels L, ebenfalls dargestellt durch achsenparallele bounding boxes.
59 Ausgangssituation Input: Menge von Ortsmarkierungen P, dargestellt durch Mengeachsenparallele von Labels L bounding boxes. Problem: Welches MengeLabel von Labels beschriftet L, ebenfalls welche Ortsmarkierung? dargestellt durch achsenparallele bounding boxes.
60 Ausgangssituation Input: Menge von Ortsmarkierungen P, dargestellt durch Mengeachsenparallele von Labels L bounding boxes. Problem: Welches MengeLabel von Labels beschriftet L, ebenfalls welche Ortsmarkierung? dargestellt durch achsenparallele bounding boxes.
61 Ausgangssituation Input: Menge von Ortsmarkierungen P, dargestellt durch Mengeachsenparallele von Labels L bounding boxes. Problem: Welches MengeLabel von Labels beschriftet L, ebenfalls welche Ortsmarkierung? dargestellt durch achsenparallele bounding boxes.
62 Ausgangssituation Input: Menge von Ortsmarkierungen P, dargestellt durch Mengeachsenparallele von Labels L bounding boxes. Problem: Welches MengeLabel von Labels beschriftet L, ebenfalls welche Ortsmarkierung? dargestellt durch achsenparallele bounding boxes.
63 Ausgangssituation Input: Menge von Ortsmarkierungen P, dargestellt durch Mengeachsenparallele von Labels L bounding boxes. Problem: Welches MengeLabel von Labels beschriftet L, ebenfalls welche Ortsmarkierung? dargestellt durch achsenparallele bounding boxes.
64 Ausgangssituation Input: Menge von Ortsmarkierungen P, dargestellt durch Mengeachsenparallele von Labels L bounding boxes. Problem: Welches MengeLabel von Labels beschriftet L, ebenfalls welche Ortsmarkierung? dargestellt durch achsenparallele bounding boxes.
65 Ausgangssituation Input: Menge von Ortsmarkierungen P, dargestellt durch Mengeachsenparallele von Labels L bounding boxes. Problem: Welches MengeLabel von Labels beschriftet L, ebenfalls welche Ortsmarkierung? dargestellt durch achsenparallele bounding boxes.
66 Ausgangssituation Input: Menge von Ortsmarkierungen P, dargestellt durch Mengeachsenparallele von Labels L bounding boxes. Problem: Welches MengeLabel von Labels beschriftet L, ebenfalls welche Ortsmarkierung? dargestellt durch achsenparallele bounding boxes.
67 Ausgangssituation Input: Menge von Ortsmarkierungen P, dargestellt durch Mengeachsenparallele von Labels L bounding boxes. Problem: Welches MengeLabel von Labels beschriftet L, ebenfalls welche Ortsmarkierung? dargestellt durch achsenparallele bounding boxes.
68 Ausgangssituation Input: Menge von Ortsmarkierungen P, dargestellt durch Mengeachsenparallele von Labels L bounding boxes. Problem: Welches MengeLabel von Labels beschriftet L, ebenfalls welche Ortsmarkierung? dargestellt durch achsenparallele bounding boxes. Dieses Problem ist schwierig, auch für Menschen!
69 Modellierung als Optimierungsproblem
70 Modellierung als Optimierungsproblem Gesucht: Ein Matching von Labels und Ortsmarkierungen, so dass
71 Modellierung als Optimierungsproblem Gesucht: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist.
72 Modellierung als Optimierungsproblem Gesucht: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist.
73 Modellierung als Optimierungsproblem Gesucht: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist.
74 Modellierung als Optimierungsproblem Gesucht: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist. Keine 1-zu-1-Zuordnung aufgrund
75 Modellierung als Optimierungsproblem Gesucht: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist. Keine 1-zu-1-Zuordnung aufgrund fehlender Elemente in den historischen Karten
76 Modellierung als Optimierungsproblem Gesucht: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist. Keine 1-zu-1-Zuordnung aufgrund fehlender Elemente in den historischen Karten etwaiger Fehler in vorhergehender Segmentierung
77 Modellierung als Optimierungsproblem Gesucht: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist.
78 Modellierung als Optimierungsproblem Gesucht: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist. Ziele:
79 Modellierung als Optimierungsproblem Gesucht: Ziele: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist. Welche Eigenschaften muss ein Matching M erfüllen, um gut zu sein?
80 Modellierung als Optimierungsproblem Gesucht: Ziele: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist. Welche Eigenschaften muss ein Matching M erfüllen, um gut zu sein?
81 Modellierung als Optimierungsproblem Gesucht: Ziele: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist. Welche Eigenschaften muss ein Matching M erfüllen, um gut zu sein?
82 Modellierung als Optimierungsproblem Gesucht: Ziele: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist. Welche Eigenschaften muss ein Matching M erfüllen, um gut zu sein? Abstand zwischen Markierungen und zugeordneten Labels soll klein sein
83 Modellierung als Optimierungsproblem Gesucht: Ziele: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist. Welche Eigenschaften muss ein Matching M erfüllen, um gut zu sein? Abstand zwischen Markierungen und zugeordneten Labels soll klein sein Matching soll möglichst groß sein
84 Modellierung als Optimierungsproblem Gesucht: Ziele: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist. Welche Eigenschaften muss ein Matching M erfüllen, um gut zu sein? Abstand zwischen Markierungen und zugeordneten Labels soll klein sein Matching soll möglichst groß sein
85 Modellierung als Optimierungsproblem Gesucht: Ziele: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist. Welche Eigenschaften muss ein Matching M erfüllen, um gut zu sein? Abstand zwischen Markierungen und zugeordneten Labels soll klein sein (1) Die Summe über d(p, l) für alle (p, l) M ist klein Matching soll möglichst groß sein
86 Modellierung als Optimierungsproblem Gesucht: Ziele: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist. Welche Eigenschaften muss ein Matching M erfüllen, um gut zu sein? Abstand zwischen Markierungen und zugeordneten Labels soll klein sein (1) Die Summe über d(p, l) für alle (p, l) M ist klein (2) M enthält viele Elemente Matching soll möglichst groß sein
87 Modellierung als Optimierungsproblem Gesucht: Ziele: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist. Welche Eigenschaften muss ein Matching M erfüllen, um gut zu sein? Abstand zwischen Markierungen und zugeordneten Labels soll klein sein Matching soll möglichst groß sein (1) Die Summe über d(p, l) für alle (p, l) M ist klein (2) M enthält viele Elemente (3) Keine Zuordnung (p, l) M hat Abstand d(p, l) > r
88 Modellierung als Optimierungsproblem Gesucht: Ziele: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist. Welche Eigenschaften muss ein Matching M erfüllen, um gut zu sein? Abstand zwischen Markierungen und zugeordneten Labels soll klein sein Matching soll möglichst groß sein (1) Die Summe über d(p, l) für alle (p, l) M ist klein (2) M enthält viele Elemente (3) Keine Zuordnung (p, l) M hat Abstand d(p, l) > r Suchradius
89 Modellierung als Optimierungsproblem Gesucht: Ziele: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist. Welche Eigenschaften muss ein Matching M erfüllen, um gut zu sein? (1) Summe über d(p, l) für alle (p, l) M ist klein (2) M enthält viele Elemente (3) Keine Zuordnung (p, l) M mit d(p, l) > r
90 Modellierung als Optimierungsproblem Gesucht: Ziele: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist. Welche Eigenschaften muss ein Matching M erfüllen, um gut zu sein? (1) Summe über d(p, l) für alle (p, l) M ist klein (2) M enthält viele Elemente (3) Keine Zuordnung (p, l) M mit d(p, l) > r Greedy-Strategie? Nimm die beiden Elemente mit dem geringsten Abstand und wiederhole.
91 Modellierung als Optimierungsproblem Gesucht: Ziele: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist. Welche Eigenschaften muss ein Matching M erfüllen, um gut zu sein? (1) Summe über d(p, l) für alle (p, l) M ist klein (2) M enthält viele Elemente (3) Keine Zuordnung (p, l) M mit d(p, l) > r Greedy-Strategie? Nimm die beiden Elemente mit dem geringsten Abstand und wiederhole. Schlechte Ergebnisse!
92 Modellierung als Optimierungsproblem Gesucht: Ziele: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist. Welche Eigenschaften muss ein Matching M erfüllen, um gut zu sein? (1) Summe über d(p, l) für alle (p, l) M ist klein (2) M enthält viele Elemente (3) Keine Zuordnung (p, l) M mit d(p, l) > r Zielfunktion:
93 Modellierung als Optimierungsproblem Gesucht: Ziele: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist. Welche Eigenschaften muss ein Matching M erfüllen, um gut zu sein? (1) Summe über d(p, l) für alle (p, l) M ist klein (2) M enthält viele Elemente (3) Keine Zuordnung (p, l) M mit d(p, l) > r Zielfunktion: f obj (M) = maximiere (p,l) M r d(p, l)
94 Modellierung als Optimierungsproblem Gesucht: Ziele: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist. Welche Eigenschaften muss ein Matching M erfüllen, um gut zu sein? (1) Summe über d(p, l) für alle (p, l) M ist klein (2) M enthält viele Elemente (3) Keine Zuordnung (p, l) M mit d(p, l) > r Zielfunktion: f obj (M) = maximiere (p,l) M r d(p, l)
95 Modellierung als Optimierungsproblem Gesucht: Ziele: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist. Welche Eigenschaften muss ein Matching M erfüllen, um gut zu sein? (1) Summe über d(p, l) für alle (p, l) M ist klein (2) M enthält viele Elemente (3) Keine Zuordnung (p, l) M mit d(p, l) > r Zielfunktion: f obj (M) = maximiere (p,l) M r d(p, l)
96 Modellierung als Optimierungsproblem Gesucht: Ziele: Ein Matching von Labels und Ortsmarkierungen, so dass jedes p P höchstens einem l L und jedes l L höchstens einem p P zugeordnet ist. Welche Eigenschaften muss ein Matching M erfüllen, um gut zu sein? (1) Summe über d(p, l) für alle (p, l) M ist klein (2) M enthält viele Elemente (3) Keine Zuordnung (p, l) M mit d(p, l) > r Zielfunktion: f obj (M) = maximiere (p,l) M r d(p, l)
97 Polynomialzeit-Algorithmus
98 Polynomialzeit-Algorithmus Problem: Finde Matching M von Labels und Markierungen, so dass f obj (M) = (p,l) M (r d(p, l)) maximal ist.
99 Polynomialzeit-Algorithmus Problem: Finde Matching M von Labels und Markierungen, so dass f obj (M) = (p,l) M (r d(p, l)) maximal ist. Lösung: Modelliere Problem als Graph G = (V, E)...
100 Polynomialzeit-Algorithmus Problem: Finde Matching M von Labels und Markierungen, so dass f obj (M) = (p,l) M (r d(p, l)) maximal ist. Lösung: Modelliere Problem als Graph G = (V, E)... v p1 v l1 v p v l2 v pm Markierungen v ln Labels
101 Polynomialzeit-Algorithmus Problem: Finde Matching M von Labels und Markierungen, so dass f obj (M) = (p,l) M (r d(p, l)) maximal ist. Lösung: Modelliere Problem als Graph G = (V, E)... v p1 v l1 s v p v l2 t v pm Markierungen v ln Labels
102 Polynomialzeit-Algorithmus Problem: Finde Matching M von Labels und Markierungen, so dass f obj (M) = (p,l) M (r d(p, l)) maximal ist. Lösung: Modelliere Problem als Graph G = (V, E)... v p1 v l1 s v p v l2 t v pm Markierungen v ln Labels
103 Polynomialzeit-Algorithmus Problem: Finde Matching M von Labels und Markierungen, so dass f obj (M) = (p,l) M (r d(p, l)) maximal ist. Lösung: Modelliere Problem als Graph G = (V, E)... v p1 v l1 s v p v l2 t v pm Markierungen v ln Labels
104 Polynomialzeit-Algorithmus Problem: Finde Matching M von Labels und Markierungen, so dass f obj (M) = (p,l) M (r d(p, l)) maximal ist. Lösung: Modelliere Problem als Graph G = (V, E)... s r r... r v p1 v l1 v l2 v p t v pm v ln Markierungen Labels
105 Polynomialzeit-Algorithmus Problem: Finde Matching M von Labels und Markierungen, so dass f obj (M) = (p,l) M (r d(p, l)) maximal ist. Lösung: Modelliere Problem als Graph G = (V, E)... s r r... r v p1... v p2 v l v pm Markierungen d(p 1, l 1 ) d(p m, l n ) v l1 v ln Labels t
106 Polynomialzeit-Algorithmus Problem: Finde Matching M von Labels und Markierungen, so dass f obj (M) = (p,l) M (r d(p, l)) maximal ist. Lösung: Modelliere Problem als Graph G = (V, E)... s r r... r v p1... v p2 v l v pm Markierungen d(p 1, l 1 ) d(p m, l n ) v l1 v ln Labels t
107 Polynomialzeit-Algorithmus Problem: Finde Matching M von Labels und Markierungen, so dass f obj (M) = (p,l) M (r d(p, l)) maximal ist. Lösung: Modelliere Problem als Graph G = (V, E)......und finde Fluss mit minimalen Kosten. s r r... r v p1... v p2 v l v pm Markierungen d(p 1, l 1 ) d(p m, l n ) v l1 v ln Labels t
108 Polynomialzeit-Algorithmus Problem: Finde Matching M von Labels und Markierungen, so dass f obj (M) = (p,l) M (r d(p, l)) maximal ist. Lösung: s r r... r Modelliere Problem als Graph G = (V, E)......und finde Fluss mit minimalen Kosten. effiziente Algorithmen d(p 1, l 1 ) v p1... v p2 v l v pm Markierungen d(p m, l n ) v l1 v ln Labels t
109 Polynomialzeit-Algorithmus Problem: Finde Matching M von Labels und Markierungen, so dass f obj (M) = (p,l) M (r d(p, l)) maximal ist. Lösung: Modelliere Problem als Graph G = (V, E)......und finde Fluss mit minimalen Kosten. e E: effiziente Algorithmen cap(e) = 1 d(p 1, l 1 ) s r r... r v p1... v p2 v l v pm Markierungen d(p m, l n ) v l1 v ln Labels t
110 Polynomialzeit-Algorithmus Problem: Finde Matching M von Labels und Markierungen, so dass f obj (M) = (p,l) M (r d(p, l)) maximal ist. Lösung: Modelliere Problem als Graph G = (V, E)......und finde Fluss mit minimalen Kosten. e E: effiziente Algorithmen cap(e) = 1 d(p 1, l 1 ) s r r... r v p1... v p2 v l v pm Markierungen d(p m, l n ) v l1 v ln Labels t
111 Experimente
112 Experimente Karten:
113 Experimente Karten: Sebastian von Rotenhan: Das FranckenLandt (1533)
114 Experimente Karten: Sebastian von Rotenhan: Das FranckenLandt (1533) Frederik De Wit: Circulus Franconicus (1706)
115 Experimente Karten: Sebastian von Rotenhan: Das FranckenLandt (1533) Frederik De Wit: Circulus Franconicus (1706)
116 Experimente Karten: Sebastian von Rotenhan: Das FranckenLandt (1533) Frederik De Wit: Circulus Franconicus (1706)
117 Experimente Karten: Sebastian von Rotenhan: Das FranckenLandt (1533) 539 Markierungen 524 Labels Frederik De Wit: Circulus Franconicus (1706)
118 Experimente Karten: Sebastian von Rotenhan: Das FranckenLandt (1533) 539 Markierungen 524 Labels Frederik De Wit: Circulus Franconicus (1706) 1663 Markierungen 1669 Labels
119 Experimente Karten: Sebastian von Rotenhan: Das FranckenLandt (1533) 539 Markierungen 524 Labels Frederik De Wit: Circulus Franconicus (1706) 1663 Markierungen 1669 Labels Ground Truth fu r beide Karten manuell erstellt.
120 Experimente ausgeglichene Eingabedaten
121 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden.
122 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Franckenlandt P = L = 517 Circulus Franconicus P = L = 1644
123 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Franckenlandt P = L = 517 Franckenlandt Circulus Franconicus P = L = 1644
124 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Franckenlandt Greedy-Algorithmus: Fehlerrate 17.8% Franckenlandt P = L = 517 Circulus Franconicus P = L = 1644
125 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Franckenlandt P = L = 517 Franckenlandt Greedy-Algorithmus: Fehlerrate 17.8% unser Algorithmus: 515 von 517 korrekt Circulus Franconicus P = L = 1644
126 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Franckenlandt P = L = 517 Franckenlandt Greedy-Algorithmus: Fehlerrate 17.8% unser Algorithmus: 515 von 517 korrekt Fehlerrate 0.4% Circulus Franconicus P = L = 1644
127 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Franckenlandt P = L = 517 Franckenlandt Greedy-Algorithmus: Fehlerrate 17.8% unser Algorithmus: 515 von 517 korrekt Fehlerrate 0.4% Laufzeit 0.9 s Circulus Franconicus P = L = 1644
128 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Franckenlandt P = L = 517 Franckenlandt Greedy-Algorithmus: Fehlerrate 17.8% unser Algorithmus: 515 von 517 korrekt Fehlerrate 0.4% Laufzeit 0.9 s Circulus Franconicus Circulus Franconicus P = L = 1644
129 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Franckenlandt P = L = 517 Franckenlandt Greedy-Algorithmus: Fehlerrate 17.8% unser Algorithmus: 515 von 517 korrekt Fehlerrate 0.4% Laufzeit 0.9 s Circulus Franconicus Greedy-Algorithmus: Fehlerrate 5.4% Circulus Franconicus P = L = 1644
130 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Franckenlandt P = L = 517 Franckenlandt Greedy-Algorithmus: Fehlerrate 17.8% unser Algorithmus: 515 von 517 korrekt Fehlerrate 0.4% Laufzeit 0.9 s Circulus Franconicus Greedy-Algorithmus: Fehlerrate 5.4% unser Algorithmus: 1636 von 1644 korrekt Fehlerrate 0.5% Laufzeit 2.1 s Circulus Franconicus P = L = 1644
131 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Franckenlandt P = L = 517 Franckenlandt Greedy-Algorithmus: Fehlerrate 17.8% unser Algorithmus: 515 von 517 korrekt Fehlerrate 0.4% Laufzeit 0.9 s Circulus Franconicus Greedy-Algorithmus: Fehlerrate 5.4% unser Algorithmus: 1636 von 1644 korrekt Fehlerrate 0.5% Laufzeit 2.1 s Circulus Franconicus P = L = 1644
132 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Franckenlandt P = L = 517 Franckenlandt Greedy-Algorithmus: Fehlerrate 17.8% unser Algorithmus: 515 von 517 korrekt Fehlerrate 0.4% Laufzeit 0.9 s Circulus Franconicus Greedy-Algorithmus: Fehlerrate 5.4% unser Algorithmus: 1636 von 1644 korrekt Fehlerrate 0.5% Laufzeit 2.1 s Circulus Franconicus P = L = 1644 mehr kombinat. Schlussfolgern notwendig!
133 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Franckenlandt P = L = 517 Franckenlandt Greedy-Algorithmus: Fehlerrate 17.8% unser Algorithmus: 515 von 517 korrekt Fehlerrate 0.4% Laufzeit 0.9 s Circulus Franconicus Greedy-Algorithmus: Fehlerrate 5.4% unser Algorithmus: 1636 von 1644 korrekt Fehlerrate 0.5% Laufzeit 2.1 s Circulus Franconicus P = L = 1644 mehr kombinat. Schlussfolgern notwendig!
134 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Franckenlandt P = L = 517 Franckenlandt Greedy-Algorithmus: Fehlerrate 17.8% unser Algorithmus: 515 von 517 korrekt Fehlerrate 0.4% Laufzeit 0.9 s Circulus Franconicus Greedy-Algorithmus: Fehlerrate 5.4% unser Algorithmus: 1636 von 1644 korrekt Fehlerrate 0.5% Laufzeit 2.1 s Circulus Franconicus P = L = 1644 mehr kombinat. Schlussfolgern notwendig!
135 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Franckenlandt P = L = 517 Franckenlandt Greedy-Algorithmus: Fehlerrate 17.8% unser Algorithmus: 515 von 517 korrekt Fehlerrate 0.4% Laufzeit 0.9 s Circulus Franconicus Greedy-Algorithmus: Fehlerrate 5.4% unser Algorithmus: 1636 von 1644 korrekt Fehlerrate 0.5% Laufzeit 2.1 s Circulus Franconicus P = L = 1644 mehr kombinat. Schlussfolgern notwendig!
136 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Franckenlandt P = L = 517 Franckenlandt Greedy-Algorithmus: Fehlerrate 17.8% unser Algorithmus: 515 von 517 korrekt Fehlerrate 0.4% Laufzeit 0.9 s Circulus Franconicus Greedy-Algorithmus: Fehlerrate 5.4% unser Algorithmus: 1636 von 1644 korrekt Fehlerrate 0.5% Laufzeit 2.1 s Circulus Franconicus P = L = 1644 mehr kombinat. Schlussfolgern notwendig!
137 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Franckenlandt P = L = 517 Franckenlandt Greedy-Algorithmus: Fehlerrate 17.8% unser Algorithmus: 515 von 517 korrekt Fehlerrate 0.4% Laufzeit 0.9 s Circulus Franconicus Greedy-Algorithmus: Fehlerrate 5.4% unser Algorithmus: 1636 von 1644 korrekt Fehlerrate 0.5% Laufzeit 2.1 s Circulus Franconicus P = L = 1644 mehr kombinat. Schlussfolgern notwendig!
138 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Franckenlandt P = L = 517 Franckenlandt Greedy-Algorithmus: Fehlerrate 17.8% unser Algorithmus: 515 von 517 korrekt Fehlerrate 0.4% Laufzeit 0.9 s Circulus Franconicus Greedy-Algorithmus: Fehlerrate 5.4% unser Algorithmus: 1636 von 1644 korrekt Fehlerrate 0.5% Laufzeit 2.1 s Circulus Franconicus P = L = 1644 mehr kombinat. Schlussfolgern notwendig!
139 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Positionsungenauigkeiten
140 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Positionsungenauigkeiten z.b. aufgrund von Fehlern in vorhergehenden Verarbeitungsschritten.
141 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Positionsungenauigkeiten z.b. aufgrund von Fehlern in vorhergehenden Verarbeitungsschritten. Simulation solcher Ungenauigkeiten
142 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Positionsungenauigkeiten z.b. aufgrund von Fehlern in vorhergehenden Verarbeitungsschritten. Simulation solcher Ungenauigkeiten Verschiebung von Labels um zufällige Distanz < ρ
143 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Positionsungenauigkeiten z.b. aufgrund von Fehlern in vorhergehenden Verarbeitungsschritten. Simulation solcher Ungenauigkeiten Verschiebung von Labels um zufällige Distanz < ρ Würzburg ρ
144 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Positionsungenauigkeiten z.b. aufgrund von Fehlern in vorhergehenden Verarbeitungsschritten. Simulation solcher Ungenauigkeiten Verschiebung von Labels um zufällige Distanz < ρ Würzburg ρ
145 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Positionsungenauigkeiten z.b. aufgrund von Fehlern in vorhergehenden Verarbeitungsschritten. Simulation solcher Ungenauigkeiten ρ in [px] Verschiebung von Labels um zufällige Distanz < ρ
146 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Positionsungenauigkeiten z.b. aufgrund von Fehlern in vorhergehenden Verarbeitungsschritten. Simulation solcher Ungenauigkeiten ρ in [px] Verschiebung von Labels um zufällige Distanz < ρ Algorithmus kompensiert Positionsungenauigkeiten, so lange sie nicht zu groß sind
147 Experimente ausgeglichene Eingabedaten Ausgeglichene Eingabedaten bedeutet, dass lose Markierungen und Labels manuell entfernt wurden. Positionsungenauigkeiten z.b. aufgrund von Fehlern in vorhergehenden Verarbeitungsschritten. Simulation solcher Ungenauigkeiten ρ in [px] Verschiebung von Labels um zufällige Distanz < ρ Algorithmus kompensiert Positionsungenauigkeiten, so lange sie nicht zu groß sind Im Beispiel bleibt die Fehlerrate für ρ < 30 px unter 4% (ungefähr die Breite von 3 Zeichen)
148 Experimente unausgeglichene Eingabedaten
149 Experimente unausgeglichene Eingabedaten Unausgeglichene Eingabedaten enthalten Labels, die nichts beschriften, und Markierungen, die nicht beschriftet sind.
150 Experimente unausgeglichene Eingabedaten Unausgeglichene Eingabedaten enthalten Labels, die nichts beschriften, und Markierungen, die nicht beschriftet sind. in historischen Landkarten in kleiner Zahl enthalten
151 Experimente unausgeglichene Eingabedaten Unausgeglichene Eingabedaten enthalten Labels, die nichts beschriften, und Markierungen, die nicht beschriftet sind. in historischen Landkarten in kleiner Zahl enthalten durch Fehler in vorhergehenden Verarbeitungsschritten entstanden
152 Experimente unausgeglichene Eingabedaten Unausgeglichene Eingabedaten enthalten Labels, die nichts beschriften, und Markierungen, die nicht beschriftet sind. in historischen Landkarten in kleiner Zahl enthalten durch Fehler in vorhergehenden Verarbeitungsschritten entstanden Franckenlandt unser Algorithmus: Fehlerrate 3.5% Greedy-Algorithmus: Fehlerrate 17.8%
153 Experimente unausgeglichene Eingabedaten Unausgeglichene Eingabedaten enthalten Labels, die nichts beschriften, und Markierungen, die nicht beschriftet sind. in historischen Landkarten in kleiner Zahl enthalten durch Fehler in vorhergehenden Verarbeitungsschritten entstanden Franckenlandt unser Algorithmus: Fehlerrate 3.5% Greedy-Algorithmus: Fehlerrate 17.8% Circulus Franconicus unser Algorithmus: Fehlerrate 1.3% Greedy-Algorithmus: Fehlerrate 5.9%
154 Experimente unausgeglichene Eingabedaten Unausgeglichene Eingabedaten enthalten Labels, die nichts beschriften, und Markierungen, die nicht beschriftet sind. in historischen Landkarten in kleiner Zahl enthalten durch Fehler in vorhergehenden Verarbeitungsschritten entstanden Simulation fehlender Elemente Markierungen und Labels werden mit bestimmter Wahrscheinlichkeit aus der Eingabe entfernt
155 Experimente unausgeglichene Eingabedaten Unausgeglichene Eingabedaten enthalten Labels, die nichts beschriften, und Markierungen, die nicht beschriftet sind. in historischen Landkarten in kleiner Zahl enthalten durch Fehler in vorhergehenden Verarbeitungsschritten entstanden Simulation fehlender Elemente Markierungen und Labels werden mit bestimmter Wahrscheinlichkeit aus der Eingabe entfernt Anzahl korrekter Zuordnungen verringert sich, aber Fehlerrate bleibt konstant
156 Experimente unausgeglichene Eingabedaten Unausgeglichene Eingabedaten enthalten Labels, die nichts beschriften, und Markierungen, die nicht beschriftet sind. in historischen Landkarten in kleiner Zahl enthalten durch Fehler in vorhergehenden Verarbeitungsschritten entstanden Simulation fehlender Elemente Markierungen und Labels werden mit bestimmter Wahrscheinlichkeit aus der Eingabe entfernt Anzahl korrekter Zuordnungen verringert sich, aber Fehlerrate bleibt konstant Fehlende Elemente können den Algorithmus nicht signifikant verwirren
157 Benutzerinteraktion
158 Benutzerinteraktion Fehlerraten in Experimenten
159 Benutzerinteraktion Fehlerraten in Experimenten Franckenlandt 3.5% Circulus Franconicus 1.3%
160 Benutzerinteraktion Fehlerraten in Experimenten Franckenlandt 3.5% Circulus Franconicus 1.3% Unklare Situationen?
161 Benutzerinteraktion Fehlerraten in Experimenten Franckenlandt 3.5% Circulus Franconicus 1.3% manuelle Überprüfung/Korrektur notwendig Unklare Situationen?
162 Benutzerinteraktion Fehlerraten in Experimenten Franckenlandt 3.5% Circulus Franconicus 1.3% manuelle Überprüfung/Korrektur notwendig Unklare Situationen? Is this assignment correct?
163 Benutzerinteraktion Fehlerraten in Experimenten Franckenlandt 3.5% Circulus Franconicus 1.3% manuelle Überprüfung/Korrektur notwendig Unklare Situationen? Is this assignment correct? Problem:
164 Benutzerinteraktion Fehlerraten in Experimenten Franckenlandt 3.5% Circulus Franconicus 1.3% manuelle Überprüfung/Korrektur notwendig Unklare Situationen? Is this assignment correct? Problem: viele Karten enthalten tausende solcher Elemente
165 Sensitivitätsanalyse
166 Sensitivitätsanalyse Problem: Wir wollen dem Benutzer nicht tausende Zuordnungen zur Überprüfung zeigen
167 Sensitivitätsanalyse Problem: Wir wollen dem Benutzer nicht tausende Zuordnungen zur Überprüfung zeigen Idee: Zeige nur Zuordnungen, bei denen sich der Algorithmus nicht sicher ist
168 Sensitivitätsanalyse Problem: Wir wollen dem Benutzer nicht tausende Zuordnungen zur Überprüfung zeigen Idee: Sensitivitätsanalyse Zeige nur Zuordnungen, bei denen sich der Algorithmus nicht sicher ist
169 Sensitivitätsanalyse Problem: Wir wollen dem Benutzer nicht tausende Zuordnungen zur Überprüfung zeigen Idee: Zeige nur Zuordnungen, bei denen sich der Algorithmus nicht sicher ist Sensitivitätsanalyse Berechne für jede Zuordnung (p, l) M wieviel schlechter der Zielfunktionswert würde, wenn wir p und l nicht einander zuordnen düften.
170 Sensitivitätsanalyse Problem: Wir wollen dem Benutzer nicht tausende Zuordnungen zur Überprüfung zeigen Idee: Sensitivitätsanalyse Zeige nur Zuordnungen, bei denen sich der Algorithmus nicht sicher ist Berechne für jede Zuordnung (p, l) M wieviel schlechter der Zielfunktionswert würde, wenn wir p und l nicht einander zuordnen düften. m 1 l 1 m 2 l 2 m 3
171 Sensitivitätsanalyse Problem: Wir wollen dem Benutzer nicht tausende Zuordnungen zur Überprüfung zeigen Idee: Sensitivitätsanalyse Zeige nur Zuordnungen, bei denen sich der Algorithmus nicht sicher ist Berechne für jede Zuordnung (p, l) M wieviel schlechter der Zielfunktionswert würde, wenn wir p und l nicht einander zuordnen düften. m 1 l 1 m 2 l 2 m 3
172 Sensitivitätsanalyse Problem: Wir wollen dem Benutzer nicht tausende Zuordnungen zur Überprüfung zeigen Idee: Sensitivitätsanalyse Zeige nur Zuordnungen, bei denen sich der Algorithmus nicht sicher ist Berechne für jede Zuordnung (p, l) M wieviel schlechter der Zielfunktionswert würde, wenn wir p und l nicht einander zuordnen düften. m 1 l 1 m 2 l 2 m 3 (m 1, l 1 ) Verschlecht. Sensitivität
173 Sensitivitätsanalyse Problem: Wir wollen dem Benutzer nicht tausende Zuordnungen zur Überprüfung zeigen Idee: Sensitivitätsanalyse Zeige nur Zuordnungen, bei denen sich der Algorithmus nicht sicher ist Berechne für jede Zuordnung (p, l) M wieviel schlechter der Zielfunktionswert würde, wenn wir p und l nicht einander zuordnen düften. m 1 l 1 m 2 l 2 m 3 (m 1, l 1 ) Verschlecht. Sensitivität
174 Sensitivitätsanalyse Problem: Wir wollen dem Benutzer nicht tausende Zuordnungen zur Überprüfung zeigen Idee: Sensitivitätsanalyse Zeige nur Zuordnungen, bei denen sich der Algorithmus nicht sicher ist Berechne für jede Zuordnung (p, l) M wieviel schlechter der Zielfunktionswert würde, wenn wir p und l nicht einander zuordnen düften. m 1 l 1 m 2 l 2 m 3 (m 1, l 1 ) Verschlecht. Sensitivität
175 Sensitivitätsanalyse Problem: Wir wollen dem Benutzer nicht tausende Zuordnungen zur Überprüfung zeigen Idee: Sensitivitätsanalyse Zeige nur Zuordnungen, bei denen sich der Algorithmus nicht sicher ist Berechne für jede Zuordnung (p, l) M wieviel schlechter der Zielfunktionswert würde, wenn wir p und l nicht einander zuordnen düften. m 1 l 1 m 2 l 2 m 3 (m 1, l 1 ) Verschlecht. gering Sensitivität
176 Sensitivitätsanalyse Problem: Wir wollen dem Benutzer nicht tausende Zuordnungen zur Überprüfung zeigen Idee: Sensitivitätsanalyse Zeige nur Zuordnungen, bei denen sich der Algorithmus nicht sicher ist Berechne für jede Zuordnung (p, l) M wieviel schlechter der Zielfunktionswert würde, wenn wir p und l nicht einander zuordnen düften. m 1 l 1 m 2 l 2 m 3 (m 1, l 1 ) Verschlecht. gering Sensitivität hoch
177 Sensitivitätsanalyse Problem: Wir wollen dem Benutzer nicht tausende Zuordnungen zur Überprüfung zeigen Idee: Sensitivitätsanalyse Zeige nur Zuordnungen, bei denen sich der Algorithmus nicht sicher ist Berechne für jede Zuordnung (p, l) M wieviel schlechter der Zielfunktionswert würde, wenn wir p und l nicht einander zuordnen düften. m 1 l 1 m 2 l 2 m 3 (m 1, l 1 ) (m 3, l 2 ) Verschlecht. gering Sensitivität hoch
178 Sensitivitätsanalyse Problem: Wir wollen dem Benutzer nicht tausende Zuordnungen zur Überprüfung zeigen Idee: Sensitivitätsanalyse Zeige nur Zuordnungen, bei denen sich der Algorithmus nicht sicher ist Berechne für jede Zuordnung (p, l) M wieviel schlechter der Zielfunktionswert würde, wenn wir p und l nicht einander zuordnen düften. m 1 l 1 m 2 l 2 m 3 (m 1, l 1 ) (m 3, l 2 ) Verschlecht. gering Sensitivität hoch
179 Sensitivitätsanalyse Problem: Wir wollen dem Benutzer nicht tausende Zuordnungen zur Überprüfung zeigen Idee: Sensitivitätsanalyse Zeige nur Zuordnungen, bei denen sich der Algorithmus nicht sicher ist Berechne für jede Zuordnung (p, l) M wieviel schlechter der Zielfunktionswert würde, wenn wir p und l nicht einander zuordnen düften. m 1 l 1 m 2 l 2 m 3 (m 1, l 1 ) (m 3, l 2 ) Verschlecht. gering Sensitivität hoch
180 Sensitivitätsanalyse Problem: Wir wollen dem Benutzer nicht tausende Zuordnungen zur Überprüfung zeigen Idee: Sensitivitätsanalyse Zeige nur Zuordnungen, bei denen sich der Algorithmus nicht sicher ist Berechne für jede Zuordnung (p, l) M wieviel schlechter der Zielfunktionswert würde, wenn wir p und l nicht einander zuordnen düften. m 1 l 1 m 2 l 2 m 3 (m 1, l 1 ) Verschlecht. Sensitivität gering hoch (m 3, l 2 ) hoch gering
181 Klassifikation
182 Klassifikation Wir entscheiden anhand der Sensitivität jeder Zuordnung, ob sie dem Benutzer zur Überprüfung gezeigt wird:
183 Klassifikation Wir entscheiden anhand der Sensitivität jeder Zuordnung, ob sie dem Benutzer zur Überprüfung gezeigt wird: Klassifizierung mit Schwellenwert t
184 Klassifikation Wir entscheiden anhand der Sensitivität jeder Zuordnung, ob sie dem Benutzer zur Überprüfung gezeigt wird: Klassifizierung mit Schwellenwert t sortiere Zuordnungen absteigend nach Sensitivität
185 Klassifikation Wir entscheiden anhand der Sensitivität jeder Zuordnung, ob sie dem Benutzer zur Überprüfung gezeigt wird: Klassifizierung mit Schwellenwert t sortiere Zuordnungen absteigend nach Sensitivität klassifiziere Zuordnungen mit Sensitivität t als zeigen
186 Klassifikation Wir entscheiden anhand der Sensitivität jeder Zuordnung, ob sie dem Benutzer zur Überprüfung gezeigt wird: Klassifizierung mit Schwellenwert t sortiere Zuordnungen absteigend nach Sensitivität klassifiziere Zuordnungen mit Sensitivität t als zeigen klassifiziere verbleibende Zuordnungen als nicht zeigen
187 Klassifikation Wir entscheiden anhand der Sensitivität jeder Zuordnung, ob sie dem Benutzer zur Überprüfung gezeigt wird: Klassifizierung mit Schwellenwert t sortiere Zuordnungen absteigend nach Sensitivität klassifiziere Zuordnungen mit Sensitivität t als zeigen klassifiziere verbleibende Zuordnungen als nicht zeigen Performance dieses Klassifikators
188 Klassifikation Wir entscheiden anhand der Sensitivität jeder Zuordnung, ob sie dem Benutzer zur Überprüfung gezeigt wird: Klassifizierung mit Schwellenwert t sortiere Zuordnungen absteigend nach Sensitivität klassifiziere Zuordnungen mit Sensitivität t als zeigen klassifiziere verbleibende Zuordnungen als nicht zeigen Performance dieses Klassifikators mittels Receiver Operating Characteristic (ROC) Curve
189 Klassifikation Wir entscheiden anhand der Sensitivität jeder Zuordnung, ob sie dem Benutzer zur Überprüfung gezeigt wird: Klassifizierung mit Schwellenwert t Circulus Franconicus sortiere Zuordnungen absteigend nach Sensitivität Franckenlandt klassifiziere Zuordnungen mit Sensitivität t als zeigen klassifiziere verbleibende Zuordnungen als nicht zeigen Performance dieses Klassifikators mittels Receiver Operating Characteristic (ROC) Curve
190 Klassifikation Wir entscheiden anhand der Sensitivität jeder Zuordnung, ob sie dem Benutzer zur Überprüfung gezeigt wird: Klassifizierung mit Schwellenwert t Circulus Franconicus sortiere Zuordnungen absteigend nach Sensitivität Franckenlandt klassifiziere Zuordnungen mit Sensitivität t als zeigen klassifiziere verbleibende Zuordnungen als nicht zeigen Performance dieses Klassifikators mittels Receiver Operating Characteristic (ROC) Curve Area under Curve (AUC)-Werte liegen bei 0.89 und 0.94
191 Klassifikation Wir entscheiden anhand der Sensitivität jeder Zuordnung, ob sie dem Benutzer zur Überprüfung gezeigt wird: Klassifizierung mit Schwellenwert t Circulus Franconicus sortiere Zuordnungen absteigend nach Sensitivität Franckenlandt klassifiziere Zuordnungen mit Sensitivität t als zeigen klassifiziere verbleibende Zuordnungen als nicht zeigen Performance dieses Klassifikators mittels Receiver Operating Characteristic (ROC) Curve Area under Curve (AUC)-Werte liegen bei 0.89 und 0.94 hervorragende Perfomance
192 Benutzerinteraktion
193 Benutzerinteraktion Vorschlag für eine Benutzerschnittstelle
194 Benutzerinteraktion Vorschlag für eine Benutzerschnittstelle Präsentation sensitiver Zuordnungen
195 Benutzerinteraktion Vorschlag für eine Benutzerschnittstelle Präsentation sensitiver Zuordnungen farbige Visualisierung nach Sensitivität
196 Benutzerinteraktion Vorschlag für eine Benutzerschnittstelle Präsentation sensitiver Zuordnungen farbige Visualisierung nach Sensitivität Vorschau auf nächstbeste Zuordnung
197 Benutzerinteraktion Vorschlag für eine Benutzerschnittstelle Präsentation sensitiver Zuordnungen farbige Visualisierung nach Sensitivität Vorschau auf nächstbeste Zuordnung Prototyp implementiert als QuantumGIS-Plugin
198 Zusammenfassung und Ausblick
199 Zusammenfassung und Ausblick Konzept für ein System zur semi-automatischen Metadaten-Extraktion auf historischen Landkarten
200 Zusammenfassung und Ausblick Konzept für ein System zur semi-automatischen Metadaten-Extraktion auf historischen Landkarten Algorithmische Umsetzung eines Moduls aus diesem System
201 Zusammenfassung und Ausblick Konzept für ein System zur semi-automatischen Metadaten-Extraktion auf historischen Landkarten Algorithmische Umsetzung eines Moduls aus diesem System Prototypen einer Benutzerschnittstelle für dieses Modul
202 Zusammenfassung und Ausblick Konzept für ein System zur semi-automatischen Metadaten-Extraktion auf historischen Landkarten Algorithmische Umsetzung eines Moduls aus diesem System Prototypen einer Benutzerschnittstelle für dieses Modul Zukünftige Arbeiten und offene Fragen
203 Zusammenfassung und Ausblick Konzept für ein System zur semi-automatischen Metadaten-Extraktion auf historischen Landkarten Algorithmische Umsetzung eines Moduls aus diesem System Prototypen einer Benutzerschnittstelle für dieses Modul Zukünftige Arbeiten und offene Fragen Umsetzung der übrigen Module des vorgeschlagenen Systems
204 Zusammenfassung und Ausblick Konzept für ein System zur semi-automatischen Metadaten-Extraktion auf historischen Landkarten Algorithmische Umsetzung eines Moduls aus diesem System Prototypen einer Benutzerschnittstelle für dieses Modul Zukünftige Arbeiten und offene Fragen Umsetzung der übrigen Module des vorgeschlagenen Systems Verbesserung der Benutzerschnittstelle
Methoden zur Cluster - Analyse
Kapitel 4 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics
MehrTheoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme
Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien
MehrKapitel 9: Lineare Programmierung Gliederung
Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen
MehrApproximationsalgorithmen
Effiziente Algorithmen Lösen NP-vollständiger Probleme 320 Approximationsalgorithmen In polynomieller Zeit lässen sich nicht exakte Lösungen von NP-harten Problemen berechnen. Approximationsalgorithmen
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen
INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und Selektion
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen
INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und Selektion
MehrProbleme aus NP und die polynomielle Reduktion
Probleme aus NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 15. Dezember 2009 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit
MehrKapitel 8: Bipartite Graphen Gliederung der Vorlesung
Gliederung der Vorlesung 1. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen 3. Kürzeste Wege 4. Minimale spannende Bäume 5. Färbungen und Cliquen 6. Traveling Salesman Problem 7. Flüsse in Netzwerken
Mehr2.7 Der Shannon-Fano-Elias Code
2.7 Der Shannon-Fano-Elias Code Die Huffman-Codierung ist ein asymptotisch optimales Verfahren. Wir haben auch gesehen, dass sich die Huffman-Codierung gut berechnen und dann auch gut decodieren lassen.
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
Mehr21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3
581 21. Greedy Algorithmen Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 Aktivitäten Auswahl 582 Koordination von Aktivitäten, die gemeinsame Resource exklusiv
MehrSeminar. Algorithmische Geometrie
Seminar Algorithmische Geometrie WS 2000/2001 Thema: Konvexe Hülle Mirko Dennler 21439 Inhaltsverzeichnis Konvexe Hülle 1. Problemstellung 3 2. GRAHAMS SCAN 4-5 3. JARVIS' MARCH 5-6 4. QUICK HULL 6-7 5.
MehrBeschriftung in Dynamischen Karten
Vorlesung Algorithmische Kartografie Teil 2 LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 11.06.2013 Die Ära der dynamischen Karten Die meisten
Mehr21. Dynamic Programming III
Approximation 21. Dynamic Programming III FPTAS [Ottman/Widmayer, Kap. 7.2, 7.3, Cormen et al, Kap. 15,35.5] Sei ein ε (, 1) gegeben. Sei I eine bestmögliche Auswahl. Suchen eine gültige Auswahl I mit
MehrDie Klasse NP und die polynomielle Reduktion. Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen
Die Klasse NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1 / 26 Optimierungsprobleme und ihre Entscheidungsvariante Beim Rucksackproblem
Mehr6.1. Ein Approximationsalgorithmus für das Rucksackproblem
6.1. Ein Approximationsalgorithmus für das Rucksackproblem Wir erinnern uns an das 0-1-Rucksackproblem: Eingabe: Ganzzahlige Volumina a 1,..., a n > 0, Nutzenwerte c 1,..., c n > 0, ganzzahlige Volumenschranke
Mehr1 Matroide. 1.1 Definitionen und Beispiele. Seminar zur ganzzahligen Optimierung Thema: Durchschnitt von Matroiden - Satz von Edmonds von Dany Sattler
Seminar zur ganzzahligen Optimierung Thema: Durchschnitt von Matroiden - Satz von Edmonds von Dany Sattler 1 Matroide 1.1 Definitionen und Beispiele 1. Definition (Unabhängigkeitssystem): Ein Mengensystem
Mehr1. Klausur zur Vorlesung Algorithmentechnik Wintersemester 2008/2009
. Klausur zur Vorlesung Algorithmentechnik Wintersemester 008/009 Hier Aufkleber mit Name und Matrikelnummer anbringen Vorname: Nachname: Matrikelnummer: Beachten Sie: Bringen Sie den Aufkleber mit Ihrem
MehrMap Matching. Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf.
Map Matching Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf. Ergebnis mit minimaler Fréchet-Distanz Annahme: Fahrer wählen bevorzugt kürzeste Wege im Straßennetz.
MehrAlgorithmische Bioinformatik 1
Algorithmische Bioinformatik 1 Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Sommersemester 2009 Übersicht Algorithmen
MehrINTELLIGENTE DATENANALYSE IN MATLAB
INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Sh Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 16 Programm: Einführung
MehrApproximationsalgorithmen für NP-harte Optimierungsprobleme
Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 1 / 18 Was tun mit NP-harten Problemen? Viele praxisrelevante
MehrRandomisierte Algorithmen und probabilistische Analyse
Randomisierte Algorithmen und probabilistische Analyse S.Seidl, M.Nening, T.Niederleuthner S.Seidl, M.Nening, T.Niederleuthner 1 / 29 Inhalt 1 Randomisierte Algorithmen 2 Probabilistische Analyse S.Seidl,
MehrApproximationsalgorithmen für NP-harte Optimierungsprobleme
Approximationsalgorithmen für NP-harte Optimierungsprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 4. Januar 2011 Berthold Vöcking, Informatik 1 () Vorlesung
MehrBeschleunigung von kräftebasierten Graphzeichenalgorithmen mittels wohlseparierten Paardekompositionen
Bachelorkolloquium Beschleunigung von kräftebasierten Graphzeichenalgorithmen mittels wohlseparierten Paardekompositionen von Johannes Zink Übersicht 1. Grundlagen 1.1 Kräftebasierte Graphzeichenalgorithmen
MehrWahrscheinlichkeitsrechnung und Statistik
Babeş-Bolyai Universität Fakultät für Mathematik und Informatik Oktober 2018 Im Alltag... Laut den meteorologischen Vorhersagen wird es morgen regnen. Ob ich riskiere und die Wette verlieren werde? Ich
MehrLaufzeit. Finden eines Matchings maximaler Kardinalität dauert nur O( E min{ V 1, V 2 }) mit der Ford Fulkerson Methode.
Effiziente Algorithmen Flußprobleme 81 Laufzeit Finden eines Matchings maximaler Kardinalität dauert nur O( E min{ V 1, V 2 }) mit der Ford Fulkerson Methode. Der Fluß ist höchstens f = min{ V 1, V 2 }.
MehrFlüsse, Schnitte, bipartite Graphen
Flüsse, chnitte, bipartite Graphen Matthias Hoffmann 5.5.009 Matthias Hoffmann Flüsse, chnitte, bipartite Graphen 5.5.009 / 48 Übersicht Einführung Beispiel Definitionen Ford-Fulkerson-Methode Beispiel
Mehr2. November Gradfolgen Zusammenhang Kürzeste Wege. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 37
2. November 2011 Gradfolgen Zusammenhang Kürzeste Wege H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 37 Satz von Erdős und Gallai Eine Partition einer natürlichen Zahl ist genau dann die Gradfolge
MehrWie wird ein Graph dargestellt?
Wie wird ein Graph dargestellt? Für einen Graphen G = (V, E), ob gerichtet oder ungerichtet, verwende eine Adjazenzliste A G : A G [i] zeigt auf eine Liste aller Nachbarn von Knoten i, wenn G ungerichtet
MehrPCA based feature fusion
PCA based feature fusion Seminar Inhaltsbasierte Bildsuche WS 04/05 Übersicht Motivation: PCA an einem Beispiel PCA in der Bildsuche Tests Zusammenfassung / Ausblick Diskussion / Demo 2 Motivation: PCA
MehrOptimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn
Optimierung Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung 1 Assignment Problem (Zuordnungsproblem) Gewichtetes Perfektes Bipartites Matching agents Costs tasks Weise jedem Agenten genau
MehrDie Klasse NP und die polynomielle Reduktion
Die Klasse NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen Dezember 2011 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester
MehrApproximationsalgorithmen
Approximationsalgorithmen 1. Vorlesung Joachim Spoerhase Alexander Wolff Lehrstuhl für Informatik I Wintersemester 2017/18 Bücher zur Vorlesung Vijay V. Vazirani Approximation Algorithms Springer-Verlag
MehrRandomisierte Algorithmen 2. Erste Beispiele
Randomisierte Algorithmen Randomisierte Algorithmen 2. Erste Beispiele Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2016/2017 1 / 35 Randomisierter Identitätstest
MehrDie Komplexitätsklassen P und NP
Die Komplexitätsklassen P und NP Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen November 2011 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit und
MehrAlgorithmische Graphentheorie
Algorithmische Graphentheorie Sommersemester 2016 2. Vorlesung Rundreiseprobleme Teil II Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I Übersicht I) Eulerkreise III) Handlungsreisende II) Hamiltonkreise
MehrOPT Optimierende Clusteranalyse
Universität Augsburg Fakultät für angewandte Informatik Lehrstuhl für Physische Geographie und Quantitative Methoden Übung zum Projektseminar: Wetterlagen und Feinstaub Leitung: Dr. Christoph Beck Referentin:
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am..03 Randomisierte Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil 5 Prof. Peter F. Stadler & Dr. Christian Höner zu Siederdissen Bioinformatik/IZBI Institut für Informatik & Interdisziplinäres Zentrum für Bioinformatik Universität
MehrKapitel 3: Sortierverfahren Gliederung
Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen
Mehr1.8 Shift-And-Algorithmus
.8 Shift-And-Algorithmus nutzt durch Bitoperationen mögliche Parallelisierung Theoretischer Hintergrund: Nichtdeterministischer endlicher Automat Laufzeit: Θ(n), falls die Länge des Suchwortes nicht größer
MehrTheoretische Informatik 1
Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 10.06.2016 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP
MehrDüngersäcke (1) Mehrere Maschinen füllen Säcke mit Dünger ab. Als Füllmenge sind laut Aufdruck 25 kg vorgesehen.
Düngersäcke (1) Aufgabennummer: B_171 Technologieeinsatz: möglich S erforderlich Mehrere Maschinen füllen Säcke mit Dünger ab. Als Füllmenge sind laut Aufdruck 25 kg vorgesehen. a) Langfristige Überprüfungen
MehrKapitel 2: Sortier- und Selektionsverfahren Gliederung
Gliederung 1. Laufzeit von Algorithmen 2. Sortier- und Selektionsverfahren 3. Paradigmen des Algorithmenentwurfs 4. Ausgewählte Datenstrukturen 5. Algorithmische Geometrie 6. Randomisierte Algorithmen
MehrPerlen der Informatik I Wintersemester 2012 Aufgabenblatt 7
Technische Universität München WS 2012 Institut für Informatik Prof. Dr. H.-J. Bungartz Prof. Dr. T. Huckle Prof. Dr. M. Bader Kristof Unterweger Perlen der Informatik I Wintersemester 2012 Aufgabenblatt
MehrMustererkennung: Graphentheorie
Mustererkennung: Graphentheorie D. Schlesinger TUD/INF/KI/IS D. Schlesinger () ME: Graphentheorie 1 / 9 Definitionen Ein Graph ist ein Paar G = (V, E) mit der Menge der Knoten V und der Menge der Kanten:
MehrBeschriftung in Dynamischen Karten
Vorlesung Algorithmische Kartografie LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 04.06.2013 Was ist eine Landkarte? r e d o Dr. Martin No
MehrPrüfungsklausur Operations Research,
HTWD, Fakultät Informatik/Mathematik Prof. Dr. M. Voigt Prüfungsklausur Operations Research,.0.0 B Name, Vorname Matr. Nr. Aufgabe gesamt erreichbare P. () 0+ erreichte P. Bemerkungen: Die angewendeten
MehrPrüfungsklausur Operations Research,
HTWD, Fakultät Informatik/Mathematik Prof. Dr. M. Voigt Prüfungsklausur Operations Research, 12.0.201 A Name, Vorname Matr. Nr. Aufgabe 1 2 6 gesamt erreichbare P. 1 () 1 1 0+ erreichte P. Bemerkungen:
MehrAlgorithmen und Komplexität Lösungsvorschlag zu Übungsblatt 8
ETH Zürich Institut für Theoretische Informatik Prof. Dr. Angelika Steger Florian Meier, Ralph Keusch HS 2017 Algorithmen und Komplexität Lösungsvorschlag zu Übungsblatt 8 Lösungsvorschlag zu Aufgabe 1
MehrDie Komplexitätsklassen P und NP
Die Komplexitätsklassen P und NP Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 3. Dezember 2009 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit und
MehrTheoretische Informatik
Theoretische Informatik Sommersemester 2016 Steffen Lange 0/1, Folie 1 2016 Prof. Steffen Lange - HDa/FbI - Theoretische Informatik Literatur S. Lange, M. Margraf, Theoretische Informatik, Lehrmaterial
MehrDurchschnitt von Matroiden
Durchschnitt von Matroiden Satz von Edmonds Dany Sattler 18. Januar 2007/ Seminar zur ganzzahligen Optimierung / Wallenfels Definition: Unabhängigkeitssystem Definition: Ein Mengensystem (S, J ) nennt
MehrKryptographische Protokolle
Kryptographische Protokolle Lerneinheit 2: Generierung von Primzahlen Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Wintersemester 2018/2019 15.11.2018 Einleitung Einleitung Diese Lerneinheit
MehrEffiziente Algorithmen (SS2015)
Effiziente Algorithmen (SS205) Kapitel 5 Approximation II Walter Unger Lehrstuhl für Informatik 2.06.205 07:59 5 Inhaltsverzeichnis < > Walter Unger 5.7.205 :3 SS205 Z Inhalt I Set Cover Einleitung Approximation
MehrAlgorithmen und Datenstrukturen (Informatik II) SS Klausur
Lehrstuhl für Algorith. und Datenstrukturen Prof. Dr. Hannah Bast Axel Lehmann Algorithmen und Datenstrukturen (Informatik II) SS 2013 http://ad-wiki.informatik.uni-freiburg.de/teaching Klausur Mittwoch
Mehr1 Einleitung. 2 Clustering
Lernende Vektorquantisierung (LVQ) und K-Means-Clustering David Bouchain Proseminar Neuronale Netze Kurs-Nr.: CS4400 ISI WS 2004/05 david@bouchain.de 1 Einleitung Im Folgenden soll zum einen ein Überblick
MehrDas Problem des Handlungsreisenden
Seite 1 Das Problem des Handlungsreisenden Abbildung 1: Alle möglichen Rundreisen für 4 Städte Das TSP-Problem tritt in der Praxis in vielen Anwendungen als Teilproblem auf. Hierzu gehören z.b. Optimierungsprobleme
MehrPolynomial Time Approximation Schemes for Euclidean Traveling Salesman Problems. Benjamin Thome
Polynomial Time Approximation Schemes for Euclidean Traveling Salesman Problems Benjamin Thome Gliederung Einleitung Definitionen ETSP in R 2 Der Algorithmus in R 2 ETSP in R d Idee Algorithmus für f R
MehrSystems of Distinct Representatives
Systems of Distinct Representatives Seminar: Extremal Combinatorics Peter Fritz Lehr- und Forschungsgebiet Theoretische Informatik RWTH Aachen Systems of Distinct Representatives p. 1/41 Gliederung Einführung
MehrFerienkurs zur algorithmischen diskreten Mathematik Kapitel 3: Minimal aufspannende Bäume und Matroide
Ferienkurs zur algorithmischen diskreten Mathematik Kapitel 3: Minimal aufspannende Bäume und Matroide Dipl-Math. Wolfgang Kinzner 3.4.2012 Kapitel 3: Minimal aufspannende Bäume und Matroide Minimal aufspannende
MehrAlgorithmen auf Sequenzen Paarweiser Sequenzvergleich: Alignments
Algorithmen auf Sequenzen Paarweiser Sequenzvergleich: Alignments Sven Rahmann Genominformatik Universitätsklinikum Essen Universität Duisburg-Essen Universitätsallianz Ruhr Einführung Bisher: Berechnung
MehrKlausur. 18. Juli 2008, 10:15-12:15 Uhr. Name:... Matrikelnummer:... Anzahl beschriebener Blätter (ohne Aufgabenblatt):... D(p) : Y = p x X + p y
GRUNDZÜGE DER ALGORITHMISCHEN GEOMETRIE Klausur 18. Juli 2008, 10:15-12:15 Uhr Name:................................... Matrikelnummer:................................... Anzahl beschriebener Blätter (ohne
MehrAlgorithmen und Datenstrukturen
1 Algorithmen und Datenstrukturen Wintersemester 013/14 7. Vorlesung Zufall! Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I Ein Experiment Ein Franke und ein Münchner gehen (unabhängig voneinander)
MehrAlgorithmen und Datenstrukturen
1 Algorithmen und Datenstrukturen Wintersemester 2014/15 3. Vorlesung Laufzeitanalyse Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I 2 Recap: Diskutieren Sie mit Ihrer NachbarIn! 1. 2. 3. Was sind
MehrFlächenaggregation LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK
Vorlesung Algorithmische Kartografie Flächenaggregation LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 09.07.2013 1 Flächenaggregation Flächennutzung
MehrNP-vollständige Probleme
Effiziente Algorithmen Lösen NP-vollständiger Probleme 256 NP-vollständige Probleme Keine polynomiellen Algorithmen, falls P NP. Viele wichtige Probleme sind NP-vollständig. Irgendwie müssen sie gelöst
MehrTechnische Universität München Fakultät für Mathematik Algorithmische Diskrete Mathematik WS 2012/2013 Prof. Dr. P. Gritzmann 22.
Note: Name Vorname Matrikelnummer Studiengang Unterschrift der Kandidatin/des Kandidaten Hörsaal Reihe Platz Technische Universität München Fakultät für Mathematik Algorithmische Diskrete Mathematik WS
MehrSatz 324 Sei M wie oben. Dann gibt es für ein geeignetes k Konstanten c i > 0 und Permutationsmatrizen P i, i = 1,...
Satz 324 Sei M wie oben. Dann gibt es für ein geeignetes k Konstanten c i > 0 und Permutationsmatrizen P i, i = 1,..., k, so dass gilt M = k c i P i i=1 k c i = r. i=1 Diskrete Strukturen 7.1 Matchings
MehrFast-SLAM: Synchrone Lokalisierung und Kartenerstellung mit einem Partikel-Filter
Fast-SLAM: Synchrone Lokalisierung und Kartenerstellung mit einem Partikel-Filter! Landmarkenbasiertes Fast-SLAM! Gitterbasiertes Fast-Slam! Optimierungen Prof. Dr. O. Bittel, HTWG Konstanz Autonome Roboter
MehrZeitkomplexität (1) Proseminar Theoretische Informatik. Proseminar Theoretische Informatik: Lisa Dohrmann 1
Zeitkomplexität (1) Proseminar Theoretische Informatik Proseminar Theoretische Informatik: Lisa Dohrmann 1 Warum Komplexitätsbetrachtung? Ein im Prinzip entscheidbares und berechenbares Problem kann in
MehrAlgorithmen zur Visualisierung von Graphen Lagenlayouts
Algorithmen zur Visualisierung von Graphen Lagenlayouts Marcus Krug Institut für Theoretische Informatik 25.06.2009 1/ 41 E-Mail-Graph der Fakultät für Informatik 2/ 41 E-Mail-Graph der Fakultät für Informatik
MehrTheoretische Informatik 1
Theoretische Informatik 1 Search - Beweis der Korrektheit David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2013 Algemeine Anmerkungen zur Übung 9 Aufgabenblätter, 3 Abgabetermine
MehrKapitel 3: Untere Schranken für algorithmische Probleme Gliederung
Gliederung 1. Grundlagen 2. Analyse der Laufzeit von Algorithmen 3. Untere Schranken für algorithmische Probleme 4. Sortier- und Selektionsverfahren 5. Paradigmen des Algorithmenentwurfs 6. Ausgewählte
MehrBipartites Matching. Gegeben: Ein bipartiter, ungerichteter Graph (V 1, V 2, E). Gesucht: Ein Matching (Paarung) maximaler Kardinalität.
Netzwerkalgorithmen Bipartites Matching (Folie 90, Seite 80 im Skript) Gegeben: Ein bipartiter, ungerichteter Graph (V, V, E). Gesucht: Ein Matching (Paarung) maximaler Kardinalität. Ein Matching ist eine
MehrNutzung maschinellen Lernens zur Extraktion von Paragraphen aus PDF-Dokumenten
Nutzung maschinellen Lernens zur Extraktion von Paragraphen aus PDF-Dokumenten Albert-Ludwigs-Universität zu Freiburg 13.09.2016 Maximilian Dippel max.dippel@tf.uni-freiburg.de Überblick I Einführung Problemstellung
MehrGlobalübungsaufgabe1 (Rucksackproblem):
Prof. aa Dr. Ir. G. Woeginger T. Hartmann, D. Korzeniewski, B. Tauer Allgemeine Hinweise: Die Hausaufgaben sollen in Gruppen von je 2 Studierenden aus der gleichen Kleingruppenübung (Tutorium) bearbeitet
MehrÜbung 2 Algorithmen II
Yaroslav Akhremtsev, Demian Hespe yaroslav.akhremtsev@kit.edu, hespe@kit.edu Mit Folien von Michael Axtmann (teilweise) http://algo2.iti.kit.edu/algorithmenii_ws17.php - 0 Akhremtsev, Hespe: KIT Universität
MehrKürzeste und Schnellste Wege
Kürzeste und Schnellste Wege Wie funktionieren Navis? André Nusser (Folien inspiriert von Kurt Mehlhorn) Struktur Straßennetzwerke Naiver Algorithmus Dijkstras Algorithmus Transitknoten Nachbemerkungen
MehrLiteratur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS)
Dominating Set 59 Literatur Dominating Set Grundlagen 60 Dominating Set (DS) M. V. Marathe, H. Breu, H.B. Hunt III, S. S. Ravi, and D. J. Rosenkrantz: Simple Heuristics for Unit Disk Graphs. Networks 25,
MehrÜbersicht. Begriffserklärung Motivation / Anwendungen Drei Algorithmen Zusammenfassung Fragen Quellen. Triangulierung von Steffen Ernst 2
Triangulierung Übersicht Begriffserklärung Motivation / Anwendungen Drei Algorithmen Zusammenfassung Fragen Quellen Triangulierung von Steffen Ernst 2 Begriffserklärung Ein Graph ist trianguliert, wenn
MehrAlgorithmen und Datenstrukturen
Algorithmen und Datenstrukturen Wintersemester 2012/13 26. Vorlesung Greedy- und Approximationsalgorithmen Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I Operations Research Optimierung für Wirtschaftsabläufe:
MehrKapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung
Gliederung der Vorlesung. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen 3. Kürzeste Wege 4. Minimale spannende Bäume 5. Färbungen und Cliquen 6. Traveling Salesman Problem 7. Flüsse in Netzwerken
Mehr(Bamberg)
Konzeption eines Frameworks für die Evaluation von Tag-Suggestion-Algorithmen Martin Garbe Steffen Oldenburg Lukas Zielinski Prof. Dr. Clemens Cap (Universität Rostock) 08.05.2008 (Bamberg) Übersicht Tags
MehrVorlesung 7 GRAPHBASIERTE BILDSEGMENTIERUNG
Vorlesung 7 GRAPHBASIERTE BILDSEGMENTIERUNG 195 Bildsegmentierung! Aufgabe: Bestimme inhaltlich zusammenhängende, homogene Bereiche eines Bildes! Weit verbreitetes Problem in der Bildverarbeitung! Viele
MehrPunktbeschriftung in Dynamischen Karten
Vorlesung Algorithmische Kartografie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Benjamin Niedermann Martin Nöllenburg 28.05.2015 1 Übungen Nachtrag 1) Überlegen Sie sich, wie man den
MehrLinOpt - Tool zur Visualisierung eines multikriteriellen Optimierungsproblems
LinOpt Tool zur Visualisierung eines multikriteriellen Optimierungsproblems Erstellt von Michael Berklmeir, Michael Haarnagell, Stefan Kraus, Stephan Roser im Rahmen einer Seminararbeit am Lehrstuhl für
MehrClustering. Clustering:
Clustering Clustering: Gruppierung und Einteilung einer Datenmenge nach ähnlichen Merkmalen Unüberwachte Klassifizierung (Neuronale Netze- Terminologie) Distanzkriterium: Ein Datenvektor ist zu anderen
MehrWas bisher geschah. 1. Zerlegung in monotone Polygone 2. Triangulierung der monotonen Teilpolygone
Was bisher geschah Motivation, Beispiele geometrische Objekte im R 2 : Punkt, Gerade, Halbebene, Strecke, Polygon, ebene Zerlegung in Regionen (planare Graphen) maschinelle Repräsentation geometrischer
MehrFlüsse, Schnitte, Bipartite Graphen II
Flüsse, Schnitte, Bipartite Graphen II Jonathan Hacker 06.06.2016 Jonathan Hacker Flüsse, Schnitte, Bipartite Graphen II 06.06.2016 1 / 42 Gliederung Einführung Jonathan Hacker Flüsse, Schnitte, Bipartite
MehrAlgorithmen und Datenstrukturen
Algorithmen und Datenstrukturen Wintersemester 2012/13 25. Vorlesung Dynamisches Programmieren Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I Klausurvorbereitung Tipp: Schreiben Sie sich alle Fragen
MehrVery simple methods for all pairs network flow analysis
Very simple methods for all pairs network flow analysis obias Ludes 0.0.0. Einführung Um den maximalen Flusswert zwischen allen Knoten eines ungerichteten Graphen zu berechnen sind nach Gomory und Hu nur
MehrApproximationsalgorithmen. 19. Dezember / 28
Approximationsalgorithmen 19. Dezember 2017 1 / 28 Optimierungsprobleme Das Ziel: Bearbeite schwierige Optimierungsprobleme der Form opt y f (x, y) so dass L(x, y). Die Zielfunktion f (x, y) ist zu minimieren
MehrAlgorithmen und Datenstrukturen
1 Algorithmen und Datenstrukturen Wintersemester 2014/15 7. Vorlesung Zufall! Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I 2 Inhaltsverzeichnis Ein Zufallsexperiment InsertionSort: erwartete bzw.
MehrBetriebswirtschaftliche Optimierung
Institut für Statistik und OR Uni Graz 1 Approximationsalgorithmen auf metrischen Instanzen Minimum Spanning Tree Definition (Spannbaum) Ein Spannbaum in einem Graphen G = (V,E) ist ein kreisfreier Teilgraph
MehrFerienkurs zur algorithmischen diskreten Mathematik Kapitel 1: Grundlagen der algorithmischen Graphentheorie
Ferienkurs zur algorithmischen diskreten Mathematik Kapitel 1: Grundlagen der algorithmischen Graphentheorie Dipl-Math. Wolfgang Kinzner 2.4.2012 Kapitel 1: Grundlagen der algorithmischen Graphgentheorie
MehrKnotenfärbung. Def.: Eine Knotenfärbung eines Graphen G=(V,E) mit k Farben ist eine Abbildung c:v {1,...,k}, so dass c(u) c(v) für alle {u,v} E.
Knotenfärbung Def.: Eine Knotenfärbung eines Graphen G=(V,E) mit k Farben ist eine Abbildung c:v {1,...,k}, so dass c(u) c(v) für alle {u,v} E. Die chromatische Zahl χ(g) eines Graphen G ist die minimale
Mehr