Algorithmen für Geographische Informationssysteme
|
|
- Johannes Vogel
- vor 6 Jahren
- Abrufe
Transkript
1 Algorithmen für Geographische Informationssysteme 3. Vorlesung: 23. April 2014 Thomas van Dijk basiert auf Folien von Jan-Henrik Haunert
2 Map Matching Problemformulierung Gegeben: Das Straßennetz als planar eingebetteter Graph G = V, E Die GPS-Trajektorie als Folge P = p 1, p 2,, p n von Punkten Gesucht: Weg in G, der minimale Distanz zu P hat. Map Matching
3 Hausdorff-Distanz d hdorff P 1, P 2 = max d hdorff P 1, P 2, d hdorff P 2, P 1 mit und d hdorff P 1, P 2 = max d p 1, P 2 p 1 P 1 d p 1, P 2 = min d p 1, p 2 p 2 P 2 P 1 d hdorff P 1, P 2 P 2
4 Fréchet-Distanz Herrchen läuft entlang P 1 ohne jemals umzukehren. Hund läuft entlang P 2 ohne jemals umzukehren. Herrchen und Hund sind über Hundeleine verbunden. Wie lang ist die Hundeleine mindestens? P 2 P 1
5 Fréchet-Distanz Definition: d fréchet = min α: 0,1 0,m 1 β: 0,1 0,n 1 max t 0,1 d p 1 α t, p 2 β t wobei α und β monoton wachsende und stetige Funktionen sind und α 0 = β 0 = 1, α 1 = m 1, β 1 = n 1. P 2 P 1
6 Fréchet-Distanz Berechnung: Löse Entscheidungsproblem: Ist d fréchet ε? dann parametrische Suche... P 2 P 1
7 Fréchet-Distanz Ist d fréchet ε? Spezialfall: P 1 p P 2 p ε
8 Fréchet-Distanz Ist d fréchet ε? Spezialfall: P 1 p Zuordnung 0.6,0.75 ist zulässig! P 2 p ε
9 Fréchet-Distanz Ist d fréchet ε? Spezialfall: P 1 Zuordnung 0.1,0.9 ist nicht zulässig! P 2 p ε p 1 0.1
10 Fréchet-Distanz Ist d fréchet ε? Spezialfall: P 1 P 1 P 2 1 ε 1 P 2
11 Fréchet-Distanz Ist d fréchet ε? Spezialfall: P 1 Zuordnung 0.6,0.75 ist zulässig! P 1 P 2 1 ε 1 P 2
12 Fréchet-Distanz Ist d fréchet ε? Spezialfall: P 1 Zuordnung 0.6,0.75 ist zulässig! Zuordnung 0.1,0.9 ist nicht zulässig! P 1 P 2 1 ε 1 P 2
13 Fréchet-Distanz Ist d fréchet ε? Spezialfall: P 1 F ε = s, t 0,1 2 d p 1 s, p 2 t ε Freiraum hat die Form einer Ellipse! Zuordnung 0.6,0.75 ist zulässig! Zuordnung 0.1,0.9 ist nicht zulässig! P 1 P 2 1 F ε ε 1 P 2
14 Fréchet-Distanz Freiraum F ε = s, t 0,1 2 d p 1 s, p 2 t ε hat die Form einer Ellipse! d fréchet ε Es gibt einen Pfad von 0,0 nach 1,1 im inneren von F ε, der in beide Richtungen monoton ist. P 1 1 F ε 1 P 2
15 Fréchet-Distanz Freiraum F ε = s, t 0,1 2 d p 1 s, p 2 t ε hat die Form einer Ellipse! d fréchet ε Es gibt einen Pfad von 0,0 nach 1,1 im inneren von F ε, der in beide Richtungen monoton ist. P 1 1 F ε 1 P 2 Hier gibt es ihn nicht, da 0,0 F ε!
16 Fréchet-Distanz Freiraum F ε = s, t 0,1 2 d p 1 s, p 2 t ε hat die Form einer Ellipse! d fréchet ε Es gibt einen Pfad von 0,0 nach 1,1 im inneren von F ε, der in beide Richtungen monoton ist. P 1 1 F ε 1 P 2 Für größeres ε gibt es einen Pfad!
17 Fréchet-Distanz Freiraum F ε = s, t 0, m 1 0, n 1 d p 1 s, p 2 t ε P 2 d fréchet ε Es gibt einen Pfad von 0,0 nach m, n im inneren von F ε, der in beide Richtungen monoton ist. P 2 ε P 1 P 1
18 Fréchet-Distanz Freiraum F ε = s, t 0, m 1 0, n 1 d p 1 s, p 2 t ε P 2 d fréchet ε Es gibt einen Pfad von 0,0 nach m, n im inneren von F ε, der in beide Richtungen monoton ist. P 2 ε P 1 F ε kann in O mn Zeit berechnet werden. P 1
19 Fréchet-Distanz Freiraum F ε = s, t 0, m 1 0, n 1 d p 1 s, p 2 t ε P 2 d fréchet ε Es gibt einen Pfad von 0,0 nach m, n im inneren von F ε, der in beide Richtungen monoton ist. P 2 ε P 1 F ε kann in O mn Zeit berechnet werden. Finde zulässigen Pfad in F ε. P 1
20 Fréchet-Distanz Kanten einer Freiraumzelle: B F i,j, B F i,j+1, L F i,j, L F i+1,j R L i,j R B i,j+1 R L i+1,j Teile dieser Kanten, die von (0,0) aus erreichbar sind: B R i,j, B R i,j+1, L R i,j, L R i+1,j B R i,j = B R i,j, L R i,j bekannt R R B i,j+1, L i+1,j
21 Algorithmus Fréchet-Distanz
22 Fréchet-Distanz Berechnung: Löse Entscheidungsproblem: Ist d fréchet ε? P 2 P 1
23 Fréchet-Distanz Berechnung: Löse Entscheidungsproblem: Ist d fréchet ε? dann parametrische Suche... O mn log mn Zeit (hier ohne Details) P 2 P 1
24 Map Matching Problemformulierung Gegeben: Das Straßennetz als planar eingebetteter Graph G = V, E Die GPS-Trajektorie als Folge P = p 1, p 2,, p n von Punkten Gesucht: Weg in G, der minimale Distanz zu P hat. Map Matching
25 Map Matching Problemformulierung Gegeben: Das Straßennetz als planar eingebetteter Graph G = V, E Die GPS-Trajektorie als Folge P = p 1, p 2,, p n von Punkten Gesucht: Weg in G, der minimale Fréchet-Distanz zu P hat. Map Matching
26 Map Matching Entscheidungsproblem Gegeben: Das Straßennetz als planar eingebetteter Graph G = V, E Die GPS-Trajektorie als Folge P = p 1, p 2,, p n von Punkten Zulässige Distanz ε Gibt es einen Weg in G, dessen Fréchet-Distanz zu P kleiner ist als ε? Map Matching
27 Map Matching Entscheidungsproblem Freiraumdiagramm für zwei Polygonzüge P 2 P 1
28 Map Matching Entscheidungsproblem Freiraumdiagramm für zwei Polygonzüge P 2 Idee: Freiraumdiagramm für Polygonzug und Graph P 1
29 Map Matching Idee: Freiraumdiagramm für Polygonzug und Graph
30 Map Matching Idee: Freiraumdiagramm für Polygonzug und Graph
31 Freiraumdiagramm für Polygonzug und eine Kante Map Matching Idee: Freiraumdiagramm für Polygonzug und Graph
32 Map Matching Suche einen zulässigen Pfad von links nach rechts. Idee: Freiraumdiagramm für Polygonzug und Graph
33 Suche einen zulässigen Pfad von links nach rechts. Map Matching Entscheidbar in O E P log E Zeit. Alt et al. 2003: Matching Planar Maps J. Algorithm.
34 Finde einen zulässigen Pfad mit minimaler Fréchet-Distanz Map Matching Lösbar in O E P log E log E P Zeit. Alt et al. 2003: Matching Planar Maps J. Algorithm.
35 Map Matching Problemformulierung Gegeben: Das Straßennetz als planar eingebetteter Graph G = V, E Die GPS-Trajektorie als Folge P = p 1, p 2,, p n von Punkten Gesucht: Weg in G, der minimale Fréchet-Distanz zu P hat. VIDEO Map Matching Lösbar in O E P log E log E P Zeit.
36 Map Matching Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf.
37 Map Matching Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf. Direkte Verbindung zwischen Punkten ist schlechte Näherung
38 Map Matching Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf. Ergebnis mit minimaler Fréchet-Distanz Idee: Fahrer wählen bevorzugt kürzeste Wege im Straßennetz.
39 Map Matching Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf. kürzeste Route Idee: Fahrer wählen bevorzugt kürzeste Wege im Straßennetz.
40 Map Matching Ansatz über kürzeste Wege Lou et al.: Map-Matching for Low-Sampling-Rate GPS Trajectories, Proc. ACM GIS Ein Punkt etwa alle zwei Minuten P. Newson und J. Krum: (z.b. zur Aufzeichnung & Analyse von Hidden Markov Map Matching Taxirouten) Through Noise and Sparseness, Proc. ACM GIS 2009 Eisner et al.: Algorithms for Matching and Predicting Trajectories, Proc. ALENEX 2011
41 Map Matching Ansatz über kürzeste Wege Lou et al.: Map-Matching for Low-Sampling-Rate GPS Trajectories, Proc. ACM GIS P. Newson und J. Krum: Hidden Markov Map Matching Through Noise and Sparseness, Proc. ACM GIS 2009 = Maximum-likelihood estimation + Markov Chains + Hidden Markov Models Eisner et al.: Algorithms for Matching and Predicting Trajectories, Proc. ALENEX 2011
42 Maximum-likelihood estimation Probability versus Likelihood Flipping a coin: P[heads] = p P tails = 1 p Do three independent flips. The coin is fair (p = ½). Model Parameter value Outcome? What is the probability of getting outcome x=(h,h,t)? P x = H, H, T ; p = 1 2 p is not a random variable! P x = H, H, T p = 1 2 = = 0.125
43 Maximum-likelihood estimation Probability versus Likelihood Flipping a coin: P[heads] = p P tails = 1 p Did three independent flips. The result was x=(h,h,t). Model Parameter value? Outcome What is the likelihood that the coin is fair (p = ½)?
44 Maximum-likelihood estimation Likelihood functions Given the outcome x, how likely is a certain parameter value θ? Assuming parameter value θ, what is the probability of outcome x? Define likelihood function L θ x = P[x; θ] Not a probability! The result was (H,H,T). What is the likelihood that the coin is fair (p = ½)? L p = 1 2 x = H, H, T = = L p = 0. 1 x = H, H, T = = L p = 2 3 x = H, H, T = =
45 Maximum-likelihood estimation Predictions versus Estimates Most probable outcome Given parameter p = 2 3 the most probably outcome is (H, H, H). Maximum-Likelihood Estimate ( MLE ) Given outcome (T, H, T) maximum-likelihood estimate is p = 1 3. This value of p best explains the observed outcome. This value of p makes the outcome least surprising.
46 Maximum-likelihood estimation Most probable outcome Maximum-likelihood map matching? Given a path in a road network what is the most probable GPS trajectory to observe? (Noisy.) Model? Parameter? Outcome? Maximum-Likelihood Estimate (MLE) Given the observed GPS trajectory (noisy) what is the most likely path through the road network? Which path through the network best explains the observed GPS trajectory?
47 Пафну тий Чебышёв Ма рков Chains Андре й Ма рков Георгій Вороний Бори с Делоне Wacław Sierpiński
48 Chebyshev Ма рков Chains Markov Voronoi Delaunay Sierpinski
49 Markov Chains Sequence of random variables X 1, X 2, X 3, Markov Property: Pr X n+1 X n = x n, X n 1 = x n 1,, X 1 = x 1 ] = Pr X n+1 X n = x n ] Given the present, the future is independent of the past. Represent as Pr [X 1 ], Pr [X 2 X 1 ], Pr X 3 X 2,
50 Markov Chains Example Possible states Z = Sonne, Regen Pr [ X 1 = Regen ] = 0.3 Pr X 1 = Sonne = 0.7 Pr X n+1 = Regen X n = Regen ] = 0.7 Pr X n+1 = Sonne X n = Regen ] = 0.3 Pr X n+1 = Regen X n = Sonne ] = 0.2 Pr X n+1 = Sonne X n = Sonne ] = 0.8
51 Markov Chains Example Possible states Z = Sonne, Regen Pr [ X 1 = Regen ] = 0.3 Pr X 1 = Sonne = 0.7 Pr X 2 = Sonne? 0.8 Sonne 0.2 Regen
52 Markov Chains Example Possible states Z = Sonne, Regen Pr [ X 2 = Regen ] = 0.35 Pr X 2 = Sonne = 0.65 Pr X 3 = Regen? 0.8 Sonne 0.2 Regen
53 Hidden Markov Models Markov Chain At every time step, it has a certain state But the states are hidden We cannot see its state Emission ( output ) At every time step, get an observation Probability distribution depends on state Emission at each step is independent
54 Hidden Markov Model
55 Hidden Markov Model Gegeben: Beobachtungen O = o 1,..., o n, je eine pro Zeitpunkt mögliche Systemzustände Z für jeden Systemzustand z Z und jede Beobachtung o die Wahrscheinlichkeit Pr(o z) oder die Wahrscheinlichkeitsdichte f (o z), dass o bei Zustand z beobachtet wird für jedes Paar von Zuständen z 1, z 2 Z die Wahrscheinlichkeit Pr(z 2 was z 1 before), also die Wahrscheinlichkeit für z 2 bei Kenntnis, dass zuvor z 1 vorherrschte (Übergangswahrscheinlichkeit) für jeden Zustand z Z die (a-priori-)wahrscheinlichkeit Pr(z)
56 Hidden Markov Model Gegeben: Beobachtungen O = o 1,..., o n, je eine pro Zeitpunkt mögliche Systemzustände Z für jeden Systemzustand z Z und jede Beobachtung o die Wahrscheinlichkeit Pr(o z) oder die Wahrscheinlichkeitsdichte f (o z), dass o bei Zustand z beobachtet wird für jedes Paar von Zuständen z 1, z 2 Z die Wahrscheinlichkeit Pr(z 2 was z 1 before), also die Wahrscheinlichkeit für z 2 bei Kenntnis, dass zuvor z 1 vorherrschte (Übergangswahrscheinlichkeit) für jeden Zustand z Z die (a-priori-)wahrscheinlichkeit Pr(z)
57 Hidden Markov Model Gegeben: Beobachtungen O = o 1,..., o n, je eine pro Zeitpunkt mögliche Systemzustände Z für jeden Systemzustand z Z und jede Beobachtung o die Wahrscheinlichkeit Pr(o z) oder die Wahrscheinlichkeitsdichte f (o z), dass o bei Zustand z beobachtet wird für jedes Paar von Zuständen z 1, z 2 Z die Wahrscheinlichkeit Pr(z 2 was z 1 before), also die Wahrscheinlichkeit für z 2 bei Kenntnis, dass zuvor z 1 vorherrschte (Übergangswahrscheinlichkeit) für jeden Zustand z Z die (a-priori-)wahrscheinlichkeit Pr(z)
58 Hidden Markov Model Gegeben: Beobachtungen O = o 1,..., o n, je eine pro Zeitpunkt mögliche Systemzustände Z für jeden Systemzustand z Z und jede Beobachtung o die Wahrscheinlichkeit Pr(o z) oder die Wahrscheinlichkeitsdichte f (o z), dass o bei Zustand z beobachtet wird für jedes Paar von Zuständen z 1, z 2 Z die Wahrscheinlichkeit Pr(z 2 was z 1 before), also die Wahrscheinlichkeit für z 2 bei Kenntnis, dass zuvor z 1 vorherrschte (Übergangswahrscheinlichkeit) für jeden Zustand z Z die (a-priori-)wahrscheinlichkeit Pr(z)
59 Hidden Markov Model Gegeben: Beobachtungen O = o 1,..., o n, je eine pro Zeitpunkt mögliche Systemzustände Z für jeden Systemzustand z Z und jede Beobachtung o die Wahrscheinlichkeit Pr(o z) oder die Wahrscheinlichkeitsdichte f (o z), dass o bei Zustand z beobachtet wird für jedes Paar von Zuständen z 1, z 2 Z die Wahrscheinlichkeit Pr(z 2 was z 1 before), also die Wahrscheinlichkeit für z 2 bei Kenntnis, dass zuvor z 1 vorherrschte (Übergangswahrscheinlichkeit) für jeden Zustand z Z die (a-priori-)wahrscheinlichkeit Pr(z)
60 Hidden Markov Model Gesucht: Folge S = z 1,..., z n von Zuständen, die sich am besten mit gegebenen Beobachtungen erklären lässt, also Pr(S O) maximimiert. Pr(S O) = f (O S) Pr(S)/f (O)
61 Hidden Markov Model Gesucht: Folge S = z 1,..., z n von Zuständen, die sich am besten mit gegebenen Beobachtungen erklären lässt, also Pr(S O) maximimiert. Pr(S O) = f (O S) Pr(S)/f (O)
62 Hidden Markov Model Gesucht: Folge S = z 1,..., z n von Zuständen, die sich am besten mit gegebenen Beobachtungen erklären lässt, also Pr(S O) maximimiert. Pr(S O) = f (O S) Pr(S)/f (O) f (O S) = f (o 1 z 1 )... f (o n z n )
63 Hidden Markov Model Gesucht: Folge S = z 1,..., z n von Zuständen, die sich am besten mit gegebenen Beobachtungen erklären lässt, also Pr(S O) maximimiert. Pr(S O) = f (O S) Pr(S)/f (O) Pr(S) = Pr(z 1 ) Pr(z 2 was z 1 before)... Pr(z n was z n 1 before)
64 Hidden Markov Model f (o 1 z 0 1 ) Pr(z0 2 was z0 1 before) f (o 2 z 0 2 ) Pr(z0 3 was z0 2 before) z 0 1 z 0 2 z 0 3 Pr(z 0 1 ) f (o 3 z 0 3 ) s z 1 1 z 1 2 z 1 3 t Z 1 Z 2 Z 3 z 2 1 z 2 2 z 2 3
65 Hidden Markov Model f (o 1 z 0 1 ) Pr(z0 2 was z0 1 before) f (o 2 z 0 2 ) Pr(z0 3 was z0 2 before) Pr(z 0 1 ) z1 0 z2 0 z3 0 s-t-path of maximum weight product f (o 3 z 0 3 ) = state sequence S that maximizes Pr (S O) s z 1 1 z 1 2 z 1 3 t Z 1 Z 2 Z 3 z 2 1 z 2 2 z 2 3
66 Hidden Markov Model ein Beispiel Gegeben: Folge von Beobachtungen O = o 1,..., o n = nass, nass, trocken, nass, trocken Menge möglicher Systemzustände: Z = {Sonne, Regen} Beobachtungswahrscheinlichkeiten: Pr(nass Sonne) = 0.1 Pr(trocken Sonne) = 0.9 Pr(nass Regen) = 0.95 Pr(trocken Regen) = 0.05 Übergangswahrscheinlichkeiten: Pr(Regen zuvor Regen) = 0.7 Pr(Sonne zuvor Regen) = 0.3 Pr(Regen zuvor Sonne) = 0.2 Pr(Sonne zuvor Sonne) = 0.8 A-Priori-Wahrscheinlichkeiten: Pr(Regen) = 0.3, Pr(Sonne) = 0.7 Gesucht: Folge S = s 1,..., s n von Zuständen, so dass Pr(S O) maximal ist.
67 Hidden Markov Model ein Beispiel Sonne Sonne Sonne Sonne Sonne s t Regen Regen Regen Regen Regen o 1, o 2, o 3, o 4, o 5 = nass, nass, trocken, nass, trocken
68 Hidden Markov Model ein Beispiel s t o 1, o 2, o 3, o 4, o 5 = nass, nass, trocken, nass, trocken
69 Hidden Markov Model ein Beispiel Pr(o 1 Sonne) Pr(Sonne war Sonne zuvor) s t o 1, o 2, o 3, o 4, o 5 = nass, nass, trocken, nass, trocken
70 Hidden Markov Model ein Beispiel Pr(nass Sonne) Pr(Sonne war Sonne zuvor) s t o 1, o 2, o 3, o 4, o 5 = nass, nass, trocken, nass, trocken
71 Hidden Markov Model ein Beispiel s t o 1, o 2, o 3, o 4, o 5 = nass, nass, trocken, nass, trocken
72 Hidden Markov Model ein Beispiel s t o 1, o 2, o 3, o 4, o 5 = nass, nass, trocken, nass, trocken
73 Hidden Markov Model ein Beispiel Pr(trocken Sonne) s Pr(trocken Regen) o 1, o 2, o 3, o 4, o 5 = nass, nass, trocken, nass, trocken 7 9 t
74 Hidden Markov Model ein Beispiel s t o 1, o 2, o 3, o 4, o 5 = nass, nass, trocken, nass, trocken
75 Hidden Markov Model ein Beispiel Pr(Sonne) s Pr(Regen) o 1, o 2, o 3, o 4, o 5 = nass, nass, trocken, nass, trocken t
76 Hidden Markov Model ein Beispiel s t o 1, o 2, o 3, o 4, o 5 = nass, nass, trocken, nass, trocken
77 Hidden Markov Model ein Beispiel log 2 s t o 1, o 2, o 3, o 4, o 5 = nass, nass, trocken, nass, trocken
78 Hidden Markov Model ein Beispiel s t
79 Hidden Markov Model ein Beispiel s t 1.737
80 Hidden Markov Model ein Beispiel s t 1.737
81 Hidden Markov Model ein Beispiel s t
82 Hidden Markov Model ein Beispiel s t
83 Hidden Markov Model ein Beispiel s t
84 Hidden Markov Model ein Beispiel s t
85 Hidden Markov Model ein Beispiel s t
86 Hidden Markov Model ein Beispiel s t
87 Hidden Markov Model ein Beispiel s t
88 Hidden Markov Model ein Beispiel s t
89 Hidden Markov Model ein Beispiel s t
90 Hidden Markov Model ein Beispiel s t O = o 1, o 2, o 3, o 4, o 5 = nass, nass, trocken, nass, trocken S = Regen, Regen, Sonne, Sonne, Sonne
91 Algorithmus LongestPath(directed acyclic graph G = (V, A)) Bring V in topologische Ordnung v 1,..., v n v 1.d = 0 v 1.π = nil for j = 2 to n do v j.d = v j.π = nil for v i v j A do if v i.d + w(v i v j ) > v j.d then v j.d = v i.d + w(v i v j ) v j.π = v i u.d: Länge des längsten Wegs von v 1 nach u u.π: Vorgänger von u im längsten Weg von v 1 nach u w(uv): Gewicht von Kante uv
92 Algorithmus LongestPath(directed acyclic graph G = (V, A)) Bring V in topologische Ordnung v 1,..., v n v 1.d = 0 v 1.π = nil for j = 2 to n do v j.d = v j.π = nil for v i v j A do if v i.d + w(v i v j ) > v j.d then v j.d = v i.d + w(v i v j ) v j.π = v i u.d: Länge des längsten Wegs von v 1 nach u u.π: Vorgänger von u im längsten Weg von v 1 nach u w(uv): Gewicht von Kante uv Laufzeit: O( V + A )
93 Algorithmus LongestPath(directed acyclic graph G = (V, A)) Bring V in topologische Ordnung v 1,..., v n v 1.d = 0 v 1.π = nil for j = 2 to n do v j.d = v j.π = nil for v i v j A do if v i.d + w(v i v j ) > v j.d then v j.d = v i.d + w(v i v j ) v j.π = v i u.d: Länge des längsten Wegs von v 1 nach u u.π: Vorgänger von u im längsten Weg von v 1 nach u w(uv): Gewicht von Kante uv Laufzeit: O( V + A ) Laufzeit Dijkstra: O( V log V + A )
Hidden Markov Model ein Beispiel
Hidden Markov Model ein Beispiel Gegeben: Folge von Beobachtungen O = o 1,..., o n = nass, nass, trocken, nass, trocken Menge möglicher Systemzustände: Z = {Sonne, Regen} Beobachtungswahrscheinlichkeiten:
MehrBerechnung von Abständen
3. Kreis- und Wegeprobleme Abstände in Graphen Abstände in Graphen Definition 3.4. Es sei G = (V, E) ein Graph. Der Abstand d(v, w) zweier Knoten v, w V ist die minimale Länge eines Weges von v nach w.
MehrFinal Exam. Friday June 4, 2008, 12:30, Magnus-HS
Stochastic Processes Summer Semester 2008 Final Exam Friday June 4, 2008, 12:30, Magnus-HS Name: Matrikelnummer: Vorname: Studienrichtung: Whenever appropriate give short arguments for your results. In
MehrKap. 6.6: Kürzeste Wege
Kap. 6.6: Kürzeste Wege Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 1./. VO DAP SS 009./9. Juli 009 1 Nachtest für Ausnahmefälle Di 1. Juli 009, 16:00 Uhr,
MehrWillkommen zur Vorlesung Komplexitätstheorie
Willkommen zur Vorlesung Komplexitätstheorie WS 2011/2012 Friedhelm Meyer auf der Heide V11, 16.1.2012 1 Themen 1. Turingmaschinen Formalisierung der Begriffe berechenbar, entscheidbar, rekursiv aufzählbar
MehrAlgorithmische Bioinformatik II WS2004/05 Ralf Zimmer Part III Probabilistic Modeling IV Bayesian Modeling: Algorithms, EM and MC Methods HMMs
Algorithmische Bioinformatik II WS2004/05 Ralf Zimmer Part III Probabilistic Modeling IV Bayesian Modeling: Algorithms, EM and MC Methods HMMs Ralf Zimmer, LMU Institut für Informatik, Lehrstuhl für Praktische
Mehr4. Kreis- und Wegeprobleme Abstände in Graphen
4. Kreis- und Wegeprobleme Abstände in Graphen Abstände in Graphen Definition 4.4. Es sei G = (V,E) ein Graph. Der Abstand d(v,w) zweier Knoten v,w V ist die minimale Länge eines Weges von v nach w. Falls
Mehr8.1 Einleitung. Grundlagen der Künstlichen Intelligenz. 8.1 Einleitung. 8.2 Lokale Suchverfahren. 8.3 Zusammenfassung. Suchprobleme: Überblick
Grundlagen der Künstlichen Intelligenz 5. April 0 8. Suchalgorithmen: Lokale Suche Grundlagen der Künstlichen Intelligenz 8. Suchalgorithmen: Lokale Suche 8.1 Einleitung Malte Helmert Universität Basel
MehrStatistics, Data Analysis, and Simulation SS 2015
Mainz, June 11, 2015 Statistics, Data Analysis, and Simulation SS 2015 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Dr. Michael O. Distler
Mehr15. Elementare Graphalgorithmen
Graphen sind eine der wichtigste Modellierungskonzepte der Informatik Graphalgorithmen bilden die Grundlage vieler Algorithmen in der Praxis Zunächst kurze Wiederholung von Graphen. Dann Darstellungen
MehrSyntaktische und Statistische Mustererkennung. Bernhard Jung
Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel
MehrMaximale s t-flüsse in Planaren Graphen
Maximale s t-flüsse in Planaren Graphen Vorlesung Algorithmen für planare Graphen 6. Juni 2017 Guido Brückner INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Reguläre Ausdrücke und reguläre Grammatiken Laura Kallmeyer Heinrich-Heine-Universität Düsseldorf Summer 2016 1 / 20 Regular expressions (1) Let Σ be an alphabet. The
MehrKürzeste und Schnellste Wege
Kürzeste und Schnellste Wege Wie funktionieren Navis? André Nusser (Folien inspiriert von Kurt Mehlhorn) Struktur Straßennetzwerke Naiver Algorithmus Dijkstras Algorithmus Transitknoten Nachbemerkungen
MehrBayesian updating in natural hazard risk assessment
International Forum on Engineering Decision Making, Third IFED Forum, Shoal Bay, Australia, 12-15 15 December 2007 1/23 Bayesian updating in natural hazard risk assessment Mathias Graf, Kazuyoshi Nishijima,
MehrCodes on Graphs: Normal Realizations
Codes on Graphs: Normal Realizations Autor: G. David Forney, Jr. Seminarvortrag von Madeleine Leidheiser und Melanie Reuter Inhaltsverzeichnis Einführung Motivation Einleitung Graphendarstellungen Trellis
MehrA Classification of Partial Boolean Clones
A Classification of Partial Boolean Clones DIETLINDE LAU, KARSTEN SCHÖLZEL Universität Rostock, Institut für Mathematik 25th May 2010 c 2010 UNIVERSITÄT ROSTOCK MATHEMATISCH-NATURWISSENSCHAFTLICHE FAKULTÄT,
MehrIntroduction to Python. Introduction. First Steps in Python. pseudo random numbers. May 2016
to to May 2016 to What is Programming? All computers are stupid. All computers are deterministic. You have to tell the computer what to do. You can tell the computer in any (programming) language) you
MehrUnit 4. The Extension Principle. Fuzzy Logic I 123
Unit 4 The Extension Principle Fuzzy Logic I 123 Images and Preimages of Functions Let f : X Y be a function and A be a subset of X. Then the image of A w.r.t. f is defined as follows: f(a) = {y Y there
Mehr8.4 Digraphen mit negativen Kantengewichten Grundsätzliches Betrachte Startknoten s und einen Kreis C mit Gesamtlänge < 0.
8.4 Digraphen mit negativen Kantengewichten 8.4.1 Grundsätzliches Betrachte Startknoten s und einen Kreis C mit Gesamtlänge < 0. k 4 5 1 s 1 3 2 C k 0 k 3 1 1 1 k 1 k 2 v Sollte ein Pfad von s nach C und
MehrOptimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn
Optimierung Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung 1 Assignment Problem (Zuordnungsproblem) Gewichtetes Perfektes Bipartites Matching agents Costs tasks Weise jedem Agenten genau
MehrMaximale s t-flüsse in Planaren Graphen
Maximale s t-flüsse in Planaren Graphen Vorlesung Algorithmen für planare Graphen June 18, 2012 Ignaz Rutter INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg
Mehra) Name and draw three typical input signals used in control technique.
12 minutes Page 1 LAST NAME FIRST NAME MATRIKEL-NO. Problem 1 (2 points each) a) Name and draw three typical input signals used in control technique. b) What is a weight function? c) Define the eigen value
MehrAlgorithmen & Komplexität
Algorithmen & Komplexität Angelika Steger Institut für Theoretische Informatik steger@inf.ethz.ch Kürzeste Pfade Problem Gegeben Netzwerk: Graph G = (V, E), Gewichtsfunktion w: E N Zwei Knoten: s, t Kantenzug/Weg
MehrGraphalgorithmen Netzwerkalgorithmen. Laufzeit
Netzwerkalgorithmen Laufzeit (Folie 390, Seite 78 im Skript) Finden eines Matchings maximaler Kardinalität dauert nur O( E min{ V, V 2 }) mit der Ford Fulkerson Methode. Der Fluß ist höchstens f = min{
Mehr16. All Pairs Shortest Path (ASPS)
. All Pairs Shortest Path (ASPS) All Pairs Shortest Path (APSP): Eingabe: Gewichteter Graph G=(V,E) Ausgabe: Für jedes Paar von Knoten u,v V die Distanz von u nach v sowie einen kürzesten Weg a b c d e
MehrGeometrie und Bedeutung: Kap 5
: Kap 5 21. November 2011 Übersicht Der Begriff des Vektors Ähnlichkeits Distanzfunktionen für Vektoren Skalarprodukt Eukidische Distanz im R n What are vectors I Domininic: Maryl: Dollar Po Euro Yen 6
Mehr2. Entsprechende Listen P i von Vorgängern von i 3. for i := 1 to n do. (ii) S i = Knoten 2 + 1}
1. Berechne für jeden Knoten i in BFS-Art eine Liste S i von von i aus erreichbaren Knoten, so dass (i) oder (ii) gilt: (i) S i < n 2 + 1 und Si enthält alle von i aus erreichbaren Knoten (ii) S i = n
MehrKombinatorische Optimierung
Juniorprof. Dr. Henning Meyerhenke 1 Henning Meyerhenke: KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Vorlesung 4 Programm des
MehrLaufzeit. Finden eines Matchings maximaler Kardinalität dauert nur O( E min{ V 1, V 2 }) mit der Ford Fulkerson Methode.
Effiziente Algorithmen Flußprobleme 81 Laufzeit Finden eines Matchings maximaler Kardinalität dauert nur O( E min{ V 1, V 2 }) mit der Ford Fulkerson Methode. Der Fluß ist höchstens f = min{ V 1, V 2 }.
MehrVorlesung 2 KÜRZESTE WEGE
Vorlesung 2 KÜRZESTE WEGE 45 Kürzeste Wege im Graphen Motivation! Heute:! Kürzeste Wege von einem Knoten (SSSP)! Distanzen zwischen allen Knotenpaaren (APD)! Viele Anwendungen:! Navis! Netzwerkrouting!...
MehrData Structures and Algorithm Design
- University of Applied Sciences - Data Structures and Algorithm Design - CSCI 340 - Friedhelm Seutter Institut für Angewandte Informatik Contents 1. Analyzing Algorithms and Problems 2. Data Abstraction
MehrAlgorithmische Bioinformatik
Algorithmische Bioinformatik Hidden-Markov-Modelle Viterbi - Algorithmus Ulf Leser Wissensmanagement in der Bioinformatik Inhalt der Vorlesung Hidden Markov Modelle Baum, L. E. and Petrie, T. (1966). "Statistical
MehrCALCULATING KPI QUANTITY-INDEPENDENT ROUTE TIME
CALCULATING KPI QUANTITY-INDEPENDENT ROUTE TIME Wenn Sie diesen Text lesen können, müssen Sie die Folie im Post-Menü mit der Funktion «Folie einfügen» erneut einfügen. Sonst kann die Fläche nicht eingefärbt
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am 0..0 Minimale Schnitte in Graphen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Die Forschungsuniversität Meyerhenke, in der Institut für Theoretische Informatik
MehrAnwendungen des Fréchet-Abstandes Das Constrained Free Space Diagram zur Analyse von Körperbewegungen
Anwendungen des Fréchet-Abstandes Das Constrained Free Space Diagram zur Analyse von Körperbewegungen David Knötel Freie Universität Berlin, Institut für Informatik Seminar über Algorithmen Leitfaden Wiederholung
MehrStatistics, Data Analysis, and Simulation SS 2015
Mainz, May 12, 2015 Statistics, Data Analysis, and Simulation SS 2015 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Dr. Michael O. Distler
MehrVorlesung 2 KÜRZESTE WEGE
Vorlesung 2 KÜRZESTE WEGE 34 Kürzeste Wege im Graphen Motivation! Heute:! Kürzeste Wege von einem Knoten (SSSP)! Kürzeste Wege zwischen allen Knotenpaaren (APSP)! Viele Anwendungen:! Navigationssysteme!
MehrLevel 2 German, 2015
91126 911260 2SUPERVISOR S Level 2 German, 2015 91126 Demonstrate understanding of a variety of written and / or visual German text(s) on familiar matters 2.00 p.m. Friday 4 December 2015 Credits: Five
Mehrv+s Output Quelle: Schotter, Microeconomics, , S. 412f
The marginal cost function for a capacity-constrained firm At output levels that are lower than the firm s installed capacity of K, the marginal cost is merely the variable marginal cost of v. At higher
MehrEntwicklung eines Map-Matching- Algorithmus zur Ortung von Fahrzeugen in Stadtgebieten
11. Vermessungsingenieurtag - Ein Map-Matching-Algorithmus Entwicklung eines Map-Matching- Algorithmus zur Ortung von Fahrzeugen in Stadtgebieten Prof. Dr. Paul Rawiel HFT Stuttgart auf Basis der Bachelor-Arbeit
MehrSatz 324 Sei M wie oben. Dann gibt es für ein geeignetes k Konstanten c i > 0 und Permutationsmatrizen P i, i = 1,...
Satz 324 Sei M wie oben. Dann gibt es für ein geeignetes k Konstanten c i > 0 und Permutationsmatrizen P i, i = 1,..., k, so dass gilt M = k c i P i i=1 k c i = r. i=1 Diskrete Strukturen 7.1 Matchings
MehrEffiziente Algorithmen I
H 10. Präsenzaufgabenblatt, Wintersemester 2015/16 Übungstunde am 18.01.2015 Aufgabe Q Ein Reiseveranstalter besitzt ein Flugzeug, das maximal p Personen aufnehmen kann. Der Veranstalter bietet einen Flug
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
Mehr10. Übung Algorithmen I
INSTITUT FÜR THEORETISCHE INFORMATIK 1 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft Institut für Theoretische www.kit.edu Informatik Bäume
MehrPraktikum Experience Design From Experience Story to Scheme
Praktikum Experience Design From Experience Story to Scheme Daniel Ullrich Stina Schick Folie: 1 Analysis of the elements of a story. Experience Design gernerates a story from the experience produced by
MehrAS Path-Prepending in the Internet And Its Impact on Routing Decisions
(SEP) Its Impact on Routing Decisions Zhi Qi ytqz@mytum.de Advisor: Wolfgang Mühlbauer Lehrstuhl für Netzwerkarchitekturen Background Motivation BGP -> core routing protocol BGP relies on policy routing
MehrLehrstuhl für Allgemeine BWL Strategisches und Internationales Management Prof. Dr. Mike Geppert Carl-Zeiß-Str. 3 07743 Jena
Lehrstuhl für Allgemeine BWL Strategisches und Internationales Management Prof. Dr. Mike Geppert Carl-Zeiß-Str. 3 07743 Jena http://www.im.uni-jena.de Contents I. Learning Objectives II. III. IV. Recap
MehrBeispiel 5 (Einige Aufgaben zur Cobb-Douglas-Produktionsfunktion)
Beispiel 5 (Einige Aufgaben zur Cobb-Douglas-Produktionsfunktion) Aufgabe (Die Schätzung der CD) Source: M.D. Intriligator: Econometric Models, Techniques and Applications, North Holland, Amsterdam 978
MehrWie wir in Mathematik für alle die Welt der Mathematik sehen Folie 1 Prof. Dr. Dörte Haftendorn, Leuphana Universität Lüneburg, 2013
Ein Blick ----- Einblick Wie wir in Mathematik für alle die Welt der Mathematik sehen Folie 1 a sight in ----- an insight How we see the world of mathematics in mathematics für everybody. Folie 2 Ein Weg
MehrDatenstrukturen & Algorithmen Lösungen zu Blatt 10 FS 16
Eidgenössische Technische Hochschule Zürich Ecole polytechnique fédérale de Zurich Politecnico federale di Zurigo Federal Institute of Technology at Zurich Institut für Theoretische Informatik 11. Mai
MehrApproximationsalgorithmen
Approximationsalgorithmen 1. Vorlesung Joachim Spoerhase Alexander Wolff Lehrstuhl für Informatik I Wintersemester 2017/18 Bücher zur Vorlesung Vijay V. Vazirani Approximation Algorithms Springer-Verlag
MehrSummary Details for Performance, Duration and Acoustic Measurements for the. Aircon 10S Wind Turbine. UK MCS Certification Summary
Summary Details for Performance, Duration and Acoustic Measurements for the Aircon 10S Wind Turbine UK MCS Certification Summary Certificate Number MCS TUV0007 Small Wind Turbine Certification Summary
MehrKapitel 9: Lineare Programmierung Gliederung
Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen
MehrWortdekodierung. Vorlesungsunterlagen Speech Communication 2, SS Franz Pernkopf/Erhard Rank
Wortdekodierung Vorlesungsunterlagen Speech Communication 2, SS 2004 Franz Pernkopf/Erhard Rank Institute of Signal Processing and Speech Communication University of Technology Graz Inffeldgasse 16c, 8010
MehrBayesnetzmodelle (BNM) in der Kardiologie
Bayesnetzmodelle (BNM) in der Kardiologie Vorgehensmodell - Ergebnisse Claus Möbus - Heiko Seebold Jan-Ole Janssen, Andreas Lüdtke, Iris Najman, Heinz-Jürgen Thole Besonderen Dank an: Herrn Reinke (Münster)
MehrReasoning and decision-making under uncertainty
Reasoning and decision-making under uncertainty 9. Vorlesung Actions, interventions and complex decisions Sebastian Ptock AG Sociable Agents Rückblick: Decision-Making A decision leads to states with values,
MehrReinforcement Learning
Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied
MehrTheoretische Informatik 1
Theoretische Informatik 1 Approximierbarkeit David Kappel Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 10.06.2016 Übersicht Das Problem des Handelsreisenden TSP EUCLIDEAN-TSP
MehrRouting A lgorithmen Algorithmen Begriffe, Definitionen Wegewahl Verkehrslenkung
Begriffe, Definitionen Routing (aus der Informatik) Wegewahl oder Verkehrslenkung bezeichnet in der Telekommunikation das Festlegen von Wegen für Nachrichtenströme bei der Nachrichtenübermittlung über
MehrAlgorithmische Geometrie
Lehrstuhl fu r Informatik I Algorithmische Geometrie Wintersemester 2013/14 Vorlesung: U bung: Alexander Wolff (E29) Philipp Kindermann (E12) Konvexe Hu lle oder Mischungsverha ltnisse 1. Vorlesung Prof.
MehrWie man heute die Liebe fürs Leben findet
Wie man heute die Liebe fürs Leben findet Sherrie Schneider Ellen Fein Click here if your download doesn"t start automatically Wie man heute die Liebe fürs Leben findet Sherrie Schneider Ellen Fein Wie
MehrAlgorithm Theory 3 Fast Fourier Transformation Christian Schindelhauer
Algorithm Theory 3 Fast Fourier Transformation Institut für Informatik Wintersemester 2007/08 Chapter 3 Fast Fourier Transformation 2 Polynomials Polynomials p over real numbers with a variable x p(x)
MehrMethoden der KI in der Biomedizin Bayes Netze
Methoden der KI in der Biomedizin Bayes Netze Karl D. Fritscher Bayes Netze Intuitiv: Graphische Repräsentation von Einfluss Mathematisch: Graphische Repräsentation von bedingter Unabhängigkeit Bayes Netze
MehrEin Stern in dunkler Nacht Die schoensten Weihnachtsgeschichten. Click here if your download doesn"t start automatically
Ein Stern in dunkler Nacht Die schoensten Weihnachtsgeschichten Click here if your download doesn"t start automatically Ein Stern in dunkler Nacht Die schoensten Weihnachtsgeschichten Ein Stern in dunkler
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
MehrStatistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze
Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Erich Schubert 6. Juli 2003 LMU München, Institut für Informatik, Erich Schubert Zitat von R. P. Feynman Richard P. Feynman (Nobelpreisträger
MehrIntroduction FEM, 1D-Example
Introduction FEM, D-Example /home/lehre/vl-mhs-/inhalt/cover_sheet.tex. p./22 Table of contents D Example - Finite Element Method. D Setup Geometry 2. Governing equation 3. General Derivation of Finite
MehrAttention: Give your answers to problem 1 and problem 2 directly below the questions in the exam question sheet. ,and C = [ ].
Page 1 LAST NAME FIRST NAME MATRIKEL-NO. Attention: Give your answers to problem 1 and problem 2 directly below the questions in the exam question sheet. Problem 1 (15 points) a) (1 point) A system description
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrVisualisierung von Graphen
1 Visualisierung von Graphen Teile-und-Herrsche-Algorithmen: Bäume und serienparallele Graphen 3. Vorlesung Sommersemester 2013 (basierend auf Folien von Martin Nöllenburg und Robert Görke, KIT) 2 Ankündigung
MehrAlgorithmen und Datenstrukturen
Algorithmen und Datenstrukturen Wintersemester 2012/13 22. Vorlesung Tiefensuche und Topologische Sortierung Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I Vorlesungsumfrage Nutzen Sie die Vorlesungsbefragung
MehrProbleme aus NP und die polynomielle Reduktion
Probleme aus NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 15. Dezember 2009 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit
MehrCausal Analysis in Population Studies
Causal Analysis in Population Studies Prof. Dr. Henriette Engelhardt Prof. Dr. Alexia Prskawetz Randomized experiments and observational studies for causal inference inference Historical dichotomy between
MehrDas Heiratsproblem. Definition Matching
Das Heiratsproblem Szenario: Gegeben: n Frauen und m > n Männer. Bekanntschaftsbeziehungen zwischen allen Männern und Frauen. Fragestellung: Wann gibt es für jede der Frauen einen Heiratspartner? Modellierung
MehrSoftware Echtzeitverhalten in den Griff Bekommen
Software Echtzeitverhalten in den Griff Bekommen B.Sc.Markus Barenhoff [www.embedded-tools.de] Dr. Nicholas Merriam [www.rapitasystems.com] Übersicht Reaktionszeit Nettolaufzeit Optimierung Worst-Case
Mehr6. Übungsblatt Aufgaben mit Lösungen
6. Übungsblatt Aufgaben mit Lösungen Exercise 6: Find a matrix A R that describes the following linear transformation: a reflection with respect to the subspace E = {x R : x x + x = } followed by a rotation
MehrPraktikum 4: Delegation
: Delegation 1. Lernziele Die folgenden, in der Vorlesung behandelten Themen sollen vertieft und angewendet werden: Vererbung, abstrakte Klassen, Polymorphie, Delegation sowie das Zeichnen von UML-Klassendiagrammen.
MehrPrediction Market, 28th July 2012 Information and Instructions. Prognosemärkte Lehrstuhl für Betriebswirtschaftslehre insbes.
Prediction Market, 28th July 2012 Information and Instructions S. 1 Welcome, and thanks for your participation Sensational prices are waiting for you 1000 Euro in amazon vouchers: The winner has the chance
MehrÜbungsblatt 6. Analysis 1, HS14
Übungsblatt 6 Analysis, HS4 Ausgabe Donnerstag, 6. Oktober. Abgabe Donnerstag, 23. Oktober. Bitte Lösungen bis spätestens 7 Uhr in den Briefkasten des jeweiligen Übungsleiters am J- oder K-Geschoss von
MehrTeil III. Komplexitätstheorie
Teil III Komplexitätstheorie 125 / 160 Übersicht Die Klassen P und NP Die Klasse P Die Klassen NP NP-Vollständigkeit NP-Vollständige Probleme Weitere NP-vollständige Probleme 127 / 160 Die Klasse P Ein
MehrAufabe 7: Baum-Welch Algorithmus
Effiziente Algorithmen VU Ausarbeitung Aufabe 7: Baum-Welch Algorithmus Florian Fest, Matr. Nr.0125496 baskit@generationfun.at Claudia Hermann, Matr. Nr.0125532 e0125532@stud4.tuwien.ac.at Matteo Savio,
MehrGraphalgorithmen 2. Dominik Paulus Dominik Paulus Graphalgorithmen / 47
Graphalgorithmen Dominik Paulus.0.01 Dominik Paulus Graphalgorithmen.0.01 1 / 7 1 Spannbäume Kruskal Prim Edmonds/Chu-Liu Datenstrukturen Fibonacci-Heap Union/Find Kürzeste Pfade Dijkstra Bellman-Ford
MehrACDEFG. Hotmetal Borders
1 1 a123b c456d g44h i11j i 11 j k44l o44p q11r q11r s44t u11v u11v w44x A$$B A$$B * + + C//D E%"%F E%"%F * + G?&?H I%"%J I%"%J K?&?L M$$N M$$N * + + O//P Q11R Q 11 R S44T U123V U 123 V 8 W456X y11z y
MehrAutomatentheorie und formale Sprachen reguläre Ausdrücke
Automatentheorie und formale Sprachen reguläre Ausdrücke Dozentin: Wiebke Petersen 6.5.2009 Wiebke Petersen Automatentheorie und formale Sprachen - SoSe09 1 Formal language Denition A formal language L
MehrAlgorithmen und Datenstrukturen 2
Algorithmen und Datenstrukturen 2 Sommersemester 2006 5. Vorlesung Peter F. Stadler Universität Leipzig Institut für Informatik studla@bioinf.uni-leipzig.de Wdhlg.: Dijkstra-Algorithmus I Bestimmung der
MehrGrundlagen zur Delaunay-Triangulierung und zur konvexen Hülle. zum Begriff des Voronoi-Diagramms (vgl. auch Vorlesung "Algorithmische Geometrie"):
Grundlagen zur Delaunay-Triangulierung und zur konvexen Hülle zum Begriff des Voronoi-Diagramms (vgl. auch Vorlesung "Algorithmische Geometrie"): 1 Erzeugung des Voronoi-Diagramms (siehe Vorlesung "Algorithmische
MehrAlgorithms & Datastructures Midterm Test 1
Algorithms & Datastructures Midterm Test 1 Wolfgang Pausch Heiko Studt René Thiemann Tomas Vitvar
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 20. November 2014 INSTITUT FÜR THEORETISCHE 0 KIT 20.11.2014 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der
MehrGrundzüge DS & Alg (WS14/15) Lösungsvorschlag zu Aufgabenblatt 3. Aufgabe 1. (a) nicht-heap (b) Heap 25. (c) Beinahe-Heap 9.
Lösungsvorschlag zu Aufgabenblatt Aufgabe 1 (a) nicht-heap 1 1 5 5 1 1 (b) Heap 5 1 1 14 5 10 4 (c) Beinahe-Heap 1 1 4 1 10 Heapify 1. Iteration. Iteration. Iteration 1 1 1 1 1 1 10 4 1 10 4 1 10 4 1 1
MehrDYNAMISCHE GEOMETRIE
DYNAMISCHE GEOMETRIE ÄHNLICHKEITSGEOMETRIE & MODELLIERUNG PAUL LIBBRECHT PH WEINGARTEN WS 2014-2015 CC-BY VON STAUDT KONSTRUKTIONEN Menü Erinnerung: Strahlensatz Längen, Frame Zielartikel Addition, Subtraktion
MehrEinführung in die Computerlinguistik reguläre Sprachen und endliche Automaten
Einführung in die Computerlinguistik reguläre Sprachen und endliche Automaten Dozentin: Wiebke Petersen Foliensatz 3 Wiebke Petersen Einführung CL 1 Describing formal languages by enumerating all words
MehrThe English Tenses Die englischen Zeitformen
The English Tenses Die englischen Zeitformen Simple Present (Präsens einfache Gegenwart) Handlungen in der Gegenwart die sich regelmäßig wiederholen oder einmalig geschehen I go you go he goes she goes
MehrISEA RWTH Aachen Electric Bus Simulation
ISEA RWTH Aachen Electric Bus Simulation Finding the Optimal Technical Configuration 05.04.2017 Fabian Meishner Lehrstuhl für Elektrochemische Energiewandlung und 1 Speichersystemtechnik Electric Bus Simulation
MehrFAIRTRADE project Exchange 2012 Scotland 2 nd 10 th of May
FAIRTRADE project Exchange 2012 Scotland 2 nd 10 th of May FAIRTRADE project evaluation: Pupils 1. Have you ever seen the FAIRTRADE logo on a Scottish product? 1. Hast du das FAIRTRADE Logo bereits einmal
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester
MehrStreetwalker (1) == Streetwalker == Why don't you give me some time? Won't you give me some...
Streetwalker (1) == Streetwalker == Why don't you give me some time? Pretty baby I gotta' kiss for your loving I really get it when you're Next to me, yeah, yeah I'm so excited how you Give me all your
MehrProf. S. Krauter Kombinatorik. WS Blatt03.doc
Prof. S. Krauter Kombinatorik. WS 05-06 Blatt03.doc Zahlpartitionen: 1. Gegeben ist folgende Gleichung: x 1 + x 2 + x 3 + + x s = n. a) Wie viele verschiedene Lösungen besitzt diese Gleichung mit Werten
MehrAlgorithms for graph visualization
Algorithms for graph visualization Project - Orthogonal Grid Layout with Small Area W INTER SEMESTER 2013/2014 Martin No llenburg KIT Universita t des Landes Baden-Wu rttemberg und nationales Forschungszentrum
Mehr