Commonsense Reasoning
|
|
- Kathrin Waldfogel
- vor 6 Jahren
- Abrufe
Transkript
1 Commonsense Reasoning Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Sommersemester 2015 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 232
2 Kapitel 4 4. Probabilistische Folgerungsmodelle und -strategien 4.6 Probabilistische Inferenz auf der Basis optimaler Entropie G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 169 / 232
3 Der MaxEnt-Ansatz (ME) 1/2 Gegeben: Probabilistische Wissensbasis R = {(B 1 A 1 ) [x 1 ],..., (B n A n ) [x n ]}; Gesucht: Diejenige Verteilung P, die nur das Wissen in R und seine probabilistischen Konsequenzen darstellt und sonst keine Information hinzufügt. Prinzip der maximalen Entropie Maximiere Unbestimmtheit (d.h. Entropie) H(P ) = ω P (ω) log 2 P (ω), gegeben Information R = {(B 1 A 1 ) [x 1 ],..., (B n A n ) [x n ]} G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 176 / 232
4 Der MaxEnt-Ansatz (ME) 2/2 Das Optimierungsproblem (arg) max P =R H(P ) = ω P (ω) log 2 P (ω) ist eindeutig lösbar mit Lösung P = ME(R). G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 177 / 232
5 ME-Verteilung unter der Lupe Für R = {(B 1 A 1 ) [x 1 ],..., (B n A n ) [x n ]} erhalten wir ME(R)(ω) = α 0 α 1 i n ω =A i B i 1 x i i α 1 i n ω =A i B i x i i mit α i = x i 1 x i und α i ω =A ib i ω =A ib i α 1 xj j α xj j j i j i ω =A j B j ω =A j B j > 0 : x i (0, 1) = : x i = 1 = 0 : x i = 0 α 1 xj j α xj j j i j i ω =A j B j ω =A j B j, 1 i n., G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 206 / 232
6 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 206 / 232
7 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 206 / 232
8 ME-Ableitungsregeln Wir wollen im Folgenden für (wichtige) Spezialfälle ME-Inferenzen berechnen und Ableitungsregeln aufstellen; G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 207 / 232
9 ME-Ableitungsregeln Wir wollen im Folgenden für (wichtige) Spezialfälle ME-Inferenzen berechnen und Ableitungsregeln aufstellen; dabei benutzen wir die folgende Notation genau dann, wenn R : (B 1 A 1 ) [x 1 ],..., (B n A n ) [x n ] (B 1 A 1) [x 1],..., (B m A m) [x m] R = {(B 1 A 1 ) [x 1 ],..., (B n A n ) [x n ]} und ME(R) = {(B 1 A 1) [x 1],... (B m A m) [x m]} G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 207 / 232
10 ME-Ableitungsregeln (Forts.) Mit Hilfe der obigen Formel lassen sich z.b. folgende Ableitungsregeln beweisen: Transitive Verkettung R : (B A)[x 1 ], (C B)[x 2 ] (C A)[ 1 2 (2x 1x x 1 )] G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 208 / 232
11 ME-Ableitungsregeln (Forts.) Mit Hilfe der obigen Formel lassen sich z.b. folgende Ableitungsregeln beweisen: Transitive Verkettung R : (B A)[x 1 ], (C B)[x 2 ] (C A)[ 1 2 (2x 1x x 1 )] Beispiel: A jung sein, B Single sein, C Kinder haben R = {(B A)[0.9], (C B)[0.85]}. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 208 / 232
12 ME-Ableitungsregeln (Forts.) Mit Hilfe der obigen Formel lassen sich z.b. folgende Ableitungsregeln beweisen: Transitive Verkettung R : (B A)[x 1 ], (C B)[x 2 ] (C A)[ 1 2 (2x 1x x 1 )] Beispiel: A jung sein, B Single sein, C Kinder haben R = {(B A)[0.9], (C B)[0.85]}. Mit der Transitiven Verkettung errechnet man als ME-Folgerung (C A)[0.815] G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 208 / 232
13 Transitive Verkettung Beweis R : (B A)[x 1 ], (C B)[x 2 ] (C A)[ 1 2 (2x 1x x 1 )] G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 209 / 232
14 Transitive Verkettung Beweis R : (B A)[x 1 ], (C B)[x 2 ] (C A)[ 1 2 (2x 1x x 1 )] Die ME-Verteilung P = ME(R), R = {(B A)[x 1 ], (C B)[x 2 ]}, kann wie folgt berechnet werden: ω P ω P ABC α 0 α 1 x 1 1 α 1 x 2 2 AB C α 0 α 1 x 1 1 α x 2 2 A BC α 0 α x 1 1 A B C α 0 α x 1 1 ĀBC α 0 α 1 x 2 2 ĀB C α 0 α x 2 2 Ā BC α 0 Ā B C α 0 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 209 / 232
15 Transitive Verkettung Beweis (Forts.) mit α 1 = α 2 = x x 1 α 1 x 2 x 2 1 x α x 2 2 = x 1 α x x 1 2 α G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232
16 Transitive Verkettung Beweis (Forts.) mit α 1 = α 2 = x x 1 α 1 x 2 x 2 1 x α x 2 2 = x 1 α x x 1 2 α Damit berechnet man P (C A) = P (AC) P (A) G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232
17 Transitive Verkettung Beweis (Forts.) mit α 1 = α 2 = x x 1 α 1 x 2 x 2 1 x α x 2 2 = x 1 α x x 1 2 α Damit berechnet man P (C A) = P (AC) P (A) P (ABC) + P (A = BC) P (ABC) + P (AB C) + P (A BC) + P (A B C) G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232
18 Transitive Verkettung Beweis (Forts.) mit α 1 = α 2 = x x 1 α 1 x 2 x 2 1 x α x 2 2 = x 1 α x x 1 2 α Damit berechnet man P (C A) = P (AC) P (A) P (ABC) + P (A = BC) P (ABC) + P (AB C) + P (A BC) + P (A B C) = α 1 α 1 x α 1 α x 2 2 (α 2 + 1) + 2 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232
19 Transitive Verkettung Beweis (Forts.) mit α 1 = α 2 = x x 1 α 1 x 2 x 2 1 x α x 2 2 = x 1 α x x 1 2 α Damit berechnet man P (C A) = P (AC) P (A) P (ABC) + P (A = BC) P (ABC) + P (AB C) + P (A BC) + P (A B C) = α 1 α 1 x α 1 α x 2 2 (α 2 + 1) + 2 = 1 2 (2x 1x x 1 ) G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232
20 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232
21 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232
22 ME-Ableitungsregeln (Forts.) Vorsichtige Monotonie R : (B A)[x 1 ], (C A)[x 2 ] (C AB)[x 2 ] Beispiel: A Student sein, B jung sein, C Single sein R = {(B A)[0.9], (C A)[0.8]} G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 211 / 232
23 ME-Ableitungsregeln (Forts.) Vorsichtige Monotonie R : (B A)[x 1 ], (C A)[x 2 ] (C AB)[x 2 ] Beispiel: A Student sein, B jung sein, C Single sein R = {(B A)[0.9], (C A)[0.8]} Mit der vorsichtigen Monotonie folgt dann (C AB)[0.8] G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 211 / 232
24 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 211 / 232
25 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 211 / 232
26 ME-Ableitungsregeln (Forts.) Schnitt R : (C AB)[x 1 ], (B A)[x 2 ] (C A)[ 1 2 (2x 1x x 2 )] Beispiel: A Student sein, B jung sein, C Single sein R = {(C AB)[0.8], (B A)[0.9]} G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232
27 ME-Ableitungsregeln (Forts.) Schnitt R : (C AB)[x 1 ], (B A)[x 2 ] (C A)[ 1 2 (2x 1x x 2 )] Beispiel: A Student sein, B jung sein, C Single sein R = {(C AB)[0.8], (B A)[0.9]} Mit der Schnittregel folgt dann (C A)[0.77] G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232
28 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232
29 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232
30 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232
31 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232
32 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232
33 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232
34 ME und Commonsense Reasoning Was hat ME mit Commonsense Reasoning zu tun? G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 213 / 232
35 ME und Commonsense Reasoning Was hat ME mit Commonsense Reasoning zu tun? Jeff Paris: Common sense and maximum entropy. Synthese 117, 75-93, 1999, Kluwer Academic Publishers G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 213 / 232
36 Symmetrie-Prinzip Eines der grundlegendsten und einfachsten Prinzipien des Commonsense Reasoning ist das Symmetrie-Prinzip (Wesentlich) Ähnliche Probleme haben (im Wesentlichen) ähnliche Lösungen. (B. van Fraassen, 1989) G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 214 / 232
37 Symmetrie-Prinzip Eines der grundlegendsten und einfachsten Prinzipien des Commonsense Reasoning ist das Symmetrie-Prinzip (Wesentlich) Ähnliche Probleme haben (im Wesentlichen) ähnliche Lösungen. (B. van Fraassen, 1989) Welche Ähnlichkeit ist hier gemeint? G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 214 / 232
38 Symmetrie-Prinzip Eines der grundlegendsten und einfachsten Prinzipien des Commonsense Reasoning ist das Symmetrie-Prinzip (Wesentlich) Ähnliche Probleme haben (im Wesentlichen) ähnliche Lösungen. (B. van Fraassen, 1989) Welche Ähnlichkeit ist hier gemeint? Was ist denn überhaupt das Problem? G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 214 / 232
39 Intelligente Agenten in probabilistischer Umgebung Nehmen wir an, der Agent kann sein (d.h. alles(!) relevante) Wissen in Form einer probabilistischen Regelbasis ausdrücken, G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 215 / 232
40 Intelligente Agenten in probabilistischer Umgebung Nehmen wir an, der Agent kann sein (d.h. alles(!) relevante) Wissen in Form einer probabilistischen Regelbasis ausdrücken, und er ist in der Lage, sein Wissen korrekt und optimal zu verarbeiten, G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 215 / 232
41 Intelligente Agenten in probabilistischer Umgebung Nehmen wir an, der Agent kann sein (d.h. alles(!) relevante) Wissen in Form einer probabilistischen Regelbasis ausdrücken, und er ist in der Lage, sein Wissen korrekt und optimal zu verarbeiten, dann kann er zu jeder Anfrage φ eine passende Wahrscheinlichkeit produzieren. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 215 / 232
42 Intelligente Agenten in probabilistischer Umgebung Nehmen wir an, der Agent kann sein (d.h. alles(!) relevante) Wissen in Form einer probabilistischen Regelbasis ausdrücken, und er ist in der Lage, sein Wissen korrekt und optimal zu verarbeiten, dann kann er zu jeder Anfrage φ eine passende Wahrscheinlichkeit produzieren. Wir wollen also den Agenten als einen Inferenzprozess N modellieren, der zu jeder Menge R von probabilistischen Regeln eine Wahrscheinlichkeitsverteilung produziert. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 215 / 232
43 Probabilistischer Inferenzprozess 1/2 Σ = {A 1,..., A n } Form(Σ) Alphabet, d.h. Menge von (binären) Aussagenvariablen Menge der Formeln über Σ G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 216 / 232
44 Probabilistischer Inferenzprozess 1/2 Σ = {A 1,..., A n } Form(Σ) P(Σ) Alphabet, d.h. Menge von (binären) Aussagenvariablen Menge der Formeln über Σ Menge aller Wahrscheinlichkeitsverteilungen über Σ, d.h. P(Σ) = {(p 1,..., p 2 n) p i 0, 2 n i=1 p i = 1} G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 216 / 232
45 Probabilistischer Inferenzprozess 1/2 Σ = {A 1,..., A n } Form(Σ) P(Σ) Alphabet, d.h. Menge von (binären) Aussagenvariablen Menge der Formeln über Σ Menge aller Wahrscheinlichkeitsverteilungen über Σ, d.h. P(Σ) = {(p 1,..., p 2 n) p i 0, 2 n i=1 p i = 1} KB(Σ) Menge aller konsistenten probabilistischen Regelbasen über Σ G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 216 / 232
46 Probabilistischer Inferenzprozess 1/2 Σ = {A 1,..., A n } Form(Σ) P(Σ) Alphabet, d.h. Menge von (binären) Aussagenvariablen Menge der Formeln über Σ Menge aller Wahrscheinlichkeitsverteilungen über Σ, d.h. P(Σ) = {(p 1,..., p 2 n) p i 0, 2 n i=1 p i = 1} KB(Σ) Menge aller konsistenten probabilistischen Regelbasen über Σ Ist Σ 1 Σ 2, so ist auch KB(Σ 1 ) KB(Σ 2 ). G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 216 / 232
47 Probabilistischer Inferenzprozess 2/2 Definition 3 (Probabilistischer Inferenzprozess) Ein probabilistischer Inferenzprozess N Σ ist eine Abbildung N Σ : KB(Σ) P(Σ), R P, die jeder konsistenten Regelbasis über Σ eine Verteilung P über Σ zuordnet mit P = R. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 217 / 232
48 Probabilistischer Inferenzprozess 2/2 Definition 3 (Probabilistischer Inferenzprozess) Ein probabilistischer Inferenzprozess N Σ ist eine Abbildung N Σ : KB(Σ) P(Σ), R P, die jeder konsistenten Regelbasis über Σ eine Verteilung P über Σ zuordnet mit P = R. N Σ spezifiziert also einen induktiven Inferenzprozess. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 217 / 232
49 Probabilistischer Inferenzprozess 2/2 Definition 3 (Probabilistischer Inferenzprozess) Ein probabilistischer Inferenzprozess N Σ ist eine Abbildung N Σ : KB(Σ) P(Σ), R P, die jeder konsistenten Regelbasis über Σ eine Verteilung P über Σ zuordnet mit P = R. N Σ spezifiziert also einen induktiven Inferenzprozess. Welche CR-Prinzipien zeichnen einen guten Inferenzprozess aus? G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 217 / 232
50 CR-Prinzip 1: Irrelevante Information Irrelevante-Information-Prinzip Information über ganz andere Themenbereiche soll das Ergebnis des Inferenzprozesses nicht beeinflussen. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 218 / 232
51 CR-Prinzip 1: Irrelevante Information Irrelevante-Information-Prinzip Information über ganz andere Themenbereiche soll das Ergebnis des Inferenzprozesses nicht beeinflussen. Seien Σ 1, Σ 2 zwei disjunkte Signaturen, Σ 1 Σ 2 =, und seien R 1 KB(Σ 1 ), R 2 KB(Σ 2 ). Für alle φ Form(Σ 1 ) soll dann gelten: N Σ1 (R 1 )(φ) = N Σ1 Σ 2 (R 1 R 2 )(φ). G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 218 / 232
52 CR-Prinzip 1: Irrelevante Information Irrelevante-Information-Prinzip Information über ganz andere Themenbereiche soll das Ergebnis des Inferenzprozesses nicht beeinflussen. Seien Σ 1, Σ 2 zwei disjunkte Signaturen, Σ 1 Σ 2 =, und seien R 1 KB(Σ 1 ), R 2 KB(Σ 2 ). Für alle φ Form(Σ 1 ) soll dann gelten: N Σ1 (R 1 )(φ) = N Σ1 Σ 2 (R 1 R 2 )(φ). Das Ergebnis der Inferenz soll also nur vom relevanten Teil der Signatur abhängen. Wir schreiben daher im Folgenden häufig N statt N Σ. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 218 / 232
53 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 218 / 232
54 CR-Prinzip 2: Semantische Äquivalenz Äquivalenz-Prinzip Haben zwei Wissensbasen exakt die gleiche (semantische) Bedeutung, so soll auch exakt das Gleiche gefolgert werden. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 219 / 232
55 CR-Prinzip 2: Semantische Äquivalenz Äquivalenz-Prinzip Haben zwei Wissensbasen exakt die gleiche (semantische) Bedeutung, so soll auch exakt das Gleiche gefolgert werden. Beschreiben R 1, R 2 KB(Σ) denselben Lösungsraum in P(Σ), so soll gelten N(R 1 ) = N(R 2 ). G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 219 / 232
56 CR-Prinzip 3: Umbenennung Umbenennungs-Prinzip Eine isomorphe Umbennung der Variablen in der Wissensbasis soll keinen Effekt auf das Ergebnis der Inferenz haben. Formalisierung:... G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 220 / 232
57 CR-Prinzip 4: Kontext-Relativierung Relativierungs-Prinzip Information, die sich auf die Nichterfüllung eines Kontextes bezieht, ist irrelevant für die kontextbezogene Inferenz. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 221 / 232
58 CR-Prinzip 4: Kontext-Relativierung Relativierungs-Prinzip Information, die sich auf die Nichterfüllung eines Kontextes bezieht, ist irrelevant für die kontextbezogene Inferenz. Sei A Form(Σ), seien R 1, R 2 KB(Σ) die folgenden Wissensbasen: R 1 = {A[x], (B i A)[x i ], (C j A)[y j ]} i,j, R 2 = {A[x], (B i A)[x i ]} i. Für φ Form(Σ) soll dann gelten: N(R 1 )(φ A) = N(R 2 )(φ A). G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 221 / 232
59 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 221 / 232
60 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 221 / 232
61 CR-Prinzip 5: Hartnäckigkeit Hartnäckigkeits-Prinzip Information, die das bestätigt, was der Agent bereits glaubt, soll das Ergebnis der Inferenz nicht beeinflussen. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 222 / 232
62 CR-Prinzip 5: Hartnäckigkeit Hartnäckigkeits-Prinzip Information, die das bestätigt, was der Agent bereits glaubt, soll das Ergebnis der Inferenz nicht beeinflussen. Sind R 1, R 2 KB(Σ), und erfüllt N(R 1 ) bereits R 2, so soll gelten: N(R 1 ) = N(R 1 R 2 ). G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 222 / 232
63 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 222 / 232
64 CR-Prinzip 6: Schwache Unabhängigkeit Schwaches Unabhängigkeits-Prinzip Information über eine echte Alternative soll das Ergebnis der Inferenz nicht beeinflussen. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 223 / 232
65 CR-Prinzip 6: Schwache Unabhängigkeit Schwaches Unabhängigkeits-Prinzip Information über eine echte Alternative soll das Ergebnis der Inferenz nicht beeinflussen. Sei Σ = {A, B, C}, und seien R 1, R 2 KB(Σ) die folgenden Wissensbasen: R 1 = {A[x], B[y]}, R 2 = {A[x], B[y], C[z], AC[0]}. Dann soll gelten N(R 1 )(A B) = N(R 2 )(A B). G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 223 / 232
66 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 223 / 232
67 CR-Prinzip 7: Stetigkeit Stetigkeits-Prinzip Mikroskopisch kleine Änderungen in der Weltbeschreibung sollen keine makroskopisch großen Änderungen in den Wahrscheinlichkeiten verursachen. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 224 / 232
68 CR-Prinzip 7: Stetigkeit Stetigkeits-Prinzip Mikroskopisch kleine Änderungen in der Weltbeschreibung sollen keine makroskopisch großen Änderungen in den Wahrscheinlichkeiten verursachen. Für jedes φ Form(Σ) hängt N(R)(φ) stetig von den Wahrscheinlichkeiten des Faktenwissens in R ab. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 224 / 232
69 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 224 / 232
70 Haupttheorem Theorem 4 Jeder Inferenzprozess N, der alle CR-Prinzipien 1-7 erfüllt, stimmt mit der ME-Inferenz überein. Die ME-Methodik erlaubt also optimales Commonsense Reasoning im probabilistischen Bereich und wird durch die CR-Prinzipien 1-7 eindeutig bestimmt. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 225 / 232
71 Fazit ME-Methodik 1/2 ME-Rehabilitation Das MaxEnt-Verfahren ist kein technisches Black-Box-Verfahren ohne Sinn und Logik! G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 226 / 232
72 Fazit ME-Methodik 1/2 ME-Rehabilitation Das MaxEnt-Verfahren ist kein technisches Black-Box-Verfahren ohne Sinn und Logik! Die ME-Methodik ermöglicht induktive Inferenz in ihrer allgemeinsten Form: Komplexe Wissenszustände (Wahrscheinlichkeitsverteilungen) können aus Information in komplexer Form (Mengen probabilistischer Konditionale) erzeugt werden. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 226 / 232
73 Fazit ME-Methodik 1/2 ME-Rehabilitation Das MaxEnt-Verfahren ist kein technisches Black-Box-Verfahren ohne Sinn und Logik! Die ME-Methodik ermöglicht induktive Inferenz in ihrer allgemeinsten Form: Komplexe Wissenszustände (Wahrscheinlichkeitsverteilungen) können aus Information in komplexer Form (Mengen probabilistischer Konditionale) erzeugt werden. ME-Inferenz erfüllt zahlreiche der Eigenschaften, die man an nichtmonotone Inferenzrelationen i.allg. stellt, z.b. die Kumulativität und Loop. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 226 / 232
74 Fazit ME-Methodik 2/2 Auch auf der Ebene der Wahrscheinlichkeiten lassen sich einige der Inferenzregeln simulieren (z.b. Vorsichtige Monotonie, Schnitt). G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 227 / 232
75 Fazit ME-Methodik 2/2 Auch auf der Ebene der Wahrscheinlichkeiten lassen sich einige der Inferenzregeln simulieren (z.b. Vorsichtige Monotonie, Schnitt). Die ME-Methodik lässt sich als optimale Umsetzung des Commonsense Reasoning in einer probabilistischen Umgebung auffassen. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 227 / 232
76 Fazit ME-Methodik 2/2 Auch auf der Ebene der Wahrscheinlichkeiten lassen sich einige der Inferenzregeln simulieren (z.b. Vorsichtige Monotonie, Schnitt). Die ME-Methodik lässt sich als optimale Umsetzung des Commonsense Reasoning in einer probabilistischen Umgebung auffassen. Für die Wissensrevision gibt es einen ebenso hochwertigen großen Bruder, das Prinzip der minimalen Relativ-Entropie. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 227 / 232
77 Schlussworte und Zusammenfassung Übersicht Kapitel 4 Probabilistik 4.1 Einführung und Übersicht 4.2 Wahrscheinlichkeitstheorie und Commonsense Reasoning 4.3 Grundideen probabilistischen Schlussfolgerns 4.4 Schlussfolgern über Unabhängigkeiten 4.5 Propagation in baumartigen Netzen 4.6 Probabilistische Inferenz auf der Basis optimaler Entropie 4.7 Schlussworte und Zusammenfassung G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 228 / 232
78 Kapitel 4 Schlussworte und Zusammenfassung 4. Probabilistische Folgerungsmodelle und -strategien 4.7 Schlussworte und Zusammenfassung G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 229 / 232
79 Schlussworte und Zusammenfassung Zusammenfassung Kapitel 4 Bedingte Wahrscheinlichkeiten (= Konditionale mit Wahrscheinlichkeiten) sind die Repräsentanten generischen Wissens und wichtige Bausteine probabilistischer Netzwerke. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 230 / 232
80 Schlussworte und Zusammenfassung Zusammenfassung Kapitel 4 Bedingte Wahrscheinlichkeiten (= Konditionale mit Wahrscheinlichkeiten) sind die Repräsentanten generischen Wissens und wichtige Bausteine probabilistischer Netzwerke. Auch in gerichteten probabilistischen Netzwerken ist Wissenspropagation in beiden Richtungen möglich. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 230 / 232
81 Schlussworte und Zusammenfassung Zusammenfassung Kapitel 4 Bedingte Wahrscheinlichkeiten (= Konditionale mit Wahrscheinlichkeiten) sind die Repräsentanten generischen Wissens und wichtige Bausteine probabilistischer Netzwerke. Auch in gerichteten probabilistischen Netzwerken ist Wissenspropagation in beiden Richtungen möglich. In einfachen probabilistischen Netzwerken (Bäumen) ist ein direkter Informationsfluss über die Kanten möglich. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 230 / 232
82 Schlussworte und Zusammenfassung Zusammenfassung Kapitel 4 Bedingte Wahrscheinlichkeiten (= Konditionale mit Wahrscheinlichkeiten) sind die Repräsentanten generischen Wissens und wichtige Bausteine probabilistischer Netzwerke. Auch in gerichteten probabilistischen Netzwerken ist Wissenspropagation in beiden Richtungen möglich. In einfachen probabilistischen Netzwerken (Bäumen) ist ein direkter Informationsfluss über die Kanten möglich. In probabilistischen Netzwerken mit konfluenter Information (DAG) oder allgemeinen Abhängigkeiten (LEG-Netze) muss zunächst eine Hyperbaum-Struktur aufgebaut werden; der Informationsfluss erfolgt zwischen benachbarten Hyperkanten über deren Schnitte (Separatoren). G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 230 / 232
83 Schlussworte und Zusammenfassung Zusammenfassung Kapitel 4 (Forts.) Das Problem unvollständiger probabilistischer Informationen wird in Bayes-Netzen durch klare Spezifikationsvorgaben und die Annahme bedingter Unabhängigkeiten gelöst. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 231 / 232
84 Schlussworte und Zusammenfassung Zusammenfassung Kapitel 4 (Forts.) Das Problem unvollständiger probabilistischer Informationen wird in Bayes-Netzen durch klare Spezifikationsvorgaben und die Annahme bedingter Unabhängigkeiten gelöst. Mit Hilfe der ME-Methodik kann aus einer Menge probabilistischer Regeln (unvollständige Information!) ohne weitere Annahmen eine vollständige Verteilung aufgebaut werden. Bedingte Unabhängigkeiten entstehen hier aus dem Kontext heraus, werden aber nicht vorausgesetzt. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 231 / 232
85 Schlussworte und Zusammenfassung Zusammenfassung Kapitel 4 (Forts.) Bayessche Netze modellieren bedingte Unabhängigkeiten, während die ME-Methodik sich auf die konsequente Ausnutzung bedingter Abhängigkeiten konzentriert. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 232 / 232
86 Schlussworte und Zusammenfassung Zusammenfassung Kapitel 4 (Forts.) Bayessche Netze modellieren bedingte Unabhängigkeiten, während die ME-Methodik sich auf die konsequente Ausnutzung bedingter Abhängigkeiten konzentriert. Die ME-Inferenz ist ein mächtige Methode für die probabilistische Wissensrepräsentation mit hervorragenden Eigenschaften. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 232 / 232
87 Commonsense Reasoning Übersicht Einführung und Übersicht Nichtklassisches Schlussfolgern Rangfunktionen ein einfaches epistemisches Modell Probabilistische Folgerungsmodelle und -strategien Qualitative und quantitative Wissensrepräsentation Argumentation Commonsense Reasoning in Multi-Agentensystemen Schlussteil und Prüfungsvorbereitung G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 2 / 51
88 Kapitel 5 5. Qualitative und quantitative Wissensrepräsentation G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 3 / 51
89 Übersicht Kapitel 5 Qualitativ und Quantitativ 5.1 Qualitative Wahrscheinlichkeiten G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 4 / 51
90 Übersicht Kapitel 5 Qualitativ und Quantitativ 5.1 Qualitative Wahrscheinlichkeiten 5.2 Nichtmonotonie in der Probabilistik G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 4 / 51
91 Übersicht Kapitel 5 Qualitativ und Quantitativ 5.1 Qualitative Wahrscheinlichkeiten 5.2 Nichtmonotonie in der Probabilistik 5.3 ɛ-semantik infinitesimale Wahrscheinlichkeiten G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 4 / 51
92 Übersicht Kapitel 5 Qualitativ und Quantitativ 5.1 Qualitative Wahrscheinlichkeiten 5.2 Nichtmonotonie in der Probabilistik 5.3 ɛ-semantik infinitesimale Wahrscheinlichkeiten 5.4 Konditionale Ereignisse G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 4 / 51
93 Übersicht Kapitel 5 Qualitativ und Quantitativ 5.1 Qualitative Wahrscheinlichkeiten 5.2 Nichtmonotonie in der Probabilistik 5.3 ɛ-semantik infinitesimale Wahrscheinlichkeiten 5.4 Konditionale Ereignisse G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 5 / 51
94 Kapitel 5 5. Qualitative und quantitative Wissensrepräsentation 5.1 Qualitative Wahrscheinlichkeiten G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 6 / 51
95 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Punktgenaue Wahrscheinlichkeiten... Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaue Wahrscheinlichkeiten. Beispiel: Bei MaxEnt folgt mit der Schnittregel (C AB)[0.8], (B A)[0.9] ME (C A)[0.77]. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51
96 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Punktgenaue Wahrscheinlichkeiten... Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaue Wahrscheinlichkeiten. Beispiel: Bei MaxEnt folgt mit der Schnittregel (C AB)[0.8], (B A)[0.9] ME (C A)[0.77]. Warum nicht 0.78, 0.80 oder 0.75? G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51
97 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Punktgenaue Wahrscheinlichkeiten... Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaue Wahrscheinlichkeiten. Beispiel: Bei MaxEnt folgt mit der Schnittregel (C AB)[0.8], (B A)[0.9] ME (C A)[0.77]. Warum nicht 0.78, 0.80 oder 0.75? Welchen Nutzen haben solche exakten Wahrscheinlichkeiten? G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51
98 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Punktgenaue Wahrscheinlichkeiten... Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaue Wahrscheinlichkeiten. Beispiel: Bei MaxEnt folgt mit der Schnittregel (C AB)[0.8], (B A)[0.9] ME (C A)[0.77]. Warum nicht 0.78, 0.80 oder 0.75? Welchen Nutzen haben solche exakten Wahrscheinlichkeiten? Welche Fehlerquellen stellen Rundungen dar? G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51
99 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Punktgenaue Wahrscheinlichkeiten... Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaue Wahrscheinlichkeiten. Beispiel: Bei MaxEnt folgt mit der Schnittregel (C AB)[0.8], (B A)[0.9] ME (C A)[0.77]. Warum nicht 0.78, 0.80 oder 0.75? Welchen Nutzen haben solche exakten Wahrscheinlichkeiten? Welche Fehlerquellen stellen Rundungen dar?... oder darf s auch ruhig ein bisschen mehr sein? G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51
100 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Infinitesimale Wahrscheinlichkeiten Ziel: Man interessiert sich nicht für die (konkrete) Wahrscheinlichkeit, sondern nur für die Größenordnung der Wahrscheinlichkeit. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51
101 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Infinitesimale Wahrscheinlichkeiten Ziel: Man interessiert sich nicht für die (konkrete) Wahrscheinlichkeit, sondern nur für die Größenordnung der Wahrscheinlichkeit. Idee: Drücke P (ω) als Polynom in ɛ aus, wobei ɛ eine kleine, positive Zahl bzw. ein Infinitesimal ist (d.h. P wird durch ɛ parametrisiert); G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51
102 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Infinitesimale Wahrscheinlichkeiten Ziel: Man interessiert sich nicht für die (konkrete) Wahrscheinlichkeit, sondern nur für die Größenordnung der Wahrscheinlichkeit. Idee: Drücke P (ω) als Polynom in ɛ aus, wobei ɛ eine kleine, positive Zahl bzw. ein Infinitesimal ist (d.h. P wird durch ɛ parametrisiert); Infinitesimale sind stetige Funktionen ɛ : (0, 1) (0, 1) mit lim x 0 ɛ(x) = 0, z.b. ɛ(x) = x 2. betrachte dann den Grenzwert ɛ 0, um eine qualitative Abstraktion von P (ω) zu bekommen. Beispiel: Man möchte nicht zwischen den Wahrscheinlichkeiten und unterscheiden, sie sind (offensichtlich) von der gleichen Größenordnung. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51
103 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Notizen Qualitative Wahrscheinlichkeiten G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51
104 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Notizen Qualitative Wahrscheinlichkeiten G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51
105 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 1/5 Die Größenordnung κ P einer parametrisierten (infinitesimalen) Wahrscheinlichkeit P (ω) = (1 )a 0 ɛ 0 + a 1 ɛ 1 + a 2 ɛ wird definiert als κ P (ω) = { min{n N lim P (ω) ɛ 0 ɛ 0}, n P (ω) > 0, P (ω) = 0 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 9 / 51
106 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 1/5 Die Größenordnung κ P einer parametrisierten (infinitesimalen) Wahrscheinlichkeit P (ω) = (1 )a 0 ɛ 0 + a 1 ɛ 1 + a 2 ɛ wird definiert als κ P (ω) = { min{n N lim P (ω) ɛ 0 ɛ 0}, n P (ω) > 0, P (ω) = 0 D.h. für P (ω) = a 0 ɛ 0 + a 1 ɛ 1 + a 2 ɛ ist κ P (ω) = min{i a i 0} G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 9 / 51
107 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Notizen Qualitative Wahrscheinlichkeiten G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 9 / 51
108 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 2/5 Für infinitesimale parametrisierte Wahrscheinlichkeiten P hat P (ω 1 ) + P (ω 2 ) die Größenordnung min{κ P (ω 1 ), κ P (ω 2 )}; G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 10 / 51
109 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 2/5 Für infinitesimale parametrisierte Wahrscheinlichkeiten P hat P (ω 1 ) + P (ω 2 ) die Größenordnung min{κ P (ω 1 ), κ P (ω 2 )}; die Größenordnung von Formeln A kann also definiert werden durch κ P (A) = min{κ P (ω) ω = A} G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 10 / 51
110 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 3/5 Ist P eine parametrisierte Wahrscheinlichkeitsfunktion, so drückt κ P Wahrscheinlichkeiten qualitativ aus: P (A) ɛ 0 A und A sind möglich κ P (A) = 0 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 11 / 51
111 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 3/5 Ist P eine parametrisierte Wahrscheinlichkeitsfunktion, so drückt κ P Wahrscheinlichkeiten qualitativ aus: P (A) ɛ 0 A und A sind möglich κ P (A) = 0 P (A) ɛ 1 A wird geglaubt κ P (A) = 1 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 11 / 51
112 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 3/5 Ist P eine parametrisierte Wahrscheinlichkeitsfunktion, so drückt κ P Wahrscheinlichkeiten qualitativ aus: P (A) ɛ 0 A und A sind möglich κ P (A) = 0 P (A) ɛ 1 A wird geglaubt κ P (A) = 1 P (A) ɛ 2 A wird fest geglaubt κ P (A) = 2 P (A) ɛ 3 A ist fast sicher κ P (A) = 3... G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 11 / 51
113 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 4/5 Qualitative Wahrscheinlichkeiten κ P (ω) werden auf einer logarithmischen Skala angegeben; G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51
114 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 4/5 Qualitative Wahrscheinlichkeiten κ P (ω) werden auf einer logarithmischen Skala angegeben; sie haben die folgenden Eigenschaften: G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51
115 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 4/5 Qualitative Wahrscheinlichkeiten κ P (ω) werden auf einer logarithmischen Skala angegeben; sie haben die folgenden Eigenschaften: sie sind Funktionen κ : Ω N { }; G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51
116 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 4/5 Qualitative Wahrscheinlichkeiten κ P (ω) werden auf einer logarithmischen Skala angegeben; sie haben die folgenden Eigenschaften: sie sind Funktionen κ : Ω N { }; ( min{κ(ω) : ω Ω} = 0; ) G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51
117 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 4/5 Qualitative Wahrscheinlichkeiten κ P (ω) werden auf einer logarithmischen Skala angegeben; sie haben die folgenden Eigenschaften: sie sind Funktionen κ : Ω N { }; ( min{κ(ω) : ω Ω} = 0; ) κ(a B) = min{κ(a), κ(b)}. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51
118 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 4/5 Qualitative Wahrscheinlichkeiten κ P (ω) werden auf einer logarithmischen Skala angegeben; sie haben die folgenden Eigenschaften: sie sind Funktionen κ : Ω N { }; ( min{κ(ω) : ω Ω} = 0; ) κ(a B) = min{κ(a), κ(b)}. Qualitative Wahrscheinlichkeiten sind OCF! G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51
119 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 5/5 Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgenden Zusammenhänge: κ(a) = 0 oder κ( A) = 0 P (A) + P ( A) = 1 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51
120 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 5/5 Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgenden Zusammenhänge: κ(a) = 0 oder κ( A) = 0 P (A) + P ( A) = 1 κ(a) = min ω =A κ(ω) P (A) = ω =A P (ω) G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51
121 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 5/5 Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgenden Zusammenhänge: κ(a) = 0 oder κ( A) = 0 P (A) + P ( A) = 1 κ(a) = min ω =A κ(ω) κ(b A) = κ(a B) κ(a) P (A) = ω =A P (ω) P (B A) = P (A B) P (A) G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51
122 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 5/5 Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgenden Zusammenhänge: κ(a) = 0 oder κ( A) = 0 P (A) + P ( A) = 1 κ(a) = min ω =A κ(ω) κ(b A) = κ(a B) κ(a) P (A) = ω =A P (ω) P (B A) = P (A B) P (A) Qualitative Wahrscheinlichkeiten drücken ebenso wie Ränge den Grad der Überraschung aus, eine entsprechende Welt zu finden. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51
123 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 5/5 Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgenden Zusammenhänge: κ(a) = 0 oder κ( A) = 0 P (A) + P ( A) = 1 κ(a) = min ω =A κ(ω) κ(b A) = κ(a B) κ(a) P (A) = ω =A P (ω) P (B A) = P (A B) P (A) Qualitative Wahrscheinlichkeiten drücken ebenso wie Ränge den Grad der Überraschung aus, eine entsprechende Welt zu finden. Tatsächlich sind OCF s als qualitative Abstraktionen von Wahrscheinlichkeiten entstanden, indem die Größenordnung von infinitesimalen Wahrscheinlichkeiten logarithmisch durch Rangzahlen kodiert wird. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51
124 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten OCF s und Wahrscheinlichkeiten Beispiel Folgende qualitative Umsetzung von Wahrscheinlichkeiten in Rangzahlen sind beispielsweise denkbar: W keit Rangzahl Bedeutung P (ω) 0.1 κ(ω) = 0 normal P (ω) 0.01 κ(ω) = 1 selten P (ω) κ(ω) = 2 unwahrscheinlich P (ω) κ(ω) = 3 fast unmöglich... G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 14 / 51
125 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Nichtmonotonie in der Probabilistik Übersicht Kapitel 5 Qualitativ und Quantitativ 5.1 Qualitative Wahrscheinlichkeiten 5.2 Nichtmonotonie in der Probabilistik 5.3 ɛ-semantik infinitesimale Wahrscheinlichkeiten 5.4 Konditionale Ereignisse G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 15 / 51
126 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Kapitel 5 Nichtmonotonie in der Probabilistik 5. Qualitative und quantitative Wissensrepräsentation 5.2 Nichtmonotonie in der Probabilistik G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 16 / 51
127 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Nichtmonotonie in der Probabilistik NMR in der Probabilistik 1/2 Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen: A P B gdw. Wenn A, dann meistens B gdw. P (B A) > 0.5 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51
128 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Nichtmonotonie in der Probabilistik NMR in der Probabilistik 1/2 Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen: A P B gdw. Wenn A, dann meistens B gdw. P (B A) > 0.5 NMR-Inferenzkriterien erfüllt? G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51
129 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Nichtmonotonie in der Probabilistik NMR in der Probabilistik 1/2 Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen: A P B gdw. Wenn A, dann meistens B NMR-Inferenzkriterien erfüllt? gdw. P (B A) > 0.5 vorsichtige Monotonie ist nicht erfüllt... denn P (B A) > 0.5, P (C A) > 0.5, aber P (C AB) < 0.5 möglich! G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51
130 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Nichtmonotonie in der Probabilistik NMR in der Probabilistik 1/2 Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen: A P B gdw. Wenn A, dann meistens B NMR-Inferenzkriterien erfüllt? gdw. P (B A) > 0.5 vorsichtige Monotonie ist nicht erfüllt... denn P (B A) > 0.5, P (C A) > 0.5, aber P (C AB) < 0.5 möglich! Beispiel: Studenten P Fussball, Studenten P Schach, G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51
131 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Nichtmonotonie in der Probabilistik NMR in der Probabilistik 1/2 Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen: A P B gdw. Wenn A, dann meistens B NMR-Inferenzkriterien erfüllt? gdw. P (B A) > 0.5 vorsichtige Monotonie ist nicht erfüllt... denn P (B A) > 0.5, P (C A) > 0.5, aber P (C AB) < 0.5 möglich! Beispiel: Studenten P Fussball, Studenten P Schach, aber Studenten Schach P Fussball G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51
132 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Nichtmonotonie in der Probabilistik NMR in der Probabilistik 2/2 Schnitt ist nicht erfüllt... denn P (B A) > 0.5, P (C AB) > 0.5, aber P (C A) < 0.5 möglich! G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 18 / 51
133 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Nichtmonotonie in der Probabilistik NMR in der Probabilistik 2/2 Schnitt ist nicht erfüllt... denn P (B A) > 0.5, P (C AB) > 0.5, aber P (C A) < 0.5 möglich! Beispiel: st Bauchschmerzen P Appendicitis, st Bauchschmerzen Appendicitis P bald wieder gesund, G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 18 / 51
134 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Nichtmonotonie in der Probabilistik NMR in der Probabilistik 2/2 Schnitt ist nicht erfüllt... denn P (B A) > 0.5, P (C AB) > 0.5, aber P (C A) < 0.5 möglich! Beispiel: st Bauchschmerzen P Appendicitis, st Bauchschmerzen Appendicitis P bald wieder gesund, aber st Bauchschmerzen P bald wieder gesund G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 18 / 51
Commonsense Reasoning
Commonsense Reasoning Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Sommersemester 2015 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 232 Probabilistische Folgerungsmodelle
MehrCommonsense Reasoning
Commonsense Reasoning Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Sommersemester 2014 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 45 Übersicht Übungen und Folien zu Commonsense
MehrCommonsense Reasoning
Commonsense Reasoning Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Sommersemester 2016 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 51 Kapitel 5 ɛ-semantik infinitesimale
Mehr- Theorie der uninterpretierten
Theorie der uninterpretierten Funktionen Entscheidungsverfahren mit Anwendungen in der Softwareverifikation STEPHAN FALKE INSTITUT FÜR THEORETISCHE INFORMATIK (ITI) 0 KIT 13. Universität Mai 2013 des S.
MehrDie Prädikatenlogik erster Stufe: Syntax und Semantik
Die Prädikatenlogik erster Stufe: Syntax und Semantik 1 Mathematische Strukturen und deren Typen Definition 1.1 Eine Struktur A ist ein 4-Tupel A = (A; (R A i i I); (f A j j J); (c A k k K)) wobei I, J,
Mehr5.1 Inferenz. Theorie der Informatik. Theorie der Informatik. 5.1 Inferenz. 5.2 Resolutionskalkül. 5.3 Zusammenfassung. Inferenz: Motivation
Theorie der Informatik 9. März 2015 5. Aussagenlogik III Theorie der Informatik 5. Aussagenlogik III 5.1 Inferenz Malte Helmert Gabriele Röger 5.2 Resolutionskalkül Universität Basel 9. März 2015 5.3 Zusammenfassung
MehrEinführung in die Logik
Einführung in die Logik Klaus Madlener und Roland Meyer 24. April 2013 Inhaltsverzeichnis 1 Aussagenlogik 1 1.1 Syntax................................. 1 1.2 Semantik............................... 3 1.3
Mehr8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.
8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A
MehrGrundlagen der Theoretischen Informatik / Einführung in die Theoretische Informatik I
Vorlesung Grundlagen der Theoretischen Informatik / Einführung in die Theoretische Informatik I Bernhard Beckert Institut für Informatik Sommersemester 2007 B. Beckert Grundlagen d. Theoretischen Informatik:
MehrGrundlagen der Theoretischen Informatik
Grundlagen der Theoretischen Informatik Sommersemester 2015 23.04.2015 Viorica Sofronie-Stokkermans e-mail: sofronie@uni-koblenz.de 1 Bis jetzt 1. Terminologie 2. Endliche Automaten und reguläre Sprachen
MehrAussagenlogik. Übersicht: 1 Teil 1: Syntax und Semantik. 2 Teil 2: Modellierung und Beweise. Aussagenlogik H. Kleine Büning 1/37
Aussagenlogik Übersicht: 1 Teil 1: Syntax und Semantik 2 Teil 2: Modellierung und Beweise Aussagenlogik H. Kleine Büning 1/37 Modellierungsaufgabe Es gibt drei Tauben und zwei Löcher. Jede Taube soll in
Mehr3.1.1 Die Variante T1 und ein Entscheidungsverfahren für die Aussagenlogik
Deduktionssysteme der Aussagenlogik, Kap. 3: Tableaukalküle 38 3 Tableaukalküle 3.1 Klassische Aussagenlogik 3.1.1 Die Variante T1 und ein Entscheidungsverfahren für die Aussagenlogik Ein zweites Entscheidungsverfahren
MehrBayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen
MehrTheorie der Informatik. Theorie der Informatik. 6.1 Einführung. 6.2 Alphabete und formale Sprachen. 6.3 Grammatiken. 6.4 Chomsky-Hierarchie
Theorie der Informatik 17. März 2014 6. Formale Sprachen und Grammatiken Theorie der Informatik 6. Formale Sprachen und Grammatiken Malte Helmert Gabriele Röger Universität Basel 17. März 2014 6.1 Einführung
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
Mehr1.3 Stochastische Unabhängigkeit und bedingte
1.3 Stochastische Unabhängigkeit und bedingte Wahrscheinlichkeiten Ziel: komplexere Modelle aus Verkettung ( Koppelung ) von Zufallsexperimenten bauen, insbesondere Ziehung von n-personen aus n-maliger
MehrAussagenlogik. Übersicht: 1 Teil 1: Syntax und Semantik. 2 Teil 2: Modellierung und Beweise. Aussagenlogik H. Kleine Büning 1/25
Aussagenlogik Übersicht: 1 Teil 1: Syntax und Semantik 2 Teil 2: Modellierung und Beweise Aussagenlogik H. Kleine Büning 1/25 Einführendes Beispiel Falls Lisa Peter trifft, dann trifft Lisa auch Gregor.
MehrMonotonie, Konkavität und Extrema
Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1
Mehrmathematik und informatik
Prof. Dr. Christoph Beierle, Prof. Dr. Gabriele Kern-Isberner Kurs 01845 Methoden der Wissensrepräsentation und -verarbeitung LESEPROBE mathematik und informatik Das Werk ist urheberrechtlich geschützt.
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)
MehrProbleme aus NP und die polynomielle Reduktion
Probleme aus NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 15. Dezember 2009 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit
MehrNormalform. 2.1 Äquivalenz und Folgerung. 2.2 Die pränexe Normalform
2 Normalformen 2.1 Äquivalenz und Folgerung Definition 2.1 Äquivalenz, Folgerung). Seien ϕ, ψ FO[σ]. a) ϕ und ψ heißen äquivalent kurz: ϕ ψ, bzw. ϕ = ψ), wenn für alle zu ϕ und ψ äquivalent passenden σ-interpretationen
MehrLösbarkeit linearer Gleichungssysteme
Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn
Mehr4.1 Motivation. Theorie der Informatik. Theorie der Informatik. 4.1 Motivation. 4.2 Syntax der Prädikatenlogik. 4.3 Semantik der Prädikatenlogik
Theorie der Informatik 3. März 2014 4. Prädikatenlogik I Theorie der Informatik 4. Prädikatenlogik I 4.1 Motivation Malte Helmert Gabriele Röger 4.2 Syntax der Prädikatenlogik Universität Basel 3. März
MehrGrundlagen der Logik
Grundlagen der Logik Denken Menschen logisch? Selektionsaufgabe nach Watson (1966): Gegeben sind vier Karten von denen jede auf der einen Seite mit einem Buchstaben, auf der anderen Seite mit einer Zahl
MehrLogik für Informatiker
Vorlesung Logik für Informatiker 4. Aussagenlogik Syntax und Semantik der Aussagenlogik Bernhard Beckert Universität Koblenz-Landau Sommersemester 2006 Logik für Informatiker, SS 06 p.1 Syntax der Aussagenlogik:
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
MehrKapitel 1.5 und 1.6. Ein adäquater Kalkül der Aussagenlogik
Kapitel 1.5 und 1.6 Ein adäquater Kalkül der Aussagenlogik Teil 1: Kalküle und Beweisbarkeit und die Korrektheit des Shoenfield-Kalküls Mathematische Logik (WS 2010/11) Kapitel 1.5 und 1.6: Kalküle 1 /
MehrFormale Sprachen. Spezialgebiet für Komplexe Systeme. Yimin Ge. 5ahdvn. 1 Grundlagen 1. 2 Formale Grammatiken 4. 3 Endliche Automaten 5.
Formale Sprachen Spezialgebiet für Komplexe Systeme Yimin Ge 5ahdvn Inhaltsverzeichnis 1 Grundlagen 1 2 Formale Grammatien 4 Endliche Automaten 5 4 Reguläre Sprachen 9 5 Anwendungen bei Abzählproblemen
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
MehrGrundbegriffe für dreiwertige Logik
Grundbegriffe für dreiwertige Logik Hans Kleine Büning Universität Paderborn 1.11.2011 1 Syntax und Semantik Die klassische Aussagenlogik mit den Wahrheitswerten falsch und wahr bezeichnen wir im weiteren
Mehr2.7 Der Shannon-Fano-Elias Code
2.7 Der Shannon-Fano-Elias Code Die Huffman-Codierung ist ein asymptotisch optimales Verfahren. Wir haben auch gesehen, dass sich die Huffman-Codierung gut berechnen und dann auch gut decodieren lassen.
Mehr1.1 Motivation. Theorie der Informatik. Theorie der Informatik. 1.1 Motivation. 1.2 Syntax. 1.3 Semantik. 1.4 Formeleigenschaften. 1.
Theorie der Informatik 19. Februar 2014 1. Aussagenlogik I Theorie der Informatik 1. Aussagenlogik I Malte Helmert Gabriele Röger Universität Basel 19. Februar 2014 1.1 Motivation 1.2 Syntax 1.3 Semantik
MehrEinführung in die Stochastik 6. Übungsblatt
Einführung in die Stochastik 6. Übungsblatt Fachbereich Mathematik SS M. Kohler 3. Mai A. Fromkorth D. Furer Gruppen und Hausübung Aufgabe (a) Die Wahrscheinlichkeit, dass eine S Bahn Verspätung hat, betrage.3.
MehrMathematik für Wirtschaftswissenschaftler
Mathematik für Wirtschaftswissenschaftler Yves Schneider Universität Luzern Frühjahr 2016 Repetition Kapitel 1 bis 3 2 / 54 Repetition Kapitel 1 bis 3 Ausgewählte Themen Kapitel 1 Ausgewählte Themen Kapitel
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
MehrWS 2009/10. Diskrete Strukturen
WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910
MehrDer Ergodensatz. Hendrik Hülsbusch
Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen
Mehr6: Diskrete Wahrscheinlichkeit
Stefan Lucks Diskrete Strukturen (WS 2009/10) 219 6: Diskrete Wahrscheinlichkeit 6: Diskrete Wahrscheinlichkeit Stefan Lucks Diskrete Strukturen (WS 2009/10) 220 Wahrscheinlichkeitsrechnung Eines der wichtigsten
MehrWir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir
Kapitel 3: Entropie Motivation Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Information steht
MehrMusterlösung. 1 Relationen. 2 Abbildungen. TUM Ferienkurs Lineare Algebra 1 WiSe 08/09 Dipl.-Math. Konrad Waldherr
TUM Ferienkurs Lineare Algebra WiSe 8/9 Dipl.-Math. Konrad Waldherr Musterlösung Relationen Aufgabe Auf R sei die Relation σ gegeben durch (a, b)σ(c, d) : a + b c + d. Ist σ reflexiv, symmetrisch, transitiv,
MehrBerechenbarkeitstheorie 19. Vorlesung
1 Berechenbarkeitstheorie Dr. Institut für Mathematische Logik und Grundlagenforschung WWU Münster WS 15/16 Alle Folien unter Creative Commons Attribution-NonCommercial 3.0 Unported Lizenz. Erinnerung:
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsräume
Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten
MehrKapitel 1.1. Aussagenlogik: Syntax. Mathematische Logik (WS 2011/12) Kapitel 1.1: Aussagenlogik: Syntax 1/ 1
Kapitel 1.1 Aussagenlogik: Syntax Mathematische Logik (WS 2011/12) Kapitel 1.1: Aussagenlogik: Syntax 1/ 1 Übersicht 1.1.1 Die Sprache der Aussagenlogik 1.1.2 Explizite vs. implizite Definitionen 1.1.3
MehrStochastische Lernalgorithmen
Stochastische Lernalgorithmen Gerhard Jäger 14. Mai 2003 Das Maximum-Entropy-Prinzip Der Entropiebegriff Entropie: Chaos, Unordung, Nicht-Vorhersagbarkeit,... Begriff kommt ursprünglich aus der Physik:
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.
MehrGibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells
Gibbs sampling Sebastian Pado October 30, 2012 1 Bayessche Vorhersage Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Uns interessiert P (y X), wobei wir über das Modell marginalisieren
MehrTU7 Aussagenlogik II und Prädikatenlogik
TU7 Aussagenlogik II und Prädikatenlogik Daniela Andrade daniela.andrade@tum.de 5.12.2016 1 / 32 Kleine Anmerkung Meine Folien basieren auf den DS Trainer von Carlos Camino, den ihr auf www.carlos-camino.de/ds
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrProbleme bei reinen Strategien. Nash Gleichgewichte in gemischten Strategien Kopf 1, 1 1, 1 Zahl 1, 1 1, 1. Gemischte Strategien
Probleme bei reinen Strategien Bisher hatten wir angenommen, daß sich jeder Spieler b auf genau eine Strategie S b S b festlegt. Das ist nicht immer plausibel. Nash Gleichgewichte in gemischten Strategien
MehrWiederholungsklausur DWT
LÖSUNG Wiederholungsklausur DWT Sommersemester 2008 Hinweis: Alle Antworten sind zu begründen. Insbesondere sollte bei nicht-trivialen Umformungen kurz angegeben werden, weshalb diese Umformungen erlaubt
MehrWahrscheinlichkeitstheorie 2
Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):
MehrEinführung in die Wahrscheinlichkeitsrechnung
Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze
MehrInduktive Beweise und rekursive Definitionen
Induktive Beweise und rekursive Definitionen Vorlesung Logik in der Informatik, HU Berlin 1. Übungsstunde Beweis durch vollständige Induktion über N Aufgabe 1 Zeige, dass für alle n N gilt: n 2 i = 2 n+1
MehrSS Juli Übungen zur Vorlesung Logik Blatt 11
SS 2011 06. Juli 2011 Übungen zur Vorlesung Logik Blatt 11 Prof. Dr. Klaus Madlener Abgabe bis 13. Juli 2011 10:00 Uhr 1. Aufgabe: [Axiomatisierung, Übung] 1. Definieren Sie eine Formel A n der Prädikatenlogik
MehrTeil III. Komplexitätstheorie
Teil III Komplexitätstheorie 125 / 160 Übersicht Die Klassen P und NP Die Klasse P Die Klassen NP NP-Vollständigkeit NP-Vollständige Probleme Weitere NP-vollständige Probleme 127 / 160 Die Klasse P Ein
MehrGrundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang
Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen
Mehr1 Σ endliches Terminalalphabet, 2 V endliche Menge von Variablen (mit V Σ = ), 3 P (V (Σ ΣV )) {(S, ε)} endliche Menge von Regeln,
Theorie der Informatik 9. März 24 7. Reguläre Sprachen I Theorie der Informatik 7. Reguläre Sprachen I Malte Helmert Gabriele Röger Universität Basel 9. März 24 7. Reguläre Grammatiken 7.2 DFAs 7.3 NFAs
MehrKapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung
Gliederung der Vorlesung 1. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen 3. Kürzeste Wege 4. Minimale spannende Bäume 5. Färbungen und Cliquen 6. Traveling Salesman Problem 7. Flüsse in Netzwerken
MehrHochschule R avensburg-weingarten University of Applied S ciences Default-Logik Benjamin R ana Angewandte Informatik, Informationsnetze 7.
Default-Logik Überblick Motivation Nichtmonotone-Logik Reiter-Logik Syntax Semantik Extensions Simulator Motivation Mit klassischer Logik lassen sich viele Zusammenhänge nicht einfach darstellen Was tun
MehrDie Klasse NP und die polynomielle Reduktion
Die Klasse NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen Dezember 2011 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit
Mehrfunktionale Abhängigkeiten: Semantik funktionale Abhängigkeiten: Syntax
funktionale Abhängigkeiten: Syntax < R U F > ein Relationenschema mit R ein Relationensymbol, U eine Menge von Attributen, F eine Menge von funktionalen Abhängigkeiten (über R und U) Eine funktionale Abhängigkeit
MehrKapitel II. Vektoren und Matrizen
Kapitel II. Vektoren und Matrizen Vektorräume A Körper Auf der Menge R der reellen Zahlen hat man zwei Verknüpfungen: Addition: R R R(a, b) a + b Multiplikation: R R R(a, b) a b (Der Malpunkt wird oft
MehrAnalysis I. Guofang Wang Universität Freiburg
Universität Freiburg 30.11.2016 5. Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,..., x n ) : x i R} = } R. {{.. R }. n mal Für x R ist x der Abstand zum
MehrEinführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte
Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Wahrscheinlichkeit Axiome nach Kolmogorov Gegeben sei ein Zufallsexperiment mit Ergebnisraum
MehrKapitel II - Wahrscheinlichkeitsraum
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel II - Wahrscheinlichkeitsraum Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh
MehrFORMALE SYSTEME. 8. Vorlesung: Minimale Automaten. TU Dresden, 6. November Markus Krötzsch Lehrstuhl Wissensbasierte Systeme
FORMALE SYSTEME 8. Vorlesung: Minimale Automaten Markus Krötzsch Lehrstuhl Wissensbasierte Systeme TU Dresden, 6. November 2017 Rückblick Markus Krötzsch, 6. November 2017 Formale Systeme Folie 2 von 26
MehrKapitel 1.3. Normalformen aussagenlogischer Formeln und die Darstellbarkeit Boolescher Funktionen durch aussagenlogische Formeln
Kapitel 1.3 Normalformen aussagenlogischer Formeln und die Darstellbarkeit Boolescher Funktionen durch aussagenlogische Formeln Mathematische Logik (WS 2011/12) Kapitel 1.3: Normalformen 1/ 29 Übersicht
MehrDiskrete Verteilungen
KAPITEL 6 Disrete Verteilungen Nun werden wir verschiedene Beispiele von disreten Zufallsvariablen betrachten. 1. Gleichverteilung Definition 6.1. Eine Zufallsvariable X : Ω R heißt gleichverteilt (oder
MehrInhaltsverzeichnis. Inhaltsverzeichnis
Inhaltsverzeichnis Inhaltsverzeichnis 1 Beweistechniken 1.1 Prädikatenlogik..................................... 1. Direkter Beweis.................................... 3 1.3 Indirekter Beweis....................................
MehrSemester-Fahrplan 1 / 17
Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD
Mehr3.6 Bemerkungen zur Umformung boolescher Formeln (NAND): doppelte Negation
3.6 Bemerkungen zur Umformung boolescher Formeln (NAND): Häufig verwendeten Umformungen sind: Idempotenz doppelte Negation De Morgan a = a a a = a a + b = a b ADS-EI 3.6 Bemerkungen zur Umformung boolescher
MehrVorlesung Digitale Signaturen im Wintersemester 2017/-18. Socrative-Fragen aus der Vorlesung vom
Institut für Theoretische Informatik Prof. Dr. J. Müller-Quade Dozenten: Björn Kaidel Vorlesung Digitale Signaturen im Wintersemester 2017/-18 Socrative-Fragen aus der Vorlesung vom 17.11.2017 1 Quiz 1:
MehrLogik für Informatiker
Vorlesung Logik für Informatiker 3. Aussagenlogik Syntax und Semantik der Aussagenlogik Bernhard Beckert Universität Koblenz-Landau Sommersemester 2006 Logik für Informatiker, SS 06 p.16 Syntax der Aussagenlogik:
MehrFormale Systeme. Prof. Dr. Bernhard Beckert, WS 2016/ KIT Die Forschungsuniversita t in der Helmholtz-Gemeinschaft
Formale Systeme Prof. Dr. Bernhard Beckert, WS 2016/2017 Aussagenlogik: Tableaukalku l KIT I NSTITUT F U R T HEORETISCHE I NFORMATIK www.kit.edu KIT Die Forschungsuniversita t in der Helmholtz-Gemeinschaft
MehrFormale Systeme. Aussagenlogik: Syntax und Semantik. Prof. Dr. Bernhard Beckert WS 2010/2011 KIT INSTITUT FÜR THEORETISCHE INFORMATIK
Formale Systeme Prof. Dr. Bernhard Beckert WS 2010/2011 KIT INSTITUT FÜR THEORETISCHE INFORMATIK KIT University of the State of Baden-Württemberg and National Large-scale Research Center of the Helmholtz
MehrHöhere Mathematik III
Universität Stuttgart Fachbereich Mathematik Prof. Dr. J. Pöschel Dr. D. Zimmermann Dipl.-Math. K. Sanei Kashani Blatt 5 Höhere Mathematik III el, kb, mecha, phs Vortragsübungen (Musterlösungen) 7..4 Aufgabe
MehrGrundbegriffe der Wahrscheinlichkeitsrechnung
Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.
MehrUE Logik für Wissensrepräsentation WS 2016/17
UE Logik für Wissensrepräsentation WS 2016/17 Aufgabenblatt 2: Prädikatenlogik Beispiel 1: Zeigen Sie mittels Einführungs- und Beseitigungsregeln für die Herleitungsrelation der Prädikatenlogik folgende
MehrFormale Methoden 1. Gerhard Jäger 9. Januar Uni Bielefeld, WS 2007/2008 1/23
1/23 Formale Methoden 1 Gerhard Jäger Gerhard.Jaeger@uni-bielefeld.de Uni Bielefeld, WS 2007/2008 9. Januar 2008 2/23 Automaten (informell) gedachte Maschine/abstraktes Modell einer Maschine verhält sich
MehrBrückenkurs Rechentechniken
Brückenkurs Rechentechniken Dr. Jörg Horst Technische Universität Dortmund Fakultät für Mathematik SS 2014 1 Vollständige Induktion Vollständige Induktion 2 Funktionenfolgen Punktweise Konvergenz Gleichmäßige
Mehr7. Syntax: Grammatiken, EBNF
7. Syntax: Grammatiken, EBNF Teil 1 Sehr schönes Beispiel für Notwendigkeit der Theoretischen Informatik für Belange der Praktischen Informatik Vertiefung in: Einführung in die Theoretische Informatik
MehrGTI. Hannes Diener. 18. Juni. ENC B-0123,
GTI Hannes Diener ENC B-0123, diener@math.uni-siegen.de 18. Juni 1 / 32 Als Literatur zu diesem Thema empfiehlt sich das Buch Theoretische Informatik kurzgefasst von Uwe Schöning (mittlerweile in der 5.
MehrWas bisher geschah. Aufgaben: Diagnose, Entscheidungsunterstützung Aufbau Komponenten und Funktion
Was bisher geschah Daten, Information, Wissen explizites und implizites Wissen Wissensrepräsentation und -verarbeitung: Wissensbasis Kontextwissen Problemdarstellung fallspezifisches Wissen repräsentiert
MehrLogic in a Nutshell. Christian Liguda
Logic in a Nutshell Christian Liguda Quelle: Kastens, Uwe und Büning, Hans K., Modellierung: Grundlagen und formale Methoden, 2009, Carl Hanser Verlag Übersicht Logik - Allgemein Aussagenlogik Modellierung
MehrQuadrate und Wurzelziehen modulo p
Quadrate und Wurzelziehen modulo p Sei im Folgenden p eine Primzahl größer als. Wir möchten im Körper Z p Quadratwurzeln ziehen. Die Quadrierabbildung Q :Z p Z p ist aber nicht surjektiv, daher gibt es
MehrSeminararbeit zur Spieltheorie. Thema: Rationalisierbarkeit und Wissen
Seminararbeit zur Spieltheorie Thema: Rationalisierbarkeit und Wissen Westfälische-Wilhelms-Universität Münster Mathematisches Institut Dozent: Prof. Dr. Löwe Verfasst von: Maximilian Mümken Sommersemester
MehrDiskrete Strukturen Kapitel 2: Grundlagen (Beweise)
WS 2014/15 Diskrete Strukturen Kapitel 2: Grundlagen (Beweise) Hans-Joachim Bungartz Lehrstuhl für wissenschaftliches Rechnen Fakultät für Informatik Technische Universität München http://www5.in.tum.de/wiki/index.php/diskrete_strukturen_-_winter_14
MehrKapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten
Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem
MehrÜbungen zu Einführung in die Lineare Algebra und Geometrie
Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Sommersemester 2010 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax = b
MehrDefinition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion
Kapitel 2 Erwartungswert 2.1 Erwartungswert einer Zufallsvariablen Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion È ist definiert als Ü ÜÈ Üµ Für spätere
MehrStrukturelle Rekursion und Induktion
Kapitel 2 Strukturelle Rekursion und Induktion Rekursion ist eine konstruktive Technik für die Beschreibung unendlicher Mengen (und damit insbesondere für die Beschreibung unendliche Funktionen). Induktion
MehrZentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)
SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ss/dwt/uebung/ 10. Mai 2013
MehrKapitel 1.5. Ein adäquater Kalkül der Aussagenlogik. Teil 1: Kalküle und Beweisbarkeit und die Korrektheit des Shoenfield-Kalküls
Kapitel 1.5 Ein adäquater Kalkül der Aussagenlogik Teil 1: Kalküle und Beweisbarkeit und die Korrektheit des Shoenfield-Kalküls Mathematische Logik (WS 2012/13) Kapitel 1.5: Kalküle 1/30 Syntaktischer
Mehrf(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J}
9 Der Satz über implizite Funktionen 41 9 Der Satz über implizite Funktionen Wir haben bisher Funktionen g( von einer reellen Variablen immer durch Formelausdrücke g( dargestellt Der Zusammenhang zwischen
MehrZentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza)
WS 2013/14 Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ws/ds/uebung/ 30. Oktober 2013 ZÜ DS ZÜ
MehrInduktive Beweise und rekursive Definitionen
Induktive Beweise und rekursive Definitionen Vorlesung Logik in der Informatik, HU Berlin 1. Übungsstunde Beweis durch vollständige Induktion über N Aufgabe 1 Zeige, dass für alle n N gilt: n 2 i = 2 n+1
MehrGleichungen und Ungleichungen
Kapitel 3 Gleichungen und Ungleichungen Josef Leydold Auffrischungskurs Mathematik WS 2017/18 3 Gleichungen und Ungleichungen 1 / 58 Gleichung Eine Gleichung erhalten wir durch Gleichsetzen zweier Terme.
MehrGleichungen und Ungleichungen
Kapitel 3 Gleichungen und Ungleichungen Josef Leydold Auffrischungskurs Mathematik WS 2017/18 3 Gleichungen und Ungleichungen 1 / 58 Gleichung Eine Gleichung erhalten wir durch Gleichsetzen zweier Terme.
Mehr