Commonsense Reasoning

Größe: px
Ab Seite anzeigen:

Download "Commonsense Reasoning"

Transkript

1 Commonsense Reasoning Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Sommersemester 2015 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 232

2 Kapitel 4 4. Probabilistische Folgerungsmodelle und -strategien 4.6 Probabilistische Inferenz auf der Basis optimaler Entropie G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 169 / 232

3 Der MaxEnt-Ansatz (ME) 1/2 Gegeben: Probabilistische Wissensbasis R = {(B 1 A 1 ) [x 1 ],..., (B n A n ) [x n ]}; Gesucht: Diejenige Verteilung P, die nur das Wissen in R und seine probabilistischen Konsequenzen darstellt und sonst keine Information hinzufügt. Prinzip der maximalen Entropie Maximiere Unbestimmtheit (d.h. Entropie) H(P ) = ω P (ω) log 2 P (ω), gegeben Information R = {(B 1 A 1 ) [x 1 ],..., (B n A n ) [x n ]} G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 176 / 232

4 Der MaxEnt-Ansatz (ME) 2/2 Das Optimierungsproblem (arg) max P =R H(P ) = ω P (ω) log 2 P (ω) ist eindeutig lösbar mit Lösung P = ME(R). G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 177 / 232

5 ME-Verteilung unter der Lupe Für R = {(B 1 A 1 ) [x 1 ],..., (B n A n ) [x n ]} erhalten wir ME(R)(ω) = α 0 α 1 i n ω =A i B i 1 x i i α 1 i n ω =A i B i x i i mit α i = x i 1 x i und α i ω =A ib i ω =A ib i α 1 xj j α xj j j i j i ω =A j B j ω =A j B j > 0 : x i (0, 1) = : x i = 1 = 0 : x i = 0 α 1 xj j α xj j j i j i ω =A j B j ω =A j B j, 1 i n., G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 206 / 232

6 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 206 / 232

7 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 206 / 232

8 ME-Ableitungsregeln Wir wollen im Folgenden für (wichtige) Spezialfälle ME-Inferenzen berechnen und Ableitungsregeln aufstellen; G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 207 / 232

9 ME-Ableitungsregeln Wir wollen im Folgenden für (wichtige) Spezialfälle ME-Inferenzen berechnen und Ableitungsregeln aufstellen; dabei benutzen wir die folgende Notation genau dann, wenn R : (B 1 A 1 ) [x 1 ],..., (B n A n ) [x n ] (B 1 A 1) [x 1],..., (B m A m) [x m] R = {(B 1 A 1 ) [x 1 ],..., (B n A n ) [x n ]} und ME(R) = {(B 1 A 1) [x 1],... (B m A m) [x m]} G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 207 / 232

10 ME-Ableitungsregeln (Forts.) Mit Hilfe der obigen Formel lassen sich z.b. folgende Ableitungsregeln beweisen: Transitive Verkettung R : (B A)[x 1 ], (C B)[x 2 ] (C A)[ 1 2 (2x 1x x 1 )] G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 208 / 232

11 ME-Ableitungsregeln (Forts.) Mit Hilfe der obigen Formel lassen sich z.b. folgende Ableitungsregeln beweisen: Transitive Verkettung R : (B A)[x 1 ], (C B)[x 2 ] (C A)[ 1 2 (2x 1x x 1 )] Beispiel: A jung sein, B Single sein, C Kinder haben R = {(B A)[0.9], (C B)[0.85]}. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 208 / 232

12 ME-Ableitungsregeln (Forts.) Mit Hilfe der obigen Formel lassen sich z.b. folgende Ableitungsregeln beweisen: Transitive Verkettung R : (B A)[x 1 ], (C B)[x 2 ] (C A)[ 1 2 (2x 1x x 1 )] Beispiel: A jung sein, B Single sein, C Kinder haben R = {(B A)[0.9], (C B)[0.85]}. Mit der Transitiven Verkettung errechnet man als ME-Folgerung (C A)[0.815] G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 208 / 232

13 Transitive Verkettung Beweis R : (B A)[x 1 ], (C B)[x 2 ] (C A)[ 1 2 (2x 1x x 1 )] G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 209 / 232

14 Transitive Verkettung Beweis R : (B A)[x 1 ], (C B)[x 2 ] (C A)[ 1 2 (2x 1x x 1 )] Die ME-Verteilung P = ME(R), R = {(B A)[x 1 ], (C B)[x 2 ]}, kann wie folgt berechnet werden: ω P ω P ABC α 0 α 1 x 1 1 α 1 x 2 2 AB C α 0 α 1 x 1 1 α x 2 2 A BC α 0 α x 1 1 A B C α 0 α x 1 1 ĀBC α 0 α 1 x 2 2 ĀB C α 0 α x 2 2 Ā BC α 0 Ā B C α 0 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 209 / 232

15 Transitive Verkettung Beweis (Forts.) mit α 1 = α 2 = x x 1 α 1 x 2 x 2 1 x α x 2 2 = x 1 α x x 1 2 α G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232

16 Transitive Verkettung Beweis (Forts.) mit α 1 = α 2 = x x 1 α 1 x 2 x 2 1 x α x 2 2 = x 1 α x x 1 2 α Damit berechnet man P (C A) = P (AC) P (A) G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232

17 Transitive Verkettung Beweis (Forts.) mit α 1 = α 2 = x x 1 α 1 x 2 x 2 1 x α x 2 2 = x 1 α x x 1 2 α Damit berechnet man P (C A) = P (AC) P (A) P (ABC) + P (A = BC) P (ABC) + P (AB C) + P (A BC) + P (A B C) G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232

18 Transitive Verkettung Beweis (Forts.) mit α 1 = α 2 = x x 1 α 1 x 2 x 2 1 x α x 2 2 = x 1 α x x 1 2 α Damit berechnet man P (C A) = P (AC) P (A) P (ABC) + P (A = BC) P (ABC) + P (AB C) + P (A BC) + P (A B C) = α 1 α 1 x α 1 α x 2 2 (α 2 + 1) + 2 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232

19 Transitive Verkettung Beweis (Forts.) mit α 1 = α 2 = x x 1 α 1 x 2 x 2 1 x α x 2 2 = x 1 α x x 1 2 α Damit berechnet man P (C A) = P (AC) P (A) P (ABC) + P (A = BC) P (ABC) + P (AB C) + P (A BC) + P (A B C) = α 1 α 1 x α 1 α x 2 2 (α 2 + 1) + 2 = 1 2 (2x 1x x 1 ) G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232

20 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232

21 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 210 / 232

22 ME-Ableitungsregeln (Forts.) Vorsichtige Monotonie R : (B A)[x 1 ], (C A)[x 2 ] (C AB)[x 2 ] Beispiel: A Student sein, B jung sein, C Single sein R = {(B A)[0.9], (C A)[0.8]} G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 211 / 232

23 ME-Ableitungsregeln (Forts.) Vorsichtige Monotonie R : (B A)[x 1 ], (C A)[x 2 ] (C AB)[x 2 ] Beispiel: A Student sein, B jung sein, C Single sein R = {(B A)[0.9], (C A)[0.8]} Mit der vorsichtigen Monotonie folgt dann (C AB)[0.8] G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 211 / 232

24 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 211 / 232

25 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 211 / 232

26 ME-Ableitungsregeln (Forts.) Schnitt R : (C AB)[x 1 ], (B A)[x 2 ] (C A)[ 1 2 (2x 1x x 2 )] Beispiel: A Student sein, B jung sein, C Single sein R = {(C AB)[0.8], (B A)[0.9]} G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232

27 ME-Ableitungsregeln (Forts.) Schnitt R : (C AB)[x 1 ], (B A)[x 2 ] (C A)[ 1 2 (2x 1x x 2 )] Beispiel: A Student sein, B jung sein, C Single sein R = {(C AB)[0.8], (B A)[0.9]} Mit der Schnittregel folgt dann (C A)[0.77] G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232

28 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232

29 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232

30 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232

31 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232

32 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232

33 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 212 / 232

34 ME und Commonsense Reasoning Was hat ME mit Commonsense Reasoning zu tun? G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 213 / 232

35 ME und Commonsense Reasoning Was hat ME mit Commonsense Reasoning zu tun? Jeff Paris: Common sense and maximum entropy. Synthese 117, 75-93, 1999, Kluwer Academic Publishers G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 213 / 232

36 Symmetrie-Prinzip Eines der grundlegendsten und einfachsten Prinzipien des Commonsense Reasoning ist das Symmetrie-Prinzip (Wesentlich) Ähnliche Probleme haben (im Wesentlichen) ähnliche Lösungen. (B. van Fraassen, 1989) G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 214 / 232

37 Symmetrie-Prinzip Eines der grundlegendsten und einfachsten Prinzipien des Commonsense Reasoning ist das Symmetrie-Prinzip (Wesentlich) Ähnliche Probleme haben (im Wesentlichen) ähnliche Lösungen. (B. van Fraassen, 1989) Welche Ähnlichkeit ist hier gemeint? G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 214 / 232

38 Symmetrie-Prinzip Eines der grundlegendsten und einfachsten Prinzipien des Commonsense Reasoning ist das Symmetrie-Prinzip (Wesentlich) Ähnliche Probleme haben (im Wesentlichen) ähnliche Lösungen. (B. van Fraassen, 1989) Welche Ähnlichkeit ist hier gemeint? Was ist denn überhaupt das Problem? G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 214 / 232

39 Intelligente Agenten in probabilistischer Umgebung Nehmen wir an, der Agent kann sein (d.h. alles(!) relevante) Wissen in Form einer probabilistischen Regelbasis ausdrücken, G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 215 / 232

40 Intelligente Agenten in probabilistischer Umgebung Nehmen wir an, der Agent kann sein (d.h. alles(!) relevante) Wissen in Form einer probabilistischen Regelbasis ausdrücken, und er ist in der Lage, sein Wissen korrekt und optimal zu verarbeiten, G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 215 / 232

41 Intelligente Agenten in probabilistischer Umgebung Nehmen wir an, der Agent kann sein (d.h. alles(!) relevante) Wissen in Form einer probabilistischen Regelbasis ausdrücken, und er ist in der Lage, sein Wissen korrekt und optimal zu verarbeiten, dann kann er zu jeder Anfrage φ eine passende Wahrscheinlichkeit produzieren. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 215 / 232

42 Intelligente Agenten in probabilistischer Umgebung Nehmen wir an, der Agent kann sein (d.h. alles(!) relevante) Wissen in Form einer probabilistischen Regelbasis ausdrücken, und er ist in der Lage, sein Wissen korrekt und optimal zu verarbeiten, dann kann er zu jeder Anfrage φ eine passende Wahrscheinlichkeit produzieren. Wir wollen also den Agenten als einen Inferenzprozess N modellieren, der zu jeder Menge R von probabilistischen Regeln eine Wahrscheinlichkeitsverteilung produziert. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 215 / 232

43 Probabilistischer Inferenzprozess 1/2 Σ = {A 1,..., A n } Form(Σ) Alphabet, d.h. Menge von (binären) Aussagenvariablen Menge der Formeln über Σ G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 216 / 232

44 Probabilistischer Inferenzprozess 1/2 Σ = {A 1,..., A n } Form(Σ) P(Σ) Alphabet, d.h. Menge von (binären) Aussagenvariablen Menge der Formeln über Σ Menge aller Wahrscheinlichkeitsverteilungen über Σ, d.h. P(Σ) = {(p 1,..., p 2 n) p i 0, 2 n i=1 p i = 1} G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 216 / 232

45 Probabilistischer Inferenzprozess 1/2 Σ = {A 1,..., A n } Form(Σ) P(Σ) Alphabet, d.h. Menge von (binären) Aussagenvariablen Menge der Formeln über Σ Menge aller Wahrscheinlichkeitsverteilungen über Σ, d.h. P(Σ) = {(p 1,..., p 2 n) p i 0, 2 n i=1 p i = 1} KB(Σ) Menge aller konsistenten probabilistischen Regelbasen über Σ G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 216 / 232

46 Probabilistischer Inferenzprozess 1/2 Σ = {A 1,..., A n } Form(Σ) P(Σ) Alphabet, d.h. Menge von (binären) Aussagenvariablen Menge der Formeln über Σ Menge aller Wahrscheinlichkeitsverteilungen über Σ, d.h. P(Σ) = {(p 1,..., p 2 n) p i 0, 2 n i=1 p i = 1} KB(Σ) Menge aller konsistenten probabilistischen Regelbasen über Σ Ist Σ 1 Σ 2, so ist auch KB(Σ 1 ) KB(Σ 2 ). G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 216 / 232

47 Probabilistischer Inferenzprozess 2/2 Definition 3 (Probabilistischer Inferenzprozess) Ein probabilistischer Inferenzprozess N Σ ist eine Abbildung N Σ : KB(Σ) P(Σ), R P, die jeder konsistenten Regelbasis über Σ eine Verteilung P über Σ zuordnet mit P = R. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 217 / 232

48 Probabilistischer Inferenzprozess 2/2 Definition 3 (Probabilistischer Inferenzprozess) Ein probabilistischer Inferenzprozess N Σ ist eine Abbildung N Σ : KB(Σ) P(Σ), R P, die jeder konsistenten Regelbasis über Σ eine Verteilung P über Σ zuordnet mit P = R. N Σ spezifiziert also einen induktiven Inferenzprozess. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 217 / 232

49 Probabilistischer Inferenzprozess 2/2 Definition 3 (Probabilistischer Inferenzprozess) Ein probabilistischer Inferenzprozess N Σ ist eine Abbildung N Σ : KB(Σ) P(Σ), R P, die jeder konsistenten Regelbasis über Σ eine Verteilung P über Σ zuordnet mit P = R. N Σ spezifiziert also einen induktiven Inferenzprozess. Welche CR-Prinzipien zeichnen einen guten Inferenzprozess aus? G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 217 / 232

50 CR-Prinzip 1: Irrelevante Information Irrelevante-Information-Prinzip Information über ganz andere Themenbereiche soll das Ergebnis des Inferenzprozesses nicht beeinflussen. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 218 / 232

51 CR-Prinzip 1: Irrelevante Information Irrelevante-Information-Prinzip Information über ganz andere Themenbereiche soll das Ergebnis des Inferenzprozesses nicht beeinflussen. Seien Σ 1, Σ 2 zwei disjunkte Signaturen, Σ 1 Σ 2 =, und seien R 1 KB(Σ 1 ), R 2 KB(Σ 2 ). Für alle φ Form(Σ 1 ) soll dann gelten: N Σ1 (R 1 )(φ) = N Σ1 Σ 2 (R 1 R 2 )(φ). G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 218 / 232

52 CR-Prinzip 1: Irrelevante Information Irrelevante-Information-Prinzip Information über ganz andere Themenbereiche soll das Ergebnis des Inferenzprozesses nicht beeinflussen. Seien Σ 1, Σ 2 zwei disjunkte Signaturen, Σ 1 Σ 2 =, und seien R 1 KB(Σ 1 ), R 2 KB(Σ 2 ). Für alle φ Form(Σ 1 ) soll dann gelten: N Σ1 (R 1 )(φ) = N Σ1 Σ 2 (R 1 R 2 )(φ). Das Ergebnis der Inferenz soll also nur vom relevanten Teil der Signatur abhängen. Wir schreiben daher im Folgenden häufig N statt N Σ. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 218 / 232

53 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 218 / 232

54 CR-Prinzip 2: Semantische Äquivalenz Äquivalenz-Prinzip Haben zwei Wissensbasen exakt die gleiche (semantische) Bedeutung, so soll auch exakt das Gleiche gefolgert werden. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 219 / 232

55 CR-Prinzip 2: Semantische Äquivalenz Äquivalenz-Prinzip Haben zwei Wissensbasen exakt die gleiche (semantische) Bedeutung, so soll auch exakt das Gleiche gefolgert werden. Beschreiben R 1, R 2 KB(Σ) denselben Lösungsraum in P(Σ), so soll gelten N(R 1 ) = N(R 2 ). G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 219 / 232

56 CR-Prinzip 3: Umbenennung Umbenennungs-Prinzip Eine isomorphe Umbennung der Variablen in der Wissensbasis soll keinen Effekt auf das Ergebnis der Inferenz haben. Formalisierung:... G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 220 / 232

57 CR-Prinzip 4: Kontext-Relativierung Relativierungs-Prinzip Information, die sich auf die Nichterfüllung eines Kontextes bezieht, ist irrelevant für die kontextbezogene Inferenz. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 221 / 232

58 CR-Prinzip 4: Kontext-Relativierung Relativierungs-Prinzip Information, die sich auf die Nichterfüllung eines Kontextes bezieht, ist irrelevant für die kontextbezogene Inferenz. Sei A Form(Σ), seien R 1, R 2 KB(Σ) die folgenden Wissensbasen: R 1 = {A[x], (B i A)[x i ], (C j A)[y j ]} i,j, R 2 = {A[x], (B i A)[x i ]} i. Für φ Form(Σ) soll dann gelten: N(R 1 )(φ A) = N(R 2 )(φ A). G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 221 / 232

59 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 221 / 232

60 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 221 / 232

61 CR-Prinzip 5: Hartnäckigkeit Hartnäckigkeits-Prinzip Information, die das bestätigt, was der Agent bereits glaubt, soll das Ergebnis der Inferenz nicht beeinflussen. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 222 / 232

62 CR-Prinzip 5: Hartnäckigkeit Hartnäckigkeits-Prinzip Information, die das bestätigt, was der Agent bereits glaubt, soll das Ergebnis der Inferenz nicht beeinflussen. Sind R 1, R 2 KB(Σ), und erfüllt N(R 1 ) bereits R 2, so soll gelten: N(R 1 ) = N(R 1 R 2 ). G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 222 / 232

63 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 222 / 232

64 CR-Prinzip 6: Schwache Unabhängigkeit Schwaches Unabhängigkeits-Prinzip Information über eine echte Alternative soll das Ergebnis der Inferenz nicht beeinflussen. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 223 / 232

65 CR-Prinzip 6: Schwache Unabhängigkeit Schwaches Unabhängigkeits-Prinzip Information über eine echte Alternative soll das Ergebnis der Inferenz nicht beeinflussen. Sei Σ = {A, B, C}, und seien R 1, R 2 KB(Σ) die folgenden Wissensbasen: R 1 = {A[x], B[y]}, R 2 = {A[x], B[y], C[z], AC[0]}. Dann soll gelten N(R 1 )(A B) = N(R 2 )(A B). G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 223 / 232

66 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 223 / 232

67 CR-Prinzip 7: Stetigkeit Stetigkeits-Prinzip Mikroskopisch kleine Änderungen in der Weltbeschreibung sollen keine makroskopisch großen Änderungen in den Wahrscheinlichkeiten verursachen. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 224 / 232

68 CR-Prinzip 7: Stetigkeit Stetigkeits-Prinzip Mikroskopisch kleine Änderungen in der Weltbeschreibung sollen keine makroskopisch großen Änderungen in den Wahrscheinlichkeiten verursachen. Für jedes φ Form(Σ) hängt N(R)(φ) stetig von den Wahrscheinlichkeiten des Faktenwissens in R ab. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 224 / 232

69 Notizen G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 224 / 232

70 Haupttheorem Theorem 4 Jeder Inferenzprozess N, der alle CR-Prinzipien 1-7 erfüllt, stimmt mit der ME-Inferenz überein. Die ME-Methodik erlaubt also optimales Commonsense Reasoning im probabilistischen Bereich und wird durch die CR-Prinzipien 1-7 eindeutig bestimmt. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 225 / 232

71 Fazit ME-Methodik 1/2 ME-Rehabilitation Das MaxEnt-Verfahren ist kein technisches Black-Box-Verfahren ohne Sinn und Logik! G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 226 / 232

72 Fazit ME-Methodik 1/2 ME-Rehabilitation Das MaxEnt-Verfahren ist kein technisches Black-Box-Verfahren ohne Sinn und Logik! Die ME-Methodik ermöglicht induktive Inferenz in ihrer allgemeinsten Form: Komplexe Wissenszustände (Wahrscheinlichkeitsverteilungen) können aus Information in komplexer Form (Mengen probabilistischer Konditionale) erzeugt werden. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 226 / 232

73 Fazit ME-Methodik 1/2 ME-Rehabilitation Das MaxEnt-Verfahren ist kein technisches Black-Box-Verfahren ohne Sinn und Logik! Die ME-Methodik ermöglicht induktive Inferenz in ihrer allgemeinsten Form: Komplexe Wissenszustände (Wahrscheinlichkeitsverteilungen) können aus Information in komplexer Form (Mengen probabilistischer Konditionale) erzeugt werden. ME-Inferenz erfüllt zahlreiche der Eigenschaften, die man an nichtmonotone Inferenzrelationen i.allg. stellt, z.b. die Kumulativität und Loop. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 226 / 232

74 Fazit ME-Methodik 2/2 Auch auf der Ebene der Wahrscheinlichkeiten lassen sich einige der Inferenzregeln simulieren (z.b. Vorsichtige Monotonie, Schnitt). G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 227 / 232

75 Fazit ME-Methodik 2/2 Auch auf der Ebene der Wahrscheinlichkeiten lassen sich einige der Inferenzregeln simulieren (z.b. Vorsichtige Monotonie, Schnitt). Die ME-Methodik lässt sich als optimale Umsetzung des Commonsense Reasoning in einer probabilistischen Umgebung auffassen. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 227 / 232

76 Fazit ME-Methodik 2/2 Auch auf der Ebene der Wahrscheinlichkeiten lassen sich einige der Inferenzregeln simulieren (z.b. Vorsichtige Monotonie, Schnitt). Die ME-Methodik lässt sich als optimale Umsetzung des Commonsense Reasoning in einer probabilistischen Umgebung auffassen. Für die Wissensrevision gibt es einen ebenso hochwertigen großen Bruder, das Prinzip der minimalen Relativ-Entropie. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 227 / 232

77 Schlussworte und Zusammenfassung Übersicht Kapitel 4 Probabilistik 4.1 Einführung und Übersicht 4.2 Wahrscheinlichkeitstheorie und Commonsense Reasoning 4.3 Grundideen probabilistischen Schlussfolgerns 4.4 Schlussfolgern über Unabhängigkeiten 4.5 Propagation in baumartigen Netzen 4.6 Probabilistische Inferenz auf der Basis optimaler Entropie 4.7 Schlussworte und Zusammenfassung G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 228 / 232

78 Kapitel 4 Schlussworte und Zusammenfassung 4. Probabilistische Folgerungsmodelle und -strategien 4.7 Schlussworte und Zusammenfassung G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 229 / 232

79 Schlussworte und Zusammenfassung Zusammenfassung Kapitel 4 Bedingte Wahrscheinlichkeiten (= Konditionale mit Wahrscheinlichkeiten) sind die Repräsentanten generischen Wissens und wichtige Bausteine probabilistischer Netzwerke. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 230 / 232

80 Schlussworte und Zusammenfassung Zusammenfassung Kapitel 4 Bedingte Wahrscheinlichkeiten (= Konditionale mit Wahrscheinlichkeiten) sind die Repräsentanten generischen Wissens und wichtige Bausteine probabilistischer Netzwerke. Auch in gerichteten probabilistischen Netzwerken ist Wissenspropagation in beiden Richtungen möglich. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 230 / 232

81 Schlussworte und Zusammenfassung Zusammenfassung Kapitel 4 Bedingte Wahrscheinlichkeiten (= Konditionale mit Wahrscheinlichkeiten) sind die Repräsentanten generischen Wissens und wichtige Bausteine probabilistischer Netzwerke. Auch in gerichteten probabilistischen Netzwerken ist Wissenspropagation in beiden Richtungen möglich. In einfachen probabilistischen Netzwerken (Bäumen) ist ein direkter Informationsfluss über die Kanten möglich. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 230 / 232

82 Schlussworte und Zusammenfassung Zusammenfassung Kapitel 4 Bedingte Wahrscheinlichkeiten (= Konditionale mit Wahrscheinlichkeiten) sind die Repräsentanten generischen Wissens und wichtige Bausteine probabilistischer Netzwerke. Auch in gerichteten probabilistischen Netzwerken ist Wissenspropagation in beiden Richtungen möglich. In einfachen probabilistischen Netzwerken (Bäumen) ist ein direkter Informationsfluss über die Kanten möglich. In probabilistischen Netzwerken mit konfluenter Information (DAG) oder allgemeinen Abhängigkeiten (LEG-Netze) muss zunächst eine Hyperbaum-Struktur aufgebaut werden; der Informationsfluss erfolgt zwischen benachbarten Hyperkanten über deren Schnitte (Separatoren). G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 230 / 232

83 Schlussworte und Zusammenfassung Zusammenfassung Kapitel 4 (Forts.) Das Problem unvollständiger probabilistischer Informationen wird in Bayes-Netzen durch klare Spezifikationsvorgaben und die Annahme bedingter Unabhängigkeiten gelöst. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 231 / 232

84 Schlussworte und Zusammenfassung Zusammenfassung Kapitel 4 (Forts.) Das Problem unvollständiger probabilistischer Informationen wird in Bayes-Netzen durch klare Spezifikationsvorgaben und die Annahme bedingter Unabhängigkeiten gelöst. Mit Hilfe der ME-Methodik kann aus einer Menge probabilistischer Regeln (unvollständige Information!) ohne weitere Annahmen eine vollständige Verteilung aufgebaut werden. Bedingte Unabhängigkeiten entstehen hier aus dem Kontext heraus, werden aber nicht vorausgesetzt. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 231 / 232

85 Schlussworte und Zusammenfassung Zusammenfassung Kapitel 4 (Forts.) Bayessche Netze modellieren bedingte Unabhängigkeiten, während die ME-Methodik sich auf die konsequente Ausnutzung bedingter Abhängigkeiten konzentriert. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 232 / 232

86 Schlussworte und Zusammenfassung Zusammenfassung Kapitel 4 (Forts.) Bayessche Netze modellieren bedingte Unabhängigkeiten, während die ME-Methodik sich auf die konsequente Ausnutzung bedingter Abhängigkeiten konzentriert. Die ME-Inferenz ist ein mächtige Methode für die probabilistische Wissensrepräsentation mit hervorragenden Eigenschaften. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 232 / 232

87 Commonsense Reasoning Übersicht Einführung und Übersicht Nichtklassisches Schlussfolgern Rangfunktionen ein einfaches epistemisches Modell Probabilistische Folgerungsmodelle und -strategien Qualitative und quantitative Wissensrepräsentation Argumentation Commonsense Reasoning in Multi-Agentensystemen Schlussteil und Prüfungsvorbereitung G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 2 / 51

88 Kapitel 5 5. Qualitative und quantitative Wissensrepräsentation G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 3 / 51

89 Übersicht Kapitel 5 Qualitativ und Quantitativ 5.1 Qualitative Wahrscheinlichkeiten G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 4 / 51

90 Übersicht Kapitel 5 Qualitativ und Quantitativ 5.1 Qualitative Wahrscheinlichkeiten 5.2 Nichtmonotonie in der Probabilistik G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 4 / 51

91 Übersicht Kapitel 5 Qualitativ und Quantitativ 5.1 Qualitative Wahrscheinlichkeiten 5.2 Nichtmonotonie in der Probabilistik 5.3 ɛ-semantik infinitesimale Wahrscheinlichkeiten G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 4 / 51

92 Übersicht Kapitel 5 Qualitativ und Quantitativ 5.1 Qualitative Wahrscheinlichkeiten 5.2 Nichtmonotonie in der Probabilistik 5.3 ɛ-semantik infinitesimale Wahrscheinlichkeiten 5.4 Konditionale Ereignisse G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 4 / 51

93 Übersicht Kapitel 5 Qualitativ und Quantitativ 5.1 Qualitative Wahrscheinlichkeiten 5.2 Nichtmonotonie in der Probabilistik 5.3 ɛ-semantik infinitesimale Wahrscheinlichkeiten 5.4 Konditionale Ereignisse G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 5 / 51

94 Kapitel 5 5. Qualitative und quantitative Wissensrepräsentation 5.1 Qualitative Wahrscheinlichkeiten G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 6 / 51

95 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Punktgenaue Wahrscheinlichkeiten... Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaue Wahrscheinlichkeiten. Beispiel: Bei MaxEnt folgt mit der Schnittregel (C AB)[0.8], (B A)[0.9] ME (C A)[0.77]. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51

96 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Punktgenaue Wahrscheinlichkeiten... Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaue Wahrscheinlichkeiten. Beispiel: Bei MaxEnt folgt mit der Schnittregel (C AB)[0.8], (B A)[0.9] ME (C A)[0.77]. Warum nicht 0.78, 0.80 oder 0.75? G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51

97 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Punktgenaue Wahrscheinlichkeiten... Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaue Wahrscheinlichkeiten. Beispiel: Bei MaxEnt folgt mit der Schnittregel (C AB)[0.8], (B A)[0.9] ME (C A)[0.77]. Warum nicht 0.78, 0.80 oder 0.75? Welchen Nutzen haben solche exakten Wahrscheinlichkeiten? G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51

98 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Punktgenaue Wahrscheinlichkeiten... Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaue Wahrscheinlichkeiten. Beispiel: Bei MaxEnt folgt mit der Schnittregel (C AB)[0.8], (B A)[0.9] ME (C A)[0.77]. Warum nicht 0.78, 0.80 oder 0.75? Welchen Nutzen haben solche exakten Wahrscheinlichkeiten? Welche Fehlerquellen stellen Rundungen dar? G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51

99 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Punktgenaue Wahrscheinlichkeiten... Sowohl Bayes-Netze als auch MaxEnt-Verfahren liefern punktgenaue Wahrscheinlichkeiten. Beispiel: Bei MaxEnt folgt mit der Schnittregel (C AB)[0.8], (B A)[0.9] ME (C A)[0.77]. Warum nicht 0.78, 0.80 oder 0.75? Welchen Nutzen haben solche exakten Wahrscheinlichkeiten? Welche Fehlerquellen stellen Rundungen dar?... oder darf s auch ruhig ein bisschen mehr sein? G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 7 / 51

100 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Infinitesimale Wahrscheinlichkeiten Ziel: Man interessiert sich nicht für die (konkrete) Wahrscheinlichkeit, sondern nur für die Größenordnung der Wahrscheinlichkeit. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51

101 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Infinitesimale Wahrscheinlichkeiten Ziel: Man interessiert sich nicht für die (konkrete) Wahrscheinlichkeit, sondern nur für die Größenordnung der Wahrscheinlichkeit. Idee: Drücke P (ω) als Polynom in ɛ aus, wobei ɛ eine kleine, positive Zahl bzw. ein Infinitesimal ist (d.h. P wird durch ɛ parametrisiert); G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51

102 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Infinitesimale Wahrscheinlichkeiten Ziel: Man interessiert sich nicht für die (konkrete) Wahrscheinlichkeit, sondern nur für die Größenordnung der Wahrscheinlichkeit. Idee: Drücke P (ω) als Polynom in ɛ aus, wobei ɛ eine kleine, positive Zahl bzw. ein Infinitesimal ist (d.h. P wird durch ɛ parametrisiert); Infinitesimale sind stetige Funktionen ɛ : (0, 1) (0, 1) mit lim x 0 ɛ(x) = 0, z.b. ɛ(x) = x 2. betrachte dann den Grenzwert ɛ 0, um eine qualitative Abstraktion von P (ω) zu bekommen. Beispiel: Man möchte nicht zwischen den Wahrscheinlichkeiten und unterscheiden, sie sind (offensichtlich) von der gleichen Größenordnung. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51

103 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Notizen Qualitative Wahrscheinlichkeiten G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51

104 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Notizen Qualitative Wahrscheinlichkeiten G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 8 / 51

105 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 1/5 Die Größenordnung κ P einer parametrisierten (infinitesimalen) Wahrscheinlichkeit P (ω) = (1 )a 0 ɛ 0 + a 1 ɛ 1 + a 2 ɛ wird definiert als κ P (ω) = { min{n N lim P (ω) ɛ 0 ɛ 0}, n P (ω) > 0, P (ω) = 0 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 9 / 51

106 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 1/5 Die Größenordnung κ P einer parametrisierten (infinitesimalen) Wahrscheinlichkeit P (ω) = (1 )a 0 ɛ 0 + a 1 ɛ 1 + a 2 ɛ wird definiert als κ P (ω) = { min{n N lim P (ω) ɛ 0 ɛ 0}, n P (ω) > 0, P (ω) = 0 D.h. für P (ω) = a 0 ɛ 0 + a 1 ɛ 1 + a 2 ɛ ist κ P (ω) = min{i a i 0} G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 9 / 51

107 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Notizen Qualitative Wahrscheinlichkeiten G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 9 / 51

108 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 2/5 Für infinitesimale parametrisierte Wahrscheinlichkeiten P hat P (ω 1 ) + P (ω 2 ) die Größenordnung min{κ P (ω 1 ), κ P (ω 2 )}; G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 10 / 51

109 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 2/5 Für infinitesimale parametrisierte Wahrscheinlichkeiten P hat P (ω 1 ) + P (ω 2 ) die Größenordnung min{κ P (ω 1 ), κ P (ω 2 )}; die Größenordnung von Formeln A kann also definiert werden durch κ P (A) = min{κ P (ω) ω = A} G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 10 / 51

110 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 3/5 Ist P eine parametrisierte Wahrscheinlichkeitsfunktion, so drückt κ P Wahrscheinlichkeiten qualitativ aus: P (A) ɛ 0 A und A sind möglich κ P (A) = 0 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 11 / 51

111 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 3/5 Ist P eine parametrisierte Wahrscheinlichkeitsfunktion, so drückt κ P Wahrscheinlichkeiten qualitativ aus: P (A) ɛ 0 A und A sind möglich κ P (A) = 0 P (A) ɛ 1 A wird geglaubt κ P (A) = 1 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 11 / 51

112 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 3/5 Ist P eine parametrisierte Wahrscheinlichkeitsfunktion, so drückt κ P Wahrscheinlichkeiten qualitativ aus: P (A) ɛ 0 A und A sind möglich κ P (A) = 0 P (A) ɛ 1 A wird geglaubt κ P (A) = 1 P (A) ɛ 2 A wird fest geglaubt κ P (A) = 2 P (A) ɛ 3 A ist fast sicher κ P (A) = 3... G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 11 / 51

113 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 4/5 Qualitative Wahrscheinlichkeiten κ P (ω) werden auf einer logarithmischen Skala angegeben; G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51

114 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 4/5 Qualitative Wahrscheinlichkeiten κ P (ω) werden auf einer logarithmischen Skala angegeben; sie haben die folgenden Eigenschaften: G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51

115 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 4/5 Qualitative Wahrscheinlichkeiten κ P (ω) werden auf einer logarithmischen Skala angegeben; sie haben die folgenden Eigenschaften: sie sind Funktionen κ : Ω N { }; G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51

116 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 4/5 Qualitative Wahrscheinlichkeiten κ P (ω) werden auf einer logarithmischen Skala angegeben; sie haben die folgenden Eigenschaften: sie sind Funktionen κ : Ω N { }; ( min{κ(ω) : ω Ω} = 0; ) G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51

117 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 4/5 Qualitative Wahrscheinlichkeiten κ P (ω) werden auf einer logarithmischen Skala angegeben; sie haben die folgenden Eigenschaften: sie sind Funktionen κ : Ω N { }; ( min{κ(ω) : ω Ω} = 0; ) κ(a B) = min{κ(a), κ(b)}. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51

118 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 4/5 Qualitative Wahrscheinlichkeiten κ P (ω) werden auf einer logarithmischen Skala angegeben; sie haben die folgenden Eigenschaften: sie sind Funktionen κ : Ω N { }; ( min{κ(ω) : ω Ω} = 0; ) κ(a B) = min{κ(a), κ(b)}. Qualitative Wahrscheinlichkeiten sind OCF! G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 12 / 51

119 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 5/5 Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgenden Zusammenhänge: κ(a) = 0 oder κ( A) = 0 P (A) + P ( A) = 1 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51

120 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 5/5 Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgenden Zusammenhänge: κ(a) = 0 oder κ( A) = 0 P (A) + P ( A) = 1 κ(a) = min ω =A κ(ω) P (A) = ω =A P (ω) G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51

121 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 5/5 Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgenden Zusammenhänge: κ(a) = 0 oder κ( A) = 0 P (A) + P ( A) = 1 κ(a) = min ω =A κ(ω) κ(b A) = κ(a B) κ(a) P (A) = ω =A P (ω) P (B A) = P (A B) P (A) G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51

122 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 5/5 Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgenden Zusammenhänge: κ(a) = 0 oder κ( A) = 0 P (A) + P ( A) = 1 κ(a) = min ω =A κ(ω) κ(b A) = κ(a B) κ(a) P (A) = ω =A P (ω) P (B A) = P (A B) P (A) Qualitative Wahrscheinlichkeiten drücken ebenso wie Ränge den Grad der Überraschung aus, eine entsprechende Welt zu finden. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51

123 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten Qualitative Wahrscheinlichkeiten 5/5 Zwischen Wahrscheinlichkeiten und OCF bestehen formal die folgenden Zusammenhänge: κ(a) = 0 oder κ( A) = 0 P (A) + P ( A) = 1 κ(a) = min ω =A κ(ω) κ(b A) = κ(a B) κ(a) P (A) = ω =A P (ω) P (B A) = P (A B) P (A) Qualitative Wahrscheinlichkeiten drücken ebenso wie Ränge den Grad der Überraschung aus, eine entsprechende Welt zu finden. Tatsächlich sind OCF s als qualitative Abstraktionen von Wahrscheinlichkeiten entstanden, indem die Größenordnung von infinitesimalen Wahrscheinlichkeiten logarithmisch durch Rangzahlen kodiert wird. G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 13 / 51

124 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Qualitative Wahrscheinlichkeiten OCF s und Wahrscheinlichkeiten Beispiel Folgende qualitative Umsetzung von Wahrscheinlichkeiten in Rangzahlen sind beispielsweise denkbar: W keit Rangzahl Bedeutung P (ω) 0.1 κ(ω) = 0 normal P (ω) 0.01 κ(ω) = 1 selten P (ω) κ(ω) = 2 unwahrscheinlich P (ω) κ(ω) = 3 fast unmöglich... G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 14 / 51

125 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Nichtmonotonie in der Probabilistik Übersicht Kapitel 5 Qualitativ und Quantitativ 5.1 Qualitative Wahrscheinlichkeiten 5.2 Nichtmonotonie in der Probabilistik 5.3 ɛ-semantik infinitesimale Wahrscheinlichkeiten 5.4 Konditionale Ereignisse G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 15 / 51

126 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Kapitel 5 Nichtmonotonie in der Probabilistik 5. Qualitative und quantitative Wissensrepräsentation 5.2 Nichtmonotonie in der Probabilistik G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 16 / 51

127 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Nichtmonotonie in der Probabilistik NMR in der Probabilistik 1/2 Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen: A P B gdw. Wenn A, dann meistens B gdw. P (B A) > 0.5 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51

128 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Nichtmonotonie in der Probabilistik NMR in der Probabilistik 1/2 Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen: A P B gdw. Wenn A, dann meistens B gdw. P (B A) > 0.5 NMR-Inferenzkriterien erfüllt? G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51

129 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Nichtmonotonie in der Probabilistik NMR in der Probabilistik 1/2 Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen: A P B gdw. Wenn A, dann meistens B NMR-Inferenzkriterien erfüllt? gdw. P (B A) > 0.5 vorsichtige Monotonie ist nicht erfüllt... denn P (B A) > 0.5, P (C A) > 0.5, aber P (C AB) < 0.5 möglich! G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51

130 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Nichtmonotonie in der Probabilistik NMR in der Probabilistik 1/2 Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen: A P B gdw. Wenn A, dann meistens B NMR-Inferenzkriterien erfüllt? gdw. P (B A) > 0.5 vorsichtige Monotonie ist nicht erfüllt... denn P (B A) > 0.5, P (C A) > 0.5, aber P (C AB) < 0.5 möglich! Beispiel: Studenten P Fussball, Studenten P Schach, G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51

131 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Nichtmonotonie in der Probabilistik NMR in der Probabilistik 1/2 Interpretation von Regeln durch qualitative Wahrscheinlichkeits-Aussagen: A P B gdw. Wenn A, dann meistens B NMR-Inferenzkriterien erfüllt? gdw. P (B A) > 0.5 vorsichtige Monotonie ist nicht erfüllt... denn P (B A) > 0.5, P (C A) > 0.5, aber P (C AB) < 0.5 möglich! Beispiel: Studenten P Fussball, Studenten P Schach, aber Studenten Schach P Fussball G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 17 / 51

132 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Nichtmonotonie in der Probabilistik NMR in der Probabilistik 2/2 Schnitt ist nicht erfüllt... denn P (B A) > 0.5, P (C AB) > 0.5, aber P (C A) < 0.5 möglich! G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 18 / 51

133 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Nichtmonotonie in der Probabilistik NMR in der Probabilistik 2/2 Schnitt ist nicht erfüllt... denn P (B A) > 0.5, P (C AB) > 0.5, aber P (C A) < 0.5 möglich! Beispiel: st Bauchschmerzen P Appendicitis, st Bauchschmerzen Appendicitis P bald wieder gesund, G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 18 / 51

134 Schnittstellen zwischen qualitativer und quantitativer Wissensrepräsentation Nichtmonotonie in der Probabilistik NMR in der Probabilistik 2/2 Schnitt ist nicht erfüllt... denn P (B A) > 0.5, P (C AB) > 0.5, aber P (C A) < 0.5 möglich! Beispiel: st Bauchschmerzen P Appendicitis, st Bauchschmerzen Appendicitis P bald wieder gesund, aber st Bauchschmerzen P bald wieder gesund G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 18 / 51

Commonsense Reasoning

Commonsense Reasoning Commonsense Reasoning Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Sommersemester 2015 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 232 Probabilistische Folgerungsmodelle

Mehr

Commonsense Reasoning

Commonsense Reasoning Commonsense Reasoning Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Sommersemester 2014 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 45 Übersicht Übungen und Folien zu Commonsense

Mehr

Commonsense Reasoning

Commonsense Reasoning Commonsense Reasoning Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Sommersemester 2016 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 51 Kapitel 5 ɛ-semantik infinitesimale

Mehr

- Theorie der uninterpretierten

- Theorie der uninterpretierten Theorie der uninterpretierten Funktionen Entscheidungsverfahren mit Anwendungen in der Softwareverifikation STEPHAN FALKE INSTITUT FÜR THEORETISCHE INFORMATIK (ITI) 0 KIT 13. Universität Mai 2013 des S.

Mehr

Die Prädikatenlogik erster Stufe: Syntax und Semantik

Die Prädikatenlogik erster Stufe: Syntax und Semantik Die Prädikatenlogik erster Stufe: Syntax und Semantik 1 Mathematische Strukturen und deren Typen Definition 1.1 Eine Struktur A ist ein 4-Tupel A = (A; (R A i i I); (f A j j J); (c A k k K)) wobei I, J,

Mehr

5.1 Inferenz. Theorie der Informatik. Theorie der Informatik. 5.1 Inferenz. 5.2 Resolutionskalkül. 5.3 Zusammenfassung. Inferenz: Motivation

5.1 Inferenz. Theorie der Informatik. Theorie der Informatik. 5.1 Inferenz. 5.2 Resolutionskalkül. 5.3 Zusammenfassung. Inferenz: Motivation Theorie der Informatik 9. März 2015 5. Aussagenlogik III Theorie der Informatik 5. Aussagenlogik III 5.1 Inferenz Malte Helmert Gabriele Röger 5.2 Resolutionskalkül Universität Basel 9. März 2015 5.3 Zusammenfassung

Mehr

Einführung in die Logik

Einführung in die Logik Einführung in die Logik Klaus Madlener und Roland Meyer 24. April 2013 Inhaltsverzeichnis 1 Aussagenlogik 1 1.1 Syntax................................. 1 1.2 Semantik............................... 3 1.3

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Grundlagen der Theoretischen Informatik / Einführung in die Theoretische Informatik I

Grundlagen der Theoretischen Informatik / Einführung in die Theoretische Informatik I Vorlesung Grundlagen der Theoretischen Informatik / Einführung in die Theoretische Informatik I Bernhard Beckert Institut für Informatik Sommersemester 2007 B. Beckert Grundlagen d. Theoretischen Informatik:

Mehr

Grundlagen der Theoretischen Informatik

Grundlagen der Theoretischen Informatik Grundlagen der Theoretischen Informatik Sommersemester 2015 23.04.2015 Viorica Sofronie-Stokkermans e-mail: sofronie@uni-koblenz.de 1 Bis jetzt 1. Terminologie 2. Endliche Automaten und reguläre Sprachen

Mehr

Aussagenlogik. Übersicht: 1 Teil 1: Syntax und Semantik. 2 Teil 2: Modellierung und Beweise. Aussagenlogik H. Kleine Büning 1/37

Aussagenlogik. Übersicht: 1 Teil 1: Syntax und Semantik. 2 Teil 2: Modellierung und Beweise. Aussagenlogik H. Kleine Büning 1/37 Aussagenlogik Übersicht: 1 Teil 1: Syntax und Semantik 2 Teil 2: Modellierung und Beweise Aussagenlogik H. Kleine Büning 1/37 Modellierungsaufgabe Es gibt drei Tauben und zwei Löcher. Jede Taube soll in

Mehr

3.1.1 Die Variante T1 und ein Entscheidungsverfahren für die Aussagenlogik

3.1.1 Die Variante T1 und ein Entscheidungsverfahren für die Aussagenlogik Deduktionssysteme der Aussagenlogik, Kap. 3: Tableaukalküle 38 3 Tableaukalküle 3.1 Klassische Aussagenlogik 3.1.1 Die Variante T1 und ein Entscheidungsverfahren für die Aussagenlogik Ein zweites Entscheidungsverfahren

Mehr

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen

Mehr

Theorie der Informatik. Theorie der Informatik. 6.1 Einführung. 6.2 Alphabete und formale Sprachen. 6.3 Grammatiken. 6.4 Chomsky-Hierarchie

Theorie der Informatik. Theorie der Informatik. 6.1 Einführung. 6.2 Alphabete und formale Sprachen. 6.3 Grammatiken. 6.4 Chomsky-Hierarchie Theorie der Informatik 17. März 2014 6. Formale Sprachen und Grammatiken Theorie der Informatik 6. Formale Sprachen und Grammatiken Malte Helmert Gabriele Röger Universität Basel 17. März 2014 6.1 Einführung

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

1.3 Stochastische Unabhängigkeit und bedingte

1.3 Stochastische Unabhängigkeit und bedingte 1.3 Stochastische Unabhängigkeit und bedingte Wahrscheinlichkeiten Ziel: komplexere Modelle aus Verkettung ( Koppelung ) von Zufallsexperimenten bauen, insbesondere Ziehung von n-personen aus n-maliger

Mehr

Aussagenlogik. Übersicht: 1 Teil 1: Syntax und Semantik. 2 Teil 2: Modellierung und Beweise. Aussagenlogik H. Kleine Büning 1/25

Aussagenlogik. Übersicht: 1 Teil 1: Syntax und Semantik. 2 Teil 2: Modellierung und Beweise. Aussagenlogik H. Kleine Büning 1/25 Aussagenlogik Übersicht: 1 Teil 1: Syntax und Semantik 2 Teil 2: Modellierung und Beweise Aussagenlogik H. Kleine Büning 1/25 Einführendes Beispiel Falls Lisa Peter trifft, dann trifft Lisa auch Gregor.

Mehr

Monotonie, Konkavität und Extrema

Monotonie, Konkavität und Extrema Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1

Mehr

mathematik und informatik

mathematik und informatik Prof. Dr. Christoph Beierle, Prof. Dr. Gabriele Kern-Isberner Kurs 01845 Methoden der Wissensrepräsentation und -verarbeitung LESEPROBE mathematik und informatik Das Werk ist urheberrechtlich geschützt.

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)

Mehr

Probleme aus NP und die polynomielle Reduktion

Probleme aus NP und die polynomielle Reduktion Probleme aus NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 15. Dezember 2009 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit

Mehr

Normalform. 2.1 Äquivalenz und Folgerung. 2.2 Die pränexe Normalform

Normalform. 2.1 Äquivalenz und Folgerung. 2.2 Die pränexe Normalform 2 Normalformen 2.1 Äquivalenz und Folgerung Definition 2.1 Äquivalenz, Folgerung). Seien ϕ, ψ FO[σ]. a) ϕ und ψ heißen äquivalent kurz: ϕ ψ, bzw. ϕ = ψ), wenn für alle zu ϕ und ψ äquivalent passenden σ-interpretationen

Mehr

Lösbarkeit linearer Gleichungssysteme

Lösbarkeit linearer Gleichungssysteme Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn

Mehr

4.1 Motivation. Theorie der Informatik. Theorie der Informatik. 4.1 Motivation. 4.2 Syntax der Prädikatenlogik. 4.3 Semantik der Prädikatenlogik

4.1 Motivation. Theorie der Informatik. Theorie der Informatik. 4.1 Motivation. 4.2 Syntax der Prädikatenlogik. 4.3 Semantik der Prädikatenlogik Theorie der Informatik 3. März 2014 4. Prädikatenlogik I Theorie der Informatik 4. Prädikatenlogik I 4.1 Motivation Malte Helmert Gabriele Röger 4.2 Syntax der Prädikatenlogik Universität Basel 3. März

Mehr

Grundlagen der Logik

Grundlagen der Logik Grundlagen der Logik Denken Menschen logisch? Selektionsaufgabe nach Watson (1966): Gegeben sind vier Karten von denen jede auf der einen Seite mit einem Buchstaben, auf der anderen Seite mit einer Zahl

Mehr

Logik für Informatiker

Logik für Informatiker Vorlesung Logik für Informatiker 4. Aussagenlogik Syntax und Semantik der Aussagenlogik Bernhard Beckert Universität Koblenz-Landau Sommersemester 2006 Logik für Informatiker, SS 06 p.1 Syntax der Aussagenlogik:

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Kapitel 1.5 und 1.6. Ein adäquater Kalkül der Aussagenlogik

Kapitel 1.5 und 1.6. Ein adäquater Kalkül der Aussagenlogik Kapitel 1.5 und 1.6 Ein adäquater Kalkül der Aussagenlogik Teil 1: Kalküle und Beweisbarkeit und die Korrektheit des Shoenfield-Kalküls Mathematische Logik (WS 2010/11) Kapitel 1.5 und 1.6: Kalküle 1 /

Mehr

Formale Sprachen. Spezialgebiet für Komplexe Systeme. Yimin Ge. 5ahdvn. 1 Grundlagen 1. 2 Formale Grammatiken 4. 3 Endliche Automaten 5.

Formale Sprachen. Spezialgebiet für Komplexe Systeme. Yimin Ge. 5ahdvn. 1 Grundlagen 1. 2 Formale Grammatiken 4. 3 Endliche Automaten 5. Formale Sprachen Spezialgebiet für Komplexe Systeme Yimin Ge 5ahdvn Inhaltsverzeichnis 1 Grundlagen 1 2 Formale Grammatien 4 Endliche Automaten 5 4 Reguläre Sprachen 9 5 Anwendungen bei Abzählproblemen

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

Grundbegriffe für dreiwertige Logik

Grundbegriffe für dreiwertige Logik Grundbegriffe für dreiwertige Logik Hans Kleine Büning Universität Paderborn 1.11.2011 1 Syntax und Semantik Die klassische Aussagenlogik mit den Wahrheitswerten falsch und wahr bezeichnen wir im weiteren

Mehr

2.7 Der Shannon-Fano-Elias Code

2.7 Der Shannon-Fano-Elias Code 2.7 Der Shannon-Fano-Elias Code Die Huffman-Codierung ist ein asymptotisch optimales Verfahren. Wir haben auch gesehen, dass sich die Huffman-Codierung gut berechnen und dann auch gut decodieren lassen.

Mehr

1.1 Motivation. Theorie der Informatik. Theorie der Informatik. 1.1 Motivation. 1.2 Syntax. 1.3 Semantik. 1.4 Formeleigenschaften. 1.

1.1 Motivation. Theorie der Informatik. Theorie der Informatik. 1.1 Motivation. 1.2 Syntax. 1.3 Semantik. 1.4 Formeleigenschaften. 1. Theorie der Informatik 19. Februar 2014 1. Aussagenlogik I Theorie der Informatik 1. Aussagenlogik I Malte Helmert Gabriele Röger Universität Basel 19. Februar 2014 1.1 Motivation 1.2 Syntax 1.3 Semantik

Mehr

Einführung in die Stochastik 6. Übungsblatt

Einführung in die Stochastik 6. Übungsblatt Einführung in die Stochastik 6. Übungsblatt Fachbereich Mathematik SS M. Kohler 3. Mai A. Fromkorth D. Furer Gruppen und Hausübung Aufgabe (a) Die Wahrscheinlichkeit, dass eine S Bahn Verspätung hat, betrage.3.

Mehr

Mathematik für Wirtschaftswissenschaftler

Mathematik für Wirtschaftswissenschaftler Mathematik für Wirtschaftswissenschaftler Yves Schneider Universität Luzern Frühjahr 2016 Repetition Kapitel 1 bis 3 2 / 54 Repetition Kapitel 1 bis 3 Ausgewählte Themen Kapitel 1 Ausgewählte Themen Kapitel

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

WS 2009/10. Diskrete Strukturen

WS 2009/10. Diskrete Strukturen WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910

Mehr

Der Ergodensatz. Hendrik Hülsbusch

Der Ergodensatz. Hendrik Hülsbusch Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen

Mehr

6: Diskrete Wahrscheinlichkeit

6: Diskrete Wahrscheinlichkeit Stefan Lucks Diskrete Strukturen (WS 2009/10) 219 6: Diskrete Wahrscheinlichkeit 6: Diskrete Wahrscheinlichkeit Stefan Lucks Diskrete Strukturen (WS 2009/10) 220 Wahrscheinlichkeitsrechnung Eines der wichtigsten

Mehr

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir Kapitel 3: Entropie Motivation Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Information steht

Mehr

Musterlösung. 1 Relationen. 2 Abbildungen. TUM Ferienkurs Lineare Algebra 1 WiSe 08/09 Dipl.-Math. Konrad Waldherr

Musterlösung. 1 Relationen. 2 Abbildungen. TUM Ferienkurs Lineare Algebra 1 WiSe 08/09 Dipl.-Math. Konrad Waldherr TUM Ferienkurs Lineare Algebra WiSe 8/9 Dipl.-Math. Konrad Waldherr Musterlösung Relationen Aufgabe Auf R sei die Relation σ gegeben durch (a, b)σ(c, d) : a + b c + d. Ist σ reflexiv, symmetrisch, transitiv,

Mehr

Berechenbarkeitstheorie 19. Vorlesung

Berechenbarkeitstheorie 19. Vorlesung 1 Berechenbarkeitstheorie Dr. Institut für Mathematische Logik und Grundlagenforschung WWU Münster WS 15/16 Alle Folien unter Creative Commons Attribution-NonCommercial 3.0 Unported Lizenz. Erinnerung:

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Kapitel 1.1. Aussagenlogik: Syntax. Mathematische Logik (WS 2011/12) Kapitel 1.1: Aussagenlogik: Syntax 1/ 1

Kapitel 1.1. Aussagenlogik: Syntax. Mathematische Logik (WS 2011/12) Kapitel 1.1: Aussagenlogik: Syntax 1/ 1 Kapitel 1.1 Aussagenlogik: Syntax Mathematische Logik (WS 2011/12) Kapitel 1.1: Aussagenlogik: Syntax 1/ 1 Übersicht 1.1.1 Die Sprache der Aussagenlogik 1.1.2 Explizite vs. implizite Definitionen 1.1.3

Mehr

Stochastische Lernalgorithmen

Stochastische Lernalgorithmen Stochastische Lernalgorithmen Gerhard Jäger 14. Mai 2003 Das Maximum-Entropy-Prinzip Der Entropiebegriff Entropie: Chaos, Unordung, Nicht-Vorhersagbarkeit,... Begriff kommt ursprünglich aus der Physik:

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.

Mehr

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Gibbs sampling Sebastian Pado October 30, 2012 1 Bayessche Vorhersage Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Uns interessiert P (y X), wobei wir über das Modell marginalisieren

Mehr

TU7 Aussagenlogik II und Prädikatenlogik

TU7 Aussagenlogik II und Prädikatenlogik TU7 Aussagenlogik II und Prädikatenlogik Daniela Andrade daniela.andrade@tum.de 5.12.2016 1 / 32 Kleine Anmerkung Meine Folien basieren auf den DS Trainer von Carlos Camino, den ihr auf www.carlos-camino.de/ds

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Probleme bei reinen Strategien. Nash Gleichgewichte in gemischten Strategien Kopf 1, 1 1, 1 Zahl 1, 1 1, 1. Gemischte Strategien

Probleme bei reinen Strategien. Nash Gleichgewichte in gemischten Strategien Kopf 1, 1 1, 1 Zahl 1, 1 1, 1. Gemischte Strategien Probleme bei reinen Strategien Bisher hatten wir angenommen, daß sich jeder Spieler b auf genau eine Strategie S b S b festlegt. Das ist nicht immer plausibel. Nash Gleichgewichte in gemischten Strategien

Mehr

Wiederholungsklausur DWT

Wiederholungsklausur DWT LÖSUNG Wiederholungsklausur DWT Sommersemester 2008 Hinweis: Alle Antworten sind zu begründen. Insbesondere sollte bei nicht-trivialen Umformungen kurz angegeben werden, weshalb diese Umformungen erlaubt

Mehr

Wahrscheinlichkeitstheorie 2

Wahrscheinlichkeitstheorie 2 Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze

Mehr

Induktive Beweise und rekursive Definitionen

Induktive Beweise und rekursive Definitionen Induktive Beweise und rekursive Definitionen Vorlesung Logik in der Informatik, HU Berlin 1. Übungsstunde Beweis durch vollständige Induktion über N Aufgabe 1 Zeige, dass für alle n N gilt: n 2 i = 2 n+1

Mehr

SS Juli Übungen zur Vorlesung Logik Blatt 11

SS Juli Übungen zur Vorlesung Logik Blatt 11 SS 2011 06. Juli 2011 Übungen zur Vorlesung Logik Blatt 11 Prof. Dr. Klaus Madlener Abgabe bis 13. Juli 2011 10:00 Uhr 1. Aufgabe: [Axiomatisierung, Übung] 1. Definieren Sie eine Formel A n der Prädikatenlogik

Mehr

Teil III. Komplexitätstheorie

Teil III. Komplexitätstheorie Teil III Komplexitätstheorie 125 / 160 Übersicht Die Klassen P und NP Die Klasse P Die Klassen NP NP-Vollständigkeit NP-Vollständige Probleme Weitere NP-vollständige Probleme 127 / 160 Die Klasse P Ein

Mehr

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

1 Σ endliches Terminalalphabet, 2 V endliche Menge von Variablen (mit V Σ = ), 3 P (V (Σ ΣV )) {(S, ε)} endliche Menge von Regeln,

1 Σ endliches Terminalalphabet, 2 V endliche Menge von Variablen (mit V Σ = ), 3 P (V (Σ ΣV )) {(S, ε)} endliche Menge von Regeln, Theorie der Informatik 9. März 24 7. Reguläre Sprachen I Theorie der Informatik 7. Reguläre Sprachen I Malte Helmert Gabriele Röger Universität Basel 9. März 24 7. Reguläre Grammatiken 7.2 DFAs 7.3 NFAs

Mehr

Kapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung

Kapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung Gliederung der Vorlesung 1. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen 3. Kürzeste Wege 4. Minimale spannende Bäume 5. Färbungen und Cliquen 6. Traveling Salesman Problem 7. Flüsse in Netzwerken

Mehr

Hochschule R avensburg-weingarten University of Applied S ciences Default-Logik Benjamin R ana Angewandte Informatik, Informationsnetze 7.

Hochschule R avensburg-weingarten University of Applied S ciences Default-Logik Benjamin R ana Angewandte Informatik, Informationsnetze 7. Default-Logik Überblick Motivation Nichtmonotone-Logik Reiter-Logik Syntax Semantik Extensions Simulator Motivation Mit klassischer Logik lassen sich viele Zusammenhänge nicht einfach darstellen Was tun

Mehr

Die Klasse NP und die polynomielle Reduktion

Die Klasse NP und die polynomielle Reduktion Die Klasse NP und die polynomielle Reduktion Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen Dezember 2011 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit

Mehr

funktionale Abhängigkeiten: Semantik funktionale Abhängigkeiten: Syntax

funktionale Abhängigkeiten: Semantik funktionale Abhängigkeiten: Syntax funktionale Abhängigkeiten: Syntax < R U F > ein Relationenschema mit R ein Relationensymbol, U eine Menge von Attributen, F eine Menge von funktionalen Abhängigkeiten (über R und U) Eine funktionale Abhängigkeit

Mehr

Kapitel II. Vektoren und Matrizen

Kapitel II. Vektoren und Matrizen Kapitel II. Vektoren und Matrizen Vektorräume A Körper Auf der Menge R der reellen Zahlen hat man zwei Verknüpfungen: Addition: R R R(a, b) a + b Multiplikation: R R R(a, b) a b (Der Malpunkt wird oft

Mehr

Analysis I. Guofang Wang Universität Freiburg

Analysis I. Guofang Wang Universität Freiburg Universität Freiburg 30.11.2016 5. Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,..., x n ) : x i R} = } R. {{.. R }. n mal Für x R ist x der Abstand zum

Mehr

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Wahrscheinlichkeit Axiome nach Kolmogorov Gegeben sei ein Zufallsexperiment mit Ergebnisraum

Mehr

Kapitel II - Wahrscheinlichkeitsraum

Kapitel II - Wahrscheinlichkeitsraum Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel II - Wahrscheinlichkeitsraum Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh

Mehr

FORMALE SYSTEME. 8. Vorlesung: Minimale Automaten. TU Dresden, 6. November Markus Krötzsch Lehrstuhl Wissensbasierte Systeme

FORMALE SYSTEME. 8. Vorlesung: Minimale Automaten. TU Dresden, 6. November Markus Krötzsch Lehrstuhl Wissensbasierte Systeme FORMALE SYSTEME 8. Vorlesung: Minimale Automaten Markus Krötzsch Lehrstuhl Wissensbasierte Systeme TU Dresden, 6. November 2017 Rückblick Markus Krötzsch, 6. November 2017 Formale Systeme Folie 2 von 26

Mehr

Kapitel 1.3. Normalformen aussagenlogischer Formeln und die Darstellbarkeit Boolescher Funktionen durch aussagenlogische Formeln

Kapitel 1.3. Normalformen aussagenlogischer Formeln und die Darstellbarkeit Boolescher Funktionen durch aussagenlogische Formeln Kapitel 1.3 Normalformen aussagenlogischer Formeln und die Darstellbarkeit Boolescher Funktionen durch aussagenlogische Formeln Mathematische Logik (WS 2011/12) Kapitel 1.3: Normalformen 1/ 29 Übersicht

Mehr

Diskrete Verteilungen

Diskrete Verteilungen KAPITEL 6 Disrete Verteilungen Nun werden wir verschiedene Beispiele von disreten Zufallsvariablen betrachten. 1. Gleichverteilung Definition 6.1. Eine Zufallsvariable X : Ω R heißt gleichverteilt (oder

Mehr

Inhaltsverzeichnis. Inhaltsverzeichnis

Inhaltsverzeichnis. Inhaltsverzeichnis Inhaltsverzeichnis Inhaltsverzeichnis 1 Beweistechniken 1.1 Prädikatenlogik..................................... 1. Direkter Beweis.................................... 3 1.3 Indirekter Beweis....................................

Mehr

Semester-Fahrplan 1 / 17

Semester-Fahrplan 1 / 17 Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD

Mehr

3.6 Bemerkungen zur Umformung boolescher Formeln (NAND): doppelte Negation

3.6 Bemerkungen zur Umformung boolescher Formeln (NAND): doppelte Negation 3.6 Bemerkungen zur Umformung boolescher Formeln (NAND): Häufig verwendeten Umformungen sind: Idempotenz doppelte Negation De Morgan a = a a a = a a + b = a b ADS-EI 3.6 Bemerkungen zur Umformung boolescher

Mehr

Vorlesung Digitale Signaturen im Wintersemester 2017/-18. Socrative-Fragen aus der Vorlesung vom

Vorlesung Digitale Signaturen im Wintersemester 2017/-18. Socrative-Fragen aus der Vorlesung vom Institut für Theoretische Informatik Prof. Dr. J. Müller-Quade Dozenten: Björn Kaidel Vorlesung Digitale Signaturen im Wintersemester 2017/-18 Socrative-Fragen aus der Vorlesung vom 17.11.2017 1 Quiz 1:

Mehr

Logik für Informatiker

Logik für Informatiker Vorlesung Logik für Informatiker 3. Aussagenlogik Syntax und Semantik der Aussagenlogik Bernhard Beckert Universität Koblenz-Landau Sommersemester 2006 Logik für Informatiker, SS 06 p.16 Syntax der Aussagenlogik:

Mehr

Formale Systeme. Prof. Dr. Bernhard Beckert, WS 2016/ KIT Die Forschungsuniversita t in der Helmholtz-Gemeinschaft

Formale Systeme. Prof. Dr. Bernhard Beckert, WS 2016/ KIT Die Forschungsuniversita t in der Helmholtz-Gemeinschaft Formale Systeme Prof. Dr. Bernhard Beckert, WS 2016/2017 Aussagenlogik: Tableaukalku l KIT I NSTITUT F U R T HEORETISCHE I NFORMATIK www.kit.edu KIT Die Forschungsuniversita t in der Helmholtz-Gemeinschaft

Mehr

Formale Systeme. Aussagenlogik: Syntax und Semantik. Prof. Dr. Bernhard Beckert WS 2010/2011 KIT INSTITUT FÜR THEORETISCHE INFORMATIK

Formale Systeme. Aussagenlogik: Syntax und Semantik. Prof. Dr. Bernhard Beckert WS 2010/2011 KIT INSTITUT FÜR THEORETISCHE INFORMATIK Formale Systeme Prof. Dr. Bernhard Beckert WS 2010/2011 KIT INSTITUT FÜR THEORETISCHE INFORMATIK KIT University of the State of Baden-Württemberg and National Large-scale Research Center of the Helmholtz

Mehr

Höhere Mathematik III

Höhere Mathematik III Universität Stuttgart Fachbereich Mathematik Prof. Dr. J. Pöschel Dr. D. Zimmermann Dipl.-Math. K. Sanei Kashani Blatt 5 Höhere Mathematik III el, kb, mecha, phs Vortragsübungen (Musterlösungen) 7..4 Aufgabe

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

UE Logik für Wissensrepräsentation WS 2016/17

UE Logik für Wissensrepräsentation WS 2016/17 UE Logik für Wissensrepräsentation WS 2016/17 Aufgabenblatt 2: Prädikatenlogik Beispiel 1: Zeigen Sie mittels Einführungs- und Beseitigungsregeln für die Herleitungsrelation der Prädikatenlogik folgende

Mehr

Formale Methoden 1. Gerhard Jäger 9. Januar Uni Bielefeld, WS 2007/2008 1/23

Formale Methoden 1. Gerhard Jäger 9. Januar Uni Bielefeld, WS 2007/2008 1/23 1/23 Formale Methoden 1 Gerhard Jäger Gerhard.Jaeger@uni-bielefeld.de Uni Bielefeld, WS 2007/2008 9. Januar 2008 2/23 Automaten (informell) gedachte Maschine/abstraktes Modell einer Maschine verhält sich

Mehr

Brückenkurs Rechentechniken

Brückenkurs Rechentechniken Brückenkurs Rechentechniken Dr. Jörg Horst Technische Universität Dortmund Fakultät für Mathematik SS 2014 1 Vollständige Induktion Vollständige Induktion 2 Funktionenfolgen Punktweise Konvergenz Gleichmäßige

Mehr

7. Syntax: Grammatiken, EBNF

7. Syntax: Grammatiken, EBNF 7. Syntax: Grammatiken, EBNF Teil 1 Sehr schönes Beispiel für Notwendigkeit der Theoretischen Informatik für Belange der Praktischen Informatik Vertiefung in: Einführung in die Theoretische Informatik

Mehr

GTI. Hannes Diener. 18. Juni. ENC B-0123,

GTI. Hannes Diener. 18. Juni. ENC B-0123, GTI Hannes Diener ENC B-0123, diener@math.uni-siegen.de 18. Juni 1 / 32 Als Literatur zu diesem Thema empfiehlt sich das Buch Theoretische Informatik kurzgefasst von Uwe Schöning (mittlerweile in der 5.

Mehr

Was bisher geschah. Aufgaben: Diagnose, Entscheidungsunterstützung Aufbau Komponenten und Funktion

Was bisher geschah. Aufgaben: Diagnose, Entscheidungsunterstützung Aufbau Komponenten und Funktion Was bisher geschah Daten, Information, Wissen explizites und implizites Wissen Wissensrepräsentation und -verarbeitung: Wissensbasis Kontextwissen Problemdarstellung fallspezifisches Wissen repräsentiert

Mehr

Logic in a Nutshell. Christian Liguda

Logic in a Nutshell. Christian Liguda Logic in a Nutshell Christian Liguda Quelle: Kastens, Uwe und Büning, Hans K., Modellierung: Grundlagen und formale Methoden, 2009, Carl Hanser Verlag Übersicht Logik - Allgemein Aussagenlogik Modellierung

Mehr

Quadrate und Wurzelziehen modulo p

Quadrate und Wurzelziehen modulo p Quadrate und Wurzelziehen modulo p Sei im Folgenden p eine Primzahl größer als. Wir möchten im Körper Z p Quadratwurzeln ziehen. Die Quadrierabbildung Q :Z p Z p ist aber nicht surjektiv, daher gibt es

Mehr

Seminararbeit zur Spieltheorie. Thema: Rationalisierbarkeit und Wissen

Seminararbeit zur Spieltheorie. Thema: Rationalisierbarkeit und Wissen Seminararbeit zur Spieltheorie Thema: Rationalisierbarkeit und Wissen Westfälische-Wilhelms-Universität Münster Mathematisches Institut Dozent: Prof. Dr. Löwe Verfasst von: Maximilian Mümken Sommersemester

Mehr

Diskrete Strukturen Kapitel 2: Grundlagen (Beweise)

Diskrete Strukturen Kapitel 2: Grundlagen (Beweise) WS 2014/15 Diskrete Strukturen Kapitel 2: Grundlagen (Beweise) Hans-Joachim Bungartz Lehrstuhl für wissenschaftliches Rechnen Fakultät für Informatik Technische Universität München http://www5.in.tum.de/wiki/index.php/diskrete_strukturen_-_winter_14

Mehr

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Sommersemester 2010 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax = b

Mehr

Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion

Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion Kapitel 2 Erwartungswert 2.1 Erwartungswert einer Zufallsvariablen Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion È ist definiert als Ü ÜÈ Üµ Für spätere

Mehr

Strukturelle Rekursion und Induktion

Strukturelle Rekursion und Induktion Kapitel 2 Strukturelle Rekursion und Induktion Rekursion ist eine konstruktive Technik für die Beschreibung unendlicher Mengen (und damit insbesondere für die Beschreibung unendliche Funktionen). Induktion

Mehr

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ss/dwt/uebung/ 10. Mai 2013

Mehr

Kapitel 1.5. Ein adäquater Kalkül der Aussagenlogik. Teil 1: Kalküle und Beweisbarkeit und die Korrektheit des Shoenfield-Kalküls

Kapitel 1.5. Ein adäquater Kalkül der Aussagenlogik. Teil 1: Kalküle und Beweisbarkeit und die Korrektheit des Shoenfield-Kalküls Kapitel 1.5 Ein adäquater Kalkül der Aussagenlogik Teil 1: Kalküle und Beweisbarkeit und die Korrektheit des Shoenfield-Kalküls Mathematische Logik (WS 2012/13) Kapitel 1.5: Kalküle 1/30 Syntaktischer

Mehr

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J}

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J} 9 Der Satz über implizite Funktionen 41 9 Der Satz über implizite Funktionen Wir haben bisher Funktionen g( von einer reellen Variablen immer durch Formelausdrücke g( dargestellt Der Zusammenhang zwischen

Mehr

Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza)

Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza) WS 2013/14 Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ws/ds/uebung/ 30. Oktober 2013 ZÜ DS ZÜ

Mehr

Induktive Beweise und rekursive Definitionen

Induktive Beweise und rekursive Definitionen Induktive Beweise und rekursive Definitionen Vorlesung Logik in der Informatik, HU Berlin 1. Übungsstunde Beweis durch vollständige Induktion über N Aufgabe 1 Zeige, dass für alle n N gilt: n 2 i = 2 n+1

Mehr

Gleichungen und Ungleichungen

Gleichungen und Ungleichungen Kapitel 3 Gleichungen und Ungleichungen Josef Leydold Auffrischungskurs Mathematik WS 2017/18 3 Gleichungen und Ungleichungen 1 / 58 Gleichung Eine Gleichung erhalten wir durch Gleichsetzen zweier Terme.

Mehr

Gleichungen und Ungleichungen

Gleichungen und Ungleichungen Kapitel 3 Gleichungen und Ungleichungen Josef Leydold Auffrischungskurs Mathematik WS 2017/18 3 Gleichungen und Ungleichungen 1 / 58 Gleichung Eine Gleichung erhalten wir durch Gleichsetzen zweier Terme.

Mehr