Darstellung, Verarbeitung und Erwerb von Wissen
|
|
- Brit Esser
- vor 5 Jahren
- Abrufe
Transkript
1 Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Wintersemester 2015/16 WS 2015/16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/16 1 / 267
2 Kapitel 4 4. Wahrscheinlichkeiten & Co Probabilistik und Informationstheorie G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
3 Entropie Mittlerer Informationsgehalt einer Verteilung P : H(P ) = ω Ω P (ω) log P (ω) Entropie einer Verteilung P (misst den Grad der mittleren Unbestimmtheit von P ) Der Begriff Entropie stammt aus der Thermodynamik, wurde von Shannon später als fundamentales Maß für die Unordnung (= fehlende Struktur) in einem System gedeutet und damit als Maß für die Informativität (= Strukturiertheit) erkannt. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
4 Eigenschaften der Entropie Sei P 0 die Gleichverteilung über Ω, d. h. P 0 (ω) = 1 n für ω Ω, wobei Ω = n; dann gilt: H(P 0 ) = log 2 n; ( Beweis : H(P 0 ) = H( 1 n,..., 1 n ) = n i=1 1 n log 1 n = ( n) 1 ( log n) n = log n ) Für jede beliebige Wahrscheinlichkeitsverteilung P über Ω gilt H(P ) H(P 0 ), d.h. die Entropie der Gleichverteilung ist maximal. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
5 Entropie von Aussagevariablen 1/5 Sei A eine Aussagenvariable mit den Werten {a (1),..., a (n) }. Die Entropie von A wird definiert als H(A) = n i=1 P (a(i) ) log P (a (i) ) H(A) mittlere Unsicherheit darüber, welchen Wert A annehmen wird. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
6 Entropie von Aussagevariablen 2/5 Bedingte Entropie von A bzgl. B (mit Werten {..., b (j),...}): H(A B) = i,j P (b(j) )P (a (i) b (j) ) log P (a (i) b (j) ) = j P (b(j) ) i P (a(i) b (j) ) log P (a (i) b (j) ) = j P (b(j) )H(P (A b (j) )) erwartete Unbestimmtheit von A nach der Beobachtung von B. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
7 Entropie von Aussagevariablen Beispiel 1/7 Zwei Urnen enthalten Kugeln: Urne 1: 4 weiße 3 rote 1 schwarze Kugel(n) Urne 2: 6 weiße 2 rote 0 schwarze G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
8 Entropie von Aussagevariablen Beispiel 1/7 Zwei Urnen enthalten Kugeln: Urne 1: 4 weiße 3 rote 1 schwarze Kugel(n) Urne 2: 6 weiße 2 rote 0 schwarze Kugel(n) Variablenbeschreibung Werte Variable A: Urne 1, 2 Variable B: Farbe weiss (1), rot (2), schwarz (3) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
9 Entropie von Aussagevariablen Beispiel 1/7 Zwei Urnen enthalten Kugeln: Urne 1: 4 weiße 3 rote 1 schwarze Kugel(n) Urne 2: 6 weiße 2 rote 0 schwarze Kugel(n) Variablenbeschreibung Werte Variable A: Urne 1, 2 Variable B: Farbe weiss (1), rot (2), schwarz (3) Die Verteilung P beschreibe die Wahrscheinlichkeit des Ereignisses Ziehe Kugel der Farbe b aus Urne mit Nummer a G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
10 Entropie von Aussagevariablen Beispiel 2/7 Der Agent zieht mit gleicher Wahrscheinlichkeit Kugeln aus Urne 1 oder 2: P (A = 1) = P (A = 2) = 0.5 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
11 Entropie von Aussagevariablen Beispiel 2/7 Der Agent zieht mit gleicher Wahrscheinlichkeit Kugeln aus Urne 1 oder 2: P (A = 1) = P (A = 2) = 0.5 Die bedingten Verteilungen von B gegeben A sind wie folgt: ( 1 P (B A = 1) = 2, 3 8, 1 ) 8 ( 3 P (B A = 2) = 4, 1 ) 4, 0 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
12 Entropie von Aussagevariablen Beispiel 3/7 Mit der Formel von der totalen Wahrscheinlichkeit ergeben sich damit folgende Wahrscheinlichkeiten für die Ausprägungen von B: P (B = 1) = P (B = 1 A = 1)P (A = 1) +P (B = 1 A = 2)P (A = 2) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
13 Entropie von Aussagevariablen Beispiel 3/7 Mit der Formel von der totalen Wahrscheinlichkeit ergeben sich damit folgende Wahrscheinlichkeiten für die Ausprägungen von B: P (B = 1) = P (B = 1 A = 1)P (A = 1) +P (B = 1 A = 2)P (A = 2) = = 5 8 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
14 Entropie von Aussagevariablen Beispiel 3/7 Mit der Formel von der totalen Wahrscheinlichkeit ergeben sich damit folgende Wahrscheinlichkeiten für die Ausprägungen von B: P (B = 1) = P (B = 1 A = 1)P (A = 1) P (B = 2) = P (B = 1 A = 2)P (A = 2) = = 5 8 P (B = 3) = 1 16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
15 Entropie von Aussagevariablen Beispiel 4/7 Mit dem Satz von Bayes erhält man dann für die bedingten Verteilungen von A gegeben B: P (A = 1 B = 1) = P (B = 1 A = 1) P (A=1) P (B=1) = 2 5 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
16 Entropie von Aussagevariablen Beispiel 4/7 Mit dem Satz von Bayes erhält man dann für die bedingten Verteilungen von A gegeben B: P (A = 1 B = 1) = P (B = 1 A = 1) P (A=1) P (B=1) = 2 5 also P (A B = 1) = ( 2 5, 3 ) 5 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
17 Entropie von Aussagevariablen Beispiel 4/7 Mit dem Satz von Bayes erhält man dann für die bedingten Verteilungen von A gegeben B: P (A = 1 B = 1) = P (B = 1 A = 1) P (A=1) P (B=1) = 2 5 also ( 2 P (A B = 1) = 5, 3 ) 5 ( 3 P (A B = 2) = 5, 2 ) 5 P (A B = 3) = (1, 0) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
18 Entropie von Aussagevariablen Beispiel 5/7 Für die Entropien von A und B ergibt sich ( 1 H(A) = 2 log 2 = ( 1) = log 2 ) 1 2 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
19 Entropie von Aussagevariablen Beispiel 5/7 Für die Entropien von A und B ergibt sich ( 1 H(A) = 2 log 2 = ( 1) = log 2 H(B) = ( 5 8 log log 2 = = ) log 2 ) 1 16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
20 Entropie von Aussagevariablen Beispiel 6/7 Die bedingte Entropie von A bzgl. B berechnet sich zu H(A B) = 5 ( 2 8 H 5, 3 ) + 5 ( H 5, 2 ) + 1 H(1, 0) 5 16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
21 Entropie von Aussagevariablen Beispiel 6/7 Die bedingte Entropie von A bzgl. B berechnet sich zu H(A B) = 5 ( 2 8 H 5, 3 ) + 5 ( H 5, 2 ) + 1 H(1, 0) 5 16 = 15 ( 2 16 H 5, 3 ) = erwartete Unbestimmtheit von Urne nach der Beobachtung von Farbe G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
22 Entropie von Aussagevariablen 3/5 Verbundentropie von A und B = Entropie der gemeinsamen Verteilung von A und B: H(A, B) = i,j P (a(i) b (j) ) log P (a (i) b (j) ) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
23 Entropie von Aussagevariablen 4/5 Zwischen Verbundentropie und bedingter Entropie besteht der folgende Zusammenhang: H(A, B) = H(B) + H(A B) = H(A) + H(B A) Information ist grundsätzlich additiv! (wobei Abhängigkeiten berücksichtigt werden müssen) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
24 Entropie von Aussagevariablen 4/5 Zwischen Verbundentropie und bedingter Entropie besteht der folgende Zusammenhang: H(A, B) = H(B) + H(A B) = H(A) + H(B A) Information ist grundsätzlich additiv! (wobei Abhängigkeiten berücksichtigt werden müssen) Sind A und B unabhängig, so gilt H(A, B) = H(A) + H(B) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
25 Notizen G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
26 Entropie von Aussagevariablen 5/5 Maß für den Informationsfluss zwischen A und B: Inf (A B) = H(A) H(A B) = i,j P (a (i) b (j) ) log P (a (i) b (j) ) P (a (i) )P (b (j) ) gegenseitige Information (mutual information) von A und B G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
27 Entropie von Aussagevariablen 5/5 Maß für den Informationsfluss zwischen A und B: Inf (A B) = H(A) H(A B) = i,j P (a (i) b (j) ) log P (a (i) b (j) ) P (a (i) )P (b (j) ) gegenseitige Information (mutual information) von A und B Inf (A B) ist symmetrisch in A und B; G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
28 Entropie von Aussagevariablen 5/5 Maß für den Informationsfluss zwischen A und B: Inf (A B) = H(A) H(A B) = i,j P (a (i) b (j) ) log P (a (i) b (j) ) P (a (i) )P (b (j) ) gegenseitige Information (mutual information) von A und B Inf (A B) ist symmetrisch in A und B; Wenn A und B unabhängig sind, so ist Inf (A B) = 0 in diesem Fall liefert keine der beiden Variablen irgendwelche Information über die andere. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
29 Entropie von Aussagevariablen Beispiel 7/7 In dem obigen Urne-Kugeln-Beispiel beträgt die Information, die B (= Farbe) und A (= Urne) füreinander bereithalten, Inf (A B) = H(A) H(A B) = = 0.09 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
30 Der MaxEnt-Ansatz (ME) Gegeben: Probabilistische Wissensbasis R = {(B 1 A 1 )[x 1 ],..., (B n A n )[x n ]}; Gesucht: Diejenige Verteilung P, die nur das Wissen in R und seine probabilistischen Konsequenzen darstellt und sonst keine Information hinzufügt. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
31 Der MaxEnt-Ansatz (ME) Gegeben: Probabilistische Wissensbasis R = {(B 1 A 1 )[x 1 ],..., (B n A n )[x n ]}; Gesucht: Diejenige Verteilung P, die nur das Wissen in R und seine probabilistischen Konsequenzen darstellt und sonst keine Information hinzufügt. Prinzip der maximalen Entropie Maximiere Unbestimmtheit (d.h. Entropie), gegeben Information R = {(B 1 A 1 )[x 1 ],..., (B n A n )[x n ]} arg max P =R H(P ) = ω P (ω) log 2 P (ω) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
32 Der MaxEnt-Ansatz (ME) Gegeben: Probabilistische Wissensbasis R = {(B 1 A 1 )[x 1 ],..., (B n A n )[x n ]}; Gesucht: Diejenige Verteilung P, die nur das Wissen in R und seine probabilistischen Konsequenzen darstellt und sonst keine Information hinzufügt. Prinzip der maximalen Entropie Maximiere Unbestimmtheit (d.h. Entropie), gegeben Information R = {(B 1 A 1 )[x 1 ],..., (B n A n )[x n ]} arg max P =R H(P ) = ω P (ω) log 2 P (ω) ist eindeutig lösbar mit Lösung P = ME(R). G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
33 ME-Beispiel Grippe 1/2 Die Zusammenhänge zwischen G = Grippe, K = Kranksein und S = KopfSchmerzen könnten in der folgenden Weise beschrieben sein: R = {(k g)[1], (s g)[0.9], (k s)[0.8]} G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
34 ME-Beispiel Grippe 2/2 K G S P = ME(R) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
35 ME-Beispiel Grippe 2/2 K G S P = ME(R) P (k g) 0.57 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
36 ME-Beispiel Grippe 2/2 K G S P = ME(R) P (k g) 0.57 P (k gs) 0.64 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
37 Das ME-System SPIRIT Experte/Benutzer spezifiziert eine Menge probabilistischer Regeln (verfügbares Wissen, im Allgemeinen unvollständig!) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
38 Das ME-System SPIRIT Experte/Benutzer spezifiziert eine Menge probabilistischer Regeln (verfügbares Wissen, im Allgemeinen unvollständig!) ein probabilistisches Netzwerk (sog. LEG-Netzwerk) wird automatisch aufgebaut; G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
39 Das ME-System SPIRIT Experte/Benutzer spezifiziert eine Menge probabilistischer Regeln (verfügbares Wissen, im Allgemeinen unvollständig!) ein probabilistisches Netzwerk (sog. LEG-Netzwerk) wird automatisch aufgebaut; Wahrscheinlichkeiten werden in informationstheoretisch-optimaler Weise (d.h. auf der Basis des ME-Prinzips) aufgebaut; G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
40 Das ME-System SPIRIT Experte/Benutzer spezifiziert eine Menge probabilistischer Regeln (verfügbares Wissen, im Allgemeinen unvollständig!) ein probabilistisches Netzwerk (sog. LEG-Netzwerk) wird automatisch aufgebaut; Wahrscheinlichkeiten werden in informationstheoretisch-optimaler Weise (d.h. auf der Basis des ME-Prinzips) aufgebaut; LEG-Netzwerk (Cliquen zusammen mit lokalen Randverteilungen) wird als Wissensbasis zur Wissenspropagation und zur Beantwortung von Anfragen genutzt. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
41 Das ME-System SPIRIT Experte/Benutzer spezifiziert eine Menge probabilistischer Regeln (verfügbares Wissen, im Allgemeinen unvollständig!) ein probabilistisches Netzwerk (sog. LEG-Netzwerk) wird automatisch aufgebaut; Wahrscheinlichkeiten werden in informationstheoretisch-optimaler Weise (d.h. auf der Basis des ME-Prinzips) aufgebaut; LEG-Netzwerk (Cliquen zusammen mit lokalen Randverteilungen) wird als Wissensbasis zur Wissenspropagation und zur Beantwortung von Anfragen genutzt. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
42 ME-Wissenspropagation in SPIRIT SPIRIT erzeugt aus der Menge R einen Hypergraphen; zu diesem Zweck werden alle Variablen, die in einer Regel in R vorkommen, durch eine Hyperkante verbunden. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
43 ME-Wissenspropagation in SPIRIT SPIRIT erzeugt aus der Menge R einen Hypergraphen; zu diesem Zweck werden alle Variablen, die in einer Regel in R vorkommen, durch eine Hyperkante verbunden. Der entstandene Hypergraph wird dann durch einen Hyperbaum V, C überdeckt. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
44 ME-Wissenspropagation in SPIRIT SPIRIT erzeugt aus der Menge R einen Hypergraphen; zu diesem Zweck werden alle Variablen, die in einer Regel in R vorkommen, durch eine Hyperkante verbunden. Der entstandene Hypergraph wird dann durch einen Hyperbaum V, C überdeckt. Der zugehörige Verbindungsbaum mit der Knotenmenge C und der Separatorenmenge S stellt schließlich die passende Struktur für Repräsentation und Propagation dar; es gilt nämlich P (ω) = C C P (C) S S P (Potentialdarstellung) (S) Hyperkanten gemeinsam mit ihren Randverteilungen werden auch als LEG (= local event groups) bezeichnet. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
45 Hypergraphen V (endliche) Menge von Knoten E = {E 1,..., E m }, E i V, 1 i m (endliche) Menge nichtleerer Teilmengen von V mit V = Dann heißt H = V, E Hypergraph und die Elemente von E werden als Hyperkanten bezeichnet. m i=1 E i G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
46 Hypergraphen V (endliche) Menge von Knoten E = {E 1,..., E m }, E i V, 1 i m (endliche) Menge nichtleerer Teilmengen von V mit V = Dann heißt H = V, E Hypergraph und die Elemente von E werden als Hyperkanten bezeichnet. Ein Hypergraph H = V, E heißt Hyperbaum, wenn es eine (lineare) Anordnung seiner Hyperkanten gibt, die die RIP besitzt. m i=1 E i G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
47 SPIRIT Beispiel 1/2 Die Menge der Regeln R über den Variablen A, B, C, D, E sei die folgende: R : (C E) [0.8] (A B C) [0.1] (C E) [0.4] (B D E) [0.9] (D E) [0.7] (B D E) [0.2] G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
48 SPIRIT Beispiel 1/2 Die Menge der Regeln R über den Variablen A, B, C, D, E sei die folgende: R : (C E) [0.8] (A B C) [0.1] (C E) [0.4] (B D E) [0.9] (D E) [0.7] (B D E) [0.2] Der zugehörige Hypergraph: A B C D E G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
49 SPIRIT Beispiel 2/2 Ein überdeckender Hyperbaum dazu ist H = {{A, B, C}, {B, C, E}, {B, D, E}} A B C D E Separatoren S 1 = {B, C}, S 2 = {B, E} P (A, B, C, D, E) = P (A, B, C) P (B, C, E) P (B, D, E) P (B, C) P (B, E) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
50 Projekt SPIRIT: Suchterkrankungen Überblick Abhängigkeiten zwischen Suchtverhalten und psychischen Erkrankungen ca. 500 Fälle 17 (mehrwertige) Variable, darunter Alkohol- und Drogenabhängigkeiten Neurosen, Psychosen, Depressionen G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
51 Projekt SPIRIT: Suchterkrankungen Überblick Abhängigkeiten zwischen Suchtverhalten und psychischen Erkrankungen ca. 500 Fälle 17 (mehrwertige) Variable, darunter Alkohol- und Drogenabhängigkeiten Neurosen, Psychosen, Depressionen Wissensbasis: ca. 40 probabilistische Regeln Wissensrepräsentation, Wissensverarbeitung und Visualisierung mit der System-Shell SPIRIT G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
52 Projekt SPIRIT: Suchterkrankungen Wissensbasis Beispiele für Regeleingaben: Regel Wahrscheinlichkeit Alkohol Opioide 0.10 Opioide Alkohol 0.10 jung Opioide 0.60 jung Alkohol 0.70 Alkohol Sucht Folge 0.27 Sucht Folge Alkohol 0.78 Depression Alkohol 0.63 Suizid Opioide 0.41 Suizid Depression 0.40 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
53 Projekt SPIRIT: Suchterkrankungen ME-Inferenzen Anfrage Wahrscheinlichkeit Alkohol Kokain Opioide 0.90 Alkohol Kokain Cannabis 0.91 Alkohol Depression 0.61 jung Alkohol 0.31 jung Opioide 0.31 jung Opioide Alkohol 0.05 jung Opioide Alkohol 0.70 jung Opioide Alkohol 0.22 jung Alkohol Opioide 0.10 jung Alkohol Opioide 0.82 jung Alkohol Opioide 0.10 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
54 Probabilistische Konsequenz-Operation In Analogie zur klassischen Logik wird die probabilistische Konsequenz-Operation Cn prob : 2 (L L)prob 2 (L L)prob definiert durch Cn prob (R) = {φ (L L) prob P = φ for all P Mod(R)} G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
55 Probabilistische Konsequenz-Operation In Analogie zur klassischen Logik wird die probabilistische Konsequenz-Operation Cn prob : 2 (L L)prob 2 (L L)prob definiert durch Cn prob (R) = {φ (L L) prob P = φ for all P Mod(R)} Cn prob erfüllt Inklusion/Reflexivität: R Cn prob (R); G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
56 Probabilistische Konsequenz-Operation In Analogie zur klassischen Logik wird die probabilistische Konsequenz-Operation Cn prob : 2 (L L)prob 2 (L L)prob definiert durch Cn prob (R) = {φ (L L) prob P = φ for all P Mod(R)} Cn prob erfüllt Inklusion/Reflexivität: R Cn prob (R); Schnitt: R S Cn prob (R) impliziert Cn prob (S) Cn prob (R); G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
57 Probabilistische Konsequenz-Operation In Analogie zur klassischen Logik wird die probabilistische Konsequenz-Operation Cn prob : 2 (L L)prob 2 (L L)prob definiert durch Cn prob (R) = {φ (L L) prob P = φ for all P Mod(R)} Cn prob erfüllt Inklusion/Reflexivität: R Cn prob (R); Schnitt: R S Cn prob (R) impliziert Cn prob (S) Cn prob (R); Monotonie: R S impliziert Cn prob (R) Cn prob (S) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
58 Notizen G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
59 ME-Inferenz Wir realisieren nun eine probabilistische (optimierte) Auswahl-Inferenz mit Hilfe von ME: C ME (R) = {φ (L L) prob ME(R) = φ} d.h. aus einer probabilistischen Regelbasis werden alle (bedingten) probabilistischen Formeln abgeleitet, die in der zugehörigen ME-Verteilung erfüllt sind. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
60 ME-Inferenz Beispiel Im Grippebeispiel ist R = {(k g)[1], (s g)[0.9], (k s)[0.8]} G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
61 ME-Inferenz Beispiel Im Grippebeispiel ist R = {(k g)[1], (s g)[0.9], (k s)[0.8]} Es gilt ME(R) = (k g)[0.57] ME(R) = (k gs)[0.64] G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
62 ME-Inferenz Beispiel Im Grippebeispiel ist R = {(k g)[1], (s g)[0.9], (k s)[0.8]} Es gilt ME(R) = (k g)[0.57] ME(R) = (k gs)[0.64] also bzw. (k g)[0.57], (k gs)[0.64] C ME (R) R ME (k g)[0.57], (k gs)[0.64] G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
63 Nichtmonotonie der ME-Inferenz C ME ist ein nichtmonotoner Inferenzoperator, da sich bei Vergrößerung der Wissensbasis die Ableitungen (erheblich) verändern können. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
64 Nichtmonotonie der ME-Inferenz C ME ist ein nichtmonotoner Inferenzoperator, da sich bei Vergrößerung der Wissensbasis die Ableitungen (erheblich) verändern können. Beispiel [Grippe, Forts.]: Für R = {(k g)[1], (s g)[0.9], (k s)[0.8]} G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
65 Nichtmonotonie der ME-Inferenz C ME ist ein nichtmonotoner Inferenzoperator, da sich bei Vergrößerung der Wissensbasis die Ableitungen (erheblich) verändern können. Beispiel [Grippe, Forts.]: Für R = {(k g)[1], (s g)[0.9], (k s)[0.8]}gilt die ME-Ableitung R ME (k gs)[0.64]; G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
66 Nichtmonotonie der ME-Inferenz C ME ist ein nichtmonotoner Inferenzoperator, da sich bei Vergrößerung der Wissensbasis die Ableitungen (erheblich) verändern können. Beispiel [Grippe, Forts.]: Für R = {(k g)[1], (s g)[0.9], (k s)[0.8]}gilt die ME-Ableitung Bei Erweiterung von R zu gilt (natürlich) R ME (k gs)[0.64]; R = R {(k gs)[0.7]} R ME (k gs)[0.7] G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
67 Eigenschaften der ME-Inferenz Der ME-Inferenzoperator C ME erfüllt die folgenden Eigenschaften: Inklusion/Reflexivität: R C ME (R). G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
68 Eigenschaften der ME-Inferenz Der ME-Inferenzoperator C ME erfüllt die folgenden Eigenschaften: Inklusion/Reflexivität: R C ME (R). Kumulativität, d.h. Schnitt und vorsichtige Monotonie: R S C ME (R) impliziert C ME (R) = C ME (S) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
69 Notizen G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
70 Anwendungsgebiete probabilistischer Methoden Medizinische und technische Diagnose G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
71 Anwendungsgebiete probabilistischer Methoden Medizinische und technische Diagnose Genetik (Klassifikation von Proteinen) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
72 Anwendungsgebiete probabilistischer Methoden Medizinische und technische Diagnose Genetik (Klassifikation von Proteinen) Spracherkennung G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
73 Anwendungsgebiete probabilistischer Methoden Medizinische und technische Diagnose Genetik (Klassifikation von Proteinen) Spracherkennung Bonitätsüberprüfungen G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
74 Anwendungsgebiete probabilistischer Methoden Medizinische und technische Diagnose Genetik (Klassifikation von Proteinen) Spracherkennung Bonitätsüberprüfungen Kriminalistik G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
75 Anwendungsgebiete probabilistischer Methoden Medizinische und technische Diagnose Genetik (Klassifikation von Proteinen) Spracherkennung Bonitätsüberprüfungen Kriminalistik Kundenprofile beim (E-)Commerce... G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
76 Das ixdhl-beispiel Intelligente Postzustellung Roboter ixdhl soll im Unternehmen Giggle Post personengenau zustellen. Dazu hat er einen Plan des Firmengeländes und eine Zuordnung von Personen zu ihrem (primären) Arbeitsraum. Er weiß aber darüberhinaus, dass die Mitarbeiter sich zur Frühstückszeit gerne in der Cafeteria und zur Mittagszeit gerne in der Mensa aufhalten. Bei schönem Wetter kann es außerdem vorkommen, dass sich die Mitarbeiter in den Pausen oder sogar zu Arbeitsmeetings in einem Patio in der Mitte des Firmengeländes aufhalten (die Chefetage legt Wert auf Work-Life-Balance), wobei solche Outdoor-Arbeitsmeetings allerdings nur von einem höherrangigen Mitarbeiter (mindestens Abteilungsleiter) initiiert werden dürfen und von diesem auch begleitet werden müssen. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
77 Roboter ixdhl 3 c Katharina Diekmann 2013 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267 3
78 Beispiel: ASP-iXDHL 1/2 Eine Modellierung dieses Wissens mit Hilfe von ASP könnte z.b. so aussehen: P ixdhl : PausenZ eit F ruehstuecksz eit. P ausenz eit M ittagsz eit. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
79 Beispiel: ASP-iXDHL 1/2 Eine Modellierung dieses Wissens mit Hilfe von ASP könnte z.b. so aussehen: P ixdhl : PausenZ eit F ruehstuecksz eit. P ausenz eit M ittagsz eit. H ome(x) HRaum(x, y), Aufenthalt(x, y). Aufenthalt(x, y) H ome(x), HRaum(x, y). A(x, z) A(x, y), z y. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
80 Beispiel: ASP-iXDHL 1/2 Eine Modellierung dieses Wissens mit Hilfe von ASP könnte z.b. so aussehen: P ixdhl : PausenZ eit F ruehstuecksz eit. P ausenz eit M ittagsz eit. H ome(x) HRaum(x, y), Aufenthalt(x, y). Aufenthalt(x, y) H ome(x), HRaum(x, y). A(x, z) A(x, y), z y. Abt(holger, buchhaltung). Abt(karsten, it). Leitet(silke, it). Home(silke). HR(karsten, r202). HR(holger, r123). SchoenesW etter. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
81 Beispiel: ASP-iXDHL 2/2 A(x, y) HR(x, y), not P Z, not A(x, y). G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
82 Beispiel: ASP-iXDHL 2/2 A(x, y) HR(x, y), not P Z, not A(x, y). A(x, cafe) F Z, not A(x, cafe). A(x, mensa) M Z, not A(x, mensa). G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
83 Beispiel: ASP-iXDHL 2/2 A(x, y) HR(x, y), not P Z, not A(x, y). A(x, cafe) F Z, not A(x, cafe). A(x, mensa) M Z, not A(x, mensa). A(x, patio) SW, Abt(x, y), L(z, y), not H(x), not H(z), not A(z, patio), not P Z. A(z, patio) SW, Abt(x, y), L(z, y), not H(x), not H(z), not A(x, patio), not P Z. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
84 Beispiel: ixdhl in der Probabilistik Mit den bisherigen Mitteln: Modellierung nur im Rahmen der Aussagenlogik möglich. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
85 Beispiel: ixdhl in der Probabilistik Mit den bisherigen Mitteln: Modellierung nur im Rahmen der Aussagenlogik möglich. Wir wählen die folgenden Aussagen (mit den jeweiligen Ausprägungen): Aufenthalt Mitarbeiter A mit = {home, patio, mensa, cafeteria} Schoenes Wetter SW = {ja, nein} Jahreszeit JZ = {sommer, herbst, winter, f ruehling} Pausenzeit P Z = {F Z, MZ, Keine} Aufenthalt Abt.leiter A leit = {patio, patio} G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
86 Beispiel: Bayes-Netz SW JZ s h w f ja nein JZ JZ s 0.25 h 0.25 w 0.25 f 0.25 PZ FZ 0.06 MZ 0.12 K 0.82 PZ SW A leit A leit SW ja nein p p A mit A mit PZ SW A leit = 36 Wahrscheinlichkeiten G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
87 Beispiel: MaxEnt Wir legen die folgende probabilistische Wissensbasis an: KB prob ixdhl : (A mit = m P Z = MZ) [0.8] (A mit = c P Z = F Z) [0.6] (A mit = c P Z = MZ P Z = K) [0.2] (A mit = p SW = ja) [0.1] (A leit = p A mit = p) [0.9] (A leit = p SW = ja) [0.2] (A mit = h P Z = K) [0.7] (SW = ja JZ = s) [0.8] (SW = ja JZ = h) [0.5] (SW = ja JZ = w) [0.1] (SW = ja JZ = f) [0.6] G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
88 Beispiel: MaxEnt Wir legen die folgende probabilistische Wissensbasis an: KB prob ixdhl : (A mit = m P Z = MZ) [0.8] (A mit = c P Z = F Z) [0.6] (A mit = c P Z = MZ P Z = K) [0.2] (A mit = p SW = ja) [0.1] (A leit = p A mit = p) [0.9] (A leit = p SW = ja) [0.2] (A mit = h P Z = K) [0.7] (SW = ja JZ = s) [0.8] (SW = ja JZ = h) [0.5] (SW = ja JZ = w) [0.1] (SW = ja JZ = f) [0.6] Anfrage: ME(KB prob ixdhl ) = (A mit = c P Z = F Z SW = ja) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
89 Beispiel: MaxEnt Wir legen die folgende probabilistische Wissensbasis an: KB prob ixdhl : (A mit = m P Z = MZ) [0.8] (A mit = c P Z = F Z) [0.6] (A mit = c P Z = MZ P Z = K) [0.2] (A mit = p SW = ja) [0.1] (A leit = p A mit = p) [0.9] (A leit = p SW = ja) [0.2] (A mit = h P Z = K) [0.7] (SW = ja JZ = s) [0.8] (SW = ja JZ = h) [0.5] (SW = ja JZ = w) [0.1] (SW = ja JZ = f) [0.6] Anfrage: ME(KB prob ixdhl ) = (A mit = c P Z = F Z SW = ja) [ ] G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
90 Dempster-Shafer-Theorie Übersicht Kapitel Wahrscheinlichkeiten und probabilistische Netzwerke 4.2 Dempster-Shafer/Evidenz-Theorie 4.3 Fuzzy-Logik G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
91 Kapitel 4 Dempster-Shafer-Theorie 4. Wahrscheinlichkeiten & Co. 4.2 Dempster-Shafer/Evidenz-Theorie G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
92 Dempster-Shafer-Theorie Übersicht Kapitel 4.2 Verallgemeinerte Wahrscheinlichkeiten G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
93 Dempster-Shafer-Theorie Übersicht Kapitel 4.2 Verallgemeinerte Wahrscheinlichkeiten Grundbegriffe: Basismaß, Glaubens- und Plausibilitätsfunktionen G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
94 Dempster-Shafer-Theorie Übersicht Kapitel 4.2 Verallgemeinerte Wahrscheinlichkeiten Grundbegriffe: Basismaß, Glaubens- und Plausibilitätsfunktionen Grundmethodik: Kombinationsregel G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
95 Dempster-Shafer-Theorie Übersicht Kapitel 4.2 Verallgemeinerte Wahrscheinlichkeiten Grundbegriffe: Basismaß, Glaubens- und Plausibilitätsfunktionen Grundmethodik: Kombinationsregel Beispiele G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
96 Dempster-Shafer-Theorie Das PPM-Paradoxon Probabilistik eignet sich gut zur Darstellung von Unsicherheit, aber nicht unbedingt zur Darstellung von Unwissenheit! G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
97 Dempster-Shafer-Theorie Das PPM-Paradoxon Probabilistik eignet sich gut zur Darstellung von Unsicherheit, aber nicht unbedingt zur Darstellung von Unwissenheit! Die Peter, Paul & Mary-Story Peter, Paul und Mary sind Profikiller, einer von ihnen hat Mr Jones ermordet; Inspektor Smith ist bisher noch vollkommen ratlos wer von den dreien war es? G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
98 Dempster-Shafer-Theorie Das PPM-Paradoxon Probabilistik eignet sich gut zur Darstellung von Unsicherheit, aber nicht unbedingt zur Darstellung von Unwissenheit! Die Peter, Paul & Mary-Story Peter, Paul und Mary sind Profikiller, einer von ihnen hat Mr Jones ermordet; Inspektor Smith ist bisher noch vollkommen ratlos wer von den dreien war es? P (Mary) = 1 3 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
99 Dempster-Shafer-Theorie Das PPM-Paradoxon Probabilistik eignet sich gut zur Darstellung von Unsicherheit, aber nicht unbedingt zur Darstellung von Unwissenheit! Die Peter, Paul & Mary-Story Peter, Paul und Mary sind Profikiller, einer von ihnen hat Mr Jones ermordet; Inspektor Smith ist bisher noch vollkommen ratlos wer von den dreien war es? P (Mary) = 1 3 war es ein Mann oder eine Frau? G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
100 Dempster-Shafer-Theorie Das PPM-Paradoxon Probabilistik eignet sich gut zur Darstellung von Unsicherheit, aber nicht unbedingt zur Darstellung von Unwissenheit! Die Peter, Paul & Mary-Story Peter, Paul und Mary sind Profikiller, einer von ihnen hat Mr Jones ermordet; Inspektor Smith ist bisher noch vollkommen ratlos wer von den dreien war es? P (Mary) = 1 3 war es ein Mann oder eine Frau? P (Mary) = 1 2 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
101 Dempster-Shafer-Theorie Das PPM-Paradoxon Probabilistik eignet sich gut zur Darstellung von Unsicherheit, aber nicht unbedingt zur Darstellung von Unwissenheit! Die Peter, Paul & Mary-Story Peter, Paul und Mary sind Profikiller, einer von ihnen hat Mr Jones ermordet; Inspektor Smith ist bisher noch vollkommen ratlos wer von den dreien war es? P (Mary) = 1 3 war es ein Mann oder eine Frau? P (Mary) = 1 2 Bei der Verwendung von Wahrscheinlichkeiten geht auch immer Wissen über die Grundgesamtheit betrachteter Merkmale mit ein! G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
102 Dempster-Shafer-Theorie Verallgemeinerte Wahrscheinlichkeiten 1/4 Eine Funktion F : 2 Ω [0, 1] heißt (normalisierte) Kapazität, wenn gilt: Normalisierung: F (Ω) = 1; Monotonie: Für alle A, B Ω, A B, gilt: F (A) F (B). G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
103 Dempster-Shafer-Theorie Verallgemeinerte Wahrscheinlichkeiten 1/4 Eine Funktion F : 2 Ω [0, 1] heißt (normalisierte) Kapazität, wenn gilt: Normalisierung: F (Ω) = 1; Monotonie: Für alle A, B Ω, A B, gilt: F (A) F (B). Wahrscheinlichkeitsfunktionen sind auch Kapazitäten, nicht jedoch umgekehrt: Kapazitäten sind i.allg. nicht additiv. Insbesondere ist bei einer Kapazität im Allgemeinen F (A) 1 F (A) (wobei A das Komplement von A bezeichnet). G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
104 Dempster-Shafer-Theorie Verallgemeinerte Wahrscheinlichkeiten 2/4 Seien F, G : 2 Ω [0, 1] Kapazitäten. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
105 Dempster-Shafer-Theorie Verallgemeinerte Wahrscheinlichkeiten 2/4 Seien F, G : 2 Ω [0, 1] Kapazitäten. F und G heißen dual zueinander, wenn für jedes A Ω gilt F (A) = 1 G(A) und G(A) = 1 F (A) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
106 Dempster-Shafer-Theorie Verallgemeinerte Wahrscheinlichkeiten 2/4 Seien F, G : 2 Ω [0, 1] Kapazitäten. F und G heißen dual zueinander, wenn für jedes A Ω gilt F (A) = 1 G(A) und G(A) = 1 F (A) Eine Wahrscheinlichkeitsfunktion ist offensichtlich dual zu sich selbst. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
107 Dempster-Shafer-Theorie Verallgemeinerte Wahrscheinlichkeiten 3/4 Um Unwissenheit über Wahrscheinlichkeiten auszudrücken, legt man sich nicht auf eine Wahrscheinlichkeitsfunktion fest, sondern betrachtet Mengen von Wahrscheinlichkeitsfunktionen. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
108 Dempster-Shafer-Theorie Verallgemeinerte Wahrscheinlichkeiten 3/4 Um Unwissenheit über Wahrscheinlichkeiten auszudrücken, legt man sich nicht auf eine Wahrscheinlichkeitsfunktion fest, sondern betrachtet Mengen von Wahrscheinlichkeitsfunktionen. Dabei legen untere und obere Wahrscheinlichkeitsschranken den Spielraum möglicher Wahrscheinlichkeiten fest: Sei Π eine nichtleere Menge von Wahrscheinlichkeitsfunktionen über derselben Menge Ω. Für jede Menge A Ω sind untere Wahrscheinlichkeitsschranke Π u und obere Wahrscheinlichkeitsschranke Π o wie folgt definiert: Π u (A) = inf{p (A) P Π} Π o (A) = sup{p (A) P Π} G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
109 Dempster-Shafer-Theorie PPM-Beispiel (Forts.) Inspektor Smith hat in der Mordsache Jones ermittelt und Mary (mit einer Täterwahrscheinlichkeit von mindestens 0.5) und Paul (mit einer Täterwahrscheinlichkeit von mindestens 0.4) als Hauptverdächtige ausgemacht. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
110 Dempster-Shafer-Theorie PPM-Beispiel (Forts.) Inspektor Smith hat in der Mordsache Jones ermittelt und Mary (mit einer Täterwahrscheinlichkeit von mindestens 0.5) und Paul (mit einer Täterwahrscheinlichkeit von mindestens 0.4) als Hauptverdächtige ausgemacht. Die gesuchte Wahrscheinlichkeitsfunktion ist also eine aus der Menge Π = {P P (Mary) 0.5, P (Paul) 0.4} G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
111 Dempster-Shafer-Theorie PPM-Beispiel (Forts.) Inspektor Smith hat in der Mordsache Jones ermittelt und Mary (mit einer Täterwahrscheinlichkeit von mindestens 0.5) und Paul (mit einer Täterwahrscheinlichkeit von mindestens 0.4) als Hauptverdächtige ausgemacht. Die gesuchte Wahrscheinlichkeitsfunktion ist also eine aus der Menge Π = {P P (Mary) 0.5, P (Paul) 0.4} Als untere und obere Wahrscheinlichkeitsschranken ergeben sich dann Π u (Mary) = 0.5 Π o (Mary) = 0.6 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
112 Dempster-Shafer-Theorie PPM-Beispiel (Forts.) Inspektor Smith hat in der Mordsache Jones ermittelt und Mary (mit einer Täterwahrscheinlichkeit von mindestens 0.5) und Paul (mit einer Täterwahrscheinlichkeit von mindestens 0.4) als Hauptverdächtige ausgemacht. Die gesuchte Wahrscheinlichkeitsfunktion ist also eine aus der Menge Π = {P P (Mary) 0.5, P (Paul) 0.4} Als untere und obere Wahrscheinlichkeitsschranken ergeben sich dann Π u (Mary) = 0.5 Π o (Mary) = 0.6 Π u (Paul) = 0.4 Π o (Paul) = 0.5 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
113 Dempster-Shafer-Theorie PPM-Beispiel (Forts.) Inspektor Smith hat in der Mordsache Jones ermittelt und Mary (mit einer Täterwahrscheinlichkeit von mindestens 0.5) und Paul (mit einer Täterwahrscheinlichkeit von mindestens 0.4) als Hauptverdächtige ausgemacht. Die gesuchte Wahrscheinlichkeitsfunktion ist also eine aus der Menge Π = {P P (Mary) 0.5, P (Paul) 0.4} Als untere und obere Wahrscheinlichkeitsschranken ergeben sich dann Π u (Mary) = 0.5 Π o (Mary) = 0.6 Π u (Paul) = 0.4 Π o (Paul) = 0.5 Π u (Peter) = 0.0 Π o (Peter) = 0.1 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
114 Dempster-Shafer-Theorie Verallgemeinerte Wahrscheinlichkeiten 4/4 Ist Π eine nichtleere Menge von Wahrscheinlichkeitsfunktionen, so sind die zugehörigen unteren und oberen Wahrscheinlichkeitsschranken, Π u und Π o, zueinander duale Kapazitäten. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
115 Dempster-Shafer-Theorie Verallgemeinerte Wahrscheinlichkeiten 4/4 Ist Π eine nichtleere Menge von Wahrscheinlichkeitsfunktionen, so sind die zugehörigen unteren und oberen Wahrscheinlichkeitsschranken, Π u und Π o, zueinander duale Kapazitäten. Untere und obere Wahrscheinlichkeitsschranken lieferten die Grundidee für die Dempster-Shafer-Theorie: Glaubens-Funktionen 2 Ω [0, 1] ( untere Wahrscheinlichkeitsfunktionen) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
116 Dempster-Shafer-Theorie Verallgemeinerte Wahrscheinlichkeiten 4/4 Ist Π eine nichtleere Menge von Wahrscheinlichkeitsfunktionen, so sind die zugehörigen unteren und oberen Wahrscheinlichkeitsschranken, Π u und Π o, zueinander duale Kapazitäten. Untere und obere Wahrscheinlichkeitsschranken lieferten die Grundidee für die Dempster-Shafer-Theorie: Glaubens-Funktionen 2 Ω [0, 1] ( untere Wahrscheinlichkeitsfunktionen) Plausibilitäts-Funktionen 2 Ω [0, 1] ( obere Wahrscheinlichkeitsfunktionen) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267
Darstellung, Verarbeitung und Erwerb von Wissen
Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund WiSe 2016/17 G. Kern-Isberner (TU Dortmund) DVEW WiSe 2016/17 1 / 267 Kapitel 4 Wahrscheinlichk.
MehrCommonsense Reasoning
Commonsense Reasoning Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Sommersemester 2015 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 232 Kapitel 4 4. Probabilistische Folgerungsmodelle
MehrDarstellung, Verarbeitung und Erwerb von Wissen
Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund WiSe 2016/17 G. Kern-Isberner (TU Dortmund) DVEW WiSe 2016/17 1 / 267 Kapitel 4 4. Wahrscheinlichkeiten
MehrCommonsense Reasoning
Commonsense Reasoning Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Sommersemester 2015 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 232 Probabilistische Folgerungsmodelle
MehrDarstellung, Verarbeitung und Erwerb von Wissen
Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Wintersemester 2015/16 WS 2015/16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/16 1 / 267
MehrCommonsense Reasoning
Commonsense Reasoning Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Sommersemester 2017 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 232 Kapitel 4 Grundideen probabilistischen
MehrLogik. Gabriele Kern-Isberner LS 1 Information Engineering. TU Dortmund Wintersemester 2014/15 WS 2014/15
Logik Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Wintersemester 2014/15 WS 2014/15 G. Kern-Isberner (TU Dortmund) Logik WS 2014/15 1 / 125 Übersicht Modallogik 5. Grundlagen 6. Erfüllbarkeit
MehrMethoden wissensbasierter Systeme
Christoph Beierle Gabriele Kern-Isberner Methoden wissensbasierter Systeme Grundlagen - Algorithmen - Anwendungen 2., überarbeitete und erweiterte Auflage vieweg ix Vorwort zur 2., erweiterten Auflage
Mehr3.3 Default-Logiken Reiter sche Default-Logik
Darstellung, Verarbeitung und Erwerb von Wissen 3.3 Default-Logiken 3.3.1 Reiter sche Default-Logik DVEW WS 2004/05 c Gabriele Kern-Isberner 1 Prozesse (Whlg.) Default-Prozesse sind (endliche) Folgen Π
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrDefinition der Entropie unter Verwendung von supp(p XY )
Definition der Entropie unter Verwendung von supp(p XY ) Wir fassen die Ergebnisse des letzten Abschnitts nochmals kurz zusammen, wobei wir von der zweidimensionalen Zufallsgröße XY mit der Wahrscheinlichkeitsfunktion
MehrStatistik für Ingenieure Vorlesung 2
Statistik für Ingenieure Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 24. Oktober 2016 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen
MehrDarstellung, Verarbeitung und Erwerb von Wissen
Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Wintersemester 2015/16 WS 2015/16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/16 1 / 267
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
MehrAufgaben zur Verbandstheorie
TU Bergakademie Freiberg WS 2005/06 Institut für Diskrete Mathematik & Algebra Prof. Dr. Udo Hebisch Aufgaben zur Verbandstheorie 1. Für ein beliebiges n IN sei X n die Menge aller Teiler von n. Definiert
MehrRoman Firstein. Maximum Entropy Markov Models for Information Extraction and Segmentation
Maximum Entropy Markov Models (MEMM) for Information Extraction and Segmentation Roman Firstein 09.10.07 Maximum Entropy Markov Models for Information Extraction and Segmentation Vortrag - Vorwort - Modell
MehrDarstellung, Verarbeitung und Erwerb von Wissen
Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund WiSe 2017/18 G. Kern-Isberner (TU Dortmund) DVEW WiSe 2017/18 1 / 265 Struktur der DVEW 1
MehrMethoden wissensbasierter
Christoph Beierle I Gabriele Kern-Isberner Methoden wissensbasierter Systeme Grundlagen, Algorithmen, Anwendungen 4., verbesserte Auflage Mit 147 Abbildungen STUDIUM VIEWEG+ 'reubner xiii Vorwort zur 1.
MehrKapitel 1.5 und 1.6. Ein adäquater Kalkül der Aussagenlogik
Kapitel 1.5 und 1.6 Ein adäquater Kalkül der Aussagenlogik Teil 1: Kalküle und Beweisbarkeit und die Korrektheit des Shoenfield-Kalküls Mathematische Logik (WS 2010/11) Kapitel 1.5 und 1.6: Kalküle 1 /
MehrWas bisher geschah Klassische Aussagenlogik zur Modellierung von Aussagen Syntax: Formeln
Was bisher geschah Klassische Aussagenlogik zur Modellierung von Aussagen Syntax: Formeln induktive Definition der Menge AL(P) (Baumstruktur) strukturelle Induktion (Funktionen, Nachweise) syntaktische
MehrMultivariate Zufallsvariablen
Kapitel 7 Multivariate Zufallsvariablen 7.1 Diskrete Zufallsvariablen Bisher haben wir immer nur eine Zufallsvariable betrachtet. Bei vielen Anwendungen sind aber mehrere Zufallsvariablen von Interesse.
MehrKapitel 8 Probabilistische und Possibilistische Logik. 23. Juni 2005
Kapitel 8 Probabilistische und Possibilistische Logik 23. Juni 2005 Zusammenfassung Kapitel 1-2 Grundlagen, Kapitel 3 Fuzzy-Mengen und -Relationen, Kapitel 4 Erweiterung des klassischen Beweisbegriffes,
MehrStatistik I für Betriebswirte Vorlesung 2
Statistik I für Betriebswirte Vorlesung 2 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. April 2018 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 2 Version: 9. April
Mehr1.3 Stochastische Unabhängigkeit und bedingte
1.3 Stochastische Unabhängigkeit und bedingte Wahrscheinlichkeiten Ziel: komplexere Modelle aus Verkettung ( Koppelung ) von Zufallsexperimenten bauen, insbesondere Ziehung von n-personen aus n-maliger
MehrBayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen
MehrKapitel II Funktionen reeller Variabler
Kapitel II Funktionen reeller Variabler D (Funktion) Es sei f XxY eine Abbildung Die Abbildung f heiß Funktion, falls sie eindeutig ist Man schreibt dann auch: f : X Y f ( x) = y, wobei y das (eindeutig
MehrÜbungen zur Wahrscheinlichkeitstheorie und Statistik
Übungen zur Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank Blatt 0 vom 16. April 2012 Aufgabe 1 (Wahrscheinlichkeitsräume). Welche der folgenden Aussagen sind wahr? Begründen Sie jeweils
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrTopologische Räume und stetige Abbildungen
TU Dortmund Mathematik Fakultät Proseminar Lineare Algebra Ausarbeitung zum Thema Topologische Räume und stetige Abbildungen Julia Schmidt Dozent: Prof. Dr. L. Schwachhöfer Datum: 29.11.2013 Inhaltsverzeichnis
MehrÜbersicht. Künstliche Intelligenz: 13. Unsicherheiten Frank Puppe 1
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 13. Unsicherheiten 14. Probabilistisches Schließen 15. Probabilistisches
MehrDefinition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis
Stochastische Prozesse: Grundlegende Begriffe bei zufälligen Prozessen In diesem Abschnitt beschäftigen wir uns mit den grundlegenden Begriffen und Definitionen von Zufallsexperimenten, also Prozessen,
MehrWahrscheinlichkeitsrechnung und Statistik
3. Vorlesung - 21.10.2016 Bedingte Wahrscheinlichkeit In einer Urne sind 2 grüne und 3 blaue Kugeln. 2 Kugeln werden ohne Zürücklegen gezogen. Welches ist die Wahrscheinlichkeit, dass : a) man eine grüne
MehrEinführung in die mathematische Logik
Prof. Dr. H. Brenner Osnabrück SS 2014 Einführung in die mathematische Logik Vorlesung 5 Das Lemma von Zorn Wir möchten im Folgenden zeigen, dass eine widerpruchsfreie Menge Γ L V von Aussagen nicht nur
MehrBayesianische Netzwerke - Lernen und Inferenz
Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel
MehrÜberblick. 3. Mathematische Grundlagen 3.1 Mengen und Abbildungen 3.2 Induktion und Rekursion 3.3 Boolsche Algebra
Überblick 3. Mathematische Grundlagen 3.1 Mengen und Abbildungen 3.2 3.3 Boolsche Algebra Peer Kröger (LMU München) Einführung in die Programmierung WS 14/15 72 / 179 Beweisprinzip der vollständigen Induktion
Mehr6: Diskrete Wahrscheinlichkeit
Stefan Lucks Diskrete Strukturen (WS 2009/10) 219 6: Diskrete Wahrscheinlichkeit 6: Diskrete Wahrscheinlichkeit Stefan Lucks Diskrete Strukturen (WS 2009/10) 220 Wahrscheinlichkeitsrechnung Eines der wichtigsten
MehrKapitel 4: Bedingte Entropie
Kapitel 4: Bedingte Entropie Bedingte Entropie Das vorherige Theorem kann durch mehrfache Anwendung direkt verallgemeinert werden N 2... N i i Ebenso kann die bedingt Entropie definiert werden Definition:
MehrSTOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück
STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable
MehrEvidenzpropagation in Bayes-Netzen und Markov-Netzen
Einleitung in Bayes-Netzen und Markov-Netzen Thomas Thüm 20. Juni 2006 1/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen Übersicht Einleitung Motivation Einordnung der Begriffe 1 Einleitung Motivation
MehrFit for Abi & Study Stochastik
Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen
MehrAufgabenstellung und Ergebnisse zur. Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2018/19
Aufgabenstellung und Ergebnisse zur Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 08/9 PD Dr. Martin Becker Hinweise für die Klausurteilnehmer ˆ Die Klausur besteht
MehrDie Prädikatenlogik erster Stufe: Syntax und Semantik
Die Prädikatenlogik erster Stufe: Syntax und Semantik 1 Mathematische Strukturen und deren Typen Definition 1.1 Eine Struktur A ist ein 4-Tupel A = (A; (R A i i I); (f A j j J); (c A k k K)) wobei I, J,
MehrKonzepte der AI. Unsicheres Schließen
Konzepte der AI Unsicheres Schließen http://www.dbai.tuwien.ac.at/education/aikonzepte/ Wolfgang Slany Institut für Informationssysteme, Technische Universität Wien mailto: wsi@dbai.tuwien.ac.at, http://www.dbai.tuwien.ac.at/staff/slany/
MehrDarstellung, Verarbeitung und Erwerb von Wissen
Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Wintersemester 2015/16 WS 2015/16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/16 1 / 60 Organisatorisches,
MehrKapitel 6 Wahrheitsfunktionale Fuzzy-Logik. 10. Juni 2005
Kapitel 6 Wahrheitsfunktionale Fuzzy-Logik 10. Juni 2005 Zusammenfassung Wahrheitsfunktionale Fuzzy-Semantik besteht aus Mengen aller wahrheitsfunktionalen Belegungen von Formeln, jedem Modell in M entspricht
MehrAufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen
Ü b u n g 1 Aufgabe 1 Die Ereignisse A, B und C erfüllen die Bedingungen P(A) = 0. 7, P(B) = 0. 6, P(C) = 0. 5 P(A B) = 0. 4, P(A C) = 0. 3, P(B C) = 0. 2, P(A B C) = 0. 1 Bestimmen Sie P(A B), P(A C),
Mehr1 Umkehrfunktionen und implizite Funktionen
Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13
MehrAlgebraische Kurven - Vorlesung 29. Projektion weg von einem Punkt
Algebraische Kurven - Vorlesung 29 Definition 1. Die Abbildung P n K Projektion weg von einem Punkt {(1, 0,..., 0)} Pn 1 K, (x 0, x 1...,x n ) (x 1,..., x n ), heißt die Projektion weg vom Punkt (1, 0,...,
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrKonvexe Optimierungsprobleme
von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel
Mehr15. September 2010 Prof. Dr. W. Bley. Universität Kassel Klausur SS 2010 Diskrete Strukturen I (Informatik) Name:... Matr.-Nr.:... Viel Erfolg!
15. September 010 Prof. Dr. W. Bley Universität Kassel Klausur SS 010 Diskrete Strukturen I (Informatik) 1 3 4 5 6 Name:................................................ Matr.-Nr.:............................................
Mehr5 Assoziationsmessung in Kontingenztafeln
5 Assoziationsmessung in Kontingenztafeln 51 Multivariate Merkmale 51 Multivariate Merkmale Gerade in der Soziologie ist die Analyse eindimensionaler Merkmale nur der allererste Schritt zur Beschreibung
MehrKapitel 6 Wahrheitsfunktionale Fuzzy-Logik. 2. Juni 2005
Kapitel 6 Wahrheitsfunktionale Fuzzy-Logik 2. Juni 2005 Übersicht Wahrheitsfunktionale Fuzzy-Semantik, Eigenschaften, Lukasiewicz-Fuzzy-Logik, McNaughtons Theorem, Nichtstetige Wahrheitsfunktionale Fuzzy-Logik.
MehrMathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1
Mathematische Grundlagen III Informationstheorie 20 Juni 20 / Informationstheorie Ein Gerüst, um über den Informationsgehalt von (linguistischen) Ereignissen nachzudenken Einige Beispiele für Anwendungen:
Mehr3.3 Bayes-Entscheidungen in der virtuellen Risikosituation
3.3 Bayes-Entscheidungen in der virtuellen Risikosituation 183 3.3.1 Entscheiden in der Risikosituation 184 Bsp. 3.36 (Beispiel: Lotterie vgl. Bsp. in Abschnitt 1.3.2) Urne mit g (hier: 50) grünen, b (30)
MehrWas bisher geschah. Klassische Prädikatenlogik (der ersten Stufe): Syntax Modellierungsbeispiele
Was bisher geschah Klassische Aussagenlogik zur Modellierung von Aussagen Syntax: induktive Definition der Menge AL(P) (Baumstruktur) strukturelle Induktion (Funktionen, Nachweise) Semantik: Belegungen
MehrFormale Systeme. Aussagenlogik: Syntax und Semantik. Prof. Dr. Bernhard Beckert, WS 2015/2016.
Formale Systeme Prof. Dr. Bernhard Beckert, WS 2015/2016 Aussagenlogik: Syntax und Semantik KIT I NSTITUT F U R T HEORETISCHE I NFORMATIK KIT Universita t des Landes Baden-Wu rttemberg und nationales Forschungszentrum
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern
MehrLineare Gleichungssysteme
Kapitel 6 Lineare Gleichungssysteme 6. Gaußalgorithmus Aufgabe 6. : Untersuchen Sie die folgenden linearen Gleichungssysteme mit dem Gaußalgorithmus auf Lösbarkeit und bestimmen Sie jeweils die Lösungsmenge.
Mehr3.5 Duale Vektorräume und Abbildungen
3.5. DUALE VEKTORRÄUME UND ABBILDUNGEN 103 3.5 Duale Vektorräume und Abbildungen Wir wollen im Folgenden auch geometrische Zusammenhänge mathematisch beschreiben und beginnen deshalb jetzt mit der Einführung
MehrStochastische Lernalgorithmen
Stochastische Lernalgorithmen Gerhard Jäger 14. Mai 2003 Das Maximum-Entropy-Prinzip Der Entropiebegriff Entropie: Chaos, Unordung, Nicht-Vorhersagbarkeit,... Begriff kommt ursprünglich aus der Physik:
MehrÜbungen zu Einführung in die Lineare Algebra und Geometrie
Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Wintersemester 2014/15 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax
MehrVorwort zur 1. Auflage Vorwort zur 5., überarbeiteten und erweiterten Auflage
xi Vorwort zur 1. Auflage Vorwort zur 5., überarbeiteten und erweiterten Auflage vii ix xi 1 Einleitung 1 1.1 Über dieses Buch........................... 1 1.2 Themenbereiche des Buches.....................
Mehr1.2 Klassen und Mengen
14 1.2 Klassen und Mengen Als undefinierten Grundbegriff verwenden wir den Begriff der Klasse. Dieser ist allgemeiner als der Mengenbegriff und wird in der Algebra zur Definition sogenannter Kategorien
MehrUnabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
MehrZufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen
Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Wichtige Tatsachen und Formeln zur Vorlesung Mathematische Grundlagen für das Physikstudium 3 Franz Embacher http://homepage.univie.ac.at/franz.embacher/
MehrDie mittlere Höhe eines Binärbaumes. h(t) = 1 e(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t
Höhe von Binärbäumen Die mittlere Höhe eines Binärbaumes h(t) = 1 e(t) b E(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t h(b, t), Höhe von Binärbäumen Die mittlere Höhe eines
MehrDarstellung, Verarbeitung und Erwerb von Wissen
Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund WiSe 2018/19 G. Kern-Isberner (TU Dortmund) DVEW WiSe 2018/19 1 / 62 Organisatorisches, Übersicht
MehrKapitel 1.5. Ein adäquater Kalkül der Aussagenlogik. Teil 1: Kalküle und Beweisbarkeit und die Korrektheit des Shoenfield-Kalküls
Kapitel 1.5 Ein adäquater Kalkül der Aussagenlogik Teil 1: Kalküle und Beweisbarkeit und die Korrektheit des Shoenfield-Kalküls Mathematische Logik (WS 2012/13) Kapitel 1.5: Kalküle 1/30 Syntaktischer
MehrVorwort zur 1. Auflage Vorwort zur 5., überarbeiteten und erweiterten Auflage. 1 Einleitung Über dieses Buch Themenbereiche des Buches 2
xi Vorwort zur 1. Auflage Vorwort zur 5., überarbeiteten und erweiterten Auflage vii ix xi 1 Einleitung 1 1.1 Über dieses Buch 1 1.2 Themenbereiche des Buches 2 2 Wissensbasierte Systeme im Uberblick 7
MehrAllgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)
Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich
MehrAllgemeine diskrete Wahrscheinlichkeitsräume II
6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete
MehrAllgemeine diskrete Wahrscheinlichkeitsräume I
6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 15. Jänner 2017 Evelina Erlacher Inhaltsverzeichnis 1 Mengen 2 2 Wahrscheinlichkeiten 3 3 Zufallsvariablen 5 3.1 Diskrete Zufallsvariablen............................
MehrWahrscheinlichkeitstheorie Kapitel I - Einführende Beispiele
Wahrscheinlichkeitstheorie Kapitel I - Einführende Beispiele Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Wahrscheinlichkeitstheorie Agenda:
MehrAnwendungsgebiete mehrwertiger Logik. P. H. Schmitt: Nichtklassische Logiken p.1
Anwendungsgebiete mehrwertiger Logik P. H. Schmitt: Nichtklassische Logiken p.1 Anwendungsgebiete Unabhängigkeitbeweise, Modellierung undefinierter Funktions- und Prädikatswerte in der Spezifikation und
MehrLösungen zur Klausur zur Vorlesung. Mathematik für Informatiker I. (Dr. Frank Hoffmann) Wintersemester 2011/ Februar 2012
Lösungen zur Klausur zur Vorlesung Mathematik für Informatiker I (Dr. Frank Hoffmann) Wintersemester 2011/2012 22. Februar 2012 Aufgabe 1 Logisches und Grundsätzliches /4+4+2 (a) Testen Sie mit dem Resolutionskalkül,
MehrGrundlegende Eigenschaften von Punktschätzern
Grundlegende Eigenschaften von Punktschätzern Worum geht es in diesem Modul? Schätzer als Zufallsvariablen Vorbereitung einer Simulation Verteilung von P-Dach Empirische Lage- und Streuungsparameter zur
Mehr3.1.1 Die Variante T1 und ein Entscheidungsverfahren für die Aussagenlogik
Deduktionssysteme der Aussagenlogik, Kap. 3: Tableaukalküle 38 3 Tableaukalküle 3.1 Klassische Aussagenlogik 3.1.1 Die Variante T1 und ein Entscheidungsverfahren für die Aussagenlogik Ein zweites Entscheidungsverfahren
MehrTopologische Grundbegriffe in metrischen und topologischen
KAPITEL 1 Topologische Grundbegriffe in metrischen und topologischen Räumen Die topologischen Grundbegriffe offene Mengen, abgeschlossene Mengen, Inneres einer Menge und Abschließung einer Menge, Stetigkeit
MehrFormale Systeme. Prof. Dr. Bernhard Beckert. Winter 2008/2009. Fakultät für Informatik Universität Karlsruhe (TH)
Formale Systeme Prof. Dr. Bernhard Beckert Fakultät für Informatik Universität Karlsruhe (TH) Winter 28/29 Prof. Dr. Bernhard Beckert Formale Systeme Winter 28/29 / 32 Shannon Formeln Shannon Formeln sind
MehrKapitel 1. Holomorphe Funktionen
Kapitel 1 Holomorphe Funktionen Zur Erinnerung: I IR sei ein offenes Intervall, und sei z 0 I. Eine Funktion f : I IR heißt differenzierbar in z 0, falls der Limes fz fz 0 lim =: f z 0 z z 0 z z 0 existiert.
MehrKapitel MK:V. V. Diagnoseansätze
Kapitel MK:V V. Diagnoseansätze Diagnoseproblemstellung Diagnose mit Bayes Evidenztheorie von Dempster/Shafer Diagnose mit Dempster/Shafer Truth Maintenance Assumption-Based TMS Diagnosis Setting Diagnosis
MehrGrundbegriffe der Informatik
Grundbegriffe der Informatik Einheit 3: Alphabete, Abbildungen, Aussagenlogik Thomas Worsch Karlsruher Institut für Technologie, Fakultät für Informatik Wintersemester 2010/2011 1/32 Überblick Alphabete
MehrDiskrete Strukturen I
Universität Kassel Fachbereich 10/1 PD Dr. Sebastian Petersen 14.09.2017 Klausur zur Vorlesung Diskrete Strukturen I Es können maximal 40 Punkte erreicht werden. Version mit Lösungsskizze Zur Notation:
Mehr6.1 Holomorphe Funktionen und Potenzreihen. n=0 α n (z z 0 ) n mit Konvergenzradius größer oder gleich r existiert und
Funktionentheorie, Woche 6 Analytische Funktionen 6. Holomorphe Funktionen und Potenzreihen Definition 6. Eine Funktion f : U C C nennt man analytisch in z 0 U, wenn es r > 0 gibt mit B r (z 0 ) U derart,
MehrSatz 18 (Satz von der totalen Wahrscheinlichkeit)
Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A 1,..., A n seien paarweise disjunkt und es gelte
MehrZentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza)
WS 2013/14 Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ws/ds/uebung/ 22. Januar 2014 ZÜ DS ZÜ XIII
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
MehrÜberblick. 3. Mathematische Grundlagen 3.1 Mengen und Abbildungen 3.2 Boolsche Algebra 3.3 Induktion und Rekursion
Überblick 3. Mathematische Grundlagen 3.1 Mengen und Abbildungen 3.2 Boolsche Algebra 3.3 Peer Kröger (LMU München) Einführung in die Programmierung WS 16/17 92 / 708 Beweisprinzip der vollständigen Induktion
Mehr( ) ( ) < b k, 1 k n} (2) < x k
Technische Universität Dortmund Fakultät für Mathematik Proseminar Analysis Prof. Dr. Röger Benjamin Czyszczon Satz von Heine Borel Gliederung 1. Zellen und offene Überdeckungen 2. Satz von Heine Borel
MehrCommonsense Reasoning
Commonsense Reasoning Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Sommersemester 2014 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 45 Übersicht Übungen und Folien zu Commonsense
MehrBeweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass
Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = x W X Pr[X + Y = z X = x] Pr[X = x] = x W X Pr[Y = z x] Pr[X = x] = x W X f X (x) f Y (z x). Den Ausdruck
Mehr