Darstellung, Verarbeitung und Erwerb von Wissen

Größe: px
Ab Seite anzeigen:

Download "Darstellung, Verarbeitung und Erwerb von Wissen"

Transkript

1 Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Wintersemester 2015/16 WS 2015/16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/16 1 / 267

2 Kapitel 4 4. Wahrscheinlichkeiten & Co Probabilistik und Informationstheorie G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

3 Entropie Mittlerer Informationsgehalt einer Verteilung P : H(P ) = ω Ω P (ω) log P (ω) Entropie einer Verteilung P (misst den Grad der mittleren Unbestimmtheit von P ) Der Begriff Entropie stammt aus der Thermodynamik, wurde von Shannon später als fundamentales Maß für die Unordnung (= fehlende Struktur) in einem System gedeutet und damit als Maß für die Informativität (= Strukturiertheit) erkannt. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

4 Eigenschaften der Entropie Sei P 0 die Gleichverteilung über Ω, d. h. P 0 (ω) = 1 n für ω Ω, wobei Ω = n; dann gilt: H(P 0 ) = log 2 n; ( Beweis : H(P 0 ) = H( 1 n,..., 1 n ) = n i=1 1 n log 1 n = ( n) 1 ( log n) n = log n ) Für jede beliebige Wahrscheinlichkeitsverteilung P über Ω gilt H(P ) H(P 0 ), d.h. die Entropie der Gleichverteilung ist maximal. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

5 Entropie von Aussagevariablen 1/5 Sei A eine Aussagenvariable mit den Werten {a (1),..., a (n) }. Die Entropie von A wird definiert als H(A) = n i=1 P (a(i) ) log P (a (i) ) H(A) mittlere Unsicherheit darüber, welchen Wert A annehmen wird. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

6 Entropie von Aussagevariablen 2/5 Bedingte Entropie von A bzgl. B (mit Werten {..., b (j),...}): H(A B) = i,j P (b(j) )P (a (i) b (j) ) log P (a (i) b (j) ) = j P (b(j) ) i P (a(i) b (j) ) log P (a (i) b (j) ) = j P (b(j) )H(P (A b (j) )) erwartete Unbestimmtheit von A nach der Beobachtung von B. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

7 Entropie von Aussagevariablen Beispiel 1/7 Zwei Urnen enthalten Kugeln: Urne 1: 4 weiße 3 rote 1 schwarze Kugel(n) Urne 2: 6 weiße 2 rote 0 schwarze G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

8 Entropie von Aussagevariablen Beispiel 1/7 Zwei Urnen enthalten Kugeln: Urne 1: 4 weiße 3 rote 1 schwarze Kugel(n) Urne 2: 6 weiße 2 rote 0 schwarze Kugel(n) Variablenbeschreibung Werte Variable A: Urne 1, 2 Variable B: Farbe weiss (1), rot (2), schwarz (3) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

9 Entropie von Aussagevariablen Beispiel 1/7 Zwei Urnen enthalten Kugeln: Urne 1: 4 weiße 3 rote 1 schwarze Kugel(n) Urne 2: 6 weiße 2 rote 0 schwarze Kugel(n) Variablenbeschreibung Werte Variable A: Urne 1, 2 Variable B: Farbe weiss (1), rot (2), schwarz (3) Die Verteilung P beschreibe die Wahrscheinlichkeit des Ereignisses Ziehe Kugel der Farbe b aus Urne mit Nummer a G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

10 Entropie von Aussagevariablen Beispiel 2/7 Der Agent zieht mit gleicher Wahrscheinlichkeit Kugeln aus Urne 1 oder 2: P (A = 1) = P (A = 2) = 0.5 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

11 Entropie von Aussagevariablen Beispiel 2/7 Der Agent zieht mit gleicher Wahrscheinlichkeit Kugeln aus Urne 1 oder 2: P (A = 1) = P (A = 2) = 0.5 Die bedingten Verteilungen von B gegeben A sind wie folgt: ( 1 P (B A = 1) = 2, 3 8, 1 ) 8 ( 3 P (B A = 2) = 4, 1 ) 4, 0 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

12 Entropie von Aussagevariablen Beispiel 3/7 Mit der Formel von der totalen Wahrscheinlichkeit ergeben sich damit folgende Wahrscheinlichkeiten für die Ausprägungen von B: P (B = 1) = P (B = 1 A = 1)P (A = 1) +P (B = 1 A = 2)P (A = 2) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

13 Entropie von Aussagevariablen Beispiel 3/7 Mit der Formel von der totalen Wahrscheinlichkeit ergeben sich damit folgende Wahrscheinlichkeiten für die Ausprägungen von B: P (B = 1) = P (B = 1 A = 1)P (A = 1) +P (B = 1 A = 2)P (A = 2) = = 5 8 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

14 Entropie von Aussagevariablen Beispiel 3/7 Mit der Formel von der totalen Wahrscheinlichkeit ergeben sich damit folgende Wahrscheinlichkeiten für die Ausprägungen von B: P (B = 1) = P (B = 1 A = 1)P (A = 1) P (B = 2) = P (B = 1 A = 2)P (A = 2) = = 5 8 P (B = 3) = 1 16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

15 Entropie von Aussagevariablen Beispiel 4/7 Mit dem Satz von Bayes erhält man dann für die bedingten Verteilungen von A gegeben B: P (A = 1 B = 1) = P (B = 1 A = 1) P (A=1) P (B=1) = 2 5 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

16 Entropie von Aussagevariablen Beispiel 4/7 Mit dem Satz von Bayes erhält man dann für die bedingten Verteilungen von A gegeben B: P (A = 1 B = 1) = P (B = 1 A = 1) P (A=1) P (B=1) = 2 5 also P (A B = 1) = ( 2 5, 3 ) 5 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

17 Entropie von Aussagevariablen Beispiel 4/7 Mit dem Satz von Bayes erhält man dann für die bedingten Verteilungen von A gegeben B: P (A = 1 B = 1) = P (B = 1 A = 1) P (A=1) P (B=1) = 2 5 also ( 2 P (A B = 1) = 5, 3 ) 5 ( 3 P (A B = 2) = 5, 2 ) 5 P (A B = 3) = (1, 0) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

18 Entropie von Aussagevariablen Beispiel 5/7 Für die Entropien von A und B ergibt sich ( 1 H(A) = 2 log 2 = ( 1) = log 2 ) 1 2 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

19 Entropie von Aussagevariablen Beispiel 5/7 Für die Entropien von A und B ergibt sich ( 1 H(A) = 2 log 2 = ( 1) = log 2 H(B) = ( 5 8 log log 2 = = ) log 2 ) 1 16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

20 Entropie von Aussagevariablen Beispiel 6/7 Die bedingte Entropie von A bzgl. B berechnet sich zu H(A B) = 5 ( 2 8 H 5, 3 ) + 5 ( H 5, 2 ) + 1 H(1, 0) 5 16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

21 Entropie von Aussagevariablen Beispiel 6/7 Die bedingte Entropie von A bzgl. B berechnet sich zu H(A B) = 5 ( 2 8 H 5, 3 ) + 5 ( H 5, 2 ) + 1 H(1, 0) 5 16 = 15 ( 2 16 H 5, 3 ) = erwartete Unbestimmtheit von Urne nach der Beobachtung von Farbe G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

22 Entropie von Aussagevariablen 3/5 Verbundentropie von A und B = Entropie der gemeinsamen Verteilung von A und B: H(A, B) = i,j P (a(i) b (j) ) log P (a (i) b (j) ) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

23 Entropie von Aussagevariablen 4/5 Zwischen Verbundentropie und bedingter Entropie besteht der folgende Zusammenhang: H(A, B) = H(B) + H(A B) = H(A) + H(B A) Information ist grundsätzlich additiv! (wobei Abhängigkeiten berücksichtigt werden müssen) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

24 Entropie von Aussagevariablen 4/5 Zwischen Verbundentropie und bedingter Entropie besteht der folgende Zusammenhang: H(A, B) = H(B) + H(A B) = H(A) + H(B A) Information ist grundsätzlich additiv! (wobei Abhängigkeiten berücksichtigt werden müssen) Sind A und B unabhängig, so gilt H(A, B) = H(A) + H(B) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

25 Notizen G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

26 Entropie von Aussagevariablen 5/5 Maß für den Informationsfluss zwischen A und B: Inf (A B) = H(A) H(A B) = i,j P (a (i) b (j) ) log P (a (i) b (j) ) P (a (i) )P (b (j) ) gegenseitige Information (mutual information) von A und B G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

27 Entropie von Aussagevariablen 5/5 Maß für den Informationsfluss zwischen A und B: Inf (A B) = H(A) H(A B) = i,j P (a (i) b (j) ) log P (a (i) b (j) ) P (a (i) )P (b (j) ) gegenseitige Information (mutual information) von A und B Inf (A B) ist symmetrisch in A und B; G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

28 Entropie von Aussagevariablen 5/5 Maß für den Informationsfluss zwischen A und B: Inf (A B) = H(A) H(A B) = i,j P (a (i) b (j) ) log P (a (i) b (j) ) P (a (i) )P (b (j) ) gegenseitige Information (mutual information) von A und B Inf (A B) ist symmetrisch in A und B; Wenn A und B unabhängig sind, so ist Inf (A B) = 0 in diesem Fall liefert keine der beiden Variablen irgendwelche Information über die andere. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

29 Entropie von Aussagevariablen Beispiel 7/7 In dem obigen Urne-Kugeln-Beispiel beträgt die Information, die B (= Farbe) und A (= Urne) füreinander bereithalten, Inf (A B) = H(A) H(A B) = = 0.09 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

30 Der MaxEnt-Ansatz (ME) Gegeben: Probabilistische Wissensbasis R = {(B 1 A 1 )[x 1 ],..., (B n A n )[x n ]}; Gesucht: Diejenige Verteilung P, die nur das Wissen in R und seine probabilistischen Konsequenzen darstellt und sonst keine Information hinzufügt. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

31 Der MaxEnt-Ansatz (ME) Gegeben: Probabilistische Wissensbasis R = {(B 1 A 1 )[x 1 ],..., (B n A n )[x n ]}; Gesucht: Diejenige Verteilung P, die nur das Wissen in R und seine probabilistischen Konsequenzen darstellt und sonst keine Information hinzufügt. Prinzip der maximalen Entropie Maximiere Unbestimmtheit (d.h. Entropie), gegeben Information R = {(B 1 A 1 )[x 1 ],..., (B n A n )[x n ]} arg max P =R H(P ) = ω P (ω) log 2 P (ω) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

32 Der MaxEnt-Ansatz (ME) Gegeben: Probabilistische Wissensbasis R = {(B 1 A 1 )[x 1 ],..., (B n A n )[x n ]}; Gesucht: Diejenige Verteilung P, die nur das Wissen in R und seine probabilistischen Konsequenzen darstellt und sonst keine Information hinzufügt. Prinzip der maximalen Entropie Maximiere Unbestimmtheit (d.h. Entropie), gegeben Information R = {(B 1 A 1 )[x 1 ],..., (B n A n )[x n ]} arg max P =R H(P ) = ω P (ω) log 2 P (ω) ist eindeutig lösbar mit Lösung P = ME(R). G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

33 ME-Beispiel Grippe 1/2 Die Zusammenhänge zwischen G = Grippe, K = Kranksein und S = KopfSchmerzen könnten in der folgenden Weise beschrieben sein: R = {(k g)[1], (s g)[0.9], (k s)[0.8]} G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

34 ME-Beispiel Grippe 2/2 K G S P = ME(R) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

35 ME-Beispiel Grippe 2/2 K G S P = ME(R) P (k g) 0.57 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

36 ME-Beispiel Grippe 2/2 K G S P = ME(R) P (k g) 0.57 P (k gs) 0.64 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

37 Das ME-System SPIRIT Experte/Benutzer spezifiziert eine Menge probabilistischer Regeln (verfügbares Wissen, im Allgemeinen unvollständig!) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

38 Das ME-System SPIRIT Experte/Benutzer spezifiziert eine Menge probabilistischer Regeln (verfügbares Wissen, im Allgemeinen unvollständig!) ein probabilistisches Netzwerk (sog. LEG-Netzwerk) wird automatisch aufgebaut; G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

39 Das ME-System SPIRIT Experte/Benutzer spezifiziert eine Menge probabilistischer Regeln (verfügbares Wissen, im Allgemeinen unvollständig!) ein probabilistisches Netzwerk (sog. LEG-Netzwerk) wird automatisch aufgebaut; Wahrscheinlichkeiten werden in informationstheoretisch-optimaler Weise (d.h. auf der Basis des ME-Prinzips) aufgebaut; G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

40 Das ME-System SPIRIT Experte/Benutzer spezifiziert eine Menge probabilistischer Regeln (verfügbares Wissen, im Allgemeinen unvollständig!) ein probabilistisches Netzwerk (sog. LEG-Netzwerk) wird automatisch aufgebaut; Wahrscheinlichkeiten werden in informationstheoretisch-optimaler Weise (d.h. auf der Basis des ME-Prinzips) aufgebaut; LEG-Netzwerk (Cliquen zusammen mit lokalen Randverteilungen) wird als Wissensbasis zur Wissenspropagation und zur Beantwortung von Anfragen genutzt. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

41 Das ME-System SPIRIT Experte/Benutzer spezifiziert eine Menge probabilistischer Regeln (verfügbares Wissen, im Allgemeinen unvollständig!) ein probabilistisches Netzwerk (sog. LEG-Netzwerk) wird automatisch aufgebaut; Wahrscheinlichkeiten werden in informationstheoretisch-optimaler Weise (d.h. auf der Basis des ME-Prinzips) aufgebaut; LEG-Netzwerk (Cliquen zusammen mit lokalen Randverteilungen) wird als Wissensbasis zur Wissenspropagation und zur Beantwortung von Anfragen genutzt. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

42 ME-Wissenspropagation in SPIRIT SPIRIT erzeugt aus der Menge R einen Hypergraphen; zu diesem Zweck werden alle Variablen, die in einer Regel in R vorkommen, durch eine Hyperkante verbunden. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

43 ME-Wissenspropagation in SPIRIT SPIRIT erzeugt aus der Menge R einen Hypergraphen; zu diesem Zweck werden alle Variablen, die in einer Regel in R vorkommen, durch eine Hyperkante verbunden. Der entstandene Hypergraph wird dann durch einen Hyperbaum V, C überdeckt. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

44 ME-Wissenspropagation in SPIRIT SPIRIT erzeugt aus der Menge R einen Hypergraphen; zu diesem Zweck werden alle Variablen, die in einer Regel in R vorkommen, durch eine Hyperkante verbunden. Der entstandene Hypergraph wird dann durch einen Hyperbaum V, C überdeckt. Der zugehörige Verbindungsbaum mit der Knotenmenge C und der Separatorenmenge S stellt schließlich die passende Struktur für Repräsentation und Propagation dar; es gilt nämlich P (ω) = C C P (C) S S P (Potentialdarstellung) (S) Hyperkanten gemeinsam mit ihren Randverteilungen werden auch als LEG (= local event groups) bezeichnet. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

45 Hypergraphen V (endliche) Menge von Knoten E = {E 1,..., E m }, E i V, 1 i m (endliche) Menge nichtleerer Teilmengen von V mit V = Dann heißt H = V, E Hypergraph und die Elemente von E werden als Hyperkanten bezeichnet. m i=1 E i G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

46 Hypergraphen V (endliche) Menge von Knoten E = {E 1,..., E m }, E i V, 1 i m (endliche) Menge nichtleerer Teilmengen von V mit V = Dann heißt H = V, E Hypergraph und die Elemente von E werden als Hyperkanten bezeichnet. Ein Hypergraph H = V, E heißt Hyperbaum, wenn es eine (lineare) Anordnung seiner Hyperkanten gibt, die die RIP besitzt. m i=1 E i G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

47 SPIRIT Beispiel 1/2 Die Menge der Regeln R über den Variablen A, B, C, D, E sei die folgende: R : (C E) [0.8] (A B C) [0.1] (C E) [0.4] (B D E) [0.9] (D E) [0.7] (B D E) [0.2] G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

48 SPIRIT Beispiel 1/2 Die Menge der Regeln R über den Variablen A, B, C, D, E sei die folgende: R : (C E) [0.8] (A B C) [0.1] (C E) [0.4] (B D E) [0.9] (D E) [0.7] (B D E) [0.2] Der zugehörige Hypergraph: A B C D E G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

49 SPIRIT Beispiel 2/2 Ein überdeckender Hyperbaum dazu ist H = {{A, B, C}, {B, C, E}, {B, D, E}} A B C D E Separatoren S 1 = {B, C}, S 2 = {B, E} P (A, B, C, D, E) = P (A, B, C) P (B, C, E) P (B, D, E) P (B, C) P (B, E) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

50 Projekt SPIRIT: Suchterkrankungen Überblick Abhängigkeiten zwischen Suchtverhalten und psychischen Erkrankungen ca. 500 Fälle 17 (mehrwertige) Variable, darunter Alkohol- und Drogenabhängigkeiten Neurosen, Psychosen, Depressionen G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

51 Projekt SPIRIT: Suchterkrankungen Überblick Abhängigkeiten zwischen Suchtverhalten und psychischen Erkrankungen ca. 500 Fälle 17 (mehrwertige) Variable, darunter Alkohol- und Drogenabhängigkeiten Neurosen, Psychosen, Depressionen Wissensbasis: ca. 40 probabilistische Regeln Wissensrepräsentation, Wissensverarbeitung und Visualisierung mit der System-Shell SPIRIT G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

52 Projekt SPIRIT: Suchterkrankungen Wissensbasis Beispiele für Regeleingaben: Regel Wahrscheinlichkeit Alkohol Opioide 0.10 Opioide Alkohol 0.10 jung Opioide 0.60 jung Alkohol 0.70 Alkohol Sucht Folge 0.27 Sucht Folge Alkohol 0.78 Depression Alkohol 0.63 Suizid Opioide 0.41 Suizid Depression 0.40 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

53 Projekt SPIRIT: Suchterkrankungen ME-Inferenzen Anfrage Wahrscheinlichkeit Alkohol Kokain Opioide 0.90 Alkohol Kokain Cannabis 0.91 Alkohol Depression 0.61 jung Alkohol 0.31 jung Opioide 0.31 jung Opioide Alkohol 0.05 jung Opioide Alkohol 0.70 jung Opioide Alkohol 0.22 jung Alkohol Opioide 0.10 jung Alkohol Opioide 0.82 jung Alkohol Opioide 0.10 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

54 Probabilistische Konsequenz-Operation In Analogie zur klassischen Logik wird die probabilistische Konsequenz-Operation Cn prob : 2 (L L)prob 2 (L L)prob definiert durch Cn prob (R) = {φ (L L) prob P = φ for all P Mod(R)} G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

55 Probabilistische Konsequenz-Operation In Analogie zur klassischen Logik wird die probabilistische Konsequenz-Operation Cn prob : 2 (L L)prob 2 (L L)prob definiert durch Cn prob (R) = {φ (L L) prob P = φ for all P Mod(R)} Cn prob erfüllt Inklusion/Reflexivität: R Cn prob (R); G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

56 Probabilistische Konsequenz-Operation In Analogie zur klassischen Logik wird die probabilistische Konsequenz-Operation Cn prob : 2 (L L)prob 2 (L L)prob definiert durch Cn prob (R) = {φ (L L) prob P = φ for all P Mod(R)} Cn prob erfüllt Inklusion/Reflexivität: R Cn prob (R); Schnitt: R S Cn prob (R) impliziert Cn prob (S) Cn prob (R); G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

57 Probabilistische Konsequenz-Operation In Analogie zur klassischen Logik wird die probabilistische Konsequenz-Operation Cn prob : 2 (L L)prob 2 (L L)prob definiert durch Cn prob (R) = {φ (L L) prob P = φ for all P Mod(R)} Cn prob erfüllt Inklusion/Reflexivität: R Cn prob (R); Schnitt: R S Cn prob (R) impliziert Cn prob (S) Cn prob (R); Monotonie: R S impliziert Cn prob (R) Cn prob (S) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

58 Notizen G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

59 ME-Inferenz Wir realisieren nun eine probabilistische (optimierte) Auswahl-Inferenz mit Hilfe von ME: C ME (R) = {φ (L L) prob ME(R) = φ} d.h. aus einer probabilistischen Regelbasis werden alle (bedingten) probabilistischen Formeln abgeleitet, die in der zugehörigen ME-Verteilung erfüllt sind. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

60 ME-Inferenz Beispiel Im Grippebeispiel ist R = {(k g)[1], (s g)[0.9], (k s)[0.8]} G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

61 ME-Inferenz Beispiel Im Grippebeispiel ist R = {(k g)[1], (s g)[0.9], (k s)[0.8]} Es gilt ME(R) = (k g)[0.57] ME(R) = (k gs)[0.64] G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

62 ME-Inferenz Beispiel Im Grippebeispiel ist R = {(k g)[1], (s g)[0.9], (k s)[0.8]} Es gilt ME(R) = (k g)[0.57] ME(R) = (k gs)[0.64] also bzw. (k g)[0.57], (k gs)[0.64] C ME (R) R ME (k g)[0.57], (k gs)[0.64] G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

63 Nichtmonotonie der ME-Inferenz C ME ist ein nichtmonotoner Inferenzoperator, da sich bei Vergrößerung der Wissensbasis die Ableitungen (erheblich) verändern können. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

64 Nichtmonotonie der ME-Inferenz C ME ist ein nichtmonotoner Inferenzoperator, da sich bei Vergrößerung der Wissensbasis die Ableitungen (erheblich) verändern können. Beispiel [Grippe, Forts.]: Für R = {(k g)[1], (s g)[0.9], (k s)[0.8]} G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

65 Nichtmonotonie der ME-Inferenz C ME ist ein nichtmonotoner Inferenzoperator, da sich bei Vergrößerung der Wissensbasis die Ableitungen (erheblich) verändern können. Beispiel [Grippe, Forts.]: Für R = {(k g)[1], (s g)[0.9], (k s)[0.8]}gilt die ME-Ableitung R ME (k gs)[0.64]; G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

66 Nichtmonotonie der ME-Inferenz C ME ist ein nichtmonotoner Inferenzoperator, da sich bei Vergrößerung der Wissensbasis die Ableitungen (erheblich) verändern können. Beispiel [Grippe, Forts.]: Für R = {(k g)[1], (s g)[0.9], (k s)[0.8]}gilt die ME-Ableitung Bei Erweiterung von R zu gilt (natürlich) R ME (k gs)[0.64]; R = R {(k gs)[0.7]} R ME (k gs)[0.7] G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

67 Eigenschaften der ME-Inferenz Der ME-Inferenzoperator C ME erfüllt die folgenden Eigenschaften: Inklusion/Reflexivität: R C ME (R). G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

68 Eigenschaften der ME-Inferenz Der ME-Inferenzoperator C ME erfüllt die folgenden Eigenschaften: Inklusion/Reflexivität: R C ME (R). Kumulativität, d.h. Schnitt und vorsichtige Monotonie: R S C ME (R) impliziert C ME (R) = C ME (S) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

69 Notizen G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

70 Anwendungsgebiete probabilistischer Methoden Medizinische und technische Diagnose G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

71 Anwendungsgebiete probabilistischer Methoden Medizinische und technische Diagnose Genetik (Klassifikation von Proteinen) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

72 Anwendungsgebiete probabilistischer Methoden Medizinische und technische Diagnose Genetik (Klassifikation von Proteinen) Spracherkennung G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

73 Anwendungsgebiete probabilistischer Methoden Medizinische und technische Diagnose Genetik (Klassifikation von Proteinen) Spracherkennung Bonitätsüberprüfungen G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

74 Anwendungsgebiete probabilistischer Methoden Medizinische und technische Diagnose Genetik (Klassifikation von Proteinen) Spracherkennung Bonitätsüberprüfungen Kriminalistik G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

75 Anwendungsgebiete probabilistischer Methoden Medizinische und technische Diagnose Genetik (Klassifikation von Proteinen) Spracherkennung Bonitätsüberprüfungen Kriminalistik Kundenprofile beim (E-)Commerce... G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

76 Das ixdhl-beispiel Intelligente Postzustellung Roboter ixdhl soll im Unternehmen Giggle Post personengenau zustellen. Dazu hat er einen Plan des Firmengeländes und eine Zuordnung von Personen zu ihrem (primären) Arbeitsraum. Er weiß aber darüberhinaus, dass die Mitarbeiter sich zur Frühstückszeit gerne in der Cafeteria und zur Mittagszeit gerne in der Mensa aufhalten. Bei schönem Wetter kann es außerdem vorkommen, dass sich die Mitarbeiter in den Pausen oder sogar zu Arbeitsmeetings in einem Patio in der Mitte des Firmengeländes aufhalten (die Chefetage legt Wert auf Work-Life-Balance), wobei solche Outdoor-Arbeitsmeetings allerdings nur von einem höherrangigen Mitarbeiter (mindestens Abteilungsleiter) initiiert werden dürfen und von diesem auch begleitet werden müssen. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

77 Roboter ixdhl 3 c Katharina Diekmann 2013 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267 3

78 Beispiel: ASP-iXDHL 1/2 Eine Modellierung dieses Wissens mit Hilfe von ASP könnte z.b. so aussehen: P ixdhl : PausenZ eit F ruehstuecksz eit. P ausenz eit M ittagsz eit. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

79 Beispiel: ASP-iXDHL 1/2 Eine Modellierung dieses Wissens mit Hilfe von ASP könnte z.b. so aussehen: P ixdhl : PausenZ eit F ruehstuecksz eit. P ausenz eit M ittagsz eit. H ome(x) HRaum(x, y), Aufenthalt(x, y). Aufenthalt(x, y) H ome(x), HRaum(x, y). A(x, z) A(x, y), z y. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

80 Beispiel: ASP-iXDHL 1/2 Eine Modellierung dieses Wissens mit Hilfe von ASP könnte z.b. so aussehen: P ixdhl : PausenZ eit F ruehstuecksz eit. P ausenz eit M ittagsz eit. H ome(x) HRaum(x, y), Aufenthalt(x, y). Aufenthalt(x, y) H ome(x), HRaum(x, y). A(x, z) A(x, y), z y. Abt(holger, buchhaltung). Abt(karsten, it). Leitet(silke, it). Home(silke). HR(karsten, r202). HR(holger, r123). SchoenesW etter. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

81 Beispiel: ASP-iXDHL 2/2 A(x, y) HR(x, y), not P Z, not A(x, y). G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

82 Beispiel: ASP-iXDHL 2/2 A(x, y) HR(x, y), not P Z, not A(x, y). A(x, cafe) F Z, not A(x, cafe). A(x, mensa) M Z, not A(x, mensa). G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

83 Beispiel: ASP-iXDHL 2/2 A(x, y) HR(x, y), not P Z, not A(x, y). A(x, cafe) F Z, not A(x, cafe). A(x, mensa) M Z, not A(x, mensa). A(x, patio) SW, Abt(x, y), L(z, y), not H(x), not H(z), not A(z, patio), not P Z. A(z, patio) SW, Abt(x, y), L(z, y), not H(x), not H(z), not A(x, patio), not P Z. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

84 Beispiel: ixdhl in der Probabilistik Mit den bisherigen Mitteln: Modellierung nur im Rahmen der Aussagenlogik möglich. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

85 Beispiel: ixdhl in der Probabilistik Mit den bisherigen Mitteln: Modellierung nur im Rahmen der Aussagenlogik möglich. Wir wählen die folgenden Aussagen (mit den jeweiligen Ausprägungen): Aufenthalt Mitarbeiter A mit = {home, patio, mensa, cafeteria} Schoenes Wetter SW = {ja, nein} Jahreszeit JZ = {sommer, herbst, winter, f ruehling} Pausenzeit P Z = {F Z, MZ, Keine} Aufenthalt Abt.leiter A leit = {patio, patio} G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

86 Beispiel: Bayes-Netz SW JZ s h w f ja nein JZ JZ s 0.25 h 0.25 w 0.25 f 0.25 PZ FZ 0.06 MZ 0.12 K 0.82 PZ SW A leit A leit SW ja nein p p A mit A mit PZ SW A leit = 36 Wahrscheinlichkeiten G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

87 Beispiel: MaxEnt Wir legen die folgende probabilistische Wissensbasis an: KB prob ixdhl : (A mit = m P Z = MZ) [0.8] (A mit = c P Z = F Z) [0.6] (A mit = c P Z = MZ P Z = K) [0.2] (A mit = p SW = ja) [0.1] (A leit = p A mit = p) [0.9] (A leit = p SW = ja) [0.2] (A mit = h P Z = K) [0.7] (SW = ja JZ = s) [0.8] (SW = ja JZ = h) [0.5] (SW = ja JZ = w) [0.1] (SW = ja JZ = f) [0.6] G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

88 Beispiel: MaxEnt Wir legen die folgende probabilistische Wissensbasis an: KB prob ixdhl : (A mit = m P Z = MZ) [0.8] (A mit = c P Z = F Z) [0.6] (A mit = c P Z = MZ P Z = K) [0.2] (A mit = p SW = ja) [0.1] (A leit = p A mit = p) [0.9] (A leit = p SW = ja) [0.2] (A mit = h P Z = K) [0.7] (SW = ja JZ = s) [0.8] (SW = ja JZ = h) [0.5] (SW = ja JZ = w) [0.1] (SW = ja JZ = f) [0.6] Anfrage: ME(KB prob ixdhl ) = (A mit = c P Z = F Z SW = ja) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

89 Beispiel: MaxEnt Wir legen die folgende probabilistische Wissensbasis an: KB prob ixdhl : (A mit = m P Z = MZ) [0.8] (A mit = c P Z = F Z) [0.6] (A mit = c P Z = MZ P Z = K) [0.2] (A mit = p SW = ja) [0.1] (A leit = p A mit = p) [0.9] (A leit = p SW = ja) [0.2] (A mit = h P Z = K) [0.7] (SW = ja JZ = s) [0.8] (SW = ja JZ = h) [0.5] (SW = ja JZ = w) [0.1] (SW = ja JZ = f) [0.6] Anfrage: ME(KB prob ixdhl ) = (A mit = c P Z = F Z SW = ja) [ ] G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

90 Dempster-Shafer-Theorie Übersicht Kapitel Wahrscheinlichkeiten und probabilistische Netzwerke 4.2 Dempster-Shafer/Evidenz-Theorie 4.3 Fuzzy-Logik G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

91 Kapitel 4 Dempster-Shafer-Theorie 4. Wahrscheinlichkeiten & Co. 4.2 Dempster-Shafer/Evidenz-Theorie G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

92 Dempster-Shafer-Theorie Übersicht Kapitel 4.2 Verallgemeinerte Wahrscheinlichkeiten G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

93 Dempster-Shafer-Theorie Übersicht Kapitel 4.2 Verallgemeinerte Wahrscheinlichkeiten Grundbegriffe: Basismaß, Glaubens- und Plausibilitätsfunktionen G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

94 Dempster-Shafer-Theorie Übersicht Kapitel 4.2 Verallgemeinerte Wahrscheinlichkeiten Grundbegriffe: Basismaß, Glaubens- und Plausibilitätsfunktionen Grundmethodik: Kombinationsregel G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

95 Dempster-Shafer-Theorie Übersicht Kapitel 4.2 Verallgemeinerte Wahrscheinlichkeiten Grundbegriffe: Basismaß, Glaubens- und Plausibilitätsfunktionen Grundmethodik: Kombinationsregel Beispiele G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

96 Dempster-Shafer-Theorie Das PPM-Paradoxon Probabilistik eignet sich gut zur Darstellung von Unsicherheit, aber nicht unbedingt zur Darstellung von Unwissenheit! G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

97 Dempster-Shafer-Theorie Das PPM-Paradoxon Probabilistik eignet sich gut zur Darstellung von Unsicherheit, aber nicht unbedingt zur Darstellung von Unwissenheit! Die Peter, Paul & Mary-Story Peter, Paul und Mary sind Profikiller, einer von ihnen hat Mr Jones ermordet; Inspektor Smith ist bisher noch vollkommen ratlos wer von den dreien war es? G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

98 Dempster-Shafer-Theorie Das PPM-Paradoxon Probabilistik eignet sich gut zur Darstellung von Unsicherheit, aber nicht unbedingt zur Darstellung von Unwissenheit! Die Peter, Paul & Mary-Story Peter, Paul und Mary sind Profikiller, einer von ihnen hat Mr Jones ermordet; Inspektor Smith ist bisher noch vollkommen ratlos wer von den dreien war es? P (Mary) = 1 3 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

99 Dempster-Shafer-Theorie Das PPM-Paradoxon Probabilistik eignet sich gut zur Darstellung von Unsicherheit, aber nicht unbedingt zur Darstellung von Unwissenheit! Die Peter, Paul & Mary-Story Peter, Paul und Mary sind Profikiller, einer von ihnen hat Mr Jones ermordet; Inspektor Smith ist bisher noch vollkommen ratlos wer von den dreien war es? P (Mary) = 1 3 war es ein Mann oder eine Frau? G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

100 Dempster-Shafer-Theorie Das PPM-Paradoxon Probabilistik eignet sich gut zur Darstellung von Unsicherheit, aber nicht unbedingt zur Darstellung von Unwissenheit! Die Peter, Paul & Mary-Story Peter, Paul und Mary sind Profikiller, einer von ihnen hat Mr Jones ermordet; Inspektor Smith ist bisher noch vollkommen ratlos wer von den dreien war es? P (Mary) = 1 3 war es ein Mann oder eine Frau? P (Mary) = 1 2 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

101 Dempster-Shafer-Theorie Das PPM-Paradoxon Probabilistik eignet sich gut zur Darstellung von Unsicherheit, aber nicht unbedingt zur Darstellung von Unwissenheit! Die Peter, Paul & Mary-Story Peter, Paul und Mary sind Profikiller, einer von ihnen hat Mr Jones ermordet; Inspektor Smith ist bisher noch vollkommen ratlos wer von den dreien war es? P (Mary) = 1 3 war es ein Mann oder eine Frau? P (Mary) = 1 2 Bei der Verwendung von Wahrscheinlichkeiten geht auch immer Wissen über die Grundgesamtheit betrachteter Merkmale mit ein! G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

102 Dempster-Shafer-Theorie Verallgemeinerte Wahrscheinlichkeiten 1/4 Eine Funktion F : 2 Ω [0, 1] heißt (normalisierte) Kapazität, wenn gilt: Normalisierung: F (Ω) = 1; Monotonie: Für alle A, B Ω, A B, gilt: F (A) F (B). G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

103 Dempster-Shafer-Theorie Verallgemeinerte Wahrscheinlichkeiten 1/4 Eine Funktion F : 2 Ω [0, 1] heißt (normalisierte) Kapazität, wenn gilt: Normalisierung: F (Ω) = 1; Monotonie: Für alle A, B Ω, A B, gilt: F (A) F (B). Wahrscheinlichkeitsfunktionen sind auch Kapazitäten, nicht jedoch umgekehrt: Kapazitäten sind i.allg. nicht additiv. Insbesondere ist bei einer Kapazität im Allgemeinen F (A) 1 F (A) (wobei A das Komplement von A bezeichnet). G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

104 Dempster-Shafer-Theorie Verallgemeinerte Wahrscheinlichkeiten 2/4 Seien F, G : 2 Ω [0, 1] Kapazitäten. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

105 Dempster-Shafer-Theorie Verallgemeinerte Wahrscheinlichkeiten 2/4 Seien F, G : 2 Ω [0, 1] Kapazitäten. F und G heißen dual zueinander, wenn für jedes A Ω gilt F (A) = 1 G(A) und G(A) = 1 F (A) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

106 Dempster-Shafer-Theorie Verallgemeinerte Wahrscheinlichkeiten 2/4 Seien F, G : 2 Ω [0, 1] Kapazitäten. F und G heißen dual zueinander, wenn für jedes A Ω gilt F (A) = 1 G(A) und G(A) = 1 F (A) Eine Wahrscheinlichkeitsfunktion ist offensichtlich dual zu sich selbst. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

107 Dempster-Shafer-Theorie Verallgemeinerte Wahrscheinlichkeiten 3/4 Um Unwissenheit über Wahrscheinlichkeiten auszudrücken, legt man sich nicht auf eine Wahrscheinlichkeitsfunktion fest, sondern betrachtet Mengen von Wahrscheinlichkeitsfunktionen. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

108 Dempster-Shafer-Theorie Verallgemeinerte Wahrscheinlichkeiten 3/4 Um Unwissenheit über Wahrscheinlichkeiten auszudrücken, legt man sich nicht auf eine Wahrscheinlichkeitsfunktion fest, sondern betrachtet Mengen von Wahrscheinlichkeitsfunktionen. Dabei legen untere und obere Wahrscheinlichkeitsschranken den Spielraum möglicher Wahrscheinlichkeiten fest: Sei Π eine nichtleere Menge von Wahrscheinlichkeitsfunktionen über derselben Menge Ω. Für jede Menge A Ω sind untere Wahrscheinlichkeitsschranke Π u und obere Wahrscheinlichkeitsschranke Π o wie folgt definiert: Π u (A) = inf{p (A) P Π} Π o (A) = sup{p (A) P Π} G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

109 Dempster-Shafer-Theorie PPM-Beispiel (Forts.) Inspektor Smith hat in der Mordsache Jones ermittelt und Mary (mit einer Täterwahrscheinlichkeit von mindestens 0.5) und Paul (mit einer Täterwahrscheinlichkeit von mindestens 0.4) als Hauptverdächtige ausgemacht. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

110 Dempster-Shafer-Theorie PPM-Beispiel (Forts.) Inspektor Smith hat in der Mordsache Jones ermittelt und Mary (mit einer Täterwahrscheinlichkeit von mindestens 0.5) und Paul (mit einer Täterwahrscheinlichkeit von mindestens 0.4) als Hauptverdächtige ausgemacht. Die gesuchte Wahrscheinlichkeitsfunktion ist also eine aus der Menge Π = {P P (Mary) 0.5, P (Paul) 0.4} G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

111 Dempster-Shafer-Theorie PPM-Beispiel (Forts.) Inspektor Smith hat in der Mordsache Jones ermittelt und Mary (mit einer Täterwahrscheinlichkeit von mindestens 0.5) und Paul (mit einer Täterwahrscheinlichkeit von mindestens 0.4) als Hauptverdächtige ausgemacht. Die gesuchte Wahrscheinlichkeitsfunktion ist also eine aus der Menge Π = {P P (Mary) 0.5, P (Paul) 0.4} Als untere und obere Wahrscheinlichkeitsschranken ergeben sich dann Π u (Mary) = 0.5 Π o (Mary) = 0.6 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

112 Dempster-Shafer-Theorie PPM-Beispiel (Forts.) Inspektor Smith hat in der Mordsache Jones ermittelt und Mary (mit einer Täterwahrscheinlichkeit von mindestens 0.5) und Paul (mit einer Täterwahrscheinlichkeit von mindestens 0.4) als Hauptverdächtige ausgemacht. Die gesuchte Wahrscheinlichkeitsfunktion ist also eine aus der Menge Π = {P P (Mary) 0.5, P (Paul) 0.4} Als untere und obere Wahrscheinlichkeitsschranken ergeben sich dann Π u (Mary) = 0.5 Π o (Mary) = 0.6 Π u (Paul) = 0.4 Π o (Paul) = 0.5 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

113 Dempster-Shafer-Theorie PPM-Beispiel (Forts.) Inspektor Smith hat in der Mordsache Jones ermittelt und Mary (mit einer Täterwahrscheinlichkeit von mindestens 0.5) und Paul (mit einer Täterwahrscheinlichkeit von mindestens 0.4) als Hauptverdächtige ausgemacht. Die gesuchte Wahrscheinlichkeitsfunktion ist also eine aus der Menge Π = {P P (Mary) 0.5, P (Paul) 0.4} Als untere und obere Wahrscheinlichkeitsschranken ergeben sich dann Π u (Mary) = 0.5 Π o (Mary) = 0.6 Π u (Paul) = 0.4 Π o (Paul) = 0.5 Π u (Peter) = 0.0 Π o (Peter) = 0.1 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

114 Dempster-Shafer-Theorie Verallgemeinerte Wahrscheinlichkeiten 4/4 Ist Π eine nichtleere Menge von Wahrscheinlichkeitsfunktionen, so sind die zugehörigen unteren und oberen Wahrscheinlichkeitsschranken, Π u und Π o, zueinander duale Kapazitäten. G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

115 Dempster-Shafer-Theorie Verallgemeinerte Wahrscheinlichkeiten 4/4 Ist Π eine nichtleere Menge von Wahrscheinlichkeitsfunktionen, so sind die zugehörigen unteren und oberen Wahrscheinlichkeitsschranken, Π u und Π o, zueinander duale Kapazitäten. Untere und obere Wahrscheinlichkeitsschranken lieferten die Grundidee für die Dempster-Shafer-Theorie: Glaubens-Funktionen 2 Ω [0, 1] ( untere Wahrscheinlichkeitsfunktionen) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

116 Dempster-Shafer-Theorie Verallgemeinerte Wahrscheinlichkeiten 4/4 Ist Π eine nichtleere Menge von Wahrscheinlichkeitsfunktionen, so sind die zugehörigen unteren und oberen Wahrscheinlichkeitsschranken, Π u und Π o, zueinander duale Kapazitäten. Untere und obere Wahrscheinlichkeitsschranken lieferten die Grundidee für die Dempster-Shafer-Theorie: Glaubens-Funktionen 2 Ω [0, 1] ( untere Wahrscheinlichkeitsfunktionen) Plausibilitäts-Funktionen 2 Ω [0, 1] ( obere Wahrscheinlichkeitsfunktionen) G. Kern-Isberner (TU Dortmund) DVEW WS 2015/ / 267

Darstellung, Verarbeitung und Erwerb von Wissen

Darstellung, Verarbeitung und Erwerb von Wissen Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund WiSe 2016/17 G. Kern-Isberner (TU Dortmund) DVEW WiSe 2016/17 1 / 267 Kapitel 4 Wahrscheinlichk.

Mehr

Commonsense Reasoning

Commonsense Reasoning Commonsense Reasoning Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Sommersemester 2015 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 232 Kapitel 4 4. Probabilistische Folgerungsmodelle

Mehr

Darstellung, Verarbeitung und Erwerb von Wissen

Darstellung, Verarbeitung und Erwerb von Wissen Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund WiSe 2016/17 G. Kern-Isberner (TU Dortmund) DVEW WiSe 2016/17 1 / 267 Kapitel 4 4. Wahrscheinlichkeiten

Mehr

Commonsense Reasoning

Commonsense Reasoning Commonsense Reasoning Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Sommersemester 2015 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 232 Probabilistische Folgerungsmodelle

Mehr

Darstellung, Verarbeitung und Erwerb von Wissen

Darstellung, Verarbeitung und Erwerb von Wissen Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Wintersemester 2015/16 WS 2015/16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/16 1 / 267

Mehr

Commonsense Reasoning

Commonsense Reasoning Commonsense Reasoning Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Sommersemester 2017 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 232 Kapitel 4 Grundideen probabilistischen

Mehr

Logik. Gabriele Kern-Isberner LS 1 Information Engineering. TU Dortmund Wintersemester 2014/15 WS 2014/15

Logik. Gabriele Kern-Isberner LS 1 Information Engineering. TU Dortmund Wintersemester 2014/15 WS 2014/15 Logik Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Wintersemester 2014/15 WS 2014/15 G. Kern-Isberner (TU Dortmund) Logik WS 2014/15 1 / 125 Übersicht Modallogik 5. Grundlagen 6. Erfüllbarkeit

Mehr

Methoden wissensbasierter Systeme

Methoden wissensbasierter Systeme Christoph Beierle Gabriele Kern-Isberner Methoden wissensbasierter Systeme Grundlagen - Algorithmen - Anwendungen 2., überarbeitete und erweiterte Auflage vieweg ix Vorwort zur 2., erweiterten Auflage

Mehr

3.3 Default-Logiken Reiter sche Default-Logik

3.3 Default-Logiken Reiter sche Default-Logik Darstellung, Verarbeitung und Erwerb von Wissen 3.3 Default-Logiken 3.3.1 Reiter sche Default-Logik DVEW WS 2004/05 c Gabriele Kern-Isberner 1 Prozesse (Whlg.) Default-Prozesse sind (endliche) Folgen Π

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Definition der Entropie unter Verwendung von supp(p XY )

Definition der Entropie unter Verwendung von supp(p XY ) Definition der Entropie unter Verwendung von supp(p XY ) Wir fassen die Ergebnisse des letzten Abschnitts nochmals kurz zusammen, wobei wir von der zweidimensionalen Zufallsgröße XY mit der Wahrscheinlichkeitsfunktion

Mehr

Statistik für Ingenieure Vorlesung 2

Statistik für Ingenieure Vorlesung 2 Statistik für Ingenieure Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 24. Oktober 2016 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen

Mehr

Darstellung, Verarbeitung und Erwerb von Wissen

Darstellung, Verarbeitung und Erwerb von Wissen Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Wintersemester 2015/16 WS 2015/16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/16 1 / 267

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Aufgaben zur Verbandstheorie

Aufgaben zur Verbandstheorie TU Bergakademie Freiberg WS 2005/06 Institut für Diskrete Mathematik & Algebra Prof. Dr. Udo Hebisch Aufgaben zur Verbandstheorie 1. Für ein beliebiges n IN sei X n die Menge aller Teiler von n. Definiert

Mehr

Roman Firstein. Maximum Entropy Markov Models for Information Extraction and Segmentation

Roman Firstein. Maximum Entropy Markov Models for Information Extraction and Segmentation Maximum Entropy Markov Models (MEMM) for Information Extraction and Segmentation Roman Firstein 09.10.07 Maximum Entropy Markov Models for Information Extraction and Segmentation Vortrag - Vorwort - Modell

Mehr

Darstellung, Verarbeitung und Erwerb von Wissen

Darstellung, Verarbeitung und Erwerb von Wissen Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund WiSe 2017/18 G. Kern-Isberner (TU Dortmund) DVEW WiSe 2017/18 1 / 265 Struktur der DVEW 1

Mehr

Methoden wissensbasierter

Methoden wissensbasierter Christoph Beierle I Gabriele Kern-Isberner Methoden wissensbasierter Systeme Grundlagen, Algorithmen, Anwendungen 4., verbesserte Auflage Mit 147 Abbildungen STUDIUM VIEWEG+ 'reubner xiii Vorwort zur 1.

Mehr

Kapitel 1.5 und 1.6. Ein adäquater Kalkül der Aussagenlogik

Kapitel 1.5 und 1.6. Ein adäquater Kalkül der Aussagenlogik Kapitel 1.5 und 1.6 Ein adäquater Kalkül der Aussagenlogik Teil 1: Kalküle und Beweisbarkeit und die Korrektheit des Shoenfield-Kalküls Mathematische Logik (WS 2010/11) Kapitel 1.5 und 1.6: Kalküle 1 /

Mehr

Was bisher geschah Klassische Aussagenlogik zur Modellierung von Aussagen Syntax: Formeln

Was bisher geschah Klassische Aussagenlogik zur Modellierung von Aussagen Syntax: Formeln Was bisher geschah Klassische Aussagenlogik zur Modellierung von Aussagen Syntax: Formeln induktive Definition der Menge AL(P) (Baumstruktur) strukturelle Induktion (Funktionen, Nachweise) syntaktische

Mehr

Multivariate Zufallsvariablen

Multivariate Zufallsvariablen Kapitel 7 Multivariate Zufallsvariablen 7.1 Diskrete Zufallsvariablen Bisher haben wir immer nur eine Zufallsvariable betrachtet. Bei vielen Anwendungen sind aber mehrere Zufallsvariablen von Interesse.

Mehr

Kapitel 8 Probabilistische und Possibilistische Logik. 23. Juni 2005

Kapitel 8 Probabilistische und Possibilistische Logik. 23. Juni 2005 Kapitel 8 Probabilistische und Possibilistische Logik 23. Juni 2005 Zusammenfassung Kapitel 1-2 Grundlagen, Kapitel 3 Fuzzy-Mengen und -Relationen, Kapitel 4 Erweiterung des klassischen Beweisbegriffes,

Mehr

Statistik I für Betriebswirte Vorlesung 2

Statistik I für Betriebswirte Vorlesung 2 Statistik I für Betriebswirte Vorlesung 2 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. April 2018 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 2 Version: 9. April

Mehr

1.3 Stochastische Unabhängigkeit und bedingte

1.3 Stochastische Unabhängigkeit und bedingte 1.3 Stochastische Unabhängigkeit und bedingte Wahrscheinlichkeiten Ziel: komplexere Modelle aus Verkettung ( Koppelung ) von Zufallsexperimenten bauen, insbesondere Ziehung von n-personen aus n-maliger

Mehr

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen

Mehr

Kapitel II Funktionen reeller Variabler

Kapitel II Funktionen reeller Variabler Kapitel II Funktionen reeller Variabler D (Funktion) Es sei f XxY eine Abbildung Die Abbildung f heiß Funktion, falls sie eindeutig ist Man schreibt dann auch: f : X Y f ( x) = y, wobei y das (eindeutig

Mehr

Übungen zur Wahrscheinlichkeitstheorie und Statistik

Übungen zur Wahrscheinlichkeitstheorie und Statistik Übungen zur Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank Blatt 0 vom 16. April 2012 Aufgabe 1 (Wahrscheinlichkeitsräume). Welche der folgenden Aussagen sind wahr? Begründen Sie jeweils

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Topologische Räume und stetige Abbildungen

Topologische Räume und stetige Abbildungen TU Dortmund Mathematik Fakultät Proseminar Lineare Algebra Ausarbeitung zum Thema Topologische Räume und stetige Abbildungen Julia Schmidt Dozent: Prof. Dr. L. Schwachhöfer Datum: 29.11.2013 Inhaltsverzeichnis

Mehr

Übersicht. Künstliche Intelligenz: 13. Unsicherheiten Frank Puppe 1

Übersicht. Künstliche Intelligenz: 13. Unsicherheiten Frank Puppe 1 Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 13. Unsicherheiten 14. Probabilistisches Schließen 15. Probabilistisches

Mehr

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis Stochastische Prozesse: Grundlegende Begriffe bei zufälligen Prozessen In diesem Abschnitt beschäftigen wir uns mit den grundlegenden Begriffen und Definitionen von Zufallsexperimenten, also Prozessen,

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 3. Vorlesung - 21.10.2016 Bedingte Wahrscheinlichkeit In einer Urne sind 2 grüne und 3 blaue Kugeln. 2 Kugeln werden ohne Zürücklegen gezogen. Welches ist die Wahrscheinlichkeit, dass : a) man eine grüne

Mehr

Einführung in die mathematische Logik

Einführung in die mathematische Logik Prof. Dr. H. Brenner Osnabrück SS 2014 Einführung in die mathematische Logik Vorlesung 5 Das Lemma von Zorn Wir möchten im Folgenden zeigen, dass eine widerpruchsfreie Menge Γ L V von Aussagen nicht nur

Mehr

Bayesianische Netzwerke - Lernen und Inferenz

Bayesianische Netzwerke - Lernen und Inferenz Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel

Mehr

Überblick. 3. Mathematische Grundlagen 3.1 Mengen und Abbildungen 3.2 Induktion und Rekursion 3.3 Boolsche Algebra

Überblick. 3. Mathematische Grundlagen 3.1 Mengen und Abbildungen 3.2 Induktion und Rekursion 3.3 Boolsche Algebra Überblick 3. Mathematische Grundlagen 3.1 Mengen und Abbildungen 3.2 3.3 Boolsche Algebra Peer Kröger (LMU München) Einführung in die Programmierung WS 14/15 72 / 179 Beweisprinzip der vollständigen Induktion

Mehr

6: Diskrete Wahrscheinlichkeit

6: Diskrete Wahrscheinlichkeit Stefan Lucks Diskrete Strukturen (WS 2009/10) 219 6: Diskrete Wahrscheinlichkeit 6: Diskrete Wahrscheinlichkeit Stefan Lucks Diskrete Strukturen (WS 2009/10) 220 Wahrscheinlichkeitsrechnung Eines der wichtigsten

Mehr

Kapitel 4: Bedingte Entropie

Kapitel 4: Bedingte Entropie Kapitel 4: Bedingte Entropie Bedingte Entropie Das vorherige Theorem kann durch mehrfache Anwendung direkt verallgemeinert werden N 2... N i i Ebenso kann die bedingt Entropie definiert werden Definition:

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

Evidenzpropagation in Bayes-Netzen und Markov-Netzen

Evidenzpropagation in Bayes-Netzen und Markov-Netzen Einleitung in Bayes-Netzen und Markov-Netzen Thomas Thüm 20. Juni 2006 1/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen Übersicht Einleitung Motivation Einordnung der Begriffe 1 Einleitung Motivation

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Aufgabenstellung und Ergebnisse zur. Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2018/19

Aufgabenstellung und Ergebnisse zur. Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2018/19 Aufgabenstellung und Ergebnisse zur Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 08/9 PD Dr. Martin Becker Hinweise für die Klausurteilnehmer ˆ Die Klausur besteht

Mehr

Die Prädikatenlogik erster Stufe: Syntax und Semantik

Die Prädikatenlogik erster Stufe: Syntax und Semantik Die Prädikatenlogik erster Stufe: Syntax und Semantik 1 Mathematische Strukturen und deren Typen Definition 1.1 Eine Struktur A ist ein 4-Tupel A = (A; (R A i i I); (f A j j J); (c A k k K)) wobei I, J,

Mehr

Konzepte der AI. Unsicheres Schließen

Konzepte der AI. Unsicheres Schließen Konzepte der AI Unsicheres Schließen http://www.dbai.tuwien.ac.at/education/aikonzepte/ Wolfgang Slany Institut für Informationssysteme, Technische Universität Wien mailto: wsi@dbai.tuwien.ac.at, http://www.dbai.tuwien.ac.at/staff/slany/

Mehr

Darstellung, Verarbeitung und Erwerb von Wissen

Darstellung, Verarbeitung und Erwerb von Wissen Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Wintersemester 2015/16 WS 2015/16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/16 1 / 60 Organisatorisches,

Mehr

Kapitel 6 Wahrheitsfunktionale Fuzzy-Logik. 10. Juni 2005

Kapitel 6 Wahrheitsfunktionale Fuzzy-Logik. 10. Juni 2005 Kapitel 6 Wahrheitsfunktionale Fuzzy-Logik 10. Juni 2005 Zusammenfassung Wahrheitsfunktionale Fuzzy-Semantik besteht aus Mengen aller wahrheitsfunktionalen Belegungen von Formeln, jedem Modell in M entspricht

Mehr

Aufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen

Aufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen Ü b u n g 1 Aufgabe 1 Die Ereignisse A, B und C erfüllen die Bedingungen P(A) = 0. 7, P(B) = 0. 6, P(C) = 0. 5 P(A B) = 0. 4, P(A C) = 0. 3, P(B C) = 0. 2, P(A B C) = 0. 1 Bestimmen Sie P(A B), P(A C),

Mehr

1 Umkehrfunktionen und implizite Funktionen

1 Umkehrfunktionen und implizite Funktionen Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13

Mehr

Algebraische Kurven - Vorlesung 29. Projektion weg von einem Punkt

Algebraische Kurven - Vorlesung 29. Projektion weg von einem Punkt Algebraische Kurven - Vorlesung 29 Definition 1. Die Abbildung P n K Projektion weg von einem Punkt {(1, 0,..., 0)} Pn 1 K, (x 0, x 1...,x n ) (x 1,..., x n ), heißt die Projektion weg vom Punkt (1, 0,...,

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Konvexe Optimierungsprobleme

Konvexe Optimierungsprobleme von: Veronika Kühl 1 Konvexe Optimierungsprobleme Betrachtet werden Probleme der Form (P) min x C f(x) wobei f : C R eine auf C konvexe, aber nicht notwendigerweise differenzierbare Funktion ist. Ziel

Mehr

15. September 2010 Prof. Dr. W. Bley. Universität Kassel Klausur SS 2010 Diskrete Strukturen I (Informatik) Name:... Matr.-Nr.:... Viel Erfolg!

15. September 2010 Prof. Dr. W. Bley. Universität Kassel Klausur SS 2010 Diskrete Strukturen I (Informatik) Name:... Matr.-Nr.:... Viel Erfolg! 15. September 010 Prof. Dr. W. Bley Universität Kassel Klausur SS 010 Diskrete Strukturen I (Informatik) 1 3 4 5 6 Name:................................................ Matr.-Nr.:............................................

Mehr

5 Assoziationsmessung in Kontingenztafeln

5 Assoziationsmessung in Kontingenztafeln 5 Assoziationsmessung in Kontingenztafeln 51 Multivariate Merkmale 51 Multivariate Merkmale Gerade in der Soziologie ist die Analyse eindimensionaler Merkmale nur der allererste Schritt zur Beschreibung

Mehr

Kapitel 6 Wahrheitsfunktionale Fuzzy-Logik. 2. Juni 2005

Kapitel 6 Wahrheitsfunktionale Fuzzy-Logik. 2. Juni 2005 Kapitel 6 Wahrheitsfunktionale Fuzzy-Logik 2. Juni 2005 Übersicht Wahrheitsfunktionale Fuzzy-Semantik, Eigenschaften, Lukasiewicz-Fuzzy-Logik, McNaughtons Theorem, Nichtstetige Wahrheitsfunktionale Fuzzy-Logik.

Mehr

Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1

Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1 Mathematische Grundlagen III Informationstheorie 20 Juni 20 / Informationstheorie Ein Gerüst, um über den Informationsgehalt von (linguistischen) Ereignissen nachzudenken Einige Beispiele für Anwendungen:

Mehr

3.3 Bayes-Entscheidungen in der virtuellen Risikosituation

3.3 Bayes-Entscheidungen in der virtuellen Risikosituation 3.3 Bayes-Entscheidungen in der virtuellen Risikosituation 183 3.3.1 Entscheiden in der Risikosituation 184 Bsp. 3.36 (Beispiel: Lotterie vgl. Bsp. in Abschnitt 1.3.2) Urne mit g (hier: 50) grünen, b (30)

Mehr

Was bisher geschah. Klassische Prädikatenlogik (der ersten Stufe): Syntax Modellierungsbeispiele

Was bisher geschah. Klassische Prädikatenlogik (der ersten Stufe): Syntax Modellierungsbeispiele Was bisher geschah Klassische Aussagenlogik zur Modellierung von Aussagen Syntax: induktive Definition der Menge AL(P) (Baumstruktur) strukturelle Induktion (Funktionen, Nachweise) Semantik: Belegungen

Mehr

Formale Systeme. Aussagenlogik: Syntax und Semantik. Prof. Dr. Bernhard Beckert, WS 2015/2016.

Formale Systeme. Aussagenlogik: Syntax und Semantik. Prof. Dr. Bernhard Beckert, WS 2015/2016. Formale Systeme Prof. Dr. Bernhard Beckert, WS 2015/2016 Aussagenlogik: Syntax und Semantik KIT I NSTITUT F U R T HEORETISCHE I NFORMATIK KIT Universita t des Landes Baden-Wu rttemberg und nationales Forschungszentrum

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Kapitel 6 Lineare Gleichungssysteme 6. Gaußalgorithmus Aufgabe 6. : Untersuchen Sie die folgenden linearen Gleichungssysteme mit dem Gaußalgorithmus auf Lösbarkeit und bestimmen Sie jeweils die Lösungsmenge.

Mehr

3.5 Duale Vektorräume und Abbildungen

3.5 Duale Vektorräume und Abbildungen 3.5. DUALE VEKTORRÄUME UND ABBILDUNGEN 103 3.5 Duale Vektorräume und Abbildungen Wir wollen im Folgenden auch geometrische Zusammenhänge mathematisch beschreiben und beginnen deshalb jetzt mit der Einführung

Mehr

Stochastische Lernalgorithmen

Stochastische Lernalgorithmen Stochastische Lernalgorithmen Gerhard Jäger 14. Mai 2003 Das Maximum-Entropy-Prinzip Der Entropiebegriff Entropie: Chaos, Unordung, Nicht-Vorhersagbarkeit,... Begriff kommt ursprünglich aus der Physik:

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Wintersemester 2014/15 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax

Mehr

Vorwort zur 1. Auflage Vorwort zur 5., überarbeiteten und erweiterten Auflage

Vorwort zur 1. Auflage Vorwort zur 5., überarbeiteten und erweiterten Auflage xi Vorwort zur 1. Auflage Vorwort zur 5., überarbeiteten und erweiterten Auflage vii ix xi 1 Einleitung 1 1.1 Über dieses Buch........................... 1 1.2 Themenbereiche des Buches.....................

Mehr

1.2 Klassen und Mengen

1.2 Klassen und Mengen 14 1.2 Klassen und Mengen Als undefinierten Grundbegriff verwenden wir den Begriff der Klasse. Dieser ist allgemeiner als der Mengenbegriff und wird in der Algebra zur Definition sogenannter Kategorien

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Wichtige Tatsachen und Formeln zur Vorlesung Mathematische Grundlagen für das Physikstudium 3 Franz Embacher http://homepage.univie.ac.at/franz.embacher/

Mehr

Die mittlere Höhe eines Binärbaumes. h(t) = 1 e(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t

Die mittlere Höhe eines Binärbaumes. h(t) = 1 e(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t Höhe von Binärbäumen Die mittlere Höhe eines Binärbaumes h(t) = 1 e(t) b E(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t h(b, t), Höhe von Binärbäumen Die mittlere Höhe eines

Mehr

Darstellung, Verarbeitung und Erwerb von Wissen

Darstellung, Verarbeitung und Erwerb von Wissen Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund WiSe 2018/19 G. Kern-Isberner (TU Dortmund) DVEW WiSe 2018/19 1 / 62 Organisatorisches, Übersicht

Mehr

Kapitel 1.5. Ein adäquater Kalkül der Aussagenlogik. Teil 1: Kalküle und Beweisbarkeit und die Korrektheit des Shoenfield-Kalküls

Kapitel 1.5. Ein adäquater Kalkül der Aussagenlogik. Teil 1: Kalküle und Beweisbarkeit und die Korrektheit des Shoenfield-Kalküls Kapitel 1.5 Ein adäquater Kalkül der Aussagenlogik Teil 1: Kalküle und Beweisbarkeit und die Korrektheit des Shoenfield-Kalküls Mathematische Logik (WS 2012/13) Kapitel 1.5: Kalküle 1/30 Syntaktischer

Mehr

Vorwort zur 1. Auflage Vorwort zur 5., überarbeiteten und erweiterten Auflage. 1 Einleitung Über dieses Buch Themenbereiche des Buches 2

Vorwort zur 1. Auflage Vorwort zur 5., überarbeiteten und erweiterten Auflage. 1 Einleitung Über dieses Buch Themenbereiche des Buches 2 xi Vorwort zur 1. Auflage Vorwort zur 5., überarbeiteten und erweiterten Auflage vii ix xi 1 Einleitung 1 1.1 Über dieses Buch 1 1.2 Themenbereiche des Buches 2 2 Wissensbasierte Systeme im Uberblick 7

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum) Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume II

Allgemeine diskrete Wahrscheinlichkeitsräume II 6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume I

Allgemeine diskrete Wahrscheinlichkeitsräume I 6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 15. Jänner 2017 Evelina Erlacher Inhaltsverzeichnis 1 Mengen 2 2 Wahrscheinlichkeiten 3 3 Zufallsvariablen 5 3.1 Diskrete Zufallsvariablen............................

Mehr

Wahrscheinlichkeitstheorie Kapitel I - Einführende Beispiele

Wahrscheinlichkeitstheorie Kapitel I - Einführende Beispiele Wahrscheinlichkeitstheorie Kapitel I - Einführende Beispiele Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Wahrscheinlichkeitstheorie Agenda:

Mehr

Anwendungsgebiete mehrwertiger Logik. P. H. Schmitt: Nichtklassische Logiken p.1

Anwendungsgebiete mehrwertiger Logik. P. H. Schmitt: Nichtklassische Logiken p.1 Anwendungsgebiete mehrwertiger Logik P. H. Schmitt: Nichtklassische Logiken p.1 Anwendungsgebiete Unabhängigkeitbeweise, Modellierung undefinierter Funktions- und Prädikatswerte in der Spezifikation und

Mehr

Lösungen zur Klausur zur Vorlesung. Mathematik für Informatiker I. (Dr. Frank Hoffmann) Wintersemester 2011/ Februar 2012

Lösungen zur Klausur zur Vorlesung. Mathematik für Informatiker I. (Dr. Frank Hoffmann) Wintersemester 2011/ Februar 2012 Lösungen zur Klausur zur Vorlesung Mathematik für Informatiker I (Dr. Frank Hoffmann) Wintersemester 2011/2012 22. Februar 2012 Aufgabe 1 Logisches und Grundsätzliches /4+4+2 (a) Testen Sie mit dem Resolutionskalkül,

Mehr

Grundlegende Eigenschaften von Punktschätzern

Grundlegende Eigenschaften von Punktschätzern Grundlegende Eigenschaften von Punktschätzern Worum geht es in diesem Modul? Schätzer als Zufallsvariablen Vorbereitung einer Simulation Verteilung von P-Dach Empirische Lage- und Streuungsparameter zur

Mehr

3.1.1 Die Variante T1 und ein Entscheidungsverfahren für die Aussagenlogik

3.1.1 Die Variante T1 und ein Entscheidungsverfahren für die Aussagenlogik Deduktionssysteme der Aussagenlogik, Kap. 3: Tableaukalküle 38 3 Tableaukalküle 3.1 Klassische Aussagenlogik 3.1.1 Die Variante T1 und ein Entscheidungsverfahren für die Aussagenlogik Ein zweites Entscheidungsverfahren

Mehr

Topologische Grundbegriffe in metrischen und topologischen

Topologische Grundbegriffe in metrischen und topologischen KAPITEL 1 Topologische Grundbegriffe in metrischen und topologischen Räumen Die topologischen Grundbegriffe offene Mengen, abgeschlossene Mengen, Inneres einer Menge und Abschließung einer Menge, Stetigkeit

Mehr

Formale Systeme. Prof. Dr. Bernhard Beckert. Winter 2008/2009. Fakultät für Informatik Universität Karlsruhe (TH)

Formale Systeme. Prof. Dr. Bernhard Beckert. Winter 2008/2009. Fakultät für Informatik Universität Karlsruhe (TH) Formale Systeme Prof. Dr. Bernhard Beckert Fakultät für Informatik Universität Karlsruhe (TH) Winter 28/29 Prof. Dr. Bernhard Beckert Formale Systeme Winter 28/29 / 32 Shannon Formeln Shannon Formeln sind

Mehr

Kapitel 1. Holomorphe Funktionen

Kapitel 1. Holomorphe Funktionen Kapitel 1 Holomorphe Funktionen Zur Erinnerung: I IR sei ein offenes Intervall, und sei z 0 I. Eine Funktion f : I IR heißt differenzierbar in z 0, falls der Limes fz fz 0 lim =: f z 0 z z 0 z z 0 existiert.

Mehr

Kapitel MK:V. V. Diagnoseansätze

Kapitel MK:V. V. Diagnoseansätze Kapitel MK:V V. Diagnoseansätze Diagnoseproblemstellung Diagnose mit Bayes Evidenztheorie von Dempster/Shafer Diagnose mit Dempster/Shafer Truth Maintenance Assumption-Based TMS Diagnosis Setting Diagnosis

Mehr

Grundbegriffe der Informatik

Grundbegriffe der Informatik Grundbegriffe der Informatik Einheit 3: Alphabete, Abbildungen, Aussagenlogik Thomas Worsch Karlsruher Institut für Technologie, Fakultät für Informatik Wintersemester 2010/2011 1/32 Überblick Alphabete

Mehr

Diskrete Strukturen I

Diskrete Strukturen I Universität Kassel Fachbereich 10/1 PD Dr. Sebastian Petersen 14.09.2017 Klausur zur Vorlesung Diskrete Strukturen I Es können maximal 40 Punkte erreicht werden. Version mit Lösungsskizze Zur Notation:

Mehr

6.1 Holomorphe Funktionen und Potenzreihen. n=0 α n (z z 0 ) n mit Konvergenzradius größer oder gleich r existiert und

6.1 Holomorphe Funktionen und Potenzreihen. n=0 α n (z z 0 ) n mit Konvergenzradius größer oder gleich r existiert und Funktionentheorie, Woche 6 Analytische Funktionen 6. Holomorphe Funktionen und Potenzreihen Definition 6. Eine Funktion f : U C C nennt man analytisch in z 0 U, wenn es r > 0 gibt mit B r (z 0 ) U derart,

Mehr

Satz 18 (Satz von der totalen Wahrscheinlichkeit)

Satz 18 (Satz von der totalen Wahrscheinlichkeit) Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A 1,..., A n seien paarweise disjunkt und es gelte

Mehr

Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza)

Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza) WS 2013/14 Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ws/ds/uebung/ 22. Januar 2014 ZÜ DS ZÜ XIII

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Überblick. 3. Mathematische Grundlagen 3.1 Mengen und Abbildungen 3.2 Boolsche Algebra 3.3 Induktion und Rekursion

Überblick. 3. Mathematische Grundlagen 3.1 Mengen und Abbildungen 3.2 Boolsche Algebra 3.3 Induktion und Rekursion Überblick 3. Mathematische Grundlagen 3.1 Mengen und Abbildungen 3.2 Boolsche Algebra 3.3 Peer Kröger (LMU München) Einführung in die Programmierung WS 16/17 92 / 708 Beweisprinzip der vollständigen Induktion

Mehr

( ) ( ) < b k, 1 k n} (2) < x k

( ) ( ) < b k, 1 k n} (2) < x k Technische Universität Dortmund Fakultät für Mathematik Proseminar Analysis Prof. Dr. Röger Benjamin Czyszczon Satz von Heine Borel Gliederung 1. Zellen und offene Überdeckungen 2. Satz von Heine Borel

Mehr

Commonsense Reasoning

Commonsense Reasoning Commonsense Reasoning Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Sommersemester 2014 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 45 Übersicht Übungen und Folien zu Commonsense

Mehr

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = x W X Pr[X + Y = z X = x] Pr[X = x] = x W X Pr[Y = z x] Pr[X = x] = x W X f X (x) f Y (z x). Den Ausdruck

Mehr