Lösungshinweise zu Kapitel 13

Größe: px
Ab Seite anzeigen:

Download "Lösungshinweise zu Kapitel 13"

Transkript

1 L-112 Lösungshinweise zu Kapitel 13 zu Selbsttestaufgabe 13.2 (Eigenschaften der bedingten Unabhängigkeit) Sei P eine Wahrscheinlichkeitsverteilung über V. Wir setzen im Folgenden stillschweigend voraus, dass alle auftretenden bedingten Wahrscheinlichkeiten definiert sind, d.h., dass die entsprechenden Nenner positiv sind. Wie üblich bezeichnen fettgedruckte kleine Buchstaben (z. B. a) Vollkonjunktionen über den Variablen der entsprechenden Menge (A). 1. Die Symmetrie von I P ergibt sich sofort aus der Definition der bedingten Unabhängigkeit (siehe auch S. 497). Zerlegbarkeit: Es gelte A P (B D) C, also P(abd c) = P(a c) P(bd c) (L.1) Um A P B C nachzuweisen, muss man P(ab c) = P(a c) P(b c) für beliebige a,b,c zeigen. Der Beweis von A P D C ist ganz analog. P(ab c) = D P(abd c) = P(a c) P(bd c) D = P(a c) P(bd c) D = P(a c) P(b c) (wegen (L.1)) Schwache Vereinigung: Es gelte wieder A P (B D) C, d.h., Gleichung (L.1) gilt. Zu zeigen ist nun P(ab cd) = P(a cd) P(b cd). Aus (L.1) folgt P(abcd) = P(bcd) P(a c) und daher P(a cd) = P(acd) P(cd) B = P(abcd) P(cd) B P(bcd) P(a c) = P(cd) B = P(a c) P(bcd) P(cd) = P(a c)

2 Lösungshinweise zu Kapitel 13 L-113 Dies impliziert weiter was zu zeigen war. Kontraktion: Sei nun A a,b,c,d P(abcd) P(cd) = P(bcd) P(a cd) P(cd) P B C und A P D (C B), d. h. für alle P(ab c) = P(a c) P(b c) P(ad bc) = P(a bc) P(d bc) (L.2) (L.3) Zu zeigen ist A P (B D) C, also P(abd c) = P(a c) P(bd c). Wegen (L.2) und (L.3) gilt Zusammen ergibt das und damit die Behauptung. P(abc) = P(a c) P(bc) und P(abcd) = P(abc) P(bc) P(bcd) P(abcd) = P(a c) P(bcd) 2. Schnitt: Vorausgesetzt ist nun A P B (C D) und A P D (C B); außerdem sei P strikt positiv. Damit gilt zunächst für alle a,b,c,d P(ab cd) = P(a cd) P(b cd) P(ad bc) = P(a bc) P(d bc) und also P(abcd) = P(a cd) P(bcd) = P(a bc) P(bcd) (L.4) Wegen P(bcd) > 0 folgt daraus P(a cd) = P(a bc) und daher P(acd) = P(cd) P(a bc) für alle a,b,c,d. Durch Aufsummation über D erhält man P(ac) = D = D P(acd) P(cd)P(a bc) = P(c)P(a bc)

3 L-114 Lösungshinweise zu Kapitel 13 und damit P(a c) = P(a bc) Ebenso sieht man durch Aufsummieren über B P(a c) = P(a cd) Mit der Gleichung (L.4) ergibt sich P(abcd) = P(a c) P(bcd) und schließlich P(abd c) = P(a c) P(bd c) für alle a,b,c,d, d. h. A P (B D) C. zu Selbsttestaufgabe (Markov-Eigenschaften) global Markov lokal Markov: Diese Implikation ist klar, da nb(a) A und V (nb(a) {A}) separiert. lokal Markov paarweise Markov: Seien A, B V verschiedene, nicht benachbarte Knoten. Es gelte die lokale Markov- Eigenschaft, also A P V (nb(a) {A}) nb(a). Da A und B nicht benachbart sind, ist B / nb(a), d. h. B V (nb(a) {A}) und folglich V (nb(a) {A}) = {B} W mit W = V (nb(a) {A, B}). Mit der schwachen Vereinigung (13.3) folgt nun A P B (V {A, B}) wegen nb(a) W = V {A, B}. zu Selbsttestaufgabe (Markov-Graph) 1. Es sei P eine Wahrscheinlichkeitsverteilung über den (binären) Variablen X, Y, Z. Wir zeigen, dass X P Y Z genau dann gilt, wenn P(xy z) = P(x z)p(y z) (L.5) und P(xy z) = P(x z)p(y z) (L.6) Aus der Definition der bedingten Unabhängigkeit (Definition A.32, S. 497) geht hervor, dass X, Y genau dann unabhängig bei gegebenen Z sind, wenn gilt P(X, Y Z) = P(X Z) P(Y Z) Wir zeigen, dass wir für diesen Nachweis nicht alle Ausprägungen von X, Y benötigen, sondern uns auf die in (L.5) und (L.6) gezeigten Fälle beschränken können. Dabei nutzen wir aus, dass für beliebige Variablen A, B, C gilt: P(ab ċ) + P(ab ċ) = P(a ċ) wobei ċ wie üblich eine der möglichen Ausprägungen von C bezeichnet. Damit folgt aus (L.5) und (L.6) die folgende Gleichungskette (ż {z, z}):

4 Lösungshinweise zu Kapitel 13 L-115 P(xy ż) = P(x ż) P(xy ż) = P(x ż) P(x ż) P(y ż) = P(x ż)(1 P(y ż)) = P(x ż) P(y ż) Ebenso zeigt man P(xy ż) = P(x ż) P(y ż) und P(xy ż) = P(x ż) P(y ż). Damit reicht es aus, zum Beweis der bedingten Unabhängigkeit von X, Y bei gegebenem Z die Fälle P(xy z) und P(xy z) zu betrachten. 2. Es sei P die folgende Wahrscheinlichkeitsverteilung über den Variablen A, B und C: A B C P(A, B, C) Wir konstruieren einen Markov-Graphen G 0 = V, E 0 zu P gemäß Theorem 13.7 (S. 418). Die Menge der Knoten V besteht aus den Variablen A, B, C. Um die Menge E 0 der Kanten zu bestimmen, müssen wir überprüfen, ob die folgenden bedingten Unabhängigkeiten gelten: (a) A (b) A (c) B P B C, P C B und P C A. zu (a) Aus der Wahrscheinlichkeitsverteilung P(A, B, C) ergibt sich P(c) = 1 2. Damit berechnet man P(ab c) = P(a c) = P(b c) = P(abc) = 2 1 P(c) 3 = 2 3 P(ac) P(c) = 2 ( ) = = P(bc) P(c) = 2 ( ) = = 4 5 Offensichtlich ist damit P(ab c) P(a c) P(b c), es gilt also nicht A Wir können somit die Kante (A, B) zu E 0 hinzufügen. P B C.

5 L-116 Lösungshinweise zu Kapitel 13 zu (b) Es ist P(b) = 3 5, und daher P(ac b) = P(a b) = P(c b) = P(abc) = 5 P(b) = 5 9 P(ab) P(b) = 5 3 ( ) = = 5 6 P(bc) P(b) = 5 3 ( ) = = 2 3 Wegen = 5 9 gilt hier P(ac b) = P(a b) P(c b). Um die bedingte Unabhängigkeit von A und C bei gegebenem B zu zeigen, müssen jetzt allerdings auch noch die bedingten Wahrscheinlichkeiten P( b) überprüft werden: P(ac b) = P(a b) = P(c b) = P(abc) = 5 P(b) = 1 8 P(ab) P(b) = 5 2 ( ) = = 1 2 P(bc) P(b) = 5 2 ( ) = = 1 4 Es gilt also auch hier P(ac b) = P(a b) P(c b), und mit dem Ergebnis aus Teil 1 folgt daraus A P C B Zwischen den Knoten A und C darf also im Markov-Graphen keine Kante existieren. zu (c) Es bleibt noch, die bedingte Unabhängigkeit von B und C bei gegebenem A zu überprüfen. Mit P(a) = 7 10 ergeben sich die folgenden bedingten Wahrscheinlichkeiten: P(bc a) = P(b a) = P(c a) = P(abc) = 10 P(a) = P(ab) P(a) = 10 7 ( ) = = 5 7 P(ac) P(a) = 10 7 ( ) = = Wegen = gilt P(bc a) P(b a) P(c a). Es ist somit nicht B P C A, und die Kante (B, C) kann ebenfalls zu E 0 hinzufügt werden. Insgesamt haben wir damit den Markov-Graphen G 0 = V, E 0 mit V = {A, B, C} und E 0 = {(A, B), (B, C)} erzeugt (s. Abbildung L.20).

6 Lösungshinweise zu Kapitel 13 L-117 A B C Abbildung L.20 Markov-Graph zu Selbsttestaufgabe zu Selbsttestaufgabe (Pharma-Test) 1. Die gemeinsame Verteilung P über R, V und A ergibt sich sofort aus der angegebenen Tabelle, indem statt der Häufigkeiten die Wahrscheinlichkeiten angegeben werden: R V A Wahrschein- (Raucher) (Vitamingabe) (Atemwegserkrankung) lichkeit Die Randverteilung P über V und A ergibt sich wie folgt: 1 2. V und A sind statistisch abhängig: Es ist beispielsweise V A Anzahl Wahrscheinlichkeit P(V = 1, A = 1) = = = P(V = 1) P(A = 1)

7 L-118 Lösungshinweise zu Kapitel 13 V und A sind jedoch bedingt unabhängig bezüglich R: P(V =1,A=1,R=1) P(V = 1, A = 1 R = 1) = P(R=1) = 6 35 = P(V = 1 R = 1) = = P(A = 1 R = 1) = = 0.6 P(V = 1 R = 1) P(A = 1 R = 1) = = P(V =1,A=1,R=0) P(R=0) = P(V = 1, A = 1 R = 0) = P(V = 1 R = 0) = = P(A = 1 R = 0) = 6 60 = 0.1 P(V = 1 R = 0) P(A = 1 R = 0) = = = In der nachfolgend dargestellten Baumstruktur lässt sich die Strukturgleichheit ebenfalls ablesen: Die Übergangswahrscheinlichkeiten auf der dritten Ebene sind im linken und rechten Teilbaum jeweils gleich. 3. Im Markov-Graph von P werden V und A durch R separiert: A R V

8 Lösungshinweise zu Kapitel 13 L-119 zu Selbsttestaufgabe (Bayessches Netz) Wir benutzen Formel (13.18): P(abcde) = P(a)P(b a)p(c a)p(d bc)p(e c) = = P(a b cde) = P(a)P( b a)p( c a)p(d b c)p(e c) = = Zur Bestimmung von P(āb c) muss marginalisiert werden: P(āb c) = P(āb cde) + P(āb cdē) + P(āb c de) + P(āb c dē) = P(ā)P(b ā)p( c ā)p(d b c)p(e c) + P(ā)P(b ā)p( c ā)p(d b c)p(ē c) + P(ā)P(b ā)p( c ā)p( d b c)p(e c) + P(ā)P(b ā)p( c ā)p( d b c)p(ē c) = P(ā)P(b ā)p( c ā) [(P(d b c) + P( d b c))(p(e c) + P(ē c))] = P(ā)P(b ā)p( c ā) 1 1 = P(ā)P(b ā)p( c ā) = = zu Selbsttestaufgabe (Bayessches Netz) Zur Bestimmung einer Wahrscheinlichkeitsverteilung, die die durch den DAG in Beispiel ausgedrückten Unabhängigkeiten respektiert, sind die folgenden (bedingten) Wahrscheinlichkeiten nötig: P(g) P(h u g) P(h u ḡ) P(w u g) P(w u ḡ) Formel (13.17) hat in diesem Beispiel die Form P(GH u W u ) = P(G)P(H u G)P(W u G)

9 L-120 Lösungshinweise zu Kapitel 13 zu Selbsttestaufgabe (Potentialdarstellung) Wir berechnen für jede der drei Cliquen exemplarisch einen Wert; die übrigen Werte können der Tabelle in Abbildung auf Seite 440 entnommen werden. C 1 : C 2 : C 3 : ψ(abc) = P(a)P(b a)p(c a) = = ψ(bcd) = P(d bc) = 0.80 ψ(ce) = P(e c) = 0.80 zu Selbsttestaufgabe (bedingte Wahrscheinlichkeiten) Aus der Definition von W i,s i,r i folgt W i = R i S i Damit ist P(R i S i ) = P(R i S i ) P(S i ) = P(W i) P(S i ) = P(W i S i ) P(S i ) = P(W i S i ) (da S i W i ) zu Selbsttestaufgabe (Cliquenbaum) 1. Die gemeinsame Verteilung über R, S, H r und W r berechnet sich nach Proposition wie folgt: P(R, S, H r, W r ) = P(R) P(W r R) P(S) P(H r R, S) Wir erhalten damit folgende Verteilung:

10 Lösungshinweise zu Kapitel 13 L-121 R S H r W r P(R, S, H r, W r ) Aus der Verteilung aus Teil 1 ergibt sich: P(W r ) = 0.36 P(H r ) = Den permanenten Cliquenbaum erzeugen wir wie auf Seite 436 beschrieben: Zunächst benötigen wir den moralen Graphen des zum gegebenen Bayesschen Netzwerk gehörenden Graphen. Dieser ist in Abbildung L.21 gegeben. R S W r H r Abbildung L.21 Der morale Graph G m des Los Angeles-Beispiels Als nächstes bestimmen wir mittels maximum cardinality search eine Knotenordnung α: α(w r ) = 1 α(r) = 2 α(s) = 3 α(h r ) = 4 Da der fill-in dieses Graphen keine neuen Kanten enthält, ergibt sich G(α) = G m.

11 L-122 Lösungshinweise zu Kapitel 13 Die in G(α) enthaltenen Cliquen sind C 1 := {R, W r } und C 2 := {R, S, H r } Durch die Nummerierung ist bereits die Ordnung gemäß den höchsten jeweils vorkommenden Knoten gegeben. Die Mengen S i und R i ergeben sich nun wie folgt: S 1 := R 1 = {R, W r } S 2 := {R} R 2 = {S, H r } Wegen S 2 C 1 wählen wir C 1 als Elternclique von C 2. Damit erhalten wir den Cliquenbaum aus Abbildung L.22, in dem die Kanten die Separatoren als Label tragen. C 1 R C 2 Abbildung L.22 Cliquenbaum des Los Angeles-Beispiels Für jeden Knoten des Bayesschen Netzwerks wählen wir nun eine Clique, die diesen Knoten und alle seine Vorgänger enthält: clq(w r ) = C 1 clq(r) = C 2 clq(s) = C 2 clq(h r ) = C 2 Zuletzt benötigen wir noch eine Funktion ψ, die wir wie folgt berechnen können: ψ(c i ) = P(V c(v )) V :clq(v )=C i Für C 1 = {R, W r } erhalten wir also ψ(c 1 ) = P(W r R): R W r ψ(r, W r )

12 Lösungshinweise zu Kapitel 13 L-123 Entsprechend ergibt sich für C 2 = {R, S, H r } ψ(c 2 ) = P(R) P(S) P(H R R, S): R S H r ψ(r, S, H r ) zu Selbsttestaufgabe (Propagationsalgorithmus) Die vollständige Angabe aller Potentialwerte und Wahrscheinlichkeiten für die Cliquen C i in Beispiel findet sich in Abbildung L.23. Wir wollen nur den Schritt zur Berechnung von P(C 3 ) noch näher erläutern. Es ist S 3 = {C} C 2, und wir errechnen aus P(C 2 ) z.b. i Ĉ i Konjunktion ˆψ(neu) (Ĉi) ˆP( Ĉ i ) 1 {A, B, C} abc ab c a bc a b c ābc āb c ā bc ā b c {B, C, D} bcd bc d b cd b c d bcd bc d b cd b c d {C, E} ce cē ce cē Abbildung L.23 Potentialwerte und Wahrscheinlichkeiten für die Cliquen C i in Beispiel 13.42

13 L-124 Lösungshinweise zu Kapitel 13 Damit erhalten wir P(c) = = 0.08 P(ce) = ψ(ce)p(c) = = Die anderen Wahrscheinlichkeiten ergeben sich analog. zu Selbsttestaufgabe (Erdbeben) 1. Wir bestimmen die Elternknoten c(v ) der einzelnen Knoten in {A, D, E, R}: c(d) = c(e) = c(a) = {D, E} c(r) = {E} Die zum obigen Bayesschen Netz gehörige gemeinsame Verteilung über A, D, E, R besitzt demnach die folgende Produktdarstellung (vgl. Proposition 13.26): P(A, D, E, R) = P(D) P(E) P(A D, E) P(R E) Laut Konstruktion gelten im obigen Bayesschen Netz die folgenden Gleichheiten: P(A D, E, R) = P(A D, E) P(D E, R) = P(D ) = P(D) P(E D) = P(E) P(R E, A, D) = P(R E) und damit die folgenden (bedingten) Unabhängigkeiten {A} {D} {E} {R} P {R} {D, E} P {E, R} P {D} P {A, D} {E} 2. Den permanenten Cliquenbaum erzeugen wir wie auf Seite 436 beschrieben: Zunächst benötigen wir den moralen Graphen des zum gegebenen Bayesschen Netzwerk G gehörenden Graphen. Der Knoten A besitzt in G zwei unverbundene Elternknoten, D und E. Zur Konstruktion des moralen Graphen müssen diese beiden verbunden werden, außerdem werden aus gerichteten Kanten ungerichtete Kanten. Damit hat der morale Graph des Bayesschen Netzes die in Abbildung L.24 gezeigte Form.

14 Lösungshinweise zu Kapitel 13 L-125 D E A R Abbildung L.24 Der morale Graph G m der Erdbeben-Aufgabe Als nächstes bestimmen wir mittels maximum cardinality search eine Knotenordnung α: α(d) = 1 α(a) = 2 α(e) = 3 α(r) = 4 Da der morale Graph bereits trianguliert ist, enthält der fill-in dieses Graphen keine neuen Kanten, d.h., es ist G(α) = G m. Die in G(α) enthaltenen Cliquen sind C 1 := {D, E, A} und C 2 := {E, R} Durch die Nummerierung ist bereits die Ordnung gemäß den höchsten jeweils vorkommenden Knoten gegeben. Die Mengen S i und R i, i = 1, 2, ergeben sich nun wie folgt: S 1 := R 1 = C 1 = {D, E, A} S 2 := {E} R 2 = {R} Wegen S 2 C 1 wählen wir C 1 als Elternclique von C 2. Damit erhalten wir den Cliquenbaum aus Abbildung L.25, in dem die Kante den entsprechenden Separator als Label trägt. Für jeden Knoten des Bayesschen Netzwerks wählen wir nun eine Clique, die diesen Knoten und alle seine Vorgänger enthält: clq(d) = C 1 clq(a) = C 1 clq(e) = C 1 clq(r) = C 2 Zuletzt benötigen wir noch für die Potentialdarstellung eine Funktion ψ, die wir wie folgt berechnen können: ψ(c i ) = P(V c(v )) V :clq(v )=C i

15 L-126 Lösungshinweise zu Kapitel 13 C 1 {E} C 2 Abbildung L.25 Cliquenbaum der Erdbeben-Aufgabe Für C 1 = {D, E, A} erhalten wir also ψ(c 1 ) = P(D) P(E) P(A D, E): A D E ψ(a, D, E) Entsprechend ergibt sich für C 2 = {E, R} ψ(c 2 ) = P(R E): E R ψ(r, E) Um die Wahrscheinlichkeitsverteilungen über den Cliquen zu berechnen, folgen wir den Ideen in Abschnitt Für die Cliquen gilt demnach P(C i ) = P(R i S i ) P(S i ), i = 1, 2 Für die Clique C 2 ergibt sich daher sofort P(C 2 ) = ψ(r, E)P(E) und daher die folgende Verteilung: E R P(R, E)

16 Lösungshinweise zu Kapitel 13 L-127 Wir wenden nun Proposition an, um aus der gegebenen Potentialdarstellung ψ eine Potentialdarstellung ψ (1) über C 1 zu gewinnen: ψ (1) (C 1 ) = ψ(c 1 ) R 2 ψ(c 2 ) = ψ(a, D, E) ψ(r, E) R } {{ } =1 = ψ(a, D, E) Um daraus eine Wahrscheinlichkeitsverteilung zu erhalten, müssen wir ψ (1) bzw. ψ nur noch normieren. Man rechnet leicht nach, dass bereits ψ(a, D, E) = 1 ist, also P(A, D, E) = ψ(a, D, E) gilt (s.o.). A,D,E Aus den Cliquenwahrscheinlichkeiten ergeben sich die erfragten Wahrscheinlichkeiten P(A) und P(R) aus den obigen Tabellen durch Aufsummieren: P(A) = und P(R) = zu Selbsttestaufgabe (Propagationsalgorithmus bei Instantiierung) Zunächst muss ˆP(Ĉ1) aus ˆψ (2) berechnet werden. Mit Proposition ist ˆP(Ĉ1) = ˆP( ˆR 1 Ŝ1) = ˆψ (2) (Ĉ1) ˆR ˆψ(2) 1 (Ĉ1) Durch Aufsummieren der entsprechenden Werte in Formel (13.29) auf Seite 445 ergibt sich ˆR 1 ˆψ(2) (Ĉ1) = also z.b. ˆP(abc) = ˆψ (2) (abc) = bzw. Für Ĉ2 ist ˆP(Ĉ2) = ˆψ (neu) (Ĉ2) ˆP(Ŝ2) ˆP(B, C) = ˆψ (neu) (B, C) ˆP(B, C) und ˆP(B, C) kann aus ˆP(Ĉ1) berechnet werden. Es ist z.b. ˆP(bc) = = 0.093

17 L-128 Lösungshinweise zu Kapitel 13 Schließlich ist ˆP(Ĉ3) = ˆψ (neu) (Ĉ3) ˆP(Ŝ3) also z.b. ˆP(ce) = ˆψ (neu) (ce) ˆP(c) = 0.8 ( ) Alle anderen Werte werden analog berechnet und sind in Abbildung aufgelistet.

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

Was bisher geschah Wissensrepräsentation und -verarbeitung in Zustandsübergangssystemen Constraint-Systemen Logiken Repräsentation von Mengen

Was bisher geschah Wissensrepräsentation und -verarbeitung in Zustandsübergangssystemen Constraint-Systemen Logiken Repräsentation von Mengen Was bisher geschah Wissensrepräsentation und -verarbeitung in Zustandsübergangssystemen Constraint-Systemen Logiken Repräsentation von Mengen aussagenlogischer Regeln: Wissensbasis (Kontextwissen): Formelmenge,

Mehr

Trainingsaufgaben zur Klausurvorbereitung in Statistik I und II Thema: Satz von Bayes

Trainingsaufgaben zur Klausurvorbereitung in Statistik I und II Thema: Satz von Bayes Trainingsaufgaben zur Klausurvorbereitung in Statistik I und II Thema: Satz von Bayes Aufgabe 1: Wetterbericht Im Mittel sagt der Wetterbericht für den kommenden Tag zu 60 % schönes und zu 40% schlechtes

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

Zeichnen von Graphen. graph drawing

Zeichnen von Graphen. graph drawing Zeichnen von Graphen graph drawing WS 2006 / 2007 Gruppe: D_rot_Ala0607 Christian Becker 11042315 Eugen Plischke 11042351 Vadim Filippov 11042026 Gegeben sei ein Graph G = (V; E) Problemstellung V E =

Mehr

w a is die Anzahl der Vorkommen von a in w Beispiel: abba a = 2

w a is die Anzahl der Vorkommen von a in w Beispiel: abba a = 2 1 2 Notation für Wörter Grundlagen der Theoretischen Informatik Till Mossakowski Fakultät für Informatik Otto-von-Guericke Universität Magdeburg w a is die Anzahl der Vorkommen von a in w Beispiel: abba

Mehr

Binäre Suchbäume (binary search trees, kurz: bst)

Binäre Suchbäume (binary search trees, kurz: bst) Binäre Suchbäume (binary search trees, kurz: bst) Datenstruktur zum Speichern einer endlichen Menge M von Zahlen. Genauer: Binärbaum T mit n := M Knoten Jeder Knoten v von T ist mit einer Zahl m v M markiert.

Mehr

3.1 Konstruktion von minimalen Spannbäumen Es gibt zwei Prinzipien für die Konstruktion von minimalen Spannbäumen (Tarjan): blaue Regel rote Regel

3.1 Konstruktion von minimalen Spannbäumen Es gibt zwei Prinzipien für die Konstruktion von minimalen Spannbäumen (Tarjan): blaue Regel rote Regel 3.1 Konstruktion von minimalen Spannbäumen Es gibt zwei Prinzipien für die Konstruktion von minimalen Spannbäumen (Tarjan): blaue Regel rote Regel EADS 3.1 Konstruktion von minimalen Spannbäumen 16/36

Mehr

Codierung, Codes (variabler Länge)

Codierung, Codes (variabler Länge) Codierung, Codes (variabler Länge) A = {a, b, c,...} eine endliche Menge von Nachrichten (Quellalphabet) B = {0, 1} das Kanalalphabet Eine (binäre) Codierung ist eine injektive Abbildung Φ : A B +, falls

Mehr

Beispiel. Bsp.: Betrachte Schlussweise in: (3) folgt aus (1) und (2), siehe z.b. Resolutionsregel. was ist mit folgender Schlußweise:

Beispiel. Bsp.: Betrachte Schlussweise in: (3) folgt aus (1) und (2), siehe z.b. Resolutionsregel. was ist mit folgender Schlußweise: Theoretische Informatik: Logik, M. Lange, FB16, Uni Kassel: 5.4 Prädikatenlogik mit Gleichheit Resolution 192 Beispiel Bsp.: Betrachte Schlussweise in: 1 Wenn es regnet, dann wird die Straße nass. R N

Mehr

Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR)

Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR) Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR) Eine Firma stellt USB-Sticks her. Sie werden in der Fabrik ungeprüft in Packungen zu je 20 Stück verpackt und an Händler ausgeliefert. 1 Ein Händler

Mehr

Informationssicherheit - Lösung Blatt 2

Informationssicherheit - Lösung Blatt 2 Informationssicherheit - Lösung Blatt 2 Adam Glodek adam.glodek@gmail.com 13.04.2010 1 1 Aufgabe 1: One Time Pad 1.1 Aufgabenstellung Gegeben ist der folgende Klartext 12Uhr (ASCII). Verschlüsseln Sie

Mehr

Datenstrukturen & Algorithmen

Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Binäre Suchbäume Einführung und Begriffe Binäre Suchbäume 2 Binäre Suchbäume Datenstruktur für dynamische Mengen

Mehr

1.5 Folgerungen aus dem Kolmogoroff- Axiomensystem P( ) = 0.

1.5 Folgerungen aus dem Kolmogoroff- Axiomensystem P( ) = 0. 1.5 Folgerungen aus dem Kolmogoroff- Axiomensystem Folg. 2 Sei (Ω, E, P) W.-raum. Seien A, B,A 1,...,A n Ereignisse. Es gelten die folgenden Aussagen: 1. P(A) = 1 P(A). 2. Für das unmögliche Ereignis gilt:

Mehr

Kapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete

Kapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete Kapitel 4: Dynamische Datenstrukturen Algorithmen und Datenstrukturen WS 2012/13 Prof. Dr. Sándor Fekete 4.4 Binäre Suche Aufgabenstellung: Rate eine Zahl zwischen 100 und 114! Algorithmus 4.1 INPUT: OUTPUT:

Mehr

Vorlesung. Informationsökonomik und die Theorie der Firma

Vorlesung. Informationsökonomik und die Theorie der Firma Vorlesung Informationsökonomik und die Theorie der Firma Ulrich Schwalbe Universität Hohenheim 5. Vorlesung 28.11.2007 Ulrich Schwalbe (Universität Hohenheim) Informationsökonomik 5. Vorlesung 28.11.2007

Mehr

Steinerbäume. Seminarausarbeitung Hochschule Aalen Fakultät für Elektronik und Informatik Studiengang Informatik Schwerpunkt Software Engineering

Steinerbäume. Seminarausarbeitung Hochschule Aalen Fakultät für Elektronik und Informatik Studiengang Informatik Schwerpunkt Software Engineering Steinerbäume Seminarausarbeitung Hochschule Aalen Fakultät für Elektronik und Informatik Studiengang Informatik Schwerpunkt Software Engineering Verfasser Flamur Kastrati Betreuer Prof. Dr. habil. Thomas

Mehr

Naive Bayes. 5. Dezember 2014. Naive Bayes 5. Dezember 2014 1 / 18

Naive Bayes. 5. Dezember 2014. Naive Bayes 5. Dezember 2014 1 / 18 Naive Bayes 5. Dezember 2014 Naive Bayes 5. Dezember 2014 1 / 18 Inhaltsverzeichnis 1 Thomas Bayes 2 Anwendungsgebiete 3 Der Satz von Bayes 4 Ausführliche Form 5 Beispiel 6 Naive Bayes Einführung 7 Naive

Mehr

Seminararbeit für das SE Reine Mathematik- Graphentheorie

Seminararbeit für das SE Reine Mathematik- Graphentheorie Seminararbeit für das SE Reine Mathematik- Graphentheorie Der binäre Rang, der symplektische Graph, die Spektralzerlegung und rationale Funktionen Vortrag am 24.01.2012 Heike Farkas 0410052 Inhaltsverzeichnis

Mehr

Algorithmen und Datenstrukturen Suchbaum

Algorithmen und Datenstrukturen Suchbaum Algorithmen und Datenstrukturen Suchbaum Matthias Teschner Graphische Datenverarbeitung Institut für Informatik Universität Freiburg SS 12 Motivation Datenstruktur zur Repräsentation dynamischer Mengen

Mehr

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt - 17 - Die Frage ist hier also: Für welche x R gilt x = x + 1? Das ist eine quadratische Gleichung für x. Es gilt x = x + 1 x x 3 = 0, und man kann quadratische Ergänzung machen:... ( ) ( ) x x + = 3 +

Mehr

Bei vielen Zufallsexperimenten interessiert man sich lediglich für das Eintreten bzw. das Nichteintreten eines bestimmten Ereignisses.

Bei vielen Zufallsexperimenten interessiert man sich lediglich für das Eintreten bzw. das Nichteintreten eines bestimmten Ereignisses. XI. Binomialverteilung ================================================================== 11.1 Definitionen -----------------------------------------------------------------------------------------------------------------

Mehr

Idee: Wenn wir beim Kopfknoten zwei Referenzen verfolgen können, sind die Teillisten kürzer. kopf Eine Datenstruktur mit Schlüsselwerten 1 bis 10

Idee: Wenn wir beim Kopfknoten zwei Referenzen verfolgen können, sind die Teillisten kürzer. kopf Eine Datenstruktur mit Schlüsselwerten 1 bis 10 Binäre Bäume Bäume gehören zu den wichtigsten Datenstrukturen in der Informatik. Sie repräsentieren z.b. die Struktur eines arithmetischen Terms oder die Struktur eines Buchs. Bäume beschreiben Organisationshierarchien

Mehr

Vorlesung 04.12.2006: Binäre Entscheidungsdiagramme (BDDs) Dr. Carsten Sinz

Vorlesung 04.12.2006: Binäre Entscheidungsdiagramme (BDDs) Dr. Carsten Sinz Vorlesung 04.12.2006: Binäre Entscheidungsdiagramme (BDDs) Dr. Carsten Sinz Datenstruktur BDD 1986 von R. Bryant vorgeschlagen zur Darstellung von aussagenlogischen Formeln (genauer: Booleschen Funktionen)

Mehr

in der Bibliothek des Bundesgerichtshofs

in der Bibliothek des Bundesgerichtshofs Herzlich willkommen in der Bibliothek des Bundesgerichtshofs Dieser virtuelle Rundgang gibt Ihnen einen raschen Überblick über Angebot und Räumlichkeiten der größten Gerichtsbibliothek Deutschlands. Stand:

Mehr

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Vollständigkeit halber aufgeführt. Gehen wir einmal davon aus, dass die von uns angenommenen 70% im Beispiel exakt berechnet sind. Was würde

Mehr

Textmining Klassifikation von Texten Teil 1: Naive Bayes

Textmining Klassifikation von Texten Teil 1: Naive Bayes Textmining Klassifikation von Texten Teil 1: Naive Bayes Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten 1: Naive

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

Y b 2 - a 2 = p 2 - q 2 (*)

Y b 2 - a 2 = p 2 - q 2 (*) Um den Flächeninhalt eines Dreieckes zu bestimmen, das keinen rechten Winkel besitzt, muss man bekanntlich die Längen einer Seite mit der dazugehörigen Höhe kennen Wir setzen voraus, dass uns alle 3 Seitenlängen

Mehr

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen

Mehr

Datenstruktur zum Speichern einer endlichen Menge M von Zahlen. Genauer:

Datenstruktur zum Speichern einer endlichen Menge M von Zahlen. Genauer: Binäre Suchbäume (binary search trees, kurz: bst) Datenstruktur zum Speichern einer endlichen Menge M von Zahlen. Genauer: Binärbaum T mit n := M Knoten Jeder Knoten v von T ist mit einer Zahl m v M markiert.

Mehr

Netzwerkmodelle. Seminar Netzwerkanalyse. Sommersemester 2005 Jasmine Metzler

Netzwerkmodelle. Seminar Netzwerkanalyse. Sommersemester 2005 Jasmine Metzler Netzwerkmodelle Seminar Netzwerkanalyse Sommersemester 2005 Jasmine Metzler 1 Grundlegende Modelle Das Graph Modell (G n,p ) Definition Verschiedene Modelle Small World Modell Lokale Suche Power Law Modelle

Mehr

194 Beweis eines Satzes von Tschebyschef. Von P. E RDŐS in Budapest. Für den zuerst von T SCHEBYSCHEF bewiesenen Satz, laut dessen es zwischen einer natürlichen Zahl und ihrer zweifachen stets wenigstens

Mehr

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 )

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 ) Aufgabe 65. Ganz schön span(n)end. Gegeben sei folgende Menge M von 6 Vektoren v, v,..., v 6 R 4 aus Aufgabe P 6: M = v =, v =, v =, v 4 =, v 5 =, v 6 = Welche der folgenden Aussagen sind wahr? span(v,

Mehr

3.2 Binäre Suche. Usr/local/www/ifi/fk/menschen/schmid/folien/infovk.ppt 1

3.2 Binäre Suche. Usr/local/www/ifi/fk/menschen/schmid/folien/infovk.ppt 1 3.2 Binäre Suche Beispiel 6.5.1: Intervallschachtelung (oder binäre Suche) (Hier ist n die Anzahl der Elemente im Feld!) Ein Feld A: array (1..n) of Integer sei gegeben. Das Feld sei sortiert, d.h.: A(i)

Mehr

Binäre abhängige Variablen

Binäre abhängige Variablen Binäre abhängige Variablen Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Einführung Oft wollen wir qualitative Variablen

Mehr

Algorithmen und Datenstrukturen

Algorithmen und Datenstrukturen Algorithmen und Datenstrukturen Dipl. Inform. Andreas Wilkens aw@awilkens.com Überblick Grundlagen Definitionen Elementare Datenstrukturen Rekursionen Bäume 2 1 Datenstruktur Baum Definition eines Baumes

Mehr

Analog zu Aufgabe 16.1 werden die Daten durch folgenden Befehl eingelesen: > kredit<-read.table("c:\\compaufg\\kredit.

Analog zu Aufgabe 16.1 werden die Daten durch folgenden Befehl eingelesen: > kredit<-read.table(c:\\compaufg\\kredit. Lösung 16.3 Analog zu Aufgabe 16.1 werden die Daten durch folgenden Befehl eingelesen: > kredit

Mehr

$ % + 0 sonst. " p für X =1 $

$ % + 0 sonst.  p für X =1 $ 31 617 Spezielle Verteilungen 6171 Bernoulli Verteilung Wir beschreiben zunächst drei diskrete Verteilungen und beginnen mit einem Zufallsexperiment, indem wir uns für das Eintreffen eines bestimmten Ereignisses

Mehr

3. Zusammenhang. 22 Andreas Gathmann

3. Zusammenhang. 22 Andreas Gathmann 22 Andreas Gathmann 3. Zusammenhang Eine der anschaulichsten Eigenschaften eines topologischen Raumes ist wahrscheinlich, ob er zusammenhängend ist oder aus mehreren Teilen besteht. Wir wollen dieses Konzept

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

Übung 1. Fabian Wannenmacher 24C9 F9C5 3180 EE15 197D 7DD5 F85A 19E2 B51F 75B7. Übung 1. f.wanne@googlemail.com. UNI Tübingen.

Übung 1. Fabian Wannenmacher 24C9 F9C5 3180 EE15 197D 7DD5 F85A 19E2 B51F 75B7. Übung 1. f.wanne@googlemail.com. UNI Tübingen. UNI Tübingen October 26, 23 Umrechnen echo "obase=8; ibase=6; CAFEBABE" bc C A F E B A B E Umrechnen echo "obase=8; ibase=6; CAFEBABE" bc C A F E B A B E Umrechnen echo "obase=8; ibase=6; CAFEBABE" bc

Mehr

Grundlagen der Programmierung 2. Bäume

Grundlagen der Programmierung 2. Bäume Grundlagen der Programmierung 2 Bäume Prof. Dr. Manfred Schmidt-Schauÿ Künstliche Intelligenz und Softwaretechnologie 24. Mai 2006 Graphen Graph: Menge von Knoten undzugehörige (gerichtete oder ungerichtete)

Mehr

Zugelassenes Hilfsmittel: Ein nicht programmierbarer Taschenrechner.

Zugelassenes Hilfsmittel: Ein nicht programmierbarer Taschenrechner. KANTON AARGAU Abschlussprüfung der Bezirksschule Aargau 2013 Mathematik 1. Serie Bestimmungen: Die Prüfungsdauer beträgt 120 Minuten. Zugelassenes Hilfsmittel: Ein nicht programmierbarer Taschenrechner.

Mehr

WS 2009/10. Diskrete Strukturen

WS 2009/10. Diskrete Strukturen WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910

Mehr

Das Bayes-Theorem. Christian Neukirchen Gleichwertige Leistungsfeststellung, Juni 2005

Das Bayes-Theorem. Christian Neukirchen Gleichwertige Leistungsfeststellung, Juni 2005 Das Bayes-Theorem Christian Neukirchen Gleichwertige Leistungsfeststellung, Juni 2005 Ein lahmer Witz Heute im Angebot: Ein praktisches Beispiel zur Einleitung Kurze Wiederholung der Überblick über Reverend

Mehr

Algorithmen für Peer-to-Peer-Netzwerke Sommersemester 2004 04.06.2004 7. Vorlesung

Algorithmen für Peer-to-Peer-Netzwerke Sommersemester 2004 04.06.2004 7. Vorlesung Algorithmen für Peer-to-Peer-Netzwerke Sommersemester 2004 04.06.2004 7. Vorlesung 1 Kapitel III Skalierbare Peer to Peer-Netzwerke Tapestry von Zhao, Kubiatowicz und Joseph (2001) Netzw erke 2 Tapestry

Mehr

5. Verschiedene Repräsentanten

5. Verschiedene Repräsentanten 5. Verschiedene Repräsentanten 5.1. Die Sätze Hall und König Sei I := {1,...,n}, und sei A(I) = (A 1,...,A n ) eine Familie von Teilmengen einer endlichen Menge E. Zu K I seien A(K) := (A i : i K) und

Mehr

Informatik II Bäume. Beispiele. G. Zachmann Clausthal University, Germany zach@in.tu-clausthal.de. Stammbaum. Stammbaum. Stammbaum

Informatik II Bäume. Beispiele. G. Zachmann Clausthal University, Germany zach@in.tu-clausthal.de. Stammbaum. Stammbaum. Stammbaum lausthal Beispiele Stammbaum Informatik II. Zachmann lausthal University, ermany zach@in.tu-clausthal.de. Zachmann Informatik - SS 06 Stammbaum Stammbaum / Parse tree, Rekursionsbaum Parse tree, Rekursionsbaum

Mehr

3.2 Spiegelungen an zwei Spiegeln

3.2 Spiegelungen an zwei Spiegeln 3 Die Theorie des Spiegelbuches 45 sehen, wenn die Person uns direkt gegenüber steht. Denn dann hat sie eine Drehung um die senkrechte Achse gemacht und dabei links und rechts vertauscht. 3.2 Spiegelungen

Mehr

TECHNISCHE UNIVERSITÄT DRESDEN. Fakultät Mathematik und Naturwissenschaften, Fachrichtung Mathematik Institut für Algebra

TECHNISCHE UNIVERSITÄT DRESDEN. Fakultät Mathematik und Naturwissenschaften, Fachrichtung Mathematik Institut für Algebra TECHNISCHE UNIVERSITÄT DRESDEN Fakultät Mathematik und Naturwissenschaften, Fachrichtung Mathematik Institut für Algebra Halbgruppen binärer Relationen auf einer 3-elementigen Menge Arbeit im Rahmen des

Mehr

Einführung in die Stochastik

Einführung in die Stochastik Einführung in die Stochastik Josef G. Steinebach Köln, WS 2009/10 I Wahrscheinlichkeitsrechnung 1 Wahrscheinlichkeitsräume, Urnenmodelle Stochastik : Lehre von den Gesetzmäßigkeiten des Zufalls, Analyse

Mehr

Der Bipolar-Transistor und die Emitterschaltung Gruppe B412

Der Bipolar-Transistor und die Emitterschaltung Gruppe B412 TECHNISCHE UNIVERSITÄT MÜNCHEN Der Bipolar-Transistor und die Emitterschaltung Gruppe B412 Patrick Christ und Daniel Biedermann 16.10.2009 1. INHALTSVERZEICHNIS 1. INHALTSVERZEICHNIS... 2 2. AUFGABE 1...

Mehr

Definition und Eigenschaften Finiter Elemente

Definition und Eigenschaften Finiter Elemente Definition und Eigenschaften Finiter Elemente 1 Das letzte Mal Im letzten Vortrag haben wir zum Schluss das Lemma von Lax Milgram präsentiert bekommen, dass ich hier nocheinmal in Erinnerung rufen möchte:

Mehr

Anwengungen geometrischer Abbildungen Kongruenz- und Ähnlichkeitsabbildung

Anwengungen geometrischer Abbildungen Kongruenz- und Ähnlichkeitsabbildung Anwengungen geometrischer Abbildungen Kongruenz- und Ähnlichkeitsabbildung Amina Duganhodzic Proseminar: Mathematisches Problemlösen Unter der Leitung von Privat Dozentin Dr. Natalia Grinberg 26. Juni

Mehr

I. Aussagenlogik. Aussagenlogik untersucht Verknüpfungen wie "und", "oder", "nicht", "wenn... dann" zwischen atomaren und komplexen Sätzen.

I. Aussagenlogik. Aussagenlogik untersucht Verknüpfungen wie und, oder, nicht, wenn... dann zwischen atomaren und komplexen Sätzen. I. Aussagenlogik 2.1 Syntax Aussagenlogik untersucht Verknüpfungen wie "und", "oder", "nicht", "wenn... dann" zwischen atomaren und komplexen Sätzen. Sätze selbst sind entweder wahr oder falsch. Ansonsten

Mehr

Theoretische Grundlagen der Informatik WS 09/10

Theoretische Grundlagen der Informatik WS 09/10 Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3

Mehr

Modellierungskonzepte 2

Modellierungskonzepte 2 Modellierungskonzepte 2 Elke Warmuth Humboldt-Universität Berlin WS 2008/09 1 / 50 1 Pfadregeln 2 Begriff Umbewertung von Chancen Bayessche Formel 3 Verwechslungsgefahr Implizite Lotterien 2 / 50 mehrstufige

Mehr

STM32F429-Basic Version : C.01

STM32F429-Basic Version : C.01 =========== Projekt : STM32F429-Basic Version : C.01 Datum : 02.11.2014 EMail : mc-4u(@)t-online.de Web : www.mikrocontroller-4u.de =========== Inhalt Seite 2 = Syntaxhinweise / Konventionen Seite 3 =

Mehr

PageRank-Algorithmus

PageRank-Algorithmus Proseminar Algorithms and Data Structures Gliederung Gliederung 1 Einführung 2 PageRank 3 Eziente Berechnung 4 Zusammenfassung Motivation Motivation Wir wollen eine Suchmaschine bauen, die das Web durchsucht.

Mehr

Über ein Kartenspiel: Siebeneinhalb

Über ein Kartenspiel: Siebeneinhalb Über ein Kartenspiel: Siebeneinhalb Paula Lagares Federico Perea Justo Puerto MaMaEuSch Management Mathematics for European Schools 94342 - CP - 1-2001 - DE - COMENIUS - C21 Universität Sevilla Dieses

Mehr

Theorien für die Darstellung von Unsicherheit Ein Vergleich der Wahrscheinlichkeits-, Möglichkeits- und Dempster-Shafer Theorie

Theorien für die Darstellung von Unsicherheit Ein Vergleich der Wahrscheinlichkeits-, Möglichkeits- und Dempster-Shafer Theorie Theorien für die Darstellung von Unsicherheit Ein Vergleich der Wahrscheinlichkeits-, Möglichkeits- und Dempster-Shafer Theorie Johannes Leitner Inhalt I Modellierung von Unschärfe Unscharfe Mengen Unscharfe

Mehr

Binäre Bäume Darstellung und Traversierung

Binäre Bäume Darstellung und Traversierung Binäre Bäume Darstellung und Traversierung Name Frank Bollwig Matrikel-Nr. 2770085 E-Mail fb641378@inf.tu-dresden.de Datum 15. November 2001 0. Vorbemerkungen... 3 1. Terminologie binärer Bäume... 4 2.

Mehr

Vier-Felder-Tafel. Medizinische Tests sind grundsätzlich mit zwei Fehlern behaftet: 1. Erkrankte werden als gesund, 2. Gesunde als krank eingestuft.

Vier-Felder-Tafel. Medizinische Tests sind grundsätzlich mit zwei Fehlern behaftet: 1. Erkrankte werden als gesund, 2. Gesunde als krank eingestuft. Vier-Felder-Tafel Mediziniche Tet ind grundätzlich mit zwei Fehlern behaftet:. Erkrankte werden al geund, 2. Geunde al krank eingetuft. Der. Fehler wird üblicherweie (nicht nur von Tet-Entwicklern) in

Mehr

Kapitel 15: Differentialgleichungen

Kapitel 15: Differentialgleichungen FernUNI Hagen WS 00/03 Kapitel 15: Differentialgleichungen Differentialgleichungen = Gleichungen die Beziehungen zwischen einer Funktion und mindestens einer ihrer Ableitungen herstellen. Kommen bei vielen

Mehr

Projektive Moduln. Lemma/Definition 1.1. Folgende Aussagen für einen R-Modul P sind äquivalent: (i) P erfüllt folgende Liftungseigenschaft:

Projektive Moduln. Lemma/Definition 1.1. Folgende Aussagen für einen R-Modul P sind äquivalent: (i) P erfüllt folgende Liftungseigenschaft: Seminar Summen von Quadraten und K-Theorie Projektive Moduln Im Folgenden sei R ein assoziativer Ring mit Eins, nicht notwendigerweise kommutativ. R-Modul ist im Folgenden stets ein Rechts-R-Modul. Ein

Mehr

4 Greedy-Algorithmen (gierige Algorithmen)

4 Greedy-Algorithmen (gierige Algorithmen) Greedy-Algorithmen (gierige Algorithmen) Greedy-Algorithmen werden oft für die exakte oder approximative Lösung von Optimierungsproblemen verwendet. Typischerweise konstruiert ein Greedy-Algorithmus eine

Mehr

Allgemeine Beschreibung von Blockcodes

Allgemeine Beschreibung von Blockcodes Allgemeine Beschreibung von Blockcodes Bei Blockcodierung wird jeweils eine Sequenz von m q binären Quellensymbolen (M q = 2) durch einen Block von m c Codesymbolen mit dem Symbolumfang M c dargestellt.

Mehr

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema

Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema Division Für diesen Abschnitt setzen wir voraus, dass der Koeffizientenring ein Körper ist. Betrachte das Schema 2x 4 + x 3 + x + 3 div x 2 + x 1 = 2x 2 x + 3 (2x 4 + 2x 3 2x 2 ) x 3 + 2x 2 + x + 3 ( x

Mehr

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen 4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.

Mehr

Formelsammlung. Wahrscheinlichkeit und Information

Formelsammlung. Wahrscheinlichkeit und Information Formelsammlung Wahrscheinlichkeit und Information Ein Ereignis x trete mit der Wahrscheinlichkeit p(x) auf, dann ist das Auftreten dieses Ereignisses verbunden mit der Information I( x): mit log 2 (z)

Mehr

Kapiteltests zum Leitprogramm Binäre Suchbäume

Kapiteltests zum Leitprogramm Binäre Suchbäume Kapiteltests zum Leitprogramm Binäre Suchbäume Björn Steffen Timur Erdag überarbeitet von Christina Class Binäre Suchbäume Kapiteltests für das ETH-Leitprogramm Adressaten und Institutionen Das Leitprogramm

Mehr

Der Huffman Algorithmus

Der Huffman Algorithmus Der Huffman Algorithmus Für das Folgende setzen wir voraus, dass die Quellensymbole q ν einem Alphabet {q μ } = {A, B, C,...} mit dem Symbolumfang M entstammen und statistisch voneinander unabhängig seien.

Mehr

Medizinische Statistik Epidemiologie und χ 2 Vierfeldertest

Medizinische Statistik Epidemiologie und χ 2 Vierfeldertest Universität Wien Institut für Mathematik Wintersemester 2009/2010 Medizinische Statistik Epidemiologie und χ 2 Vierfeldertest Seminar Angewandte Mathematik Ao. Univ. Prof. Dr. Peter Schmitt von Nadja Reiterer

Mehr

Qualitative Datenanalyse

Qualitative Datenanalyse Qualitative Datenanalyse Prof. Dr. Stefan E. Schmidt Francesco Kriegel TU Dresden Fakultät Mathematik Institut Algebra SS 2007 28. September 2008 Inhaltsverzeichnis Kapitel 1 Formale Begriffsanalyse 1

Mehr

Beispiele für Relationen

Beispiele für Relationen Text Relationen 2 Beispiele für Relationen eine Person X ist Mutter von einer Person Y eine Person X ist verheiratet mit einer Person Y eine Person X wohnt am gleichen Ort wie eine Person Y eine Person

Mehr

Der linke Teilbaum von v enthält nur Schlüssel < key(v) und der rechte Teilbaum enthält nur Schlüssel > key(v)

Der linke Teilbaum von v enthält nur Schlüssel < key(v) und der rechte Teilbaum enthält nur Schlüssel > key(v) Ein Baum T mit Knotengraden 2, dessen Knoten Schlüssel aus einer total geordneten Menge speichern, ist ein binärer Suchbaum (BST), wenn für jeden inneren Knoten v von T die Suchbaumeigenschaft gilt: Der

Mehr

t r Lineare Codierung von Binärbbäumen (Wörter über dem Alphabet {, }) Beispiel code( ) = code(, t l, t r ) = code(t l ) code(t r )

t r Lineare Codierung von Binärbbäumen (Wörter über dem Alphabet {, }) Beispiel code( ) = code(, t l, t r ) = code(t l ) code(t r ) Definition B : Menge der binären Bäume, rekursiv definiert durch die Regeln: ist ein binärer Baum sind t l, t r binäre Bäume, so ist auch t =, t l, t r ein binärer Baum nur das, was durch die beiden vorigen

Mehr

Algorithmen und Datenstrukturen 2

Algorithmen und Datenstrukturen 2 Algorithmen und Datenstrukturen 2 Sommersemester 2006 6. Vorlesung Peter F. Stadler Universität Leipzig Institut für Informatik studla@bioinf.uni-leipzig.de Datenkomprimierung Bei den meisten bisher betrachteten

Mehr

Eine Baumstruktur sei folgendermaßen definiert. Eine Baumstruktur mit Grundtyp Element ist entweder

Eine Baumstruktur sei folgendermaßen definiert. Eine Baumstruktur mit Grundtyp Element ist entweder Programmieren in PASCAL Bäume 1 1. Baumstrukturen Eine Baumstruktur sei folgendermaßen definiert. Eine Baumstruktur mit Grundtyp Element ist entweder 1. die leere Struktur oder 2. ein Knoten vom Typ Element

Mehr

Kryptologie und Kodierungstheorie

Kryptologie und Kodierungstheorie Kryptologie und Kodierungstheorie Alexander May Horst Görtz Institut für IT-Sicherheit Ruhr-Universität Bochum Lehrerfortbildung 17.01.2012 Kryptologie Verschlüsselung, Substitution, Permutation 1 / 18

Mehr

Abzahlungsplan und Abzahlungsgleichung Gekürzte Fassung des ETH-Leitprogramms von Jean Paul David und Moritz Adelmeyer Teil 2

Abzahlungsplan und Abzahlungsgleichung Gekürzte Fassung des ETH-Leitprogramms von Jean Paul David und Moritz Adelmeyer Teil 2 - 5 - Abzahlungsplan und Abzahlungsgleichung Gekürzte Fassung des ETH-Leitprogramms von Jean Paul David und Moritz Adelmeyer Teil 2 Frau X hat ein Angebot der Bank: Sie würde 5000 Euro erhalten und müsste

Mehr

Die Cantor-Funktion. Stephan Welz

Die Cantor-Funktion. Stephan Welz Die Cantor-Funktion Stephan Welz Ausarbeitung zum Vortrag im Proseminar Überraschungen und Gegenbeispiele in der Analysis (Sommersemester 2009, Leitung PD Dr. Gudrun Thäter) Zusammenfassung: In dieser

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren. Basis und Dimension Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren. Definition. Sei V ein K-Vektorraum und (v i ) i I eine Familie von Vektoren

Mehr

Markovketten. Bsp. Page Ranking für Suchmaschinen. Wahlfach Entscheidung unter Risiko und stat. Datenanalyse 07.01.2015

Markovketten. Bsp. Page Ranking für Suchmaschinen. Wahlfach Entscheidung unter Risiko und stat. Datenanalyse 07.01.2015 Markovketten Markovketten sind ein häufig verwendetes Modell zur Beschreibung von Systemen, deren Verhalten durch einen zufälligen Übergang von einem Systemzustand zu einem anderen Systemzustand gekennzeichnet

Mehr

16. All Pairs Shortest Path (ASPS)

16. All Pairs Shortest Path (ASPS) . All Pairs Shortest Path (ASPS) All Pairs Shortest Path (APSP): Eingabe: Gewichteter Graph G=(V,E) Ausgabe: Für jedes Paar von Knoten u,v V die Distanz von u nach v sowie einen kürzesten Weg a b c d e

Mehr

12. Verarbeitung unsicheren Wissens

12. Verarbeitung unsicheren Wissens 12. Verarbeitung unsicheren Wissens Prof. Dr. Rudolf Kruse University of Magdeburg Faculty of Computer Science Magdeburg, Germany rudolf.kruse@cs.uni-magdeburg.de S 12. Verarbeitung unsicheren Wissens

Mehr

Mädchen Jungen Smartphone 42 52 Computer 77 87 Fernsehgerät 54 65 feste Spielkonsole 37 62

Mädchen Jungen Smartphone 42 52 Computer 77 87 Fernsehgerät 54 65 feste Spielkonsole 37 62 Unabhängigkeit ================================================================== 1. Im Rahmen der sogenannten JIM-Studie wurde in Deutschland im Jahr 2012 der Umgang von Jugendlichen im Alter von 12 bis

Mehr

Computerviren, Waldbrände und Seuchen - ein stochastisches Modell für die Reichweite einer Epidemie

Computerviren, Waldbrände und Seuchen - ein stochastisches Modell für die Reichweite einer Epidemie Computerviren, Waldbrände und Seuchen - ein stochastisches für die Reichweite einer Epidemie Universität Hildesheim Schüler-Universität der Universität Hildesheim, 21.06.2012 Warum Mathematik? Fragen zum

Mehr

Der Viterbi-Algorithmus.

Der Viterbi-Algorithmus. Der Viterbi-Algorithmus. Eine Erläuterung der formalen Spezifikation am Beispiel des Part-of-Speech Tagging. Kursskript Karin Haenelt, 9..7 (.5.) Einleitung In diesem Skript wird der Viterbi-Algorithmus

Mehr

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5)

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5) Einführung 3 Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Univ.-Prof. Dr. Christoph Meinel Hasso-Plattner-Institut Universität Potsdam, Deutschland Hatten den Reduktionsbegriff

Mehr

Approximationsalgorithmen: Klassiker I. Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling

Approximationsalgorithmen: Klassiker I. Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling Approximationsalgorithmen: Klassiker I Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling VO Approximationsalgorithmen WiSe 2011/12 Markus Chimani

Mehr

ABITURPRÜFUNG 2009 LEISTUNGSFACH INFORMATIK

ABITURPRÜFUNG 2009 LEISTUNGSFACH INFORMATIK ABITURPRÜFUNG 2009 LEISTUNGSFACH INFORMATIK (HAUPTTERMIN) Bearbeitungszeit: 270 Minuten Hilfsmittel: Wörterbuch zur deutschen Rechtschreibung Taschenrechner (nicht programmierbar, nicht grafikfähig) (Schüler,

Mehr

q = 1 p = 0.8 0.2 k 0.8 10 k k = 0, 1,..., 10 1 1 0.8 2 + 10 0.2 0.8 + 10 9 1 2 0.22 1 = 0.8 8 [0.64 + 1.6 + 1.8] = 0.678

q = 1 p = 0.8 0.2 k 0.8 10 k k = 0, 1,..., 10 1 1 0.8 2 + 10 0.2 0.8 + 10 9 1 2 0.22 1 = 0.8 8 [0.64 + 1.6 + 1.8] = 0.678 Lösungsvorschläge zu Blatt 8 X binomialverteilt mit p = 0. und n = 10: a PX = = 10 q = 1 p = 0.8 0. 0.8 10 = 0, 1,..., 10 PX = PX = 0 + PX = 1 + PX = 10 10 = 0. 0 0.8 10 + 0. 1 0.8 9 + 0 1 10 = 0.8 8 [

Mehr

GNS-Konstruktion und normale Zustände. 1 Rückblick. 2 Beispiel für einen Typ-II 1 -Faktor

GNS-Konstruktion und normale Zustände. 1 Rückblick. 2 Beispiel für einen Typ-II 1 -Faktor GNS-Konstruktion und normale Zustände 1 Rückblick Wir betrachten von-neumann-algebren M B(H), d.h. Unteralgebren mit 1 H M, die in der schwachen Operatortopologie (und damit in jeder der anderen) abgeschlossen

Mehr

Datenstruktur, die viele Operationen dynamischer Mengen unterstützt

Datenstruktur, die viele Operationen dynamischer Mengen unterstützt Algorithmen und Datenstrukturen 265 10 Binäre Suchbäume Suchbäume Datenstruktur, die viele Operationen dynamischer Mengen unterstützt Kann als Wörterbuch, aber auch zu mehr eingesetzt werden (Prioritätsschlange)

Mehr

Peer-to-Peer- Netzwerke

Peer-to-Peer- Netzwerke Peer-to-Peer- Netzwerke Christian Schindelhauer Sommersemester 2006 14. Vorlesung 23.06.2006 schindel@informatik.uni-freiburg.de 1 Evaluation der Lehre im SS2006 Umfrage zur Qualitätssicherung und -verbesserung

Mehr

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg Nikos Canterakis Lehrstuhl für Mustererkennung, Universität Freiburg Gliederung 7 Projektionen und Rückprojektionen Der Punkt Die Gerade Die Quadrik Die Ebene Zusammenhang Kalibriermatrix - Bild des absoluten

Mehr

Monte Carlo Methoden in Kreditrisiko-Management

Monte Carlo Methoden in Kreditrisiko-Management Monte Carlo Methoden in Kreditrisiko-Management P Kreditportfolio bestehend aus m Krediten; Verlustfunktion L = n i=1 L i; Die Verluste L i sind unabhängig bedingt durch einen Vektor Z von ökonomischen

Mehr