Lösungshinweise zu Kapitel 13

Größe: px
Ab Seite anzeigen:

Download "Lösungshinweise zu Kapitel 13"

Transkript

1 L-112 Lösungshinweise zu Kapitel 13 zu Selbsttestaufgabe 13.2 (Eigenschaften der bedingten Unabhängigkeit) Sei P eine Wahrscheinlichkeitsverteilung über V. Wir setzen im Folgenden stillschweigend voraus, dass alle auftretenden bedingten Wahrscheinlichkeiten definiert sind, d.h., dass die entsprechenden Nenner positiv sind. Wie üblich bezeichnen fettgedruckte kleine Buchstaben (z. B. a) Vollkonjunktionen über den Variablen der entsprechenden Menge (A). 1. Die Symmetrie von I P ergibt sich sofort aus der Definition der bedingten Unabhängigkeit (siehe auch S. 497). Zerlegbarkeit: Es gelte A P (B D) C, also P(abd c) = P(a c) P(bd c) (L.1) Um A P B C nachzuweisen, muss man P(ab c) = P(a c) P(b c) für beliebige a,b,c zeigen. Der Beweis von A P D C ist ganz analog. P(ab c) = D P(abd c) = P(a c) P(bd c) D = P(a c) P(bd c) D = P(a c) P(b c) (wegen (L.1)) Schwache Vereinigung: Es gelte wieder A P (B D) C, d.h., Gleichung (L.1) gilt. Zu zeigen ist nun P(ab cd) = P(a cd) P(b cd). Aus (L.1) folgt P(abcd) = P(bcd) P(a c) und daher P(a cd) = P(acd) P(cd) B = P(abcd) P(cd) B P(bcd) P(a c) = P(cd) B = P(a c) P(bcd) P(cd) = P(a c)

2 Lösungshinweise zu Kapitel 13 L-113 Dies impliziert weiter was zu zeigen war. Kontraktion: Sei nun A a,b,c,d P(abcd) P(cd) = P(bcd) P(a cd) P(cd) P B C und A P D (C B), d. h. für alle P(ab c) = P(a c) P(b c) P(ad bc) = P(a bc) P(d bc) (L.2) (L.3) Zu zeigen ist A P (B D) C, also P(abd c) = P(a c) P(bd c). Wegen (L.2) und (L.3) gilt Zusammen ergibt das und damit die Behauptung. P(abc) = P(a c) P(bc) und P(abcd) = P(abc) P(bc) P(bcd) P(abcd) = P(a c) P(bcd) 2. Schnitt: Vorausgesetzt ist nun A P B (C D) und A P D (C B); außerdem sei P strikt positiv. Damit gilt zunächst für alle a,b,c,d P(ab cd) = P(a cd) P(b cd) P(ad bc) = P(a bc) P(d bc) und also P(abcd) = P(a cd) P(bcd) = P(a bc) P(bcd) (L.4) Wegen P(bcd) > 0 folgt daraus P(a cd) = P(a bc) und daher P(acd) = P(cd) P(a bc) für alle a,b,c,d. Durch Aufsummation über D erhält man P(ac) = D = D P(acd) P(cd)P(a bc) = P(c)P(a bc)

3 L-114 Lösungshinweise zu Kapitel 13 und damit P(a c) = P(a bc) Ebenso sieht man durch Aufsummieren über B P(a c) = P(a cd) Mit der Gleichung (L.4) ergibt sich P(abcd) = P(a c) P(bcd) und schließlich P(abd c) = P(a c) P(bd c) für alle a,b,c,d, d. h. A P (B D) C. zu Selbsttestaufgabe (Markov-Eigenschaften) global Markov lokal Markov: Diese Implikation ist klar, da nb(a) A und V (nb(a) {A}) separiert. lokal Markov paarweise Markov: Seien A, B V verschiedene, nicht benachbarte Knoten. Es gelte die lokale Markov- Eigenschaft, also A P V (nb(a) {A}) nb(a). Da A und B nicht benachbart sind, ist B / nb(a), d. h. B V (nb(a) {A}) und folglich V (nb(a) {A}) = {B} W mit W = V (nb(a) {A, B}). Mit der schwachen Vereinigung (13.3) folgt nun A P B (V {A, B}) wegen nb(a) W = V {A, B}. zu Selbsttestaufgabe (Markov-Graph) 1. Es sei P eine Wahrscheinlichkeitsverteilung über den (binären) Variablen X, Y, Z. Wir zeigen, dass X P Y Z genau dann gilt, wenn P(xy z) = P(x z)p(y z) (L.5) und P(xy z) = P(x z)p(y z) (L.6) Aus der Definition der bedingten Unabhängigkeit (Definition A.32, S. 497) geht hervor, dass X, Y genau dann unabhängig bei gegebenen Z sind, wenn gilt P(X, Y Z) = P(X Z) P(Y Z) Wir zeigen, dass wir für diesen Nachweis nicht alle Ausprägungen von X, Y benötigen, sondern uns auf die in (L.5) und (L.6) gezeigten Fälle beschränken können. Dabei nutzen wir aus, dass für beliebige Variablen A, B, C gilt: P(ab ċ) + P(ab ċ) = P(a ċ) wobei ċ wie üblich eine der möglichen Ausprägungen von C bezeichnet. Damit folgt aus (L.5) und (L.6) die folgende Gleichungskette (ż {z, z}):

4 Lösungshinweise zu Kapitel 13 L-115 P(xy ż) = P(x ż) P(xy ż) = P(x ż) P(x ż) P(y ż) = P(x ż)(1 P(y ż)) = P(x ż) P(y ż) Ebenso zeigt man P(xy ż) = P(x ż) P(y ż) und P(xy ż) = P(x ż) P(y ż). Damit reicht es aus, zum Beweis der bedingten Unabhängigkeit von X, Y bei gegebenem Z die Fälle P(xy z) und P(xy z) zu betrachten. 2. Es sei P die folgende Wahrscheinlichkeitsverteilung über den Variablen A, B und C: A B C P(A, B, C) Wir konstruieren einen Markov-Graphen G 0 = V, E 0 zu P gemäß Theorem 13.7 (S. 418). Die Menge der Knoten V besteht aus den Variablen A, B, C. Um die Menge E 0 der Kanten zu bestimmen, müssen wir überprüfen, ob die folgenden bedingten Unabhängigkeiten gelten: (a) A (b) A (c) B P B C, P C B und P C A. zu (a) Aus der Wahrscheinlichkeitsverteilung P(A, B, C) ergibt sich P(c) = 1 2. Damit berechnet man P(ab c) = P(a c) = P(b c) = P(abc) = 2 1 P(c) 3 = 2 3 P(ac) P(c) = 2 ( ) = = P(bc) P(c) = 2 ( ) = = 4 5 Offensichtlich ist damit P(ab c) P(a c) P(b c), es gilt also nicht A Wir können somit die Kante (A, B) zu E 0 hinzufügen. P B C.

5 L-116 Lösungshinweise zu Kapitel 13 zu (b) Es ist P(b) = 3 5, und daher P(ac b) = P(a b) = P(c b) = P(abc) = 5 P(b) = 5 9 P(ab) P(b) = 5 3 ( ) = = 5 6 P(bc) P(b) = 5 3 ( ) = = 2 3 Wegen = 5 9 gilt hier P(ac b) = P(a b) P(c b). Um die bedingte Unabhängigkeit von A und C bei gegebenem B zu zeigen, müssen jetzt allerdings auch noch die bedingten Wahrscheinlichkeiten P( b) überprüft werden: P(ac b) = P(a b) = P(c b) = P(abc) = 5 P(b) = 1 8 P(ab) P(b) = 5 2 ( ) = = 1 2 P(bc) P(b) = 5 2 ( ) = = 1 4 Es gilt also auch hier P(ac b) = P(a b) P(c b), und mit dem Ergebnis aus Teil 1 folgt daraus A P C B Zwischen den Knoten A und C darf also im Markov-Graphen keine Kante existieren. zu (c) Es bleibt noch, die bedingte Unabhängigkeit von B und C bei gegebenem A zu überprüfen. Mit P(a) = 7 10 ergeben sich die folgenden bedingten Wahrscheinlichkeiten: P(bc a) = P(b a) = P(c a) = P(abc) = 10 P(a) = P(ab) P(a) = 10 7 ( ) = = 5 7 P(ac) P(a) = 10 7 ( ) = = Wegen = gilt P(bc a) P(b a) P(c a). Es ist somit nicht B P C A, und die Kante (B, C) kann ebenfalls zu E 0 hinzufügt werden. Insgesamt haben wir damit den Markov-Graphen G 0 = V, E 0 mit V = {A, B, C} und E 0 = {(A, B), (B, C)} erzeugt (s. Abbildung L.20).

6 Lösungshinweise zu Kapitel 13 L-117 A B C Abbildung L.20 Markov-Graph zu Selbsttestaufgabe zu Selbsttestaufgabe (Pharma-Test) 1. Die gemeinsame Verteilung P über R, V und A ergibt sich sofort aus der angegebenen Tabelle, indem statt der Häufigkeiten die Wahrscheinlichkeiten angegeben werden: R V A Wahrschein- (Raucher) (Vitamingabe) (Atemwegserkrankung) lichkeit Die Randverteilung P über V und A ergibt sich wie folgt: 1 2. V und A sind statistisch abhängig: Es ist beispielsweise V A Anzahl Wahrscheinlichkeit P(V = 1, A = 1) = = = P(V = 1) P(A = 1)

7 L-118 Lösungshinweise zu Kapitel 13 V und A sind jedoch bedingt unabhängig bezüglich R: P(V =1,A=1,R=1) P(V = 1, A = 1 R = 1) = P(R=1) = 6 35 = P(V = 1 R = 1) = = P(A = 1 R = 1) = = 0.6 P(V = 1 R = 1) P(A = 1 R = 1) = = P(V =1,A=1,R=0) P(R=0) = P(V = 1, A = 1 R = 0) = P(V = 1 R = 0) = = P(A = 1 R = 0) = 6 60 = 0.1 P(V = 1 R = 0) P(A = 1 R = 0) = = = In der nachfolgend dargestellten Baumstruktur lässt sich die Strukturgleichheit ebenfalls ablesen: Die Übergangswahrscheinlichkeiten auf der dritten Ebene sind im linken und rechten Teilbaum jeweils gleich. 3. Im Markov-Graph von P werden V und A durch R separiert: A R V

8 Lösungshinweise zu Kapitel 13 L-119 zu Selbsttestaufgabe (Bayessches Netz) Wir benutzen Formel (13.18): P(abcde) = P(a)P(b a)p(c a)p(d bc)p(e c) = = P(a b cde) = P(a)P( b a)p( c a)p(d b c)p(e c) = = Zur Bestimmung von P(āb c) muss marginalisiert werden: P(āb c) = P(āb cde) + P(āb cdē) + P(āb c de) + P(āb c dē) = P(ā)P(b ā)p( c ā)p(d b c)p(e c) + P(ā)P(b ā)p( c ā)p(d b c)p(ē c) + P(ā)P(b ā)p( c ā)p( d b c)p(e c) + P(ā)P(b ā)p( c ā)p( d b c)p(ē c) = P(ā)P(b ā)p( c ā) [(P(d b c) + P( d b c))(p(e c) + P(ē c))] = P(ā)P(b ā)p( c ā) 1 1 = P(ā)P(b ā)p( c ā) = = zu Selbsttestaufgabe (Bayessches Netz) Zur Bestimmung einer Wahrscheinlichkeitsverteilung, die die durch den DAG in Beispiel ausgedrückten Unabhängigkeiten respektiert, sind die folgenden (bedingten) Wahrscheinlichkeiten nötig: P(g) P(h u g) P(h u ḡ) P(w u g) P(w u ḡ) Formel (13.17) hat in diesem Beispiel die Form P(GH u W u ) = P(G)P(H u G)P(W u G)

9 L-120 Lösungshinweise zu Kapitel 13 zu Selbsttestaufgabe (Potentialdarstellung) Wir berechnen für jede der drei Cliquen exemplarisch einen Wert; die übrigen Werte können der Tabelle in Abbildung auf Seite 440 entnommen werden. C 1 : C 2 : C 3 : ψ(abc) = P(a)P(b a)p(c a) = = ψ(bcd) = P(d bc) = 0.80 ψ(ce) = P(e c) = 0.80 zu Selbsttestaufgabe (bedingte Wahrscheinlichkeiten) Aus der Definition von W i,s i,r i folgt W i = R i S i Damit ist P(R i S i ) = P(R i S i ) P(S i ) = P(W i) P(S i ) = P(W i S i ) P(S i ) = P(W i S i ) (da S i W i ) zu Selbsttestaufgabe (Cliquenbaum) 1. Die gemeinsame Verteilung über R, S, H r und W r berechnet sich nach Proposition wie folgt: P(R, S, H r, W r ) = P(R) P(W r R) P(S) P(H r R, S) Wir erhalten damit folgende Verteilung:

10 Lösungshinweise zu Kapitel 13 L-121 R S H r W r P(R, S, H r, W r ) Aus der Verteilung aus Teil 1 ergibt sich: P(W r ) = 0.36 P(H r ) = Den permanenten Cliquenbaum erzeugen wir wie auf Seite 436 beschrieben: Zunächst benötigen wir den moralen Graphen des zum gegebenen Bayesschen Netzwerk gehörenden Graphen. Dieser ist in Abbildung L.21 gegeben. R S W r H r Abbildung L.21 Der morale Graph G m des Los Angeles-Beispiels Als nächstes bestimmen wir mittels maximum cardinality search eine Knotenordnung α: α(w r ) = 1 α(r) = 2 α(s) = 3 α(h r ) = 4 Da der fill-in dieses Graphen keine neuen Kanten enthält, ergibt sich G(α) = G m.

11 L-122 Lösungshinweise zu Kapitel 13 Die in G(α) enthaltenen Cliquen sind C 1 := {R, W r } und C 2 := {R, S, H r } Durch die Nummerierung ist bereits die Ordnung gemäß den höchsten jeweils vorkommenden Knoten gegeben. Die Mengen S i und R i ergeben sich nun wie folgt: S 1 := R 1 = {R, W r } S 2 := {R} R 2 = {S, H r } Wegen S 2 C 1 wählen wir C 1 als Elternclique von C 2. Damit erhalten wir den Cliquenbaum aus Abbildung L.22, in dem die Kanten die Separatoren als Label tragen. C 1 R C 2 Abbildung L.22 Cliquenbaum des Los Angeles-Beispiels Für jeden Knoten des Bayesschen Netzwerks wählen wir nun eine Clique, die diesen Knoten und alle seine Vorgänger enthält: clq(w r ) = C 1 clq(r) = C 2 clq(s) = C 2 clq(h r ) = C 2 Zuletzt benötigen wir noch eine Funktion ψ, die wir wie folgt berechnen können: ψ(c i ) = P(V c(v )) V :clq(v )=C i Für C 1 = {R, W r } erhalten wir also ψ(c 1 ) = P(W r R): R W r ψ(r, W r )

12 Lösungshinweise zu Kapitel 13 L-123 Entsprechend ergibt sich für C 2 = {R, S, H r } ψ(c 2 ) = P(R) P(S) P(H R R, S): R S H r ψ(r, S, H r ) zu Selbsttestaufgabe (Propagationsalgorithmus) Die vollständige Angabe aller Potentialwerte und Wahrscheinlichkeiten für die Cliquen C i in Beispiel findet sich in Abbildung L.23. Wir wollen nur den Schritt zur Berechnung von P(C 3 ) noch näher erläutern. Es ist S 3 = {C} C 2, und wir errechnen aus P(C 2 ) z.b. i Ĉ i Konjunktion ˆψ(neu) (Ĉi) ˆP( Ĉ i ) 1 {A, B, C} abc ab c a bc a b c ābc āb c ā bc ā b c {B, C, D} bcd bc d b cd b c d bcd bc d b cd b c d {C, E} ce cē ce cē Abbildung L.23 Potentialwerte und Wahrscheinlichkeiten für die Cliquen C i in Beispiel 13.42

13 L-124 Lösungshinweise zu Kapitel 13 Damit erhalten wir P(c) = = 0.08 P(ce) = ψ(ce)p(c) = = Die anderen Wahrscheinlichkeiten ergeben sich analog. zu Selbsttestaufgabe (Erdbeben) 1. Wir bestimmen die Elternknoten c(v ) der einzelnen Knoten in {A, D, E, R}: c(d) = c(e) = c(a) = {D, E} c(r) = {E} Die zum obigen Bayesschen Netz gehörige gemeinsame Verteilung über A, D, E, R besitzt demnach die folgende Produktdarstellung (vgl. Proposition 13.26): P(A, D, E, R) = P(D) P(E) P(A D, E) P(R E) Laut Konstruktion gelten im obigen Bayesschen Netz die folgenden Gleichheiten: P(A D, E, R) = P(A D, E) P(D E, R) = P(D ) = P(D) P(E D) = P(E) P(R E, A, D) = P(R E) und damit die folgenden (bedingten) Unabhängigkeiten {A} {D} {E} {R} P {R} {D, E} P {E, R} P {D} P {A, D} {E} 2. Den permanenten Cliquenbaum erzeugen wir wie auf Seite 436 beschrieben: Zunächst benötigen wir den moralen Graphen des zum gegebenen Bayesschen Netzwerk G gehörenden Graphen. Der Knoten A besitzt in G zwei unverbundene Elternknoten, D und E. Zur Konstruktion des moralen Graphen müssen diese beiden verbunden werden, außerdem werden aus gerichteten Kanten ungerichtete Kanten. Damit hat der morale Graph des Bayesschen Netzes die in Abbildung L.24 gezeigte Form.

14 Lösungshinweise zu Kapitel 13 L-125 D E A R Abbildung L.24 Der morale Graph G m der Erdbeben-Aufgabe Als nächstes bestimmen wir mittels maximum cardinality search eine Knotenordnung α: α(d) = 1 α(a) = 2 α(e) = 3 α(r) = 4 Da der morale Graph bereits trianguliert ist, enthält der fill-in dieses Graphen keine neuen Kanten, d.h., es ist G(α) = G m. Die in G(α) enthaltenen Cliquen sind C 1 := {D, E, A} und C 2 := {E, R} Durch die Nummerierung ist bereits die Ordnung gemäß den höchsten jeweils vorkommenden Knoten gegeben. Die Mengen S i und R i, i = 1, 2, ergeben sich nun wie folgt: S 1 := R 1 = C 1 = {D, E, A} S 2 := {E} R 2 = {R} Wegen S 2 C 1 wählen wir C 1 als Elternclique von C 2. Damit erhalten wir den Cliquenbaum aus Abbildung L.25, in dem die Kante den entsprechenden Separator als Label trägt. Für jeden Knoten des Bayesschen Netzwerks wählen wir nun eine Clique, die diesen Knoten und alle seine Vorgänger enthält: clq(d) = C 1 clq(a) = C 1 clq(e) = C 1 clq(r) = C 2 Zuletzt benötigen wir noch für die Potentialdarstellung eine Funktion ψ, die wir wie folgt berechnen können: ψ(c i ) = P(V c(v )) V :clq(v )=C i

15 L-126 Lösungshinweise zu Kapitel 13 C 1 {E} C 2 Abbildung L.25 Cliquenbaum der Erdbeben-Aufgabe Für C 1 = {D, E, A} erhalten wir also ψ(c 1 ) = P(D) P(E) P(A D, E): A D E ψ(a, D, E) Entsprechend ergibt sich für C 2 = {E, R} ψ(c 2 ) = P(R E): E R ψ(r, E) Um die Wahrscheinlichkeitsverteilungen über den Cliquen zu berechnen, folgen wir den Ideen in Abschnitt Für die Cliquen gilt demnach P(C i ) = P(R i S i ) P(S i ), i = 1, 2 Für die Clique C 2 ergibt sich daher sofort P(C 2 ) = ψ(r, E)P(E) und daher die folgende Verteilung: E R P(R, E)

16 Lösungshinweise zu Kapitel 13 L-127 Wir wenden nun Proposition an, um aus der gegebenen Potentialdarstellung ψ eine Potentialdarstellung ψ (1) über C 1 zu gewinnen: ψ (1) (C 1 ) = ψ(c 1 ) R 2 ψ(c 2 ) = ψ(a, D, E) ψ(r, E) R } {{ } =1 = ψ(a, D, E) Um daraus eine Wahrscheinlichkeitsverteilung zu erhalten, müssen wir ψ (1) bzw. ψ nur noch normieren. Man rechnet leicht nach, dass bereits ψ(a, D, E) = 1 ist, also P(A, D, E) = ψ(a, D, E) gilt (s.o.). A,D,E Aus den Cliquenwahrscheinlichkeiten ergeben sich die erfragten Wahrscheinlichkeiten P(A) und P(R) aus den obigen Tabellen durch Aufsummieren: P(A) = und P(R) = zu Selbsttestaufgabe (Propagationsalgorithmus bei Instantiierung) Zunächst muss ˆP(Ĉ1) aus ˆψ (2) berechnet werden. Mit Proposition ist ˆP(Ĉ1) = ˆP( ˆR 1 Ŝ1) = ˆψ (2) (Ĉ1) ˆR ˆψ(2) 1 (Ĉ1) Durch Aufsummieren der entsprechenden Werte in Formel (13.29) auf Seite 445 ergibt sich ˆR 1 ˆψ(2) (Ĉ1) = also z.b. ˆP(abc) = ˆψ (2) (abc) = bzw. Für Ĉ2 ist ˆP(Ĉ2) = ˆψ (neu) (Ĉ2) ˆP(Ŝ2) ˆP(B, C) = ˆψ (neu) (B, C) ˆP(B, C) und ˆP(B, C) kann aus ˆP(Ĉ1) berechnet werden. Es ist z.b. ˆP(bc) = = 0.093

17 L-128 Lösungshinweise zu Kapitel 13 Schließlich ist ˆP(Ĉ3) = ˆψ (neu) (Ĉ3) ˆP(Ŝ3) also z.b. ˆP(ce) = ˆψ (neu) (ce) ˆP(c) = 0.8 ( ) Alle anderen Werte werden analog berechnet und sind in Abbildung aufgelistet.

Quantitative Methoden Wissensbasierter Systeme

Quantitative Methoden Wissensbasierter Systeme Quantitative Methoden Wissensbasierter Systeme Probabilistische Netze und ihre Anwendungen Robert Remus Universität Leipzig Fakultät für Mathematik und Informatik Abteilung für Intelligente Systeme 23.

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

Erzeugung zufälliger Graphen und Bayes-Netze

Erzeugung zufälliger Graphen und Bayes-Netze Erzeugung zufälliger Graphen und Bayes-Netze Proseminar Algorithmen auf Graphen Georg Lukas, IF2000 2002-07-09 E-Mail: georg@op-co.de Folien: http://op-co.de/bayes/ Gliederung 1. Einleitung 2. einfache

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

Künstliche Intelligenz Unsicherheit. Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln

Künstliche Intelligenz Unsicherheit. Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Künstliche Intelligenz Unsicherheit Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Rückblick Agent in der Wumpuswelt konnte Entscheidungen

Mehr

Was bisher geschah Wissensrepräsentation und -verarbeitung in Zustandsübergangssystemen Constraint-Systemen Logiken Repräsentation von Mengen

Was bisher geschah Wissensrepräsentation und -verarbeitung in Zustandsübergangssystemen Constraint-Systemen Logiken Repräsentation von Mengen Was bisher geschah Wissensrepräsentation und -verarbeitung in Zustandsübergangssystemen Constraint-Systemen Logiken Repräsentation von Mengen aussagenlogischer Regeln: Wissensbasis (Kontextwissen): Formelmenge,

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

Trainingsaufgaben zur Klausurvorbereitung in Statistik I und II Thema: Satz von Bayes

Trainingsaufgaben zur Klausurvorbereitung in Statistik I und II Thema: Satz von Bayes Trainingsaufgaben zur Klausurvorbereitung in Statistik I und II Thema: Satz von Bayes Aufgabe 1: Wetterbericht Im Mittel sagt der Wetterbericht für den kommenden Tag zu 60 % schönes und zu 40% schlechtes

Mehr

Variationen über ein geometrisches Problem

Variationen über ein geometrisches Problem Variationen über ein geometrisches Problem Emese Vargyas Johannes Gutenberg-Universität Mainz 29.03.2014 Problem Problem-Variation Seien ABC ein gleichseitiges Dreieck mit Seitenlänge s und P ein beliebiger

Mehr

6 Mehrstufige zufällige Vorgänge Lösungshinweise

6 Mehrstufige zufällige Vorgänge Lösungshinweise 6 Mehrstufige zufällige Vorgänge Lösungshinweise Aufgabe 6.: Begründen Sie, warum die stochastische Unabhängigkeit zweier Ereignisse bzw. zufälliger Vorgänge nur ein Modell der Realität darstellen kann.

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Prof. Dr. phil. Dr. rer. nat. habil. M.Schenke Vorlesung Maschinelles Lernen Basierend auf der Vorlesung und dem Buch»Methoden wissensbasierter Systeme«von Christoph Beierle und Gabriele Kern-Isberner

Mehr

6.2 Perfekte Sicherheit

6.2 Perfekte Sicherheit 04 6.2 Perfekte Sicherheit Beweis. H(B AC) + H(A C) = H(ABC) H(AC) + H(AC) H(C) Wegen gilt Einsetzen in die Definition gibt = H(AB C). H(A BC) = H(AB C) H(B C). I(A; B C) = H(A C) H(AB C) + H(B C). Da

Mehr

1 Stochastische Prozesse in stetiger Zeit

1 Stochastische Prozesse in stetiger Zeit 1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.

Mehr

Zeichnen von Graphen. graph drawing

Zeichnen von Graphen. graph drawing Zeichnen von Graphen graph drawing WS 2006 / 2007 Gruppe: D_rot_Ala0607 Christian Becker 11042315 Eugen Plischke 11042351 Vadim Filippov 11042026 Gegeben sei ein Graph G = (V; E) Problemstellung V E =

Mehr

Falten regelmäßiger Vielecke

Falten regelmäßiger Vielecke Blatt 1 Gleichseitige Dreiecke Ausgehend von einem quadratischen Stück Papier kann man ohne weiteres Werkzeug viele interessante geometrische Figuren nur mit den Mitteln des Papierfaltens (Origami) erzeugen.

Mehr

Formale Systeme. Binary Decision Diagrams. Prof. Dr. Bernhard Beckert WS 2010/2011 KIT INSTITUT FÜR THEORETISCHE INFORMATIK

Formale Systeme. Binary Decision Diagrams. Prof. Dr. Bernhard Beckert WS 2010/2011 KIT INSTITUT FÜR THEORETISCHE INFORMATIK Formale Systeme Prof. Dr. Bernhard Beckert WS / KIT INSTITUT FÜR THEORETISCHE INFORMATIK KIT University of the State of Baden-Württemberg and National Large-scale Research Center of the Helmholtz Association

Mehr

(Man sagt dafür auch, dass die Teilmenge U bezüglich der Gruppenoperationen abgeschlossen sein muss.)

(Man sagt dafür auch, dass die Teilmenge U bezüglich der Gruppenoperationen abgeschlossen sein muss.) 3. Untergruppen 19 3. Untergruppen Nachdem wir nun einige grundlegende Gruppen kennengelernt haben, wollen wir in diesem Kapitel eine einfache Möglichkeit untersuchen, mit der man aus bereits bekannten

Mehr

Technische Hochschule Köln Fakultät für Wirtschafts- und Rechtswissenschaften Prof. Dr. Arrenberg Raum 221, Tel. 3914 jutta.arrenberg@th-koeln.

Technische Hochschule Köln Fakultät für Wirtschafts- und Rechtswissenschaften Prof. Dr. Arrenberg Raum 221, Tel. 3914 jutta.arrenberg@th-koeln. Übungen zur Vorlesung Wirtschaftsstatistik Zufallsvariablen Aufgabe 4.1 Ein Unternehmen fertigt einen Teil der Produktion in seinem Werk in München und den anderen Teil in seinem Werk in Köln. Auf Grund

Mehr

Klausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13)

Klausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13) Berlin, 21. Februar 2013 Name:... Matr.-Nr.:... Klausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13) 1 2 3 4 5 6 7 8 9 Σ Bearbeitungszeit: 90 min. max. Punktezahl:

Mehr

Kapitel 3: Etwas Informationstheorie

Kapitel 3: Etwas Informationstheorie Stefan Lucks 3: Informationstheorie 28 orlesung Kryptographie (SS06) Kapitel 3: Etwas Informationstheorie Komplexitätstheoretische Sicherheit: Der schnellste Algorithmus, K zu knacken erfordert mindestens

Mehr

w a is die Anzahl der Vorkommen von a in w Beispiel: abba a = 2

w a is die Anzahl der Vorkommen von a in w Beispiel: abba a = 2 1 2 Notation für Wörter Grundlagen der Theoretischen Informatik Till Mossakowski Fakultät für Informatik Otto-von-Guericke Universität Magdeburg w a is die Anzahl der Vorkommen von a in w Beispiel: abba

Mehr

4. Übungsblatt Matrikelnr.: 6423043

4. Übungsblatt Matrikelnr.: 6423043 Lineare Algebra I 1. Name: Bleeck, Christian 4. Übungsblatt Matrikelnr.: 6423043 Abgabe: 15.11.06 12 Uhr (Kasten D1 320) Übungsgruppe: 03 Patrick Schützdeller 2. Name: Niemann, Philipp Matrikelnr.: 6388613

Mehr

Mengensysteme, Wahrscheinlichkeitsmaße

Mengensysteme, Wahrscheinlichkeitsmaße Kapitel 1 Mengensysteme, Wahrscheinlichkeitsmaße Der Großteil der folgenden fundamentalen Begriffe sind schon aus der Vorlesung Stochastische Modellbildung bekannt: Definition 1.1 Eine Familie A von Teilmengen

Mehr

Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR)

Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR) Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR) Eine Firma stellt USB-Sticks her. Sie werden in der Fabrik ungeprüft in Packungen zu je 20 Stück verpackt und an Händler ausgeliefert. 1 Ein Händler

Mehr

Logik für Informatiker

Logik für Informatiker Logik für Informatiker 2. Aussagenlogik Teil 3 30.04.2012 Viorica Sofronie-Stokkermans Universität Koblenz-Landau e-mail: sofronie@uni-koblenz.de 1 Letztes Mal Aussagenlogik Syntax: welche Formeln? Semantik:

Mehr

Einführung in die Computerlinguistik Statistische Grundlagen

Einführung in die Computerlinguistik Statistische Grundlagen Statistik 1 Sommer 2015 Einführung in die Computerlinguistik Statistische Grundlagen Laura Heinrich-Heine-Universität Düsseldorf Sommersemester 2015 Statistik 2 Sommer 2015 Überblick 1. Diskrete Wahrscheinlichkeitsräume

Mehr

Technische Universität München Zentrum Mathematik Propädeutikum Diskrete Mathematik. Weihnachtsblatt

Technische Universität München Zentrum Mathematik Propädeutikum Diskrete Mathematik. Weihnachtsblatt Technische Universität München Zentrum Mathematik Propädeutikum Diskrete Mathematik Prof. Dr. A. Taraz, Dipl-Math. A. Würfl, Dipl-Math. S. König Weihnachtsblatt Aufgabe W.1 Untersuchen Sie nachstehenden

Mehr

, dt. $+ f(x) = , - + < x < +, " > 0. " 2# Für die zugehörige Verteilungsfunktion F(x) ergibt sich dann: F(x) =

, dt. $+ f(x) = , - + < x < +,  > 0.  2# Für die zugehörige Verteilungsfunktion F(x) ergibt sich dann: F(x) = 38 6..7.4 Normalverteilung Die Gauß-Verteilung oder Normal-Verteilung ist eine stetige Verteilung, d.h. ihre Zufallsvariablen können beliebige reelle Zahlenwerte annehmen. Wir definieren sie durch die

Mehr

Statistische Thermodynamik I Lösungen zur Serie 1

Statistische Thermodynamik I Lösungen zur Serie 1 Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen

Mehr

Optimalitätskriterien

Optimalitätskriterien Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen

Mehr

Informationssicherheit - Lösung Blatt 2

Informationssicherheit - Lösung Blatt 2 Informationssicherheit - Lösung Blatt 2 Adam Glodek adam.glodek@gmail.com 13.04.2010 1 1 Aufgabe 1: One Time Pad 1.1 Aufgabenstellung Gegeben ist der folgende Klartext 12Uhr (ASCII). Verschlüsseln Sie

Mehr

Beispiel. Bsp.: Betrachte Schlussweise in: (3) folgt aus (1) und (2), siehe z.b. Resolutionsregel. was ist mit folgender Schlußweise:

Beispiel. Bsp.: Betrachte Schlussweise in: (3) folgt aus (1) und (2), siehe z.b. Resolutionsregel. was ist mit folgender Schlußweise: Theoretische Informatik: Logik, M. Lange, FB16, Uni Kassel: 5.4 Prädikatenlogik mit Gleichheit Resolution 192 Beispiel Bsp.: Betrachte Schlussweise in: 1 Wenn es regnet, dann wird die Straße nass. R N

Mehr

3 Quellencodierung. 3.1 Einleitung

3 Quellencodierung. 3.1 Einleitung Source coding is what Alice uses to save money on her telephone bills. It is usually used for data compression, in other words, to make messages shorter. John Gordon 3 Quellencodierung 3. Einleitung Im

Mehr

Exkurs: Polnische Räume

Exkurs: Polnische Räume Ein normaler Hausdorff-Raum mit abzählbarer Basis kann auf viele Weisen metrisiert werden; man kann insbesondere eine einmal gewonnene Metrik in vielerlei Weise abändern, ohne die von ihr erzeugte Topologie

Mehr

$ % + 0 sonst. " p für X =1 $

$ % + 0 sonst.  p für X =1 $ 31 617 Spezielle Verteilungen 6171 Bernoulli Verteilung Wir beschreiben zunächst drei diskrete Verteilungen und beginnen mit einem Zufallsexperiment, indem wir uns für das Eintreffen eines bestimmten Ereignisses

Mehr

Datenstrukturen & Algorithmen

Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Binäre Suchbäume Einführung und Begriffe Binäre Suchbäume 2 Binäre Suchbäume Datenstruktur für dynamische Mengen

Mehr

Universität Koblenz-Landau, Abteilung Koblenz FB 4 Informatik. Seminar Entscheidungsverfahren für logische Theorien. Endliche Modelle.

Universität Koblenz-Landau, Abteilung Koblenz FB 4 Informatik. Seminar Entscheidungsverfahren für logische Theorien. Endliche Modelle. Universität Koblenz-Landau, Abteilung Koblenz FB 4 Informatik Seminar Entscheidungsverfahren für logische Theorien Tobias Hebel Koblenz, am 18.02.2005 Inhaltsverzeichnis 1 Einleitung... 3 2 Grundlagen...

Mehr

Abitur 2012 Mathematik GK Stochastik Aufgabe C1

Abitur 2012 Mathematik GK Stochastik Aufgabe C1 Seite 1 Abiturloesung.de - Abituraufgaben Abitur 2012 Mathematik GK Stochastik Aufgabe C1 nter einem Regentag verstehen Meteorologen einen Tag, an dem mehr als ein Liter Niederschlag pro Quadratmeter gefallen

Mehr

Binäre Suchbäume (binary search trees, kurz: bst)

Binäre Suchbäume (binary search trees, kurz: bst) Binäre Suchbäume (binary search trees, kurz: bst) Datenstruktur zum Speichern einer endlichen Menge M von Zahlen. Genauer: Binärbaum T mit n := M Knoten Jeder Knoten v von T ist mit einer Zahl m v M markiert.

Mehr

Literatur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS)

Literatur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS) Dominating Set 59 Literatur Dominating Set Grundlagen 60 Dominating Set (DS) M. V. Marathe, H. Breu, H.B. Hunt III, S. S. Ravi, and D. J. Rosenkrantz: Simple Heuristics for Unit Disk Graphs. Networks 25,

Mehr

Grundlagen der Theoretischen Informatik - Sommersemester 2012. Übungsblatt 1: Lösungsvorschläge

Grundlagen der Theoretischen Informatik - Sommersemester 2012. Übungsblatt 1: Lösungsvorschläge Lehrstuhl für Softwaretechnik und Programmiersprachen Professor Dr. Michael Leuschel Grundlagen der Theoretischen Informatik - Sommersemester 2012 Übungsblatt 1: Lösungsvorschläge Disclaimer: Bei Folgendem

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Lösungsvorschlag für die Probeklausuren und Klausuren zu Algebra für Informations- und Kommunikationstechniker bei Prof. Dr.

Lösungsvorschlag für die Probeklausuren und Klausuren zu Algebra für Informations- und Kommunikationstechniker bei Prof. Dr. Lösungsvorschlag für die Probeklausuren und Klausuren zu Algebra für Informations- und Kommunikationstechniker bei Prof. Dr. Kurzweil Florian Franzmann André Diehl Kompiliert am 10. April 2006 um 18:33

Mehr

Idee: Wenn wir beim Kopfknoten zwei Referenzen verfolgen können, sind die Teillisten kürzer. kopf Eine Datenstruktur mit Schlüsselwerten 1 bis 10

Idee: Wenn wir beim Kopfknoten zwei Referenzen verfolgen können, sind die Teillisten kürzer. kopf Eine Datenstruktur mit Schlüsselwerten 1 bis 10 Binäre Bäume Bäume gehören zu den wichtigsten Datenstrukturen in der Informatik. Sie repräsentieren z.b. die Struktur eines arithmetischen Terms oder die Struktur eines Buchs. Bäume beschreiben Organisationshierarchien

Mehr

Algorithmentheorie. 13 - Maximale Flüsse

Algorithmentheorie. 13 - Maximale Flüsse Algorithmentheorie 3 - Maximale Flüsse Prof. Dr. S. Albers Prof. Dr. Th. Ottmann . Maximale Flüsse in Netzwerken 5 3 4 7 s 0 5 9 5 9 4 3 4 5 0 3 5 5 t 8 8 Netzwerke und Flüsse N = (V,E,c) gerichtetes Netzwerk

Mehr

Analog zu Aufgabe 16.1 werden die Daten durch folgenden Befehl eingelesen: > kredit<-read.table("c:\\compaufg\\kredit.

Analog zu Aufgabe 16.1 werden die Daten durch folgenden Befehl eingelesen: > kredit<-read.table(c:\\compaufg\\kredit. Lösung 16.3 Analog zu Aufgabe 16.1 werden die Daten durch folgenden Befehl eingelesen: > kredit

Mehr

55. Mathematik-Olympiade 4. Stufe (Bundesrunde) Olympiadeklasse 10 Lösungen 1. Tag

55. Mathematik-Olympiade 4. Stufe (Bundesrunde) Olympiadeklasse 10 Lösungen 1. Tag 55. Mathematik-Olympiade 4. Stufe (Bundesrunde) Olympiadeklasse 10 Lösungen 1. Tag c 2016 Aufgabenausschuss des Mathematik-Olympiaden e.v. www.mathematik-olympiaden.de. Alle Rechte vorbehalten. 551041

Mehr

Kapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete

Kapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete Kapitel 4: Dynamische Datenstrukturen Algorithmen und Datenstrukturen WS 2012/13 Prof. Dr. Sándor Fekete 4.4 Binäre Suche Aufgabenstellung: Rate eine Zahl zwischen 100 und 114! Algorithmus 4.1 INPUT: OUTPUT:

Mehr

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt - 17 - Die Frage ist hier also: Für welche x R gilt x = x + 1? Das ist eine quadratische Gleichung für x. Es gilt x = x + 1 x x 3 = 0, und man kann quadratische Ergänzung machen:... ( ) ( ) x x + = 3 +

Mehr

Codierung, Codes (variabler Länge)

Codierung, Codes (variabler Länge) Codierung, Codes (variabler Länge) A = {a, b, c,...} eine endliche Menge von Nachrichten (Quellalphabet) B = {0, 1} das Kanalalphabet Eine (binäre) Codierung ist eine injektive Abbildung Φ : A B +, falls

Mehr

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen 4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.

Mehr

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 )

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 ) Aufgabe 65. Ganz schön span(n)end. Gegeben sei folgende Menge M von 6 Vektoren v, v,..., v 6 R 4 aus Aufgabe P 6: M = v =, v =, v =, v 4 =, v 5 =, v 6 = Welche der folgenden Aussagen sind wahr? span(v,

Mehr

Theoretische Grundlagen der Informatik WS 09/10

Theoretische Grundlagen der Informatik WS 09/10 Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3

Mehr

Formale Systeme, WS 2012/2013 Lösungen zu Übungsblatt 4

Formale Systeme, WS 2012/2013 Lösungen zu Übungsblatt 4 Karlsruher Institut für Technologie Institut für Theoretische Informatik Prof. Dr. Peter H. Schmitt David Farago, Christoph Scheben, Mattias Ulbrich Formale Systeme, WS 2012/2013 Lösungen zu Übungsblatt

Mehr

1.5 Folgerungen aus dem Kolmogoroff- Axiomensystem P( ) = 0.

1.5 Folgerungen aus dem Kolmogoroff- Axiomensystem P( ) = 0. 1.5 Folgerungen aus dem Kolmogoroff- Axiomensystem Folg. 2 Sei (Ω, E, P) W.-raum. Seien A, B,A 1,...,A n Ereignisse. Es gelten die folgenden Aussagen: 1. P(A) = 1 P(A). 2. Für das unmögliche Ereignis gilt:

Mehr

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5)

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5) Einführung 3 Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Univ.-Prof. Dr. Christoph Meinel Hasso-Plattner-Institut Universität Potsdam, Deutschland Hatten den Reduktionsbegriff

Mehr

Bei vielen Zufallsexperimenten interessiert man sich lediglich für das Eintreten bzw. das Nichteintreten eines bestimmten Ereignisses.

Bei vielen Zufallsexperimenten interessiert man sich lediglich für das Eintreten bzw. das Nichteintreten eines bestimmten Ereignisses. XI. Binomialverteilung ================================================================== 11.1 Definitionen -----------------------------------------------------------------------------------------------------------------

Mehr

Textmining Klassifikation von Texten Teil 1: Naive Bayes

Textmining Klassifikation von Texten Teil 1: Naive Bayes Textmining Klassifikation von Texten Teil 1: Naive Bayes Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten 1: Naive

Mehr

3.1 Konstruktion von minimalen Spannbäumen Es gibt zwei Prinzipien für die Konstruktion von minimalen Spannbäumen (Tarjan): blaue Regel rote Regel

3.1 Konstruktion von minimalen Spannbäumen Es gibt zwei Prinzipien für die Konstruktion von minimalen Spannbäumen (Tarjan): blaue Regel rote Regel 3.1 Konstruktion von minimalen Spannbäumen Es gibt zwei Prinzipien für die Konstruktion von minimalen Spannbäumen (Tarjan): blaue Regel rote Regel EADS 3.1 Konstruktion von minimalen Spannbäumen 16/36

Mehr

2.11 Kontextfreie Grammatiken und Parsebäume

2.11 Kontextfreie Grammatiken und Parsebäume 2.11 Kontextfreie Grammatiken und Parsebäume Beispiel: Beispiel (Teil 3): Beweis für L(G) L: Alle Strings aus L der Länge 0 und 2 sind auch in L(G). Als Induktionsannahme gehen wir davon aus, dass alle

Mehr

Vorlesung 04.12.2006: Binäre Entscheidungsdiagramme (BDDs) Dr. Carsten Sinz

Vorlesung 04.12.2006: Binäre Entscheidungsdiagramme (BDDs) Dr. Carsten Sinz Vorlesung 04.12.2006: Binäre Entscheidungsdiagramme (BDDs) Dr. Carsten Sinz Datenstruktur BDD 1986 von R. Bryant vorgeschlagen zur Darstellung von aussagenlogischen Formeln (genauer: Booleschen Funktionen)

Mehr

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen

Mehr

Kryptographie und Komplexität

Kryptographie und Komplexität Kryptographie und Komplexität Einheit 2.3 One-Time Pads und Perfekte Sicherheit 1. Perfekte Geheimhaltung 2. One-Time Pads 3. Strombasierte Verschlüsselung Wie sicher kann ein Verfahren werden? Ziel ist

Mehr

Seminararbeit für das SE Reine Mathematik- Graphentheorie

Seminararbeit für das SE Reine Mathematik- Graphentheorie Seminararbeit für das SE Reine Mathematik- Graphentheorie Der binäre Rang, der symplektische Graph, die Spektralzerlegung und rationale Funktionen Vortrag am 24.01.2012 Heike Farkas 0410052 Inhaltsverzeichnis

Mehr

4 Produktspezifische Ausfallwahrscheinlichkeit und Ausbeute

4 Produktspezifische Ausfallwahrscheinlichkeit und Ausbeute 4.1 Grundlagen 4 Produktspezifische Ausfallwahrscheinlichkeit und Ausbeute 4.1 Grundlagen In den bisherigen Ausführungen wurden die Grundlagen der Ausbeuteberechnung behandelt. So wurde bereits im Abschnitt

Mehr

Kapitel 15: Differentialgleichungen

Kapitel 15: Differentialgleichungen FernUNI Hagen WS 00/03 Kapitel 15: Differentialgleichungen Differentialgleichungen = Gleichungen die Beziehungen zwischen einer Funktion und mindestens einer ihrer Ableitungen herstellen. Kommen bei vielen

Mehr

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele Organisation Was kommt zum Test? Buch Informatik Grundlagen bis inkl Kapitel 74 Wissensfragen und Rechenbeispiele 3 Vorträge zur Übung Informationstheorie, Huffman-Codierung und trennzeichenfreie Codierung

Mehr

8 Diskrete Optimierung

8 Diskrete Optimierung 8 Diskrete Optimierung Definition 8.1. Ein Graph G ist ein Paar (V (G), E(G)) besteh aus einer lichen Menge V (G) von Knoten (oder Ecken) und einer Menge E(G) ( ) V (G) 2 von Kanten. Die Ordnung n(g) von

Mehr

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte 50. Mathematik-Olympiade. Stufe (Regionalrunde) Klasse 3 Lösungen c 00 Aufgabenausschuss des Mathematik-Olympiaden e.v. www.mathematik-olympiaden.de. Alle Rechte vorbehalten. 503 Lösung 0 Punkte Es seien

Mehr

Lösungen zur Vorrundenprüfung 2006

Lösungen zur Vorrundenprüfung 2006 Lösungen zur Vorrundenprüfung 2006 Zuerst einige Bemerkungen zum Punkteschema. Eine vollständige und korrekte Lösung einer Aufgabe ist jeweils 7 Punkte wert. Für komplette Lösungen mit kleineren Fehlern

Mehr

Lösungen zu den Übungsaufgaben aus Kapitel 3

Lösungen zu den Übungsaufgaben aus Kapitel 3 Lösungen zu den Übungsaufgaben aus Kapitel 3 Ü3.1: a) Die Start-Buchungslimits betragen b 1 = 25, b 2 = 20 und b 3 = 10. In der folgenden Tabelle sind jeweils die Annahmen ( ) und Ablehnungen ( ) der Anfragen

Mehr

Erinnerung/Zusammenfassung zu Abbildungsmatrizen

Erinnerung/Zusammenfassung zu Abbildungsmatrizen Erinnerung/Zusammenfassung zu Abbildungsmatrizen Thomas Coutandin (cthomas@student.ethz.ch) 7. November 2 Abbildungsmatrizen Im Folgenden betrachten wir stets endlich dimensionale K-Vektorräume (K irgend

Mehr

Naive Bayes. 5. Dezember 2014. Naive Bayes 5. Dezember 2014 1 / 18

Naive Bayes. 5. Dezember 2014. Naive Bayes 5. Dezember 2014 1 / 18 Naive Bayes 5. Dezember 2014 Naive Bayes 5. Dezember 2014 1 / 18 Inhaltsverzeichnis 1 Thomas Bayes 2 Anwendungsgebiete 3 Der Satz von Bayes 4 Ausführliche Form 5 Beispiel 6 Naive Bayes Einführung 7 Naive

Mehr

194 Beweis eines Satzes von Tschebyschef. Von P. E RDŐS in Budapest. Für den zuerst von T SCHEBYSCHEF bewiesenen Satz, laut dessen es zwischen einer natürlichen Zahl und ihrer zweifachen stets wenigstens

Mehr

Mädchen Jungen Smartphone 42 52 Computer 77 87 Fernsehgerät 54 65 feste Spielkonsole 37 62

Mädchen Jungen Smartphone 42 52 Computer 77 87 Fernsehgerät 54 65 feste Spielkonsole 37 62 Unabhängigkeit ================================================================== 1. Im Rahmen der sogenannten JIM-Studie wurde in Deutschland im Jahr 2012 der Umgang von Jugendlichen im Alter von 12 bis

Mehr

2. Rechnen mit Wahrscheinlichkeiten

2. Rechnen mit Wahrscheinlichkeiten 2. Rechnen mit Wahrscheinlichkeiten 2.1 Axiome der Wahrscheinlichkeitsrechnung Die Wahrscheinlichkeitsrechnung ist ein Teilgebiet der Mathematik. Es ist üblich, an den Anfang einer mathematischen Theorie

Mehr

11. Primfaktorzerlegungen

11. Primfaktorzerlegungen 78 Andreas Gathmann 11 Primfaktorzerlegungen Euch ist sicher aus der Schule bekannt, dass sich jede positive ganze Zahl a als Produkt a = p 1 p n von Primzahlen schreiben lässt, und dass diese Darstellung

Mehr

Wiederholung zu Flüssen

Wiederholung zu Flüssen Universität Konstanz Methoden der Netzwerkanalyse Fachbereich Informatik & Informationswissenschaft SS 2008 Prof. Dr. Ulrik Brandes / Melanie Badent Wiederholung zu Flüssen Wir untersuchen Flüsse in Netzwerken:

Mehr

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Vollständigkeit halber aufgeführt. Gehen wir einmal davon aus, dass die von uns angenommenen 70% im Beispiel exakt berechnet sind. Was würde

Mehr

Datenstruktur zum Speichern einer endlichen Menge M von Zahlen. Genauer:

Datenstruktur zum Speichern einer endlichen Menge M von Zahlen. Genauer: Binäre Suchbäume (binary search trees, kurz: bst) Datenstruktur zum Speichern einer endlichen Menge M von Zahlen. Genauer: Binärbaum T mit n := M Knoten Jeder Knoten v von T ist mit einer Zahl m v M markiert.

Mehr

Informatik I WS 07/08 Tutorium 24

Informatik I WS 07/08 Tutorium 24 Info I Tutorium 24 Informatik I WS 07/08 Tutorium 24 20.12.07 Bastian Molkenthin E-Mail: infotut@sunshine2k.de Web: http://infotut.sunshine2k.de Rückblick Semi-Thue-Systeme Ein Semi-Thue-System besteht

Mehr

WS 2009/10. Diskrete Strukturen

WS 2009/10. Diskrete Strukturen WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910

Mehr

Y b 2 - a 2 = p 2 - q 2 (*)

Y b 2 - a 2 = p 2 - q 2 (*) Um den Flächeninhalt eines Dreieckes zu bestimmen, das keinen rechten Winkel besitzt, muss man bekanntlich die Längen einer Seite mit der dazugehörigen Höhe kennen Wir setzen voraus, dass uns alle 3 Seitenlängen

Mehr

Algorithmen und Datenstrukturen

Algorithmen und Datenstrukturen Algorithmen und Datenstrukturen Dipl. Inform. Andreas Wilkens aw@awilkens.com Überblick Grundlagen Definitionen Elementare Datenstrukturen Rekursionen Bäume 2 1 Datenstruktur Baum Definition eines Baumes

Mehr

H. Gruber, R. Neumann. Erfolg im Mathe-Abi. Übungsbuch für die optimale Vorbereitung in Analysis, Geometrie und Stochastik mit verständlichen Lösungen

H. Gruber, R. Neumann. Erfolg im Mathe-Abi. Übungsbuch für die optimale Vorbereitung in Analysis, Geometrie und Stochastik mit verständlichen Lösungen H. Gruber, R. Neumann Erfolg im Mathe-Abi Übungsbuch für die optimale Vorbereitung in Analysis, Geometrie und Stochastik mit verständlichen Lösungen Inhaltsverzeichnis Inhaltsverzeichnis Analysis Von der

Mehr

10 Kapitel I: Anschauliche Vektorrechnung

10 Kapitel I: Anschauliche Vektorrechnung 10 Kapitel I: Anschauliche Vektorrechnung haben. In Mengenschreibweise ist G = {x x = a + tb für ein t R}. Wir werden für diese einführenden Betrachtungen im Interesse einer knappen Redeweise jedoch häufig

Mehr

Das Briefträgerproblem

Das Briefträgerproblem Das Briefträgerproblem Paul Tabatabai 30. Dezember 2011 Inhaltsverzeichnis 1 Problemstellung und Modellierung 2 1.1 Problem................................ 2 1.2 Modellierung.............................

Mehr

Seminarvortag zum Thema Virtual Private Network Design im Rahmen des Seminars Network Design an der Universität Paderborn

Seminarvortag zum Thema Virtual Private Network Design im Rahmen des Seminars Network Design an der Universität Paderborn Seminarvortag zum Thema Virtual Private Network Design im Rahmen des Seminars Network Design an der Universität Paderborn Ein 5.55-Approximationsalgorithmus für das VPND-Problem Lars Schäfers Inhalt Einführung:

Mehr

q = 1 p = 0.8 0.2 k 0.8 10 k k = 0, 1,..., 10 1 1 0.8 2 + 10 0.2 0.8 + 10 9 1 2 0.22 1 = 0.8 8 [0.64 + 1.6 + 1.8] = 0.678

q = 1 p = 0.8 0.2 k 0.8 10 k k = 0, 1,..., 10 1 1 0.8 2 + 10 0.2 0.8 + 10 9 1 2 0.22 1 = 0.8 8 [0.64 + 1.6 + 1.8] = 0.678 Lösungsvorschläge zu Blatt 8 X binomialverteilt mit p = 0. und n = 10: a PX = = 10 q = 1 p = 0.8 0. 0.8 10 = 0, 1,..., 10 PX = PX = 0 + PX = 1 + PX = 10 10 = 0. 0 0.8 10 + 0. 1 0.8 9 + 0 1 10 = 0.8 8 [

Mehr

3.2 Binäre Suche. Usr/local/www/ifi/fk/menschen/schmid/folien/infovk.ppt 1

3.2 Binäre Suche. Usr/local/www/ifi/fk/menschen/schmid/folien/infovk.ppt 1 3.2 Binäre Suche Beispiel 6.5.1: Intervallschachtelung (oder binäre Suche) (Hier ist n die Anzahl der Elemente im Feld!) Ein Feld A: array (1..n) of Integer sei gegeben. Das Feld sei sortiert, d.h.: A(i)

Mehr

Zur Definition von Definition Albert J. J. Anglberger, Peter Brössel

Zur Definition von Definition Albert J. J. Anglberger, Peter Brössel Zur Definition von Definition Albert J. J. Anglberger, Peter Brössel Zusammenfassung Wir werden in dieser Arbeit zwei neue Definitionsvorschläge von Definition entwickeln, die folgende Eigenschaften aufweisen:

Mehr

Guten Morgen und Willkommen zur Saalübung!

Guten Morgen und Willkommen zur Saalübung! Guten Morgen und Willkommen zur Saalübung! 1 Wie gewinnt man ein Spiel? Was ist ein Spiel? 2 Verschiedene Spiele Schach, Tic-Tac-Toe, Go Memory Backgammon Poker Nim, Käsekästchen... 3 Einschränkungen Zwei

Mehr

Vorlesung Theoretische Informatik

Vorlesung Theoretische Informatik Vorlesung Theoretische Informatik Automaten und Formale Sprachen Hochschule Reutlingen Fakultät für Informatik Masterstudiengang Wirtschaftsinformatik überarbeitet von F. Laux (Stand: 09.06.2010) Sommersemester

Mehr

Graphische Modelle in der Mustererkennung

Graphische Modelle in der Mustererkennung Lehrstuhl für Mensch-Maschine-Kommunikation Technische Universität München Graphische Modelle in der Mustererkennung Marc A. Al-Hames Vollständiger Abdruck der von der Fakultät für Elektrotechnik und Informationstechnik

Mehr

Vier-Felder-Tafel. Medizinische Tests sind grundsätzlich mit zwei Fehlern behaftet: 1. Erkrankte werden als gesund, 2. Gesunde als krank eingestuft.

Vier-Felder-Tafel. Medizinische Tests sind grundsätzlich mit zwei Fehlern behaftet: 1. Erkrankte werden als gesund, 2. Gesunde als krank eingestuft. Vier-Felder-Tafel Mediziniche Tet ind grundätzlich mit zwei Fehlern behaftet:. Erkrankte werden al geund, 2. Geunde al krank eingetuft. Der. Fehler wird üblicherweie (nicht nur von Tet-Entwicklern) in

Mehr

Medizinische Statistik Epidemiologie und χ 2 Vierfeldertest

Medizinische Statistik Epidemiologie und χ 2 Vierfeldertest Universität Wien Institut für Mathematik Wintersemester 2009/2010 Medizinische Statistik Epidemiologie und χ 2 Vierfeldertest Seminar Angewandte Mathematik Ao. Univ. Prof. Dr. Peter Schmitt von Nadja Reiterer

Mehr

Entwicklung eines Distanzmaßes zwischen Bildern über dem Modell der Fields of Visual Words

Entwicklung eines Distanzmaßes zwischen Bildern über dem Modell der Fields of Visual Words Entwicklung eines Distanzmaßes zwischen Bildern über dem Modell der Fields of Visual Words André Viergutz 1 Inhalt Einführung. Einordnung der Arbeit in die zugrunde liegenden Konzepte Das Modell der Fields

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr