Künstliche Intelligenz Unsicherheit. Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln

Save this PDF as:
 WORD  PNG  TXT  JPG

Größe: px
Ab Seite anzeigen:

Download "Künstliche Intelligenz Unsicherheit. Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln"

Transkript

1 Künstliche Intelligenz Unsicherheit Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln

2 Rückblick Agent in der Wumpuswelt konnte Entscheidungen auf Basis der Daten seiner Sensoren fällen. Trotzdem können Fälle eintreten, in denen der Agent keine eindeutige Entscheidung treffen kann. In der Realität sind die Dinge ungleich komplexer...

3 Unsicherheit in der realen Welt Was beeinflusst den Weg zur Uni? rote Ampeln Wetter defekte Verkehrsmittel Verkehrskontrollen zufälliges Treffen alter Bekannter Wie kann ein Agent entscheiden, wann er rechtzeitig losfahren muss? Die beeinflussenden Faktoren liegen (teilweise) nicht im Bereich seiner Wahrnehmung.

4 Unsicherheit in der realen Welt A 15 : Plan, 15 Minuten vor Kursbeginn loszufahren A 60 : Plan, 60 Minuten vor Kursbeginn loszufahren A 240 : Plan, 240 Minuten vor Kursbeginn loszufahren usw. Welcher Plan ist der rational richtige?

5 Unsicherheit in der realen Welt A 15 : Plan, 15 Minuten vor Kursbeginn loszufahren A 60 : Plan, 60 Minuten vor Kursbeginn loszufahren A 240 : Plan, 240 Minuten vor Kursbeginn loszufahren usw. Welcher Plan ist der rational richtige? Die Wahl ist abhängig von Wahrscheinlichkeit, pünktlich zu sein und dem Nutzen des Ereignisses.

6 Unsicherheit & Wahrscheinlichkeit Ziel: Algorithmus, der rationale Entscheidungen auch ohne sicheres Wissen treffen kann.

7 Skizze eines entscheidungstheoretischen Agenten Input: Wahrnehmung (Sensoren), Annahme über den Zustand der Welt, Liste möglicher Aktionen Black Box: Berechnung der Ergebniswahrscheinlichkeiten der Aktionen durch Berücksichtigung von Wahrnehmung und Annahmen. Output: Aktion mit höchstem erwarteten Nutzen

8 Was ist unsicheres Wissen? Beispiel Diagnostik: Diagnosen lassen sich (meist) nicht vollständig mit Mitteln der Prädikatenlogik lösen: p Symptom(p, Zahnschmerzen) (Krankheit(p, Loch) Krankheit(p, Zahnfleischprobleme) ) Zahnschmerzen & Löcher stehen sich nicht in logischer Konsequenz gegenüber. Aber: Bei Zahnschmerzen glauben wir, mit einer gewissen Wahrscheinlichkeit ein Loch im Zahn zu haben.

9 Glauben vs. Wissen In der Prädikatenlogik galt Glauben = Wissen, in einer unsicheren Logik muss mit Glaubensgraden gearbeitet werden, in etwa: Glaube ( p Symptom(p, Zahnsch.) Krankheit(p, Loch)) = 0,8 Glaube (0 p Symptom(p, Zahnsch.) 0 Krankheit(p, ZFP)) = 0,05...

10 Glauben vs. Wissen In der Prädikatenlogik galt Glauben = Wissen, in einer unsicheren Logik muss mit Glaubensgraden gearbeitet werden, in etwa: Glaube (Vp Symptom(p, Zahnsch.) Krankheit(p, Loch)) = 0,8 Glaube (Vp Symptom(p, Zahnsch.) Krankheit(p, ZFP)) = 0,05... Die Wahrheit einer tatsächlichen Aussage bleibt davon unberührt (Wahrheitsgrade sind Thema der Fuzzy Logic)!

11 Evidenz Der Glaube eines Agenten ist abhängig von den bisherigen Wahrnehmungen (Evidenz). Durch das Sammeln weiterer Evidenzen (bspw. Lektüre zahnmedizinischer Literatur oder eigene Erfahrung) kann sich der Glaube des Agenten ändern.

12 Evidenz unbedingte oder A-priori-Wahrscheinlichkeit gilt, falls keine weitere Evidenz vorliegt. Notation: P(a), z.b. P(loch) = 5% bedingte oder A-posteriori-Wahrscheinlichkeit gilt, sobald eine Evidenz vorliegt. Notation: P(a b), z.b. P(loch schmerzen) = 80%

13 Produktregel Definition: P(a b) = P(a b) / P(b) wenn P(b) > 0 oder P(a b) = P(a b) P(b) bzw. P(a b) = P(b a) P(a)

14 Produktregel Beispiel: P(loch schmerzen) = P(loch schmerzen) P(schmerzen)

15 Produktregel Beispiel: P(loch 0 schmerzen) = P(loch schmerzen) P(loch) Wenn loch & schmerzen wahr sein soll, muss schmerzen wahr sein, und loch für schmerzen.

16 (Kolmogorov-) Axiome der Wahrscheinlichkeit 0 P(a) 1 P(true) = 1, P(false) = 0 P(a 1 b) = P(a) + P(b) P(a A b)

17 (Kolmogorov-) Axiome der Wahrscheinlichkeit Aus den Axiomen lassen sich weitere Regeln herleiten, bspw. die Wahrscheinlichkeit einer Negation P( a): P(a J a) = P(a) + P( a) P(a a) P(true) = P(a) + P( a) P(false) 1 = P(a) + P( a) P( a) = 1 - P(a)

18 Typen von Zufallsvariablen Boolsche Variablen z.b. Loch im Zahn, Schwanger Diskrete, abzählbare Variablen z.b. Wetter (Sonne, Regen, Wolken, Schnee) oder Wochentag Stetige Variablen Reelle Zahlen (z.b. Temperatur)

19 Diskrete Variablen Die Wahrscheinlichkeit der einzelnen Zustände ist i.d.r. unterschiedlich: P(Wetter = sonnig) = 0.7 P(Wetter = regnerisch) = 0,2 P(Wetter = wolkig) = 0,08 P(Wetter = schnee) = 0,02 Vereinfacht: P(Wetter) = <0.7;0.2;0.08;0.02> heißt vollständige Verteilung von Wetter

20 Unsicherheit & Wahrscheinlichkeit Beispiel: Gegeben sei folgende Evidenztabelle zahnschmerzen zahnschmerzen verhaken verhaken verhaken verhaken loch 0,108 0,012 0,072 0,008 loch 0,016 0,064 0,144 0,576 Gesucht ist ein Algorithmus, der die Wahrscheinlichkeit der Wahrheit der Aussage Wenn ich Zahnschmerzen habe, habe ich ein Loch im Zahn berechnen kann.

21 Probabilistische Inferenz Berechnung aus beobachteten Evidenzen zahnschmerzen zahnschmerzen verhaken verhaken verhaken verhaken loch 0,108 0,012 0,072 0,008 loch 0,016 0,064 0,144 0,576

22 Probabilistische Inferenz Berechnung aus beobachteten Evidenzen zahnschmerzen zahnschmerzen verhaken verhaken verhaken verhaken loch 0,108 0,012 0,072 0,008 loch 0,016 0,064 0,144 0,576 Wie hoch ist die Wahrscheinlichkeit, dass die Aussage loch zahnschmerzen wahr ist?

23 Probabilistische Inferenz Berechnung aus beobachteten Evidenzen zahnschmerzen zahnschmerzen verhaken verhaken verhaken verhaken loch 0,108 0,012 0,072 0,008 loch 0,016 0,064 0,144 0,576 Wie hoch ist die Wahrscheinlichkeit, dass die Aussage loch zahnschmerzen wahr ist? P(Loch Zahnschmerzen) = 0, , , , , ,064 = 0,28

24 Marginalisierung/Aussummierung Berechnung aus beobachteten Evidenzen zahnschmerzen zahnschmerzen verhaken verhaken verhaken verhaken loch 0,108 0,012 0,072 0,008 loch 0,016 0,064 0,144 0,576 Wie hoch ist die Wahrscheinlichkeit, dass die Aussage loch wahr ist?

25 Marginalisierung/Aussummierung Berechnung aus beobachteten Evidenzen zahnschmerzen zahnschmerzen verhaken verhaken verhaken verhaken loch 0,108 0,012 0,072 0,008 loch 0,016 0,064 0,144 0,576 Wie hoch ist die Wahrscheinlichkeit, dass die Aussage loch wahr ist? P(Loch) = 0, , , ,008 = 0,2 allgemein: P Y = P Y z= P Y z P z z z

26 Marginalisierung/Aussummierung Berechnung aus beobachteten Evidenzen zahnschmerzen zahnschmerzen verhaken verhaken verhaken verhaken loch 0,108 0,012 0,072 0,008 loch 0,016 0,064 0,144 0,576 Wie hoch ist die Wahrscheinlichkeit, dass P(loch zahnschmerzen) wahr ist?

27 Marginalisierung/Aussummierung Berechnung aus beobachteten Evidenzen zahnschmerzen zahnschmerzen verhaken verhaken verhaken verhaken loch 0,108 0,012 0,072 0,008 loch 0,016 0,064 0,144 0,576 Wie hoch ist die Wahrscheinlichkeit, dass P(loch zahnschmerzen) wahr ist? P(loch zahnschmerzen) = P(loch zahnschmerzen) / P(zahnschmerzen)

28 Marginalisierung/Aussummierung Berechnung aus beobachteten Evidenzen zahnschmerzen zahnschmerzen verhaken verhaken verhaken verhaken loch 0,108 0,012 0,072 0,008 loch 0,016 0,064 0,144 0,576 Wie hoch ist die Wahrscheinlichkeit, dass P(loch zahnschmerzen) wahr ist? P(loch zahnschmerzen) = (0, ,012) / (0, , , ,064) = 0,6

29 Marginalisierung/Aussummierung Berechnung aus beobachteten Evidenzen zahnschmerzen zahnschmerzen verhaken verhaken verhaken verhaken loch 0,108 0,012 0,072 0,008 loch 0,016 0,064 0,144 0,576 Wie hoch ist die Wahrscheinlichkeit, dass P( loch zahnschmerzen) wahr ist? P( loch zahnschmerzen) = (0, ,064) / (0, , , ,064) = 0,4

30 Normalisierungskonstante Beobachtung: P(loch zahnschmerzen) = P(loch zahnschmerzen) / P(zahnschmerzen) P( loch zahnschmerzen) = P(loch zahnschmerzen) / P(zahnschmerzen) Der Term 1/ P(zahnschmerzen) bleibt konstant, unabhängig vom berechneten Wert von loch.

31 Normalisierungskonstante 1/ P(zahnschmerzen) heißt Normalisierungkonstante für P(Loch Zahnschmerzen) und wird durch gekennzeichnet. P bezeichnet (im Gegensatz zu P) einen Vektor von Wahrscheinlichkeiten. Im Beispiel gilt = (0, , , ,064) = 0.2

32 Norminalisierungskonstante Durch lassen sich Berechnungen vereinfachen: zahnschmerzen zahnschmerzen verhaken verhaken verhaken verhaken loch 0,108 0,012 0,072 0,008 loch 0,016 0,064 0,144 0,576 P(Loch zahnschmerzen) = P(Loch zahnschmerzen) = [P(Loch zs, verhaken) + P(Loch zs, verhaken)] = [<0.108; 0.016> + <0.012; 0.064>] = <0.12; 0.08> = 0.2 * <0.12; 0.08> = <0.6; 0.4>

33 Algorithmus für die Beantwortung probabilistischer Anfragen Sei E die Menge der Evidenzvariablen (Zahnschmerzen), e die beobachteten Werte (zahnschmerzen = true), Y die Menge der unbeobachteten Werte (Verhaken). Die Wahrscheinlichkeit von X (Loch) unter unter den Bedingungen e ergibt sich nun durch P X e= P X,e= y P X,e, y

34 Algorithmus zur probabilistischen Inferenz Wie ist die Laufzeit des Algorithmus? Sehr schlecht: Bei n booleschen Variablen beträgt die Laufzeit O(2 n ).

35 Unabhängigkeit

36 Unabhängigkeit Loch Verfangen Zahnschmerzen Wetter Loch Verfangen Zahnschmerzen Wetter

37 Absolute Unabhängigkeit P(a b) = P(a) P(b a) = P(b) P(a 1 b) = P(a) * P(b)

38 Absolute Unabhängigkeit P(a b) = P(a) P(b a) = P(b) P(a b) = P(a) * P(b) Probleme: Unabhängigkeit nicht immer erkennbar Unabhängige Mengen können beliebig groß werden Indirekte Abhängigkeit muss berücksichtigt werden

39 Bayessche Regel

40 Die Bayessche Regel: Herleitung Produktregel: P(a b) = P(a b) P(b) P(a b) = P(b a) P(a) d.h. P(a b) P(b) = P(b a) P(a) Also: P(b a) = P(a b) P(b) P(a)

41 Anwendung der Bayesschen Regel Beispiel: P(b a)= P(a b) P(b) P(a) Meningitis verursacht in 50 % aller Fälle einen steifen Nacken. Die (unbedingte) Wahrscheinlichkeit, an Meningitis zu leiden, beträgt 1/ Die (unbedingte) Wahrscheinlichkeit, einen steifen Nacken zu haben, beträgt 1/20. Wie hoch ist die Wahrscheinlichkeit, dass ein Patient, der über steifen Nacken klagt, Meningitis hat?

42 Anwendung der Bayesschen Regel Wie ließe sich mit Hilfe der Bayesschen Regel ein selbstlernender Spam-Filter konstruieren?

43 Anwendung der Bayesschen Regel Wie ließe sich mit Hilfe der Bayesschen Regel ein selbstlernender Spam-Filter konstruieren? Einfach zu beobachten: P(A) unbedingte W'keit eines Wortes P(B) unbedingte W'keit von Spam-Mails P(A B) bedingte W'keit eines Wortes in Spam P(B A) bedingte W'keit dafür, dass es sich um Spam handelt, wenn Wort A auftaucht.

44 Bayessche Netze

45 Bayessche Netze: Beispiel Idee: Zufallsvariablen werden als Knoten im Netzwerk interpretiert. Kanten beschreiben die Zusammenhänge zwischen zwei Variablen.

46 Bayessche Netzwerke: Beispiel Bayessches Netzwerk zur Welt der Zahnschmerzen. Zahnschmerzen & Verhaken sind abhängig von Loch, während das Wetter von den anderen Zuständen unabhängig ist.

47 Bayessche Netzwerke: Definition Existiert eine Kante von X nach Y, so ist X der Elternknoten von Y. Jedem Knoten wird mit einer Wahrscheinlichkeitsverteilung ausgezeichnet. Knoten mit Elternknoten erhalten die bedingte Wahrscheinlichkeitsverteilung, andere Knoten die unbedingte Wahrscheinlichkeitsverteilung. Der Graph enthält keine gerichteten Kreise.

48 Bayessche Netzwerke

49 Beispiel P(j m a b e) =?

50 Beispiel P(j m a b e) = P(j a) P(m a) P(a b e) P( b) P( e) = 0,9 * 0,7 * 0,001 * 0,999 * 0,998 = 0,0062

51 Allgemein Abkürzung: P(x 1 x 2... x 3 ) = P(x 1, x 2... x 3 ) Es gilt: P(x 1, x 2... x n ) = n i=1 P x i eltern X i

52 Bayessche Netzwerke Problem: Automatischer Strukturaufbau schwierig Laut R/N noch keine effizienten Algorithmen zum Aufbau verfügbar. Verschiedene Ansätze mit Optimierungsverfahren (Hill-Climbing etc)

53 Literatur & Grafiken Russel, Norvig: Künstliche Intelligenz ein moderner Ansatz

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen Unüberwachtes

Mehr

Bayessche Netze. Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind

Bayessche Netze. Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind Bayessche Netze Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind Einleitung Sicheres vs. Unsicheres Wissen Kausale Netzwerke Abhängigkeit Verbindungsarten Exkurs:

Mehr

Methoden der KI in der Biomedizin Unsicheres Schließen

Methoden der KI in der Biomedizin Unsicheres Schließen Methoden der KI in der Biomedizin Unsicheres Schließen Karl D. Fritscher Motivation Insofern sich die Gesetze der Mathematik auf die Wirklichkeit beziehen, sind sie nicht sicher. Und insofern sie sich

Mehr

Elementare statistische Methoden

Elementare statistische Methoden Elementare statistische Methoden Vorlesung Computerlinguistische Techniken Alexander Koller 28. November 2014 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen? Ziel

Mehr

Künstliche Intelligenz Logische Agenten & Resolution

Künstliche Intelligenz Logische Agenten & Resolution Künstliche Intelligenz Logische Agenten & Resolution Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Inferenz-Algorithmus Wie könnte ein

Mehr

PRAKTIKUM KÜNSTLICHE INTELLIGENZ Ausarbeitung zum 1. Meilenstein

PRAKTIKUM KÜNSTLICHE INTELLIGENZ Ausarbeitung zum 1. Meilenstein PRAKTIKUM KÜNSTLICHE INTELLIGENZ Ausarbeitung zum 1. Meilenstein Bayes'sche Netze Andreas Bahcecioglu Marcel Bergmann Ertan Samgam Sven Schebitz Jan Seewald Fachhochschule Köln Wintersemester 2014 / 2015

Mehr

Theorien für die Darstellung von Unsicherheit Ein Vergleich der Wahrscheinlichkeits-, Möglichkeits- und Dempster-Shafer Theorie

Theorien für die Darstellung von Unsicherheit Ein Vergleich der Wahrscheinlichkeits-, Möglichkeits- und Dempster-Shafer Theorie Theorien für die Darstellung von Unsicherheit Ein Vergleich der Wahrscheinlichkeits-, Möglichkeits- und Dempster-Shafer Theorie Johannes Leitner Inhalt I Modellierung von Unschärfe Unscharfe Mengen Unscharfe

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen

Mehr

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen

Mehr

Bayes sche und probabilistische Netze

Bayes sche und probabilistische Netze Bayes sche und probabilistische Netze Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung

Mehr

Methoden der KI in der Biomedizin Bayes Netze

Methoden der KI in der Biomedizin Bayes Netze Methoden der KI in der Biomedizin Bayes Netze Karl D. Fritscher Bayes Netze Intuitiv: Graphische Repräsentation von Einfluss Mathematisch: Graphische Repräsentation von bedingter Unabhängigkeit Bayes Netze

Mehr

Theoretische Grundlagen des Software Engineering

Theoretische Grundlagen des Software Engineering Theoretische Grundlagen des Software Engineering 7: Einführung Aussagenlogik schulz@eprover.org Logisches Schließen 2 gold +1000, 1 per step, Beispiel: Jage den Wumpus Performance measure death 1000 10

Mehr

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,

Mehr

Intelligente Agenten

Intelligente Agenten Intelligente Agenten Einige einfache Überlegungen zu Agenten und deren Interaktionsmöglichkeiten mit ihrer Umgebung. Agent benutzt: Sensoren Aktuatoren (Aktoren; Effektoren) zum Beobachten/Mess seiner

Mehr

Internetkommunikation I WS 2004/05 Rafael Birkner

Internetkommunikation I WS 2004/05 Rafael Birkner Vortrag zum Thema: Bayes'sche Filter zur SPAM-Erkennung 1. Bayes'sche Filter: Eigenschaften - englischer Mathematiker Thomas Bayes (1702 1761) - state of the art Technologie zur Bekämpfung von Spam - adaptive

Mehr

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion

Mehr

Probabilistisches Tracking mit dem Condensation Algorithmus

Probabilistisches Tracking mit dem Condensation Algorithmus Probabilistisches Tracking mit dem Condensation Algorithmus Seminar Medizinische Bildverarbeitung Axel Janßen Condensation - Conditional Density Propagation for Visual Tracking Michael Isard, Andrew Blake

Mehr

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Zählen und Zahlbereiche Übungsblatt 1 1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Für alle m, n N gilt m + n = n + m. in den Satz umschreiben:

Mehr

Das Bayes-Theorem. Christian Neukirchen Gleichwertige Leistungsfeststellung, Juni 2005

Das Bayes-Theorem. Christian Neukirchen Gleichwertige Leistungsfeststellung, Juni 2005 Das Bayes-Theorem Christian Neukirchen Gleichwertige Leistungsfeststellung, Juni 2005 Ein lahmer Witz Heute im Angebot: Ein praktisches Beispiel zur Einleitung Kurze Wiederholung der Überblick über Reverend

Mehr

Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen

Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen Künstliche Intelligenz - Optimierungsprobleme - Suche in Spielbäumen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Optimierungsprobleme

Mehr

Markovketten. Bsp. Page Ranking für Suchmaschinen. Wahlfach Entscheidung unter Risiko und stat. Datenanalyse 07.01.2015

Markovketten. Bsp. Page Ranking für Suchmaschinen. Wahlfach Entscheidung unter Risiko und stat. Datenanalyse 07.01.2015 Markovketten Markovketten sind ein häufig verwendetes Modell zur Beschreibung von Systemen, deren Verhalten durch einen zufälligen Übergang von einem Systemzustand zu einem anderen Systemzustand gekennzeichnet

Mehr

Default-Typen und ihre Eigenschaften

Default-Typen und ihre Eigenschaften Default-Typen und ihre Eigenschaften Es kann von 0 bis beliebig viele Extensionen geben! Beispiele keine: ({: α / α}, {}) mehrere: ({:α /α, : α / α}, {}): Th({α}), Th({ α}) Sind alle Defaults einer Default-Theorie

Mehr

Modellbasierte Diagnosesysteme

Modellbasierte Diagnosesysteme Modellbasierte Diagnosesysteme Diagnose: Identifikation eines vorliegenden Fehlers (Krankheit) auf der Basis von Beobachtungen (Symptomen) und Hintergrundwissen über das System 2 Arten von Diagnosesystemen:

Mehr

Formale Methoden II. Gerhard Jäger. SS 2008 Universität Bielefeld. Teil 8, 11. Juni 2008. Formale Methoden II p.1/30

Formale Methoden II. Gerhard Jäger. SS 2008 Universität Bielefeld. Teil 8, 11. Juni 2008. Formale Methoden II p.1/30 Formale Methoden II SS 2008 Universität Bielefeld Teil 8, 11. Juni 2008 Gerhard Jäger Formale Methoden II p.1/30 Beispiele Anmerkung: wenn der Wahrheitswert einer Formel in einem Modell nicht von der Belegungsfunktion

Mehr

Information Systems Engineering Seminar

Information Systems Engineering Seminar Information Systems Engineering Seminar Algorithmische Prüfung der Planarität eines Graphen Marcel Stüttgen, 22.10.2012 FH AACHEN UNIVERSITY OF APPLIED SCIENCES 1 Planarität - Definition Ein Graph heißt

Mehr

Ideen der Informatik. Maschinelles Lernen. Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik

Ideen der Informatik. Maschinelles Lernen. Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik Ideen der Informatik Maschinelles Lernen Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik Übersicht Lernen: Begriff Beispiele für den Stand der Kunst Spamerkennung Handschriftenerkennung

Mehr

Black Jack - Kartenzählen

Black Jack - Kartenzählen Black Jack - Kartenzählen Michael Gabler 24.01.2012 Literatur: N. Richard Werthamer: Risk and Reward - The Science of Casino Blackjack, Springer Black Jack - Kartenzählen 1 Wie zähle ich Karten? Historisches

Mehr

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5)

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5) Einführung 3 Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Univ.-Prof. Dr. Christoph Meinel Hasso-Plattner-Institut Universität Potsdam, Deutschland Hatten den Reduktionsbegriff

Mehr

Einführung in die Fuzzy Logic

Einführung in die Fuzzy Logic Einführung in die Fuzzy Logic Entwickelt von L. Zadeh in den 60er Jahren Benutzt unscharfe (fuzzy) Begriffe und linguistische Variablen Im Gegensatz zur Booleschen Logik {0,} wird das ganze Intervall [0,]

Mehr

6 Mehrstufige zufällige Vorgänge Lösungshinweise

6 Mehrstufige zufällige Vorgänge Lösungshinweise 6 Mehrstufige zufällige Vorgänge Lösungshinweise Aufgabe 6.: Begründen Sie, warum die stochastische Unabhängigkeit zweier Ereignisse bzw. zufälliger Vorgänge nur ein Modell der Realität darstellen kann.

Mehr

Monte Carlo Methoden in Kreditrisiko-Management

Monte Carlo Methoden in Kreditrisiko-Management Monte Carlo Methoden in Kreditrisiko-Management P Kreditportfolio bestehend aus m Krediten; Verlustfunktion L = n i=1 L i; Die Verluste L i sind unabhängig bedingt durch einen Vektor Z von ökonomischen

Mehr

Mai 2006. Hauptseminar: Nichtrelationale Datenbanken Historisch-Kulturwissenschaftliche Informationsverarbeitung Universität zu Köln

Mai 2006. Hauptseminar: Nichtrelationale Datenbanken Historisch-Kulturwissenschaftliche Informationsverarbeitung Universität zu Köln Hauptseminar: Nichtrelationale Historisch-Kulturwissenschaftliche Informationsverarbeitung Universität zu Köln Mai 2006 Was ist eine Datenbank? Erweiterung relationaler um eine Deduktionskomponente Diese

Mehr

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)

Mehr

Trainingsaufgaben zur Klausurvorbereitung in Statistik I und II Thema: Satz von Bayes

Trainingsaufgaben zur Klausurvorbereitung in Statistik I und II Thema: Satz von Bayes Trainingsaufgaben zur Klausurvorbereitung in Statistik I und II Thema: Satz von Bayes Aufgabe 1: Wetterbericht Im Mittel sagt der Wetterbericht für den kommenden Tag zu 60 % schönes und zu 40% schlechtes

Mehr

Computerviren, Waldbrände und Seuchen - ein stochastisches Modell für die Reichweite einer Epidemie

Computerviren, Waldbrände und Seuchen - ein stochastisches Modell für die Reichweite einer Epidemie Computerviren, Waldbrände und Seuchen - ein stochastisches für die Reichweite einer Epidemie Universität Hildesheim Schüler-Universität der Universität Hildesheim, 21.06.2012 Warum Mathematik? Fragen zum

Mehr

26.01.2009. Gliederung. Nebenläufigkeit und Fairness. 1. Nebenläufigkeit Lokalitätsprinzip. 2. Betrachtungsweisen von Nebenläufigkeit. 3.

26.01.2009. Gliederung. Nebenläufigkeit und Fairness. 1. Nebenläufigkeit Lokalitätsprinzip. 2. Betrachtungsweisen von Nebenläufigkeit. 3. Gliederung Lokalitätsprinzip Nebenläufigkeit und Fairness Seminar Model lchecking WS 08/09 Interleaving Halbordnung. Fairness Jan Engelsberg engelsbe@informatik.hu berlin.de Was ist Nebenläufigkeit? In

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

Semantik von Formeln und Sequenzen

Semantik von Formeln und Sequenzen Semantik von Formeln und Sequenzen 33 Grundidee der Verwendung von Logik im Software Entwurf Syntax: Menge von Formeln = Axiome Ax K ist beweisbar Formel ϕ beschreiben Korrektkeit Vollständigkeit beschreibt

Mehr

Bisher angenommen: jeder Spieler kennt alle Teile des Spiels. - Diskontfaktor des Verhandlungspartners

Bisher angenommen: jeder Spieler kennt alle Teile des Spiels. - Diskontfaktor des Verhandlungspartners 1 KAP 15. Spiele unter unvollständiger Information Bisher angenommen: jeder Spieler kennt alle Teile des Spiels seine Gegenspieler, deren Aktionen, deren Nutzen, seinen eigenen Nutzen etc. Oft kennt man

Mehr

Beweisbar sichere Verschlüsselung

Beweisbar sichere Verschlüsselung Beweisbar sichere Verschlüsselung ITS-Wahlpflichtvorlesung Dr. Bodo Möller Ruhr-Universität Bochum Horst-Görtz-Institut für IT-Sicherheit Lehrstuhl für Kommunikationssicherheit bmoeller@crypto.rub.de 6

Mehr

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Vollständigkeit halber aufgeführt. Gehen wir einmal davon aus, dass die von uns angenommenen 70% im Beispiel exakt berechnet sind. Was würde

Mehr

Kapitel 4 Schaltungen mit Delays (Schaltwerke) Literatur: Oberschelp/Vossen, Kapitel 4. Kapitel 4: Schaltungen mit Delays Seite 1

Kapitel 4 Schaltungen mit Delays (Schaltwerke) Literatur: Oberschelp/Vossen, Kapitel 4. Kapitel 4: Schaltungen mit Delays Seite 1 Kapitel 4 Schaltungen mit Delays (Schaltwerke) Literatur: Oberschelp/Vossen, Kapitel 4 Kapitel 4: Schaltungen mit Delays Seite 1 Schaltungen mit Delays Inhaltsverzeichnis 4.1 Einführung 4.2 Addierwerke

Mehr

Graphentheorie. Kürzeste Wege. Kürzeste Wege. Kürzeste Wege. Rainer Schrader. 25. Oktober 2007

Graphentheorie. Kürzeste Wege. Kürzeste Wege. Kürzeste Wege. Rainer Schrader. 25. Oktober 2007 Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 25. Oktober 2007 1 / 20 2 / 20 Wir werden Optimierungsprobleme vom folgenden Typ betrachten: gegeben eine Menge X und eine Funktion

Mehr

Überblick: Entscheidungstheoretische Konzepte Seminar Online-Optimierung Diana Balbus

Überblick: Entscheidungstheoretische Konzepte Seminar Online-Optimierung Diana Balbus Überblick: Entscheidungstheoretische Konzepte Seminar Online-Optimierung Diana Balbus Einleitung Ein Online-Algorithmus muss Ausgaben berechnen, ohne zukünftige Eingaben zu kennen. Für die Bewertung von

Mehr

Seminar Text- und Datamining Datamining-Grundlagen

Seminar Text- und Datamining Datamining-Grundlagen Seminar Text- und Datamining Datamining-Grundlagen Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 23.05.2013 Gliederung 1 Klassifikationsprobleme 2 Evaluation

Mehr

Was bisher geschah. Aufgaben: Diagnose, Entscheidungsunterstützung Aufbau Komponenten und Funktion

Was bisher geschah. Aufgaben: Diagnose, Entscheidungsunterstützung Aufbau Komponenten und Funktion Was bisher geschah Daten, Information, Wissen explizites und implizites Wissen Wissensrepräsentation und -verarbeitung: Wissensbasis Kontextwissen Problemdarstellung fallspezifisches Wissen repräsentiert

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Algorithmen & Datenstrukturen 1. Klausur

Algorithmen & Datenstrukturen 1. Klausur Algorithmen & Datenstrukturen 1. Klausur 7. Juli 2010 Name Matrikelnummer Aufgabe mögliche Punkte erreichte Punkte 1 35 2 30 3 30 4 15 5 40 6 30 Gesamt 180 1 Seite 2 von 14 Aufgabe 1) Programm Analyse

Mehr

Regelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall

Regelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall Wahrscheinlichkeitstheorie Was will die Sozialwissenschaft damit? Regelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall Auch im Alltagsleben arbeiten wir mit Wahrscheinlichkeiten, besteigen

Mehr

Name:... Matrikel-Nr.:... 3 Aufgabe Handyklingeln in der Vorlesung (9 Punkte) Angenommen, ein Student führt ein Handy mit sich, das mit einer Wahrscheinlichkeit von p während einer Vorlesung zumindest

Mehr

Semester-Fahrplan 1 / 17

Semester-Fahrplan 1 / 17 Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD

Mehr

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen 4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.

Mehr

Modellierungskonzepte 2

Modellierungskonzepte 2 Modellierungskonzepte 2 Elke Warmuth Humboldt-Universität Berlin WS 2008/09 1 / 50 1 Pfadregeln 2 Begriff Umbewertung von Chancen Bayessche Formel 3 Verwechslungsgefahr Implizite Lotterien 2 / 50 mehrstufige

Mehr

MUSTER 2 FÜR DIE ABITURPRÜFUNG AM BERUFLICHEN GYMNASIUM AB DEM SCHULJAHR 2016/2017. Teil 1: Keine Hilfsmittel zugelassen.

MUSTER 2 FÜR DIE ABITURPRÜFUNG AM BERUFLICHEN GYMNASIUM AB DEM SCHULJAHR 2016/2017. Teil 1: Keine Hilfsmittel zugelassen. MINISTERIUM FÜR KULTUS, JUGEND UND SPORT BADEN-WÜRTTEMBERG MUSTER 2 FÜR DIE ABITURPRÜFUNG AM BERUFLICHEN GYMNASIUM AB DEM SCHULJAHR 21/217 Hauptprüfung LÖSUNGSVORSCHLAG FÜR DAS FACH Arbeitszeit Hilfsmittel

Mehr

Literatur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS)

Literatur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS) Dominating Set 59 Literatur Dominating Set Grundlagen 60 Dominating Set (DS) M. V. Marathe, H. Breu, H.B. Hunt III, S. S. Ravi, and D. J. Rosenkrantz: Simple Heuristics for Unit Disk Graphs. Networks 25,

Mehr

Einführung in die Computerlinguistik Statistische Grundlagen

Einführung in die Computerlinguistik Statistische Grundlagen Statistik 1 Sommer 2015 Einführung in die Computerlinguistik Statistische Grundlagen Laura Heinrich-Heine-Universität Düsseldorf Sommersemester 2015 Statistik 2 Sommer 2015 Überblick 1. Diskrete Wahrscheinlichkeitsräume

Mehr

Erzeugung zufälliger Graphen und Bayes-Netze

Erzeugung zufälliger Graphen und Bayes-Netze Erzeugung zufälliger Graphen und Bayes-Netze Proseminar Algorithmen auf Graphen Georg Lukas, IF2000 2002-07-09 E-Mail: georg@op-co.de Folien: http://op-co.de/bayes/ Gliederung 1. Einleitung 2. einfache

Mehr

Logik für Informatiker

Logik für Informatiker Vorlesung Logik für Informatiker 3. Aussagenlogik Einführung: Logisches Schließen im Allgemeinen Bernhard Beckert Universität Koblenz-Landau Sommersemester 2006 Logik für Informatiker, SS 06 p.1 Beispiel:

Mehr

Seminarvortag zum Thema Virtual Private Network Design im Rahmen des Seminars Network Design an der Universität Paderborn

Seminarvortag zum Thema Virtual Private Network Design im Rahmen des Seminars Network Design an der Universität Paderborn Seminarvortag zum Thema Virtual Private Network Design im Rahmen des Seminars Network Design an der Universität Paderborn Ein 5.55-Approximationsalgorithmus für das VPND-Problem Lars Schäfers Inhalt Einführung:

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

Übersicht. 16. Treffen einfacher Entscheidungen

Übersicht. 16. Treffen einfacher Entscheidungen Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 14. Unsicherheiten 15. Probabilistische Inferenzsysteme 16. Treffen

Mehr

Vorlesung - Medizinische Biometrie

Vorlesung - Medizinische Biometrie Vorlesung - Medizinische Biometrie Stefan Wagenpfeil Institut für Medizinische Biometrie, Epidemiologie und Medizinische Informatik Universität des Saarlandes, Homburg / Saar Vorlesung - Medizinische Biometrie

Mehr

1 topologisches Sortieren

1 topologisches Sortieren Wolfgang Hönig / Andreas Ecke WS 09/0 topologisches Sortieren. Überblick. Solange noch Knoten vorhanden: a) Suche Knoten v, zu dem keine Kante führt (Falls nicht vorhanden keine topologische Sortierung

Mehr

Kapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete

Kapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete Kapitel 4: Dynamische Datenstrukturen Algorithmen und Datenstrukturen WS 2012/13 Prof. Dr. Sándor Fekete 4.4 Binäre Suche Aufgabenstellung: Rate eine Zahl zwischen 100 und 114! Algorithmus 4.1 INPUT: OUTPUT:

Mehr

Grundlagen der Informationverarbeitung

Grundlagen der Informationverarbeitung Grundlagen der Informationverarbeitung Information wird im Computer binär repräsentiert. Die binär dargestellten Daten sollen im Computer verarbeitet werden, d.h. es müssen Rechnerschaltungen existieren,

Mehr

Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR)

Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR) Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR) Eine Firma stellt USB-Sticks her. Sie werden in der Fabrik ungeprüft in Packungen zu je 20 Stück verpackt und an Händler ausgeliefert. 1 Ein Händler

Mehr

S=[n] Menge von Veranstaltungen J S kompatibel mit maximaler Größe J

S=[n] Menge von Veranstaltungen J S kompatibel mit maximaler Größe J Greedy-Strategie Definition Paradigma Greedy Der Greedy-Ansatz verwendet die Strategie 1 Top-down Auswahl: Bestimme in jedem Schritt eine lokal optimale Lösung, so dass man eine global optimale Lösung

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 3. Vorlesung - 21.10.2016 Bedingte Wahrscheinlichkeit In einer Urne sind 2 grüne und 3 blaue Kugeln. 2 Kugeln werden ohne Zürücklegen gezogen. Welches ist die Wahrscheinlichkeit, dass : a) man eine grüne

Mehr

Binäre Suchbäume (binary search trees, kurz: bst)

Binäre Suchbäume (binary search trees, kurz: bst) Binäre Suchbäume (binary search trees, kurz: bst) Datenstruktur zum Speichern einer endlichen Menge M von Zahlen. Genauer: Binärbaum T mit n := M Knoten Jeder Knoten v von T ist mit einer Zahl m v M markiert.

Mehr

$ % + 0 sonst. " p für X =1 $

$ % + 0 sonst.  p für X =1 $ 31 617 Spezielle Verteilungen 6171 Bernoulli Verteilung Wir beschreiben zunächst drei diskrete Verteilungen und beginnen mit einem Zufallsexperiment, indem wir uns für das Eintreffen eines bestimmten Ereignisses

Mehr

Kugel-Fächer-Modell. 1fach. 3fach. Für die Einzelkugel gibt es 3 Möglichkeiten. 6fach. 3! Möglichkeiten

Kugel-Fächer-Modell. 1fach. 3fach. Für die Einzelkugel gibt es 3 Möglichkeiten. 6fach. 3! Möglichkeiten Kugel-Fächer-Modell n Kugeln (Rosinen) sollen auf m Fächer (Brötchen) verteilt werden, zunächst 3 Kugeln auf 3 Fächer. 1fach 3fach Für die Einzelkugel gibt es 3 Möglichkeiten } 6fach 3! Möglichkeiten Es

Mehr

Lenstras Algorithmus für Faktorisierung

Lenstras Algorithmus für Faktorisierung Lenstras Algorithmus für Faktorisierung Bertil Nestorius 9 März 2010 1 Motivation Die schnelle Faktorisierung von Zahlen ist heutzutage ein sehr wichtigen Thema, zb gibt es in der Kryptographie viele weit

Mehr

Lösungshinweise zu Kapitel 13

Lösungshinweise zu Kapitel 13 L-112 Lösungshinweise zu Kapitel 13 zu Selbsttestaufgabe 13.2 (Eigenschaften der bedingten Unabhängigkeit) Sei P eine Wahrscheinlichkeitsverteilung über V. Wir setzen im Folgenden stillschweigend voraus,

Mehr

Software-Engineering SS03. Zustandsautomat

Software-Engineering SS03. Zustandsautomat Zustandsautomat Definition: Ein endlicher Automat oder Zustandsautomat besteht aus einer endlichen Zahl von internen Konfigurationen - Zustände genannt. Der Zustand eines Systems beinhaltet implizit die

Mehr

Grundprinzipien der Bayes-Statistik

Grundprinzipien der Bayes-Statistik Grundprinzipien der Bayes-Statistik Karl-Rudolf Koch Zusammenfassung: In drei wesentlichen Punkten unterscheidet sich die Bayes-Statistik von der traditionellen Statistik. Zunächst beruht die Bayes-Statistik

Mehr

Extrema von Funktionen in zwei Variablen

Extrema von Funktionen in zwei Variablen Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Extrema von Funktionen in zwei Variablen Literatur: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen,

Mehr

SWP Logische Programme

SWP Logische Programme SWP Logische Programme Alexander Felfernig, Stephan Gspandl Institut für Softwaretechnologie {alexander.felfernig,sgspandl}@ist.tugraz.at Institute for Software Technology Inhalt Motivation Logische Programme

Mehr

Informatik A ( Frank Hoffmann)

Informatik A ( Frank Hoffmann) Teillösungen zum 1. Aufgabenblatt zur Vorlesung Informatik A ( Frank Hoffmann) 1. Improvisieren Stellen Sie die Zahl 6 dar durch einen Ausdruck, der genau dreimal die Ziffer i enthält und ansonsten neben

Mehr

Formale Systeme. Binary Decision Diagrams. Prof. Dr. Bernhard Beckert WS 2010/2011 KIT INSTITUT FÜR THEORETISCHE INFORMATIK

Formale Systeme. Binary Decision Diagrams. Prof. Dr. Bernhard Beckert WS 2010/2011 KIT INSTITUT FÜR THEORETISCHE INFORMATIK Formale Systeme Prof. Dr. Bernhard Beckert WS / KIT INSTITUT FÜR THEORETISCHE INFORMATIK KIT University of the State of Baden-Württemberg and National Large-scale Research Center of the Helmholtz Association

Mehr

2. Vorlesung. Slide 40

2. Vorlesung. Slide 40 2. Vorlesung Slide 40 Knobelaufgabe Was tut dieses Programm? Informell Formal Wie stellt man dies sicher? knobel(a,b) { Wenn a = 0 dann return b sonst { solange b 0 wenn a > b dann { a := a - b sonst b

Mehr

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge 2.4 Stetige Zufallsvariable Beispiel. Abfüllung von 500 Gramm Packungen einer bestimmten Ware auf einer automatischen Abfüllanlage. Die Zufallsvariable X beschreibe die Füllmenge einer zufällig ausgewählten

Mehr

Grundlagen der Künstlichen Intelligenz

Grundlagen der Künstlichen Intelligenz Grundlagen der Künstlichen Intelligenz 27. Aussagenlogik: Logisches Schliessen und Resolution Malte Helmert Universität Basel 28. April 2014 Aussagenlogik: Überblick Kapitelüberblick Aussagenlogik: 26.

Mehr

Kapitel 3: Etwas Informationstheorie

Kapitel 3: Etwas Informationstheorie Stefan Lucks 3: Informationstheorie 28 orlesung Kryptographie (SS06) Kapitel 3: Etwas Informationstheorie Komplexitätstheoretische Sicherheit: Der schnellste Algorithmus, K zu knacken erfordert mindestens

Mehr

Modellierung biologischer. Christian Maidorfer Thomas Zwifl (Seminar aus Informatik)

Modellierung biologischer. Christian Maidorfer Thomas Zwifl (Seminar aus Informatik) Modellierung biologischer Prozesse Christian Maidorfer Thomas Zwifl (Seminar aus Informatik) Überblick Einführung Arten von Modellen Die stochastische Pi-Maschine Warum Modelle Die Biologie konzentriert

Mehr

Wie Google Webseiten bewertet. François Bry

Wie Google Webseiten bewertet. François Bry Wie Google Webseiten bewertet François Bry Heu6ge Vorlesung 1. Einleitung 2. Graphen und Matrizen 3. Erste Idee: Ranking als Eigenvektor 4. Fragen: Exisi6ert der Eigenvektor? Usw. 5. Zweite Idee: Die Google

Mehr

Seminar Werkzeuggestütze. tze Softwareprüfung. fung. Slicing. Sebastian Meyer

Seminar Werkzeuggestütze. tze Softwareprüfung. fung. Slicing. Sebastian Meyer Seminar Werkzeuggestütze tze Softwareprüfung fung Slicing Sebastian Meyer Überblick Einführung und Begriffe Static Slicing Dynamic Slicing Erweiterte Slicing-Techniken Fazit 2 Was ist Slicing?? (I) Program

Mehr

Elemente der Analysis II

Elemente der Analysis II Elemente der Analysis II Kapitel 3: Lineare Abbildungen und Gleichungssysteme Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 15. Mai 2009 1 / 35 3.1 Beispiel

Mehr

Anmerkungen zur Übergangsprüfung

Anmerkungen zur Übergangsprüfung DM11 Slide 1 Anmerkungen zur Übergangsprüfung Aufgabeneingrenzung Aufgaben des folgenden Typs werden wegen ihres Schwierigkeitsgrads oder wegen eines ungeeigneten fachlichen Schwerpunkts in der Übergangsprüfung

Mehr

Übungen zur Mathematik für Pharmazeuten

Übungen zur Mathematik für Pharmazeuten Blatt 1 Aufgabe 1. Wir betrachten den Ereignisraum Ω = {(i,j) 1 i,j 6} zum Zufallsexperiment des zweimaligem Würfelns. Sei A Ω das Ereignis Pasch, und B Ω das Ereignis, daß der erste Wurf eine gerade Augenzahl

Mehr

Verteilte Systeme CS5001

Verteilte Systeme CS5001 CS5001 Th. Letschert TH Mittelhessen Gießen University of Applied Sciences Einführung Administratives Unterlagen Verwendbar: Master of Science (Informatik) Wahlpflichtfach (Theorie-Pool) Unterlagen Folien:

Mehr

Wahrscheinlichkeitstheorie. Zapper und

Wahrscheinlichkeitstheorie. Zapper und Diskrete Wahrscheinlichkeitsräume Slide 1 Wahrscheinlichkeitstheorie die Wissenschaft der Zapper und Zocker Diskrete Wahrscheinlichkeitsräume Slide 2 Münzwürfe, Zufallsbits Elementarereignisse mit Wahrscheinlichkeiten

Mehr

10. Vorlesung Spieltheorie in der Nachrichtentechnik

10. Vorlesung Spieltheorie in der Nachrichtentechnik 10. Vorlesung Spieltheorie in der Nachrichtentechnik Vorlesung: Eduard Jorswieck Übung: Rami Mochaourab Sommersemester 2010 Kooperative Spiele - Stabile Paarungen Wir studieren Märkte mit zweiseitigen

Mehr

Kapitel 15: Differentialgleichungen

Kapitel 15: Differentialgleichungen FernUNI Hagen WS 00/03 Kapitel 15: Differentialgleichungen Differentialgleichungen = Gleichungen die Beziehungen zwischen einer Funktion und mindestens einer ihrer Ableitungen herstellen. Kommen bei vielen

Mehr

Numerische Verfahren und Grundlagen der Analysis

Numerische Verfahren und Grundlagen der Analysis Numerische Verfahren und Grundlagen der Analysis Rasa Steuding Hochschule RheinMain Wiesbaden Wintersemester 2011/12 R. Steuding (HS-RM) NumAna Wintersemester 2011/12 1 / 16 4. Groß-O R. Steuding (HS-RM)

Mehr

Maximaler Fluß und minimaler Schnitt. Von Sebastian Thurm sebastian.thurm@student.uni-magedburg.de

Maximaler Fluß und minimaler Schnitt. Von Sebastian Thurm sebastian.thurm@student.uni-magedburg.de Maximaler Fluß und minimaler Schnitt Von Sebastian Thurm sebastian.thurm@student.uni-magedburg.de Maximaler Fluß und minimaler Schnitt Wasist das? Maximaler Fluss Minimaler Schnitt Warumtut man das? Logistische

Mehr

Fuzzy-Systeme zur Unterstützung von Entscheidungen in land- und forstwirtschaftlichen Logistik-Prozessen

Fuzzy-Systeme zur Unterstützung von Entscheidungen in land- und forstwirtschaftlichen Logistik-Prozessen Fuzzy-Systeme zur Unterstützung von Entscheidungen in land- und forstwirtschaftlichen Logistik-Prozessen Steve Schneider Logistik- und Fabriksysteme Fraunhofer Institut für Fabrikbetrieb und -automatisierung

Mehr

Methoden der KI in der Biomedizin Logische Agenten 1

Methoden der KI in der Biomedizin Logische Agenten 1 Methoden der KI in der Biomedizin Logische Agenten 1 Karl D. Fritscher Organisatorisches Voraussetzungen: Lehrstoff zu den Themengebieten: a. Einführung in die KI, Expertensysteme b. Problemlösung durch

Mehr

Diskrete Strukturen Kapitel 2: Grundlagen (Beweise)

Diskrete Strukturen Kapitel 2: Grundlagen (Beweise) WS 2014/15 Diskrete Strukturen Kapitel 2: Grundlagen (Beweise) Hans-Joachim Bungartz Lehrstuhl für wissenschaftliches Rechnen Fakultät für Informatik Technische Universität München http://www5.in.tum.de/wiki/index.php/diskrete_strukturen_-_winter_14

Mehr

Kompetitive Analysen von Online-Algorithmen

Kompetitive Analysen von Online-Algorithmen Kompetitive Analysen von Online-Algorithmen jonas echterhoff 16. Juli 004 1 Einführung 1.1 Terminologie Online-Algorithmen sind Algorithmen, die Probleme lösen sollen, bei denen Entscheidungen getroffen

Mehr