Graphische Spiele. M i (p) M i (p[i : p i]) M i (p) + ε M i (p[i : p i])

Ähnliche Dokumente
Spieltheorie. Nash-Gleichgewichts-Berechnung. Bernhard Nebel und Robert Mattmüller. Arbeitsgruppe Grundlagen der Künstlichen Intelligenz 14.

12. Vorlesung. 19. Dezember 2006 Guido Schäfer

Evolutionäre Spiele. Wolfgang Mulzer, Yannik Stein

Datenstrukturen. einfach verkettete Liste

Inexakte Newton Verfahren

5 Zwei spieltheoretische Aspekte

Proseminar Online Algorithmen, Prof. Dr. Rolf Klein

Teil III. Komplexitätstheorie

(Man sagt dafür auch, dass die Teilmenge U bezüglich der Gruppenoperationen abgeschlossen sein muss.)

Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É.

2. Vorlesung. 1.3 Beste-Antwort Funktion. Vorlesung: Einführung in die Spieltheorie WS 2006/ Oktober 2006 Guido Schäfer

Aufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph.

Literatur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS)

Vorlesung: Nicht-kooperative Spieltheorie. Teil 4: 2-Personen-Nullsummenspiele

Algorithmen für schwierige Probleme

kontextfreie Grammatiken Theoretische Informatik kontextfreie Grammatiken kontextfreie Grammatiken Rainer Schrader 14. Juli 2009 Gliederung

3. Grundlagen der Linearen Programmierung

Lösungen zur 1. Klausur. Einführung in Berechenbarkeit, formale Sprachen und Komplexitätstheorie

Fortgeschrittene Netzwerk- und Graph-Algorithmen

15. Elementare Graphalgorithmen

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Bestimmung einer ersten

Analysis 1, Woche 2. Reelle Zahlen. 2.1 Anordnung. Definition 2.1 Man nennt eine Anordnung für K, wenn: 1. Für jeden a K gilt a a (Reflexivität).

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J}

Graphen: Einführung. Vorlesung Mathematische Strukturen. Sommersemester 2011

Rolf Wanka Sommersemester Vorlesung

Lineare Gleichungssysteme

Verkettete Datenstrukturen: Bäume

Kapitel 4: Gemischte Strategien. Literatur: Tadelis Chapter 6

2. Spezielle anwendungsrelevante Funktionen

Graphen und Bäume. A.1 Graphen

Verfeinerungen des Bayesianischen Nash Gleichgewichts

Die Kopplung von Markovketten und die Irrfahrt auf dem Torus

5 Interpolation und Approximation

Algorithmen II Vorlesung am

2. Teilbarkeit. Euklidischer Algorithmus

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung

Vervollständigung Lateinischer Quadrate

Theorie und Praxis geometrischer Algorithmen

Lineare Programmierung. Beispiel: Wahlkampf. Beispiel: Wahlkampf. Mathematische Schreibweise. Lineares Programm. Datenstrukturen & Algorithmen

11. Übung zu Algorithmen I 6. Juli 2016

4 Greedy-Algorithmen (gierige Algorithmen)

3 Klassifikation wichtiger Optimierungsprobleme

11. Woche: Turingmaschinen und Komplexität Rekursive Aufzählbarkeit, Entscheidbarkeit Laufzeit, Klassen DTIME und P

Das Briefträgerproblem

ADS: Algorithmen und Datenstrukturen 2

Wiederholung zu Flüssen

Theoretische Grundlagen der Informatik

Quicksort ist ein Divide-and-Conquer-Verfahren.

Binary Decision Diagrams (Einführung)

Klausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13)

Kapitel 5: Minimale spannende Bäume Gliederung der Vorlesung

Bäume und Wälder. Definition 1

Seminarvortag zum Thema Virtual Private Network Design im Rahmen des Seminars Network Design an der Universität Paderborn

2. Optimierungsprobleme 6

Evolutionär stabile Strategien

Stackelberg Scheduling Strategien

1 Der Simplex Algorithmus I

Ferienkurs zur algorithmischen diskreten Mathematik Kapitel 3: Minimal aufspannende Bäume und Matroide

Algorithmen II Vorlesung am

Algorithmische Methoden der Netzwerkanalyse

Wiederholte Spiele. Grundlegende Konzepte. Zwei wichtige Gründe, wiederholte Spiele zu betrachten: 1. Wiederholte Interaktionen in der Realität.

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Fraktale Geometrie. 9: Metrische äußere Maße II. Universität Regensburg Sommersemester Daniel Heiß:

Optimieren unter Nebenbedingungen

Ludwig-Maximilians-Universität München SoSe 2009 Institut für Informatik PD Dr. Martin Lange Dipl.-Inf. Markus Latte 25. Juni 2009

Aufgabe 1: Berechnen Sie für den in Abbildung 1 gegebenen Graphen den. Abbildung 1: Graph für Flussproblem in Übungsaufgabe 1

Einführung. Ablesen von einander zugeordneten Werten

WS 2009/10. Diskrete Strukturen

Übungsblatt 6 Lösungsvorschläge

Diskrete Strukturen Kapitel 2: Grundlagen (Mengen)

Isomorphie von Bäumen

Algorithmen zum Lösen von Vertex und Set Cover Instanzen zur Planung von Angriffen auf Netzwerke

Teil I. Lineare Optimierung

KAPITEL 4 FLÜSSE IN NETZWERKEN

\ E) eines Graphen G = (V, E) besitzt die gleiche Knotenmenge V und hat als Kantenmenge alle Kanten des vollständigen Graphen ohne die Kantenmenge E.

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $

Periodische Fahrpläne und Kreise in Graphen

Das sequentielle Gleichgewicht

Lineare Differenzengleichungen und Polynome. Franz Pauer

3.4 von Neumannsche Theorie kooperativer Spiele

Unabhängigkeit KAPITEL 4

Vorlesung 2. Tilman Bauer. 6. September 2007

6 Gleichungen und Gleichungssysteme

Übungsblatt 6. Vorlesung Theoretische Grundlagen der Informatik im WS 16/17

Der Dreyfus-Wagner Algorithmus für das Steiner Baum Problem

Kapitel 5 KONVERGENZ

Lineare Algebra und Numerische Mathematik für D-BAUG

Very simple methods for all pairs network flow analysis

4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9

Algebra und Diskrete Mathematik, PS3. Sommersemester Prüfungsfragen

4 Das Vollständigkeitsaxiom und irrationale Zahlen

2.11 Kontextfreie Grammatiken und Parsebäume

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

1. Einleitung wichtige Begriffe

Skript und Übungen Teil II

2 ZAHLEN UND VARIABLE

1 Zahlentheorie. 1.1 Kongruenzen

3.2 Unabhängigkeitsstrukturen

Transkript:

Seminar über Algorithmen 19. November 2013 Michael Brückner Graphische Spiele Wolfgang Mulzer, Yannik Stein 1 Einführung Da in Mehrspielerspielen mit einer hohen Anzahl n N an Spielern die Auszahlungsdarstellungen enorm groß werden, und es häufig vor kommt, dass nicht alle Spieler mit allen Gegenspielern interagieren, eignet es sich, die Auszahlungsdarstellungen auf miteinander interagierende Spieler zu reduzieren. Grundidee hierfür ist ein Graph mit der Knotenmenge {1,..., n} der Spieler. Die Kantenmenge repräsentiere dabei diejenigen Spielerpaare, die tatsächlich im Spiel interagieren. Die Auszahlungsmatrizen beziehen sich dabei nur auf einen Spieler und seine direkte Nachbarschaft. 1.1 Begriffe Die folgende Liste zeigt kurz zusammengefasst die wichtigsten Erkenntnisse und Konventionen der letzten Kapitel. N = {1,..., n} sei die Menge der Spieler. a i {0, 1} sei die Strategie, für die sich Spieler i N entschieden hat. M i sei die Gewinnmatrix für Spieler i, beschriftet durch die Strategievektoren a {0, 1} n. M i (a) [0, 1] gebe den Gewinn für Spieler i an, wenn a gespielt wird. (Spiel in Normalform) {0, 1} seien die einzigen reinen Strategien, p i [0, 1] sei die Wahrscheinlichkeit, dass i die Strategie 0 spielt. (gemischte Strategien) p [0, 1] n heiße Produktverteilung und enthalte die entsprechenden gemischten Strategien aller Spieler. M i (p) := E a p [M i (a)] sei der erwartete Gewinn für Spieler i. p[i : p i ] sei der Vektor p, wobei p i durch p i ersetzt werde. Sei p [0, 1] n gemischter Strategievektor. Dann ist p ein Nash-Gleichgewicht, wenn für alle Spieler i und alle alternativen Wahrscheinlichkeiten p i [0, 1] gilt: M i (p) M i (p[i : p i]) p heißt ε-nash-gleichgewicht, wenn stattdessen gilt: M i (p) + ε M i (p[i : p i]) Alle Spieler können ihren Gewinn also durch Wechsel der Strategie um höchstens ε erhöhen. G = (N, E) sei ein ungerichteter Graph. Die Kantenmenge E gebe an, welche Spieler im betrachteten Spiel interagieren. N(i) := {i} {j N ij E} sei die Nachbarschaft des Spielers i. d := max n i=1 N(i) sei die Größe der größten Nachbarschaft in G. Sei a ein Strategievektor, dann sei a i die Projektion von a auf N(i). Diese Mittel reichen, um graphische Spiele zu definieren: 1

Definition 1. Ein graphisches Spiel ist ein Paar (G, M), wobei G ein ungerichteter Graph über der Knotenmenge {1,..., n} ist und M die Menge der lokalen Gewinnmatrizen. Für einen Strategievektor a = (a 1,..., a n ) A gebe die lokale Gewinnmatrix M i M den Gewinn M i (a i ) für Spieler i an. Von Spielen in Normalform ist Darstellungsgröße der Gewinnmatrizen exponentiell in der Anzahl der Spieler. Ist die Größe d der größten Nachbarschaft in G jedoch viel kleiner als n, so wirkt sich das drastisch auf die Darstellungsgröße des Spiels aus. Während Gewinne jetzt nur noch von lokalen Umgebungen abhängen, sind die betrachteten Gleichgewichte immer noch eine globale Größe, da sich Gewinne von Spielern auch indirekt beeinflussen können durch die Strategien gemeinsamer Nachbarn. Zu Nash-Gleichgewichten, die sich nur dadurch auszeichnen, dass kein Spieler sich verbessern kann, wenn alle anderen bei ihrer Entscheidung bleiben, gibt es die Erweiterung der korrelierten Gleichgewichte. Korrelierte Gleichgewichte liefern im allgemeinen etwas fairere Spielergebnisse, berühmtes Beispiel ist das Ampelspiel. Bei korrelierten Gleichgewichten geht es darum, dass jedem Spieler eine gemischte Strategie zugewiesen wird und er für sich das beste Resultat erzielt, wenn er die ihm zugewiesene Strategie beibehält. Definition 2. Ein korreliertes Gleichgewicht ist eine Wahrscheinlichkeitsverteilung P (a) über alle Strategievektoren a, die für alle Spieler i und beide Strategien b {0, 1} folgende Gleichung erfüllt: E a Pai =b [M i(a)] E a Pai =b [M i(a[i : 1 b])] 2 Nash-Gleichgewichte in graphischen Spielen Wir betrachten in diesem Kapitel nur Spiele, deren Graph ein Baum ist. Für die gibt es einen Algorithmus, der im folgenden vorgestellt werden soll: 2.1 Algorithmus TreeNash Für die Notation des Algorithmus ist es sinnvoll, die Spieler statt durch Nummern, durch Buchstaben U, V, W zu bezeichnen. Dabei bezeichne u, v, w die entsprechend gewählten gemischten Strategien. Vorbereitung: 1. Wähle einen beliebigen Knoten V zur Wurzel des Baums. 2. Berechne eine Knotenreihenfolge von der Wurzel abwärts in die Blätter. Aufwärtsübergabe Führe für alle Knoten V (beginnend in den Blättern) die folgenden Schritte durch: 1. Sei W der Ursprung von V (oder null, wenn W die Wurzel ist) 2. Für alle w, v [0, 1], initialisiere T (w, v) = 0 und setze die setze die Zeugenliste für T (w, v) auf die leere Liste. 3. Ist V ein Blatt? (a) Für alle w, v [0, 1], setze T (w, v) auf 1 genau dann, wenn V = v eine beste Antwort auf W = w ist. 4. Ist V kein Blatt? (a) Seien U = (U 1,..., U k ) die Kinder von V und T (v, u i ) die übergebenen Tabellen. (b) Für alle w, v [0, 1], für alle gemischten Strategievektoren u = (u 1,..., u k ) mit T (v, u i ) = 1 i: Ist V = v eine beste Antwort auf U = u und W = w, setze T (w, v) = 1 und füge u der Zeugenliste für T (w, v) hinzu. 2

Abwärtsübergabe Führe für alle Knoten V (beginnend in der Wurzel) die folgenden Schritte durch: 1. Seien U = (U 1,..., U k ) die Kinder von V (oder leer, wenn V ein Blatt ist), W der Ursprung von V (null, wenn V die Wurzel ist). Seien (w, v) die Werte, die von W nach V übergeben wurden. 2. Beschrifte V mit v 3. Wähle einen Zeugen u zu T (w, v) = 1. 4. Für i = 1,..., k: Gebe (v, u i ) an U i weiter. Der Algorithmus bringt ein wesentliches Problem mit sich: Es gibt keine endliche Darstellung für alle w, v [0, 1], die der Algorithmus abarbeiten könnte. Dies lässt sich umgehen, indem wir statt [0, 1] das diskretisierte Intervall {0, τ, 2τ,..., 1} für ein von einem vorgegebenen ε abhängiges τ wählen. Das folgende Lemma zeigt den Vorteil dieses Gitters: Lemma 3. Sei G ein Graph mit maximalem Grad d, (G, M) ein graphisches Spiel. p sei ein (exaktes) Nash-Gleichgewicht für (G, M) und q der nächstgelegene Punkt zu p in dem τ-gitter. Dann ist q ein dτ-nash-gleichgewicht. Der vollständige Beweis für das Lemma befindet sich in [1]. Der entscheidende Vorteil ist, dass die Wahl des τ nur von d und ε abhängt, aber nicht von der Gesamtzahl der Spieler n. Daraus lässt sich ein approximativer Algorithmus ApproxTreeNash entwickeln, der sich vom obigen Algorithmus lediglich in der Wahl der Punkte unterscheidet: Es werden nur vielfache von τ berücksichtigt. Außerdem muss die Berechnung der Nash-Gleichgewichte abgeändert werden zur Berechnung von ε-nash-gleichgewichten. Es lässt sich berechnen, dass dieser Algorithmus approximative Nash- Gleichgewichte in einer Laufzeit findet, die polynomiell in der Darstellungsgröße des graphischen Spiels ist. Für einen exakten Algorithmus wird eine geometrische Betrachtung der Menge {(u, v) [0, 1] 2 T (u, v) = 1} relevant. [1] zeigt, dass die Menge eine Vereinigung von achsenparallelen Rechtecken ist. Mit dieser Eigenschaft kann ein exakter Algorithmus ExactTreeNash entwickelt werden, der alle Nash-Gleichgewichte exakt ausrechnet, allerdings in der Spielerzahl exponentielle Laufzeit innehat. Einen Algorithmus, der sich mit Graphen beschäftigt, die kein Baum sind, liefert NashProp. Er führt die Berechnungen von TreeNash für jeden Knoten mehrfach durch, wobei er jeden Nachbarn einmal als den Ursprung im Baum ansieht. Außerdem werden die Tabellen anfangs komplett mit 1 gefüllt und es werden Gleichgewichte gestrichen, bei denen die Antwort eines Spielers keine beste Antwort auf die Strategien seiner Nachbarn ist. Dieser Algorithmus läuft in polynomieller Zeit, berechnet allerdings nur eine Obermenge der Nash-Gleichgewichte. Ein zweiter Schritt, der diese Menge dann auf Richtigkeit überprüft, wird dann rechnerisch aufwändig. 3 Korrelierte Gleichgewichte in graphischen Spielen Definition 4. Zwei Wahrscheinlichkeitsverteilungen P und Q über Strategievektoren a heißen äquivalent bezüglich erwartetem Gewinn P EP Q, wenn sie jedem Spieler den selben erwarteten Gewinn zuweisen: E a P [M i (a)] = E a Q [M i (a)] Definition 5. Zwei Wahrscheinlichkeitsverteilungen P und Q über Strategievektoren a heißen lokalnachbarschaftlich äquivalent P LN Q, wenn für alle Spieler i und alle Strategievektoren a i 3

über N(i) gilt: P (a i ) = Q(a i ) Lemma 6. Für alle Graphen G, alle Verteilungen P und Q über Strategievektoren gilt: Ist P LN Q, so auch P EP Q. Außerdem gilt für jeden Graphen G, wenn P LN Q, dann gibt es eine Gewinnmatrixmenge M, sodass P EP Q. Lemma 7. Sei (G, M) ein graphisches Spiel, P ein korreliertes Gleichgewicht für (G, M) und P LN Q, dann ist Q ebenfalls ein korreliertes Gleichgewicht für (G, M). Definition 8. Ein lokales Markov-Netzwerk ist ein Paar M := (G, Ψ), wobei G ein ungerichteter Graph auf der Knotenmenge N ist und Ψ = {ψ 1,..., ψ n } eine Menge von Potentialfunktionen ist. Jede Potentialfunktion ψ i : {a i } [0, ) weise dabei jedem Strategievektor der Nachbarschaft von i eine positive reelle Zahl zu. Ein lokales Markov-Netzwerk M definiert eine Wahrscheinlichkeitsverteilung P M (a) := 1 ( n ) ψ i (a i ), Z i=1 wobei Z = a ni=1 ψ i (a i ) der Normalisierungsfaktor ist. Lemma 9. Sei G Graph und P Wahrscheinlichkeitsverteilung über Strategievektoren. Dann gibt es eine Verteilung Q, die sich als lokales Markov-Netzwerk darstellen lässt, sodass Q LN P gilt. Satz 10. Sei (G, M) ein graphisches Spiel und P ein korreliertes Gleichgewicht. Dann gibt es eine Verteilung Q mit den folgenden Eigenschaften: 1. Q ist ebenfalls korreliertes Gleichgewicht. 2. Q gibt allen Spielern die selben Gewinne wie P : Q EP P 3. Q kann als lokales Markov-Netzwerk dargestellt werden. Zum einen erlaubt uns Satz 10 eine Vielzahl an Möglichkeiten aus der Stochastik oder der Theorie maschinellen Lernens [3, 2]. Außerdem sind Markov-Netzwerke extrem sparsam in der Beschreibung, nämlich linear in der Größe des Spiels, weshalb sich korrelierte Gleichgewichte so sparsam formulieren lassen. Korrelierte Gleichgewichte lassen sich in Spielen in Normalform per LP ausrechnen. Dies führt zu einer exponentiellen Laufzeit in der Spielgröße. Für graphische Spiele, denen ein Baum zugrunde liegt, lässt sich dies jedoch auf lineare Laufzeit beschränken, denn für Bäume lassen sich die Nebenbedingungen des LP wie folgt aufstellen: Variablen: Für jeden Spieler i und jeden Strategievektor a i gibt es eine Variable P (a i ). Nebenbedingungen: 1. P ist Korreliertes Gleichgewicht. Für alle Spieler i und alle Strategien a, a : P (a i )M i (a i ) P (a i )M i (a i [i : a i]) a i :a i i =a a i :a i i =a 2. P ist Wahrscheinlichkeitsverteilung. Für alle Spieler i: a i : P (a i ) 0; P (a i ) = 1 a i 4

3. P weist gleiche Werte in Nachbarschaften zu. Für alle Spieler i, j, für alle Strategievektoren y ij der gemeinsamen Nachbarschaft N(i) N(j): a i :a ij =y ij P i (a i ) = a j :a ij =y ij P j (a j ) Lemma 11. Sei (G, M) ein graphisches Spiel. Jede Lösung zu den obigen Bedingungen liefert ein korreliertes Gleichgewicht für (G, M). Dabei entscheidet die Zielfunktion darüber, welches Gleichgewicht erreicht wird. 4 Literatur [1] Michael Kearns, Michael L. Littman, and Satinder Singh. Graphical models for game theory, 2001. [2] S.L. Lauritzen. Graphical Models. Clarendon Press, 1996. [3] J. Pearl. Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference. Representation and Reasoning Series. Morgan Kaufmann, 1988. 5