Territoriale Evolution von Kooperation in einem Gefangenendilemma. Thomas Grandner. Working Paper No. 45. Februar 1996

Ähnliche Dokumente
Kapitel 13. Evolutionäre Spieltheorie. Einleitung. Evolutionäre Biologie. Übersicht 2. Alternative: Biologische Evolutionstheorie

Klausur zur Vorlesung Spieltheorie Musterlösung

Verfeinerungen des Bayesianischen Nash Gleichgewichts

Spieltheorie - Wiederholte Spiele

Geometrie in der Spieltheorie

KAP 1. Normalform Definition Ein Spiel G in Normalform (auch: Strategieform) besteht aus den folgenden 3 Elementen:

Wiederholte Spiele. Grundlegende Konzepte. Zwei wichtige Gründe, wiederholte Spiele zu betrachten: 1. Wiederholte Interaktionen in der Realität.

Vorlesung: Nicht-kooperative Spieltheorie. Teil 2: Spiele in Normalform

Anwendungen der Spieltheorie

Spieltheorie Teil 6. Tone Arnold. Universität des Saarlandes. 25. März 2008

Kapitel 7: Multistufenspiele und Wiederholte Spiele. Literatur: Tadelis Chapters 9, 10 und 11

Technische Universität München Zentrum Mathematik Propädeutikum Diskrete Mathematik. Weihnachtsblatt

Kapitel 6: Spiele mit simultanen und sequentiellen Spielzügen. Kapitel 6 1

Klausur zur Spieltheorie Musterlösung

2. Grundzüge der Mikroökonomik Einführung in die Spieltheorie. Allgemeine Volkswirtschaftslehre. WiMa und andere (AVWL I) WS 2007/08

Grundzüge der Spieltheorie

3.5 Mehrstufige Spiele und Teilspiel-perfektes Gleichgewicht

Asymmetrische Spiele. Eric Barré. 13. Dezember 2011

Kapitel 4: Spiele mit simultanen Spielzügen und reinen Strategien: Diskrete Strategien. Einleitung. Übersicht 3

6. Wiederholte Spiele

Anregende, ergänzende Literatur:

12. Vorlesung Spieltheorie in der Nachrichtentechnik

In vielen Situation interagieren Spieler wiederholt: Interaktion innerhalb von Organisationen und Gruppen

bzw. die Entscheidugen anderer Spieler (teilweise) beobachten Erweitert das Analysespektrum erheblich Beschreibung des Spiels (extensive Form)

Evolutionär stabile Strategien

4. Wiederholte Spiele

Vollständigkeit; Überabzählbarkeit und dichte Mengen) Als typisches Beispiel für die reellen Zahlen dient die kontinuierlich ablaufende Zeit.

12. Vorlesung. 19. Dezember 2006 Guido Schäfer

Verhalten des Gefangenen E gesteht leugnet Die Situation ist in folgender Matrix dargestellt: Verhalten des Gefangenen A leugnet gesteht -2 0 I II -2-

Exemplar für Prüfer/innen

Spieltheorie Vortrag im Rahmen eines Treffens der Grazer Pro Scientia Geförderten

Industrieökonomik II Wintersemester 2007/08 1. Industrieökonomik II. Prof. Dr. Ulrich Schwalbe. Wintersemester 2007/ 2008

Arbitrage Free Pricing

Zeitreihenökonometrie

Spieltheorie mit. sozialwissenschaftlichen Anwendungen

Klausur zur Vorlesung Spieltheorie

Klausur Mikroökonomik II. Wichtige Hinweise

Fachbereich 10 Institut für Wirtschaftswissenschaften Professur für Volkswirtschaftslehre. Spieltheorie. Prof. Dr. Gernot Sieg.

Proseminar. Spieltheorie. Sommersemester 2015

3 Vollständige Induktion

Spieltheorie. Yves Breitmoser, EUV Frankfurt (Oder)

1 Lektion 7: Evolutorische Spieltheorie. Evolution?r stabile Strategien und Replikatordynamik als Beitrag aus der Biologie

5. Wiederholte Interaktion (Wiederholte Spiele Superspiele)

MATHE-BRIEF. März 2012 Nr. 23 SPIELTHEORIE

Konvergenz, Filter und der Satz von Tychonoff

VO Grundlagen der Mikroökonomie

Flüsse, Fixpunkte, Stabilität

1 Axiomatische Charakterisierung der reellen. 3 Die natürlichen, die ganzen und die rationalen. 4 Das Vollständigkeitsaxiom und irrationale

3. Das Reinforcement Lernproblem

Probeklausur zur Mikroökonomik II

Sattelpunkt-Interpretation

Zahlen und elementares Rechnen

SigmaDeWe Risikomanagement

1. Einführung. 1.1 Literatur. Klaus M. Schmidt. Spieltheorie, Wintersemester 2014/15

Spieltheorie Kapitel 7, 8 Evolutionary Game Theory Modelling Network Traffic using Game Theory

Spieltheorie Vortrag im Rahmen des Schwingungsphysikalischen Kolloquiums Drittes Physikalisches Institut (DPI)

Unabhängigkeit KAPITEL 4

Das sequentielle Gleichgewicht

Mathematik I. Vorlesung 7. Folgen in einem angeordneten Körper

Grundlegende Eigenschaften von Punktschätzern

Reelle Zahlen, Gleichungen und Ungleichungen

Mathematische Grundlagen der Ökonomie Übungsblatt 8

2 für 1: Subventionieren Fahrgäste der 2. Klasse bei der Deutschen Bahn die 1. Klasse?

Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend

Lineare (Un-)Gleichungen und lineare Optimierung

Spieltheoretischer Ansatz für selbstorganisierende Systeme

Finanzkrise Spieltheoretisches Modell Vortrag im Rahmen des Seminars Quantitative Finance Universität des Saarlandes Prof.

Vorlesung Spieltheorie, A. Diekmann. Übungen 1-3

Spieltheorie mit. sozialwissenschaftlichen Anwendungen

5 Wiederholte Spiele. 5.1 Einleitung. Literaturhinweise zu Kapitel 5:

4 Das Vollständigkeitsaxiom und irrationale Zahlen

Der Gütermarkt Nach Einsetzen obiger Angaben in die Güternachfrage und Umformung erhalten wir:

Hackenbusch und Spieltheorie

Seminar A - Spieltheorie und Multiagent Reinforcement Learning in Team Spielen

TECHNISCHE UNIVERSITÄT MÜNCHEN

Mikroökonomie II Kapitel 12 Spieltheorie und Wettbewerbsstrategie SS 2005

Donnerstag, 11. Dezember 03 Satz 2.2 Der Name Unterraum ist gerechtfertigt, denn jeder Unterraum U von V ist bzgl.

18 Höhere Ableitungen und Taylorformel

1.3. Beträge, Gleichungen und Ungleichungen

Übungsbeispiel 1: Quadratische Modellierung

37 Gauß-Algorithmus und lineare Gleichungssysteme

Elemente der Stochastik (SoSe 2016) 10. Übungsblatt

Kosten und Umsatzfunktionen

Musterlösung zur Einsendearbeit zum Kurs Preisbildung auf unvollkommenen Märkten und allgemeines Gleichgewicht, Kurseinheit 1

Grundzüge der Spieltheorie

5.10. Mehrdimensionale Extrema und Sattelpunkte

Angewandte Mathematik 9. Mai 2014 Korrekturheft Teil A + Teil B (Cluster 8)

Folgen und Reihen. Wirtschaftswissenschaftliches Zentrum Universität Basel. Mathematik für Ökonomen 1 Dr. Thomas Zehrt

Komplexität in der Ökologie

2. Vorlesung. 1.3 Beste-Antwort Funktion. Vorlesung: Einführung in die Spieltheorie WS 2006/ Oktober 2006 Guido Schäfer

Preiswettbewerb. Homogenitätsannahme (Güter gleich) keine Kapazitätsbeschränkungen. nur niedrigster Preis kann sich als Marktpreis behaupten

Analytische Geometrie

Stochastik I. Vorlesungsmitschrift

1. Gruppen. 1. Gruppen 7

Die Gleichung für die IS-Kurve einer geschlossenen Volkswirtschaft lautet:

Grundzüge der Spieltheorie

Elementare Beweismethoden

Transkript:

Territoriale Evolution von Kooperation in einem Gefangenendilemma Thomas Grandner Working Paper No. 45 Februar 1996 Author s address: Department of Economics University of Economics and Business Administration, Vienna Augasse 2-6 A - 1090 Vienna Austria

Territoriale Evolution von Kooperation in einem Gefangenendilemma Das Gefangenendilemma gilt als Standardmodell mit dessen Hilfe das Phänomen Kooperation dargestellt und analysiert werden kann, auch in der ökonomischen Forschung. Besonders interessant an diesem Spiel ist, daß die Lösung (das eindeutige Nashgleichgewicht) nicht pareto-effizient ist und Kooperation eine Pareto-Verbesserung darstellen würde. Für die beteiligten Spieler gibt es also eine bessere Situation als die gleichgewichtige, diese kann aber aus individualistischen Gründen nicht erreicht werden. Das Gefangenendilemma wird als Beschreibung vieler ökonomischer und nichtökonomischer Situationen interpretiert (Axelrod 1984). Die ökonomischen Interpretationen reichen von oligopolistischen Marktstrukturen (etwa Rasmusen 1989) bis zur Problemdarstellung öffentlicher Güter (etwa Hargreaves Heap 1994). Nicht-ökonomische Interpretationen findet man etwa im Bereich der biologischen Literatur zur Evolution (etwa Axelrod und Hamilton 1981). 1 Das Gefangenendilemma wird durch folgende Auszahlungsmatrix beschrieben : Spieler II Spieler I C D C 1 / 1 0 / T D T / 0 P / P Es gilt 0 # P < 1 < T und weiters T < 2. Die Strategiekombination (D,D) ist das eindeutige Nashgleichgewicht. In der "Sprache" des Gefangenendilemmas: Beide Spieler haben die Möglichkeit zu kooperieren oder zu defektieren. Unabhängig von der Strategiewahl des Gegenspielers, ist Defektion jedoch die beste Wahl und damit eine dominante Strategie. Im Gleichgewicht defektieren daher beide Spieler, obwohl wechselseitige Kooperation für beide besser wäre. Ist die Aussage der herkömmlichen Spieltheorie für den Einperiodenfall eindeutig - das Gleichgewicht in einem 2-Personen Spiel, bei dem beide Spieler strikt dominante Strategien besitzen ist immer eindeutig und kann durch sehr schwache Annahmen an die Rationalität der Spieler gestützt werden - so verliert sich die Eindeutigkeit, zumindest aus theoretischer Sicht, bei wiederholtem Spiel des Gefangenendilemmas. Auch Kooperation kann dann durchaus rational sein. Die Folk-Theoreme besagen zwar, daß Kooperation Teil einer Gleichgewichtsstrategie eines Spielers sein kann, aber im unendlich oft wiederholten Spiel, wenn bei der Bewertung auch die zukünftigen Auszahlungen entsprechend berücksichtigt werden, sind beinahe alle Strategiekombinationen als Gleichgewicht stützbar, eine konkrete "Lösung" ergibt sich daraus nicht (siehe etwa van Damme 1991). Die evolutionäre Spieltheorie untersucht die Dynamik eines wiederholten Spiels und ist insbesondere an der 1 Üblicherweise wird das Gefangenendilemma durch 4 Parameter charakterisiert. Man kann aber die Nutzenfunktionen der Spieler derart transformieren, daß die im Text dargestellte Normalform übrig bleibt. 1

Stabilität von Gleichgewichten interessiert. Nach jedem Einperiodenspiel werden die Strategien nach einer bestimmten Lernregel angepaßt. Untersucht wird die Frage welche Strategie oder Strategien sich langfristig durchsetzt bzw. durchsetzen. 2 Axelrod (1984) hat in seinen berühmt gewordenen Computer-Turnieren, die Vorteile von 3 TIT FOR TAT dargestellt. Diese Strategie hat sich bei diesen Turnieren in unterschiedlichsten Situationen als äußerst vorteilhaft und robust erwiesen. Immer dann, wenn zukünftige Auszahlungen für die Spieler von Bedeutung sind, ist TIT FOR TAT eine kollektiv stabile Strategie: das bedeutet, keine andere Strategie kann sie unterwandern, solange diese andere Strategie nicht zu häufig auftritt. Eine kollektiv stabile Strategie kann daher langfristig nicht verdrängt werden. Strategie S ist kollektiv stabil, wenn gilt: E(S,S) $ E(S',S) für alle Strategien S'. Ähnlich dem Konzept der kollektiven Stabilität ist das von Maynard Smith (1982) benützte Konzept der evolutionären Stabilität. Eine Strategie ist dann evolutionär stabil, wenn sie einerseits von keine anderen Strategie unterwandert werden kann, andererseits sie aber alle anderen verdrängen kann. Strategie S ist evolutionär stabil, wenn gilt: (E(S,S)$ E(S',S)) und (E(S,S) > E(S',S) oder (E(S,S') > E(S',S')) für alle Strategien S'. TIT FOR TAT ist nicht evolutionär stabil. Etwa gegen die Strategie KOOPERIERE IMMER ist die definitorische Bedingung nicht erfüllt. Die erwartete Auszahlung für TIT FOR TAT, wenn es gegen lauter TIT FOR TAT Spieler spielt, ist nicht höher als für KOOPERIERE IMMER (kann jemand TIT FOR TAT verdrängen?), und die erwartete Auszahlung für TIT FOR TAT, in einer Umgebung von Kooperierern ist nicht höher als für KOOPERIERE IMMER (kann TIT FOR TAT andere Strategien unterwandern?). TIT FOR TAT wird zwar nicht verdrängt, setzt sich aber auch nicht gegen KOOPERIERE IMMER durch. Trotz allem hat sich TIT FOR TAT in den Computerturnieren bewährt. Territoriale Ausbreitung von Kooperation bei Strategien mit Gedächtnis: Im folgenden soll untersucht werden, welche Strategien sich in einem territorialen evolutionären Prozeß durchsetzen. Die Versuchsanordnung ist einfach und schon Axelrod (1984) hat auf sie aufmerksam gemacht. Im Gegensatz zur herkömmlichen evolutionären Spieltheorie tritt nicht jeder Spieler (jede Population) gegen alle anderen Spieler (Populationen) an, sondern nur gegen einige ausgewählte (seine Nachbarn). Man stelle sich ein großes schachbrettähnlich unterteiltes Feld vor, jedes Einzelfeld wird von einem Spieler besetzt und dieser spielt gegen alle seine Nachbarn (jedes Einzelfeld hat vier unmittelbar angrenzende Einzelfelder, nur die Randfelder haben entsprechend weniger Nachbarn). Die Bewertung der benutzten Strategie, die "Fitness" eines Spielers ergibt sich aus der Summe der Auszahlungen. Nach jeder Runde erfolgt eine Anpassung der Strategien nach der Regel: "imitiere in der nächsten Runde (nächsten Generation) deinen erfolgreichsten Nachbarn, 2 In diesem Turnieren wurde natürlich das Gefangenendilemma nur endlich oft wiederholt. 3 Bei der Strategie TIT FOR TAT spielt der Spieler in der ersten Runde kooperativ, in den folgenden Runden wird jeweils die Strategie gewählt, die der Gegenspieler in der Vorrunde gewählt hat. 2

vorausgesetzt er erzielt eine höhere Punktewertung (Fitness) als du". Eine einzelne Runde kann dabei auch aus unendlich vielen Wiederholungen des einperiodigen Gefangenendilemmas 4 bestehen. Der Innovationsprozeß kann sich sehr interessant gestalten. Das von Axelrod (1984) verwendete Beispiel ist folgendermaßen gekennzeichnet. In ein (Gesamt)Feld mit lauter TIT FOR TAT Spielern wird in die Mitte ein Spieler gesetzt, der immer defektiert und zwar unabhängig von den Strategiewahlen in der Vergangenheit. Als Auszahlung wird der Erwartungswert eines unendlich oft wiederholten Gefangenendilemmas gesetzt. Der Zeitdiskontparameter, also jener Wert der angibt, wie stark zukünftige Erträge im Verhältnis zu gegenwärtigen Erträgen gewichtet werden, wird mit (1 - w) bezeichnet und liegt im offenen Intervall zwischen 0 und 1. Treffen zwei TIT FOR TAT Spieler aufeinander, dann ist 2 der Erwartungswert gleich 1 + w + w +... = 1/(1-w), da diese beiden Spieler in jeder Runde kooperieren und damit die Auszahlung 1 erhalten. Trifft ein TIT FOR TAT Spieler auf einen 2 Defektierer bekommt der TIT FOR TAT Spieler 0 + wp + w P +... = wp/(1-w) und DEFEKTIERE IMMER entsprechend T + wp/(1-w). Treffen schließlich zwei DEFEKTIERE IMMER aufeinander bekommen sie P/(1-w). Die Erwartungswerte mit den jeweiligen Nachbarn werden addiert und ergeben die "Fitness" des Spielers. In der nächsten Stufe imitiert jeder Spieler seinen erfolgreichsten Nachbarn, vorausgesetzt dieser erreicht eine höhere Fitness als er selbst. Dieses System entwickelt sich beispielsweise für Parameterwerte T=54/29, P=6/29 und w = 1/3 chaotisch. In Abbildung 1 ist der Anteil der TIT FOR TAT Spieler für ein 101x101 großes Feld über den Zeitverlauf hinweg ausgewiesen. Abbildung 1 Anfangs ist der Anteil der TIT FOR TAT Spieler beinahe 100% (nur ein einziger Defektierer sitzt in der Mitte des Feldes) und pendelt sich dann auf ein Intervall um 40% ein, stabilisiert sich aber nie vollständig. Nach 200 Evolutionsstufen ergibt sich folgendes Bild (Abbildung 2) (Defektierer sind mit, 4 Axelrod (1984) bezeichnet eine Strategie als territorial stabil, wenn sie keine andere Strategie territorial verdrängen kann. Wenn also ein Gesamtfeld von nur einer Strategie besetzt ist und eine neue Strategie taucht auf, dann gelingt es dieser Strategie nicht die alte territorial vollständig zu verdrängen. Dies muß für alle möglichen neuen Strategien gelten. 3

TIT FOR TAT Spieler sind als Leerzeichen gekennzeichnet): Abbildung 2 Sind zukünftige Auszahlungen weniger wichtig, der Diskontfaktor hoch, w etwa nur 1/5, verändert sich die Dynamik des Systems. Folgendes Bild ergibt sich nach etwa 50 Runden (im 101x101 Feld sind die Grenzen erreicht) und bleibt dann für immer gleich: Abbildung 3 Betrachtet man hingegen ein System bei dem die zukünftigen Auszahlungen wichtiger sind, etwa w = 1/2, dann breitet sich die Defektierer nicht mehr aus, sie bleiben auf das Zentrum des Gesamtfeldes begrenzt. Bei w = 2/3 entwickelt sich der erste Defektierer überhaupt nicht weiter und Defektion verschwindet vollständig. Wenn der Zeitdiskontfaktor (1 - w) klein genug ist, ist TIT FOR TAT territorial stabil (siehe Axelrod 1984). Auch andere Strategien mit einem Gedächtnis von einer Runde sind denkbar, etwa 4

KOOPERIERE IMMER oder ANTI TIT FOR TAT (als erster defektieren und dann immer das Gegenteil dessen, was der Gegenspieler in der Vorrunde gemacht hat). Startet man mit einem Gesamtfeld, bei dem diese vier Strategien vertreten sind, so können ebenfalls sehr interessante Evolutionsprozesse beobachtet werden. Die Entwicklung der einzelnen Strategie ist nämlich abhängig von ihrer Umgebung. Im folgenden Beispiel ist ein Gesamtfeld (101x101) mit 90% KOOPERIERE IMMER, 5% TIT FOR TAT Spielern, 3% ANTI TIT FOR TAT Spielern und 2% DEFEKTIERE IMMER besetzt. Alle Spieler werden anfangs zufällig über das Gesamtfeld verteilt. Als Parameterwerte sind T = 54/29, P = 6/29 und w = 2/3 gewählt. TIT FOR TAT kann sich in einem Umfeld von KOOPERIERE IMMER nicht ausbreiten, da die Auszahlungen für beide Strategien gleich groß sind und TIT FOR TAT daher keinen Vorteil erzielt. Dafür expandiert die DEFEKTIERE IMMER und ANTI TIT FOR TAT (die Spieler, die die letzte Strategie verwenden, verschwinden jedoch vollständig nach nur wenig Runden). Mit dieser Expansion von DEFEKTIERE IMMER verändert sich aber das Umfeld für die TIT FOR TAT Spieler und sobald genügend Defektierer existieren, expandiert TIT FOR TAT, da es gegenüber Defektion vorteilhaft abschneidet, und setzt sich schließlich vollständig durch. Abbildung 4 Die Linie mit den Kreisen stellt den Anteil von KOOPERIERE IMMER, die Linie mit den Quadraten den von TIT FOR TAT, die Linie mit den Dreiecken den von ANTI TIT FOR TAT und die Linie mit den Kreuzen den von DEFEKTIERE IMMER dar. Nach etwa 85 Runden haben sich die TIT FOR TAT Spieler vollständig durchgesetzt. Wenn hingegen die zukünftigen Gewinne weniger zählen (der Zeitdiskontparameter groß, damit w klein ist), setzen sich die Defektierer durch. Die Stärke von TIT FOR TAT ergibt sich einerseits aus seiner "Freundlichkeit", (es defektiert nie als erstes), und daraus, daß es nicht systematisch ausgenützt werden kann, (jede Defektion wird bestraft). Die Spieler werden durch die Drohung der Defektion in der nächsten Runde zur Kooperation angehalten (siehe Axelrod 1984). 5

Territoriale Ausbreitung von Kooperation bei Strategien ohne Gedächtnis: In einem territorialem System, ist diese Drohung aber gar nicht notwendig. Allein schon aus dem Umstand, daß Nachbarn dann eine hohe Fitness erzielen, wenn sie zumindest mit einigen anderen Nachbarn kooperieren, macht Kooperation bei dem hier vorgestellten Lernprozeß überlebensfähig. Beispielhaft sei folgende Situation analysiert: Jeder Spieler hat nur zwei mögliche Strategien zur Wahl: Kooperation (C) und Defektion (D). Die Spieler haben kein Gedächtnis, sie können nicht auf das Verhalten ihrer Gegenspieler bedingen, wie dies bei TIT FOR TAT der Fall ist. Jede Runde besteht also nur aus Einperiodenspielen, in dem die Strategie D dominant ist. Aber jeder Spieler spielt im Gegensatz zum einfachen Gefangenendilemma gegen alle seine Nachbarn. Wenn nun ein Spieler kooperiert, dann kann es vorkommen, daß er zwar von einigen Nachbarn ausgenützt wird, mit anderen jedoch kann er kooperieren. Daraus kann sich ergeben, daß, obwohl Defektierer existieren, Kooperation gewinnbringend ist. Beginnen wir wieder mit einem einheitlichem Feld von Kooperierern, nur ein Spieler in der Mitte des gesamten Feldes defektiert. 1. Runde s1 s2 s3 s4 s5 r1 C C C C C r2 C C C C C r3 C C D C C r4 C C C C C r5 C C C C C Dieses 5x5 Feld ist ein Ausschnitt eines größeren Gesamtfeldes, also auch die "Rand"spieler haben jeweils vier Nachbarn. Jeder spielt nun gegen seine Nachbarn, die Auszahlungen aus diesen 4 Spielen wird addiert. s1 s2 s3 s4 s5 r1 4 4 4 4 4 r2 4 4 3 4 4 r3 4 3 4T > 4 3 4 r4 4 4 3 4 4 r5 4 4 4 4 4 Die Fitness des Spielers (r3,s3) ist höher als die seiner unmittelbaren Nachbarn, er wird in der nächsten Runde seine Strategie beibehalten (D). Wie sich die Strategie seiner Nachbarn verändert sei exemplarisch an Spieler (r2,s3) gezeigt. Dessen unmittelbaren Nachbarn erhalten höhere Auszahlungen als er und zwar ist die höchste Auszahlung, die des Spielers (r3,s3). Dessen Strategie wird daher in der nächsten Periode imitiert. (Erreichen mehr als ein Spieler die höchste Fitness, entscheidet ein Zufallsprozeß welcher Spieler imitiert wird.) Daher ergibt sich in der 2. Runde folgendes Bild: 6

s1 s2 s3 s4 s5 r1 C C C C C r2 C C D C C r3 C D D D C r4 C C D C C r5 C C C C C mit folgenden Auszahlungen: s1 s2 s3 s4 s5 r1 4 4 3 4 4 r2 4 2 3T+P > 3 2 4 r3 3 3T+P > 3 4P < 4 3T+P > 3 3 r4 4 2 3T+P > 3 2 4 r5 4 4 3 4 4 Spieler (r3,s3) wird seine Strategie (D) nicht ändern, da er nur von D-Spielern umgeben ist. Spieler (r2,s3) wird seine Strategie (D) ebenfalls nicht ändern, da seine Auszahlung gleich 3T+P > 3 und damit größer ist, als die seiner Nachbarn, welche die Strategie C benützen. Spieler (r1,s3) ändert dann seine Strategie (C) dann, wenn 3T+P > 4 (was äquivalent zu T > 4/3-P/3) ist. Ebenso ändert Spieler (r2,c2) seine Strategie (C) dann, wenn T > 4/3 - P/3 gilt. Aus Symmetriegründen sind damit alle Veränderungen beschrieben. D wird sich also nur dann weiter ausbreiten, wenn gilt: T > 4/3 - P/3. Nehmen wir an, die Ungleichung sei gültig, dann ergibt sich für die 3. Runde folgende Konstellation: Strategien in der 3. Runde: s1 s2 s3 s4 s5 r1 C C D C C r2 C D D D C r3 D D D D D r4 C D D D C r5 C C D C C 7

mit den Auszahlungen: s1 s2 s3 s4 s5 r1 4 2 3T+P > 3 2 4 r2 2 2T+2P > 2 4P < 4 2T+2P > 2 2 r3 3T+P > 3 4P < 4 4P < 4 4P < 4 3T+P > 3 r4 2 2T+2P > 2 4P < 4 2T+2P > 2 2 r5 4 2 3T+P > 3 2 4 Man kann leicht sehen, daß das Territorium der D-Spieler weiter wächst, da T > 4/3 - P/3 angenommen wurde. Jeder Spieler vergleicht ja seine eigene Fitness nur mit der seiner unmittelbaren Nachbarn, aber da sich deren Fitness durch die Strategien deren Nachbarn ergibt, sind insgesamt 13 Spieler bei der Bestimmung eines Strategiewechsels beteiligt. Î ÏØÐ ÑÙŽÚÒ ÓÛÔ Õ Aus diesen 13 Spielern kann man alle möglichen Größenrelationen, die für einen Strategiewechsel verantwortlich sein könnten, ableiten. Wenn der betrachtete Spieler kooperiert, gilt: 4R = 4 kann kleiner sein als 3T+P daraus folgt T > 4/3 - P/3 (i) 2T+2P daraus folgt T > 2 - P (ii) T+3P daraus folgt T > 4-3P (iii) 3R+S = 3 kleiner als 2T+2P daraus folgt T > 3/2 - P (iv) T+3P daraus folgt T > 3-3P (v) 2R+2S = 2 kleiner als T+3P daraus folgt T > 2-3P (vi) Diese Ungleichungen geben alle denkbaren Regionen an, in denen das dynamische System unterschiedlich reagiert, jedoch sind nicht alle Ungleichungen relevant. Sobald etwa (ii) gilt, überschwemmen die D-Spieler das gesamte Feld. Daraus folgt aber, daß Ungleichung (iii) keine zusätzliche Restriktion darstellt. Lindgren/Nordahl (1994) zeigen, daß dieses Ungleichungssystem 5 qualitativ unterschiedliche Regionen beschreibt. Unter bestimmten Parameterkonstellationen können wieder chaotische Prozesse auftreten. 8

Ein Beispiel: 101x101 Matrix. Zu Beginn kooperieren alle, bis auf den in der Mitte. Als Parameterwerte sind T = 1.45, P = 0 angenommen, damit gilt T > 4/3 - P/3 und die Defektierer expandieren auch nach der 3. Runde. Der nächste qualitative Entwicklungssprung wäre bei T > 3/2 - P. Solange T < 3/2 ist entsteht wieder ein kaleidoskopartiges Bild. Ist aber T > 3/2 (< 2), dann entwickelt sich die Defektierer wieder nur entlang der Achsen. (T > 2 führt zu einer Überschwemmung des Gesamtfeldes mit Defektierern.) Im folgenden soll die evolutionäre Entwicklung dieses Systems dargestellt werden. Leerzeichen repräsentieren Kooperation und Defektion. Als Parameterwerte werden T = 1.45 und P = 0 gesetzt. Dann ergibt sich nach 50 Runden folgendes Bild: Abbildung 5 Nach 100 Runden haben sich die Defektierer weiterentwickelt und überall den Rand erreicht. Die relativ geschlossenen kleinen Felder von Kooperierern verändern ihre Form, ihre Größe und ihre Lage ständig. Abbildung 6 9

In Abbildung 7 ist der Anteil der Kooperierer über den Evolutionsprozeß hinweg dargestellt. Abbildung 7 Die Entwicklung des Systems ändert sich wenn T einen Wert größer als 3/2 annimmt. Das folgende Bild beschreibt das System bei T = 1.55 nach 50 Runden. Der Anteil der Kooperierer liegt etwa 95 %. Obwohl Defektieren wertvoller ist als bei einem Wert von T = 1.45 (die Ausbeutung eines Kooperierers bringt höheren Gewinn), breiten sich die Defektierer weniger stark aus. Abbildung 8 Generell kann festgestellt werden, daß D, für einen Wert von T < 2 - P, C nicht territorial verdrängen kann. Überprüft man, ob Kooperierer ein Feld von Defektierern unterwandern kann, so muß vorerst einmal klar sein, daß dies, wegen der Auszahlungsstruktur des Gefangenendilemmas, einem einzelnen Kooperierer alleine niemals gelingen kann. Kooperation braucht immer Partner, irgend jemand muß zur Kooperation bereit sein, erst dann kann sich Kooperation rechnen. Wenn ein geschlossenes 3x3 Feld von Kooperierern inmitten lauter Defektierer 10

existiert, kann sich Kooperation ausbreiten. Ist etwa T = 1.45 (P = 0), dann steigt der Anteil der Kooperierer auf 52% an, wobei die Kooperierer eine kompakte, geschlossene Position einnehmen und die Defektierer an den Rand verdrängen. In Abbildung 9 ist die Entwicklung des Anteils der Kooperierer dargestellt. Abbildung 9 Ändert man T auf 1.55, dann entwickeln sich die Kooperierer entlang der Hauptachsen weiter, ähnlich wie die Entwicklung der Defektierer im Kooperiererfeld im obigen Beispiel. Dabei erreicht der Anteil der Kooperierer etwa 7%. Gefangenendilemmasituationen bei Mehrpersonenspielen Es wäre falsch, wenn man die oben dargestellte Struktur als ein einfaches Aneinanderreihen eines 2-Personenspiels interpretieren würde. Auch wenn die "Fitness" der Spieler durch einfach Addition der Auszahlungen aus vier 2-Personenspielen gewonnen wurde, handelt es sich um ein Mehr-Personenspiel. Für die Interpretation des Gefangenendilemmas als Darstellung der Free-Rider Problematik ist diese Mehr-Personen Variante auch die geeignetere Form. In der territorialen Anordnung heißt das, daß ein Spieler nicht mit jedem seiner Nachbarn ein separierbares Spiel bestreitet, sondern er und alle seine Nachbarn an einem gemeinsamen Spiel beteiligt sind. Zu beachten ist, daß jeder Spieler an mehreren Spielen teilnimmt, da jeder auch "beim Spiel" seiner Nachbarn involviert ist. Im oben betrachteten Fall ist also jeder, mit Ausnahme der Randspieler, an insgesamt 5 Spielen beteiligt und an einem typischen Spiel nehmen 5 Spieler teil. Diese Spielstruktur kann verallgemeinert werden und die Auszahlungen für dieses Mehr- Personen Spiel werden hier folgendermaßen definiert: Ein Kooperierer erhält: " (1 - ANZ/NACH) " > 0 ANZ: Anzahl er Defektierer in seiner Nachbarschaft NACH: Anzahl der Nachbarn 11

Ein Defektierer erhält: $ (T - P)(1 - ANZ/NACH) + P $ > 0 Hat ein Kooperierer in seiner Nachbarschaft nur Kooperierer (ANZ = 0), dann erhält er 1 (ähnlich wie im 2-Personen Gefangenendilemma). Er bekommt weniger, wenn er defektierende Nachbarn hat. Bei " > 1 verliert man durch den ersten Defektierer mehr als durch die folgenden, bei " < 1 würde die Auszahlungseinbuße mit jedem weiteren Defektierer überproportional steigen und " = 1 wäre äquivalent zum 2-Personenspiel mit additiven Auszahlungen. In manchen Situationen ist es wichtig, daß alle Mitspieler kooperieren. Ein einziges in Betrieb genommenes Radio in der Nachbarschaft stört die Mittagsruhe. Wenn dann auch noch ein zweiter Nachbar sein Radiogerät einschaltet, ist die zusätzliche Nutzeneinbuße gering. Diese Situation wäre durch ein hohes " gekennzeichnet. Defektieren alle Nachbarn, dann beträgt die Auszahlung 0 (wieder ähnlich zum 2-Personen Gefangenendilemma). Ebenso erhält ein Defektierer T (>1) nur dann, wenn keiner seiner Nachbarn defektiert. Defektieren alle, dann erhält er P. Die Einbuße, wenn nur einer defektiert (oder einige defektierenen) hängt vom Parameter $ ab. Je höher $, desto größer die Einbuße bereits beim ersten defektierenden Nachbarn. $ mißt damit inwieweit ein Störenfried (einer der sein Radiogerät in der Mittagszeit eingeschaltet hat) selbst durch die Musik eines oder mehrerer seiner Nachbarn gestört wird. Eine Veränderung der Parameter " und $ bedeuten Veränderungen der marginalen Nutzeneinbuße bei Auftreten eines Defektierers. Diese marginale Nutzeneinbuße entwickelt sich konvex zum Ursprung bei einem Wert kleiner 1, linear bei 1 und konkav bei einem Wert größer 1. Untersucht man dieses System mit lauter Kooperierern, nur einem Defektierer in der Mitte so ergibt sich folgende Ungleichung, welche die Weiterentwicklung der Defektierer nach der 2. Runde bestimmt: ß " (T - P)(1-1/4) + P > 1 Der linke Teil der Gleichung beschreibt die Auszahlung eines Defektierers, der einen Defektierer in seiner Nachbarschaft hat. Der rechte Teil beschreibt die Auszahlung eines Kooperierers umgeben von lauter Kooperierern. Daraus ergibt sich die Ungleichung: " $ T > (1 - P)(4/3) + P für "=$=1 gleichbedeutend mit T > (4-P)/3 Der Wert dieser Schranke ist klarerweise unabhängig von ", dagegen vergrößert sich die Schranke mit steigendem $ (die Schranken für T (1,2) und P [0,1) müssen beachtet werden) und Defektion wird sich erst bei höherem Wert für T ausbreiten. Für die weitere Ausbreitung von Defektion ist also nicht der Umstand verantwortlich, daß Kooperierer durch Defektierer gestört werden, sondern die Tatsache, daß Defektierer andere Defektierer stören. Setzen wir P etwa 0, so reicht ein $ von 2.40942, um Defektion selbst bei T = 2 (obere Grenze für T) nicht expandieren zu lassen. Ist andererseits $ klein, dann expandieren die Defektierer beinahe immer. Wie in den Beispielen früher ausgeführt gilt für $ = 1 und P = 0 die Schranke T > 4/3. Bei $ = 0.5 sinkt diese Schranke auf 1.1547, bei $ = 0.1 auf 1.02918. Äquivalent zum vorherigen Modell können die verschiedenen Schranken, bei denen eine Veränderung der Dynamik eintritt, abgeleitet werden: Die Frage lautet: Bringt Defektion trotz zweier defektierender Nachbarn eine höhere Auszahlung als Kooperation bei nur einem defektierenden Nachbarn? 12

Das ist dann der Fall, wenn folgende Ungleichung erfüllt ist: $ " (T - P)(2/4) + P > (3/4) Daraus ergibt sich: " $ T > ((3/4) - P)2 + P Diese Schranke ist sowohl von " als auch von $ positiv abhängig. Je größer einer dieser beiden Parameter ist, desto später erreicht T diese Schranke. Daher entscheidet darüber, ob sich Defektieren prinzipiell ausweitet, nur der Wert $, das Maß für die Nichtlinearität der Nutzeneinbuße eines Defektierers durch das Defektieren eines Nachbarn, in welcher Art und Weise sich die Defektierer aber über das Feld ausbreiten dafür ist auch der Parameter " verantwortlich. Das soll an Hand eines Beispiels gezeigt werden: Betrachten wir wieder ein 101x101 Feld mit lauter Kooperierern und einem Defektierer in der Mitte nach 100 Runden: Die Parameterwerte werden mit T=1.16, P=0 und $=0.5 festgelegt, der Wert für " wird variiert. " = 1 ergibt dann wieder ein bereits gewohntes Bild: Abbildung 10 Behält man alle Werte gleich und ändert nur die "-Werte auf 0.5 bzw. 0.1, zeigen sich chaotische Entwicklungen (siehe Abbildungen 11 und 12). Die unterschiedliche Entwicklung kann auch am Anteil der Kooperierer an den gesamten Spielern dargestellt werden. In Abbildung 13 ist die Entwicklung des Anteils der Kooperierer für das System mit einem Wert "=0.5 und in Abbildung 14 jene für einen Wert "=0.1 dargestellt. 13

"=0.5 Abbildung 11 "=0.01 Abbildung 12 Abbildung 13 Abbildung 14 14

Abschließende Bemerkungen: Die starke Aussage der herkömmlichen Spieltheorie, daß Kooperation in einem Gefangenendilemma dominiert sei und daher als Gleichgewichtsstrategie ausfällt, kann empirisch kaum nachvollzogen werden (Dawes und Thaler 1988). Daraus können sich mehrere Schlüsse ergeben. Einerseits kann die herkömmliche Nutzentheorie und damit die herkömmliche Spieltheorie irrelevant sein. Andererseits könnte aber auch der institutionelle Rahmen, den das einfache Gefangenendilemma beschreibt, nicht adäquat sein. Entscheidungen, selbst im Labor, fallen immer in sehr viel komplexeren Rahmen, als dies durch das einfache Gefangenendilemma dargestellt werden kann. Das wiederholte Gefangenendilemma könnte diese Komplexität besser einfangen, aber leider liefert uns die herkömmliche Spieltheorie für diesen Fall keine eindeutigen Aussagen mehr. Die evolutionäre Spieltheorie kann als ein Versuch gesehen werden, dieses Problem zu lösen. Von vielen möglichen Versuchsanordnungen wurde in dieser Arbeit eine gewählt, in der die territoriale Struktur Bedeutung hat. In den meisten Fällen existiert in einem solchen Setting Kooperation, in welchem Ausmaß ist aber von sehr vielen Einflußgrößen bestimmt. Die dynamischen Entwicklungen unterscheiden sich oft sehr stark nach den gerade gewählten Parameterwerten und können einen unvorhersehbaren Verlauf aufweisen. Das macht konkrete Vorhersagen selbst für diese einfache Versuchsanordnung außergewöhnlich schwierig. Literatur: Axelrod, Robert (1984): The Evolution of Cooperation. New York. Axelrod, Robert und William D. Hamilton (1981): "The Evolution of Cooperation". In: Science, 211, 1390-1396. Dawes, Robyn und Richard Thaler (1988): "Cooperation". In: Journal of Economic Perspectives, 3, Vol. 2, 187-197. Hargreaves Heap, Shaun (1994): "Institutions and (short-run) macroeconomic performance". In: Journal of Economic Surveys, 1, Vol. 8, 35-56. Lindgren, Kristian und Mats G. Nordahl (1994): "Evolutionary dynamics of spatial games". In: Physica D, 292-309. Rasmusen, Eric (1989): Games and Information. Cambridge, Massachusetts. Van Damme, Eric (1991): Stability and Perfection of Nash Equilibria. (2nd edition), Berlin. 15