Amortisierte Analyse

Ähnliche Dokumente
3. Übung Algorithmen I

3 Amortisierte Analyse

1. Musterlösung. Problem 1: Average-case-Laufzeit vs. Worst-case-Laufzeit

Algorithmen und Datenstrukturen

- k Maximalwerte aus Menge mit n >> k Elementen (Rangfolgebestimmung von Suchmaschinen!) Die typische Operationen:

Algorithmen & Datenstrukturen 1. Klausur

Datenstrukturen & Algorithmen

Programmiertechnik II

Fibonacci-Heaps und Amortisierte Analyse

Suchen und Sortieren Sortieren. Heaps

Codes und Informationsgehalt

AVL-Bäume Analyse. Theorem Ein AVL-Baum der Höhe h besitzt zwischen F h und 2 h 1 viele Knoten. Definition Wir definieren die nte Fibonaccizahl:

9.4 Binäre Suchbäume. Xiaoyi Jiang Informatik II Datenstrukturen und Algorithmen

Kapitel 6. Komplexität von Algorithmen. Xiaoyi Jiang Informatik I Grundlagen der Programmierung

Kap. 4.4: B-Bäume Kap. 4.5: Dictionaries in der Praxis

Kapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete

Zusammenfassung. Algorithmentheorie

Wiederholung ADT Menge Ziel: Verwaltung (Finden, Einfügen, Entfernen) einer Menge von Elementen

In vergleichsbasierten Suchbäumen wird nicht in Schlüssel hineingeschaut.

Name: Seite 2. Beantworten Sie die Fragen in den Aufgaben 1 und 2 mit einer kurzen, prägnanten Antwort.

1. Einfach verkettete Liste unsortiert 2. Einfach verkettete Liste sortiert 3. Doppelt verkettete Liste sortiert

Grundlegende Datentypen

Suchen in Listen und Hashtabellen

Der linke Teilbaum von v enthält nur Schlüssel < key(v) und der rechte Teilbaum enthält nur Schlüssel > key(v)

13. Binäre Suchbäume

Fully dynamic algorithms for the single source shortest path problem.

Einführung in die Informatik: Programmierung und Software-Entwicklung, WS 11/12. Kapitel 8. Arrays. Arrays

desk.modul : WaWi- Export

Alignment-Verfahren zum Vergleich biologischer Sequenzen

Kap. 4.2: Binäre Suchbäume

Grundlagen der Künstlichen Intelligenz

Einführung in die Informatik: Programmierung und Software-Entwicklung, WS 11/12. Kapitel 13. Bäume. Bäume

Universität Duisburg-Essen Informationssysteme Prof. Dr.-Ing. N. Fuhr. Praktikum Datenbanken / DB2 Woche 8: Trigger, SQL-PL

Programmierung und Modellierung

(allgemeine) OOP in C++ Klassen und header-files Konstruktorn / Destruktoren Speicherverwaltung C++ Standard Library / SLT

Vorkurs Informatik WiSe 15/16

Einführung in die Informatik Hashtables

Datenstrukturen und Algorithmen

6. Datenintegrität. Integritätsbedingungen

Algorithmen und Datenstrukturen Balancierte Suchbäume

Methoden des Algorithmenentwurfs Kapitel 2.2: Randomisierte Online Algorithmen

Grundlagen der Informatik. Prof. Dr. Stefan Enderle NTA Isny

3.2 Binäre Suche. Usr/local/www/ifi/fk/menschen/schmid/folien/infovk.ppt 1

DATENSTRUKTUREN UND ZAHLENSYSTEME

Sortieralgorithmen. Inhalt: InsertionSort BubbleSort QuickSort. Marco Block

Bäume. Informatik B - Objektorientierte Programmierung in Java. Vorlesung 10: Collections 4. Inhalt. Bäume. Einführung. Bäume.

Suchen und Sortieren (Die klassischen Algorithmen)

Algorithmen und Datenstrukturen

Sortierte Folgen 250

Branch-and-Bound. Wir betrachten allgemein Probleme, deren Suchraum durch Bäume dargestellt werden kann. Innerhalb des Suchraums suchen wir

KONSTRUKTION VON ROT-SCHWARZ-BÄUMEN

Bachelor-Klausur im WiSe 2013 / Grundlagen der Informatik

Einführung in die STL anhand eines ausgewählten Beispiels

4 Greedy-Algorithmen (gierige Algorithmen)

Uebersicht. Webpage & Ilias. Administratives. Lehrbuch. Vorkenntnisse. Datenstrukturen & Algorithmen

Einführung in die Informatik für Hörer aller Fakultäten II. Andreas Podelski Stephan Diehl Uwe Waldmann

Kapitel 6. Vererbung

Kapitel 6. Vererbung

Das EDV-Cockpit mit MindManager für SharePoint

Einfache Arrays. Annabelle Klarl. Einführung in die Informatik Programmierung und Softwareentwicklung

Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2012 / Vorlesung 9, Dienstag 18.

Seminarausarbeitung Entwurf und Analyse von Datenstrukturen. Splay Trees. Mirco Lukas und Alexander Werthmann. Datum:

Prozesse und Scheduling

Effiziente Algorithmen und Datenstrukturen I. Kapitel 9: Minimale Spannbäume

Suchen und Sortieren

Z 50. Z O Z Int Z Komma Z Real Ziffer Komma Ziffer

Name:... Vorname:... Matrikel-Nr.:... Unterschrift:...

Übersicht. Informatik 2 Teil 3 Anwendungsbeispiel für objektorientierte Programmierung

Datenstrukturen. Mariano Zelke. Sommersemester 2012

Grundlagen der Programmierung

Einführung in die Informatik: Programmierung und Software-Entwicklung, WS 11/12. Kapitel 7. Grafische Benutzeroberflächen

Algorithmen und Datenstrukturen Suchbaum

Vorlesung Informatik 2 Algorithmen und Datenstrukturen. (20 Graphen) T. Lauer

Datenstruktur, die viele Operationen dynamischer Mengen unterstützt

Kunden über Mandatsreferenz informieren

Objektorientierte Programmierung

Vorlesung : Binäre Entscheidungsdiagramme (BDDs) Dr. Carsten Sinz

Effizientes Memory Debugging in C/C++

Taylorentwicklung der k ten Dimension

FHZ. K20 Arrays. Lernziele. Hochschule Technik+Architektur Luzern Abteilung Informatik, Fach Programmieren. Inhalt

1. Von der Idee zur Software 2. Funktionen und Datenstrukturen Lehrbuch: Organisation des Quellcodes 4. Werte- und Referenzsemantik

Suchbäume. Annabelle Klarl. Einführung in die Informatik Programmierung und Softwareentwicklung

Datenstrukturen in Java

RWTH Aachen, Lehrstuhl für Informatik IX Kapitel 3: Suchen in Mengen - Datenstrukturen und Algorithmen - 51

Kapitel 9 Suchalgorithmen

Vortrag. Suchverfahren der Künstlichen Intelligenz. Sven Schmidt (Technische Informatik)

Dr. Monika Meiler. Inhalt

6-1 A. Schwill Grundlagen der Programmierung II SS 2005

Invarianten und sichere Vererbung

Java Schulung. Objektorientierte Programmierung in Java Teil V: Die Java Collection Klassen. Prof. Dr. Nikolaus Wulff

Kapitel 12: Übersetzung objektorienter Konzepte

II. Grundlagen der Programmierung. 9. Datenstrukturen. Daten zusammenfassen. In Java (Forts.): In Java:

Undirected Single-Source Shortest Paths with Positive Integer Weights in Linear Time

Literatur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS)

Kapitel 9. Hashverfahren. 9.1 Einführung

B-Bäume I. Algorithmen und Datenstrukturen 220 DATABASE SYSTEMS GROUP

Assoziation und Aggregation

Institut für Informatik

Transkript:

Amortisierte Analyse

Amortisierung Betrachte eine Folge a 1, a 2,..., a n von n Operation auf Datenstruktur D T i = Ausführungszeit von a i T = T 1 + T 2 +... + T n, Gesamtlaufzeit Oft kann die Laufzeit einer einzelnen Operation in einem großen Bereich schwanken, z. B. in 1,...,n, aber nicht bei allen Operationen der Folge kann der schlechteste Fall auftreten 2

Analyse von Algorithmen Best Case Worst Case Average Case Amortisierte Worst Case Was sind die durchschnittlichen Kosten einer Operation in einer schlechtest möglichen Folge von Operationen? 3

Amortisierung Idee: Zahle für billige Operation etwas mehr Verwende Erspartes um für teure Operationen zu zahlen Drei Methoden: 1. Aggregatmethode 2. Bankkonto Methode 3. Potentialfunktion Methode 4

1.Aggregat Methode: Dualzähler Bestimmung der Bitwechselkosten eines Dualzählers Operation Zählerstand Kosten 00000 1 00001 1 2 00010 2 3 00011 1 4 00100 3 5 00101 1 6 00110 2 7 00111 8 01000 9 01001 10 01010 11 01011 12 01100 13 01101 5

2. Bankkonto Methode Beobachtung: In jedem Schritt wird genau eine 0 in eine 1 verwandelt Idee: Bezahle zwei KE für das Verwandeln einer 0 in eine 1 jede 1 hat eine KE auf dem Konto 6

Bankkonto Methode Operation Zählerstand 0 0 0 0 0 1 0 0 0 0 1 2 0 0 0 1 0 3 0 0 0 1 1 4 0 0 1 0 0 5 0 0 1 0 1 6 0 0 1 1 0 7 0 0 1 1 1 8 0 1 0 0 0 9 0 1 0 0 1 10 0 1 0 1 0 7

3. Potentialfunktion Potentialfunktion φ Datenstruktur D φ(d) t l = wirkliche Kosten der l-ten Operation φ l = Potential nach Ausführung der l-ten Operation (= φ(d l ) ) a l = amortisierte Kosten der l-ten Operation Definition: a l = t l + φ l - φ l-1 8

Beispiel: Dualzähler D i = Stand nach der i-ten Operation b i = φ(d i ) = # von Einsen in D i i te Operation # von Einsen D i-1 :...0/1...01...1 b i-1 D i :...0/1...10...0 b i = b i-1 t i + 1 t i = Bitresetkosten von Operation i 9

Dualzähler a i = amortisierte Bitwechselkosten von Operation i a i t ( b t + 1) = ti + + i 1 i bi = 2 1 1 i 2n 10

Dynamische Tabellen Problem: Verwaltung einer Tabelle unter den Operationen Einfügen und Entfernen, so dass die Tabellengröße der Anzahl der Elemente angepasst werden kann immer ein konstanter Anteil der Tabelle mit Elementen belegt ist die Kosten für n Einfüge- oder Entferne Operationen O(n) sind. Organisation der Tabelle: Hashtabelle, Heap, Stack, etc. Belegungsfaktor α T : Anteil der Tabellenplätze von T, die belegt sind. 11

Implementation Einfügen class dynamic table { int [] table; int size; int num; // Größe der Tabelle // Anz. der Elemente dynamictable() { table = new int [1]; size = 1; num = 0; } // Initialisierung der leeren Tabelle 12

Implementation Einfügen insert ( int x) { if (num == size ) { new Table = new int [2*size]; for (i = 0; i < size; i++) füge table[i] in newtable ein; table = newtable; size = 2*size; } füge x in table ein; num = num + 1; } 13

Kosten von n Einfüge-Operationen in eine anfangs leere Tabelle t i = Kosten der i-ten Einfüge-Operation Worst case: t i = 1, falls die Tabelle vor der Operation i nicht voll ist t i = (i 1) + 1, falls die Tabelle vor der Operation i voll ist. Also verursachen n Einfüge-Operationen höchstens Gesamtkosten von 2 ( i) = O( n ) Amortisierter Worst-Case: Aggregat -, Bankkonto -, Potential-Methode n i= 1 14

Potential-Methode T Tabelle mit k = T.num Elemente s = T.size Größe Potentialfunktion φ (T) = 2 k s 15

Potential-Methode Eigenschaften φ 0 = φ(t 0 ) = φ ( leere Tabelle ) = -1 Unmittelbar vor einer Tabellenexpansion ist k = s, also φ(t) = k = s. Unmittelbar nach einer Tabellenexpansion ist k = s/2, also φ(t) = 2k s = 0. Für alle i 1 : φ i = φ (T i ) > 0 Da φ n - φ 0 0, gilt t i a i 16

Berechnung der amortisierten Kosten a i der i-ten Einfüge-Operation k i = # Elemente in T nach der i-ten Operation s i = Tabellengröße von T nach der i-ten Operation Fall 1: i-te Operation löst keine Expansion aus k i = k i-1 + 1, s i = s i-1 a i = 1 + (2k i - s i ) - (2k i-1 s i-1 ) = 1 + 2(k i - k i-1 ) = 3 17

Fall 2: i-te Operation löst Expansion aus k i = k i-1 + 1, s i = 2s i-1 a i = k i-1 + 1 + (2k i - s i ) - (2k i-1 s i-1 ) = 3 18

Einfügen und Entfernen von Elementen Jetzt: Kontrahiere Tabelle, wenn Belegung zu gering! Zíele: (1) Belegungsfaktor bleibt durch eine Konstante nach unten beschränkt (2) amortisierte Kosten einer einzelnen Einfüge- oder Entferne- Operation sind konstant. 1. Versuch Expansion: wie vorher Kontraktion: Halbiere Tabellengröße, sobald Tabelle weniger als ½ voll ist! 19

Schlechte Folge von Einfüge- und Entfernenoperationen Kosten n/2 mal Einfügen (Tabelle voll) 3 n/2 I: Expansion n/2 + 1 D, D: Kontraktion n/2 + 1 I, I : Expansion n/2 + 1 D, D: Kontraktion Gesamtkosten der Operationsfolge: I n/2, I,D,D,I,I,D,D,... der Länge n sind 20

2. Versuch Expansion: Verdoppele die Tabellengröße, wenn in die volle Tabelle eingefügt wird. Kontraktion: Sobald der Belegungsfaktor unter ¼ sinkt, halbiere die Tabellengröße. Folgerung: Die Tabelle ist stets wenigstens zu ¼ voll, d.h. ¼ α(t) 1 Kosten einer Folge von Einfüge- und Entferne-Operationen? 21

Analyse Einfügen und Entfernen k = T.num, s = T.size, α = k/s Potentialfunktion φ φ ( T ) = 2k s, 1/ 2 s / 2 k, < 1/ 2 22

Analyse Einfügen und Entfernen φ ( T ) = 2k s, 1/ 2 s / 2 k, < 1/ 2 Unmittelbar nach einer Expansion oder Kontraktion der Tabelle: s = 2k, also φ(t) = 0 23

Einfügen i-te Operation: k i = k i-1 + 1 Fall 1: α i-1 ½ Fall 2: α i-1 < ½ Fall 2.1: α i < ½ Fall 2.2: α i ½ 24

Einfügen Fall 2.1: α i-1 < ½, α i < ½ (keine Expansion) Potentialfunktion φ φ ( T ) = 2k s, 1/ 2 s / 2 k, < 1/ 2 25

Einfügen Fall 2.2: α i-1 < ½, α i ½ (keine Expansion) Potentialfunktion φ φ ( T ) = 2k s, 1/ 2 s / 2 k, < 1/ 2 26

Entfernen k i = k i-1-1 Fall 1: α i-1 < ½ Fall 1.1: Entfernen verursacht keine Kontraktion s i = s i-1 Potentialfunktion φ φ ( T ) = 2k s, 1/ 2 s / 2 k, < 1/ 2 27

Entfernen k i = k i-1-1 Fall 1: α i-1 < ½ Fall 1.2: α i-1 < ½ Entfernen verursacht Kontraktion s i = s i 1 /2 k i-1 = s i-1 /4 Potentialfunktion φ φ ( T ) = 2k s, 1/ 2 s / 2 k, < 1/ 2 28

Entfernen Fall 2: α i-1 ½ keine Kontraktion s i = s i 1 k i = k i-1-1 Fall 2.1: α i ½ Potentialfunktion φ φ ( T ) = 2k s, 1/ 2 s / 2 k, < 1/ 2 29

Entfernen Fall 2: α i-1 ½ keine Kontraktion s i = s i 1 k i = k i-1-1 Fall 2.2: α i < ½ Potentialfunktion φ φ ( T ) = 2k s, 1/ 2 s / 2 k, < 1/ 2 30