Algorithmen und Datenstrukturen Kapitel 7 Dynamische Mengen, das Suchproblem &

Ähnliche Dokumente
Algorithmen und Datenstrukturen Kapitel 7 Dynamische Mengen, das Suchproblem &

Dynamische Mengen. Algorithmen und Datenstrukturen Kapitel 7 Dynamische Mengen, das Suchproblem & Das Suchproblem.

Datenstruktur, die viele Operationen dynamischer Mengen unterstützt

14. Rot-Schwarz-Bäume

Kapitel 9 Suchalgorithmen

Übersicht. Rot-schwarz Bäume. Rot-schwarz Bäume. Beispiel. Eigenschaften. Datenstrukturen & Algorithmen. Rot-schwarz Bäume Eigenschaften Einfügen

Kapitel 9 Suchalgorithmen

13. Binäre Suchbäume

Algorithmen und Datenstrukturen

Dynamische Mengen. Realisierungen durch Bäume

Einfache binäre Suchbäume können entarten, so dass sich die Tiefen ihrer Blattknoten stark unterscheiden

ContainerDatenstrukturen. Große Übung 4

Christian Rieck, Arne Schmidt

1 Raumwechsel: Gr. 15 (Do 10-12, F-235) ab sofort in G Studie zum Arbeitsverhalten von Studierenden unter Leitung

Datenstrukturen & Algorithmen

Informatik II, SS 2016

Beispiellösung zu den Übungen Datenstrukturen und Algorithmen SS 2008 Blatt 5

9. Natürliche Suchbäume

Datenstrukturen und Algorithmen SS17 Lösung - Übung 5

Vorlesung Informatik 2 Algorithmen und Datenstrukturen

Programm heute. Algorithmen und Datenstrukturen (für ET/IT) Suchen. Lineare Suche. Such-Algorithmen. Sommersemester Dr.

Definition 14 Rot-Schwarz-Bäume sind externe Binärbäume (jeder Knoten hat 0 oder 2 Kinder) mit roten und schwarzen Kanten, so dass gilt:

Beispiellösungen zu den Übungen Datenstrukturen und Algorithmen SS 2008 Blatt 6

Das Suchproblem 4. Suchen Das Auswahlproblem Suche in Array

1 AVL-Bäume. 1.1 Aufgabentyp. 1.2 Überblick. 1.3 Grundidee

2 i. i=0. und beweisen Sie mittels eines geeigneten Verfahrens die Korrektheit der geschlossenen Form.

Das Suchproblem. Gegeben Menge von Datensätzen. Beispiele Telefonverzeichnis, Wörterbuch, Symboltabelle

Das Suchproblem 4. Suchen Das Auswahlproblem Suche in Array

VL-11: Rot-Schwarz Bäume. (Datenstrukturen und Algorithmen, SS 2017) Janosch Fuchs

Das Suchproblem. Gegeben Menge von Datensätzen. Beispiele Telefonverzeichnis, Wörterbuch, Symboltabelle

Informatik II Bäume zum effizienten Information Retrieval

Kapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete

18. Natürliche Suchbäume

Sortieren II / HeapSort Heaps

Datenstrukturen & Algorithmen Lösungen zu Blatt 6 FS 14

Anwendungsbeispiel MinHeap

3. Binäre Suchbäume. 3.1 Natürliche binäre Suchbäume. EADS 3.1 Natürliche binäre Suchbäume 78/598 ľernst W. Mayr

Algorithmen und Datenstrukturen Kapitel 2: Korrektheit von Algorithmen und Laufzeitanalyse rekursiver Algorithmen (mittels Rekurrenzgleichungen)

11.1 Grundlagen - Denitionen

Suchbäume. Suchbäume. Einfügen in Binären Suchbäumen. Suchen in Binären Suchbäumen. Prinzip Suchbaum. Algorithmen und Datenstrukturen

Informatik II, SS 2018

Datenstrukturen & Algorithmen

Übersicht. Datenstrukturen und Algorithmen. Übersicht. Heaps. Vorlesung 8: Heapsort (K6) Joost-Pieter Katoen. 7. Mai 2015

Kap. 4.2 Binäre Suchbäume ff Kap. 4.3: AVL-Bäume

Algorithmen und Datenstrukturen Suchbaum

Algorithmen und Datenstrukturen Kapitel 2: Korrektheit von Algorithmen und Laufzeitanalyse rekursiver Algorithmen (mittels Rekurrenzgleichungen)

14. Sortieren II Heapsort. Heapsort. [Max-]Heap 7. Heapsort, Quicksort, Mergesort. Binärer Baum mit folgenden Eigenschaften

Binäre Suchbäume. Mengen, Funktionalität, Binäre Suchbäume, Heaps, Treaps

Algorithmen und Datenstrukturen Heapsort

Übung zur Vorlesung Algorithmische Geometrie

Informatik II, SS 2016

Datenstrukturen & Algorithmen Lösungen zu Blatt 4 FS 15

AVL-Bäume. (Algorithmen und Datenstrukturen I) Prof. Dr. Oliver Braun. Letzte Änderung: :16. AVL-Bäume 1/38

Informatik II, SS 2014

2.7 Bucket-Sort Bucket-Sort ist ein nicht-vergleichsbasiertes Sortierverfahren. Hier können z.b. n Schlüssel aus

Algorithmen und Datenstrukturen I AVL-Bäume

Satz 172 Jedes vergleichsbasierte Sortierverfahren benötigt im worst-case mindestens n ld n + O(n) Vergleiche und hat damit Laufzeit Ω(n log n).

Informatik II, SS 2014

8. A & D - Heapsort. Werden sehen, wie wir durch geschicktes Organsieren von Daten effiziente Algorithmen entwerfen können.

1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. Bäume / Graphen 5. Hashing 6. Algorithmische Geometrie

Heapsort, Quicksort, Mergesort. 8. Sortieren II

Abgabe: (vor der Vorlesung) Aufgabe 7.1 (P) Binomial Heap

Algorithmen und Datenstrukturen Balancierte Suchbäume

1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. Bäume / Graphen 5. Hashing 6. Algorithmische Geometrie

9. Rekursion. 1 falls n 1 n (n 1)!, andernfalls. Experiment: Die Türme von Hanoi. Links Mitte Rechts. Mathematische Rekursion

Vorlesung Algorithmische Geometrie. Streckenschnitte. Martin Nöllenburg INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK

Algorithmen I. Tutorium 1-6. Sitzung. Dennis Felsing

Kapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2017/18. Pro f. Dr. Sán do r Fe k e te

Kapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2017/18. Pro f. Dr. Sán do r Fe k e te

Datenstrukturen und Algorithmen Beispiellösung zu Heimübungsblatt 7. Abbildung 1: Das Array A als Baum (vgl. Foliensatz 16, Folie 3)

7. Sortieren Lernziele. 7. Sortieren

8. Sortieren II. 8.1 Heapsort. Heapsort. [Max-]Heap 6. Heapsort, Quicksort, Mergesort. Binärer Baum mit folgenden Eigenschaften

Heapsort, Quicksort, Mergesort. 8. Sortieren II

Algorithmen und Datenstrukturen 2. Dynamische Datenstrukturen

Übung: Algorithmen und Datenstrukturen SS 2007

Literatur: Kapitel 2.1 des Skripts Rot-Schwarz-Bäume Kapitel 2.2 des Skripts Treaps Cormen. Kapitel 13, Red-Black-Trees

a) Fügen Sie die Zahlen 39, 38, 37 und 36 in folgenden (2, 3)-Baum ein:

5. Vorrangwarteschlangen - Priority Queues

11. Elementare Datenstrukturen

Informatik II, SS 2014

Tutoraufgabe 1 (Vollständige Induktion):

Algorithmen und Datenstrukturen

Algorithmen und Datenstrukturen

3. Übungsblatt zu Algorithmen I im SoSe 2017

ADS 1: Algorithmen und Datenstrukturen

Vorlesung Informatik 2 Algorithmen und Datenstrukturen

10. Wiederholung Natürliche Suchbäume und Heaps

Wiederholung. Datenstrukturen und. Bäume. Wiederholung. Suchen in linearen Feldern VO

Übungen zur Vorlesung Datenstrukturen und Algorithmen SS 07 Beispiellösung Blatt 5

Vorlesung Datenstrukturen

Algorithmen 1 Tutorium

Datenstrukturen und Algorithmen

Algorithmen und Datenstrukturen II

Algorithmen und Datenstrukturen

Kapitel Andere dynamische Datenstrukturen

Rotation. y T 3. Abbildung 3.10: Rotation nach rechts (analog links) Doppelrotation y

Datenstrukturen und Algorithmen D-INFK. Musterlösung 1

Übung Algorithmen und Datenstrukturen

Werden sehen, wie wir durch geschicktes Organsieren von Daten effiziente Algorithmen entwerfen können.

Transkript:

Algorithmen und Datenstrukturen Kapitel 7 Dynamische Mengen, das Suchproblem & Frank Heitmann heitmann@informatik.uni-hamburg.de 25. November 2015 Frank Heitmann heitmann@informatik.uni-hamburg.de 1/122

Dynamische Mengen Grundlegende Algorithmen Definition Bisher hatten wir oft statische Mengen, bei denen sich die Anzahl der Elemente nicht ändert (z.b. beim Sortieren). Oft soll eine Menge aber zeitabhängig wachsen und schrumpfen können. Man spricht dann von dynamischen Mengen. Kennengelernt haben wir bereits den Stack, die Queue und die verkettete Liste. Anmerkung Wir beschränken uns oft auf die Darstellung der für unsere wichtigen Daten. Meist enthalten die Objekte aber zusätzliche Satellitendaten z.b. einen Wächter am Ende einer verketteten Liste. Frank Heitmann heitmann@informatik.uni-hamburg.de 2/122

Dynamische Mengen Grundlegende Algorithmen Wichtige (dynamischer Mengen): Search(S, k). Gibt es einen Zeiger x auf ein Element in S mit schlüssel[x] = k? Insert(S, x). Delete(S, x). Minimum(S), Maximum(S), Successor(S, x), Predecessor(S, x). Viele hiervon haben wir schon bei z.b. der verketteten Liste gesehen, aber wie schnell waren die? Frank Heitmann heitmann@informatik.uni-hamburg.de 3/122

Das Suchproblem Grundlegende Algorithmen Definition (Das Suchproblem) Eingabe: Eine Sequenz < a 1, a 2,..., a n > von n Zahlen und ein Wert k. Gesucht: Ein Index i mit k = A[i], falls k in A vorkommt oder der Wert nil. Definition (Das Suchproblem (allgemein)) Eingabe: Eine Menge M und ein Wert k. Gesucht: Ein Zeiger x auf ein Element in M mit schlüssel[x] = k oder nil, falls kein solches Element existiert. Frank Heitmann heitmann@informatik.uni-hamburg.de 4/122

Brute-Force-Suche (Array) Grundlegende Algorithmen Algorithmus 1 Search(A[1..n], k) 1: for i = 1 to n do 2: if a[i] == k then 3: return i 4: end if 5: end for 6: return nil Analyse Laufzeit ist in Θ(n). Korrektheit folgt mit Schleifeninvariante (oder hier auch direkt). Frank Heitmann heitmann@informatik.uni-hamburg.de 5/122

Brute-Force-Suche (Liste) Grundlegende Algorithmen Algorithmus 2 Search(L, k) 1: x = kopf[l] 2: while x nil && schlüssel[x] k do 3: x = nachfolger[x] 4: end while 5: return x Analyse Laufzeit ist wieder in Θ(n). Korrektheit zeigt man wie oben. Frank Heitmann heitmann@informatik.uni-hamburg.de 6/122

Binäre Suche Grundlegende Algorithmen Algorithmus 3 Binäre Suche (Array) 1: while first last idx < 0 do 2: m = first + ((last first)/2) 3: if a[m] < p then 4: first = m + 1 5: else if a[m] > p then 6: last = m 1 7: else 8: idx = m 9: end if 10: end while 11: return idx Analyse Laufzeit ist in Θ(log n) (T (n) = T (n/2) + c). Frank Heitmann heitmann@informatik.uni-hamburg.de 7/122

Grundlegende Algorithmen Grundlegende Algorithmen - Zusammenfassung Zusammenfassung Die Laufzeit der Brute-Force-Suchalgorithmen war in Θ(n), insb. da jedes Element betrachtet werden musste. Die binäre Suche erlaubt eine Laufzeit in Θ(log n), ist aber nicht bei jeder Datenstruktur anwendbar! Wir suchen nun Datenstrukturen, die die Suche und auch die anderen für dynamische Mengen in wenig Zeit (z.b. in O(log n)) erlauben. Pause to Ponder Unsere bisherigen Datenstrukturen erlauben dies nicht. Man überlege sich dies an Array, Stack, Queue, Liste und Heap... Frank Heitmann heitmann@informatik.uni-hamburg.de 8/122

- Die Idee Ein binärer Suchbaum ist eine Datenstruktur, die viele auf dynamischen Mengen ermöglicht, insb. die Search, Minimum, Maximum, Predecessor, Successor, Insert und Delete. Ein binärer Suchbaum ist ein binärer Baum (jeder Knoten hat bis zu zwei Kindern), wobei der Baum noch die spezielle Suchbaum-Eigenschaft erfüllt. Der Baum wird (anders als der Heap!) meist durch eine verkettete Datenstruktur (ähnlich der doppelt-verketteten Liste) repräsentiert. Jeder Knoten ist ein Objekt mit den Attributen schlüssel (und den Satellitendaten), links, rechts, p, die auf den jeweiligen linken bzw. rechten Nachfolger, bzw. den Vaterknoten zeigen (fehlen diese, sind die entsprechenden Attribute auf nil gesetzt). Frank Heitmann heitmann@informatik.uni-hamburg.de 9/122

- Die Idee Binäre Suchbaum-Eigenschaft: Sei p ein Knoten im binären Suchbaum. Sei l ein Knoten im linken Teilbaum von n, r im rechten, dann gilt stets: schlüssel[l] schlüssel[p] und schlüssel[p] schlüssel[r]. 10 6 14 3 8 12 15 2 5 7 9 nil 13 nil 16 nil nil nil nil (Im Bild sind nicht alle nil-knoten eingezeichnet, nachfolgend verzichten wir meist ganz auf sie.) Frank Heitmann heitmann@informatik.uni-hamburg.de 10/122

- Beispiel (gut) 10 6 14 3 8 12 15 2 5 7 9 13 16 Frank Heitmann heitmann@informatik.uni-hamburg.de 11/122

- Beispiel (schlecht) 4 6 7 8 Frank Heitmann heitmann@informatik.uni-hamburg.de 12/122

Die Wir werden nachfolgenden folgende betrachten: InorderTreeWalk(x). TreeSearch(x, k), IterativeTreeSearch(x, k). TreeMinimum(x), TreeMaximum(x). TreeSuccessor(x), TreePredecessor(x). TreeInsert(T, x), TreeDelete(T, z). Frank Heitmann heitmann@informatik.uni-hamburg.de 13/122

InorderTreeWalk - Die Idee Gibt die Schlüssel aus, wobei zuerst die Schlüssel des linken, dann der Schlüssel der Wurzel und dann die Schlüssel des rechten Teilbaumes ausgegeben werden. Frank Heitmann heitmann@informatik.uni-hamburg.de 14/122

InorderTreeWalk Algorithmus 4 InorderTreeWalk(x) 1: if x nil then 2: InorderTreeWalk(links[x]) 3: print schlüssel[x] 4: InorderTreeWalk(rechts[x]) 5: end if Anmerkung Ähnlich kann man auch PreorderTreeWalk (Wurzel zuerst) und PostorderTreeWalk (Wurzel zuletzt) schreiben. Frank Heitmann heitmann@informatik.uni-hamburg.de 15/122

InorderTreeWalk - Beispiel 10 6 14 3 8 12 15 2 5 7 9 13 16 Frank Heitmann heitmann@informatik.uni-hamburg.de 16/122

InorderTreeWalk - Beispiel 10 6 14 3 8 12 15 2 5 7 9 13 16 2 Frank Heitmann heitmann@informatik.uni-hamburg.de 17/122

InorderTreeWalk - Beispiel 10 6 14 3 8 12 15 2 5 7 9 13 16 2 3 Frank Heitmann heitmann@informatik.uni-hamburg.de 18/122

InorderTreeWalk - Beispiel 10 6 14 3 8 12 15 2 5 7 9 13 16 2 3 5 Frank Heitmann heitmann@informatik.uni-hamburg.de 19/122

InorderTreeWalk - Beispiel 10 6 14 3 8 12 15 2 5 7 9 13 16 2 3 5 6 Frank Heitmann heitmann@informatik.uni-hamburg.de 20/122

InorderTreeWalk - Beispiel 10 6 14 3 8 12 15 2 5 7 9 13 16 2 3 5 6 7 Frank Heitmann heitmann@informatik.uni-hamburg.de 21/122

InorderTreeWalk - Beispiel 10 6 14 3 8 12 15 2 5 7 9 13 16 2 3 5 6 7 8 9 Frank Heitmann heitmann@informatik.uni-hamburg.de 22/122

InorderTreeWalk - Beispiel 10 6 14 3 8 12 15 2 5 7 9 13 16 2 3 5 6 7 8 9 10 Frank Heitmann heitmann@informatik.uni-hamburg.de 23/122

InorderTreeWalk - Beispiel 10 6 14 3 8 12 15 2 5 7 9 13 16 2 3 5 6 7 8 9 10 12 13 14 15 16 Frank Heitmann heitmann@informatik.uni-hamburg.de 24/122

InorderTreeWalk Anmerkung Bei einem binären Suchbaum werden die Schlüssel bei InorderTreeWalk in sortierter Reihenfolge ausgegeben! (Der Satz, dass dies korrekt ist, folgt gleich. Der Beweis mündlich.) Pause to Ponder Laufzeit? Frank Heitmann heitmann@informatik.uni-hamburg.de 25/122

InorderTreeWalk Algorithmus 5 InorderTreeWalk(x) 1: if x nil then 2: InorderTreeWalk(links[x]) 3: print schlüssel[x] 4: InorderTreeWalk(rechts[x]) 5: end if Satz Wenn x die Wurzel eines Teilbaums mit n Knoten ist, dann ist InorderTreeWalk(x) korrekt (folgt per Induktion aus den Eigenschaften binärer Suchbäume). Frank Heitmann heitmann@informatik.uni-hamburg.de 26/122

InorderTreeWalk - Laufzeitanalyse (1/4) Satz Wenn x die Wurzel eines Teilbaums mit n Knoten ist, dann ist InorderTreeWalk(x) in Zeit Θ(n). Beweis. Aufstellen der Rekurrenzgleichung: Beim einem leeren (Teil-)Baum gilt T (0) = c. Ferner gilt bei Aufruf auf einen Knoten dessen linker Teilbaum k und dessen rechter Teilbaum n k 1 Knoten hat T (n) = T (k) + T (n k 1) + d. Wir vermuten nun T (n) Θ(n), d.h. wir vermuten T (n) = e n für eine Konstante e. Frank Heitmann heitmann@informatik.uni-hamburg.de 27/122

InorderTreeWalk - Laufzeitanalyse (2/4) Beweis. Behauptung: T (n) = e n. Wollen wir dies mit Induktion beweisen, so merken wir gleich beim Induktionsanfang T (0) = e 0 = 0 c. Wir müssen unsere Vermutung also verbessern! Neue Vermutung: T (n) = e n + c. Damit ist immer noch T (n) Θ(n), aber der Induktionsanfang klappt jetzt! Frank Heitmann heitmann@informatik.uni-hamburg.de 28/122

InorderTreeWalk - Laufzeitanalyse (3/4) Beweis. Behauptung: T (n) = e n + c. Induktionsschritt (n 1 n): T (n) = T (k) + T (n k 1) + d = (e k + c) + (e (n k 1) + c) + d = e n e + 2c + d Setzen wir e = c + d (denn wir wollen ja T (n) = e n + c erreichen (nicht T (n + 1) =..., da wir den Induktionsschritt ja auf n machen)) und verfeinern auf diese Weise also unsere Behauptung erneut (!), so wird gleich alles klappen! Frank Heitmann heitmann@informatik.uni-hamburg.de 29/122

InorderTreeWalk - Laufzeitanalyse Anmerkung Nimmt man als Behauptung gleich T (n) = (c+d)n+c, so klappt alles sofort, aber die Gleichung fällt dann vom Himmel. Oben kommt man auf e = c + d, weil man ja möchte, dass sich T (n) = e n + c ergibt. Frank Heitmann heitmann@informatik.uni-hamburg.de 30/122

InorderTreeWalk - Laufzeitanalyse (4/4) Beweis. Gegeben (aus dem Code): T (n) mit T (0) = c und T (n) = T (k) + T (n k 1) + d. Behauptung: T (n) = (c + d) n + c. Induktionsanfang: T (0) = c. Induktionsannahme: Behauptung gelte schon für Werte kleiner n. Induktionsschritt (n 1 n): T (n) = T (k) + T (n k 1) + d = ((c + d) k + c) + ((c + d) (n k 1) + c) + d = (c + d) n (c + d) + 2c + d = (c + d) n + c Also gilt T (n) Θ(n). Frank Heitmann heitmann@informatik.uni-hamburg.de 31/122

TreeSearch - Die Idee am Beispiel 10 6 14 3 8 12 15 2 5 7 9 13 16 TreeSearch 7? 15? 11? Frank Heitmann heitmann@informatik.uni-hamburg.de 32/122

TreeSearch - Die Idee Beginne mit der Wurzel. Ist diese kleiner als der Schlüssel, so suche im rechten Teilbaum, ist sie grösser, suche im linken. Fahre wie oben mit der Wurzel diese Teilbaumes fort. Breche ab, wenn Schlüssel gefunden oder, wenn nil- Knoten erreicht wird. Frank Heitmann heitmann@informatik.uni-hamburg.de 33/122

TreeSearch - Pseudocode Algorithmus 6 TreeSearch(x, k) 1: if x == nil or k == schlüssel[x] then 2: return x 3: else if k < schlüssel[x] then 4: return TreeSearch(links[x], k) 5: else 6: return TreeSearch(rechts[x], k) 7: end if Analyse Die Knoten, die während der Rekursion besucht werden, bilden einen Pfad von der Wurzel bis maximal zu einem Blatt. Die Korrektheit folgt aus den Eigenschaften binärer Suchbäume. Die Laufzeit ist in O(h), wobei h die Höhe des Baumes ist. Frank Heitmann heitmann@informatik.uni-hamburg.de 34/122

TreeSearch - Pseudocode (iterativ) Algorithmus 7 IterativeTreeSearch(x, k) 1: while x nil and k schlüssel[x] do 2: if k < schlüssel[x] then 3: x = links[x] 4: else 5: x = rechts[x] 6: end if 7: end while 8: return x Frank Heitmann heitmann@informatik.uni-hamburg.de 35/122

TreeSearch, Minimum und Maximum am Beispiel 10 6 14 3 8 12 15 2 5 7 9 13 16 TreeSearch 5? Minimum? Maximum? Frank Heitmann heitmann@informatik.uni-hamburg.de 36/122

Minimum und Maximum Algorithmus 8 TreeMinimum(x) 1: while links[x] nil do 2: x = links[x] 3: end while 4: return x Algorithmus 9 TreeMaximum(x) 1: while rechts[x] nil do 2: x = rechts[x] 3: end while 4: return x Analyse (Korrektheit und Laufzeit) wie bei TreeSearch. Frank Heitmann heitmann@informatik.uni-hamburg.de 37/122

Vorgänger und Nachfolger Wir wollen den Nachfolger eines Knotens in der sortierten Reihenfolge ausgeben. (Den Vorgänger ermittelt man analog.) 10 6 14 3 8 12 15 2 5 7 9 13 16 Wir können dies machen ohne jemals Schlüssel zu vergleichen! Frank Heitmann heitmann@informatik.uni-hamburg.de 38/122

Nachfolger - Beispiel 10 6 14 3 8 12 15 2 5 7 9 13 16 Frank Heitmann heitmann@informatik.uni-hamburg.de 39/122

Nachfolger - Beispiel 10 6 14 3 8 12 15 2 5 7 9 13 16 Frank Heitmann heitmann@informatik.uni-hamburg.de 40/122

Nachfolger - Beispiel 10 6 14 3 8 12 15 2 5 7 9 13 16 Frank Heitmann heitmann@informatik.uni-hamburg.de 41/122

Nachfolger - Beispiel 10 6 14 3 8 12 15 2 5 7 9 13 16 Frank Heitmann heitmann@informatik.uni-hamburg.de 42/122

Nachfolger - Die Idee Der Nachfolger eines Knotens x ist der Knoten mit dem kleinsten Schlüssel, der größer ist als schlüssel[x]. Größer als schlüssel[x] heisst im rechten Teilbaum von x und dort am kleinsten heisst das Minimum ( ganz links ). Problem: x muss gar keinen rechten Teilbaum haben! Dann ist der Nachfolger y der jüngste Vorfahre von x, dessen linkes Kind ebenfalls ein Vorfahre von x ist. (Geht das auch nicht, dann ist x das größte Element und hat keinen Nachfolger.) Frank Heitmann heitmann@informatik.uni-hamburg.de 43/122

Nachfolger - Die Idee Dann ist der Nachfolger y der jüngste Vorfahre von x, dessen linkes Kind ebenfalls ein Vorfahre von x ist. Das heißt wir gehen von x aus nach oben und der erste Knoten y auf den wir treffen von dem aus gesehen x in seinem linken Teilbaum ist, ist der gesuchte. Dann gilt nämlich gerade schlüssel[x] < schlüssel[y] (wegen linken oben) und es gibt auch keinen Schlüssel dazwischen (wegen erste oben). (Obiges kann in einen Beweis um-/ausformuliert werden.) Bemerkung Umgangssprachlich: Wir gehen im Baum immer weiter nach oben, wenn wir das erste Mal nach rechts gehen, haben wir den gesuchten Knoten. Frank Heitmann heitmann@informatik.uni-hamburg.de 44/122

Nachfolger - Die Idee Dann ist der Nachfolger y der jüngste Vorfahre von x, dessen linkes Kind ebenfalls ein Vorfahre von x ist. 10 6 14 3 8 12 15 2 5 7 9 13 16 Frank Heitmann heitmann@informatik.uni-hamburg.de 45/122

Nachfolger - Die Idee Dann ist der Nachfolger y der jüngste Vorfahre von x, dessen linkes Kind ebenfalls ein Vorfahre von x ist. 10 6 14 3 8 12 15 2 5 7 9 13 16 Frank Heitmann heitmann@informatik.uni-hamburg.de 46/122

Nachfolger - Pseudocode Algorithmus 10 TreeSucessor(x) 1: if rechts[x] nil then 2: return TreeMinimum(rechts[x]) 3: end if 4: y = p[x] 5: while y nil and x == rechts[y] do 6: x = y 7: y = p[y] 8: end while 9: return y Analyse Korrektheit folgt aus obigen Überlegungen. Laufzeit ist wieder in O(h). Die Routine TreePredecessor implementiert man analog. Frank Heitmann heitmann@informatik.uni-hamburg.de 47/122

Einfügen - Die Idee Wir manipulieren nun die (dynamische!) Datenstruktur, indem wir ein Element hinzufügen. Dabei soll die Suchbaum-Eigenschaft erhalten bleiben. Im Prinzip suchen wir (ähnlich der Suche) den richtigen Platz und fügen das neue Element einfach als Blatt an... Frank Heitmann heitmann@informatik.uni-hamburg.de 48/122

Einfügen - Beispiel 10 6 14 3 8 12 15 2 5 7 9 13 16 Insert 11? Insert 4? Frank Heitmann heitmann@informatik.uni-hamburg.de 49/122

Einfügen - Beispiel 10 6 14 3 8 12 15 2 5 7 9 11 13 16 Frank Heitmann heitmann@informatik.uni-hamburg.de 50/122

Einfügen - Beispiel 10 6 14 3 8 12 15 2 5 7 9 11 13 16 4 Frank Heitmann heitmann@informatik.uni-hamburg.de 51/122

Einfügen - Die Idee Im Code halten wir nun einen Zeiger auf x (hier soll das neue Element hin) und einen Zeiger y auf p[x]. An y wird dann das neue Element angehängt... Frank Heitmann heitmann@informatik.uni-hamburg.de 52/122

Einfügen - Pseudocode Teil 1 Algorithmus 11 TreeInsert(T, z) - Teil 1 1: y = nil 2: x = wurzel[t ] 3: while x nil do 4: y = x 5: if schlüssel[z] < schlüssel[x] then 6: x = links[x] 7: else 8: x = rechts[x] 9: end if 10: end while Erklärung x zeigt jetzt auf nil. y auf den zuletzt besuchten Knoten an den jetzt der neue Knoten z angefügt werden soll. Oft ist y ein Blatt. Frank Heitmann heitmann@informatik.uni-hamburg.de 53/122

Einfügen - Pseudocode Teil 2 Algorithmus 12 TreeInsert(T, z) - Teil 2 1: p[z] = y 2: if y == nil then 3: wurzel[t ] = z 4: else 5: if schlüssel[z] < schlüssel[y] then 6: links[y] = z 7: else 8: rechts[y] = z 9: end if 10: end if Erklärung Der Vater von z ist y und z ist linkes oder rechtes Kind von y (je nach Schlüssel). links[z] und rechts[z] sind ferner nil. Frank Heitmann heitmann@informatik.uni-hamburg.de 54/122

Löschen - Die Idee Das Löschen eines Knotens z ist komplizierter. Es gibt drei Fälle: 1 z hat keine Kinder. Dann kann er einfach gelöscht werden. (p[z] zeigt auf nil statt auf z). 2 z hat genau ein Kind. Dann werden p[z] und left[z] bzw. right[z] verbunden und damit z ausgeschnitten. (Man vergleiche dies mit der Lösch-Operation bei verketteten Listen!) 3 z hat zwei Kinder. Dann wird z s Nachfolger y genommen (hat kein linkes Kind!), ausgeschnitten (siehe 2. oben) und mit seinen Daten die Daten von z ersetzt. Frank Heitmann heitmann@informatik.uni-hamburg.de 55/122

Löschen - Beispiel 10 6 14 3 8 12 15 2 5 7 9 13 16 Frank Heitmann heitmann@informatik.uni-hamburg.de 56/122

Löschen - Beispiel 10 6 14 3 8 12 15 2 5 7 9 13 16 Frank Heitmann heitmann@informatik.uni-hamburg.de 57/122

Löschen - Beispiel 10 6 14 3 8 12 15 5 7 9 13 16 Frank Heitmann heitmann@informatik.uni-hamburg.de 58/122

Löschen - Beispiel 10 6 14 3 8 12 15 5 7 9 13 16 Frank Heitmann heitmann@informatik.uni-hamburg.de 59/122

Löschen - Beispiel 10 6 14 3 8 12 5 7 9 13 16 Frank Heitmann heitmann@informatik.uni-hamburg.de 60/122

Löschen - Beispiel 10 6 14 3 8 12 16 5 7 9 13 Frank Heitmann heitmann@informatik.uni-hamburg.de 61/122

Löschen - Beispiel 10 6 14 3 8 12 16 5 7 9 13 Frank Heitmann heitmann@informatik.uni-hamburg.de 62/122

Löschen - Beispiel 10 6 14 3 8 12 16 5 7 9 13 Frank Heitmann heitmann@informatik.uni-hamburg.de 63/122

Löschen - Beispiel 10 6 14 8 12 16 5 7 9 13 Frank Heitmann heitmann@informatik.uni-hamburg.de 64/122

Löschen - Beispiel 10 6 14 5 8 12 16 7 9 13 Frank Heitmann heitmann@informatik.uni-hamburg.de 65/122

Löschen - Beispiel 10 6 14 5 8 12 16 7 9 13 Frank Heitmann heitmann@informatik.uni-hamburg.de 66/122

Löschen - Beispiel 10 6 14 5 8 12 16 7 9 13 Frank Heitmann heitmann@informatik.uni-hamburg.de 67/122

Löschen - Beispiel 10 6 14 5 8 12 16 7 9 13 Frank Heitmann heitmann@informatik.uni-hamburg.de 68/122

Löschen - Beispiel 10 6 14 5 8 12 16 7 9 13 Frank Heitmann heitmann@informatik.uni-hamburg.de 69/122

Löschen - Beispiel 12 6 14 5 8 13 16 7 9 Frank Heitmann heitmann@informatik.uni-hamburg.de 70/122

Löschen - Pseudocode Auf den Sourcecode verzichten wir hier. Ähnlich wie beim Einfügen müssen die Zeigern umgebogen werden. Weitere Details findet man im [Cormen] in Kapitel 12.3. Frank Heitmann heitmann@informatik.uni-hamburg.de 71/122

- Zusammenfassung (1/4) Zusammenfassung der InorderTreeWalk Rekursiv erst die Elemente des linken Teilbaumes ausgeben, dann das Element selbst, dann die Elemente des rechten Teilbaumes. Gibt bei einem binären Suchbaum die Elemente in sortierter Reihenfolge aus. TreeSearch Suche im linken Teilbaum weiter, wenn zu suchendes Element kleiner ist als das Wurzelelement, sonst im rechten Teilbaum. Frank Heitmann heitmann@informatik.uni-hamburg.de 72/122

- Zusammenfassung (2/4) Zusammenfassung der Minimum Element ganz links. Maximum Element ganz rechts. Nachfolger (von x) der Knoten mit dem kleinsten Schlüssel, der größer ist als schlüssel[x]. Minimum im rechten Teilbaum oder der jüngste Vorfahre von x, dessen linkes Kind ebenfalls ein Vorfahre von x ist. Vorgänger (von x) analog... Frank Heitmann heitmann@informatik.uni-hamburg.de 73/122

- Zusammenfassung (3/4) Zusammenfassung der Einfügen Ähnnlich wie beim Suchen die geeignete Position suchen und das neue Element als neues Blatt anfügen. Löschen Drei Fälle: 1 z hat keine Kinder. Dann kann er einfach gelöscht werden. (p[z] zeigt auf nil statt auf z). 2 z hat genau ein Kind. Dann werden p[z] und left[z] bzw. right[z] verbunden und damit z ausgeschnitten. 3 z hat zwei Kinder. Dann wird z s Nachfolger y genommen (hat kein linkes Kind!), ausgeschnitten (siehe 2. oben) und mit seinen Daten die Daten von z ersetzt. Frank Heitmann heitmann@informatik.uni-hamburg.de 74/122

- Zusammenfassung (4/4) Zusammenfassung der Die InorderTreeWalk, TreeSearch, Minimum, Maximum, Successor, Insert und Delete sind alle korrekt, was man stets recht einfach über die Eigenschaften binärer Suchbäume zeigen kann (ggf. mit Induktion über die Anzahl der Knoten oder die Tiefe des Baumes). Bei einem binären Suchbaum mit n Knoten der Höhe h, ist die Laufzeit von InorderTreeWalk in O(n), die aller anderen in O(h). Anmerkung Diese Laufzeiten sind zwar gut, da bei einem (ungefähr) ausgeglichenen Baum h log n ist. Das Problem ist aber, dass binäre Suchbäume nicht ausgeglichen sein müssen! Im worst-case sind obige alle in Θ(n)! Frank Heitmann heitmann@informatik.uni-hamburg.de 75/122

- Die Idee sind binäre Suchbäume, bei denen jeder Knoten eine Farbe hat (rot oder schwarz). Durch Einschränkungen (Rot-Schwarz-Eigenschaften) wird sichergestellt, dass der Baum annähernd balanciert ist, so dass die dann auch im worst-case in O(log n) laufen. Das Problem ist es dann die wie insb. Einfügen und Löschen so zu implementieren, dass die Rot-Schwarz-Eigenschaften erhalten bleiben (und sie dann trotzdem in O(log n) sind)! Frank Heitmann heitmann@informatik.uni-hamburg.de 76/122

Rot-Schwarz-Eigenschaften 1 Jeder Knoten ist entweder rot oder schwarz. 2 Die Wurzel ist schwarz. 3 Jedes Blatt ist schwarz. 4 Wenn ein Knoten rot ist, dann sind seine beiden Kinder schwarz. 5 Für jeden Knoten enthalten alle Pfade, die an diesem Knoten starten und in einem Blatt des Teilbaumes dieses Knotens enden, die gleiche Anzahl schwarzer Knoten Satz Ein Rot-Schwarz-Baum mit n inneren Knoten hat höchstens die Höhe 2 log(n + 1). Frank Heitmann heitmann@informatik.uni-hamburg.de 77/122

AVL-Bäume - Die Idee Ein AVL-Baum ist ein binärer Suchbaum, der höhenbalanciert ist, d.h. für jeden Knoten x unterscheiden sich die Höhen des linken und rechten Teilbaumes maximal um 1. Ist also h[links[x]] die Höhe des linken und h[rechts[x]] die Höhe des rechten Teilbaumes, dann gilt bei einem AVL-Baum für jeden Knoten x h[links[x]] h[rechts[x]] { 1, 0, 1} Bei AVL-Bäumen spielt wie auch bei n die Rotation eine wichtige Rolle. Mit ihr wird der Baum nach einer Einfügeoperation stets wieder ausbalanciert. Frank Heitmann heitmann@informatik.uni-hamburg.de 78/122

Zusammenfassung des Suchens: Brute-Force-Algorithmus Binäres Suchen (Array muss sortiert sein!) Suchbäume Definition TreeWalk, Suchen, Minimum, Maximum Vorgänger, Nachfolger Einfügen, Entfernen AVL-Bäume Frank Heitmann heitmann@informatik.uni-hamburg.de 79/122

Frank Heitmann heitmann@informatik.uni-hamburg.de 80/122

Rot-Schwarz-Eigenschaften 1 Jeder Knoten ist entweder rot oder schwarz. 2 Die Wurzel ist schwarz. 3 Jedes Blatt ist schwarz. 4 Wenn ein Knoten rot ist, dann sind seine beiden Kinder schwarz. 5 Für jeden Knoten enthalten alle Pfade, die an diesem Knoten starten und in einem Blatt des Teilbaumes dieses Knotens enden, die gleiche Anzahl schwarzer Knoten Frank Heitmann heitmann@informatik.uni-hamburg.de 81/122

Ein Rot-Schwarz-Baum (noch ohne Färbung) 10 6 14 3 8 12 15 2 5 7 9 nil 13 nil 16 nil nil nil nil Frank Heitmann heitmann@informatik.uni-hamburg.de 82/122

Ein Rot-Schwarz-Baum (noch ohne Färbung) 10 6 14 3 8 12 15 2 5 7 9 13 16 nil [T] Frank Heitmann heitmann@informatik.uni-hamburg.de 83/122

Ein Rot-Schwarz-Baum (Wurzel und Blätter gefärbt) 10 6 14 3 8 12 15 2 5 7 9 13 16 nil [T] Frank Heitmann heitmann@informatik.uni-hamburg.de 84/122

Ein Rot-Schwarz-Baum (gefärbt) 10 6 14 3 8 12 15 2 5 7 9 13 16 nil [T] Frank Heitmann heitmann@informatik.uni-hamburg.de 85/122

Ein Rot-Schwarz-Baum (in schön) 10 6 14 3 8 12 15 2 5 7 9 13 16 Frank Heitmann heitmann@informatik.uni-hamburg.de 86/122

Rot-Schwarz-Eigenschaften (Wiederholung) 1 Jeder Knoten ist entweder rot oder schwarz. 2 Die Wurzel ist schwarz. 3 Jedes Blatt ist schwarz. 4 Wenn ein Knoten rot ist, dann sind seine beiden Kinder schwarz. 5 Für jeden Knoten enthalten alle Pfade, die an diesem Knoten starten und in einem Blatt des Teilbaumes dieses Knotens enden, die gleiche Anzahl schwarzer Knoten Anmerkung Die Blätter sind alle nil-knoten (der Wächter nil[t ]) und schwarz. Die Wurzel hat als Vorgänger auch nil[t ] (Siehe die beiden vorherigen Bilder.) Frank Heitmann heitmann@informatik.uni-hamburg.de 87/122

Balanciertheit Satz Ein Rot-Schwarz-Baum mit n inneren Knoten hat höchstens die Höhe 2 log(n + 1). Satz Die Search, Minimum, Maximum, Successor, Predecessor für dynamische Mengen lassen sich auf n in Zeit O(log n) implementieren, wobei n die Anzahl der Knoten ist. Frank Heitmann heitmann@informatik.uni-hamburg.de 88/122

Rotationen Auch die TreeInsert und TreeDelete sind in Zeit O(log n), aber da sie den Baum modifizieren, kann es passieren, dass die Rot-Schwarz-Eigenschaften danach nicht mehr erfüllt sind. Um die Eigenschaften wiederherzustellen, müssen ggf. Farben und die Zeigerstruktur geändert werden. Ein wichtiges Hilfsmittel hierbei (zur Änderung der Zeigerstruktur) ist die Rotation... Frank Heitmann heitmann@informatik.uni-hamburg.de 89/122

Rotation - Bildlich x LeftRotate(x) y A y RightRotate(x) x C B C A B Frank Heitmann heitmann@informatik.uni-hamburg.de 90/122

Linksrotation x LeftRotate(x) y A y x C B C A B Das rechte Kind (y) von x ist nicht nil. y wird neue Wurzel des Teilbaumes. x wird das linke Kind von y. Das linke Kind von y wird rechtes Kinds von x. Frank Heitmann heitmann@informatik.uni-hamburg.de 91/122

Linksrotation - zum Merken x LeftRotate(x) y A y x C B C A B Ziehe an A-x-y-C wie an einer Schnur. A und x rutschen nach unten, y und C nach oben B bleibt übrig. Einziger sinnvoller Platz: rechts von x. Erhälte die binäre Suchbaum-Eigenschaft! Frank Heitmann heitmann@informatik.uni-hamburg.de 92/122

Rechtsrotation x y A y RightRotate(x) x C B C A B Das linke Kind (x) von y ist nicht nil. x wird neue Wurzel des Teilbaumes. y wird das rechte Kind von y. Das rechte Kind von x wird linkes Kinds von y. Frank Heitmann heitmann@informatik.uni-hamburg.de 93/122

Rechtsrotation - zum Merken x y A y RightRotate(x) x C B C A B Ziehe an A-x-y-C wie an einer Schnur. C und y rutschen nach unten, x und A nach oben B bleibt übrig. Einziger sinnvoller Platz: links von y. Erhälte die binäre Suchbaum-Eigenschaft! Frank Heitmann heitmann@informatik.uni-hamburg.de 94/122

Rotation - Bildlich x LeftRotate(x) y A y RightRotate(x) x C B C A B Die Rotation erhält die binäre Suchbaum-Eigenschaft! Frank Heitmann heitmann@informatik.uni-hamburg.de 95/122

Rotation - Beispiel 10 6 14 3 8 12 15 7 9 13 16 Frank Heitmann heitmann@informatik.uni-hamburg.de 96/122

Rotation - Beispiel 10 6 14 3 8 12 15 7 9 13 16 Frank Heitmann heitmann@informatik.uni-hamburg.de 97/122

Rotation - Beispiel 10 8 14 6 9 12 15 3??? 7? 13 16 Frank Heitmann heitmann@informatik.uni-hamburg.de 98/122

Rotation - Beispiel 10 8 14 6 9 12 15 3 7 13 16 Frank Heitmann heitmann@informatik.uni-hamburg.de 99/122

Rotation - Implementation Die Implementierung ist wieder Zeigerspielerei. (Ähnlich des Ausschneidens in verketteten Listen.) Details sind im [Cormen] zu finden. Laufzeit ist in O(1), da nur (eine konstante Anzahl von) Zeiger verändert werden. Frank Heitmann heitmann@informatik.uni-hamburg.de 100/122

Einfügen Beim Einfügen passiert nun zunächst das gleiche wie bei normalen binären Suchbäumen. Die Farbe des neu eingefügten Knotens wird auf rot gesetzt. Dann wird eine Routine aufgerufen, die die Rot-Schwarz-Eigenschaften wiederherstellt... Frank Heitmann heitmann@informatik.uni-hamburg.de 101/122

Einfügen - Grossvater, Onkel und Vater... z ist der neu eingefügte, rote Knoten. In einer while-schleife, in der immer geprüft wird, ob der Vater von z rot ist (nur dann muss man fortfahren), werden nun drei Fälle unterschieden. Die drei Fälle treten spiegelverkehrt auf, je nachdem ob z im linken Teilbaum seines Grossvaters ist, oder im rechten. Wir behandeln nachfolgend die erste Variante (z ist im linken Teilbaum seines Grossvaters). Eine wichtige Rolle spielt der Onkel y(= rechts[p[p[z]]]) von z und insb. dessen Farbe sowie, ob z ein linkes oder rechtes Kind ist. (z hat nachfolgend Kinder, weil in der Routine der Zeiger z nach oben wandern kann.) Frank Heitmann heitmann@informatik.uni-hamburg.de 102/122

Einfügen - Fall 1 Fall 1: z s Onkel y ist rot. Umfärben und z neu (!) setzen. F neu z F y G H G H A I z D E A I D E B C B C Frank Heitmann heitmann@informatik.uni-hamburg.de 103/122

Einfügen - Fall 1 Fall 1: z s Onkel y ist rot. Umfärben und z neu (!) setzen. F neu z F y G H G H A I z D E A I D E B C B C Frank Heitmann heitmann@informatik.uni-hamburg.de 104/122

Einfügen - Fall 1b Fall 1b: z s Onkel y ist rot. Umfärben und z neu (!) setzen. F neu z F y G H G H z I A D E A I D E B C B C Frank Heitmann heitmann@informatik.uni-hamburg.de 105/122

Einfügen - Fall 1b Fall 1b: z s Onkel y ist rot. Umfärben und z neu (!) setzen. F neu z F y G H G H z I A D E I A D E B C B C Frank Heitmann heitmann@informatik.uni-hamburg.de 106/122

Einfügen - Fall 2 Fall 2: z s Onkel ist schwarz und z ist rechtes Kind seines Vaters. z wird auf p[z] gesetzt und eine Linksrotation wird um (das neue) z gemacht. Dann weiter mit Fall 3. (Der gilt jetzt!) F neu z F A G I z D y A G I D H E B C B C Frank Heitmann heitmann@informatik.uni-hamburg.de 107/122

Einfügen - Fall 2 Fall 2: z s Onkel ist schwarz und z ist rechtes Kind seines Vaters. z wird auf p[z] gesetzt und eine Linksrotation wird um (das neue) z gemacht. Dann weiter mit Fall 3. (Der gilt jetzt!) F F A G I z D y z G I C D y B C A B Frank Heitmann heitmann@informatik.uni-hamburg.de 108/122

Einfügen - Fall 3 Fall 3: z s Onkel ist schwarz und z ist linkes Kind seines Vaters. Farbe von p[z] auf schwarz (bisher rot), von p[p[z]] auf rot (bisher schwarz) und Rechtsrotation um p[p[z]]. (z nicht neu setzen!) F I I D y G F z G C A B C D A B Frank Heitmann heitmann@informatik.uni-hamburg.de 109/122

Einfügen - Fall 3 Fall 3: z s Onkel ist schwarz und z ist linkes Kind seines Vaters. Farbe von p[z] auf schwarz (bisher rot), von p[p[z]] auf rot (bisher schwarz) und Rechtsrotation um p[p[z]]. (z nicht neu setzen!) F I I D y z G F z G C A B C D A B Frank Heitmann heitmann@informatik.uni-hamburg.de 110/122

Einfügen - Fall 2 & 3 in Folge A G I F z y D z G I C F y D z A G B I C F D B C A B Frank Heitmann heitmann@informatik.uni-hamburg.de 111/122

Einfügen - Beispiel Nun einmal am Beispiel. Der Knoten 4 wird hier neu eingefügt... Frank Heitmann heitmann@informatik.uni-hamburg.de 112/122

Einfügen - Beispiel 11 2 14 1 7 15 5 8 y z 4 Fall 1: z s Onkel y ist rot. Umfärben und z auf p[p[z]] neu setzen. Frank Heitmann heitmann@informatik.uni-hamburg.de 113/122

Einfügen - Beispiel 11 2 14 y 1 7 z 15 5 8 4 Fall 1: z s Onkel y ist rot. Umfärben und z auf p[p[z]] neu setzen. Frank Heitmann heitmann@informatik.uni-hamburg.de 114/122

Einfügen - Beispiel 11 2 14 y 1 7 z 15 5 8 4 Fall 2: z s Onkel ist schwarz und z ist rechtes Kind seines Vaters. z wird auf p[z] gesetzt und eine Linksrotation wird um (das neue) z gemacht. Dann weiter mit Fall 3. (Der gilt jetzt!) Frank Heitmann heitmann@informatik.uni-hamburg.de 115/122

Einfügen - Beispiel 11 7 14 y z 2 8 15 1 5 4 Fall 2: z s Onkel ist schwarz und z ist rechtes Kind seines Vaters. z wird auf p[z] gesetzt und eine Linksrotation wird um (das neue) z gemacht. Dann weiter mit Fall 3. (Der gilt jetzt!) Frank Heitmann heitmann@informatik.uni-hamburg.de 116/122

Einfügen - Beispiel 11 7 14 y z 2 8 15 1 5 4 Fall 3: z s Onkel ist schwarz und z ist linkes Kind seines Vaters. Farbe von p[z] auf schwarz (bisher rot), von p[p[z]] auf rot (bisher schwarz) und Rechtsrotation um p[p[z]]. Frank Heitmann heitmann@informatik.uni-hamburg.de 117/122

Einfügen - Beispiel 7 z 2 11 1 5 8 14 4 15 Fall 3: z s Onkel ist schwarz und z ist linkes Kind seines Vaters. Farbe von p[z] auf schwarz (bisher rot), von p[p[z]] auf rot (bisher schwarz) und Rechtsrotation um p[p[z]]. Frank Heitmann heitmann@informatik.uni-hamburg.de 118/122

Einfügen - Zusammenfassung Der neu eingefüge Knoten z ist im linken Teilbaum seines Grossvaters. z und sein Vater sind rot. Fall 1: z s Onkel y ist rot. Umfärben und z auf p[p[z]] neu setzen. (Es gibt hier zwei Fälle, die gleich behandelt werden.) Fall 2: z s Onkel ist schwarz und z ist rechtes Kind seines Vaters. z wird auf p[z] gesetzt und eine Linksrotation wird um (das neue) z gemacht. Dann weiter mit Fall 3. (Der gilt jetzt!) Fall 3: z s Onkel ist schwarz und z ist linkes Kind seines Vaters. Farbe von p[z] auf schwarz (bisher rot), von p[p[z]] auf rot (bisher schwarz) und Rechtsrotation um p[p[z]]. (z nicht neu setzen, die Routine terminiert hier.) Ist z im rechten Teilbaum seines Grossvaters treten obige Fälle spiegelverkehrt auf. Überall muss dann links und rechts vertauscht werden. Frank Heitmann heitmann@informatik.uni-hamburg.de 119/122

Einfügen - Die Schleifeninvariante Die Schleifeninvariante: a) Der Knoten z ist rot. b) Falls p[z] die Wurzel ist, ist p[z] schwarz. c) Falls es eine Verletzung der Rot-Schwarz-Eigenschaften gibt, gibt es höchstens eine und diese verletzt Eigenschaft 2 oder 4. Ist es 2, so ist z die Wurzel und rot, ist es 4, so sind z und p[z] beide rot. Frank Heitmann heitmann@informatik.uni-hamburg.de 120/122

Einfügen - Jetzt zu tun... Wir müssten jetzt - wir könnten jetzt... 1 Den Pseudocode ausführlicher schreiben. Dabei insb. auf Randfälle achten (leerer Baum, z hat keinen Onkel,...) 2 Die Schleifeninvariante bei Initialisierung zeigen. 3 Fortsetzung zeigen, wobei hier primär gezeigt werden muss, dass die drei obigen Fälle die Invariante zu Beginn der nächsten Iteration erhalten. 4 Terminierung zeigen und (unter Nutzung der Schleifeninvarianten) dann die Korrektheit des Algorithmus zeigen, d.h. dass wieder ein Rot-Schwarz-Baum vorliegt. Den genauen Beweis der Schleifeninvarianten und den Pseudocode der Einfügeoperation (sowie der Rotation) findet man im [Cormen]. Dort ist auch eine Behandlung der Löschoperation zu finden. Frank Heitmann heitmann@informatik.uni-hamburg.de 121/122

Zusammenfassung Zusammenfassung sind binäre Suchbäume, die die zusätzlichen Rot-Schwarz-Eigenschaften erfüllen. Ein Baum der die Rot-Schwarz-Eigenschaften erfüllt ist in etwa ausgeglichen (h 2 log(n + 1)). Der Erhalt der Rot-Schwarz-Eigenschaften ist insb. bei der Einfüge- und der Löschoperation zu beachten. Sie können in O(log n) implementiert werden. Damit erlauben die wichtigen für dynamische Mengen alle in O(log n) Zeit! (Allerdings sind sie dafür aufwändiger als normale binäre Suchbäume.) Frank Heitmann heitmann@informatik.uni-hamburg.de 122/122