Balancierte Suchbäume

Ähnliche Dokumente
SS11 Algorithmen und Datenstrukturen 4. Kapitel Suchbäume

Vorlesung Informatik 2 Algorithmen und Datenstrukturen

2.7 Bucket-Sort Bucket-Sort ist ein nicht-vergleichsbasiertes Sortierverfahren. Hier können z.b. n Schlüssel aus

SS16 Algorithmen und Datenstrukturen 4. Kapitel Suchbäume

SS17 Algorithmen und Datenstrukturen 4. Kapitel Suchbäume

Definition 14 Rot-Schwarz-Bäume sind externe Binärbäume (jeder Knoten hat 0 oder 2 Kinder) mit roten und schwarzen Kanten, so dass gilt:

WS18 Algorithmen und Datenstrukturen 1 4. Kapitel Suchbäume

3. Binäre Suchbäume. 3.1 Natürliche binäre Suchbäume. EADS 3.1 Natürliche binäre Suchbäume 78/598 ľernst W. Mayr

Kap. 4.2 Binäre Suchbäume ff Kap. 4.3: AVL-Bäume

Informatik II Bäume zum effizienten Information Retrieval

ADS 1: Algorithmen und Datenstrukturen

Algorithmen und Datenstrukturen SS09

Einfache binäre Suchbäume können entarten, so dass sich die Tiefen ihrer Blattknoten stark unterscheiden

Satz 172 Jedes vergleichsbasierte Sortierverfahren benötigt im worst-case mindestens n ld n + O(n) Vergleiche und hat damit Laufzeit Ω(n log n).

Datenstrukturen Teil 3. Traversierung und AVL- Bäume. Traversierung. Traversierung. Traversierung

Anwendungsbeispiel MinHeap

Balancierte Bäume. Minimale Knotenanzahl von AVL-Bäumen. AVL-Bäume. Definition für "balanciert":

Umstrukturierung durch Rotationen

Suchstrukturen. Übersicht. 8 Suchstrukturen. Allgemeines. H. Täubig (TUM) GAD SS

Datenstrukturen & Algorithmen Lösungen zu Blatt 6 FS 14

B6.1 Introduction. Algorithmen und Datenstrukturen. Algorithmen und Datenstrukturen. B6.1 Introduction. B6.3 Analyse. B6.4 Ordnungsbasierte Methoden

7 Weitere Baumstrukturen und Heapstrukturen

Algorithmen und Datenstrukturen Balancierte Suchbäume

Vorlesung Informatik 2 Algorithmen und Datenstrukturen

Kurs 1663 Datenstrukturen" Musterlösungen zur Klausur vom Seite 1. Musterlösungen zur Hauptklausur Kurs 1663 Datenstrukturen 15.

AVL-Bäume. (Algorithmen und Datenstrukturen I) Prof. Dr. Oliver Braun. Letzte Änderung: :16. AVL-Bäume 1/38

5 Bäume. 5.1 Suchbäume. ein geordneter binärer Wurzelbaum. geordnete Schlüsselwertmenge. heißt (schwach) sortiert, g.d.w. gilt:

Informatik II, SS 2014

Vorlesung Informatik 2 Algorithmen und Datenstrukturen

Wiederholung. Bäume sind zyklenfrei. Rekursive Definition: Baum = Wurzelknoten + disjunkte Menge von Kindbäumen.

Algorithmen und Datenstrukturen I AVL-Bäume

Tutoraufgabe 1 (Vollständige Induktion):

Übung: Algorithmen und Datenstrukturen SS 2007

Invarianzeigenschaft (für binären Suchbaum)

10. Wiederholung Natürliche Suchbäume und Heaps

1 AVL-Bäume. 1.1 Aufgabentyp. 1.2 Überblick. 1.3 Grundidee

Rotation. y T 3. Abbildung 3.10: Rotation nach rechts (analog links) Doppelrotation y

Informatik II, SS 2016

Algorithmen und Datenstrukturen. Kapitel 4: Suchverfahren. Skript zur Vorlesung. Algorithmen und Datenstrukturen

Beweis: Die obere Schranke ist klar, da ein Binärbaum der Höhe h höchstens

Übung Algorithmen und Datenstrukturen

18. Natürliche Suchbäume

Programmiertechnik II

Suchbäume. Suchbäume. Einfügen in Binären Suchbäumen. Suchen in Binären Suchbäumen. Prinzip Suchbaum. Algorithmen und Datenstrukturen

9. Natürliche Suchbäume

2 i. i=0. und beweisen Sie mittels eines geeigneten Verfahrens die Korrektheit der geschlossenen Form.

Algorithmen und Datenstrukturen 1

Dynamische Mengen. Realisierungen durch Bäume

Programm heute. Algorithmen und Datenstrukturen (für ET/IT) Suchen. Lineare Suche. Such-Algorithmen. Sommersemester Dr.

Binäre Suchbäume. Mengen, Funktionalität, Binäre Suchbäume, Heaps, Treaps

Beispiellösungen zu den Übungen Datenstrukturen und Algorithmen SS 2008 Blatt 6

Binärbäume: Beispiel

Copyright, Page 1 of 8 AVL-Baum

Algorithmen und Datenstrukturen 2. Dynamische Datenstrukturen

Binäre Suchbäume. Mengen, Funktionalität, Binäre Suchbäume, Heaps, Treaps

Übung Algorithmen und Datenstrukturen

Vorlesung Datenstrukturen

Christian Rieck, Arne Schmidt

Informatik II, SS 2018

Vorlesung Informatik 2 Algorithmen und Datenstrukturen

4.2 Fibonacci-Heaps Aufbau Potenzialfunktion. Knoten v hat folgende Felder:

a) Fügen Sie die Zahlen 39, 38, 37 und 36 in folgenden (2, 3)-Baum ein:

Algorithmen und Datenstrukturen 7. Vorlesung

Klausur Algorithmen und Datenstrukturen SS August Arbeitszeit 90 min

Algorithmen und Datenstrukturen

Datenstrukturen und Algorithmen (SS 2013)

Gliederung. 5. Compiler. 6. Sortieren und Suchen. 7. Graphen

Datenstrukturen und Algorithmen SS17 Lösung - Übung 5

Aufgaben, Hilfestellungen und Musterlösungen zum Modul 5 Druckversion

Teil 1: Suchen. Ausgeglichene Bäume B-Bäume Digitale Suchbäume. M.O.Franz, Oktober 2007 Algorithmen und Datenstrukturen - Binärbäume 1-1

9.4 Binäre Suchbäume. Xiaoyi Jiang Informatik II Datenstrukturen und Algorithmen

Übung zur Vorlesung Algorithmische Geometrie

Mengen. Binäre Suchbäume. Mengen: Anwendungen (II) Mengen: Lösung mit Listen 12/3/12. Mengen, Funktionalität, Binäre Suchbäume, Heaps, Treaps

VL-11: Rot-Schwarz Bäume. (Datenstrukturen und Algorithmen, SS 2017) Janosch Fuchs

14. Rot-Schwarz-Bäume

ContainerDatenstrukturen. Große Übung 4

3.6 AVL-Bäume. (AVL = Adel son-velskii und Landis (1962)) . Seite 326/726

1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. Bäume / Graphen 5. Hashing 6. Algorithmische Geometrie

markiert, 0: unmarkiert.)

Datenstrukturen und Algorithmen SS07

Dies ist gerade der konstruktive Schritt beim Aufbau von Binomialbäumen.

Informatik II, SS 2018

14. Sortieren II Heapsort. Heapsort. [Max-]Heap 7. Heapsort, Quicksort, Mergesort. Binärer Baum mit folgenden Eigenschaften

Übung 4: Die generische Klasse AvlBaum in Java 1

Informatik II, SS 2016

Wintersemester 2007/2008 Helmut Seidl Institut für Informatik TU München

Grundlagen der Informatik / Algorithmen und Datenstrukturen. Aufgabe 143

Datenstrukturen und Algorithmen. Vorlesung 14

Algorithmen und Datenstrukturen Heapsort

Einführung in die Programmierung II. 9. Dynamische Datenstrukturen: Binärbäume

Definition 15 Rot-Schwarz-Bäume sind externe Binärbäume (jeder Knoten hat 0 oder 2 Kinder) mit roten und schwarzen Kanten, so dass gilt:

Algorithmen und Datenstrukturen Suchbaum

Übung Algorithmen und Datenstrukturen

Logische Datenstrukturen

Übersicht. Rot-schwarz Bäume. Rot-schwarz Bäume. Beispiel. Eigenschaften. Datenstrukturen & Algorithmen. Rot-schwarz Bäume Eigenschaften Einfügen

Wiederholung ADT Menge Ziel: Verwaltung (Finden, Einfügen, Entfernen) einer Menge von Elementen

Transkript:

Foliensatz 10 Michael Brinkmeier echnische Universität Ilmenau Institut für heoretische Informatik Sommersemester 2009 U Ilmenau Seite 1 / 74 Balancierte Suchbäume U Ilmenau Seite 2 / 74

Balancierte Suchbäume Idee Lasse nur Bäume mit bestimmten Struktureigenschaften zu. Ziel ist z.b. das Erzwingen einer geringen iefe (d.h. O(log n) für n Einträge) delete und insert müssen so implementiert werden, dass sie die Struktureigenschaften erhalten und in Zeit O(iefe) durchgeführt werden können. U Ilmenau Seite 3 / 74 Perfekte Balancierung Definition (Perfekte Balancierung) Ein Binärbaum heisst perfekt balanciert, wenn an jedem Knoten die Anzahl der Knoten im linken und im rechten Unterbaum sich um höchstens eins unterscheidet. Mittels der rekursiven Definition erhalten wir: ist perfekt balanciert. ( 1, x, 2 ) ist genau dann perfekt balanciert, wenn 1 und 2 perfekt Balanciert sind, und 1 2 1, wobei i die Anzahl der Knoten in i ist. Die Perfekte Balancierung ist aber eine ungeeignete Strukturbedingung, da delete und insert zu viel Zeit benötigen. U Ilmenau Seite 4 / 74

Häufig benutzte Implementierungen AVL-Bäume höhenbalanciert Rot-Schwarz-Bäume (Cormen et al., Sedgewick) 2-3-Bäume bis zu 2 Schlüssel pro Knoten B-Bäume, 2-3-4 Bäume (Cormen et al., Sedgewick) U Ilmenau Seite 5 / 74 AVL-Bäume U Ilmenau Seite 6 / 74

Höhenbalancierte Suchbäume Definition (Höhenbalancierte Binärbäume) Ein Binärbaum ist höhenbalanciert, falls für jeden Knoten v von der eilbaum v = ( v,1, x, v,1 ) mit Wurzel v die Bedingung erfüllt. d( v,1 ) d( v,2 ) 1 v d( 1 ) d( 2 ) 1 2 U Ilmenau Seite 7 / 74 Höhenbalancierte Suchbäume Äquivalent, kann man höhenbalancierte Binärbäume rekursiv definieren: Definition (Höhenbalancierte Binärbäume (rekursive Charakterisierung)) ist höhenbalanciert. Sind 1 und 2 höhenbalanciert und gilt d( 1 ) d( 2 ) 1, dann ist auch ( 1, x, 2 ) höhenbalanciert. Der Balancefaktor bal(v) eines Knotens v ist genau die Höhendifferenz der Unterbäume, d.h. bal(v) := d( v,2 ) d( v,1 ). Achtung! Die iefe des linken Unterbaumes wird von der des rechten abgezogen. U Ilmenau Seite 8 / 74

Beispiele für den Balancefaktor 0 2 1 1 2 1 0 0 0 0 1 0 0 0 1 0 0 U Ilmenau Seite 9 / 74 AVL-Bäume Definition (AVL-Baum) Ein höhenbalancierter binärer Suchbaum heisst AVL-Baum (Adelson-Velskii und Landis 1962). Der Balancefaktor muss zusätzlich zu dem Schlüssel-Wert-Paar in jedem Knoten gespeichert werden. Die Hoffnung hinter den Höhenbalancierung ist, dass die resultierenden Bäume nicht zu tief sind. atsächlich hat ein AVL-Baum mit n inneren Knoten höchstens logarithmische iefe. U Ilmenau Seite 10 / 74

Die iefe von AVL-Bäumen Satz Ist ein höhenbalancierter Binärbaum mit n Knoten, so gilt d() 1, 4405 log n. D.h. höhenbalancierte Bäume sind höchstens um den Faktor 1,4405 tiefer als vollständig balancierte Bäume mit gleicher Knotenzahl. Beweisidee: Wir werden zeigen, dass ein AVL-Baum der iefe d exponentiell viele Knoten haben muss. Genauer gesagt existiert eine Konstante C > 1 mit log C 2 1, 4405 und ein AVL-Baum der iefe d enthält mindestens C d Knoten. U Ilmenau Seite 11 / 74 Die iefe von AVL-Bäumen Beweis Für d N sei N(d) die minimale Zahl innerer Knoten in einem AVL-Baum die iefe d. N(0) = 1 N(1) = 2... U Ilmenau Seite 12 / 74

Die iefe von AVL-Bäumen Beweis (Fortsetzung) Behauptung 1: N(d) = 1 + N(d 1) + N(d 2) für d 2 N(d 1) N(d 2) Damit der höhenbalancierte Baum die iefe d hat, muss mindestens einer seiner Unterbäume iefe d 1 haben. Aus der Balancierung folgt dann, dass der andere Unterbaum mindestens iefe d 2 hat. Außerdem müssen beide Unterbäume selbst minimale Knotenzahl haben. Damit hat der tiefere Baum N(d 1) Knoten und der flachere Baum N(d 2) Knoten. Damit ist Behauptung 1 gezeigt.... U Ilmenau Seite 13 / 74 Die iefe von AVL-Bäumen Beweis (Fortsetzung) Diese Ungleichung legt exponentielles Wachstum nahe. Behauptung 2: N(d) C d für d 0 wobei C = 1 2 (1 + 5) 1, 618... (goldener Schnitt) Wir beweisen die Behauptung 2 mittels Induktion. Induktionsanfang: Für d = 0 gilt N(0) = 1 = C 0. Für d = 1 gilt N(1) = 2 > C.... U Ilmenau Seite 14 / 74

Die iefe von AVL-Bäumen Beweis (Fortsetzung) Induktionsbehauptung: Für alle 0 i n 1 gilt N(i) C i. Induktionsschritt: N(d) = 1 + N(d 1) + N(d 2) 1 + C d 1 + C d 2 C d 2 (C + 1) Betrachtet man C = 1 2 (1 + 5) genauer, stellt man fest, dass C 2 = C + 1 gilt. Das führt zu N(d) C d 2 C 2 = C d, was die Behauptung beweist.... U Ilmenau Seite 15 / 74 Die iefe von AVL-Bäumen Beweis (Fortsetzung) Ist ein höhenbalancierter Baum der Höhe d() 0 mit n Knoten, so folgt aus C d() n d() log C (n) = log C (2) log(n). Es gilt log C(2) = ln2/lnc = 1, 440429... was den Beweis des Satzes abschließt. U Ilmenau Seite 16 / 74

Implementierung Es müssen noch Implementierungen von delete und insert beschrieben werden, die die Höhenbalancierung erhalten. Jeder einzelne Baumknoten enthält fünf Einträge. Den Schlüssel x die Daten d einen Zeiger left auf das linke Kind einen Zeiger right auf das rechte Kind den Balancefaktor bal. x d left bal right U Ilmenau Seite 17 / 74 Implementierung empty() : lookup(, x) : Erzeuge einen NULL-Zeiger Wie bei einem gewöhnlichen BSB AVL insert und AVL delete bestehen aus zwei Phasen: In der ersten Phase werden die üblichen Operationen wie auf einem BSB ausgeführt. In der zweiten Phase müssen die Bäume unter Umständen rebalanciert werden. Die Rebalancierung erfolgt dabei rekursiv. U Ilmenau Seite 18 / 74

Hilfsoperationen Die Rechtsrotation Die Rechtsrotation kippt eine Kante nach rechts. y v u x u x 3 1 y v 1 2 2 3 U Ilmenau Seite 19 / 74 Hilfsoperationen Die Rechtsrotation y v u x u x 3 1 y v 1 2 2 3 Ist ein binärer Suchbaum, so auch. Beweis: Da ein BSB ist, gilt für alle v i i key(v 1 ) x key(v 2 ) y key(v 3 ). Das zeigt auch die Suchbaumeigenschaft für U Ilmenau Seite 20 / 74

Hilfsoperationen Die Rechtsrotation y v u x u x 3 1 y v 1 2 2 3 Änderungen: Rechtes Kind von u und linkes Kind von v 1 wird hochgezogen 3 wird abgesenkt U Ilmenau Seite 21 / 74 Hilfsoperationen Die Rechtsrotation rotater(v) u = left(v); left(v) = right(u); right(u) = v; return u; Achtung! Die Balancefaktoren in u und v müssen noch korrigiert werden! U Ilmenau Seite 22 / 74

Hilfsoperationen Die Linksrotation Die Linksrotation kippt eine Kante nach links. v y x u 3 x u v y 1 2 1 3 2 U Ilmenau Seite 23 / 74 Hilfsoperationen Die Doppelrotationen Die Links-Rechts-Doppelrotation kann auf einen Links-Rechts-Weg angewandt werden. z v z v y w u x y w u x z v y w u x Erst eine Linksrotation an der unteren Kante Dann eine Rechtsrotation an der oberen Kante U Ilmenau Seite 24 / 74

Hilfsoperationen Die Links-Rechts-Doppelrotation z v y w x u x u z v y w 4 1 1 2 3 4 2 3 Effekt: Der unterste Knoten des Lnks-Rechts-Weges wandert nach oben und wird Wurzel des eilbaumes. Die beiden anderen Knoten des Weges werden sein linkes und rechtes Kind. U Ilmenau Seite 25 / 74 Hilfsoperationen Die Links-Rechts-Doppelrotation rotatelr(v) u = left(v); w = right(u); right(u) = left(w); left(v) = right(w); left(w) = u; right(w) = v; return w; Achtung! Die Balancefaktoren in u und v müssen noch korrigiert werden! U Ilmenau Seite 26 / 74

Die Rechts-Links-Doppelrotation Die Rechts-Links-Doppelrotation ist symmetrisch zur Links-Rechts-Doppelrotation. z v y w x u z v x u 1 y w 4 1 2 3 4 2 3 U Ilmenau Seite 27 / 74 Ein Beispiel D Links P Links Rechts P A P D S B S B F S A F R A D R R B F Rechts D Rechts Links B B P A P A F S D S R F R U Ilmenau Seite 28 / 74

Einfügen in AVL-Bäume Die Implementierung von AVL insert für AVL-Bäume besteht aus zwei Phasen: Das neue Schlössel-Wert-Paar wird wie in einen gewöhnlichen binären Suchbaum eingefügt. Anschließend wird die Balancierung geprüft. Wenn die Balancierung nirgendwo verletzt wird, geschieht nichts Wenn die Balancierungsbedingung irgendwo verletzt ist, gibt es auf dem Weg vom neuen Knoten zur Wurzel (nur dort kann die Verletzung auftreten) einen tiefsten Knoten v, an dem dies der Fall ist. An v wird eine Einfach- oder Doppelrotation ausgeführt und dadurch die Balancierung wieder hergestellt. U Ilmenau Seite 29 / 74 Ein Beispiel Wir fügen 1, 3, 9, 11, 12, 10, 2, 6, 4, 7, 0 in einen anfänglich leeren AVL-Baum ein. 3 3 1 1 9 1 11 3 Links 11 Links 9 12 9 12 10 U Ilmenau Seite 30 / 74

Ein Beispiel 3 9 1 11 9 12 Rechts Links 1 3 11 10 12 10 2 U Ilmenau Seite 31 / 74 Ein Beispiel 1 3 2 9 11 10 12 Links Rechts 2 1 3 4 6 9 11 10 12 U Ilmenau Seite 32 / 74

Ein Beispiel 9 9 2 11 2 11 1 3 10 12 R L 1 4 10 12 6 3 6 4 7 U Ilmenau Seite 33 / 74 Ein Beispiel 9 9 2 11 4 11 1 4 10 12 Links 2 6 10 12 3 6 1 3 7 7 0 U Ilmenau Seite 34 / 74

Ein Beispiel 9 4 11 2 6 10 12 1 3 7 Rechts 4 0 2 9 1 3 6 11 0 7 10 12 U Ilmenau Seite 35 / 74 Einfügen in AVL-Bäume Problem Wie wird entschieden, welche Rotation die Balancierung wieder herstellt? Es soll weder die globale Sicht verwendet werden, noch soll das Balancieren durch Hinschauen bzw. Ausprobieren erreicht werden. Benutzt werden dürfen : Die Balancefaktoren bal(v) in jedem Knoten Ein Flag deeper, das als Resultat eines rekursiven Aufrufs mitteilt, ob der bearbeitete Unterbaum tiefer geworden ist. Die Entscheidung, welche Rotation durchgeführt wird, wird an Hand dieser Werte gefällt. U Ilmenau Seite 36 / 74

Einfügen in AVL-Bäume AVL insert(, x, r) Eingabe: AVL-Baum, Schlüssel x und Daten r; Ausgabe: AVL-Baum und ein Boolean deeper; if == NULL then = new AVL ree(x, r); return (,true); end if! = NULL and key() == x then data() = r; return (, false); end // Neuer Knoten // Update (... ) U Ilmenau Seite 37 / 74 Einfügen in AVL-Bäume AVL insert(, x, r) Fortsetzung if! = NULL and key() > x then (left(), left deeper) = AVL insert(left(), x, r); end // links einfügen // Einfügen (, deeper) = RebalanceInsLeft(, left deeper); // Rebalancierung von else if! = NULL and key() < x then // rechts einfügen (right(), right deeper) = AVL insert(right(), x, r); // Einfügen (, deeper) = RebalanceInsRight(, right deeper); // Rebalancierung von end return,deeper; U Ilmenau Seite 38 / 74

Einfügen in AVL-Bäume Wie man sieht, wird der neue Schlüssel erst eingefügt, und dann auf dem Rückweg zur Wurzel wieder Rebalanciert. Dadurch fängt man immer beim untersten unbalancierten Knoten an und wandert aufwärts. Es bleibt festzustellen, welche Situationen auftreten können und wie sie gelöst werden. Wir konzentrieren uns im folgenden auf den Fall, dass der neue Knoten in den linken Unterbaum eingefügt wird. Für den rechten Unterbaum ist das Vorgehen symmetrisch. U Ilmenau Seite 39 / 74 Einfügen in AVL-Bäume 1. Fall: left deeper = false, d.h. der linke Unterbaum wurde nicht tiefer. geändert, aber gleiche Höhe Da sich auch die iefe des rechten Unterbaumes nicht geändert hat (er hat sich gar nicht geändert), ist der Knoten weiterhin balanciert. Da der eilbaum die iefe nicht verändert hat: deeper = false U Ilmenau Seite 40 / 74

Einfügen in AVL-Bäume 2. Fall: left deeper = true und bal() = 0, d.h. der linke Unterbaum wurde tiefer und die Unterbäume hatten gleiche iefe. neu Da sich die iefen der beiden Unterbäume nur um eins unterscheiden, bleibt der Baum balanciert. deeper = true und bal() = 1 U Ilmenau Seite 41 / 74 Einfügen in AVL-Bäume 3. Fall: left deeper = true und bal() = 1, d.h. der linke Unterbaum wurde tiefer und der rechte Unterbaum war um eins tiefer, als der linke. neu Da sich die iefen der beiden neuen Unterbäume nicht unterscheiden, ist der Baum balanciert. deeper = false und bal() = 0 U Ilmenau Seite 42 / 74

Einfügen in AVL-Bäume 4. Fall: left deeper = true und bal() = 1, d.h. der linke Unterbaum wurde tiefer und der linke Unterbaum war um eins tiefer, als der linke. neu Die Höhen der beiden Unterbäume unterscheiden sich um 2. Damit ist der Baum unbalanciert. Frage Was nun??? U Ilmenau Seite 43 / 74 Einfügen in AVL-Bäume Fall 4.1.: left deeper = true und bal() = 1 und bal(left()) = 1 Rechtsrotation 1 1 1,1 neu 1,2 2 1,1 neu 1,2 2 Die Rechtsrotation zieht den linken Unterbaum eine Ebene hoch und senkt den rechten eine Ebene ab. deeper = false und bal( 1 ) = 0 und bal() = 0 und die neue Wurzel ist 1. U Ilmenau Seite 44 / 74

Einfügen in AVL-Bäume Fall 4.2.: left deeper = true und bal() = 1 und bal(left()) = 1 Links Rechts 1,2 1 1 1,2 1,1 neu neu 2 1,1 neu neu 2 Die Links-Rechts-Rotation zieht die mittleren Unterbäume eine Ebene hoch und senkt den rechten eine Ebene ab. deeper = false und die neuen Balancefaktoren wie folgt. U Ilmenau Seite 45 / 74 Einfügen in AVL-Bäume Neue Balancierung hängt von der Balancierung von 1,2 = right(left()) ab. Links Rechts 1,2 1 1 1,2 1,1 neu neu 2 1,1 neu neu 2 Falls bal( 1,2 ) = 0 haben und dieselbe iefe, wie 1,1 und 2. bal( 1 ) = 0 und bal() = 0 und bal( 1,2 ) = 0 U Ilmenau Seite 46 / 74

Einfügen in AVL-Bäume 1 Links Rechts 1,2 1 1,2 1,1 neu 2 1,1 neu 2 Falls bal( 1,2 ) = 1 bal( 1 ) = 0 und bal() = 1 und bal( 1,2 ) = 0 U Ilmenau Seite 47 / 74 Einfügen in AVL-Bäume 1 Links Rechts 1,2 1 1,2 1,1 neu 2 1,1 neu 2 Falls bal( 1,2 ) = 1 bal( 1 ) = 1 und bal() = 0 und bal( 1,2 ) = 0 U Ilmenau Seite 48 / 74

Einfügen in AVL-Bäume Insgesamt ergibt sich die folgende abelle für den Fall 4.2.: bal(right(left()) bal( ) bal(left( )) bal(right( )) -1 0 0 1 0 0 0 0 1 0-1 0 Dabei ist die ursprüngliche Wurzel des eilbaumes und die neue Wurzel. Das Ergebnis hängt also vom Balancefaktor von right(left()) vor der Rotation, aber nach dem Einfügen ab! U Ilmenau Seite 49 / 74 Einfügen in AVL-Bäume Faustregel für das Rotieren Wenn ein äußerer eilbaum zu tief wird hilft eine einfache Rotation. Diese hebt den eilbaum um eine Ebene an. Wenn ein mittlerer eilbaum zu tief wird hilft eine Doppelrotation. Diese hebt den mittleren eilbaum um eine Ebene an. Die rekursive Abarbeitung rebalanciert von unten nach oben. Beobachtung Nach dem ersten Auftreten des 4. Falles, gilt stets deeper = false und somit findet keine weitere Rebalancierung statt. U Ilmenau Seite 50 / 74

Einfügen in AVL-Bäume Lemma Die rekursive Prozedur AVL insert(, x, r) führt auf AVL-Bäumen die Wörterbuchoperation insert korrekt durch. AVL insert hat Laufzeit O(log n) und führt höchstens eine Einfach- oder Doppelrotation durch. U Ilmenau Seite 51 / 74 Löschen aus AVL-Bäumen Das Löschen in AVL-Bäumen läuft im Prinzip ähnlich ab, wie das Einfügen: Der Eintrag wird wie in gewöhnlichen binären Suchbäumen gelöscht. Der Baum wird anschließend von unten nach oben rebalanciert. Statt eines deeper-flags benutzen wir aber ein shallower-flag, das anzeigt, ob der Baum flacher geworden ist. U Ilmenau Seite 52 / 74

Löschen aus AVL-Bäume Wenn der Knoten mit den zu löschenden Schlüssel x gefunden ist, können drei Fälle eintreten. Fall 1: Der Knoten hat keinen linken Unterbaum, d.h. left() = NULL. 2 Dann kann man einfach den rechten eilbaum zurückgeben. shallower = true U Ilmenau Seite 53 / 74 Löschen aus AVL-Bäume Fall 2: Der Knoten hat keinen rechten Unterbaum, d.h. right() = NULL. 1 Dann kann man einfach den linken eilbaum zurückgeben. shallower = true U Ilmenau Seite 54 / 74

Löschen aus AVL-Bäume Fall 3: Der Knoten hat beide Unterbäume. 1 2 Wie bei gewöhnlichen binären Suchbäumen löscht man in diesem Fall den kleinsten Schlüssel aus dem rechten Unterbaum und verschiebt ihn stattdessen in die Wurzel. Ob der Baum flacher wird hängt dabei von der Postion des minimalen Schlüssels im rechten Unterbaum ab. U Ilmenau Seite 55 / 74 Löschen aus AVL-Bäume AVL delete(, x, r) Eingabe: AVL-Baum, Schlüssel x; Ausgabe: AVL-Baum und ein Boolean shallower; if == NULL then return (, false); end // nicht vorhanden if! = NULL and key() > x then // Update (left(), left shallower) = AVL delete(left(), x); (, shallower) = RebalanceDelLeft(, left shallower); return (, shallower); end (... ) U Ilmenau Seite 56 / 74

Löschen aus AVL-Bäumen AVL delete(, x, r) Fortsetzung if! = NULL and key() < x then // Update (right(), right shallower) = AVL delete(right(), x); (, shallower) = RebalanceDelRight(, right shallower); return (, shallower); end if! = NULL and key() == x then if left() == NULL then return (right(),true); // Entferne Wurzel if right() == NULL then return (left(),true); (right(), x, r,right shallower) = AVL deletemin(); key() = x, data() = r; return RebalanceDelRight(, right shallower); end U Ilmenau Seite 57 / 74 Extraktion des Minimums Die Prozedur AVL deletemin() hat vier Rückgabewerte (S, x, r,shallower): S ist der resultierende AVL-Baum nach dem Löschen des Minimums x und r sind die Werte des gelöschten minimalen Schlüssel-Wert-Paares shallower gibt an, ob der Baum durch das Löschen flacher geworden ist. Um das Minimum zu finden, müssen wir wie in gewöhnlichen binären Suchbäumen immer nach links gehen, bis es kein linkes Kind mehr gibt. D.h. wir müssen zwei Fälle bezglüch left() unterscheiden. U Ilmenau Seite 58 / 74

Extraktion des Minimums Fall 1: left() = NULL, d.h. enthält das Minimum. In diesem Fall können wir einfach den rechten eilbaum als Wurzel zurückgeben. S = right() und x = key() und r = data() und shallower = true. Fall 2: left() NULL In dieser Situation müssen wir das Minimum im linken Unterbaum löschen und anschließend Rebalancieren. (S, x, r,left shallower) = AVL deletemin(left()); (S, shallower) = RebalanceDelLeft(, left shallower); return (S, x, r,shallower); U Ilmenau Seite 59 / 74 Die Rebalancierung nach dem Löschen Wir beschränken uns wieder auf den Fall, dass das Element im linken Unterbaum gelöscht wurde. Für den rechten Unterbaum ergibt der Algorithmus durch Spiegelung. Löschen 1 2 1 2 U Ilmenau Seite 60 / 74

Die Rebalancierung nach dem Löschen Fall 1: Falls left shallower = false ändert sich auch die iefe und die Balancierung von nicht, d.h. shallower = false Fall 2: Falls left shallower = true und bal() = 1 wurde der Linke eilbaum flacher und die Balancierung ändert sich. shallower = true und bal() = 0 U Ilmenau Seite 61 / 74 Die Rebalancierung nach dem Löschen Fall 3: Falls left shallower = true und bal() = 0 wurde der Linke eilbaum flacher und die Balancierung ändert sich. shallower = false und bal() = 1 U Ilmenau Seite 62 / 74

Die Rebalancierung nach dem Löschen Fall 4: Falls left shallower = true und bal() = 1 wurde der Linke eilbaum flacher und die Balancierung ändert sich. shallower = false Der Baum muss je nach Form des rechten Unterbaumes rebalanciert werden. U Ilmenau Seite 63 / 74 Die Rebalancierung nach dem Löschen Fall 4.1: bal(right()) = 0 S Links S 1 1 2,1 2,2 2,1 2,2 bal() = 1 und bal(s) = 1 und shallower = false U Ilmenau Seite 64 / 74

Die Rebalancierung nach dem Löschen Fall 4.1: bal(right()) = 1 S Links S 1 2,1 2,2 1 2,1 2,2 bal() = 0 und bal(s) = 0 und shallower = true U Ilmenau Seite 65 / 74 Die Rebalancierung nach dem Löschen Fall 4.1: bal(right()) = 1 S 1 2,1 2,2 Der mittlere Baum muss angehoben werden. Damit erfolgt eine Doppelrotation. U Ilmenau Seite 66 / 74

Die Rebalancierung nach dem Löschen Fall 4.1: bal(right()) = 1 R S Links Rechts R S 1 2,1 2,1 2,2 1 2,1 2,1 2,2 shallower = true Die Balancefaktoren müssen in Abhängigkeit von bal(r) angepasst werden. alt neu bal(r) bal(r) bal() bal(s) -1 0 0 1 0 0 0 0 1 0-1 0 U Ilmenau Seite 67 / 74 Löschen in AVL-Bäumen Lemma Die Prozedure AVL delete führt die Wörterbuchoperation delete korrekt durch. D.h. es entsteht wieder ein AVL-Baum. Die Prozedur hat Laufzeit O(log n) und führt an jedem Knoten auf dem Weg von der Wurzel zum gelöschten Knoten höchstens eine Einfach- oder Doppelrotation aus. Satz In AVL-Bäumen kostet jede Wörterbuchoperation Zeit O(log n), wobei n die Anzahl der Wörterbucheinträge ist. U Ilmenau Seite 68 / 74

Ein Beispiel Im Gegensatz zum Einfügen, kann das Löschen eines Knotens zu mehreren Einfach- und Doppel-Rotationen führen. U Ilmenau Seite 70 / 74 Ein Beispiel Im Gegensatz zum Einfügen, kann das Löschen eines Knotens zu mehreren Einfach- und Doppel-Rotationen führen. U Ilmenau Seite 71 / 74

Ein Beispiel Im Gegensatz zum Einfügen, kann das Löschen eines Knotens zu mehreren Einfach- und Doppel-Rotationen führen. U Ilmenau Seite 72 / 74 Ein Beispiel Im Gegensatz zum Einfügen, kann das Löschen eines Knotens zu mehreren Einfach- und Doppel-Rotationen führen. U Ilmenau Seite 73 / 74