Algorithmen und Datenstrukturen Seite 3.1
|
|
|
- Reinhardt Dieter
- vor 8 Jahren
- Abrufe
Transkript
1 Algorithmen und Datenstrukturen Seite 31 Kapitel 3 Sortierverfahren Sortieren Anordnen einer gegebenen Menge von Objekten in einer bestimmten Ordnung Sortierte Folgen von Objekten bringen eine deutliche Vereinfachung für den Zugriff auf einzelne Elemente der Objektmenge Sortieren ist daher eine grundlegende Tätigkeit, die in vielen Anwendungsbereichen angewandt wird, zb bei - Telefonbüchern / Wörterbüchern / Büchereikatalogen (Sortierung nach Buchstaben) - Zugfahrplänen / Flugplänen / Terminkalendern (Sortierung nach Datum / Uhrzeit) - Kundenlisten / Inventarlisten (Sortierung nach Schlüsseln) - LRU- (least recently used) Schlange (Sortierung nach Zeitpunkt der letzten Nutzung) Wir betrachten die folgende allgemeine Problemstellung: Gegeben: n Objekte a 1, a 2,, a n mit ihren Sortierschlüsseln k 1, k 2,, k n Gesucht: Eine Anordnung a i1, a i2,, a in mit: - ( i 1, i 2,, i n ) ist eine Permutation von ( 12,,, n) und - k i1 k i2 k in (Sortierkriterium) Beispiel: a 1 a 2 a 10 a i1 a i2 a i10 a 5 a 8 a 6 = = = Anmerkung: Die Sortierschlüssel müssen einem Datentyp angehören, auf den das Sortierkriterium anwendbar ist, dh auf dem eine < -Relation definiert ist Dies gilt in natürlicher Weise für atomare Datentypen wie int, float oder char Sei im folgenden die nachstehende allgemeine Klassendeklaration vorgegeben: class Entry { public int key;
2 Algorithmen und Datenstrukturen Seite 32 class SortableArray { public Entry a []; // Im Konstruktor intialisieren mit new Entry [n+1]; // Die Schlüssel sind in a[1]key bis a[n]key gespeichert // a[0] wird lediglich zum Vertauschen verwendet protected int n = alength-1; protected vertausche ( int k, int l) { a[0]= a[k]; a[k] = a[l]; a[l] = a[0]; Allgemeiner Sortieralgorithmus: while ( i, j) : ( i < j) ( k i > k j ) do vertausche a i und a j ; nicht deterministisch geeignete Kontrollstruktur (Algorithmus) nötig! Die Vielzahl möglicher Sortierverfahren wird allgemein in zwei Kategorien eingeteilt In Abhängigkeit davon, ob die Objekte im Hauptspeicher oder auf dem Sekundärspeicher liegen, unterscheiden wir: - Sortieren von Arrays (internes Sortieren) - Sortieren sequentieller Files (externes Sortieren) Externe Sortierverfahren kommen für sehr große Datenmengen zur Anwendung, die nicht komplett in den Hauptspeicher eingelesen werden können internes Sortieren: alle Objekte sind bekannt externes Sortieren: zu jedem Zeitpunkt ist nur ein Teil der Objekte bekannt Definition: Stabilität von Sortierverfahren Ein Sortierverfahren heißt stabil, wenn die relative Ordnung von Elementen mit gleichen Schlüsselwerten beim Sortieren erhalten bleibt, dh wenn für die sortierte Folge k i1, k i2,, k in gilt: k ij = k il und j< l i j < i l
3 Algorithmen und Datenstrukturen Seite 33 Weitere Klassifikationen von Sortierverfahren sind möglich: über ihr methodisches Vorgehen (Sortieren durch Einfügen oder durch Auswählen; Divideand-Conquer - Verfahren; ), über ihr Laufzeitverhalten (im schlechtesten Fall / im Durchschnitt) und über ihren Speicherplatzbedarf (in situ oder zweites Array / zusätzlicher Speicher nötig) Für uns wesentliches Kriterium Laufzeitverhalten Um unterschiedliche Verfahren miteinander zu vergleichen, zählen wir die Anzahl der bei einer Sortierung von n Elementen durchzuführenden Operationen (in Abhängigkeit von n) Die beiden wesentlichen Operationen der im folgenden betrachteten internen Sortierverfahren sind: Vergleiche von Schlüsselwerten Informationen über die vorliegende Ordnung Zuweisungsoperationen, zb Vertauschungsoperationen oder Transpositionen von Objekten (im allg innerhalb eines Arrays) Herstellen der Ordnung Im folgenden bezeichne Cn () die Anzahl der Vergleiche und Mn () die Anzahl der Zuweisungsoperationen, die bei der Sortierung von n Elementen notwendig sind 31 Interne Sortierverfahren Frage: Wie schnell kann man überhaupt sortieren? Beschränkung auf solche Algorithmen, die nur Schlüsselvergleiche und Transpositionen verwenden Gesucht: Eine untere Schranke für die Anzahl C max () n von Schlüsselvergleichen, die im schlechtesten Fall notwendig sind, um n Objekte zu sortieren Entscheidungsbaum für 3 Schlüssel k 1, k 2, k 3 : ja k 1 k 2 nein ja k 1, k 2, k 3 k 2 k 3 k 1, k 3, k 2 nein k 1 k 3 k 3, k 1, k 2 k 2, k 1, k 3 ja k 1 k 3 k 2 k 3 ja nein ja nein k 2, k 3, k 1 nein k 3, k 2, k 1 In einem Entscheidungsbaum ohne redundante Vergleiche entspricht jedes Blatt einer der n! verschiedenen Permutationen von n Elementen der Entscheidungsbaum für n Elemente hat eine minimale Höhe von log 2 ( n! ) da es sich um einen binären Baum handelt
4 Algorithmen und Datenstrukturen Seite 34 Damit gilt für einen beliebigen Sortieralgorithmus: C max ( n) = Ω( n logn), denn C max () n log 2 ( n! ) und n! n ( n 1) ( n 2 ) ( n 2) n 2 log 2 ( n! ) n 2 log 2 ( n 2) = On ( logn) C max () n On ( logn) C max () n = Ω( n logn) Resultat: Sortierverfahren haben mindestens eine Laufzeit von On ( logn) Da Algorithmen, die diese Laufzeit erreichen, recht komplex sind, gehen wir zunächst auf eine Reihe einfacher Sortierverfahren ein Für kleines n (zb n < 100) bieten diese meist eine ausreichende Performanz 311 Einfache Sortieralgorithmen Einfache Sortieralgorithmen besitzen meist eine Laufzeit von O(n 2 ) Wir stellen im folgenden verschiedene solche Sortieralgorithmen vor Sortieren durch Abzählen Prinzip: Der j-te Schlüssel der sortierten Folge ist größer als j-1 der übrigen Schlüssel Die Position eines Schlüssels in der sortierten Folge kann damit durch Abzählen der kleineren Schlüssel ermittelt werden Wir benötigen ein Hilfsarray: int zaehler[] = new int [n + 1]; // Die Schlüssel sind in a[1]key bis a[n]key gespeichert Ziel: Anfangs: zaehler[i] = (Anzahl der Elemente a j mit a j key < a i key) + 1 zaehler[] = {1, 1,,1 Programmstück: for (int i = n; i >= 2; i--) { for (int j = i-1; j >= 1; j--) { if (a[i]key < a[j]key) zaehler[j]++; else zaehler[i]++;
5 Algorithmen und Datenstrukturen Seite 35 START: Zähler Schritt (n-1) Schritt Ergebnis: Der Algorithmus ist stabil; er wird instabil, falls < ersetzt wird durch Für die benötigte Anzahl von Vergleichen gilt: n ( n 1) Cn ( ) = ( n 1) + ( n 2) = = On ( 2 ) 2 Die Anzahl der Zuweisungsoperationen für den Zähler ist identisch zur Anzahl der Schlüsselvergleiche Hinzu kommt ein linearer Aufwand, da jedes Objekt jetzt noch an die richtige Stelle plaziert werden muss Mn () = On ( 2 ) Da der Speicheraufwand von O(n) für ein Hilfsfeld groß ist, betrachten wir im folgenden eine Reihe einfacher und stabiler Sortierverfahren, die kein zusätzliches Feld benötigen, also in situ arbeiten Sortieren durch direktes Auswählen ( Selection Sort ) Prinzip: Suche aus allen n Elementen das kleinste und setze es an die erste Stelle Wiederhole dieses Verfahren für die verbleibenden n-1, n-2, Elemente Nach n-1 Durchläufen ist die Sortierung abgeschlossen
6 Algorithmen und Datenstrukturen Seite 36 Methode: void selectionsort() { int minindex; for (int i = 1; i <= n-1; i++) { minindex = i; for (int j = i+1; j <= n; j++) // minimales Element suchen if (a[j]key < a[minindex]key) minindex = j; vertausche (i, minindex); START: 1 Schritt (n-1) Schritt Schritt Für die Anzahl der Vergleichsoperationen gilt wie oben: n ( n 1) Cn ( ) = ( n 1) + ( n 2) = = On ( 2 ) 2 Für die durchschnittliche Anzahl von Zuweisungen ( minindex = j ) gilt (ohne Beweis): M ( n) = On ( logn) (Anzahl von Vertauschungen: On ()) Nähere Untersuchung des Selection_Sort: Wesentlicher Aufwand Bestimmung des Minimums der verbleibenden Elemente Lemma: Jeder Algorithmus zum Auffinden des Minimums von n Elementen, der auf Vergleichen von Paaren von Elementen basiert, benötigt mindestens n-1 Vergleiche Sortieren durch direktes Austauschen ( Bubble Sort ) Prinzip: Das Verfahren basiert darauf, die relative Reihenfolge benachbarter Elemente zu überprüfen und diese so zu vertauschen, dass kleine Elemente an den Anfang und größere Elemente an das Ende des Arrays wandern Im ersten Durchlauf werden auf diese Weise die Paare ( a n 1, a n ), ( a n 2, a n 1 ), bearbeitet Hierdurch wandert das kleinste Element an die erste Position im Array; es wird nicht weiter betrachtet So entsteht sukzessive eine immer längere sortierte Folge von Elementen am Anfang des Arrays und nach n-1 Durchläufen ist die Sortierung abgeschlossen
7 Algorithmen und Datenstrukturen Seite 37 Methode: void bubblesort() { for (int i = 1; i <= n-1; i++) { for (int j = n; j >= i+1; j--) if (a[j]key < a[j-1]key) vertausche (j, j-1); START: 1 Schritt Schritt (n-1) Schritt Für die benötigten Schlüsselvergleiche gilt wiederum: n ( n 1) Cn ( ) = ( n 1) + ( n 2) = = On ( 2 ) 2 Die mittlere Anzahl von Vertauschungen beträgt: n ( n 1) M ( n) = = On ( 2 ) 4 Verbesserungen: ein Durchlauf der inneren for-schleife ohne jegliche Vertauschung zweier Elemente ermöglicht einen Abbruch des Algorithmus unterhalb der Position der letzten Vertauschung ist das Array bereits sortiert weitere Einsparung möglich durch frühzeitigen Schleifenabbruch Beobachtung: Asymmetrisches Verhalten: kleine Schlüssel springen schnell an den Anfang des Array, während große Schlüssel nur schrittweise ans Ende wandern Änderung der Richtung aufeinanderfolgender Durchläufe ( Shaker Sort ) aber: die Verbesserungen sparen nur Schlüsselvergleiche, keine Vertauschungsoperationen! Sortieren durch direktes Einfügen ( Insertion Sort ) Prinzip: Das Element a 1 beschreibt für sich genommen stets eine korrekt sortierte Folge Seien nun für j = 23,, die ersten j-1 Elemente a 1, a 2,, a j 1 korrekt sortiert Im j-ten Durchlauf wird dann das Element a j an die richtige Stelle der vorsortierten Folge eingefügt Nach n-1 Durchläufen ist die Sortierung abgeschlossen
8 Algorithmen und Datenstrukturen Seite 38 Methode: void insertionsort() { Entry x = new Entry; for (int j = 2; j <= n; j++) { x = a[j]; i = j-1; while ((i > 0) && (xkey < a[i]key)) { a[i+1] = a[i]; // Transposition der ARRAY-Elemente i = i-1; a[i+1] = x; START: 1 Schritt Schritt (n-1) Schritt Laufzeitanalyse: die äußere (for-) Schleife wird stets n-1 mal durchlaufen beim Einfügen des j-ten Elementes ((j-1)-ter Durchlauf der for-schleife) werden benötigt: im worst case: j-1 Schlüsselvergleiche und j Transpositionen im Durchschnitt: ( j 1) 2 Schlüsselvergleiche und ( j + 1) 2 Transpositionen C ( n) n j j 2 2 n n n 2 2n = = = = -- ( n 2 n) = On ( 2 ) j = 2 n n j = 2 1 C worst ( n) = j 1 = j = -- ( n 2 n) = On ( 2 ) 2 j = 2 n 1 j = 1 und ebenfalls: On 2 ( ) Transpositionen
9 Algorithmen und Datenstrukturen Seite 39 Verbesserung: Beim Einfügen statt der while-schleife binäres Suchen anwenden Anzahl der Schlüsselvergleiche nur noch On ( logn) im Durchschnitt sowie im schlechtesten Fall aber: die Anzahl der Transpositionen bleibt erhalten Aufwand: On ( 2 ) bleibt Bemerkung: Ein Sortierverfahren, das Objekte immer nur um eine Position verschiebt, hat eine durchschnittliche Laufzeit von mindestens On ( 2 ) (Begründung: folgendes Lemma) Lemma: Sei k 1, k 2,, k n eine zufällige Permutation von { 12,,, n Dann gilt für die durchschnittliche Anzahl M () n der Stellen, über die die n Objekte bewegt werden: M () n Θ( n 2 ) Folgerung: Sortierverfahren, die im Durchschnitt schneller als On ( 2 ) sind, müssen Transpositionen in Sprüngen statt nur stellenweise vornehmen (wie zb beim Selection_Sort ) 312 Verfeinerung des Insertion_Sort: Shell_Sort (Shell 1959; diminishing increment sort ) Prinzip: Sei n = 2 k, k ℵ Das Array wird in jedem Schritt betrachtet als Menge kleinerer Gruppen von Elementen, beschrieben durch eine vorgegebene Schrittweite Diese werden jeweils getrennt voneinander (und damit schneller) über Insertion_Sort sortiert Als Schrittweitenfolge können beispielsweise die Werte n 2, n 4,, 1 gewählt werden Im 1 Schritt werden dann n 2 Gruppen mit jeweils 2 Elementen gebildet, im 2 Schritt n 4 Gruppen zu je 4 Elementen, usw; jeder Schritt nutzt dabei die bereits bestehende Vorsortierung aus Nach logn Schritten ist schließlich die gesamte Folge sortiert Für allgemeines ergeben sich uu um eins größere Gruppen; die folgende Prozedur ist n korrekt n ℵ
10 Algorithmen und Datenstrukturen Seite 310 Methode: void shellsort() { int incr, j; incr = n / 2; // Distanz der Elemente eines Teilarrays while (incr > 0) { for ( int i = incr + 1; i <= n; i++) { // einzelne Teilarrays betr j = i - incr; while (j > 0) { // insertionsort durchführen if (a[j]key > a[j + incr]key) { vertausche(j, j + incr); if (j > incr) j = j - incr; else j = 0; else j = 0; incr = incr / 2; START: 1 Schritt Schritt Schritt Laufzeitanalyse (sei n = für ein k): im 1 Schritt ist für die n 2 Teilarrays höchstens je 1 Vertauschung nötig im 2 Schritt sind für die n 4 Teilarrays höchstens je 1+2 Vertauschungen nötig im logn = k -ten Schritt sind höchstens n 2 Vertauschungen nötig Gesamtlaufzeit im Mittel nahe bei: On ( n) = On ( 1,5 ) (ohne Beweis) (Laufzeit im worst case offensichtlich: On ( 2 )) 2 k Bemerkungen Schrittweiten, die keine Potenzen von 2 sind, liefern in der Regel bessere Ergebnisse Experimentell ermittelt schlägt Knuth folgende (umgekehrte) Schrittweitenfolge vor: 1, 4, 13, 40, 121, bzw allgemein: h 1 = 1, h s + 1 = 3 h s + 1 ; und beginne mit der Schrittweite s, für die gilt: h s + 2 n
11 Algorithmen und Datenstrukturen Seite 311 Laufzeit: On ( 1,25 ) Unabhängig von der Schrittweite Laufzeit nicht besser als On ( 1,2 ) (> On ( logn) ) 313 Divide-and-Conquer-Methoden Die einfachen Sortieralgorithmen reduzieren die Größe des noch zu sortierenden Arrays in jedem Schritt lediglich um eins Ziel der Divide-and-Conquer Sortieralgorithmen ist es, das zu sortierende Array in jedem Schritt zu halbieren Bei Erreichung dieses Ziels erhalten wir Verfahren mit einer Laufzeit von On ( logn) Allgemeines Paradigma: allgemeiner Divide-and-Conquer-Algorithmus: ALGORITHMUS Divide-and-Conquer_Sort; IF Objektmenge klein genug THEN löse das Problem direkt ELSE Divide: Zerlege die Menge in Teilmengen möglichst gleicher Größe; Conquer: Löse das Problem für jede der Teilmengen; Merge: Berechne aus den Teillösungen die Gesamtlösung END; MergeSort Prinzip: Das Array wird zunächst rekursiv bis auf Elementebene zerlegt Jedes der Elemente ist für sich genommen trivialerweise sortiert Im Anschluss an diese Zerlegung werden dann gemäß der Zerlegungshierarchie jeweils zwei sortierte Teilarrays derart verschmolzen (Merge), dass das Ergebnis wiederum sortiert ist Nach dem letzten Merge-Schritt ist das gesamte Array sortiert (trivialer Divide-Schritt ( O() 1 ); Arbeit im Merge-Schritt ( On ())) ALGORITHMUS Mergesort(S) IF S = 1 THEN RETURN S ELSE Divide: S1 := a 1,, a n 2 ; S2 := a n 2 + 1,, a n ; Conquer: S1 := Mergesort(S1); S2 := Mergesort(S2); Merge: RETURN Merge(S1, S2 ) END;
12 Algorithmen und Datenstrukturen Seite 312 START: Divide-Schritt Merge-Schritt Laufzeitanalyse (gilt im wesentlichen für alle Divide-and-Conquer-Verfahren): Die Laufzeit T(n) für den ersten Rekursionsschritt für n Elemente ergibt sich aus: der Laufzeit des Divide-Schrittes O() 1 (Aufteilen des Arrays konstante Zeit) der Laufzeit des Conquer-Schrittes 2 Tn ( 2) (n Elemente 2 n 2 Elemente) der Laufzeit des Merge-Schrittes On ()(jedes Element muss betrachtet werden) Es ergibt sich somit folgende Rekursionsgleichung für den Zeitbedarf Tn () des MergeSort: Tn ( ) = O( 1) O( 1) + 2 Tn ( 2) + On ( ) falls n = 1 falls n > 1 oder anders ausgedrückt (mit Konstanten a und c und einer (mindestens) linear wachsenden Funktion f): Tn () = a c + 2 Tn ( 2) + fn () falls n = 1 falls n > 1
13 Algorithmen und Datenstrukturen Seite 313 Betrachten wir zur Veranschaulichung den Baum der Kosten dieser Rekursionshierarchie (für n = ): 2 k f(n), c Level 1 f(n/2), c f(n/2), c Level 2 f(2), c f(2), c f(2), c f(2), c a a a a a a a a Level k Level k+1 Der Aufwand für alle c s und a s ist: ( n 1) c + n a = On ( ) Da f (mindestens) linear wächst, gilt: i f( n i) fn () Hieraus ergibt sich die folgende Abschätzung, wobei k = logn : Level 1: Level 2: fn ( ) 2 fn ( 2) fn ( ) Level k-1: Level k: n 4 f( 4) fn ( ) n 2 f( 2) fn ( ), Tn ( ) fn () logn = On ( logn) Allgemeines Ergebnis Jedes Divide-and-Conquer-Sortierverfahren, dessen Divide- und Merge-Schritt in On () durchgeführt werden können und das eine balancierte Unterteilung des Problems garantiert, besitzt eine Laufzeit von On ( logn) Quicksort (Hoare 1962) Prinzip: Ein (prinzipiell beliebiger) Schlüssel x wird aus dem Array ausgewählt Das Array wird anschließend in Schlüssel x und Schlüssel < x zerlegt (Divide-Schritt) Die beiden resultierenden Teilarrays werden rekursiv bis auf Elementebene in gleicher Weise behandelt (Conquer) Durch entsprechende Speicherung der Teilarrays innerhalb des Arrays entfällt der Merge-Schritt Arbeit im Divide-Schritt ( On ()); trivialer Merge-Schritt ( O() 1 )
14 Algorithmen und Datenstrukturen Seite 314 allgemeiner Algorithmus: ALGORITHM Quicksort(S) IF S = 1 THEN RETURN S END; ELSE Divide: Methode: void quicksort() { sort(1, n); Wähle irgendeinen Schlüsselwert x = s j key aus S aus Berechne eine Teilfolge S1 aus S mit den Elementen, deren Schlüsselwert < x ist und eine Teilfolge S2 mit Elementen x Conquer: S1 = Quicksort(S1); S2 = Quicksort(S2); Merge: RETURN Concat(S1, S2 ) void sort ( int li, int r) { int i = li + 1; int j = r; Entry x = a[li]; // hier: Auswahl des linken Randelementes boolean flag = false; do { // Aufteilung in Elemente > bzw < x while ((a[i]key < xkey) && (i < r)) i = i+1; while (a[j]key > xkey) j = j-1; if (i < j) { vertausche(i, j); i = i+1; j = j-1; else flag = true; while (!flag); vertausche(li, j); // x an richtige Stelle bringen if (li < j-1) sort(li, j-1); if (j+1 < r) sort(j+1, r);
15 Algorithmen und Datenstrukturen Seite 315 START: 1 Schritt: Sort(1,8) Schritt: Sort(1,5) Schritt: Sort(1,3) Schritt: Sort(7,8) Rekursive Unterteilung des Array bezüglich des ausgewählten Elementes binärer Baum über den Arrayelementen Höhe des Baumes Rekursionstiefe des Verfahrens erwünscht: balancierter binärer Baum Rekursionstiefe: O( logn) Laufzeitanalyse: Wir untersuchen zunächst den Zerlegungsschritt (Divide-Schritt): Ausgangspunkt: angenommen, das k-te Element der Sortierreihenfolge wird für den Zerlegungsschritt gewählt und dann an Position k positioniert im Zerlegungsprozess wird jedes Element betrachtet n Vergleiche die Anzahl der Vertauschungsoperationen ist abhängig von k: (Anzahl der Elemente < k) (Wahrscheinlichkeit für eine Vertauschung) (= WS, dass das Element im rechten Teil war) n ( k 1) = ( k 1) n Mittelwert Mn () der Vertauschungsoperationen über alle k = 12,,, n für den ersten Zerlegungsschritt:
16 Algorithmen und Datenstrukturen Seite n ( n 1) 2 n n + 1 n 1 n = = = On () 2 n 6 n 6 der Divide-Schritt benötigt stets On () Operationen Gesamtzeitbedarf: Mn ( ) n 1 n ( k 1) 1 = -- ( k 1) n = ---- k ( n k) n = k = 1 Der günstigste Fall: Das Array wird jeweils in zwei Teilarrays etwa gleicher Größe geteilt Dann folgt für den Gesamtzeitbedarf: n 2 n 1 k = 0 T best ( n) = c n+ 2T( n 2) = c n+ 2( c n 2 + 2T( n 4) ) = = 2cn + 4T( n 4) = = logn c n + n T( 1) = On ( logn) Der durchschnittliche Fall: Das Array wird jeweils bezüglich eines zufällig ausgewählten Elements zerlegt Nach Analysen: nur um den Faktor T ( n) = On ( logn) (ca 40%) schlechter Der schlechteste Fall: Degenerierung (lineare Liste); stets wird das größte / kleinste Element gewählt (für die obige Implementierung im Falle eines bereits sortierten Elementes) n ( n 1) T worst ( n) = ( n 1) + ( n 2) = = On ( 2 ) 2 Beachte hierbei auch die hohe Rekursionstiefe n Bemerkungen zu Quicksort 2 ln( 2) 1,39 Austauschen von Schlüsseln über große Distanzen schnell nahezu sortiert wie alle komplexeren Verfahren ist Quicksort schlecht für kleine n Verbesserung durch direktes Sortieren kleiner Teilarrays (zb der Größe < 10) Methoden, um die Wahrscheinlichkeit des schlechtesten Falls zu vermindern: Zerlegungselement x als Median aus 3 oder 5 (zufälligen) Elementen bestimmen Clever Quicksort dennoch: Quicksort bleibt immer eine Art Glücksspiel, denn es bleibt: T worst () n = On ( 2 ) Quicksort war lange Zeit das im Durchschnittsverhalten beste bekannte Sortierverfahren
17 Algorithmen und Datenstrukturen Seite Sortieren mit Hilfe von Bäumen Sortieren durch Auswählen n-maliges Extrahieren des Minimums/Maximums einer Folge von n Schlüsseln Verwenden einer geeigneten Baumstruktur, die diese Operation effizient unterstützt Heapsort (Williams 1964) Definition: Heap Sei K = { k 1, k 2,, k n eine Menge von Schlüsseln und T ein binärer Baum, dessen Knoten die Schlüssel aus K speichern T ist genau dann ein Heap, wenn gilt: T ist vollständig ausgeglichen und der Schlüssel in jedem Knoten ist größer oder gleich den Schlüsseln in den Söhnen des Knotens (partielle Ordnung) Ein Heap ist auf sehr einfache Art mit Hilfe eines sequentiellen Arrays implementierbar Beispiel: Vater von Knoten i ist Knoten i/2 Der linke (rechte) Sohn von Knoten i ist Knoten 2i (2i+1) Eine Folge von Schlüsseln k 1, k 2,, k n bildet einen sequentiellen Heap, wenn gilt: k j 2 k j für 1 j 2 < j n In diesem Falle gilt: k 1 = max k i 1 i n ( ), dh das Maximum steht in der Wurzel Weiterhin erfüllen alle Blätter Eigenschaft k n 2 1 +,, k n für sich genommen bereits die Heap- Prinzip: Die zu sortierende Schlüsselfolge wird in einem Vorbereitungsschritt in eine sequentielle Heap-Struktur überführt Aus dieser Struktur wird in jedem Schritt das Maximum (die Wurzel) entnommen und der Rest wiederum in Heap-Struktur gebracht Eine sukzessive n-malige Entnahme des Maximums führt zur Sortierung der Folge
18 Algorithmen und Datenstrukturen Seite 318 Aufbau der Heap-Struktur: 9 Ausgangspunkt: unsortiertes Array die n DIV 2 Elemente in den Blättern erfüllen die Heap-Eigenschaft Absenken aller inneren Schlüssel, die diese Eigenschaft verletzen durch Vertauschen des Schlüssels mit dem größeren seiner Söhne (sukzessive über alle Level) verletzen die Heap-Eigenschaft Ergebnis: Anfangsheap der maximale Schlüssel befindet sich in der Wurzel Sortierschritt: 3 Vertausche: Maximum letztes Element Absenken, um Heap-Eigenschaft zu gewährleisten wiederum steht das Maximum in der Wurzel Iteration dieses Schrittes, bis das Array sortiert ist sortiert: 10,12 Heapgröße: 6 9,10,12 5 8,9,10,12 4 6,8,9,10,12 3 5,6,8,9,10,12 2 3,5,6,8,9,10,12 1 1,3,5,6,8,9,10,12 0 Die folgende Methode Heapsort basiert auf einer lokalen Hilfsprozedur korrigiere Diese lässt das Element a[li] in das als Teilheap vorausgesetzte Teilarray a[li+1],,a[r] an die richtige Stelle einsinken, so dass a[li],,a[r] einen Heap bildet
19 Algorithmen und Datenstrukturen Seite 319 Methode: void heapsort() { for (int i = n/2; i >= 1; i--) korrigiere (i,n);// Aufbau des Heap for (int i = n; i >= 2; i--) { // Sortierschritte vertausche (i, 1); korrigiere (1, i-1); void korrigiere ( int li, int r) { int i, j; Entry x; i = li; x = a[li]; // abzusenkendes Element in der Wurzel if ((2*li) <= r) { // rechte Grenze nicht überschritten j = 2*i; // a[j] ist linker Sohn von a[i] do { // wiederholtes Absenken if (j < r) // suche größeren der beiden Söhne if (a[j]key < a[j+1]key) j=j+1; // nun: a[j] ist größerer Sohn if (xkey < a[j]key) { vertausche(i,j); i=j; j=2*i; // Absenken else j=r+1; // halte an: Heap-Bedingung erfüllt while (j <=r); Laufzeitanalyse: Der Algorithmus unterteilt sich in zwei getrennte Schritte: 1) Aufbau des Anfangsheap : korrigiere wird einmal für jeden Knoten aufgerufen, der mind einen Sohn hat Für die Höhe h eines vollständig ausgeglichenen binären Baumes gilt: h = log 2 ( n + 1) Für n gilt: 2 h 1 n < 2 h In einem derartigen Baum besitzt Level i genau 2 i 1 Knoten für 1 i h 1 Für jeden dieser Knoten muss der darin enthaltene Schlüssel maximal bis in einen Blattknoten wandern, dh einschließlich des Knotens selbst h-(i-1) Knoten durchlaufen
20 Algorithmen und Datenstrukturen Seite 320 h 1 Aufbau i 1 T worst () n 2 ( h ( i 1) ) = 2 i ( h i ) = ( 2 h i i) = i = 1 h 2 h 1 2 i 1 h 2 i = 0 = i n i = i = 2 h 2 i 1 i = 2 On ( ) h i = 2 h Das letzte = gilt, da i für h konvergiert 2 i 1 i = 2 2) Sortierung durch sukzessive Entnahme des Maximums: (n-1)-mal muss jeweils ein Schlüssel durch korrigiere abgesenkt werden Jedes Absenken ist auf einen Pfad von der Wurzel zu einem Blatt beschränkt Sortierung T worst n () ( n 1) log2 ( n 1 + 1) = On ( logn) Schlussfolgerung Die Laufzeit von Heapsort im schlechtesten Fall ist also On ( logn) und damit optimal Bemerkungen: Betrachten wir die durchschnittliche Laufzeit von Heapsort, so fällt auf, dass grob 50% der Knoten eines Heaps auf der untersten Ebene, 25% auf der vorletzten Ebene,, liegen Wahrscheinlichkeit eines absinkenden Elementes, weit unten zu landen, ist groß durchschnittlicher Zeitbedarf nahe bei 2 n logn+ On () schlechtes Durchschnittsverhalten im Vergleich zu Quicksort ( 1,39 n logn + On ()) Verbesserung: Bottom-Up-Heapsort (Wegener 1990) bisher: Beim Absenken eines Schlüssels sind jeweils zwei Vergleiche notwendig: Welcher Sohn ist größer? und Ist dieser größer als der abzusenkende Schlüssel? die zweite Frage wird meist mit ja beantwortet jetzt: Betrachte nur noch die erste Frage Zielpfad von der Wurzel zu einem Blatt Von unten wird nun die Einfügestelle des abgesenkten Schlüssels gesucht (meist nur 1 oder 2 Vergleiche); übrige Elemente auf dem Pfad werden nach oben geschoben Zahl der Vergleiche wird reduziert Bottom-Up-Heapsort ist das beste bekannte Sortierverfahren für große n (n > 16000) Da der Heap-Aufbau nur On () Zeit benötigt, kann Heapsort dazu benutzt werden, die k größten (kleinsten) Elemente einer Schlüsselmenge in On ( + k logn) Zeit zu finden Ist k n ( logn), so kann dieses Problem in On () Zeit gelöst werden
21 Algorithmen und Datenstrukturen Seite Experimentell ermittelte Laufzeit von Sortierverfahren Wirth stellt einen experimentellen Vergleich der Laufzeit verschiedener Sortierverfahren vor Die folgende Grafik gibt die von ihm ermittelten Ausführungszeiten der entsprechenden Modula-Programme in Sekunden wieder: Anzahl der Elemente = 256 Anzahl der Elemente = 2048 geordnet zufällig invers geordnet zufällig invers Selection_Sort 0,94 0,96 1,18 58,18 58,34 73,46 Bubble_Sort 1,26 2,04 2,80 80,18 128,84 178,66 Insertion_Sort 0,02 0,82 1,64 0,22 50,74 103,80 Insertion_Sort (binär) 0,12 0,70 1,30 1,16 37,66 76,06 Shell_Sort 0,10 0,24 0,28 0,80 7,08 12,34 Merge_Sort 0,18 0,18 0,18 1,98 2,06 1,98 Quicksort 0,08 0,12 0,08 0,72 1,22 0,76 Heapsort 0,20 0,20 0,20 2,32 2,22 2,12
22 Algorithmen und Datenstrukturen Seite 322 Einen Leistungsvergleich zwischen seinem Bottom-Up-Heapsort und dem Median-basierten Clever Quicksort hat Wegener durchgeführt Die folgende Tabelle veranschaulicht die relative Anzahl der notwendigen Vergleiche in Abhängigkeit von der Arraygröße n: n Clever Quicksort Bottom-Up-Heapsort Verhältnis 100 5,74 6,94 0, ,88 7,99 0, ,42 9,31 0, ,60 10,31 0, ,78 11,31 0, ,35 12,66 0, ,54 13,66 0, ,72 14,67 1, ,42 15,24 1,012 Folgerungen: Clever Quicksort ist schneller für kleine n Die Leistungsfähigkeit von Bottom-Up-Heapsort nimmt für wachsendes n zu Ab ca n = ist Bottom-Up-Heapsort besser als Clever Quicksort Für weiter wachsendes n nimmt dessen Leistungsvorteil weiter zu Bottom-Up-Heapsort wird ca 15 % besser für n = Sortieren in linearer Zeit Aussage: Sortieren auf Basis von Schlüsselvergleichen benötigt im schlechtesten Fall mindestens On ( logn) Operationen aber: Wenn die Schlüsselwerte bestimmten Einschränkungen unterliegen und auch andere Operationen als Vergleiche angewendet werden können, dann ist es möglich, schneller als in On ( logn) Zeit (zb in On () Zeit) zu sortieren Wir werden im folgenden zb annehmen die auftretenden Schlüssel sind a-priori bekannt der Wertebereich der Schlüssel ist (bekannt und) relativ klein
23 Algorithmen und Datenstrukturen Seite 323 Beispiel: Es sei bekannt, dass die Schlüsselfolge von a 1, a 2,, a n eine Permutation von { 12,,, n darstellt Dann kann die folgende Prozedur Sort zur Sortierung herangezogen werden: Methode: void sort() { for (int i = 1; i <= n; i++) { while (a[i]key!= i) vertausche(i, a[i]key); Diese Methode sort() benötigt nur On () Zeit für die Sortierung von n Elementen Eine Verallgemeinerung dieses Verfahrens stellt das sogenannte Bucket_Sort dar: Bucket_Sort Sei der Wertebereich der Schlüssel gegeben als [ 01,,, m 1], Duplikate der Schlüssel seien erlaubt Gegeben sei eine Folge von Behältern (buckets) B 0, B 1,, B m 1 Jedes Bucket kann eine Liste von Elementen aufnehmen Wir benutzen hierzu die gleiche Array- Datenstruktur wie bei offenen Hashverfahren, dh mit Überlauflisten Neue Elemente werden immer am Ende der Überlaufliste eingefügt Dann sortiert folgender Algorithmus die Schlüsselfolge a 1, a 2,, a n : ALGORITHMUS Bucket_Sort; (* das Feld a sei globale Variable *) BEGIN FOR i := 1TO n DO füge a i in das Bucket B ai key ein END; FOR i := 0 TO m-1 DO schreibe die Elemente von B i in die Ergebnisfolge END END Bucket_Sort; Dieser Algorithmus wird auch als Sortieren durch Fachverteilung bezeichnet Laufzeitanalyse: Einfügen eines Elementes in ein Bucket benötigt O() 1 Zeit (zb lineare Liste mit Zeiger auf letztes Element) Bucket_Sort benötigt On ( + m) Zeit falls m = O() n On () Zeit
24 Algorithmen und Datenstrukturen Seite 324 a i B ai key Bemerkung: Das Zuordnen eines Schlüssels zum richtigen Bucket stellt eine m-wertige Vergleichsoperation dar Diese ist gleichwertig zu log 2 ( m) binären Vergleichsoperationen Somit steht dieser Algorithmus nicht im Widerspruch zur theoretischen Komplexität von Sortierverfahren von On ( logn) Häufig haben die Schlüssel einen sehr großen Wertebereich zu viele Buckets notwendig! Bucket_Sort in mehreren Phasen (k Phasen, falls der Wertebereich der Schlüssel gleich [ 01,,, m k 1] ) Beispiel: Sei k = 2 und der Wertebereich der Schlüssel gleich [ 01,,, m 2 1] Dann werden die beiden folgenden Sortierphasen durchgeführt: 1Phase: Sortierung innerhalb der Buckets Bucket_Sort mit m Buckets, wobei in das Bucket eingefügt wird a i B ai key MOD m 2Phase: Sortierung zwischen den Buckets Durchläuft die Buckets der 1Phase und hängt von Bucket B ai key DIV m an a i jeweils an die Liste Die Ergebnisse der 2 Phase werden schließlich in die Ergebnisliste geschrieben Sei m = 4, Schlüsselintervall = [0,,15] 1 Phase 2 Phase B 0 B 1 B 2 B 3 B 0 B 1 B 2 B Ergebnisliste Nimmt man k als Konstante an, so arbeitet dieses Verfahren in an eine Liste in O() 1 Zeit erfolgt On () Zeit, falls das Anhängen Im folgenden stellen wir ein allgemeineres Verfahren (Radix_Sort) vor, bei dem die Schlüsselwerte als Ziffernfolge zur Basis m aufgefasst werden
25 Algorithmen und Datenstrukturen Seite 325 Radix_Sort Seien die Schlüsselwerte Zeichenfolgen über einem Alphabet von m Buchstaben mit gleicher Länge l, die als Zahlen zur Basis m interpretiert werden Der Wertebereich der Schlüssel entspricht also [ 01,,, m l 1] Gegeben sei eine Folge von Buckets B 0, B 1,, B m 1, wobei jedes Bucket eine Liste von Elementen aufnehmen kann Neue Elemente werden immer am Ende des Buckets eingefügt Es werden l Phasen durchgeführt Jede Phase hängt ab von der jeweils betrachteten Ziffer an Position j der m-adischen Schlüssel, wobei j mit der niedrigstwertigen Position 0 beginnt und alle Positionen bis l-1 durchläuft In Phase j werden die Datensätze so auf die Buckets verteilt, dass B i alle Datensätze enthält, deren Schlüssel an j-ter Position das i-te Zeichen besitzt Bei dieser Verteilung bleibt die relative Anordnung der Datensätze innerhalb eines jeden Buckets, die aus den früheren Phasen stammt, unverändert erhalten Zum Schluss wird die Ergebnisfolge mit einem Durchlauf der Buckets in aufsteigender Folge ihrer Nummern ( B 0, B 1,, B m 1 ) generiert m = 10, l = 2, Schlüsselintervall = [0,,99] B 0 B 1 B 2 B 3 B 4 B 5 B 6 B 7 1 Phase B 8 B 9 18 Sortierung nach Einern B 0 B 1 B 2 B 3 B 4 B 5 B 6 B 7 2 Phase B 8 B 9 98 Sortierung nach Zehnern Ergebnisfolge Laufzeitanalyse: Falls l als konstant angesehen werden kann und Radix_Sort O(n) m < n gilt, ist die Laufzeit von Wenn alle n Schlüssel verschieden sind, gilt l log m n Solange l = c log m n mit einer kleinen Konstanten c, besitzt Radix_Sort eine Laufzeit von On ( logn) Diese Laufzeiten gelten auch im schlechtesten Fall
Algorithmen und Datenstrukturen. Kapitel 3: Sortierverfahren. Skript zur Vorlesung. Algorithmen und Datenstrukturen
LUDWIG- MAXIMILIANS- UNIVERSITY MUNICH DEPARTMENT INSTITUTE FOR INFORMATICS DATABASE Algorithmen und Datenstrukturen Kapitel 3: Sortierverfahren Skript zur Vorlesung Algorithmen und Datenstrukturen Sommersemester
Algorithmen und Datenstrukturen 1
Algorithmen und Datenstrukturen 1 4. Vorlesung Peter F. Stadler Universität Leipzig Institut für Informatik [email protected] 4. Sortierverfahren Elementare Sortierverfahren - Sortieren durch
Heapsort / 1 A[1] A[2] A[3] A[4] A[5] A[6] A[7] A[8]
Heapsort / 1 Heap: Ein Array heißt Heap, falls A [i] A [2i] und A[i] A [2i + 1] (für 2i n bzw. 2i + 1 n) gilt. Beispiel: A[1] A[2] A[3] A[4] A[5] A[6] A[7] A[8] Heapsort / 2 Darstellung eines Heaps als
UE Algorithmen und Datenstrukturen 1 UE Praktische Informatik 1. Übung 9. Sortieren
UE Algorithmen und Datenstrukturen 1 UE Praktische Informatik 1 Übung 9 Sortieren Institut für Pervasive Computing Johannes Kepler Universität Linz Altenberger Straße 69, A-4040 Linz Sortieren :: Problemstellung
Kapitel 6 Elementare Sortieralgorithmen
Kapitel 6 Elementare Sortieralgorithmen Ziel: Kennenlernen elementarer Sortierverfahren und deren Effizienz Zur Erinnerung: Das Sortier-Problem Gegeben: Folge A von n Elementen a 1, a 2,..., a n ; Eine
8. Sortieren II. 8.1 Heapsort. Heapsort. [Max-]Heap 6. Heapsort, Quicksort, Mergesort. Binärer Baum mit folgenden Eigenschaften
Heapsort, Quicksort, Mergesort 8. Sortieren II 8.1 Heapsort [Ottman/Widmayer, Kap. 2.3, Cormen et al, Kap. 6] 9 210 Heapsort [Max-]Heap 6 Inspiration von Selectsort: Schnelles Einfügen Binärer Baum mit
Interne Sortierverfahren
Angewandte Datentechnik Interne Sortierverfahren Interne Sortierverfahren Ausarbeitung einer Maturafrage aus dem Fach A n g e w a n d t e D a t e n t e c h n i k Andreas Hechenblaickner 5CDH HTBLA Kaindorf/Sulm
Alle bislang betrachteten Sortieralgorithmen hatten (worst-case) Laufzeit Ω(nlog(n)).
8. Untere Schranken für Sortieren Alle bislang betrachteten Sortieralgorithmen hatten (worst-case) Laufzeit Ω(nlog(n)). Werden nun gemeinsame Eigenschaften dieser Algorithmen untersuchen. Fassen gemeinsame
4. Sortieren 4.1 Vorbemerkungen
. Seite 1/21 4. Sortieren 4.1 Vorbemerkungen allgemeines Sortierproblem spezielle Sortierprobleme Ordne a 1,..., a n so um, dass Elemente in aufsteigender Reihenfolge stehen. Die a i stammen aus vollständig
Suchen und Sortieren
Suchen und Sortieren Suchen Sortieren Mischen Zeitmessungen Bewertung von Sortier-Verfahren Seite 1 Suchverfahren Begriffe Suchen = Bestimmen der Position (Adresse) eines Wertes in einer Datenfolge Sequentielles
f 1 (n) = log(n) + n 2 n 5 f 2 (n) = n 3 + n 2 f 3 (n) = log(n 2 ) f 4 (n) = n n f 5 (n) = (log(n)) 2
Prof. aa Dr. E. Ábrahám Datenstrukturen und Algorithmen SS Lösung - Präsenzübung.05.0 F. Corzilius, S. Schupp, T. Ströder Aufgabe (Asymptotische Komplexität): (6 + 0 + 6 = Punkte) a) Geben Sie eine formale
Sortieralgorithmen. Selection Sort
intuitivster Suchalgorithmus Sortieralgorithmen Selection Sort In jedem Schritt wird das kleinste Element im noch unsortierten Array gesucht und ans Ende des bisher sortierten Teilarrays gehangen 3 1 4
Übung Algorithmen und Datenstrukturen
Übung Algorithmen und Datenstrukturen Sommersemester 2016 Patrick Schäfer, Humboldt-Universität zu Berlin Agenda 1. Vorstellen des vierten Übungsblatts 2. Vorbereitende Aufgaben für das vierte Übungsblatt
Algorithmen und Datenstrukturen SS09. Foliensatz 15. Michael Brinkmeier. Technische Universität Ilmenau Institut für Theoretische Informatik
Foliensatz 15 Michael Brinkmeier Technische Universität Ilmenau Institut für Theoretische Informatik Sommersemester 2009 TU Ilmenau Seite 1 / 16 Untere Schranken für das Vergleichsbasierte Sortieren TU
7. Sortieren Lernziele. 7. Sortieren
7. Sortieren Lernziele 7. Sortieren Lernziele: Die wichtigsten Sortierverfahren kennen und einsetzen können, Aufwand und weitere Eigenschaften der Sortierverfahren kennen, das Problemlösungsparadigma Teile-und-herrsche
8.1.3 Operation Build-Max-Heap Operation zur Konstruktion eines Heaps Eingabe: Feld A[1..n], n = länge(a) BUILD-MAX-HEAP (A)
Stand der Vorlesung: Datenstruktur Heap: fast vollständiger Binärbaum MaxHeap: sortierter Heap, größtes Element an Wurzel Sortierverfahren: HeapSort: Sortieren eines Feldes A[1.. n] Idee: in place: Feld
Prof. Dr. Margarita Esponda
Algorithmen und Programmieren II Sortieralgorithmen imperativ Teil I Prof. Dr. Margarita Esponda Freie Universität Berlin Sortieralgorithmen Bubble-Sort Insert-Sort Selection-Sort Vergleichsalgorithmen
Algorithmen und Datenstrukturen 1
Algorithmen und Datenstrukturen 1 6. Vorlesung Martin Middendorf / Universität Leipzig Institut für Informatik [email protected] [email protected] Merge-Sort Anwendbar für
Datenstrukturen und Algorithmen
Joost-Pieter Katoen Datenstrukturen und Algorithmen 1/32 Datenstrukturen und Algorithmen Vorlesung 7: Sortieren (K2) Joost-Pieter Katoen Lehrstuhl für Informatik 2 Software Modeling and Verification Group
Übung: Algorithmen und Datenstrukturen SS 2007
Übung: Algorithmen und Datenstrukturen SS 2007 Prof. Lengauer Sven Apel, Michael Claÿen, Christoph Zengler, Christof König Blatt 5 Votierung in der Woche vom 04.06.0708.06.07 Aufgabe 12 Manuelle Sortierung
2.2 Allgemeine (vergleichsbasierte) Sortierverfahren
. Allgemeine (vergleichsbasierte) Sortierverfahren Vergleichsbaum: Der Aufbau des Verbleichsbaum ist für jeden Algorithmus und jede Eingabelänge n gleich. Jede Permutation der Eingabe, muss zu einem anderen
Programmieren I. Kapitel 7. Sortieren und Suchen
Programmieren I Kapitel 7. Sortieren und Suchen Kapitel 7: Sortieren und Suchen Ziel: Varianten der häufigsten Anwendung kennenlernen Ordnung Suchen lineares Suchen Binärsuche oder Bisektionssuche Sortieren
Kap. 3: Sortieren. Überblick. Unser Sortierproblem. Motivation. Laufzeitmessung. Warum soll ich hier bleiben? Sortierverfahren sind WICHTIG!!!
Kap. 3: Sortieren Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund Überblick Einführung in das Sortierproblem Insertion-Sort Selection-Sort Merge-Sort 4. VO
Definition Ein Heap (priority queue) ist eine abstrakte Datenstruktur mit folgenden Kennzeichen:
HeapSort Allgemeines Sortieralgorithmen gehören zu den am häufigsten angewendeten Algorithmen in der Datenverarbeitung. Man hatte daher bereits früh ein großes Interesse an der Entwicklung möglichst effizienter
Untere Schranke für allgemeine Sortierverfahren
Untere Schranke für allgemeine Sortierverfahren Prinzipielle Frage: wie schnell kann ein Algorithmus (im worst case) überhaupt sein? Satz: Zum einer Folge von n Keys mit einem allgemeinen Sortierverfahren
Sortierverfahren für Felder (Listen)
Sortierverfahren für Felder (Listen) Generell geht es um die Sortierung von Daten nach einem bestimmten Sortierschlüssel. Es ist auch möglich, daß verschiedene Daten denselben Sortierschlüssel haben. Es
2 Sortieren. Beispiel: Es seien n = 8 und a = i : a i : ϕ(i) : a ϕ(i) :
2 Sortieren Das Sortieren einer Datenfolge ist eines der am leichtesten zu verstehenden und am häufigsten auftretenden algorithmischen Probleme. In seiner einfachsten Form besteht das Problem darin, eine
Kapitel 8 Fortgeschrittene Sortieralgorithmen
Kapitel 8 Fortgeschrittene Sortieralgorithmen Zur Erinnerung: in Kapitel 6 Elementare Sortierverfahren Sortierverfahren, die auf Vergleichen von Werten basieren. Aufwand zum Sortieren von Feldern von n
Algorithmen und Datenstrukturen Heapsort
Algorithmen und Datenstrukturen 2 5 Heapsort In diesem Kapitel wird Heapsort, ein weiterer Sortieralgorithmus, vorgestellt. Dieser besitzt wie MERGE-SORT eine Laufzeit von O(n log n), sortiert jedoch das
Bucketsort. Korrektheit. Beispiel. Eingabe: Array A mit n Elementen im Bereich [0,1) Annahme: die Elemente sind in [0,1) gleichverteilt.
Bucketsort Beispiel Eingabe: Array A mit n Elementen im Bereich [0,1) Annahme: die Elemente sind in [0,1) gleichverteilt 1 2 A.78.17 0 1 B.12.17 Sonst: Skalieren ( Aufwand O(n) ) 3.39 2.21.23.26 Idee:
JAVA - Suchen - Sortieren
Übungen Informatik I JAVA - Suchen - Sortieren http://www.fbi-lkt.fh-karlsruhe.de/lab/info01/tutorial Übungen Informatik 1 Folie 1 Inhalt Suchen/Sortieren binary search mergesort bubblesort Übungen Informatik
Das Suchproblem. Gegeben Menge von Datensätzen. Beispiele Telefonverzeichnis, Wörterbuch, Symboltabelle
122 4. Suchen Lineare Suche, Binäre Suche, Interpolationssuche, Untere Schranken [Ottman/Widmayer, Kap. 3.2, Cormen et al, Kap. 2: Problems 2.1-3,2.2-3,2.3-5] 123 Das Suchproblem Gegeben Menge von Datensätzen.
Kapitel 9. Komplexität von Algorithmen und Sortieralgorithmen
Kapitel 9 Komplexität von Algorithmen und Sortieralgorithmen Arrays 1 Ziele Komplexität von Algorithmen bestimmen können (in Bezug auf Laufzeit und auf Speicherplatzbedarf) Sortieralgorithmen kennenlernen:
Sortieralgorithmen. Direkte Sortierverfahren & Shellsort, Quicksort, Heapsort. Vorlesung Algorithmen und Datenstrukturen 2 im SS 2004
Sortieralgorithmen Direkte Sortierverfahren & Shellsort, Quicksort, Heapsort Vorlesung Algorithmen und Datenstrukturen 2 im SS 2004 Prof. Dr. W. P. Kowalk Universität Oldenburg Algorithmen und Datenstrukturen
Pro Informatik 2009: Objektorientierte Programmierung Tag 17. Marco Block-Berlitz, Miao Wang Freie Universität Berlin, Institut für Informatik
Tag 17 Marco Block-Berlitz, Miao Wang Freie Universität Berlin, Institut für Informatik 08.09.2009 Agenda Tag 16 Datenstrukturen Abstrakte Datentypen, ADT Folge: Stack, Queue, Liste, ADT Menge: Bäume:
Kapitel 9. Komplexität von Algorithmen und Sortieralgorithmen
1 Kapitel 9 Komplexität von Algorithmen und Sortieralgorithmen Ziele 2 Komplexität von Algorithmen bestimmen können (in Bezug auf Laufzeit und auf Speicherplatzbedarf) Sortieralgorithmen kennenlernen:
Algorithmen und Datenstrukturen (Th. Ottmann und P. Widmayer) Folien: Einfache Sortierverfahren Autor: Stefan Edelkamp
Algorithmen und Datenstrukturen (Th. Ottmann und P. Widmayer) Folien: Einfache Sortierverfahren Autor: Stefan Edelkamp Institut für Informatik Georges-Köhler-Allee Albert-Ludwigs-Universität Freiburg 1
Vorlesung Informatik 2 Algorithmen und Datenstrukturen. (25 Sortieren vorsortierter Daten)
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (25 Sortieren vorsortierter Daten) 1 Untere Schranke für allgemeine Sortierverfahren Satz Zum Sortieren einer Folge von n Schlüsseln mit einem allgemeinen
8. A & D - Heapsort. Werden sehen, wie wir durch geschicktes Organsieren von Daten effiziente Algorithmen entwerfen können.
8. A & D - Heapsort Werden sehen, wie wir durch geschicktes Organsieren von Daten effiziente Algorithmen entwerfen können. Genauer werden wir immer wieder benötigte Operationen durch Datenstrukturen unterstützen.
Algorithmen und Datenstrukturen
Algorithmen und Datenstrukturen Prof. Martin Lercher Institut für Informatik Heinrich-Heine-Universität Düsseldorf Algorithmen und Datenstrukturen Teil 3 Suchen in Listen Version vom: 15. November 2016
Tutoraufgabe 1 (Sortieralgorithmus):
Prof. aa Dr. Ir. Joost-Pieter Katoen Datenstrukturen und Algorithmen SS Tutoriumslösung - Übung 4 (Abgabe 2..2) Christian Dehnert, Friedrich Gretz, Benjamin Kaminski, Thomas Ströder Tutoraufgabe (Sortieralgorithmus):
Vorlesung Datenstrukturen
Vorlesung Datenstrukturen Heaps Dr. Frank Seifert Vorlesung Datenstrukturen - Sommersemester 2016 Folie 469 Prioritätswarteschlange Problem Häufig ist das Prinzip einer einfachen Warteschlangen-Datenstruktur
Aufgabe (Schreibtischtest, Algorithmenanalyse)
Aufgabe (Schreibtischtest, Algorithmenanalyse) Führen Sie einen Schreibtischtest für den Algorithmus Positionsort für das folgende Eingabe-Array durch. Geben Sie nach jedem Durchlauf der for-schleife mit
Grundlagen der Programmierung 2. Sortierverfahren
Grundlagen der Programmierung 2 Sortierverfahren Prof. Dr. Manfred Schmidt-Schauÿ Künstliche Intelligenz und Softwaretechnologie 30. Mai 2006 Sortieren Ziel: Bringe Folge von Objekten in eine Reihenfolge
Algorithmen und Datenstrukturen
1 Algorithmen und Datenstrukturen Wintersemester 01/13 6. Vorlesung Prioritäten setzen Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I Guten Morgen! Tipps für unseren ersten Test am 0. November: Lesen
Übersicht. Einfache Verfahren MergeSort Untere Schranke QuickSort Selektieren Schnelleres Sortieren Externes Sortieren. 6 Sortieren.
Übersicht 6 Sortieren Einfache Verfahren MergeSort Untere Schranke QuickSort Selektieren Schnelleres Sortieren Externes Sortieren H. Täubig (TUM) GAD SS 14 221 Statisches Wörterbuch Sortieren Lösungsmöglichkeiten:
Algorithmen I. Tutorium 1-3. Sitzung. Dennis Felsing
Algorithmen I Tutorium 1-3. Sitzung Dennis Felsing [email protected] www.stud.uni-karlsruhe.de/~ubcqr/algo 2011-05-02 Überblick 1 Sortieren und Suchen 2 Mastertheorem 3 Datenstrukturen 4 Kreativaufgabe
Algorithmen und Datenstrukturen (Th. Ottmann und P. Widmayer) Folien: Spezielle Sortierverfahren Autor: Sven Schuierer
Algorithmen und Datenstrukturen (Th. Ottmann und P. Widmayer) Folien: Spezielle Sortierverfahren Autor: Sven Schuierer Institut für Informatik Georges-Köhler-Allee Albert-Ludwigs-Universität Freiburg 1
Sortieralgorithmen. Jan Pöschko. 18. Januar Problemstellung Definition Warum Sortieren?... 2
Jan Pöschko 18. Januar 2007 Inhaltsverzeichnis 1 Problemstellung 2 1.1 Definition................................... 2 1.2 Warum Sortieren?.............................. 2 2 Einfache Sortieralgorithmen
Grundlegende Sortieralgorithmen
Grundlegende Sortieralgorithmen Martin Wirsing in Zusammenarbeit mit Matthias Hölzl und Nora Koch Sortieren in Java Man kann Sortierverfahren in einem imperativem oder einem objektorientierten Stil programmieren.
2 Sortieren durch Vergleichen Eingabefolge a 1, a 2,..., a n 2, 1, 3 Sortieralg. Für festes n ist ein vergleichsbasierter Sortieralg. charakterisiert
1 Algorithmen und Datenstrukturen Wintersemester 2014/15 9. Vorlesung Sortieren in Linearzeit Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I 2 Sortieren durch Vergleichen Eingabefolge a 1, a 2,...,
Suchen und Sortieren (Die klassischen Algorithmen)
Suchen und Sortieren (Die klassischen Algorithmen) Lineare Suche und Binäre Suche (Vorbedingung und Komplexität) Sortieralgorithmen (allgemein) Direkte Sortierverfahren (einfach aber langsam) Schnelle
Klausur Algorithmen und Datenstrukturen SS August Arbeitszeit 90 min
TU Ilmenau, Fakultät für Informatik und Automatisierung FG Komplexitätstheorie und Effiziente Algorithmen Univ.-Prof. Dr. M. Dietzfelbinger, Dipl.-Ing. C. Mattern Klausur Algorithmen und Datenstrukturen
2.3.1 Einleitung Einfache Sortierverfahren Höhere Sortierverfahren Komplexität von Sortierverfahren Spezielle Sortierverfahren
2.3 Sortieren 2.3.1 Einleitung 2.3.2 Einfache Sortierverfahren 2.3.3 Höhere Sortierverfahren 2.3.4 Komplexität von Sortierverfahren 2.3.5 Spezielle Sortierverfahren 1 Selection-Sort Idee: Suche kleinstes
Übersicht. Datenstrukturen und Algorithmen. Übersicht. Divide-and-Conquer. Vorlesung 9: Quicksort (K7)
Datenstrukturen und Algorithmen Vorlesung 9: (K7) Joost-Pieter Katoen Lehrstuhl für Informatik 2 Software Modeling and Verification Group http://www-i2.rwth-aachen.de/i2/dsal0/ Algorithmus 8. Mai 200 Joost-Pieter
Algorithmen und Datenstrukturen 1-3. Seminar -
Algorithmen und Datenstrukturen 1-3. Seminar - Dominic Rose Bioinformatics Group, University of Leipzig Wintersemester 2009/10 Outline Spezielle Listen: Stacks, Queues Sortierverfahren 3. Übungsserie Wiederholung:
Vorlesung Informatik 2 Algorithmen und Datenstrukturen
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (18 Bäume: Grundlagen und natürliche Suchbäume) Prof. Dr. Susanne Albers Bäume (1) Bäume sind verallgemeinerte Listen (jedes Knoten-Element kann mehr
Einführung in die Informatik I Kapitel II.3: Sortieren
1 Einführung in die Informatik I Kapitel II.3: Sortieren Prof. Dr.-Ing. Marcin Grzegorzek Juniorprofessur für Mustererkennung im Institut für Bildinformatik Department Elektrotechnik und Informatik Fakultät
Algorithmen und Datenstrukturen
Algorithmen und Datenstrukturen 11. Übung Verkettete Listen, Sortieren Insertionsort, Mergesort, Radixsort, Quicksort Clemens Lang Übungen zu AuD 19. Januar 2010 Clemens Lang (Übungen zu AuD) Algorithmen
Tutoraufgabe 1 (Sortieren): Lösung: Datenstrukturen und Algorithmen SS14 Lösung - Übung 4
Prof. aa Dr. E. Ábrahám Datenstrukturen und Algorithmen SS Lösung - Übung F. Corzilius, S. Schupp, T. Ströder Tutoraufgabe (Sortieren): a) Sortieren Sie das folgende Array durch Anwendung des Selectionsort-Algorithmus.
Grundlagen der Programmierung
Grundlagen der Programmierung Algorithmen und Datenstrukturen Die Inhalte der Vorlesung wurden primär auf Basis der angegebenen Literatur erstellt. Darüber hinaus sind viele Teile direkt aus der Vorlesung
Übung Algorithmen I
Übung Algorithmen I 20.5.15 Christoph Striecks [email protected] (Mit Folien von Julian Arz, Timo Bingmann und Sebastian Schlag.) Roadmap Organisation Mergesort, Quicksort Dual Pivot Quicksort
Übungsklausur Algorithmen I
Jun.-Prof. Hofheinz, Jun.-Prof. Meyerhenke (ITI, KIT) 08.06.2015 Übungsklausur Algorithmen I Aufgabe 1. (Algorithm Engineering) Nennen Sie zwei Konzepte, die Algorithm Engineering im Gegensatz zu theoretischer
lim log 2n n = > 0 Da es einen Limes gibt, gibt es auch einen Limes inferior, der gleich diesem Limes ist.
Prof. aa Dr. Ir. Joost-Pieter Katoen Christian Dehnert, Jonathan Heinen, Thomas Ströder, Sabrina von Styp Aufgabe 1 (O-Notation): Beweisen oder widerlegen Sie die folgenden Aussagen: (3 + 3 + 4 = 10 Punkte)
(a, b)-bäume / 1. Datenmenge ist so groß, dass sie auf der Festplatte abgespeichert werden muss.
(a, b)-bäume / 1. Szenario: Datenmenge ist so groß, dass sie auf der Festplatte abgespeichert werden muss. Konsequenz: Kommunikation zwischen Hauptspeicher und Festplatte - geschieht nicht Byte für Byte,
Stud.-Nummer: Datenstrukturen & Algorithmen Seite 1
Stud.-Nummer: Datenstrukturen & Algorithmen Seite 1 Aufgabe 1. / 16 P Instruktionen: 1) In dieser Aufgabe sollen Sie nur die Ergebnisse angeben. Diese können Sie direkt bei den Aufgaben notieren. 2) Sofern
Übungsblatt 1. f(n) = f(n) = O(g(n)) g(n) = O(f(n)) Zeigen oder widerlegen Sie: 3 n = Θ(2 n ) Aufgabe 1.2 Gegeben sei die folgende Funktion:
Übungsblatt 1 Aufgabe 1.1 Beweisen oder widerlegen Sie, dass für die im Folgenden definierte Funktion f(n) die Beziehung f(n) = Θ(n 4 ) gilt. Beachten Sie, dass zu einem vollständigen Beweis gegebenenfalls
Abgabe: (vor der Vorlesung) Aufgabe 2.1 (P) O-Notation Beweisen Sie die folgenden Aussagen für positive Funktionen f und g:
TECHNISCHE UNIVERSITÄT MÜNCHEN FAKULTÄT FÜR INFORMATIK Lehrstuhl für Sprachen und Beschreibungsstrukturen SS 2009 Grundlagen: Algorithmen und Datenstrukturen Übungsblatt 2 Prof. Dr. Helmut Seidl, S. Pott,
Wiederholung ADT Menge Ziel: Verwaltung (Finden, Einfügen, Entfernen) einer Menge von Elementen
Was bisher geschah abstrakter Datentyp : Signatur Σ und Axiome Φ z.b. ADT Menge zur Verwaltung (Finden, Einfügen, Entfernen) mehrerer Elemente desselben Typs Spezifikation einer Schnittstelle Konkreter
Quicksort ist ein Divide-and-Conquer-Verfahren.
. Quicksort Wie bei vielen anderen Sortierverfahren (Bubblesort, Mergesort, usw.) ist auch bei Quicksort die Aufgabe, die Elemente eines Array a[..n] zu sortieren. Quicksort ist ein Divide-and-Conquer-Verfahren.
Programmiertechnik II
2007 Martin v. Löwis Priority Queues and Heapsort 2007 Martin v. Löwis 2 Priority Queue Abstrakter Datentyp Inhalt: Elemente mit Priorität Operationen: Einfügen: Angabe des Elements und seiner Priorität
Humboldt-Universität zu Berlin Berlin, den Institut für Informatik
Humboldt-Universität zu Berlin Berlin, den 15.06.2015 Institut für Informatik Prof. Dr. Ulf Leser Übungen zur Vorlesung M. Bux, B. Grußien, J. Sürmeli, S. Wandelt Algorithmen und Datenstrukturen Übungsblatt
12 (2-4)-Bäume Implementierbare Funktionen. (2-4)-Bäume sind durch folgende Eigenschaften deniert: 1. Alle Äste sind gleich lang
12 (2-4)-Bäume (2-4)-Bäume sind durch folgende Eigenschaften deniert: 1. Alle Äste sind gleich lang 2. Die Ordnung (maximale Anzahl der Söhne eines Knotens) ist gleich 4 3. Innere Knoten haben 2 Söhne
Informatik B Sommersemester Musterlösung zur Klausur vom
Informatik B Sommersemester 007 Musterlösung zur Klausur vom 0.07.007 Aufgabe : Graphen und Graphalgorithmen + + + () Punkte Für eine beliebige positive, ganze Zahl n definieren wir einen Graphen G n =
Übung Algorithmen und Datenstrukturen
Übung Algorithmen und Datenstrukturen Sommersemester 2017 Patrick Schäfer, Humboldt-Universität zu Berlin Agenda 1. Sortierte Listen 2. Stacks & Queues 3. Teile und Herrsche Nächste Woche: Vorrechnen (first-come-first-served)
Abschnitt: Algorithmendesign und Laufzeitanalyse
Abschnitt: Algorithmendesign und Laufzeitanalyse Definition Divide-and-Conquer Paradigma Divide-and-Conquer Algorithmen verwenden die Strategien 1 Divide: Teile das Problem rekursiv in Subproblem gleicher
Algorithmen und Datenstrukturen (Th. Ottmann und P. Widmayer) Folien: Suchverfahren Autor: Stefan Edelkamp / Sven Schuierer
Algorithmen und Datenstrukturen (Th. Ottmann und P. Widmayer) Folien: Suchverfahren Autor: Stefan Edelkamp / Sven Schuierer Institut für Informatik Georges-Köhler-Allee Albert-Ludwigs-Universität Freiburg
Kapitel 2. Sortieren. Adressenverwaltung (lexikographisch) Treerlisten bei Suchanfragen (Relevanz) Verdeckung (z-koordinate) ...
Kapitel 2 Sortieren Das Sortieren ist eines der grundlegenden Probleme in der Informatik. Es wird geschätzt, dass mehr als ein Viertel aller kommerzieller Rechenzeit auf Sortiervorgänge entfällt. Einige
Programmierung mit C Algorithmen
Programmierung mit C Algorithmen Informationen /7/ Robert Sedgewick Algorithmen in C. 742 Seiten, ISBN 3-827-37182-1. /8/ Kyle Loudon Algorithmen mit C, ISBN 3-4897-211653-0. Online-Buch "C von A bis Z",
Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen
Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen 186.172 Algorithmen und Datenstrukturen 1 VL 4.0 Übungsblatt 1 für die Übung
4. Sortierverfahren. Anwendungen
4. Sortierverfahren Einführung Elementare Sortierverfahren - Sortieren durch direktes Auswählen (Straight Selection Sort) - Sortieren durch Vertauschen (Bubble Sort) - Sortieren durch Einfügen (Insertion
In C und Java müssen Variablen und Methodenergebnisse durch Typangaben erläutert werden. Welche der folgenden Aussagen sind korrekt und welche nicht:
Typprüfung (Compiler / Laufzeit) In C und Java müssen Variablen und Methodenergebnisse durch Typangaben erläutert werden. Welche der folgenden Aussagen sind korrekt und welche nicht: 1) Der Compiler prüft
4. Sortierverfahren. Anwendungen. Sortierverfahren. Sortierverfahren (2)
4. Sortierverfahren Einführung Elementare Sortierverfahren - Sortieren durch direktes Auswählen (Straight Selection Sort) - Sortieren durch Vertauschen (Bubble Sort) - Sortieren durch Einfügen (Insertion
Komplexität von Algorithmen OOPM, Ralf Lämmel
Ganz schön komplex! Komplexität von Algorithmen OOPM, Ralf Lämmel 885 Motivierendes Beispiel Algorithmus Eingabe: ein Zahlen-Feld a der Länge n Ausgabe: Durchschnitt Fragen: sum = 0; i = 0; while (i
Suchen und Sortieren Sortieren. Heaps
Suchen und Heaps (Folie 245, Seite 63 im Skript) 3 7 21 10 17 31 49 28 14 35 24 42 38 Definition Ein Heap ist ein Binärbaum, der die Heapeigenschaft hat (Kinder sind größer als der Vater), bis auf die
Pro Informatik 2009: Objektorientierte Programmierung Tag 18. Marco Block-Berlitz, Miao Wang Freie Universität Berlin, Institut für Informatik
Tag 18 Marco Block-Berlitz, Miao Wang Freie Universität Berlin, Institut für Informatik 09.09.2009 Agenda Tag 16 Datenstrukturen Abstrakte Datentypen, ADT Folge: Stack, Queue, Liste, ADT Menge: Bäume:
7. Übung zu Algorithmen I 1. Juni 2016
7. Übung zu Algorithmen I 1. Juni 2016 Lukas Barth [email protected] (mit Folien von Lisa Kohl) Roadmap Ganzzahliges Sortieren mit reellen Zahlen Schnellere Priority Queues Bucket Queue Radix Heap Organisatorisches
Fibonacci-Suche. Informatik I. Fibonacci-Suche. Fibonacci-Suche. Einführung. Rainer Schrader. 24. Mai 2005
Fibonacci-Suche Informatik I Einführung Rainer Schrader Zentrum für Angewandte Informatik Köln 4. Mai 005 Grundidee wie bei der Binärsuche, aber andere Aufteilung Fibonacci-Zahlen: F 0 = 0 F 1 = 1 F m
