Seminar Rechnernetze Sommersemester 99 Gigabit Ethernet Marijan Gjoreski



Ähnliche Dokumente
BNC-, RJ45-, und Glasfaser- Netzwerkkarten

Konfiguration VLAN's. Konfiguration VLAN's IACBOX.COM. Version Deutsch

Primzahlen und RSA-Verschlüsselung

Themen. MAC Teilschicht. Ethernet. Stefan Szalowski Rechnernetze MAC Teilschicht

Adami CRM - Outlook Replikation User Dokumentation

Kurzanleitung. MEYTON Aufbau einer Internetverbindung. 1 Von 11

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Lizenzen auschecken. Was ist zu tun?

Datensicherung. Beschreibung der Datensicherung

EasyWk DAS Schwimmwettkampfprogramm

Beschreibung Regeln z.b. Abwesenheitsmeldung und Weiterleitung

Tutorial -

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel

Erstellen einer Collage. Zuerst ein leeres Dokument erzeugen, auf dem alle anderen Bilder zusammengefügt werden sollen (über [Datei] > [Neu])

Bedienungsanleitung für den SecureCourier

SANDBOXIE konfigurieren

Anleitung zur Nutzung des SharePort Utility

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

Netzwerk einrichten unter Windows

1 Einleitung. Lernziele. automatische Antworten bei Abwesenheit senden. Einstellungen für automatische Antworten Lerndauer. 4 Minuten.

Ethernet Applikation Guide

Regeln für das Qualitäts-Siegel

Kommunikation mehrerer PCs über Hubs

Step by Step Webserver unter Windows Server von Christian Bartl

WLAN Konfiguration. Michael Bukreus Seite 1

Professionelle Seminare im Bereich MS-Office

Guide DynDNS und Portforwarding

Lieber SPAMRobin -Kunde!

Erstellen von Mailboxen

Hinweise zum Ausfüllen der Zeiterfassung

Grundlagen der Theoretischen Informatik, SoSe 2008

GEZIELT MEHR SICHERHEIT MIT 4I ACCESS SERVER & 4I CONNECT CLIENT

Virtual Private Network

A Lösungen zu Einführungsaufgaben zu QueueTraffic

Printserver und die Einrichtung von TCP/IP oder LPR Ports

Fax einrichten auf Windows XP-PC

Urlaubsregel in David

Der Kalender im ipad

40-Tage-Wunder- Kurs. Umarme, was Du nicht ändern kannst.

Erstellen von x-y-diagrammen in OpenOffice.calc

Manchester Codierung sowie Differenzielle Manchester Codierung

Einführung in die. Netzwerktecknik

1 von :04

Suche schlecht beschriftete Bilder mit Eigenen Abfragen

Zwischenablage (Bilder, Texte,...)

1. Einschränkung für Mac-User ohne Office Dokumente hochladen, teilen und bearbeiten

Einfügen von Bildern innerhalb eines Beitrages

Stellen Sie bitte den Cursor in die Spalte B2 und rufen die Funktion Sverweis auf. Es öffnet sich folgendes Dialogfenster

Enigmail Konfiguration

AUF LETZTER SEITE DIESER ANLEITUNG!!!

Ein Hinweis vorab: Mailkonfiguration am Beispiel von Thunderbird

Konfiguration des ewon GSM Modems Kurzbeschreibung zum Aufbau einer GSM Verbindung

Inhalt: 1. Layer 1 (Physikalische Schicht) 2. Layer 2 (Sicherungsschicht) 3. Layer 3 (Vermittlungsschicht) 4. Layer 4 (Transportschicht) 5.

Kommunikations-Management

Hilfestellung. ALL500VDSL2 Rev.B & ALL02400N. Zugriff aus dem Internet / Portweiterleitung / Fernwartung. Router. Endgeräte. lokales.

Web-Kürzel. Krishna Tateneni Yves Arrouye Deutsche Übersetzung: Stefan Winter

Handbuch Groupware - Mailserver

Zeichen bei Zahlen entschlüsseln

Memeo Instant Backup Kurzleitfaden. Schritt 1: Richten Sie Ihr kostenloses Memeo-Konto ein

How-to: Webserver NAT. Securepoint Security System Version 2007nx

Berechtigungen im Kalender Anleitung für die Rechtevergabe im Outlook Kalender FHNW, Services, ICT

Konfiguration von Exchange 2000 zum versenden und empfangen von Mails & Lösung des SEND after POP Problems

Fernzugriff auf Kundensysteme. Bedienungsanleitung für Kunden

Er musste so eingerichtet werden, dass das D-Laufwerk auf das E-Laufwerk gespiegelt

Gefahren aus dem Internet 1 Grundwissen April 2010

[Netzwerke unter Windows] Grundlagen. M. Polat

Web Interface für Anwender

Einrichten eines Microsoft Exchange-Account auf einem Android-System

STORES2. Operation Manual Version Warenretoure mit Zustimmung des Headquarter

Autorisierung. Sicherheit und Zugriffskontrolle & Erstellen einer Berechtigungskomponente

Cookies. Krishna Tateneni Jost Schenck Übersetzer: Jürgen Nagel

16/24 Port Desktop & Rack-mountable Gigabit Ethernet Switch

.procmailrc HOWTO. zur Mailfilterung und Verteilung. Stand:

1. Der Router ist nicht erreichbar Lösungsansatz: IP Adresse des Routers überprüfen ( entweder irgendwo auf dem Gerät aufgeklebt oder im Handbuch )

Professionelle Seminare im Bereich MS-Office

2 Die Terminaldienste Prüfungsanforderungen von Microsoft: Lernziele:

Wir bringen Ihre USB Geräte ins Netz Ohne Wenn und Aber!

MetaQuotes Empfehlungen zum Gebrauch von

Windows Server 2012 RC2 konfigurieren

HANDBUCH PHOENIX II - DOKUMENTENVERWALTUNG

Mobile Anwendungen Google Cloud Messaging

Leichte-Sprache-Bilder

Apple Mail: SSL - Einstellung überprüfen

Folgende Einstellungen sind notwendig, damit die Kommunikation zwischen Server und Client funktioniert:

DWA-140: Betrieb unter Mac OS X Über dieses Dokument. Vorbereitungen. Laden der Treiber aus dem Internet - 1 -

FrontDoor/Monitor mehr sehen von FrontDoor

Binärdarstellung von Fliesskommazahlen

Ist Excel das richtige Tool für FMEA? Steve Murphy, Marc Schaeffers

Abamsoft Finos im Zusammenspiel mit shop to date von DATA BECKER

Übung 2: Multiplexverfahren (2)

AGROPLUS Buchhaltung. Daten-Server und Sicherheitskopie. Version vom b

Übersicht. Was ist FTP? Übertragungsmodi. Sicherheit. Öffentliche FTP-Server. FTP-Software

Datenbank-Verschlüsselung mit DbDefence und Webanwendungen.

Der einfache Weg zum CFX-Demokonto

Leitfaden zur Nutzung von binder CryptShare

Netzwerkeinstellungen unter Mac OS X

Kleines Handbuch zur Fotogalerie der Pixel AG

Adressen der BA Leipzig

Transkript:

Seminar Rechnernetze Sommersemester 99 Gigabit Ethernet Marijan Gjoreski

Inhaltsverzeichnis 0.Einleitung 1.Twisted-Pair-Kabel 1.1 10-Base-T 1.2 100Base-T 1.3 1000Base-T 2. CSMA/CD 3. Die CSMA/CD Erweiterung um eine höhere slot time zu handhaben 3.1. Carrier Extension 3.2. frame bursting 4. Die Modellierung von gigabit Ethernet 4.1. Die Performance Ergebnisse 4.2. Der Durchschnitts Durchfluß 4.3. Capture und burstines von access latency 4.4. Der Effekt von Aufschieben und Kollisionen 5. Schlußbemerkungen 2

Frame Bursting eine Technik CSMA/CD auf gigabit Geschwindigkeit auszulegen Einleitung Die Entwicklung von Gigabit Ethernet begann in den späten 1995 und wurde im Juni 1996 bewilligt. Seit dieser Zeit ist die Arbeit zur Entwicklung eines gigabit Ethernet Standart schnell vorangekommen. Das November 1996 Treffen wurde als deadline für den Vortrag neuer technischen Vorschläge festgelegt, so das einige von ihnen ausgewählt werden konnten um aus ihnen den initialen Basis Standart zu wählen. Draft D1 war zum Januar 1997 fertiggestellt, im März 1997 wurde Draft D2 überarbeitet bis Draft 2.1 im Mai 1997 überarbeitet wurde. Draft D3 sollte zur finalen task,vor dem formale Stimm Prozeß, zum Treffen in Juli 1997 fertig sein. Zuerst mit der Wahl von Mitgliedern der 802.4 Ethernet Arbeitsgruppe und dann bei einer größeren Sponsor Wahl organisiert von dem 802 LAN- WAN (local/metropolitian area network) Standart Komitee. Das soll zu einem genehmigten Standart in den frühen 1998 führen. Gigabit Ethernet unterstützt voll-duplex point-to-point Verbindungen (welches direkt von einem host, switch, bridge, oder router auf einem andern läuft) ebenfalls wie shared collisions domains ( mit einer sternförmiger halb-dublex leitung welche zwischen einem host und einem single repeater lauft). Anfangs werden Glasfaserkabel Ein-bzw. Mehradrig und short-haul Kupfer (150Ω abgeschirmtes Kabel) Verbindungen unterstützt. Später ist eine low-cost Übertragungsschema bekannt als 1000BASE-T geplant, welches gigabit Geschwindigkeiten auf Kategorie 5 Unbeschirmtes Kabel unterstützt, welches weitgehend in Kommerziellen Gebäuden genutzt wird und somit keine neue Verkabelung für den gigabit Standart benötigt. Ein bedeutendes Ziel für gigabit Ethernet war die Kompatibilität zu den bereits existierenden Standards für 10 Mb/s und 100 Mb/s Operationen. Es mußte einfach sein frames zwischen den Segmente auszutauschen, dabei Laufen die Segmente mit unterschiedlicher Geschwindigkeit. Das ist Nötig um den Entwurf zwischen den multi- Geschwindigkeit bridges- und switches zu vereinfachen, aus denen große Campus Netzwerke entworfen sind. Es müßte ebenfalls für den Benutzer einfach sein mit ihr Netzwerk umgehen zu können ohne viel neues lernen zu müssen. Zudem wurden keine Änderungen zu dem existierenden Ethernet frame Format gemacht bezüglich der Minimum und Maximum frame Länge oder dem Truncated Binären exponentiellen Backoff (BEB * nach diesem Abschnitt ) Algorithmus der benutzt wird um die Wiederübertragung in halb-duplex Netzwerken zu regeln, jedoch da es nötig war sehr große propagations(ausbreitungs)verzögerungen in verteilten halb-duplex Netzwerke zu behandeln, mußten einige Änderungen zu dem CSMA/CD(carrier sense multiple acces with collision detection) MAC (Medium acces controll) schichten Protokoll gemacht werden. Anfangs widmete sich gigabit Ethernet den switched voll-duplex Netzwerken für backbone Anwendungen (backbone Netze bedeutet, das es sich um Netzwerke handelt, die nur andere Lokale Netzte miteinander Verbinden, also keine Eigentlichen Rechneranschlüsse), seit das switched Netzwerk höheren total Durchfluß unterstützt als das äquivalent shared CSMA/CD System. Switched voll-duplex Verbindungen sind kostspieliger als halb-duplex Verbindungen, weil die Kern Elektronik für eine switch sehr viel komplexer ist als für einen repeater. Eine Interessante Alternative ist die unintelligente bridge Architektur welche von einigen Verkäufern als ein voll-duplex repeater vorgeschlagen wurde. In diesem Entwurf ist der host mit dem Ziel Verbunden über eine fest Fluß kontrollierten voll-duplex Leitung mit einem MAC Schicht controller und einer kleinen Menge von input buffer an jedem port. Die frames die an jedem port ankommen werden an alle anderen ports gesendet um das Problem zu vermeiden Adresse Filter auszuführen oder ein höheres internes Backplane zu Unterstützen. Zu diesem Zeitpunkt jedoch liegt der Hauptteil der Kosen für diese Apparate auf den optischen transceivers. So spielen diese Differenzen 3

wahrscheinlich keine Rolle bis zum kommen des 1000BASE-T. Eventuell werden gigabit CSMA/CD für einige Anwendungen kosteneffektiver sein als switched Ethernet welches mit einer geringer Geschwindigkeit lauft. * Trunicated Binary Exponential Backoff (BAB) Bei geringer Last hat ein host fast immer Zugang zum Netz, bei hoher Last steigt die Wahrscheinlichkeit von Kollisionen. Deshalb wurde ein Mechanismus zur lastentzerrung entworfen der BAB wählt bei geringer last eine Kleine backoff Zeit und bei hoher Last eine große backoff Zeit. D.h. bei vielen Kollisionen, gibt es eine große backoff Zeit und bei wenigen Kollisionen eine kleine backoff Zeit. Die Wiederholungszeit r berechnet sich folgendermaßen : für x (Widerholungsversuch ) 10: 0 r 2 k für 10 < x 16 : 0 r 2 10 Wenn die Übertragung dann immer noch nicht erfolgreich ist, wird der Übertragungsversuch abgebrochen. 4

Twistet-Pair-Ethernet Bei Ethernet Verkabelungen, werden oft Twistet-Pair-Kabel benutzt, darunter sind unter anderen die 10Base-T, 100Base-T und die für den gigabit Ethernet Bereich notwendigen 1000Base-T Kabel zu verstehen. 10Base-T 10Base-T ist eine relativ neue Verkabelungsform für den Ethernet Bereich, es handelt sich um eine Sternförmige Verkabelungsform anstatt der sonst üblichen Busstruktur. Diese neue Verkabelungsform ist immer noch ein CSMA/CD Zugriffsverfahren bei 10Base-T mit 10Mb/s. 10Base-T ist kompatibel mit allen anderen Ethernet Standards, das bedeutet, das man z.b. von Thin- Ethernet auf Twistet-Pair Ethernet wechseln kann. Dadurch wird gewährleistet, daß schon bereits entstandene Ethernet Strukturen integriert werden können. Viele Netwerkkarten Karten haben daher sowohl einen Thin-Ethernet wie auch einen Twistet-Pair- Ethernet Anschluß (bzw. einen Thick-Ethernet Anschuß). In der 10Base-T Kabelspezifikation, ist eine Kabeltestfunktion definiert, man bezeichnet sie als Link Status Test. Hiermit testet das System das Twistet-Pair Kabel nach Kurzschlüsse und offene Kabel. Die Entfernung zwischen Station-Concentrator oder Concentrator-Concentrator darf maximal 100m betragen. Bei einem Concentrator handelt es sich um ein Gerät mit mehren Anschlüssen für Workstations bzw. andere Concentrators, wobei jeder Anschluß die funktion eines Repeaters übernimmt. Wenn eine Station Signale an einen Concentrator sendet, werden dises an alle anderen aktiven Anschlußports weitergeleitet und verstärkt. Es können also Concentrator an anderen Concentrator angeschlossen werden, wodurch man sie kaskadieren kann. In der Regel werden die Endgeräte mit 100-Ω-Unshielded-Twistet-Pair- Kabel an die Concentrator angeschlossen, es gibt aber auch welche, die das 150-Ω-Shielded- Twistet-Pair-Kabel unterstützen. Der 10Base-T Standard wurde Entwickelt mit folgenden Ziele : 1) Es soll eine Physische Verbindung in LAN über Twistet-Pair Netze ermöglicht werden, wobei die bestehenden Telefonkabel genutzt werden können. Das trifft aber nur in Amerika zu, da dort mehr hochwertige Kabel als in Deutschland verwendet werden. Deshalb sollen in Deutschland nur spezielle Twistet-Pair Kabel verwendet werden. 2) Die Produkte für diesen Standart sollen billig und leicht zu installieren sein. 3) Der neue Standart sollte Kompatibel mit bereits vorhanden Ethernet Implementierungen sein und sie müssen sich problemlos eingliedern lassen. 4) Die Kompatibilität aller 802.3 Standards muß auf Twistet-Pair Verkabelungen gewährleistet sein. 10Base-T entspricht den 802.3 Standard, doch durch die neue Technik müssen einige Änderungen hinzugefügt werden. 1) 10Base-T ist einen Sternförmige Verkabelung mit einer Segmentlänge von bis zu 100m und einem implementierten Link Status Test. 2) Die Repeater müssen Netzwerksegmente abtrennen können, falls es dort zu einer Störung kommt. Jeder Anschuß port wird separat verstärkt, das bedeutet, daß bei einer Störung hinter diesem Anschluß port dieser geschlossen wird, ohne die restlichen ports zu beinflussen. 3) Der größte Teil Des Standarts befasst sich mit der Festlegung für die Verbindug von Twistet-Pair Kabeln. Es wird die Funktionalität einer 10Base-TMAU(Media Access Unit) festgelegt. Eine MAU ist für den korrekten Anschluß und die Verbindung zum Netzwerk 5

zuständig. Sie kontrolliert die Verbindung über dem Kabel zwischen den Concentrator port und den nodes (PC, Drucker,...). MAU (Media Access Unit) Die MAU wird in zwei Bereiche unterteilt. 1) Das Physical Medium Attachment (PMA) 2) Das Medium Depentend interface (MDI) Das PMA enthält die Schaltungstechnik, das MDI ist die mechanische und elektrische Schnittstelle zwischen Kabel und der MAU. Alle Implementierungen auf der MDI Ebene müssen kompatibel sein, um solche Netze bzw. Komponenten von Drittherstellern Einsetzen zu können. Die MAU stellt bestimmte Dienste bereit, darunter fällt auch der Transport von Informationen zur physikalischen Signalebene des Eingabegerätes. Die Verbindung wird durch eine AUI (Attachment Unit Interface) hergestellt. Dabei wird zwischen der MAU und dem Eingabegerät bzw. dem Concentrator nach dem 802.3 Standard vorgegangen. Die MAU kann entweder schon im Eingabegerät, im Concentrator oder als externes Gerät implementiert sein. Bei einer externen MAU wird eine physische AUI benutzt, die das MAU mit dem AUI port der Netzwerkkarte verbindet. Diese physische AUI wird z.b. durch ein Kabel realisiert. Hinter der MAU exestiert dann eine logische Verbindung. Bei einer integrierten MAU gibt es hingegen nur die logische Verbindung, siehe folgende Abbildung. Der Verbindungstest um zu kontrollieren, ob noch eine Verbindung zwischen dem Concentrator und dem Endgerät existiert wird im 10Base-T folgendermaßen durchgeführt. Der Concentrator sendet in regelmäßigen Abständen Signale an alle MAU, wenn eine MAU nicht antwortet, wird die Verbindung zu diesem Endgerät unterbrochen und eine Meldung ausgegeben, das der Test nicht erfolgreich war. Falls die MAU wieder anfängt Signale zu senden, öffnet der Concentrator wieder den port. Die Sterntopologie ist leichter zu installieren und zu überwachen, falls ein Segment ausfällt, wird nur dieses Abgeschaltet (d.h. nur dieser port des Concentrator wird abgeschaltet und nicht der ganze Repeater). Das führt zu keinen gesamten Netwerkausfall wie es bei einer Bustopologie der Fall währe. 10Base-T-Concentator müssen alle einen Auto-Partition/Reconnection-Algorithmus unterstützen. Dieser Algorithmus erlaubt dem Concentrator das er automatisch einen port abschaltet, wenn es dort zu einem Fehler kommt, 6

und nach Behebung des Fehlers wieder automatisch Reaktiviert wird. Dadurch ist dann nur der defekte port und nicht der gesamte Repeater betroffen. Durch die 10Base-T Komponenten ist die Fehlerdiagnose in LAN wesentlich einfacher geworden, da gute Netzwerkkarten und Concentrator eine eigene LED für den Link State zu jeden port haben. Diese leuchtet nur wenn eine Verbindung besteht. Die folgende Grafik zeigt die Eingliederung des 10Base-T im OSI - Schichtenmodell. 100Base-T Der 100Base-T Standard unterscheidet sich bis auf die Sternförmige Verkabelung grundlegend vom 10Base-T Standard, aufgrund der höheren Geschwindigkeit (100Mb/s statt 10Mb/s). Beim 100Base-T Standart dürfen maximal nur 2 Repeater zwischen Sendestation und Empfangsstation auftreten. Die maximale Länge zwischen Sender und Empfänger beträgt 205m mit UTP (Unschielded Twistet Pair) Kabel und 400m mit Glasfaserkabel. Das ist Ausreichend, da strukturierte Verkabelungen in der Regel LWL - Verbindungen (LichtWellenLeiter) zwischen backbone und Etagen Verteilern benutzt werden. Die wichtigsten Restriktionen für 100Base-T sind : 1) Die maximale Länge zwischen Endgerät und hub ist 100m. 2) Die MAC-MAC Verbindung (d.h. von switch zu switch oder von Endgerät zu switch) darf unter Einsatz von halb-duplex 100Base-FX maximal 400m Lang sein. 3) In einer Single-Repeater-Topologie (Ein stackable hub pro Verteilerebene und eine LWL zum collapsed Backbone * siehe unten )ist eine 189m LWL und eine 100m UTP Leitung vom hub zum Endgerät erlaubt. 7

4) In der 2 Repeater-Topologie darf die Kabellänge (UTP) zwischen Station-Repeater- Repeater-Station maximal 205m lang sein. 5) Mit einer Vollduplexverbindung mit 100Base-FX können zwei Koppelelemente im Netzwerk (das sind switch, bridge oder router) über 2km miteinander über LWL verbunden weden. Folgende Kabeltypen wurden oben verwendet: 1) 100Base-TX für 2 paarige Verkabelung UTP und STP(shieldet-Twistet-Pair). 2) 100Base-T4 für 4 paarige Verkabelung UTP. 3) 100Base-FX für eine Verkabelung mit LWL. Collapsed Backbone unter Collapsed backbone versteht man eine Sternentopologie im backbone Bereich. Dabei wird jedes Netzwerksegment (in einem Gebäude ist das in der Regel jede Etage) über eine Glasfaserstrecke Eingebunden. An jedem Ende der Leitungen ist eine Hub-System, das anschlüsse für die jeweiligen Netze hat in jedem Segment (bzw. Etage). 1000Base-T 1000Base-T ist ein 4 paar Category 5 UTP Kabel, d.h. es eine Übertragung bis zu 100MHz ist Möglich (Category 4 unterstützt bis zu 20MHz.). 1000Base-T unterstützt halb-duplex und voll-duplex Übertragung. Die Topologie Regeln entsprechen denen vom 100Base-T Standart. Die Idee hinter 1000Base-T ist die, das es einfach ist die Gebäude die schon 100Base-TX unterstützen auf 1000Base-T umzurüsten. In Amerika sind die Bürogebäude mit Kabeln die dem 1000Base-T Standart entsprechen schon ausgerüstet, es sind nämlich die schon vorhandenen Telefonleitungen in den Gebäuden. Bei 1000Base-T geschieht die Übertragung über 4 bidirektionale Kabel mit einer simultanen Übertragungsrate von 250Mb/s auf jedem Kabel. Bei diesem Standart wurde die 4B5B codierung verworfen, wie sie z.b. noch beim 100-Base-TX Standart benutzt wurde und durch einen PAM-5 Code ersetzt, um die Information mit jedem gesendeten Symbol zu erhöhen. Der 1000Base-T Standart ist moch nicht fertig, das Ergebnis wird erst gegen Mitte 1999 vorliegen, solange benutzt man Glasfaserverbindungen um 1Gb/s Übertragung zu realisieren. 8

CSMA/CD eine kurze Beschreibung CSMA/CD ist ein Verteilter Algorithmus der Eine Methode Definiert die es Erlaubt mehrere verschiedene hosts ihre Übertragung auf einem shared Netzwerk zu serilisieren. Bevor ein frame gesendet wird, schaut jede Station mit Carrier Sensing ob das Netzwerk frei ist und wenn nicht, wird der eigenen Versuch verschoben solange bis zum ende des derzeitigen Übertragung. Wenn Die Übertragung begonnen hat, schaut der host mit collision detection auf die Leitung um zu sehen ob jemand anders Versucht hat zu Senden, um dann die Sendung einzustellen und es nach einer geeigneten Zeit erneut zu versuchen. Die slot time ist ein kritischer Parameter für das CSMA/CD Protokoll. Sie bildet sich aus dem worst-case roundtrip delay in einem Netzwerk, ausgedrückt in bit-transmission-time (BT): Die slot time wird ebenfalls als die Verzögerungs Zeit in dem backoff Algorithmus benutzt und auch als die Minimum frame Länge. Wenn zwei kollidierte host unterschiedliche backoff Verzögerungen gewählt haben, werden sie in Abhängigkeit von anderen Aktivitäten nicht mehr kollidieren, abhängig von dem Kollision timing und ihrer relativen Position im Netzwerk. Die Abhängigkeit zwischen der slot time und dem Minimum der frame Länge ist also sehr Wichtig für das korrekte Funktionieren eines Halb-duplex Ethernet System. Obwohl Ethernet nur ein best efford Service ohne Garantie der Lieferung biete, erwarten die Benutzer unter bestimmten Umständen eine sehr kleine frame Verlustrate und es werden keine Duplikate von frames gesendet. Hervorgehend daraus das die Dauer für jede Erfolgreiche frame Übertragung wenigstens eine slot time ist, ist es wichtig beide dieser Erfordernisse zu vollbringen. Der Sender kann die Abwesenheit einer Kollision während einer Übertragung als ein implizites acknoledgment Ansehen, bis der Sender eine Kollision entdeckt, falls dort eine Kollision in der ersten slot time auftrat. Während der Empfänger diese Forderungen Nutzen kann um Einkommende Kollisions Fragmente zu filtern basierend auf der Länge des treshholds. Anderseits, würden zwei frames die beim Empfänger kollidieren nicht beim Sender kollidieren, wenn kürzere frame Übertragungen erlaubt währen und auch umgekehrt. Deswegen könnten einige frames verloren gehen, da der Sender nicht weiß das der Empfänger eine Kollision hatte oder einige frames werden Dupliziert, falls der Empfänger ein frame akzeptiert das vom Sender später wieder neu geschickt wird, da der Sender dachte es gäbe eine Kollision. Da die Signal Ausbreitungsgeschwindigkeit in einer Verbindung von der Physik abhängt, muß jede Erhöhung in der Daten Rate im CSMA/CD Netzwerk mit einer Erniedrigung der maximale spannenden Distanz in einem Netzwerk oder mit der Erhöhung der slot time Kompensiert werden. Als der IEEE 802.3u fast Ethernet Standart von 10Mb/s auf 100Mb/s stieg, wurde die slot time bei 512 BT unverändert gelassen, aber die maximale spannende Netzwerk Distanz wurde dementsprechend Verkürzt. Das Resultat den Netzwerk Durchmesser auf 205m zu reduzieren war akzeptabler Kompromiß, wegen dem Trend der Erhöhung der Anzahl der Netzwerk Segmente. Die heutigen generellen Kabel Standards sagen aus das ein Büro zu der nächsten Vernetzung eine Distanz von weniger als 100m haben sollte. Offenbar ist es später nicht Möglich eine Eindrucksvolle Distanz Verringerung zu kompensieren mit der Erhöhung der Geschwindigkeit von 100Mb/s auf 1000Mb/s. Darum hat die IEEE 302.3z Task force bestimmt die slot time für ein 1000Mb/s Netzwerk von 512 bits auf 512 bytes zu erhöhen (das sind 4096 BT). 9

CSMA/CD Erweiterung um eine höhere slot time zu handhaben Carrier Extension Das definieren eines größeren Wert für die slot time in halb-duplex 1000Mb/s Operation war der erste Schritt in der Entwicklung einer brauchbaren Version des CSMA/CD für gigabit Ethernet. Die Erhöhung der slot time ist eine sehr einfache Änderung in dem backoff Algorithmus, ohne ungewollten Nebeneffekte. Das Resultat proportionaler Erhöhungen der retransmition (Wiederholung von Übertragungen)Verzögerungen erlaubt den anderen host nur mehr frames zwischen den Versuchen zu Übertragen und reduziert die Wahrscheinlichkeit von mehr Kollisionen. Irgend etwas muß gemacht werden um die Übertragungszeit für ein Minimal langes frame zurück in Übereinstimmung mit der slot time zu bringen. Dabeisollte die Kompatibilität des frame formats bei allen Operationen erhalten bleiben, die einfache Erhöhung der Minimum frame Länge für 1000Mb/s Operationen ist keine akzeptable Entscheidung. Zuerst wurden bridges dazu gezwungen jedes kurze frame zu formatieren bevor es von einer geringeren Geschwindigkeit Leitung in eine gigabit Leitung weitergeleitet wurde. Danach mußten Server mit gigabit Ethernet Anschlüsse, jedes ihrer short acknowlogement frames acht mal länger als nötig machen, das belastet unnützer weise die low-speed client Netzwerke. Währenddessen hat die IEEE 802.3z task force eine Technik genannt carrier extension übernommen um die minimum frame Länge von der slot time für halb-duplex 1000Mb/s Operationen zu entkuppeln. Unter carrier extension bleibt die minimale frame Länge bei 512bits (So wie bei 10Mb/s und 100Mb/s Netzwerken ), aber die Minimum Länge für jede geglückte Übertragung ist in dem folgenden Weg auf 512Byts gestigen. Wenn der Sender das Ende des Rausgehenden frame erreicht ohne eine Kollision zu entdecken, schaut er auf die frame Länge. Wenn die Länge wenigstens eine slot time lang war, sendet der Transmitter ein transmition done Status Code zu seinem client. Wenn die Länge kürzer als eine slot time ist, hält der Transmitter den Status Code zurück und fährt damit fort spezielle Sequenzen von extended carrier Symbole zu übertragen bis das Ende der slot time erreicht ist und sendet erst dann den transmition done Status. Die carrier extention kommt nach der checksum die das Ende des frame Markiert. Es ist kein Teil des frames selber, und es wird lokal mit jedem Kollision Bereich gehandhabt. Sollte der Transmitter zu irgend einer Zeit eine Kollision während dieses Prozesses entdecken, unterbricht er das rausgehende frames (oder das extended carrier) und sendet ein 32-bit blockierendes Signal. Die Kollision während der extension bringt dem Empfänger dazu das frame nicht anzunehmen. Insbesondere wurde mit große Vorsicht darauf geachtet, die Möglichkeit des duplizieren von sehr kurzen frame zu vermeiden falls die Kollision spät in der extension passiert. Die sorge lag darauf, daß der Empfänger das frame vor der Kollision bekommt, es somit den checksumm Test besteht und wenn die Kollision spät genug eintritt, das anhängen des blockierende Signals das Fragment so verlängert, das es den slot time Test besteht. Carrier extension beeinflußt auch die Handlungen des Empfängers. Normalerweise sucht der bit reciver Prozeß bei jedem host den eintreffenden bitstream nach dem preamble und start-frame delimiter der den Start des frames markiert. Darauf startet er das zählen eintreffenden bits und fügt die bits die keine extensin carrier sind in einen Empfangs Puffer bis zum ende des frames ein. Wenn zu diesem Zeitpunkt die Anzahl der eintreffenden bits geringer als die slot time sind, wird das eintreffende frame als Kollision Fragment erkannt, sogar wenn der Empfangspuffer ein gültiges frame Enthält, sonst wird der Empfangspuffer zur MAC Schicht übermittelt zur checksumm und Adress Kontrolle. Carrier Ereignisse die kürzer als die slot time sind geben an, daß der Sender denkt es gab eine Kollision und sich dazu entscheidet die Übertragung zu wiederholen. So führt sogar eine Kollision die erst in der Erweiterung auftrat und das frame nicht verändert hat dazu die Sendung nicht anzunehmen um Duplikate zu vermeiden. Auf der einen Seite ist carrier extension eine geringfügige Änderung zum 10

existierenden CSMA/CD Protokoll und es löst das Problem der Erhöhung der slot time ohne Veränderung der Minimum frame Länge oder anderer Eigenschaften. Doch carrier extension erhöht auch die Übertragungszeit für kurze frames, welches den Vorteil von erhöhten Daten Raten verringert. Im worst-case kommt es beim Erweitern eines 100Mb/s fast Ethernet zu einem 1000Mb/s gigabit Ethernet für hosts die nur minimum frame Längen von 64-byte senden können, um eine 10 Fache Geschwindigkeitssteigerung bei gleichzeitiger Erhöhung der bits pro frame um den Faktor acht zu einer Erhöhung des Datendurchsatzes durch das Netzwerk um (nur) 25%. Natürlich ist der Netzwerkverkehr von solchen Minimal kurzen frames selten, so das der overhead bei carrier extension im Allgemeinen sehr viel kleiner ist. Dennoch ist es Potential für signifikante Performance Erhöhung wenn man einen Weg findet piplining zu dem frame trancmission proccess in CSMA/CD einzufügen. FRAME BURSTING Piplining ist weitverbreitet in automatic repeat request (ARQ) Algorithmen, in den Daten Verbindungs Schichten. Und auf den ersten Blick scheint sich der Basis go-back-n- Algorithmus zu eignen. Diese Eigenschaft war ein Teil von mehreren Vorschlägen verschieden Autoren, nur die am meisten Basis orientierte Block orientierte Variante bekannt als packet-packing erhielt Achtung von der gigabit Ethernet Gruppe. Ein kontinuierlicher ARQ, kontrolliert von einem sliding window kommt überhaupt nicht in frage, wenn frames kürzer werden können als die slot time ist eine normale frame Übertragung im shared Ethernet zu Komplex. Die Idee in packet packing war die Effizienz zu erhöhen, indem dem Sender erlaubt wird verschiedene frames in einen Block zusammenzufügen, welche carrier extension anwenden falls sie zu kurz sind um die slot time auszufüllen. Packet packing kann alles an Effizienz durch carrier extension verlorene wiedergutmachen. Unglücklicherweise erfordert dieser Vorschlag Substantielle Änderungen an der Schnittstelle zwischen dem CSMA/CD MAC Schicht und den clienten, da die Übertragungseinheit eine Sequenz von frames anstatt ein einziges frame ist. Die MAC Schicht Sender ist dann nicht mehr in der Lage seien clienten für jedes frame einen status code zu senden bevor er die nächste Anfrage bearbeitet. Gleichzeitig muß der MAC Schicht Empfänger garantieren die eintreffenden frames in einen gegeben Block vor seinem Clienten zurückzubehalten bis zum ende der slot time, um Duplikaten von frames entgegenzuwirken die der Sender im falle einer Kollision schicken würde. Außerdem wurde die Möglichkeit das der Sender von Verschiedene frames ein backup anlegt und diese wieder verschickt das Management Interface beeinflussen, so daß verschiedene Aktive Zähler nicht nach jeder frame Übertragung oder Empfangsaktivität upgedatet werden können. Im Endeffekt wurde die Implementation dieses Packets für zu Komplex gehalten und wurde nicht in dem 802.3z Standart implementiert. Nach der Verwerfung des packet packing Vorschlag wurde nach weiteren Möglichkeiten gesucht um piplined frame Übertragung in CSMA/CD zu implementieren, ohne die MAC Schicht singleframe-at-a-time Service der Schnittstelle zu Ändern. Die Resultierende Methode war frame bursting welche Methoden von Verschiedenen Quellen beinhaltet. Wie in packet packing, kann der Sender verschiedene frames in einem einzigen burst senden, die von extended carriern separiert werden. Die maximum burst Länge basiert auf der Maximalen frame Länge statt an der slot time. Zusätzlich ist die Übertragungszeit für das erste frame in jeden burst eine vollen slot time lang, falls nötig bestehenden aus zusätzlich extended carrier, wie es schon in HSSG (High speed study group) CSMA/CD benutzt wurde. Diese Eigenschaft stellt sicher, das Kollisionen nur den ersten frame von jeden burst betreffen können, so können Sender und Empfänger ihren one-frame-at-a-time Service Interface beibehalten. Frame Bursting kann implementiert werden indem man einige statischen Variablen zu dem MAC Transmitter hinzufügt. Dadurch wird ein Hintertörschen kreiert, das erlaubt das einige 11

aufrufe die die normalen CSMA/CD Regeln umgehen können, wenn dieses frame an einen bereits vorhanden burst angehängt werden kann. Frame bursting ist nach den folgenden Regeln Implementiert. 1. Bevor versucht wird ein frame zu senden checkt der Transmitter, ob der burst timer läuft. Wenn nicht, muß der Transmitter die normalen Regeln des CSMA/CD befolgen (aufschieben von anderen Aktivitäten, rückendecken nach Kollisionen und so weiter) außer das bei jedem Start von dem Versuch ein flag gesetzt wird, das den ersten frame des burst andeutet und den burst timer startet. Andernfalls benutz es das Hintertörschen und wickelt die Übertragung sofort ab. 2. Falls der Versuch ein Erfolg war, schaut der Transmitter auf das erste frame flag. Falls das flag gesetzt ist, sendet der Transmitter extendet carrier, bis der burst timer eine slot time erreicht. Falls nötig wird dann der first frame flag gelöscht. Falls dort immer noch keine Kollision ist, sendet der Transmitter den transmitok status Code an den Client, der aussagt das dieser frame erfolgreich geliefert wurde, und geht über zu Schritt 3. Andererseits müßte eine Kollision stattgefunden haben, dann löscht der Transmitter das first frame flag und den burst timer und geht zurück zu Schritt 1 um einen neuen Versuch nach den eigentlichen Regeln des CSMA/CD. 3. An diesem Punkt hat der Transmitter erfolgreich eine Übertragung beendet und darum hat er noch Kontrolle über den Kanal. Wenn der burst timer noch nicht verstrichen ist, sendet er noch andere 96bits von extended carrier (welche ein interframe Platz in dem burst ist) und geht über zu Schritt 4. Sonst ist der burst zu ende und nichts mehr Passiert, bis die nächste Anfrage ankommt. 4. Zu diesem Zeitpunkt hat die letze Anfrage an dem Transmitter burst erhalten für den 96bit Interframe Platz um der MAC Client Schicht Zeit zu geben, eine andere Anfrage zu starten. Falls ein anderes frame zur Verfügung steht, beginnt seine Übertragung jetzt. Sonst muß der host die burst time zuteilung einbüßen. Dann wird der burst timer gelöscht, und nichts geschieht bis zur nächsten Anfrage. Ein Beispiel von der Sequenz von Gegenständen in einem frame burst in Fig.1 Gezeigt. Fig.1 Sogar wenn das Erste frame in einem burst kurz genug ist um carrier extension zu erfordern, wird da frame gefolgt von einem separaten interframing Füll Feld welches an der slot time Grenze beginnt. Das wird gemacht um dem Empfänger Zeit zu geben, um ein frame zu bearbeiten bevor er der Ankunft des nächsten gegenübersteht. In Figure 1 ist ebenfalls zu 12

sehen, das daß letzte frame eines burst vor dem ende des burst Timers starten muß, wobei die Übertragung aber den burst timer überschreiten kann. Unter frame bursting ist die Entscheidung einem anderen frame in einem bereits laufenden burst von zwei Tests abgängig. Erstens, die Übertragung des nächsten frames muß erfolgen, bevor der burst timer ein feststehendes Zeitpunkt erreicht hat. Zweitens muß der frame zur Übertragung bereit sein, bevor die 96bit interfram Füll Periode zu ende ist. In Draft D2, war das burst limit auf 12000BT gesetzt, welches unter der Maximum frame Länge liegt um Fairneß zu gewährleisten. Egal was für eine Mixtur von frame Längen es hat, kann ein host seinen burst ausbreiten, bis er mindestens eine Maximum Länge frame übertragen hat und für mehr als die Maximum frame Länge im worst-case. Frühere Untersuchungen haben gezeigt, das daß erhöhen des frame burst limit zu signifikanten performance Einbüßungen führt. So wurde in dem Mai 1997 Treffen das frame burst limit auf 8kB (=65536BT) erhöht. Diese fünffache Erhöhung des burst limits diente dazu das Gleichgewicht zwischen, den Kosten (gemessen in der slot time), und den damit verbundenen Belohnung (gemessen in der Anzahl von Daten transmitter), die in 10Mb/s und 100Mb/s Systemen vorhanden waren. In den Stimulationen wurden Resultate für beide Möglichkeiten gezeigt. Um frame bursting zum MAC Schicht Empfänger in CSMA/CD einzubauen müssen einige Veränderungen gemacht werden. 1. Um das erste (oder auch einzige) frame in einem neuen burst zu empfangen, muß der Empfänger die normalen Regeln des CSMA/CD befolgen, über das Eingehende frame gehen bis er einen Gültigen preamble und start-frame delimmer findet. Zu diesem Zeitpunkt setz der Empfänger das extending flag um zu zeigen das er nach dem ersten frame in dem burst sucht, welches die einzige Subjekt zur carrier extension Regel ist. Danach startet er das Zählen der bits von dem eintreffenden frame (und Sammelt die bits an die nicht zum carrier extension gehören, um das eintreffende frame zu formen), bis er das ende findet. Das wird Angezeigt durch den end-of-carrier oder dem auftreten des first extension bit nachdem das extending flag gelöscht wurde. Dan geht es zu Schritt 2. Währen der Empfänger die Anzahl der eintreffende bits mit der slot time nach jedem bit vergleicht und den extending flag löscht sobald sie gleich sind. 2. Zu diesem Zeitpunkt hat der Empfänger das Eintreffende frame gefunden, zu dem er die Kollision Filter Regel anwenden muß. Zuerst checkt er ob das extending flag gesetzt ist, und wenn erkennt er das frame als Kollision Fragment an (Diese flag sollte während des Empfangs des ersten frame eines burst gelöscht werden, welcher sich zu einer slot time ausbreitet, es sei den es ist ein Kollision Fragment, und danach wird das flag bis zum Ende des burst nicht mehr gesetzt). Als nächstes wendet der Empfänger die normale Kollision Filter Regeln an, um das frame Abzuweisen, falls seine Länge geringer als die Ethernet Minimum frame Länge oder es eine ungültige checksum hat. Zum Schluß schickt es das frame zum Client, falls es nicht verworfen wurde und geht über zu Schritt 3. 3. Falls das frame wegen dem end-of-carrier endet (z.b. hat der Sender keinen weiteren Versuch zu Senden gemacht), oder die interframe Periode von einem end-of-carrier gefolgt wird, infolge von einer anderen preamble und einem start-frame delimmer (z.b. der Sender hat den Rest des burst verworfen), dann ist der burst zu ende und der Empfänger geht über zu Schritt 1 und wartet auf den nächsten burst. Andernfalls fügt der Empfänger die eintreffenden bits erneut zusammen, um das nächste eintreffende frame zu formen. Bis es bei einem anderem end-of-carrier oder first-extension bit beendet wird und kehrt dann, mit extendig off zu Schritt 2 zurück. 13

Modellierung von gigabit Ethernet Ein Simulation Model wurde in OPNET entwickelt um die Effekte von frame bursting in gigabit Ethernet zu studieren. OPNET ist eine hierarchisch Objekt orientierte Protokoll Simulation die von MIL3 Inc. Entwickelt wurde. Das Basis Model in OPNET wurde erweitert um die Erweiterungen in CSMA/CD in gigabit Ethernet aufzuzeigen, nämlich carrier extension, burst timer und frame bursting. Eine Maximum Topology des gigabit Ethernet wurde angenommen. Details wie collision detection, backoff, deference mechanism, Kabel und hub Verzögerungen wurden ebenfalls modelliert. Jeder Daten Punkt in dem Model. In den figures wurde Erworben indem das Programm 30s der Simulierten zeit gelaufen ist. Abhängig von der Netzwerklast, irgendwo zwischen eins bis sechs Millionen frames wurden in einem einzigen Lauf übermittelt. Es wurde für jeden host ein einfacher "open" frame generating Prozeß entwickelt, mit dem Hintergedanken, daß gigabit Ethernet von dem Standpunkt der Initiierung als backbone Technologie. Der Lastgenerator hängt von dem jeweilige Stand des Netzwerks ab (insbesondere ist da keinen Flußkontrolle die die Ankunft bei einem host regelt, wenn das Netzwerk schon beschäftigt ist), und da ist keine obere Schranke über die Größe der Übertragungsschlange zu jedem host. Ein closed frame generaiting Prozeß welcher die Ankunftsrate der Daten zu den host reduziert, ebenfalls die Anzahl von numerierten Schlangen frames erhöht, wurde mehr die Applikationen Vertreten die auf acknowledgment basierten Flussschemen basieren, wie das TCP/IP (Transmition Control Protokoll/Internet Protokoll).Wie auch immer wissen wir nicht, wie Applikationen für shared gigabit Ethernet aussehen würden, und auf jeden Fall kann das Netzwerk bestimmt eine große Anzahl von solchen Fluß gesteuerten Sitzungen/Verhandlungen unterstützen, welche dazu neigen die Unterschiede zwischen den offenen und geschlossenen Modellen zu reduzieren. Auf der anderen Seite ist der Netzwerk Verkehr gefunden worden um zu Zeigen, daß long-range Abhängigkeiten die Anünfte mehr zum zerbersten bringt als die einfachen poisson Modelle die in Experimenten einbezogen wurden, welche dazu neigten den Vorteil von frame bursting unter geringer Last zu erhöhen. 14

Performance Ausgehend von dem traffic-mix, unterstützt frame bursting eine signifikante Reduktion des overheads bei Reduzierung der Anzahl der Zeiten in denen carrier extension unterstützt werden muß. Wenn alle frames zum Schluß eine frame Länge von einer slot time haben, hat offenbar keine dieser Modifikationen einen Effekt. Das entgegengesetzte extrem mit kurzen frame können drastische unterschiede in den worst-case effizienten auftreten. Damit wir das sehen, fassen wir folgendes zusammen. 1. Einfache 100Mb/s CSMA/CD (512-bit slot time und kein carrier extension). 2. Baseline 1000Mb/s CSMA/CD (4096-bit slot time mit carrier extension). 3. 1000Mb/s CSMACD mit 1500-frame bursting (4096-bit slot time, 12000BT burst limit und carrier extension). 4. 1000Mb/s CSMACD mit 8000-frame bursting (4096-bit slot time, 65536BT burst limit und carrier extension). In jedem Fall nehmen wir an, das eine einzelne beschäftigte Quelle versucht eine große Anzahl von frames über ein sonst ruhiges Netzwerk zu schicken. Diese Situation ist realistisch. Wegen der Dynamik des CSMA/CD unter schweren Last, führt das zu einem capture Effekt, wo ein host eine große Anzahl nach einander folgenden frames senden kann wobei er die restlichen host daran hindert etwas zu senden. Im Allgemeinen, kann die Effizienz für jede Methode einfach berechnet werden, indem man die rate der Anzahl von bits findet die pro Zyklus gesendet werden und die Zeit für einen Zyklus (multiplizieren). Zum Beispiel ist im einfachen 100Mb/s CSMA/CD mit einer frame Länge von P bits, dort werden P bits in einem Zyklus gesendet. Und die Dauer eines Zyklus ist (96+64+P)BT, wo wir die Interframe Füllungen, preamble, und start-time-delimer addiert haben. Dieses Verhältnis ist eine steigende Funktion der frame Länge, P, sein Minimum kommt bei der Minimum frame Länge vor, P=512 und die normalisierte Effizienz ist 76%. Wenn wir nun die Geschwindigkeit auf 1000Mb/s erhöhen, und carrier extension hinzufügen, ist die einzige Änderung P durch max{p,4096} zu ersetzen, um den dominator(maxtherm) zu belasten um die Zeit von irgendwelchen extension bits, welche die worst-case Effizienz zu nur 12% normalisieren. Die worst-case normalisierungs Efizienz bereschnung für 1000Mb/s CSMA/CD mit frame bursting ist ein wenig komplizierter, weil der host mehrere frames in einem Zyklus übertragen kann und wir müssen die gesamte Anzahl von Daten die gesendet wurden und die gesammte Zeit die benötigt wurde für unsere Rechnung kennen. Zuerst ist es einfach zu sehen das das erste frame eine Länge von P hat, es beträgt P bits bis zu Zähler (numerator) und max{p,4096}bits bis zum dominator(maxtherm), mit P=512 im worst-case. Nach dem ist der Rest der Zeit bis der burst timer verstrichen ist mit zusätzlichen frame Übertragungen gefüllt, die die selbe Anzahl von overhads wie das einfache CSMA/CD haben. Die Effizienz ist schlecht mit Minimum lange frames, die worst-case normalisierte Effizienz tritt ein, wenn wir einen burst senden, der ganz aus Minimum langen frames besteht. Insbesondere wenn das burst limit 12000BT beträgt, läuft der timer nicht ab bis wir (12000-4096)/672 =12 extra frames gestartet haben. Das ergibt eine worst-case Effizienz von (13*512)/(4096+12*672) = 55%. Das ist mehr als 70% der worst-case normalisierten Effizienz für das Einfache CSMA/CD, und 4.5 mal höher als der basline Vorschlag für 1000Mb/s CSMA/CD mit carrier extension. Wenn wir das burst limit auf 65536BT erhöhen, können wir 96 Minimum große frames in einem burst senden mit einer worst-case Effizienz von (93*512)/(4096+92*672) = 72%, was nur 95% von dem worst-case normalisierten Effizienz von Einfachem CSMA/CD ist. 15

Der Arbeitsgruppe Durchschnitts Throughput Es wurde eine Serie von Experimenten durchgeführt, um Unterschiede in der Effizienz zu ergründen. Die Experimente wuren mit dem event-driven Simulationsmodell durchgeführt. Jedes Modell lief mit einer einfachen empirischen traffic Model, bekannt als das workgroup averrage distribution (Workgruppe durchschnitts Verteilung), welche in Fig 2 zu sehen ist. Sie zeigt die Wahrscheinlichkeit für das vorkommen von der Länge von Daten an. Diese Daten stammen aus traffic Messergebnissen welche auf verschiedene 10Mb/s und 100Mb/s Netzwerken gemacht wurden. Bei der Benutzung dieser Workgroup Durchschnitts Verteilung um die frame Länge in der Studie zu wählen, hat der traffic in dem Experiment verschiedene frame Längen enthalten, die meisten waren sehr kurz (z.b. eine Kontroll Nachricht, oder ein paar tasten drücke), oder sehr Lang( z:b: große Daten Segmente, mit einer Spitze Verteilten Eigenschaft zu der default Internet frame Größe, multikast video, und der Maximalen Ethernet frame Größe). Gleichartige frame Größen Verteilungen, wurden auch in anderen Netzwerk Studien benutzt. Es ist Interessant zu sehen das die durchschnittliche frame Länge in der durchschnittst Verteilung der Organisation etwas unter 600 bytes liegt, aber wenn die kurzen frames durch carrier extension gestreckt werden, steigt die Durchschnitts frame Länge etwas über 750 bytes. Wie wir sehen werden, erhöht das hinzufügen von frame bursting die performance auf stark belasteten Netzwerken genug, um den 20% overhead Nachteil zu kompensieren. Das ist für alle Konstellationen unten gezeigt. Performance mit frame bursting ist besser als ohne frame bursting, sogar wenn die Netrzwerklast um 20% reduziert wird um den carrier extension overhead Nachteil zu kompensieren. Statt dessen wurde eine einfach frame Ankunft generiert und zufällig auf die hosts verteilt, und dann wurde eine Länge für jedes frame nach der workgroup frame Längen Verteilung gewählt. Es wurde erwartet, daß die performance Messung auf dieser Weise wahrscheinlich zur Überschätzung des Durchsatzes unter schwerer Last erfolgte, weil sich große schlangen an jedem host bilden konnten, wie sie zum capture Effekt gebraucht wurden. Fig.3 zeigt den 16

prozentualen Durchfluß als eine Funktion von prozentualer Last für ein 15-host Netzwerk mit der workgroup durchnittlichen traffic Modell und vier alternativen Beschreibungen. Das gleiche Experiment wurde auch mit einem 4-hosts Netzwerk geführt, das Ergebnis entspricht des Vorhergehenden. In allen Fällen haben die Durchfluß Kurven die allgemeine gleiche Form. Anfangs ist das System traffic-limited, so steigt der Durchfluß mit der Last im 45 Winkel bis die Maximum Effizienz erreicht wird, wo die Kurve horizontal weiterverläuft. Die beiden Teile von jeder Kurve bilden keinen spitzen Winkel wo sie sich treffen, weil einige frames mit Kollision Fehlern Verworfen werden. Der Winkel ist für die 1000Mb/s spitzer wegen der längeren backoff Verzögerung reduzieren sich die Kollision Raten. Mit der Durchschnitts frame Längen Verteilung, ist der performence Nachteil für das capture des baseline carrier extension Schema um größere slot times für 1000Mb/s Operationen durchzuführen nur eine 30% Erniedrigung in dem maximalen prozentualen Durchfluß (z.b. ungefähr 61% gegenüber dem 86% für das 15-host System). Ein teil von dieser Erniedrigung wird verursacht, durch den extra overhead von carrier extension und der verlorenen Bandbreite zu größeren Kollision Fragmenten. Hinzufügen eines 1.5k fram burst fürt dazu das fast die Hälfte dieses Verlustes wiederhergestellt wird, das erhöht den Durchfluß von 61% auf 72%, was sehr nahe an der 20% Reduktion im overhead liegt. Wenn das burst limit auf 8k Angehoben wird, erhöht sich der Maximale Durchfluß auf fast 80%, was 8% inerhalb des 100-Mb/s Ethernet Systems ist. 17

Durchschnitts Verzögerung Fig.4 zeigt die Durchschnitts end-to-end Verzögerung als eine Funktion der Last für ein 15- host Netzwerk mit dem Durchschnitts traffic Model. Die end-to-end Verzögerung beinhaltet Wartezeit und access latency (Zugangs Verspätung), von dem Moment zu dem ein frame an dem Sender host generiert wird, bis zu seinem vollständigen Empfang an seinem Ziel. Zu Beachten ist, das die Verzögerungskurve für das 100Mb/s fast Ethernet System höher startet aber früher nach rechts ausstreckt, weil offered load normalisiert wurde (0%-100%), während Verzögerungen in Absoluten Einheiten ausgedrückt werden (z.b. ms lieber als BT). Schon wieder zeigt das Ergebnis das die Erhöhung der slot time für 1000Mb/s Operationen einen Verlust in normalisierter performance herbeiführt. Wie auch immer es muß daran gedacht werden, das die Skala der x-achse für eine feste 1-ms end-to-end Verzögerung normalisiert wurde, der nicht normalisierte Durchfluß (in Mb/s) des 100Mb/s bit fast Ethernet System ist um das fünffache geringer als bei dem 1000Mb/s Netzwerk, anstatt zwei mal so hoch. Das Resultat mit frame bursting ist besser als ohne frame bursting, 1,5k frame bursting senkt den Durchschnitts Verzögerung um wenigstens den Faktor zwei wenn der offered load über 30% liegt und um den Faktor zehn bei 60% Last. Erhöhung des burst limit bis zu 8k führt auch zu höherer Besserung. Die Verzögerung startet gering und steigt früh wenn das Netzwerk anfängt sich zu Stauen (Aufschiebungen, Kollisionen und backoff Verzögerungen werden Allgemeiner). Wie auch immer sobald die Stauung beginnt und die schlangen anfangen sich bei jedem host zu bilden, beginnen die Verzögerungskurven zu steigen, bevor sie sich aufblähen bis sie ihre Maximale Effizienz erreicht haben. 18

Capture und Burstiness von Access Latency Die flache Stelle in der Durchfluß Verzögerungskurve wird durch die Asymmetrie des Truncated Binary Exponential Backoff Algorithmus verursacht, welcher zum capture Effekt führt. Capture führt zu Unfairheit in kurz Therm CSMA/CD Systemen, weil ein host der seine ersten Versuche unternimmt einen neuen frame zu übertragen aggressiver ist das Netzwerk zu übernehmen als ein host der schon viele versuche gestartet hat. Das Resultat ist das host auf beschäftigten CSMA/CD Netzwerken erfahren lange Perioden in denen sie nichts übertragen können, gefolgt von einer seltenen capture Periode wo sie einen großen burst von nacheinander folgenden frames ohne Einmischung übertragen. Capture macht den CSMA/CD Algorithmus überraschender weise effizient unter hohen Netzwerk Lasten. Der Effekt von capture ist weniger bei 100Mb/s zu sehen, weil eine kleinere slot time benutzt wird, so das der gewinner host weniger Zeit hat frames zu senden bevor wieder um den Kanal gewetteifert wird. Der Übernahme Effekt ist ein Problem für Zeit sensitive Anwendungen.Versuche in einem Experiment mit einer Simulation zeigte, daß im durchschnitt der gleiche host mehr als 100 frames übertrug jedesmal wen er das Netzwerk übernahm. So muß jede Technik (wie frame bursting) die mit Absicht einem host gestattet ohne Kontrolle über das Netzwerk zu verlieren mehrere frames zu verschicken, kontrolliert werden das sie nicht dem capture Effekt verschlimmert. Fig.5 zeigt den Durchschnitt und 95-ste percentile von der access latency Verteilung (in µs), zeigt die Signifikanz von der burstiness von dem access latency unter schwerer Last. Bezogen auf Fig.4 ist es offenbar das der gegebene Abstand für die prozentuale offered load covers die Region in denen die 1000Mb/s Optionen gestaut werden(z.b. der flat spot in der Verzögerungskurve). Im Allgemeinen wird erwartet, daß der Durchschnitt weit unter der 95 th % von der access latency liegt, wie es zu sehen ist in dem baseline System bei 30% Last, mit 1,5k-frame bursting bei 30% und 40% Last und mit 8k-frame bursting bei allen drei Größen für die Last. Wie auch immer der Charakter von access latency wird sehr viel anders unter 19

hoher Last wegen des Capture Effekt. Insbesondere ist die 95 th % von der access latency für das baseline System weniger als 15% der Verteilung bei der höchsten Belastung. Mit anderen Worten ist die durchschnittliche access latency erfahren bei den schlechtesten 5% der frames muß mindestens 120 mal höher als die übrigen 95% sein. Der capture Effekt ist in Fig.6 gezeigt, wo die 95 th% und 99 th % Verteilung der Anzahl von nacheinander folgende frame Übertragung mit einem einzigen host. Die Anzahl der nacheinander folgenden frame Übertragung für 1000-Mb/s CSMA/CD Systeme wird sehr groß wenn wir die Last erhöhen, speziell in baseline Systemen ohne frame bursting. Das passiert, weil Übernahme ein access Schema kreiert, der aussieht wie ein umfassender Service in einem pooling System. Bei Reduzierung des single-transmitter overhead ist jeder host in der Lage seine Schlange schneller zu bearbeiten. 20

Der Effekt von Aufschieben und Kollisionen Seit der Absicht von CSMA/CD ist den zugriff auf ein geteiltes Medium zu regeln, ist eine wichtige Überlegung wie die anderen hosts sich in eine gegebenes host Nachfrage einmischen. Dort sind drei Ebenen von einmischen zu betrachten. 1. Das Benutzen von carrier sensing, für den host ist es erforderlich die Übertragung eines frame aufzuschieben, wegen einigen früheren Netzwerk Aktivitäten. 2. Das benutzen von collision detection, der host wird dazu gebracht auf wenigstens einen Versuch der Übertragung zu verzichten und es wieder zu versuchen, wegen der Einmischung der anderen hosts. 3. Nach 16 folgenden Kollisionen während des Versuches das gleiche frame zu übertragen, gibt er host eine exessive collision Fehlermeldung aus und verwirft das frame. Im Allgemeinen muß ein host seine Übertragung aufschieben, falls das Netzwerk gerade mit einer anderen frame Übertragung beschäftigt ist, oder solch eine Übertragung hat kürzlich begonnen. Als ein Resultat, muß ein host eventuell wegen seiner vorigen eigenen Übertragung aufschieben. Wenn hosts ihre Sendewünsche zufällig generieren, dann ist die Wahrscheinlichkeit einer Verschiebung die gleiche wie die Wahrscheinlichkeit, das daß Netzwerk mit anderen Übertragungen, Kollisionen oder dem Warten nach dem Interframe spaceing Ende beschäftigt ist. Die geschätzte Wahrscheinlichkeiten sollten nicht geringer sein, als die prozentuale offerd load,so wie es offenbar von Fig.7 für den Fall eines 100Mb/s Netzwerk unter wenig Last ist. Fig.7 21

Die Wahrscheinlichkeit Schätzung bei wenig Last für alle Gb/s Netzwerken liegt um 20% höher, als die offered load, wegen dem overhead bei carrier extension. Unter hoher Last, steigen die geschätzten Wahrscheinlichkeiten bei allen Systemen, wegen der Zeitbeschäftigung bei Kollisionen. Es ist offenbar wieder das unter starker Last mit frame bursting die selbe performance zustande kommt während bei einer um 20% gesteigerte Last bearbeitet wird. Die Wahrscheinlichkeit das ein übertragenes frame wenigstens eine Kollision erfährt wird in Fig.8 gezeigt. Fig.8 Die Resultate die typischerweise auf den meisten shared Medium -Ethernet Systemen gezeigt werden sind, das die Wahrscheinlichkeiten Höhepunkte ganz früh auftreten, zu dem Zeitpunkt wenn genug Last da ist um Stauungen heraufzuführen aber nicht genug um an jeden hosts Schlangen zu bilden, welche ihnen Erlauben würden die Vorteile des capture zu nutzten. Die Spitzt der Kollision Wahrscheinlichkeitskurve treten viel früher bei 1000Mb/s als bei 100Mb/s wegen der Erhöhung der slot time auf, welche die hosts dazu Anhält weniger Aggressiv nach jeder Kollision zu Wiederübertragen. Die begrenzende Größe der Kollision Wahrscheinlichkeit unter hoher Last ist in den 1000Mb/s Kurven niedriger als in 100Mb/s Kurve, weil die höhere slot time dem host erlaubt, mehr frames zu Übertragen, wenn er das Netzwerk übernimmt. In Fig.9 wird die Wahrscheinlichkeit gezeigt, das ein frame wegen eines exessive Kollision Fehler verworfen wird. Erneut zeigt frame bursting eine signifikante Besserung, bei einer 20% höheren Last. 22