Grundlagen Computernetze

Größe: px
Ab Seite anzeigen:

Download "Grundlagen Computernetze"

Transkript

1

2 Table of Contents Grundlagen Computernetze...1 Grundlagen Computernetze...1 Inhalt Einführung Logische Struktur von Netzen Zugriffsverfahren Übertragungsverfahren Ethernet Übertragungsmedien Störquellen Repeater, Bridge, Router Twisted-Pair-Verkabelung Netz-Verkabelung und Netzplanung TCP/IP Höhere Protokolle Weitverkehrsnetze, VoIP, Powerline, Funknetze Anhang...3 Grundlagen Computernetze...4 Logische Struktur von Netzen...4 Sternstruktur...4 Ringstruktur...4 Busstruktur...5 vermaschte Struktur...5 Grundlagen Computernetze...6 Zugriffsverfahren...6 ALOHA...6 CSMA/CD...8 Konfliktparameter k:...9 Token-Ring...11 Token-Bus...11 Copyright FH München, FB 04, Prof. Jürgen Plate...11 Grundlagen Computernetze...12 Übertragungsverfahren...14 Copyright FH München, FB 04, Prof. Jürgen Plate...14 Letzte Aktualisierung: 07. Mär Grundlagen Computernetze...15 Ethernet...16 Ethernet II...16 Frame Ethernet Version raw (Novell)...17 Frame Ethernet raw...17 IEEE und SNAP...17 Frame IEEE SNAP...17 Erweiterungen für VLANS...18 Identifizierung des Ethernet-Interfaces...19 Signallaufzeiten, Slot Time...21 Einordnung Ethernet ins OSI-7-Schichten-Referenzmodell...23 i

3 Table of Contents Ethernet MAC (Media Access Control)...26 Historisches...27 Entwicklung der Übertragungsmedien (IEEE 802.3)...29 Promiscous Mode...29 Power over Ethernet...30 Schutzmechanismen...31 Grundlagen Computernetze...32 Übertragungsmedien...35 Standard-Ethernet, 10Base Anbindung der Arbeitsplätze direkt an das Yellow-Cable...37 AUI-Kabel (Attachment Unit Interface, Transceiver-Kabel)...37 Thinwire-Ethernet (Cheapernet), 10Base Anschluß der Arbeitsplätze an einen BNC-Strang...40 Twisted-Pair, 10BaseT...44 Twisted-Pair-Verkabelung...45 Lichtwellenleiter...47 Wellenlängen...51 Gigabit-Ethernet...51 Gigabit Ethernet (IEEE 802.3z, 802.3ab)...55 Anzeige-LEDs...56 Wie funktioniert Wake-on-LAN...59 Ethernetkarten konfigurieren unter Linux...60 Tabellen...62 Copyright FH München, FB 04, Prof. Jürgen Plate...63 Grundlagen Computernetze...64 Störquellen...64 Dämpfung...65 Begrenzung der Bandbreite...65 Verzerrungen durch Laufzeit...66 Rauschen...66 Reflexionen, Rückflußdämpfung, Nebensprechen...70 Erdschleifen...71 Copyright FH München, FB 04, Prof. Jürgen Plate...71 Grundlagen Computernetze...72 Repeater, Bridge, Router...72 Multiport-Repeater...72 Hub...73 Repeaterregel (5-4-3-Regel)...73 Lichtwellenleiter (10BaseF, FOIRL) und Sternkoppler...74 Bridge...75 Switch...79 Latenzzeiten von Ethernet Switches...80 Router...81 Grundlegende Komponenten von Routern...82 Routing...84 Die Routingtabelle...85 Beispiel für drei IP-Netze mit Routern...86 Routingverfahren...88 ii

4 Table of Contents Repeater, Bridge, Router Routing im Internet...89 Layer-3-Switching...90 Terminalserver...90 Gateway...90 Firewall-Rechner...91 Architektur mit Dualhomed-Host...94 VLAN - virtuelle lokale Netzwerke...94 Was ist ein VLAN? Grundlagen Computernetze TCP/IP Die TCP/IP-Protokolle ARP Proxy ARP Grundlagen Computernetze Höhere Protokolle DHCP und RADIUS DHCP Remote-Zugang mit RADIUS SMTP - Simple Mail Transfer Protocol POP IMAP: Internet Message Access Protocol FTP Beispiel Active und Passive FTP HTTP - Hypertext Transfer Protocol Hauptfunktionen des HTTP Struktur der HTTP-Botschaften Allgemeinfelder des Botschaftskopfes Anfragen Felder einer komplexen Anfrage Fragemethoden Beispiel einer Konversation Grundlagen Computernetze Weitverkehrsnetze, Voice-over-IP, Poweline Communication, Funknetze Übertragungsmedien für Weitverkehrsnetze Datex-Netz (veraltet) Fernsprechnetze und ISDN/DSL Frame Relay FPS ATM Gegenüberstellung der Technologien Punkt-zu-Punkt-Verbindungen Voice over IP Powerline Communications die Stromleitung ist das Netzwerk Funk-LAN-Technologie Funknetz-Szenarien Die Funk-LAN-Standards iii

5 Table of Contents Weitverkehrsnetze, Voice-over-IP, Poweline Communication, Funknetze Modulationsverfahren Sicherheit von Funknetzen Technische Probleme Weitere drahtlose Verfahren WiMAX Grundlagen Computernetze Netzwerk-Literatur WLAN-Links Copyright Hochschule München, FB 04, Prof. Jürgen Plate Letzte Aktualisierung: document.write(document.lastmodified);...title iv

6 Inhalt 1 Einführung 1. Einführung 2. ISO-Referenzmodell für die Datenkommunikation 3. Paketvermittlung vs. Leitungsvermittlung 4. Leistungsparameter 2 Logische Struktur von Netzen 3 Zugriffsverfahren 1. ALOHA 2. CSMA/CD 3. Token-Ring 4. Token-Bus 4 Übertragungsverfahren 5 Ethernet 1. Ethernet II 2. Novells raw 3. IEEE und SNAP 4. Identifizierung des Ethernet-Interfaces 5. Signallaufzeiten, Slot Time 6. Einordnung Ethernet ins OSI-7-Schichten-Referenzmodell 7. Historisches 8. Entwicklung der Übertragungsmedien (IEEE 802.3) 9. Promiscous Mode 10. Power over Ethernet 6 Übertragungsmedien 1. Standard-Ethernet, 10Base5 2. AUI-Kabel (Transceiver-Kabel) 3. Thinwire-Ethernet (Cheapernet), 10Base2 4. Twisted-Pair, 10BaseT 5. Lichtwellenleiter 6. Gigabit-Ethernet 7. Anzeige-LEDs 8. Wie funktioniert Wake-on-LAN 9. Ethernetkarten konfigurieren unter Linux 10. Tabellen Grundlagen Computernetze 1

7 7 Störquellen 1. Dämpfung 2. Begrenzung der Bandbreite 3. Verzerrungen durch Laufzeit 4. Rauschen 5. Reflexionen, Rückflußdämpfung, Nebensprechen 8 Repeater, Bridge, Router 1. Multiport-Repeater 2. Hub 3. Repeaterregel 4. Lichtwellenleiter (10BaseF, FOIRL) und Sternkoppler 5. Bridge 6. Switch 7. Router 8. Layer-3-Switching 9. Terminalserver 10. Gateway 11. Firewall-Rechner 12. VLAN - virtuelle lokale Netzwerke 9 Twisted-Pair-Verkabelung 1. Stecker und Buchsen 2. Steckerbelegung und Adernfarben 3. Fehlerquellen und Fehlersuche 4. Leitungsführung im Raum 10 Netz-Verkabelung und Netzplanung 1. Netz-Verkabelung 2. Netzplanung 3. Netz-Dokumentation 4. Fehlersuche/Belastungstest 11 TCP/IP 1. Die TCP/IP-Protokolle 2. ARP 3. IP - Internet Protocol 4. ICMP - Internet Control Message Protocol 5. UDP - User Datagram Protocol 6. TCP - Transmission Control Protocol 7. PPP - Point to Point Protocol 8. IP Next Generation 9. Domain Name System (DNS) 10. Netzwerkkonfiguration am Beispiel Linux 7 Störquellen 2

8 12 Höhere Protokolle 1. DHCP und RADIUS 2. SMTP 3. POP 4. IMAP 5. FTP 6. HTTP 13 Weitverkehrsnetze, VoIP, Powerline, Funknetze 1. Übertragungsmedien für Weitverkehrsnetze 2. Voice over IP 3. Powerline Communications 4. Funk-LAN-Technologie 5. Weitere Drahtlos-Verfahren 14 Anhang 1. Literatur 2. RFC 1925: The Twelve Networking Truths 3. WLAN-Antennen (von M. Reimann) 4. Ethernet Kabeldiagnose (National Semiconductor Application Note 1508) 5. TCP/IP-Ethernet bis Web-IO (Fa. Wiesemann & Theis) 6. Fit in einem Tag für TCP/IP-Sockets (Fa. Wiesemann & Theis) 7. Poster Internet-Protokolle (Fa. Wiesemann & Theis) 8. WLAN-Sicherheit (Quelle: BSI) 9. Kostenlose Software von Reichle & De-Massari: R&M Netplanner 10. Inside LSA plus 11. Optische Messtechnik für LAN Verkabelungen 12. Glasfasernetze zuverlässig betreiben 13. Systematische WLAN-Planung Praktikumsaufgaben Skript als PDF (aus HTML konvertiert) Download des gesamten Skripts Copyright Hochschule München, FB 04, Prof. Jürgen Plate Letzte Aktualisierung: document.write(document.lastmodified); Grundlagen Computernetze Prof. Jürgen Plate 12 Höhere Protokolle 3

9 Logische Struktur von Netzen In diesem Abschnitt wird ganz knapp die logische Struktur von Netzen behandelt, also die Art und Weise, wie die einzelnen Stationen miteinander verbunden werden. Bei der Verkabelung von LANs muß man aber zwischen logischer Stuktur und Verkabelungsstruktur unterscheiden, z. B. kann ein Netz mit logischer Busstruktur bei der Verkabelung mit 'Twisted Pair'-Kabeln wie ein Sternnetz aussehen. Sternstruktur Alle Teilnehmer werden an einen zentralen Knoten angeschlossen (früher z. B. häufig Anschluß von Sichtgeräten an einen Zentralrechner). Eine direkte Kommunikation der Teilnehmer untereinander ist nicht möglich, jegliche Kommunikation läuft über den zentralen Knoten (Punkt-zu-Punkt-Verbindung, Leitungsvermittlung). Die Steuerung der Kommunikation vom Knoten aus ist sehr einfach: Polling (regelmäßige Abfrage aller Stationen) oder Steuerung über Interrupt. Bei Ausfall der Zentrale sind sämtliche Kommunikationswege unterbrochen. Ringstruktur Es gibt keine Zentrale, alle Stationen sind gleichberechtigt. Jeder Teilnehmer verfügt über einen eigenen Netzanschluß (Knoten) und ist über diesen mit seinem linken und rechten Partner verbunden. Die Übertragung der Info erfolgt in einer Richtung von Knoten zu Knoten. Bei Ausfall eines Knotens sind sämtliche Kommunikationswege unterbrochen. Busstruktur Es gibt keine Zentrale und keine Knoten. Die Verbindung aller Teilnehmer erfolgt über einen gemeinsamen Übertragungsweg. Zu einem Zeitpunkt kann immer nur eine Nachricht über den Bus Logische Struktur von Netzen 4

10 transportiert werden. Bei Ausfall einer Station bleibt die Kommunikation der anderen Stationen erhalten. Bei den Bussystemen kann man noch unterscheiden in Basisband-Bussysteme und Breitband-Bussysteme. Bei Basisband-Bussystemen werden die elektrischen Pegel direkt übertragen; bei den für uns interessanten digitalen Informationen also 0- und 1-Pegel. Bei Breitband-Bussystemen werden über das Kabel mehrere unabhängige Kanäle geleitet (modulierte Übertragung). Busnetze müssen auf beiden Seiten mit der Leitungsimpedanz abgeschlossen werden, damit keine Echos auftreten, die zu Empfangsfehlern führen. vermaschte Struktur Jeder Teilnehmer ist mit mehreren anderen verbunden. Es gibt keine Zentrale und es existieren mehrere, unabhängige Übertragungswege zwischen zwei Stationen. Manchmal gibt es keine direkte Verbindung zwischen zwei Stationen. Dann führt der Weg über eine oder mehrere andere Stationen. Je nach Bedarf können die o. g. Topologien auch miteinander kombiniert werden, z. B. Bus mit angeschlossenen Sternen oder Bus mit angeschlossenen Bussen, was zu einer Baumstruktur führt. Insbesondere bei Weitverkehrsnetzen (WAN) treten vermaschte Strukturen auf. Teilweise ergeben sich dabei redundante Leitungswege, die auch bei Unterbrechung eines Wegs den Datentransport sicherstellen. Zum vorhergehenden Abschnitt Zum Inhaltsverzeichnis Zum nächsten Abschnitt Copyright FH München, FB 04, Prof. Jürgen Plate Grundlagen Computernetze Prof. Jürgen Plate Busstruktur 5

11 Zugriffsverfahren Bei jedem Netz gibt es die physikalischen Verbindungswege (Kanäle), über welche die einzelnen Stationen miteinander kommunizieren. Die Art und Weise, wie die einzelnen Stationen diese Kanäle nutzen und belegen, hängt vom jeweiligen System des Zugriffs, dem Zugriffsverfahren, ab. In diesem Abschnitt werden die unterschiedlichen Zugriffsverfahren im Überblick besprochen, wobei nicht auf die Protokolle eingegangen wird. Das Zugriffsverfahren ist nicht von einer bestimmten logischen Netzwerkstruktur abhängig. Lassen Sie uns zu Beginn ein historisch interessantes Verfahren mit ein paar Sätzen würdigen, das Ausgangspunkt für die Entwicklung der heute üblichen Zugriffsverfahren war. ALOHA Dieses Verfahren ist eines der ältesten Zugriffsverfahren und wurde 1970 an der Universität von Hawaii entwickelt ("Aloha" = "Hallo"). Da man die Inseln nicht über Kabel verbinden konnte, hat man ein Funknetz aufgebaut. Die Grundidee ist recht einfach: Jede Station darf jederzeit senden. Danach wartet die sendende Station auf eine Bestätigung auf einem separaten Rückkanal. Senden zwei Stationen zur gleichen Zeit, treten Kollisionen auf - die Datenblöcke sind defekt und es erfolgt keine Bestätigung. Wurde eine Bestätigung empfangen, kann bei Bedarf weitergesendet werden. Im anderen Fall wartet jede Sendestation eine Zeitspanne, deren Länge zufällig bestimmt wird. Danach wird der Datenblock nochmals gesendet. Da die Wartezeit von einem Zufallsgenerator bestimmt wird, löst sich der Datenstau auf. Solange das Verhältnis von aktiver Sendezeit zu Leerlaufzeit hoch genug ist, arbeitet das System sehr gut. Sobald die "Netzlast" steigt, häufen sich Kollisionen, bis schließlich kein Datenblock mehr durchkommt. Der höchste Durchsatz ergibt sich, wenn die Sendeblöcke 18% der Gesamtzeit belegen. Zwei Jahre später wurde eine Verbesserung eingeführt: Slotted ALOHA. Jeder darf nun nur noch zu Beginn eines festgelegten Zeitintervalls mit dem Senden beginnen ("time slot"). Um nun alle Stationen zu synchronisieren, gibt es eine ausgezeichnete Station, die "Zeitmarken" senden darf. Die anderen Stationen synchronisieren sich mit diesem Markengeber. Der maximale Durchsatz wird hier bei einem Sendeanteil von knapp 36% erreicht. ALOHA wird immer noch bei manchen Formen der Kommunikation über Satelliten verwendet. CSMA/CD Die Abkürzung "CSMA/CD" steht für "Carrier Sense Multiple Access/Collision Detect". Dieses Verfahren findet häufig bei logischen Busnetzen Anwendung (z. B. Ethernet), kann aber prinzipiell bei allen Topologien eingesetzt werden. Bevor eine Station sendet, hört sie zunächst die Leitung ab, um festzustellen, ob nicht schon ein Datenverkehr zwischen anderen Stationen stattfindet. Erst bei freier Leitung wird gesendet und auch während der Sendung wird mitgehört, um festzustellen, ob eine Kollision mit einer Station auftritt, die zufällig zum gleichen Zeitpunkt mit dem Senden begonnen hat (Collision Detect). Bei allen Leitungen ist eine gewisse Laufzeit (siehe später) zu berücksichtigen, so daß auch dann eine Kollision auftritt, wenn zwei Stationen um eine geringe Zeitspanne versetzt mit dem Senden beginnen. In einem solchen Fall produzieren alle sendenden Stationen ein JAM-Singal auf der Leitung, damit auf jeden Fall alle beteiligten Sende- und Empfangsknoten die Bearbeitung des aktuellen Datenpakets abbrechen. Zugriffsverfahren 6

12 Das JAM-Signal besteht aus einer 32 Bit langen Folge von Danach warten alle sendewilligen Stationen eine zufallsbestimmte Zeit und versuchen es dann nochmals. Alle Stationen im Netz überprüfen die empfangenen Datenpakete und übernehmen diejenigen, die an sie selbst adressiert sind. Wichtigster Vertreter für CSMA/CD ist das Ethernet, dem deshalb ein eigener Abschnitt gewidmet ist. Normalerweise tritt eine Kollision innerhalb der ersten 64 Bytes auf (Weiteres in Kapitel 4, "Slot Time"). CSMA/CD 7

13 Konfliktparameter k: k>1: Sender könnte eine ganze Nachricht an den Kanal übergeben, bevor ein Konflikt entsteht. Beim CSMA/CD-Verfahren inpraktikabel. k<1: CSMA/CD-Verfahren praktikabel Spezifikation: Bei größter zulässiger Netzlänge und kleinster zulässiger Paketlänge ergibt sich k~0,21. Wartezeit Die Wartezeit, die nach einer Kollision bis zum nächsten Sendeversuch vergeht, wird im Standard durch ein Backoff-Verfahren festgelegt (Truncated Binary Expotential Backoff). Es wird wie folgt definiert: Wartezeit = ZZ * T ZZ = Zufallszahl aus [0 < ZZ < 2 n ] n = Anzahl Wiederholungen des gleichen Blocks, jedoch maximal 10 T = Slot Time Die Slot Time entspricht der doppelten maximalen Signallaufzeit des Übertragungsmediums. Die Wartezeit steigt im statistischen Mittel nach 10 Versuchen nicht mehr an. Nach 16 Versuchen wird abgebrochen und eine Fehlermeldung erzeugt. Damit eine sendende Station eine Kollision sicher erkennen kann, muß die Dauer der Blockübertragung mindestens das Doppelte der Signallaufzeit zwischen den beiden beteiligten Stationen betragen. Somit ist die minimale Blocklänge abhängig von Signallaufzeit und Übertragungsrate. Das Rahmenformat von CSMA/CD ist nach IEEE festgelegt. Neben Verkabelungsproblemen gibt es bei CSMA/CD-Netzen einige typische Fehlerquellen. Einige davon sollen hier kurz vorgestellt werden. 'Late Collisions' sind Kollisionen, die außerhalb des Kollisionsfensters von 512 Bit, also später, auftreten. Dafür gibt es generell drei Ursachen: Entweder eine Station mit Konfliktparameter k: 8

14 Hardwaredefekt (Netzwerkinterface, Transceiver, etc.), ein Fehler in der Software (Treiber), wodurch sich die Station nicht an die CSMA/CD-Konventionen hält (Senden ohne Abhören), oder die Konfigurationsregeln für die Kabellänge sind nicht eingehalten worden (zu lange Signallaufzeit). Sendet eine Station ohne Unterbrechung längere Zeit, also Frames mit mehr als die maximal zugelassenen 1518 Bytes, dann bezeichnet man dies als 'Jabber' (zu deutsch 'Geplapper'). Hauptursache sind hier defekte Netzwerkkarten oder -Treiber. 'Short Frames' sind Frames, die kleiner als die minimal zugelassenen 64 Bytes sind. Grund hierfür sind auch Defekte beim Netzwerkinterface oder im Treiber. 'Ghost Frames' sind in Ihrer Erscheinung ähnlich einem Datenframe, haben jedoch Fehler schon im Start-Delimiter. Potentialausgleichsströme und Störungen, die auf das Kabel einwirken, können einem Repeater ein ankommendes Datenpaket vorspiegeln. Der Repeater sendet das Geisterpaket dann weiter ins Netz. Token-Ring Grundlagen Computernetze Dieses Netz wurde von IBM entwickelt. Alle Rechner sind hintereinandergeschaltet und somit ringförmig verbunden. Im "Ruhezustand" (keine Station will senden) zirkuliert eine spezielle Nachricht im Netz, das sogenannte "Token" (genauer "Frei-Token", "free token"). Diese Nachricht wird von einem Rechner an den nächsten weitergegeben. Der Rechner, der im Besitz des Frei-Tokens ist, kann senden, indem er an dieses die Nachricht anhängt ("busy token"). Dieser Datenblock wird von Station zu Station weitergereicht, bis sie beim Empfänger angekommen ist. Der Empfänger bestätigt die Nachricht durch eine Acknowledge-Meldung, die mit dem Token weiter auf den Ring geschickt wird und schließlich wieder beim Absender eintrifft. Dieser schickt nun wieder ein Frei-Token auf die Reise. In der Regel berechtigt der Besitz des Tokens nur zur Sendung eines Blocks (non exhaustive), im anderen Extremfall könnte auch definiert werden, daß die Station soviele Datenblöcke senden kann, wie sie möchte (exhaustive). Damit könnte aber eine Station, die den Token besitzt, alle anderen dominieren. Normalerweise wird deshalb nur ein Block gesendet. Außerdem wird die Dauer der Sendeberechtigung befristet (Token Holding Time, z. B. 10 ms). Solange das Netz fehlerfrei funktioniert, stellt Token-Ring ein sehr einfach handzuhabendes Verfahren dar. Komplexer sind die Aufgaben beim Initieren des Netzes und beim Ein- oder Auskoppeln von Stationen. Token-Ring ist das einzige Netz mit aktiven Stationen, die aus Eingabe- und Ausgabeeinheit bestehen. Grundsätzlich sind alle Stationen gleichberechtigt, jedoch übernimmt eine von ihnen als "aktiver Monitor" besondere Überwachungsaufgaben im Netz. Eine andere Station überwacht als "passiver Monitor" den aktiven Monitor und kann gegebenenfalls dessen Aufgaben übernehmen. Die Aufgaben des aktiven Monitors sind: Erzeugen des Ringtaktes Überwachen des Tokens (Neuen Token erzeugen, falls er verloren geht, Verhindern mehrerer Tokens) Token-Ring 9

15 Unterbinden permanent kreisender Blöcke oder Tokens erhöhter Priorität. (Generell: Ring säubern durch Senden eines "Purge Ring Frame" an alle Stationen und Erzeugen eines neuen Frei-Tokens). Verhindern, daß mehrere Monitore aktiv sind. Verzögerung des Token-Rahmens um 24 Bit-Zeiten (die Länge des Token-Rahmens beträgt 24 Bit). Auch bei extrem kleinem Ring wird so sichergestellt, daß eine Station den Token-Rahmen vollständig senden kann, bevor sie ihn wieder empfängt. In regelmäßigen Abständen sendet der aktive Monitor einen "Active Monitor Present Frame" an alle Stationen im Ring. Gleichzeitig wird dadurch eine Prozedur in Gang gesetzt, die allen Stationen die Adresse des jeweiligen Vorgängers im Ring liefert (NAUN = Nearest Active Upstream Neighbour) - eine Information, die nur im Fehlerfall wichtig ist. Ein Fehler auf Empfangsseite bedeutet, daß der eigene Empfänger oder der Sender des NAUN defekt ist. Die Auswahl des aktiven Monitors geschieht per "Claim-Token Process" durch: den derzeit aktiven Monitor, wenn dieser Probleme bei der Durchführung seiner Aufgaben hat, einen passiven Monitor, wenn der aktive Monitor nicht korrekt arbeitet (z. B. Timeout auftritt). eine neu eingegliederte Station, wenn diese das Fehlen des aktiven Monitors feststellt. Token-Ring-Netze werden normalerweise als Stern-Ring-Verbindungen mit passiven Ringleitungsverteilern aufgebaut. In den Ringleitungsverteilern befinden sich Relais (die von den Stationen gesteuert werden) zur Eingliederung von Stationen und zur Schaltung von Ersatzringen bei Defekten. Die Eingliederung einer Station erfolgt in fünf Schritten: 1. Ist ein Adapter vom Ring getrennt, sind gleichzeitig Eingangs- und Ausgangsleitung kurzgeschlossen. Es erfolgt zunächst ein Adaptertest. Nach dem Test versorgt der Adapter die Relais mit Strom und wird in den Ring eingegliedert. 2. Die Station hört nun den Ring ab. Wenn sie innerhalb einer festgelegten Zeit keine Aktivität des aktiven Monitors wahrnimmt, startet sie den Prozeß zur Auswahl des aktiven Monitors. 3. Durch Aussenden eines "Duplicate Address Test Frame" prüft die Station die Eindeutigkeit ihrer Adresse. Ist sie nicht eindeutig, koppelt sich die Station wieder ab. 4. Durch den NAUN-Prozeß erfährt die Station die Adresse ihres Vorgängers und ist nun ins Netz eingegliedert. 5. Von den Voreinstellungen abweichende Parameter können nun bei einer Server-Station abgefragt werden, sofern dies nötig ist. Die Funktionen von Monitor und der eingegliederten Stationen müssen nicht nur einmalig initiiert, sondern auch ständig überwacht werden. In vielen Fällen sind dies zahlreiche Aktionen, die auch viele Blöcke auf dem Netz zur Folge haben und in deren Verlauf auch Fehler- und Ausnahmebedingungen auftreten können. Der Nachteil von Token-Ring liegt darin, daß beim Ausfall einer Station oder bei Kabeldefekten das Netz unterbrochen wird. Wird die defekte Station hingegen abgeschaltet, schalten die Relais im Ringleitungsverteiler die Leitung durch. Token Ring ist genormt nach IEEE Token-Ring 10

16 Token-Bus Grundlagen Computernetze Auch beim Token-Bus wird der Zugriff über Token-Passing geregelt, nur besitzt das Netz Bus- oder Baumstruktur. Hier haben wir also den Fall, daß eine logische Ringstruktur auf eine physikalische Busstruktur aufsetzt. Das Verfahren wird z. B. beim ARCNET und in der industriellen Automatisierung (MAP = Manufacturing Automation Protocol) verwendet. Anders als beim Token-Ring empfangen alle Stationen auf dem Bus die Daten. Daher wird die Reihenfolge der Stationen nicht durch die hardwaremäßige Verbindung, sondern rein logisch durch die Adreßzuordung erledigt. Die Tokens werden von der Station mit der höchsten Adresse an diejenige mit der nächstniedrigeren weitergereicht. Die Station mit der niedrigsten Adresse schließt den logischen Ring durch Adressierung auf die höchste Adresse Token Bus ist genormt nach IEEE Zum vorhergehenden Abschnitt Zum Inhaltsverzeichnis Zum nächsten Abschnitt Copyright FH München, FB 04, Prof. Jürgen Plate Letzte Aktualisierung: 07. Mär 2012 Grundlagen Computernetze Prof. Jürgen Plate Token-Bus 11

17 Übertragungsverfahren Bei der Übertragung von Daten in lokalen Netzen verwendet man generell Basisbandübertragung. Die Übertragungsleitung nimmt zwei (manchmal auch drei) Zustände (Pegel) abhängig von den zu übertragenden Binärwerten an. Bei Weitverkehrsnetzen wird teilweise auch modulierte Übertragung verwendet, wobei die Binärwerte einem höherfrequenten Signal (Sinusträger) aufmoduliert werden. Modulierte Übertragung findet man beispielsweise beim Datentransfer über die Telefonleitung, bei Satellitenverbindungen oder bei Breitband-Kabelnetzen. In diesem Text betrachten wir nur Netze mit Basisband-Übertragung. Die Leitungscodierung erfolgt grundsäzlich auch zwei Arten: Entweder werden die einzelnen Bits codiert (z. B. 0 V für "0" und 5 V für "1") oder es erfolgt die Codierung der Bit-Übergänge (z. B. bei NRZI, wo das Signal für eine "0" konstant bleibt und sich bei einer "1" ändert). Im Netzwerkbereich wird eine Codierung verwendet, die eine Rückgewinnung des Taktes aus dem Signal erlaubt. Bei lokalen Netzen kommen hauptsächlich drei Codes zur Abbildung der Binärwerte auf die Leitungszustände zum Einsatz: Ethernet: Manchester-Code "1": 0->1-Übergang in Bitmitte "0": 1->0-Übergang in Bitmitte Abhängig vom Wechsel der Zustände ist noch ein zusätzlicher Übergang am Anfang jedes Bits nötig. Über die Zeit gemittelt hat das Signal keinen Gleichstromanteil. Eine Rückgewinnung des Taktes aus dem Signal ist möglich. FDDI (Glasfaser, Fiber Distributed Data Interface): NRZI (non return to zero inverted)-code "0": Zu Beginn der Bitperiode Zustandswechsel (0->1 oder 1->0) "1": keine Änderung des Pegels. Der NRZI-Code erlaubt keine Taktrückgewinnung, da bei ungünstigen Bit-Folgen unter Umständen lange Zeit kein Zustandswechsel eintritt. Um trotzdem auch hier den Takt zu halten, erfolgt eine Codewandlung. Dies leistet zum Beispiel bei FDDI die 4B/5B-Umwandlung (4 binary 5 binary), bei der jeweils ein 4-Bit-Block (Nibble) in einen 5-Bit-Block derart umgewandelt wird, daß in jedem 5-Bit-Block maximal zwei aufeinanderfolgende Nullen vorkommen. Übertragungsverfahren 12

18 Das Bild zeigt Kodierung eines Signals mit verschiedenen Ethernet-Normen: Bei 10 Base T: Manchester-Code, bei Fast Ethernet: zuerst 4B5B-Code (siehe unten), dann Umwandlung auf dreiwertigen Code (/0/+) mit fünf Schritten, was zur Reduzierung der oberen Grenzfrequenz führt. Ursprüngliche Bitfolge (4-Bit-Block) Umgewandelte Bitfolge (5-Bit-Block) Die 8B/10B-Umwandlung (8 binary 10 binary) sieht ähnlich aus wie die 4B/5B-Umwandlung. Hier werden jedoch 8-Bit-Blöcke in 10-Bit-Blöcke umgewandelt. Die 8B/10B-Umwandlung wird bei Gigabit-Ethernet 1000Base-CX, -SX, -LX und beim Fibre-Channel eingesetzt. Alle für die Übertragung gültigen Kombinationen sind derart aufgebaut, dass 5 mal die "0" und 5 mal die "1" vorkommt, um Gleichstromfreiheit zu garantieren. Außerdem weisen diese Kombinationen mindestens 3 Zustandswechsel auf (von "0" nach "1" oder umgekehrt), um auf Empfängerseite die Taktrückgewinnung zu gewährleisten. Bei der 8B/6T-Kodierung (8 binary 6 ternary) wird ein 8-Bit-Block in einen 6T-Code umgewandelt. Jeder 6T-Code besteht aus 6 sogenannten"tri-state-symbolen", die als "-", "0" und "+" notiert werden. Übertragungstechnisch verbirgt sich hinter jedem der drei Symbole ein entsprechender elektrischer Pegel. Die Kodierung wird anhand einer Tabelle durchgeführt, die sämtliche 256 möglichen 8-Bit-Kombinationen enthält. Während 4B/5B nur eine Bit-Umwandlung darstellt, die noch eine anschließende Kodierung (NRZI oder MLT-3) erforderlich macht, beinhaltet 8B/6T bereits die komplette Kodierungsvorschrift. Die folgende Tabelle zeigt einen kleinen Ausschnitt der 8B/6T-Codes. Bitfolge 8B6T-Code Übertragungsverfahren 13

19 Derzeit ist Fast-Ethernet 100BASE-T4 das einzige Verfahren, bei dem die 8B/6T-Kodierung eingesetzt wird. Beim Kodierungsverfahren 5-Level Pulse Amplitude Modulation (PAM5) wird pro Takt ein Symbol übermittelt, das einen von fünf verschiedenen Zuständen (-2, -1, 0, +1, +2) darstellt. Mit jedem Symbol werden zwei Bits übertragen. Da es vier verschiedene 2-Bit-Grupen ("00", "01", "10" und "11") gibt, bleibt noch ein Symbol übrig, das für Fehlerbehandlung eingesetzt werden kann. Die PAM5-Kodierung wird bei Fast-Ethernet 100Base-T2 und bei Gigabit-Ethernet 1000Base-T verwendet. Zum vorhergehenden Abschnitt Zum Inhaltsverzeichnis Zum nächsten Abschnitt Copyright FH München, FB 04, Prof. Jürgen Plate Letzte Aktualisierung: 07. Mär 2012 Grundlagen Computernetze Prof. Jürgen Plate Copyright FH München, FB 04, Prof. Jürgen Plate 14

20 Ethernet "Ja, aber ich würde lieber den Bus nehmen. Es gibt nichts schöneres auf der Welt als einen Bus." Charles, Prince of Wales, als er gefragt wurde, ob er die Reise mit der königlichen Segelyacht nach Tobruk genossen habe. Der zur Zeit am weitesten verbreitete Standard für lokale Netze ist Ethernet. Er geht auf gemeinsame Spezifikationen von Intel, DEC und Xerox zurück. Der Name (Ether = Äther) weist noch auf die ersten Funknetze (ALOHA) hin. Die Datenübertragung erfolgt mit dem CSMA/CD-Verfahren. Auf dem Ethernet können verschiedene Protokolle laufen, z. B. TCP/IP, DECnet, IPX/SPX (Novell), etc. Das Ethernet besteht physikalisch aus verschiedenen Typen von 50-Ohm-Koaxkabeln oder paarweise verdrillten Leitungen (Twisted-Pair), Glasfasern, oder anderen Medien (siehe nächsten Abschnitt). Die Datenrate beträgt typisch 100 MBit/s (früher 10 MBit/s, 1000 MBit/s läuft an). Die wichtigsten Eigenschaften nach der ursprünglichen Spezifikation sind: Datenrate: Maximale Länge des gesamten Netzes: 10 MBit/s 2500 m Maximale Zahl der Knoten: 1024 Medium: Zugriffsverfahren: Datenprotokoll: Koaxkabel, Basisbandübertragung CSMA/CD Frames variabler Größe Die Daten werden in Paketen gesendet und mit Verwaltungsinfo zu Beginn und CRC-Prüfinfo am Ende versehen (Ethernet-Frame). Ethernet basiert, wie andere Netze auch, auf einer Sammlung von Medium- und Protokollspezifikationen. Zuunterst liegt die physische Ebene; sie umfaßt neben der Verkabelung auch die Signalerzeugung und -kodierung. Als Ethernet von DEC, Intel und Xerox aus der Taufe gehoben wurde, gab es nur eine Verkabelungsart, der heutige Ethernet-Standard kennt eine Vielfalt von Topologien. Ethernet-Anwender müssen bei der Vernetzung nicht nur zwischen den Protokollen auf den höheren Schichten wie TCP/lP und IPX/SPX unterscheiden, sondern auch noch den richtigen Ethernet-Frame wählen. 'Server not found' oder ähnliche Fehlermeldungen stellen sich manchmal selbst dann ein, wenn alle Ethernet-Treiber auf Workstation und Server korrekt geladen sind und keine Kabelprobleme bestehen. Der Grund liegt nicht selten darin, daß Ethernet nicht gleich Ethernet ist. Gleich vier verschiedene Dialekte sind heute in Gebrauch, die erschwerenderweise ziemlich inkonsistent benannt sind. Kein anderes lokales Netz weist diese Eigentümlichkeit auf. Groß sind die Unterschiede nicht; sie beschränken sich auf ein paar Bytes in den übertragenen Datenpaketen (Frames) und lassen sich in der Regel durch einfache Konfigurationsänderungen der Netztreiber regulieren. Die elektrischen Anschlußbedingungen im weitesten Sinne sind für die verschiedenen LAN-Typen standardisiert. Es handelt sich dabei um die Standards des IEEE (Institute of Electrical and Electronic Engineers, USA). Das IEEE ist eine internationale Vereinigung, die sich mit allen wesentlichen Aspekten der Elektrotechnik beschäftigt. Verbindlich für lokale Netze sind die Empfehlungen des Subkomitees mit der Kurzbezeichnung 802. Eine relativ neu gegründete Runde beschäftigt sich mit drahtlosen LANS (802.11). Physikalisch handelt es sich bei Ethernet immer um einen Bus, an den die Stationen elektrisch parallel angeschlossen sind. Das klassische Ethernet benutzt als Medium das yellow cable, ein dickes, vierfach abgeschirmtes Koaxkabel. Die beiden Enden des Kabels sind mit an den Wellenwiderstand des Kabels (50 Ohm) angepaßten Widerständen abgeschlossen, um Reflexionen zu vermeiden. Wenn eine Station nun Daten an eine andere senden will, schickt sie digitale Signale auf Reisen. Diese Signale breiten sich vom Anschlußpunkt der Station nach beiden Seiten hin gleichmäßig aus. Irgendwo auf dem Weg liegt dann der Empfänger, der die Signale am Kabel abgreifen kann und für die weitere Nutzung aufbereitet. Unabhängig davon wandern die Signale jedoch weiter, bis sie die Leitungsenden des Ethernet-Kabels erreicht hat. Dort wird ihre Energie vollständig von den Abschlußwiderständen aufgenommen, so daß es nicht zu Reflexionen kommt. Ethernet 15

21 Nach einer gewissen Zeit, die aus der Ausbreitungsgeschwindigkeit der Signale und der Entfernung der sendenden Station zu den beiden Kabelenden resultiert, sind die Signale 'verschwunden' und das Kabel wieder frei. Dieses Prinzip liegt allen Ethernet-Varianten zugrunde. Es gibt jedoch Unterschiede in der Topologie des Netzes und beim verwendeten Kabel. Die Daten werden in Paketen, sogenannten 'Frames' zusammengefaßt. Jedes Paket trägt zu Beginn Verwaltungsinformationen (z. B. Absender- und Empfängerstation, Länge, etc.) und nach den Nutzdaten schließt sich eine Prüfinformation an. Leider gibt es keinen einheitlichen Frame, sondern entwicklungsgeschichtlich bedingt Frames mit unterschiedlichem Aufbau. Es gab bereits Ethernet-Installationen, lange bevor dieses Netz unter der Nummer vom IEEE (Institute of Electrical and Electronics Engineers) standardisiert wurde. Was Novell eigenmächtig als 'Ethernet 802.3' bezeichnet, ist jedoch etwas anderes. Ethernet II Eine der ältesten Framestrukturen ist Ethernet II. Charakteristisches Merkmal von Ethernet II ist das Typfeld, das aus zwei Bytes im Anschluß an die Start- und Zieladressen besteht und der Unterscheidung verschiedener höherer Protokolle dient. Alle anderen Formate enthalten hier eine Längeninformation. Die Unterscheidung der anderen Frames von einem Ethernet-II-Frame kommt dadurch zustande, daß dessen Typ-Nummer immer größer ist als die maximale Paketgröße von 1518 Bytes (Z.B. 0800h für IP, 8137h für IPX, 0600h für XNS oder 809Bh für AppleTalk). Ein Datenpaket besteht aus 576 bis Bits und hat folgenden Aufbau: Frame Ethernet Version 2.0 Grundlagen Computernetze Bitfolge Preamble Bitfolge SFD 6 Byte Dest.-Addr. Ethernet-Frame, min. 64 Bytes, max Bytes 6 Byte Source-Addr. 2 Byte Type min. 46 Bytes, max Bytes Daten 4 Byte FCS Inter Frame Gap 9,6µs Die Präambel dient zur Synchronisation, sie besteht aus einer Folge von ' '-Bytes. Der SFD hat an der letzten Stelle eine '1' ( ). Die Längen der einzelnen Teile (in Byte) sind in der Grafik eingetragen. Sind weniger als 46 Datenbytes zu übertragen, muß mit Füllbits ergänzt werden, um die minimale Slot-Time zu erreichen raw (Novell) Als Novell Netware und das IPX/SPX-Protokoll auf den Markt brachte, war Ethernet noch nicht endgültig standardisiert. Die Netware-Entwickler warteten aber weder die Standardisierung ab, noch benutzten sie das gängige Ethernet-II-Format. Nein, Novell dachte sich für IPX einen eigenen Rahmentyp aus. Dieser Pakettyp enthält keine Protokollkennung wie Ethernet II, kann also allein IPX transportieren. Zu allem Überfluß benannte Novell diese proprietäre Lösung auch noch nach einer IEEE-Arbeitsgruppe '802.3'. Wie kann ein Rechner oder Router ein solches Novell-Paket aus anderen herausfiltern, die ebenfalls nach Start- und Zieladresse eine Längeninformation tragen? Gegenüber 'Ethernet II' werden die beiden Bytes der Protokoll-ID für die Rahmenlänge genutzt. Der einzige weitere Unterschied besteht darin, daß allein im 'Novell-802.3'-Paket zwei Bytes folgen, die nur aus Einsen bestehen (FF, FF). Prinzipiell ist das Gespann IPX-'802.3' also auch in heterogenen Umgebungen mit vielen Routern einsetzbar, erfordert aber immer einen gewissen Extra-Aufwand. Novell geht die Sache inzwischen etwas vorsichtiger an und nennt sein IPX-Spezial-Ethernet offiziell '802.3 raw'. Wir empfehlen, dem Rat von Novell neueren Netware-Installationsprogrammen und -Handbüchern zu folgen und das standardisierte 'Ethernet 802.2'-Format zu verwenden. Hinter Novells Bezeichnung 'Ethernet 802.2' verbirgt sich das eigentlich waschechte Format. Aber '802.3' hatte Novell bereits vergeben, und die Verwechslungsgefahr mit dem 'raw'-format wäre zu groß geworden. Man übernahm daher einfach die Bezeichnung des IEEE Protokollheaders, den die IEEE Spezifikation vorschreibt und Ethernet II 16

22 der den Unterschied zu Novells Alleingang ausmacht. Frame Ethernet raw Grundlagen Computernetze Bitfolge Preamble Bitfolge SFD Frame IEEE Byte Dest.-Addr. Ethernet-Frame, min. 64 Bytes, max Bytes 6 Byte 2 Byte Source-Addr. Length 2 Byte 0xFFFF min. 44 Bytes, max Bytes Daten 4 Byte FCS Inter Frame Gap 9,6µs Bitfolge Preamble Bitfolge SFD 6 Byte Dest.-Addr. Ethernet-Frame, min. 64 Byte, max Byte 6 Byte 2 Byte 1 Byte Source-Addr. Length DSAP 1 Byte SSAP 1 Byte Control min. 43 Bytes, max Bytes Daten 4 Byte FCS Inter Frame Gap 9,6µs IEEE und SNAP Bis zu Novells Entscheidung für die Verwendung von '802.2' als Default-Typ gab es kaum Anwendungen dieser Ethernet-Variante - abgesehen von der weiter unten beschriebenen SNAP-Erweiterung. Das IEEE-Gremium ersetzte das Typ-Feld von Ethernet II durch eine Längenangabe und ergänzte das Paket durch einen Header von drei weiteren Bytes. Als Ersatz für das alte Typfeld mit der Protokoll-ID fungieren der 'Destination-' und der 'Source Service Access Point' (DSAP und SSAP); hinzu kommt ein 'Control Field', das manche Protokolle für Verwaltungszwecke benötigen. Ein offensichtlicher Nachteil der Definition gegenüber Ethernet II war die Limitierung der Typ-Codes auf ein Byte, zumal die Hälfte der möglichen 256 Werte von Anfang an reserviert war(z. B. 04 für IBM SNA oder 06 für IP). Frame IEEE SNAP Bitfolge Preamble Bitfolge SFD 6 Byte Dest.-Addr. Ethernet-Frame, min. 64 Byte, max Byte 6 Byte 2 Byte 1 Byte Source-Addr. Length DSAP 1 Byte SSAP 1 Byte Control 5 Byte SNAP min. 38 Bytes, max Bytes Daten Daher folgte beinahe unweigerlich eine baldige Erweiterung: Das 'Sub Network Access Protocol' (SNAP) sorgte für Abhilfe. Diese Erweiterung mit der eigenen Protokoll-ID AAh stellt weitere fünf Bytes für die Protokoll-Identifikation des darüberliegenden Protokolls bereit, davon drei für eine Herstellerkennung. Der bekannteste Nutznießer hiervon ist AppleTalk. Auch die Millionenschar der TCP/IP-Anwender könnte ihre Ethernet-II-Pakete mit der zwei Byte langen Protokoll-ID dank SNAP in ein IEEE-konformes Format bringen - doch TCP/lP funktioniert auch ohne Standard und den zusätzlichen Protokoll-Overhead. Da TCP/lP eine von anderen Transportprotokollen unerreichte Bedeutung gewonnen hat (man denke allein an das Internet), empfiehlt es sich, wenn irgend möglich, durchgehend den Frame-Typ Ethernet II einzurichten. Häufig erzwingen die Gegebenheiten auch die weitere Berücksichtigung von Ethernet 802.3: Einige ältere, auf NetWare spezialisierte IPX-Printserver zum Beispiel mögen keinen anderen Rahmentyp. Der von Novell zur Zeit als Default-Typ verwendete hat nur dann Berechtigung, wenn statt TCP/lP und IPX andere OSI-Protokolle zum Einsatz kommen sollen. Erweiterungen für VLANS Im Abschnitt über virtuelle LANS wird noch eine weitere Expansion des Datenrahmens zur Anwendung kommen, das sogenannte "tagged" Format. Der Vollständigkeit halber sollen auch dieser Frames hier aufgeführt werden, näheres dann im VLAN-Abschnitt. 4 Byte FCS Inter Frame Gap 9,6µs raw (Novell) 17

23 Frame Ethernet Version 2.0 tagged (VLAN) Grundlagen Computernetze Bitfolge Preamble Bitfolge SFD 6 Byte 6 Byte Dest.-Addr. Source-Addr. Frame IEEE tagged (VLAN) Ethernet-Frame, min. 68 Byte, max Byte 4 Byte Tag 2 Byte Type min. 46 Bytes, max Bytes Daten 4 Byte FCS Inter Frame Gap 9,6µs Bitfolge Preamble Bitfolge SFD 6 Byte 6 Byte Dest.-Addr. Source-Addr. Ethernet Frame tagged min. 68 Byte, max Byte 4 Byte Tag 2 Byte 1 Byte Length DSAP 1 Byte SSAP 1 Byte Control min. 42 Bytes, max Bytes Daten 4 Byte FCS Inter Frame Gap 9,6µs MTU Die Abkürzung MTU steht für "Maximum Transmission Unit" und beschreibt die maximale Größe der Nutzdaten die in einem Datenpaket übertragen werden können. Ein Standard-Ethernetframe hat eine Maximalgröße von 1518 Bytes. Davon beanspruchen Header und Prüfsumme 18 Bytes. Somit verbleiben genau 1500 Byte für Nutzdaten (s. oben). Die MTU beträgt also 1500 Byte. Beim Internetzugang via DSL kommt auf der Verbindung zum DSL-Modem häufig das Protokoll PPPoE (Point-to-Point-Protocol over Ethernet) zum Einsatz. PPPoE beansprucht in jedem Frame zusätzlich 8 Bytes zur Übertragung von Verbindungsinformationen. Die MTU reduziert sich daher bei der Verwendung von PPPoE von 1500 auf 1492 Bytes. Durch den Einsatz weiterer Protokolle bei einigen Providern, kann sich die MTU noch weiter verringern. Je nach Provider schwankt die MTU zwischen 1400 und Normalerweise wird die richtige MTU bei der Verbindung zum Provider automatisch eingestellt. Eine manuelle Einstellung einer zu größen MTU führt zu Verbindungsproblemen. Unter Linux kann die MTU für ein Interface mit dem Kommando ifconfig eth0 mtu <wert> eingestellt werden. Identifizierung des Ethernet-Interfaces Jeder Ethernet-Adapter kann über seine in der Hardware verankerte Adresse eindeutig identifiziert werden. Diese Adresse besteht aus einem 3-Byte-Herstellercode und einer ebenfalls 3 Byte (24 Bit) langen laufenden Seriennummer. Auf diese Weise ist eine eindeutige Adressierung möglich - was aber auch bedeutet, daß die logische Adresse durch die Netzwerksoftware in eine Hardwareadresse umgesetzt werden muß. Die Angabe der Adresse erfolgt normalerweise sedezimal (hexadezimal), wobei zur besseren Lesbarkeit die einzelnen Bytes durch '.' oder ':' getrennt werden, z. B. 20:08:AA:10:00:CF. Diese Adresse wird auch gerne MAC-Adresse genannt. Bei einigen Interfaces, insbesondere bei vielen WLAN-Karten, kann die Adresse auch per Software konfiguriert werden (Speicherung im EEPROM). Erweiterungen für VLANS 18

24 Signallaufzeiten, Slot Time Grundlagen Computernetze Bei jedem Kabel gibt es eine Konstante, welche die Ausbreitungsgeschwindigkeit der elektrischen Signale in dem Kabel angibt. Die Maximalgeschwindigkeit, die Lichtgeschwindigkeit c, wird jedoch nie erreicht. Die Ausbreitungszeit für elektromagnetische Wellen ist abhängig vom Medium: Ausbreitungsfaktor Medium 1.00 Vakuum 0.77 Koax-Kabel 0.60 Twisted-pair-Kabel Aber wozu ist dieser Wert bei Netzen interessant? Nehmen wir als Beispiel für die folgenden Berechnungen das 10Base2-Ethernet-Kabel. Nehmen wir nun an, daß zwei Stationen A und B, die sich an gegenüberliegenden Enden des Kabelsegments befinden. Die Station A sendet zum Zeitpunkt t ein Datenpaket ab. Die Station B sendet ihrerseits zum Zeitpunkt t + (T - dt), also kurz bevor das Signal von A bei B ankommt. Damit A die Kollision erkennen kann, vergeht nochmals die Zeit (T - dt), also insgesamt t + 2*(T - dt). Für den Grenzfall können wir dt gegen 0 gehen lassen, woraus folgt, daß die Dauer der Übertragung eines Datenblocks mindestens 2*T betragen muß, damit eine Kollision bei CSMA/CD sicher erkannt wird. Ein Datenblock muß also mindestens diese Zeit 2*T zur Übertragung benötigen. Die kleinste erlaubte Packetgrösse von 64 Byte benötigt bei 10Base µs, um komplett gesendet zu werden. Ein Signal, das 51.2 µs dauert, legt im Coax-Medium folgende Strecke zurück: 0.77 * 3 * 108 = 231 * 106 m/s 231*106 * 51.2*10-6 = m = km Das 64-Byte-Ethernetpacket benötigt also für die Strecke von 2 * 2,5 = 5 km im idealen Fall nur etwa die Hälfte der minimalen Übertragungsdauer von 51.2 µs. - die LAN-Sepzifikation beinhaltet somit eine Sicherheitsreserve um dem CSMA/CD-Protokoll des Ethernet auch im realen Fall zu genügen. Das ideale Beispiel ist sehr weit von der Realität entfernt. Es liefert jedoch ein Gefühl für die Zeiträume, mit denen beim Ethernetverkehr gerechnet wird. Für jeden Planer eines Netzes ist es wichtig, möglichst genau den "worst case" seines Netzes zu kennen, damit sicher gestellt ist, daß die Kollisionsbehandlung korrekt arbeitet. Dazu werden die jeweils am weitesten entfernten Netzwerkdevices einer Kollisionsdomäne betrachtet. Hierbei ist sowohl die Entfernung, als auch die zwischen Ihnen liegende Netzhardware zu beachten. Entsprechend jedem physikalischen Element auf der Strecke zwischen den Netzwerk-Devices (Hinund Rückweg) werden bestimmte Werte addiert. Dies sind die sogenannten "Bitzeiten", die spezifisch für jede Hardware sind. Diese Bitzeiten sind entweder aus der Literatur oder der jeweiligen Herstellerbeschreibung zu entnehmen. Aber nicht immer findet man alle Werte; dann muß man allgemeingültige Werte benutzen, z. B. 8 Bitzeiten für einen Repeater. Diese Zahl soll das Zeitintervall repräsentieren, die ein Repeater benötigt um das Ethernetpaket weiterzuleiten. Signallaufzeiten, Slot Time 19

25 Ist jede auf der Strecke befindliche Hardware in die Rechnung eingeflossen, so erhält man den Round Trip Delay (RTD). Der RTD muß unter einem definierten Schwellwert liegen. Dieser Schwellwert von 51,2 µs entspricht 512 Bitzeiten. Zur Erinnerung: das kleineste Paket hat 64 Byte = 512 Bit Länge. Dieser Wert wird auch als "Slot-Time" bezeichnet. Das Kabel zwischen AUI (Attachment Unit Interface) und MAU (Media Attachment Unit) hat abweichende Spezifikationen (Twisted-Pair, jeweils für Senden und Empfangen getrennt, abgeschirmt), seine Maximallänge beträgt 50 m, die Mindest-Signalausbreitungsgeschwindigkeit beträgt 0,65*c = km/s. Daraus folgt eine maximale Laufzeit von 0,05/ s = 0,256 Mikrosekunden. Da sich maximal drei 10Base2-Netzsegmente über Verstärker (Repeater) verbinden lassen, ergibt sich eine Maximallänge von 1500 m, und so eine Laufzeit von 13 Mikrosekunden. Dabei ist noch zu berücksichtigen, daß bis zu sechs Transceiverkabel beteiligt sein können (je eines an den Stationen und je zwei an den beiden Repeatern). Die maximale Verzögerung ist hier also 3,08 Mikrosekunden. Wenn man noch die Zeiten für die Kollisionserkennung im Ethernet-Interface und weitere Hardwareparameter berücksichtigt, kommt man auf die im Ursprungsdokument von 1980 angegebene maximale Laufzeit von 45 Mikrosekunden. Zu lange Kabel, zuviele hintereinandergeschaltete Repeater, aber auch das Ausreizen der im Standard angegebenen Parameter kann durchaus im Zusammenspiel mit Komponenten, die am Rande der Toleranzgrenze liegen, zu Fehlfunktionen führen. Daher sollte man die angegebenen Längen immer unterschreiten. Auch bei der Planung von Netzen ist zu berücksichtigen, daß Kabel niemals in "Luftlinie" verlegt werden und die Kurven und Schleifen in den Kabelkanälen sich schnell addieren. Nicht verkleinern läßt sich jedoch der Overhead, der durch die Verwaltungsinformation im Ethernet-Frame (Adressen, Control-Info) entsteht. Der Overhead wird umso kleiner, je größer der Nutzdatenanteil ist. Die folgende Tabelle zeigt die Abhängigkeit von Overhead und Nutzdaten (berechnet): Im folgenden Diagramm ist der prozentuale Overhead gegen die Nutzdaten-Bytes aufgetragen. Signallaufzeiten, Slot Time 20

26 Einordnung Ethernet ins OSI-7-Schichten-Referenzmodell 7 bis 4 Layer Application Presentation Session Transport Aufgabe Später weitere Erläuterungen 3 Network Wegewahl, Vermittlung 2 Data Link Zusammenfassung der Bits in Blöcke (Bytes, Frames), Flußsteuerung, Reihenfolgesicherung Fehlererkennung in Blöcken und Korrektur 1 Physical mechanische Charakteristika (z.b. Pin-Belegung, etc.), elektrische, elektromagnetische, akustische, optische Charakteristika, Übertragungsart (z.b. analog/digital, synchron/asynchron, Modulation etc.) Ethernet und IEEE sind im OSI-7-Schichten-Modell in der zweiten Schicht angesiedelt, wobei man diese Schicht beim IEEE802.3 zusätzlich einmal unterteilt in die Schichten 2a: Media Access Control (MAC) und 2b: Logical Link Control (LLC). Einordnung Ethernet ins OSI-7-Schichten-Referenzmodell 21

27 Der Ethernet-Standard umfaßt Schicht 1 des OSI-Modells (Physikalische Schicht) und den unteren Teil von Schicht 2, der Verbindungsschicht. Dieser Teil wird MAC (Media Access Control) genannt. MAC und LLC (Logical Link Control) füllen zusammen Schicht 2 aus. Der Standard ist in drei Unterebenen eingeteilt. Von oben sind dies die eben genannte MAC und in Schicht 1 "PLS" (Physical Signaling) sowie "PMA" (Physical Medium Attachment). Die Schnittstelle zwischen ihnen ist auch im Standard definiert. Die Verbindung zwischen Medium und PMA wird "MDI" (Medium Dependent Interface) genannt. Die Einheit zwischen PMA und PLS wird mit "AUI" (Attachment Unit Interface) bezeichnet. "MDI" ist der Anschluß zum Netzkabel. Einordnung Ethernet ins OSI-7-Schichten-Referenzmodell 22

28 MAC (Media Access Control) Die MAC-Ebene hat zwei Funktionen. Die eine ist die Datenhandhabung und umfaßt die Paketverwaltung (Datenaufbereitung, Adressierung und Fehlerkontrolle). Die andere ist die Zugangskontrolle, die dafür sorgt, daß die Pakete ohne Kollisionen ins Netz gelangen. Zudem handhabt die Zugangskontrolle die Kollisionen, die trotzdem entstehen. Die Datenhandhabung auf der MAC-Ebene arbeitet mit zwei Dienstprimitiven zur LLC: "Request" und "Indication". Request wird von der LLC generiert und ist die Anforderung nach Übertragung von Daten der eigenen LLC zur LLC in einer anderen Station. Parameter sind Zieladresse, Dateneinheit und Dienstklasse. Indication ist ein Hinweis an die LLC, daß MAC ein ankommendes Paket entgegengenommen hat. Hier sind die Parameter Zieladresse, Quelladresse, Dateneinheit und Empfangsstatus. Die Kollisionshandhabung benutzt mehrere Mechanismen. Beim Senden arbeitet ein Prozeß, der "Deference" (defer: nachgeben) genannt wird. Dieser kontrolliert, ob eine Aktivität im Kabel stattfindet (Carrier Sense). In diesem Fall beginnt ein Deferring-Zustand. Wenn das Kabel frei ist, wird eine Verzögerung von einem "inter frame spacing" initiiert und ein eventuell wartendes Paket losgeschickt. Wenn eine Kollision eintritt, wird ein Störungssignal gesandt, wonach die Sendung abgebrochen wird und der Backoff-Prozeß startet (siehe vorhergehendes Kapitel). Die Aufgaben der MAC-Ebene können wie folgt zusammengefaßt werden: 1. Sendet Frames, indem sie: a. Daten von der LLC entgegennimmt, b. kontrolliert, ob ein PAD-Feld notwendig ist, und wenn ja, dieses erzeugt und es am Ende anfügt, c. kontrolliert, daß das Frame ganze Bytes enthält (daß die Anzahl der Bits ein ganzzahliges Vielfaches von 8 ist), die CRC berechnet (CRC = Cyclic Redundancy Check = Polynomprüfsumme) und am Ende als FCS (Frame Check Sum) ablegt, d. Preamble, Start Frame Delimiter und Adreßfeld am Anfang hinzufügt, e. das ganze Frame in serieller Bitform an die PLS schickt. 2. Empfängt Frames, indem sie: a. ein Frame nach dem anderen in serieller Bitform von der PLS akzeptiert, b. untersucht, ob die Zieladresse mit der lokalen Station übereinstimmt (individuelle Adresse, Gruppenadresse oder Broadcast), c. kontrolliert, daß das Frame ausreichend lang ist, daß er ganze Bytes enthält und daß die CRC stimmt, d. Preamble, SFD (Starting Frame Delimiter) und Adreßfeld abschneidet, das Längenfeld liest und eventuelle PAD-Bytes abschneidet, e. Daten an die LLC schickt. 3. Vermeidet Kollisionen und hält einen ausreichenden Abstand zwischen Frames im Medium aufrecht indem sie: a. vom Senden absieht, wenn das Medium belegt ist, b. wenn das Medium frei wird, einen festgesetzten Zeitraum (Inter Frame Gap) abwartet, ehe mit der Sendung begonnen wird. 4. Handhabt Kollisionen, indem sie, wenn die Station während des Sendens eine solche feststellt: a. ein Störsignal in Form eines zufälligen Bitmusters von einer bestimmten Länge (Jam Size) sendet, damit die Betroffenen Stationen die Kollision entdecken können, b. eine Zufallzahl generiert und in dem Zeitraum nicht sendet (Backoff), der von der Zufallszahl vorgegeben wird, c. wenn das Medium frei ist, nach dieser Zeit sendet, d. wenn eine neue Kollision stattfindet den Versuch mehrmals bis zu einer vorgegebenen Höchstgrenze wiederholt (Attempt Limit) und dann gegebenenfalls eine Fehlernachricht generiert. MAC (Media Access Control) 23

29 MAC-Adressen als physikalische Adressen Die Aufgabe der MAC-Adresse liegt darin, die miteinander kommunizierenden Stationen eindeutig zu identifizieren. MAC-Adressen haben eine feste Länge von 48 bit. Mit einer MAC-Adresse wird der physikalische Netzanschluß oder Netz-Zugriffspunkt einer Station adressiert. Sie heißt daher auch physikalische Adresse. Eine Station kann durchaus mehrere MAC-Adressen haben, wenn es über mehrere Netzanschlüsse verfügt. In manchen Dokumentationen ist zu lesen, dass es für Ethernet ganz spezielle, sogenannte Ethernet-Adressen gäbe. Dies ist absolut falsch. Alle bekannten Zugriffsverfahren der MAC-Schicht (wie z.b. CSMA/CD bzw. Ethernet, Token Bus, Token Ring, FDDI) verwenden einheitlich das im folgenden beschriebene MAC-Adressformat mit 48 bit langen MAC-Adressen. Spezielle Kennungen I/G U/L OUI OUA 1 bit 1 bit 22 bit 24 bit I/G = 0: Individual-Adresse (Unicast Address), die genau ein Interface identifiziert. I/G = 1: Gruppen-Adresse (Multicast Address), die eine Gruppe von Interfaces identifiziert. U/L = 0: universelle Adresse (weltweit eindeutig und unveränderbar). U/L = 1: lokale Adresse (lokal veränderbar). Das erste Bit des ersten Bytes einer MAC-Adresse gibt also an, ob es sich um eine Einzel- oder Gruppenadresse (I/G für Individual/Group) handelt. Bei einem Broadcast oder Multicast wird I/G = 1 gesetzt, sonst und bei der Absenderadresse ist I/G = 0. (Nur als Ziel-Adresse, nicht als Quell-Adresse möglich.) Das folgende Bit (U/L für Universal/Local) zeigt an, ob die MAC-Adresse global eindeutig (Universally Administered Address (UAA); U/L = 0) oder lokal veränderbar und nur dort eindeutig ist (Locally Administered Address (LAA); U/L = 1). Herstellerkennungen Grundlagen Computernetze Für die Festlegung von universellen Individual-Adressen werden von IEEE für die Bits 3 bis 24 weltweit eindeutige Werte vergeben und den Herstellern zugewiesen. Man bezeichnet eine solche Bitfolge daher als Organizationally Unique Identifier (OUI). Da bei universellen Individual-Adressen stets I/G = 0 und U/L = 0 gilt, werden diese beiden Bits häufig in den OUI mit einbezogen, so dass der OUI die ersten beiden Oktette der MAC-Adresse darstellt. Die Werte für die restlichen Bits 25 bis 48 werden von den Herstellern vergeben. Eine solche Bitfolge heißt daher Organizationally Unique Address (OUA). Die MAC-Schicht einer Station, das einen MAC-Rahmen empfängt, vergleicht die MAC-Zieladresse des Rahmens mit seiner eigenen MAC-Adresse und gibt den Inhalt des Rahmens nur dann an die höherliegenden Schichten weiter (LLC oder Schicht 3), wenn beide Adressen übereinstimmen. Ansonsten wird der Rahmen verworfen. Die MAC-Schicht beinhaltet also eine Filterfunktion für MAC-Adressen. Für die Darstellung von MAC-Adressen verwendet man am besten die kanonische Form: Die 48 Bits werden zu Bytes bzw. Oktetten derart zusammengefaßt, daß 6 Oktette entstehen, wobei die Bitreihenfolge nicht verändert wird und das I/G-Bit im 1. Oktett links steht und als Least-Significant-Bit (LSB) interpretiert wird. Unter der Festlegung, daß in jedem der 6 Oktette das MAC (Media Access Control) 24

30 LSB links steht, wird dann jedes Oktett durch zwei hexadezimale Ziffern dargestellt und die Ziffernpaare werden durch Bindestriche getrennt. Ein Beispiel mag dies veranschaulichen. Bitmuster: Kanonische Form: AC-DE Wenn ein MAC-Rahmen an mehrere bzw. an alle Stationen eines Netzes verschickt werden soll, spricht man von einem Multicast bzw. einem Broadcast. Entsprechende Multicast- bzw. Broadcast-Adressen gibt es verständlicherweise nur als Ziel-Adressen. Bei einem Broadcast lautet die MAC-(Ziel-)Adresse FF-FF-FF-FF-FF-FF. Einige standardisierte Multicast-Adressen sind: C : Spanning Tree Protocol C : Brücken-Management E : Internet Protocol (IP) Multicast CF : Ethernet Configuration Test Protocol (Loopback) Neben der OUI existiert auch ein kleiner Adressbereich (IAB Individual Address Block), der sich insbesondere für Privatpersonen und kleine Firmen lohnt. Interessierte erhalten einen kleinen eigenen Adressbereich innerhalb der Bits 11 bis 0. Damit sind 212 = 4096 individuelle Adressen möglich. In der OUI-Datenbank als "privat" gekennzeichnete Herstellerkennungen sind für Firmen registriert, die ihre Identität nicht öffentlich preisgeben wollen. Adressen aus diesen Bereichen können daher nicht, wie man vermuten würde, für lokale Zwecke eingesetzt werden. Die Herstellerkennung ist weitgehend in einer Datenbank einsehbar: ( standards.ieee.org/regauth/oui/index.shtml). Unter kann man den Hersteller einer MAC-Adresse suchen. PLS (Physical Level Signaling) PLS kommuniziert teils mit der eigenen MAC, teils mit MACs in anderen Stationen. Die Service Primitive, die für die Datenübertragung benutzt wird, ist "DATA.request" von der MAC, die über "DATA.indication" auf Bitebene Daten an alle MACs im Netz sendet. Damit erhält auch die eigene MAC ihre ausgehenden Bits als Echo von PLS. Zur MAC gibt es auch die zwei Primitive, "CARRIER.indication" und "SIGNAL.indication". Diese werden benutzt, um der MAC die Zugangskontrolle zu ermöglichen. CARRIER hat zwei Stellungen ("on" und "off") und wird durch die PMA generiert, wenn diese feststellt, daß ein Bitstrom im Netzkabel eingeleitet oder beendet wird. Es wird benutzt, um anzuzeigen, ob das Medium frei ist oder nicht. SIGNAL zeigt die Qualität des Signals an und wird unter anderem dazu benutzt, Kollisionen anzuzeigen. MAU (Medium Attachment Unit) Grundlagen Computernetze Von der PLS definiert der Standard eine Schnittstelle (Attachment Unit Interface oder AUI) zum Physical Medium Attachment (PMA) und von diesem eine weitere Schnittstelle (Medium Dependent Interface oder MDI) zum Medium. Zusammen bilden diese die MAU (Medium Attachment Unit), die auch als "Transceiver" bezeichnet wird. Bei 10Base5 hängt der MAU fest angekoppelt am Kabelstrang und versorgt den Rechner über Twisted-Pair-Stichleitungen (AUI-Kabel). Der Hauptstrang ist damit von den Benutzern entkoppelt. Bei 10Base2 verzichtet man darauf. MAC (Media Access Control) 25

31 Historisches 1972 Entwicklung begann bei Xerox 1976 erste Vorstellung (3 Mbit/s Datenrate) 1980 Standard "Ethernet V1.0" (DEC, Intel, Xerox) 1981 Standard IEEE Standard "Ethernet V2.0" Zitat aus The Ethernet Sourcebook, ed. Robyn E. Shotwell (New York: North-Holland, 1985): ``The diagram... was drawn by Dr. Robert M. Metcalfe in 1976 to present Ethernet... to the National Computer Conference in June of that year. On the drawing are the original terms for describing Ethernet. Since then other terms have come into usage among Ethernet enthusiasts.'' Die erste Skizze ist auch noch überliefert: For a report on the experimental Ethernet system by two of the inventors see: Ein Bericht der Erfinder über das Experimental-Ethernet findet man in dem Zeitschriftenartikel: Robert M. Metcalfe and David R. Boggs.``Ethernet: Distributed Packet Switching for Local Computer Networks,'' Association for Computing Machinery, Vol 19/No 7, July Historisches 26

32 Eine Zusammenfassung des Patents ist im WWW unter zu finden. Sehr umfassende Informationen über das Ethernet sind auch unter gespeichert. Weitere Quellen: Grundlagen Computernetze Why is it called Ethernet? 10 Mbit/s Ethernet 100 Mbit/s Fast Ethernet Gigabit Ethernet 10 Gigabit Ethernet Ethernet Auto-Negotiation Ethernet Analyzers and Network Software Ethernet Numbers Ethernet Standard Documents Frequently Asked Questions (FAQ) lists Papers and Reports Echtzeit-Ethernetseiten von Prof. Dr.-Ing. Jürgen Schwager Entwicklung der Übertragungsmedien (IEEE 802.3) 10Base5 (Thick-Ethernet, Yellow-Cable) 10Base-T 10BaseFB Ethernet mit einer Bandbreite von 10 Mbit/s Über Yellow-Cable. Die maximale Kabellänge eines Segments beträgt 500 Meter. Die beiden Kabelenden müssen mit Abschlußwiderständen abgeschlossen werden. Pro Segment dürfen 100 Endgeräte angeschlossen werden. Der Abstand zwischen zwei Stichleitungen muß ein Vielfaches von 2,5m betragen. Die Stichleitungen dürfen nicht länger als 50 Meter sein. Übertragung von 10 Mbit/s über Twisted-Pair-Kabel Hub notwendig Maximale Entfernung 100m Es werden zwei Adernpaare benötigt Kabel ab Kategorie drei Mit Switch Full-Duplex-Betrieb möglich Verbindung von 2 Stationen ohne Hub mit Cross-Over-Kabel möglich "B" für Backbone 10Base2 (Thin-Ethernet, Cheapernet) 100Base-T 10BaseFL Ethernet über RG58 50-Ohm-Koax-Kabel Nur für 10Mbit/s BNC-Stecker und T-Stücke zur Verbindung An beiden Enden ein 50-Ohm-Abschlußwiderstand Maximale Segmentlänge: 185m Mindest Stationsabstand: 0,5m Maximale Anzahl Stationen: 30 Keine Stichleitungen erlaubt Übertragung von 100 Mbit/s über Twisted Pair Kabel Hub notwendig Maximale Entfernung 100m Es werden zwei Adernpaare benötigt Kabel ab Kategorie fünf Mit Switch Full-Duplex-Betrieb möglich Verbindung von 2 Stationen ohne Hub mit Cross-Over-Kabel möglich Übertragung von 10 Mbit/s über LWL Entwicklung der Übertragungsmedien (IEEE 802.3) 27

33 Übertragung von 10 Mbit/s Über LWL Maximal 15 Repeater Maximale Segmentlänge 2000m Signalisierung ist synchron mit Fehlererkennung 100BaseFX Übertragung von 100 Mbit/s über LWL Maximale Segmentlänge von 400m Max. Distanz zwischen zwei 100BaseFX Switches 2000m 1000BaseLX Übertragung von 1000 Mbit/s über LWL "L" für Long Wavelength von 1300nm Max. Distanz mit Multimodefasern 550m Max. Distanz mit Monomodefaser 3000m Full-Duplex 1000BaseCX "C" für Copper. Übertragung von 1000 Mbit/s über STP-Kabel 150 Ohm Wellenwiderstand Max. Distanz 25m Full-Duplex 10GBaseLX4 Übertragung von Mbit/s Über LWL "L" für Long Wavelength "X" für WWDW (Wide Wave Division Multiplexing) 8B/10B-Encoding "4" für die vier Bereiche: 1269,0nm ,4nm 1293,5nm ,9nm 1318,0nm ,4nm 1342,5nm ,9nm Max. Distanz mit 10µm Monomodefasern 10km Max. Distanz mit 50µm Multimodefasern 300m nur Full-Duplex 10GBaseSR Übertragung von Mbit/s über LWL "S" für Short Wavelength von 850nm "R" für Serial 64B/66B Encoding 100BaseT4 Maximal 5 Repeater Maximale Segmentlänge 2000m. Übertragung von 100 Mbit/s über Cat-5-Kabel Es werden alle 4 Adernpaare benutzt 1000BaseSX 1000BaseT Übertragung von 1000 Mbit/s über LWL "S" für Short Wavelength 850nm Max. Distanz mit 62,5µm Multimodefasern 270m Max. Distanz mit 50µm Multimodefasern 550m Full-Duplex Übertragung von 1000 Mbit/s über CAT-5-Kabel "T" für Twisted Pair Max. Distanz 100m. Alle vier Paare sind notwendig Full-Duplex 10GBaseSX4 Übertragung von Mbit/s über LWL "S" für Short Wavelength "X" für CWDW (Coarse Wave Division Multiplexing) "4" für die vier Bereiche: 773,5nm - 786,5nm 789,5nm - 811,5nm 823,5nm - 836,5nm 848,5nm -861,5nm Max. Distanz mit 62µm Multimodefasern 100m Max. Distanz mit 50µm Multimodefasern 300m nur Full-Duplex, nur Multimodefasern kein Standard 10GBaseSW Übertragung von Mbit/s über LWL "S" für Short Wavelength von 850nm Entwicklung der Übertragungsmedien (IEEE 802.3) 28

34 Max. Distanz mit 50µm-Multimodefasern 65m nur Full-Duplex, nur Fiber 10GBaseLW Übertragung von Mbit/s über LWL "L" für Long Wavelength von 1310nm "W" für Serial WIS (WAN Interface Sublayer) Encoding Ethernet in SONET STS192c Max. Distanz mit 10µm-Monomodefasern 10km nur Full-Duplex, nur Fiber 10GBaseER Übertragung von Mbit/s über LWL "E" für Long Wavelength von 1550nm "R" für Serial 64B/66B Encoding Max. Distanz mit 10µm-Monomodefasern 40km nur Full-Duplex, nur Fiber Quelle der Tabelle: "W" für Serial WIS (WAN Interface Sublayer) Encoding Ethernet in SONET STS192c Max. Distanz mit 50µm-Multimodefasern 65m nur Full-Duplex, nur Fiber 10GBaseLR Übertragung von Mbit/s über LWL "L" für Long Wavelength von 1310nm "R" für Serial 64B/66B Encoding Max. Distanz mit 10µm-Monomodefasern 10km nur Full-Duplex, nur Fiber 10GBaseEW Übertragung von Mbit/s über LWL "E" für Long Wavelength von 1550nm "W" für Serial WIS (WAN Interface Sublayer) Encoding Ethernet in SONET STS192c Max. Distanz mit 10µm-Monomodefasern 40km nur Full-Duplex, nur Fiber Promiscous Mode Normalerweise nimmt ein Netzwerkinterface nur Datenpakete an, die an seine Hardwareadresse gerichtet sind und leitet diese an die höheren Schichten weiter. Manche Interfaces lassen sich aber in den sogenannten "promiscous mode" schalten. In diesem Modus werden alle Frames an die höheren Schichten weitergeleitet. Dieser Modus wird beispielsweise von Netzwerk-Überwachungstools oder transparenten Bridges verwendet. Power over Ethernet Die Stromversorung von Endgeräten in der Netzwerktechnik wurde bisher den Herstellern der Endgeräte selber überlassen. Die lösten die Stromversorgung mit geringen Leistungen meist über Steckernetzteile. Dazu ist neben jeder Netzwerkdose auch eine Steckdose des 230V-Netzes erforderlich. Mit dem IEEE-Standard Power-over-Ethernet (PoE) bzw. IEEE 802.3af wurde dieses Problem gelöst. Laut Spezifikation wird eine Leistung von 12,95 Watt zu Verfügung gestellt. Damit eignet sich diese Technik hervorragend um Webcams, Print-Server, IP-Telefone (Voice-over-IP), Wireless LAN Access Points, Handheld-Computer und sparsame Notebooks mit Strom zu versorgen. Die Stromversorgung über die Signalleitungen wirkt sich bei 10BaseT (10 Mbit/s) und 100BaseTX (100 Mbit/s) nicht allzu störend auf das Ethernet-Signal aus. Auf 1000BaseT Gigabit-Ethernet ist PoE zwar möglich, wird aber nicht empfohlen, da 1000BaseT alle 8 Adern im Kabel belegt und man deshalb in jedem Fall auf das ohnehin empfindliche Gigabit-Ethernet-Signal einwirken würde. Promiscous Mode 29

35 Bis alle eingesetzten Switches und Hubs über PoE verfügen muss man noch auf eine Bastellösung zurückgreifen. Bei einzelnen Komponenten, die über Power-over-Ethernet mit Strom versorgt werden können, tut es ein einfacher Power Injektor, der im Leitungsnetz zwischen Hub/Switch und Endgerät geschaltet wird. Gibt es in einem Netzwerk mehrere Power-over-Ethernet-Endgeräte, dann ist ein Power Hub nötig, der dann beim Hub/Switch installiert sein sollte. Die Technologie von Power over Ethernet erlaubt es kleinere Netzwerkgeräte, wie z.b. IP-Telefone, Accesspoints, Netzwerkameras etc., ohne eine externe Stromquelle zu betreiben. Die Idee der Stromversorgung über die Netzwerkleitung ist jedoch schon älter, nur gab es bislang keinen gültigen Standard, so daß verschiedene Hersteller eigene Lösungen entwickelten. Dadurch war die Gefahr groß, daß man aus Versehen inkompatible Komponenten durch das Anschließen beschädigt. Im IEEE 802.3af wird zwischen 2 Kernkomponenten unterschieden. Power Sourcing Equipment (PSE). Diese Komponenten speisen das Netz mit Strom. Es sind meistens aktive Netzkomponenten oder Patchfelder mit PoE-Support. Powered Devices (PD). Dies sind die Energieverbraucher. Sie müssen PoE unterstützen. Bei den Stromeinspeisungen unterscheidet man zwischen Endspan und Midspan Insertion. Die Endspan-Systeme sind aktive Komponenten (hauptsächlich Switches), die die angeschlossenen Geräte direkt über die Ethernetports mit Strom versorgen. Der Nachteil dieser Geräte ist die hohe Leistungsaufnahme und eine hohe Abwärme. Die Midspan-Systeme nehmen die Daten der aktiven Komponente entgegen und leiten sie gemeinsam mit der Versorgungsspannung an die Endgeräte weiter. Die Übertragung der 48-V-Gleichspannung ist für maximal 100 Meter ausgelegt, was auf das Ethernet abgestimmt wurde. Die angeschlossenen Geräte dürfen 350 ma Strom abnehmen und die maximale Speiseleistung beträgt 15,4 W. Die Versorgung der Endgeräte erfolgt über Cat.5 Kabel mit RJ-45 Steckern. Das PoE-Verfahren macht sich die Tatsache zu nutze, dass von den 4 vorhandenen Adernpaaren lediglich 2 zur Datenübertragung benutzt werden. Schutzmechanismen Da man in einem LAN natürlich nicht nur PoE-Geräte betreiben will, hat das IEEE ein Verfahren erarbeitet, das Endgeräte vor möglichen Schäden schützt. Dieses Verfahren wird Resistive Power Discovery genannt. Hierbei prüft der PSE das PD auf Kompatibilität, indem es in zyklischen Abständen einen minimalen Strom einspeist und daran erkennt, ob das PD einen 25-Kiloohm-Abschlusswiderstand besitzt. Wenn nicht ist das Endgerät nicht PoE-fähig. Wenn ja kann der PSE das PD mit Energie versorgen. Jetzt wird das PD mit einer geringen Leistung versorgt. Das PD signalisiert nun dem PSE welcher der 5 Leistungsklassen es angehört. Die Erkennung erfolgt innerhalb einer Sekunde. Einen weiteren Power over Ethernet 30

36 Schutz bietet der Disconnect-Schutzmechanismus. Wenn ein PD entfernt wird, deaktiviert der PSE automatisch die Stromversorgung des entsprechenden Ports. Dieser Mechanismus soll das Vertauschen von PoE-fähigen mit Standardgeräten verhindern. Es werden folgende Leistungsklassen unterschieden: Klasse Verwendung Max. Einspeiseleistung (PSE) Max. Entnahmeleistung (PD) 0 default 15,4 W 0,44 bis 12,95 W 1 optional 4,0 W 0,44 bis 3,84 W 2 optional 7,0 W 3,84 bis 6,49 W 3 optional 15,4 W 6,49 bis 12,95 W 1 reserviert 15,4 W Reserviert Belegung des RJ45-Steckers bei Power-over-Ethernet Für die Übertragung der Stromversorgung wird das Adernpaar 4/5 für den Pluspol und das Adernpaar 7/8 für den Minuspol verwendet. Pin Leitung Pin Leitung 1 TX+ 5 PoE/G 2 TX- 6 RX- 3 RX+ 7 PoE/-48V Grundlagen Computernetze 4 PoE/G 8 PoE/-48V Wird die Netzwerkverkabelung auch für andere Anwendungen, z. B. für Telefonie, genutzt, dann ist Vorsicht beim Einsatz von Power-over-Ethernet-Netzwerk-Komponenten geboten. Mit einem Mechanismus sollten die Power-over-Ethernet-Netzwerkkomponenten vor dem Einschalten der PoE-Stromversorgung alle angeschlossenen Endgeräte auf PoE-Unterstützung überprüfen. Auf einen Anschluss sollte nur dann Spannung geschaltet werden, wenn dort auch ein Endgerät mit PoE-Unterstützung angeschlossen ist. Zum vorhergehenden Abschnitt Zum Inhaltsverzeichnis Zum nächsten Abschnitt Copyright FH München, FB 04, Prof. Jürgen Plate Letzte Aktualisierung: 07. Mär 2012 Grundlagen Computernetze Prof. Jürgen Plate Schutzmechanismen 31

37 Übertragungsmedien Egal wie das Kabel letztendlich aussieht, gibt es bei allen Kabeln ein paar grundlegende Eigenschaften. Jeder Leiter hat einen gewissen Gleichstromwiderstand, der abhängt vom spezifischen Widerstand des Materials (r), vom Querschnitt des Leiters (A) und von seiner Länge (l): R = r * l/a Für die Anwendung im Netz wesentlich wichtiger ist der Wechselstromwiderstand des Kabels. Wenn wir ein kurzes Leitungsstück betrachten, bildet die Leitung eine Induktivität L, die in Serie zum ohmschen Widerstand liegt. Die nebeneinanderliegenden Leiter und der Rückleiter bilden eine Kapazität C. Schließlich gibt es zwischen beiden Leitern noch einen sehr hohen Isolationswiderstand G. Man kann das Leiterstück also durch eine Ersatzschaltung wie im Bild annähern. Das Kabel setzt sich dann aus vielen dieser kleinen Schaltungen zusammen, die hintereinandergeschaltet sind. Betrachtet man das Leitungsstück dx, in dem der Strom I(x,t) fliesst, so ergibt sich ein Spannungsabfall U(x,t) über L und R nach dem ohmschen Gesetz die linke Gleichung. Mit der Knotenregel erhalten wir ausserdem die rechte Gleichung: Differenziert man die erste Gleichung nach x und eliminiert man den Term di/dx bleibt eine Differentialgleichung für die Spannung U(x) übrig, die sogenannte Telegraphengleichung (analog läßt sich das für den Strom erledigen): Als Lösung erhalten wir gedämpfte Wellen entlang des Leiters: γ nennt man "komplexe Dämfungskonstante". Ihr Realteil α beschreibt die Dämpfung, der Imaginärteil β die Wellenzahl. Für eine verlustfreie Leitung mit R = 0 und G = 0 gilt α = 0 sowie: Man nennt das Verhältnis von Spannung zu Strom in der Leitung analog dem ohmschen Gesetz "Wellenwiderstand" oder "Wellenimpedanz" Z. Durch Einsetzen der Gleichung erhält man: Übertragungsmedien 32

38 Für den Fall einer sogenannten Widerstandsdämpfung (R > 0, aber G = 0) erhalten wir: Damit ist für ω = R/L die Wellenzahl β nicht mehr genau proportional zu ω, sondern etwas größer. Die Phasengeschwindigkeit ω/β wird frequenzabhängig kleiner, d.h. wir haben "Dispersion"; Signale werden verzerrt übertragen. Auch Z ist dann frequenzabhängig und wird für kleine Frequenzen größer. Für hohe Frequenzen verschwindet die Dispersion. Für die oben stehenden Gleichungen gilt, daß bei hohen Frequenzen die induktive Reaktanz viel größer ist als der ohmsche Widerstand (ωl &gt> R). Es wird ferner angenommen, daß die Ableitung verschwindend gering ist (G = 0). Es gilt: Nach dieser Gleichung scheint α frequenzabhängig zu sein. Hier kommt jedoch ein anderer Effekt zu Tage. Der "Skineffekt" bewirkt, dass die Stromdichte an der Oberfläche eines metallischen Körpers nach innen exponentiell abnimmt. Durch das elektromagnetische Feld des Stromes entstehen Wirbelströme im Leiter, durch welche ein nicht leitender Bereich in der Leitung entsteht. Der Leiterquerschnitt wird effektiv verringert und somit der Widerstand erhöht. Ein Gleichstrom I erzeugt ein konstantes Magnetfeld H. Für Wechselstrom erzeugt di/dt entsprechend dh/dt. Ein magnetisches Wechselfeld dh/dt erzeugt seinerseits aber ein elektrisches Feld, was wieder den Strom I beeinflußt. Übertragungsmedien 33

39 Die mittlere Eindringtiefe des Stromes ist frequenzabhängig: (µ = Permeabilität ρ = Leitfähigkeit) Typische Werte sind für Kupfer bei 1 MHz 70µm, bei 1 GHz 2 µm. Der effektive Kabelwiderstand nimmt also mit der Frequenz zu; demzufolge hat man auch eine Frequenzabhängigkeit der Dämpfung. Um die Oberfläche des Leiters zu vergrößern und so die Leitfähigkeit zu verbessern, nimmt man für Hochfrequenz-Anwendungen oft Kupferfolien, mehrere Litzen oder - bei ganz hohen Frequenzen - Hohlleiter. Dazu ein Zahlenbeispiel: Das Koaxkabel RG 178 hat Z = 50Ω, R = 0,45 Ω/m, L = 240 nh/m und C = 95 pf/m. Bei 2 MHz und 100 m Länge wird das Signal um einen Drittel reduziert, bei 200 MHz sogar um 99%. Die Sache ist in der Praxis noch komplizierter, da weitere Effekte hinzukommen. Ein in positiver- und ein in negativer Richtung durchflossener Leiter Stoßen sich voneinander ab (Proximity-Effekt). Die konzentrischen, stromfreien Zonen werden asymetrisch. Die Oberfläche eines Leiters ist nie glat, es gibt mikroskopisch kleine "Täler" und "Hügel". Sinkt bei hohen Frequenzen die Eindringtiefe unter die Oberflächenrauheit, muss der Strom einen weiteren Weg zurücklegen. Andert sich die Geometrie der Leitung an einer bestimmten Stelle, so ändern sich auch Ausbreitungsgeschwindigkeit und Impedanz. Ein spezieller Fall ist das Ende einer Leitung. Es sei mit einem Widerstand R abgeschlossen. Ist R = Z, so ist der Widerstand "angepasst", die Energie der ankommenden Welle wird im Widerstand vernichtet, der Reflexionsfaktor r = 0. Für alle anderen Werte von R ist er definiert als r = (R - Z)/(R + Z). Für ein offenes Kabelende (R unendlich) geht r gegen 1. Die reflektierte Spannung ergibt sich aus der Signalspannung multipliziert mit dem Reflexionsfaktor (das gleiche gilt für den Strom). Daraus folgt, daß offene Leitungen (bzw. R groß) führen zu Refexionen von Signalen mit gleichem Vorzeichen, kleine Widerstandswerte (Kurzschluss) führen zu Reflexionen mit umgekehrtem Vorzeichen. Für die störungsfreie Datenübertragung sollte die Leitung also mit R = Z abgeschlossen sein. Offene oder kurzgeschlossene Leitungen lassen sich zur Messung von Leitungslängen und Lokalisierung von Impedanzinhomogenitäten nutzen. Der Wellenwiderstand eines realen Kabels ist seine Kenngröße, die angibt, mit welchem Ohmschen Widerstand eine Leitung abgeschlossen werden muss, damit Anpassung erfolgt (keine Reflexionen). Zur Berechnung des Wellenwiderstandes werden die physischen Eigenschaften des Kabels benötigt, also konstante Größen, die von Leitungsmaterial und der Leitungsgeometrie abhängen. In der Informations- und Kommunikationstechnik werden üblicherweise Kabel und Leitungen mit einem Widerstand abgeschlossen, um Reflexionen der Signale an den Kabelenden zu vermeiden. Mißt man den Wechselstromwiderstand eines Kabels indem man ein Wechselspannungssignal einspeist, erhält man den spezifischen Wellenwiderstand des Kabels. Dazu misst man den Strom bei offenen und kurzgeschlossenen Leitungsenden. Nach den Strommessungen berechnet man aus der Generatorspannung U G und gemessenem Strom den Kurzschluss- und Leerlaufwiderstand, R K und R L : R K = U G /I K (= Z K ) R L = U G /I L (= Z L ) Übertragungsmedien 34

40 Der Wellenwiderstand Z W der Leitung, ergibt sich aus Kurzschluss- und Leerlaufwiderstand: Beim Ethernet ist der Wellenwiderstand auf 50 Ohm festgelegt. Die Grenzfrequenz ist erreicht, wenn die Ausgangsspannung 70% der Eingangsspannung erreicht hat. Die digitalen Signale, die auf das Netzwerkkabel geleitet werden, bilden auch eine (sehr oberwellenreiche) Wechselspannung. Zu Beginn hat man sich beim Ethernet für Koaxialkabel entschieden. Sie bestehen aus einem äußeren Leiter, der einen innenliegenden Leiter vollständig umschließt und dadurch abschirmt. Die beiden Leiter sind durch einen Isolator elektrisch getrennt. Koaxkabel gibt es in verschiedenen Ausführungen, für das Ethernet werden Typen mit einem Wellenwiderstand von 50 Ohm verwendet. Die Konstruktion dieses Kabels ist aber nicht nur wegen der Abschirmung des inneren Leiters günstig, da sie noch einen anderes Phänomen der Hochfrequenztechnik ausnutzt: den oben beschriebenen Skineffekt. Seit einigen Jahren werden fast nur noch verdrillte Zweidrahtleitungen (10BaseT) oder Glasfaserleitungen verwendet. Für einige Grundsatzbetrachtungen sind die Koaxialkabel aber immer noch interessant. Die Definition des physikalischen Kanals ist aber nur ein Teil der IEEE Spezifikation. Der Standard beschreibt physikalische Übertragung, die auch unser Thema ist, und Zugriffsverfahren, die sogenannten Protokolle. Auf der physikalischen Ebene sind Bezeichnungen wie 10Base5, 10Base2 und 10BaseT von Belang. Entscheidend sind dabei drei Parameter: die Übertragungsrate, das Übertragungsverfahren (Basis- oder Breitband; 'Base' oder 'Broad') sowie Aussagen zur räumlichen Ausdehnung. Zur Unterscheidung und Charakterisierung der einzelnen Übertragungsmedien wurde folgende Systematik für die Kabelbezeichnung entwickelt: <Datenrate in MBit/s><Übertragungsverfahren><Max. Länge/100 m> Auch der Kabeltyp kann unterschiedlich sein. Vom Koaxkabel über Glasfasern bis zu verdrillten Zweidrahtleitungen ist alles vertreten. Standard-Ethernet, 10Base5 Im weiteren wollen wir aber nur auf die Ethernet-Verkabelung eingehen. Das Standard-Ethernet besteht aus dem, meistens gelb isoliertem, 50-Ohm-Koaxialkabel mit ca. 10 mm Durchmesser (10,3 mm bei PVC-Isolierung, 9,5 mm bei PEP). Ein Kabelsegment darf maximal 500 m lang sein. Im Mindestabstand von 2,50 m können Media Attachment Units (MAUs) gesetzt werden. Zu diesem Zweck sind auf dem Kabel Markierungen angebracht. Die Ursache für den vorgeschriebenen Mindestabstand liegt darin, daß man eine Beeinflussung der MAUs untereinander ausschließen wollte. Das Bild zeigt schematisch den Anschluß an das Kabel. Standard-Ethernet, 10Base5 35

41 An einen MAU kann über ein maximal 50 m langes Transceiverkabel eine Ethernet-Station angeschlossen werden. Maximal 100 Stationen können an einem Kabelsegment hängen. Der Biegeradius darf 20 cm nicht unterschreiten. Das Kabel muß zur Vermeidung von Reflexionen an beiden Enden mit einem 50-Ohm-Widerstand (1 Watt) terminiert werden. Der Transceiver im MAU wird über einen TAP angeschlossen, bei dem Mittelleiter und Schirm kontaktiert werden, ohne das Kabel - und damit den Datenfluß auf dem Netz - zu unterbrechen. Bei einem Defekt im Transceiverkabel wird das Netz nicht beeinflußt; lediglich die betroffene Station ist von der Kommunikation getrennt. Die paarweise verdrillten Leitungen im Transceiverkabel werden über Differenztreiber angesteuert, auf Empfangsseite sitzen Differenzverstärker. Störungen können sich so nur gering bemerkbar machen. Anbindung der Arbeitsplätze direkt an das Yellow-Cable Zum Anschluß der einzelnen Arbeitsplätze an das Netzwerk benötigt man pro Arbeitsplatz den oben erwähnten MAU. Er stellt die Verbindung von Rechner über den AUI-Port mit dem Netzwerk her. Diese Vorgehensweise birgt allerdings einige Probleme (z. B. Netzlast, usw.). Es existieren strenge Verlegevorschriften bezüglich Biegeradius, Anschlußmöglichkeiten der einzelnen Stationen usw. Das Yellow Cable ist heute veraltet und sollte für Neuinstallationen nicht mehr eingesetzt werden. Es ist aber noch relativ häufig anzutreffen. Bei Anschlußfehlern werden die benachbarten Teile des Netzes betroffen. Außerdem wird für den Anschluß des MAU ein Spezialwerkzeug benötigt. Anbindung der Arbeitsplätze direkt an das Yellow-Cable 36

42 AUI-Kabel (Attachment Unit Interface, Transceiver-Kabel) An einen MAU kann über ein maximal 50 m langes AUI-Kabel (Impedanz 100 Ohm) eine Ethernet-Station angeschlossen werden, z. B. eine Workstation, ein Terminalserver oder ein PC mit Ethernet-Einschubkarte. Das Kabel bietet die nötige Bewegungsfreiheit bei dem doch recht sperrigen "yellow cable". Im Transceiver-Anschlußkabel existieren zwei Leitungspaare für die beiden Senderichtungen. Der eigentliche Sender ist im wesentlichen eine Stromschleife, die zirka 65 ma treibt. Der Empfänger realisiert einen hochohmigen Abgriff des Signals vom Kabel, damit das Signal auf der Leitung nicht zu stark gedämpft wird. Weitere Leitungen liefern Informationen über Kollisionen. Zusätzlich erfolgt über das Kabel auch noch die Stromversorgung des Transceivers. Die Verbindung zum Transceiver bzw. zum Ethernet-Contoller erfolgt über 15polige SUB-D-Stecker. Das Kabel trägt die Stecker an den Netzkomponenten sind die Buchsen angebracht. Die Belegung der Stecker ist so gehalten, daß übereinanderliegende Pins jeweils die zueinander inversen Signale leiten: Pin Signal Pin Signal 1 Schirm für Kollisionserkennung 2 Kollisionserkennung + 9 Kollisionserkennung - 3 Sendedaten + 10 Sendedaten - 4 Schirm für Empfangsdaten 11 Schirm für Sendedaten 5 Empfangsdaten + 12 Empfangsdaten - 6 Masse bis 15 V DC 7 Control Out + 14 Schirm für Stromversorgung 8 Schirm für Control Out 15 Control Out - Thinwire-Ethernet (Cheapernet), 10Base2 Eine weitere Abweichung vom ursprünglichen Standard besteht im Einsatz dünnerer Koaxialkabel. Diese haben zwar eine höhere Dämpfung und geringere Störfestigkeit als das Yellow Cable, sind aber für kleinere Netze vollkommen ausreichend. Sie sind nicht nur billiger (daher auch der Spitzname 'Cheapernet'), sondern auch besser zu verlegen. Bei diesem Netz entfallen auch die externen Transceiver und die Anschlußkabel. Das Kabel wird unmittelbar an der Netzwerkkarte des Rechners vorbeigeschleift und mittels eines BNC-T-Stücks angeschlossen. Dazu muß das Koaxkabel durchtrennt und mit zwei BNC-Steckern versehen werden - das Netz wird also kurzzeitig unterbrochen. Der Transceiver ist mit auf dem Netzwerkinterface integriert. Es handelt sich um ein 50-Ohm-Kabel RG58A/U oder RG58C/U mit einem Durchmesser von 4,7-4,9 mm Durchmesser. Die maximale Länge eines Segmentes beträgt 185 m (nicht etwa 200 m, wie die "2" bei 10Base2 vermuten läßt) und es können bis zu 30 Stationen angeschlossen werden, deren Minimalabstand 0,5 m betragen muß. Beim Verlegen des Kabels darf der Biegeradius 5 cm nicht unterschreiten. Durch geeignete AUI-Kabel (Attachment Unit Interface, Transceiver-Kabel) 37

43 Repeater können Standard-Ethernet-Segmente mit dem Cheapernet verbunden werden. Die 50-Ohm-Abschlußwiderstände sind in BNC-Stecker integriert und werden bei den beiden äußeren Stationen direkt auf das T-Stück gesetzt. Ein Defekt im Kabel, das ja an allen Stationen über die T-Stücke angeschlossen ist, betrifft somit auch alle Stationen. Das direkte Vorbeischleifen des Kabels am Interface ist für das 10Base2-Interface zwingend notwendig, ein Verlängern des T-Stückes mit einer 'Stichleitung' ist aufgrund der Funktionsweise des Transceivers nicht möglich. Wenn man versuchen würde, einen 10Base2-Anschluß durch eine Stichleitung zu verlängem, wäre die saubere Ausbreitung der Welle nicht mehr gewährleistet und Reflexionen am Anfang und Ende der Stichleitung die Folge. Den Nachteil des Vorbeischleifens macht das 10Base2-Kabel dadurch wett, daß es bei deutlich geringerem Preis einfacher zu verlegen ist als das herkömmliche Ethernet. Moderne Netzwerkkarten bieten übrigens Anschlußmöglichkeiten für Transceiver-Kabel (also konventionelles Ethernet), für BNC-T-Stücke (10Base2) und für 10BaseT-Kabel (siehe unten) und sind standardmäßig mit einem OnBoard-Transceiver ausgestattet. Damit ist eine große Flexibilität in der Installation gegeben, es muß lediglich auf der Netzwerkkarte die gewünschte Konfiguration eingestellt werden. Anschluß der Arbeitsplätze an einen BNC-Strang Die Ausführung eines Netzwerksegmentes mit BNC-Kabeln ist wesentlich kostengünstiger als mit Yellow-Cable. Das BNC-Kabel wird an einen BNC-Hub o. ä. angeschlossen welcher selbst beispielsweise am Yellow-Cable angeschlossen ist. Thinwire-Ethernet (Cheapernet), 10Base2 38

44 Das oben erwähnte T-Stück wird direkt an der Netzwerkkarte angeschlossen, die im Rechner eingebaut ist. Sollte es sich um den ersten bzw. letzten Rechner im Segment handeln, so wird dieser auch mit einem T-Stück angeschlossen. Jedoch wird hier der freibleibende Anschluß durch einen 50 Ohm-Abschlußwiderstand bestückt. Der Kabelanfang und das Kabelende müssen jeweils mit einem 50 Ohm Abschlußwiderstand abgeschlossen werden. Die Verlängerung der einzelnen Segmente erfolgt mit Repeatern. Sie werden als Signalverstärker zwischen die einzelnen Segmente geschaltet. Mittels Multiportrepeatern kann man das Netzwerk an diesen Stellen auch aufsplitten und in verschiedene Einzelsegmente aufteilen. Allerdings sollte immer darauf geachtet werden, daß bei einer solchen Installation nicht zu viele Arbeitsplätze angeschlossen werden. Jede Arbeitsstation bedeutet zusätzliche Netzlast. Je geringer die Netzlast ist, desto höher ist die Arbeitsgeschwindigkeit des Netzwerkes. Anschluß der Arbeitsplätze an einen BNC-Strang 39

45 BNC-Netz mit eigenem Server Bei den beiden vorgenannten Versionen sind die Installationen abhängig von einem abgesetzten File-Server. Er liefert die notwendige Netzwerksoftware und evtl. die benötigten Programme. Soll nun aber ein bestimmter Bereich des Netzes unabhängig vom File-Server betrieben werden, so ist es unerläßlich, einen Server nur für diesen Bereich zu beschaffen. Allerdings ist die BNC-Verkabelung - wie das Yellow Cable - ein aussterbender Standard, da man mit dieser Technik bereits an die Grenzen des technisch Möglichen angelangt ist. Die Übertragungsgeschwindigkeit von 10 Mbit/s kann hier nicht überschritten werden kann. Für "Wohngemeinschaftsnetze" wird es wegen seiner Preisgünstigkeit aber immer noch verwendet. Twisted-Pair, 10BaseT Twisted-Pair ist ein vieradriges, paarweise verdrilltes Kupferkabel, bei dem zwischen Sender und Empfänger für jede Übertragungsrichtung zwei Kupferadern genutzt werden. Die typische Dicke der Adern beträgt 0,5 oder 0,6 mm. Die maximale Übertragungslänge variiert mit der Dämpfung und ist abhängig davon, ob die Drähte abgeschirmt sind oder nicht. Das Twisted-Pair-Kabel eignet sich für verschiedene Uebertragungsmethoden wie Token Ring und Ethernet. Bei einer Datenrate von MBit/s kann ein Twisted-Pair-Kabel bis zu 100 m lang sein. Die Mindestlänge des Kabels beträgt 0,6 m. Das Kabel verbindet genau zwei Stationen miteinander. Zum Anschluß mehrerer Stationen müssen sogenannte Hubs (engl. "Hub" = Nabe eines Speichenrades) eingesetzt werden, es lassen sich dann bis zu 1024 Stationen miteinander koppeln. Als Verbinder kommen normalerweise RJ-45-Stecker (Western-Stecker) und -Dosen zum Einsatz. Auch hier werden wieder Differenztreiber und -empfangsverstärker eingesetzt. Der Pegel wechselt zwischen -2,5 V und +2,5 V. Mit der Twisted-Pair-Verkabelung hielt auch eine kaum überschaubare Anzahl unterschiedlicher Kabelvarianten Einzug in die Datentechnik. UTP, FTP, S/UTP, S/STP oder ITP beschreiben den Kabelaufbau, CAT 3, 5 oder 7 beschreiben die Kategorie hinsichtlich der Anforderung der Kabel und Steckverbinder. Die Kabelklasse (A khz, B - 1 MHz, C - 16 MHz, D MHz, E MHz, F MHz) definiert die Anforderungen hinsichtlich der Übertragungsbandbreite. CAT-1 für Alarmsysteme und analoge Sprachübertragung CAT-2 für Sprache und RS232-Schnittstellen CAT-3 Datenübertragung bis 16 MHz Anschluß der Arbeitsplätze an einen BNC-Strang 40

46 CAT-4 Datenübertragung bis 20 MHz (IBM Token-Ring 16 MHz) CAT-5 Datenübertragung bis 100 MHz Kategorie Übertragungsgeschwindigkeit (Mbit/s) Frequenz (MHz) Dämpfung (db/100m) NEXT (db) Grundlagen Computernetze Dämpfung (db/100m) NEXT (db) Dämpfung (db/100m) NEXT (db) Dämpfung (db/100m) NEXT (db) Dämpfung (db/100m) 1 2,6 2,6 41 2,1 56 2, ,6 32 4,3 47 4, ,5 28 6,2 42 5, ,9 26 7,2 41 6, ,1 23 8,9 38 8, ,2 36 9, , ,25 11, ,5 17, Bemerkung : Bei Kategorie 1 liegt die Impedanz im Bereich von 84 bis 113 Ohm Bei Kategorie 2-5 beträgt die Impedanz 100 Ohm ± 15% Die Bauart der Kabel hat einen ganz wesentlichen Einfluß auf die Störleistungsunterdrückung und damit die Störsicherheit der Kabel. Während UTP-Kabel eine typische Störteistungsunterdrückung von 40 db haben, erreichen S/STP-Kabel Werte bis zu 90 db. NEXT (db) UTP-Kabel (Unshielded Twisted Pair, nicht abgeschirmte verdrillte Leitungen) gehörten früher typischerweise der Kategorie 3 an. Inzwischen gibt es sie auch als CAT-5-Kabel. UTP-Kabel haben im industriellen Bereich oder in der Datentechnik mit hohen Datenraten nichts verloren. S/UTP-Kabel (Screened/Unshielded Twisted Pair) haben einen Gesamtschirm aus einem Kupfergeflecht zur Reduktion der äußeren Störeinflüsse. FTP-Kabel (Foileshielded Twisted Pair) besitzen zur Abschirmung einen Gesamtschirm, zumeist aus einer alukaschierten Kunststoff-Folie. S/FTP-Kabel (Screened/Foileshielded Twisted Pair) sind heute Stand der Technik bei der Verkabelung sogenannter UTP-Dosen. Der Aufbau besteht aus einem Gesamtschirm aus alukaschierter Polyesterfolie und einem darüberliegenden Kupfergeflecht. Gute Kabel erreichen eine Störleistungsunterdrückung über 70 db. Twisted-Pair, 10BaseT 41

47 STP (Shielded Twisted Pair) bezeichnt eine Kabelgattung mit Gesamtschirmung ohne weitere Spezifikation. S/STP-Kabel (Screened/Shielded Twisted Pair) besitzen eine Abschirmung für jedes Kabelpaar sowie eine Gesamtschirmung. Hierdurch kann eine optimale Störleistungsunterdrückung erreicht werden. Auch das Übersprechen zwischen den einzelnen Adernpaaren kann so wirksam unterdrückt werden. ITP (Industrial Twisted Pair) ist die industrielle Variante von S/STP. Während typische Netzwerkadern jedoch vier Adernpaare besitzen, beschränkt sich ITP auf zwei Paare. Die Preisunterschiede zwischen Cat-3-Kabeln und Cat-5-Kabeln ist so gering, daß es sich bei Neuinstallation auf jeden Fall empfiehlt, Cat-5-Kabel einzusetzen - schon, um mit 100 MBit/s arbeiten zu können. Größter Schleifenwiderstand Elektrische Eigenschaften für installierte 100-Ohm-Kabel gemäß DIN EN bzw. ISO/IEC 11801, Kategorie 5 Größter Widerstandsunterschied 3 % Isolationswiderstand 300 Ohm/km 150 MOhm x km Impedanz Zo bei 0,064 MHz 125 Ohm +/- 25% Impedanz Zo bei MHz 100 Ohm +/- 15% Kopplungswiderstand bei 10 MHz < 100 Ohm/km Twisted-Pair, 10BaseT 42

48 Rückflußdämpfung an 100 m Länge: MHz Rückflußdämpfung an 100 m Länge: >20 MHz Erdunsymmetriedämpfung db/bzl = 1000 m Größte Erdkopplung bei 0,001 MHz Kleinste Ausbreitungsgeschwindigkeit bei 1 MHz Kleinste Ausbreitungsgeschwindigkeit bei 10 MHz Kleinste Ausbreitungsgeschwindigkeit bei 100 MHz >23 db 23 db - 10 log (f/20) bei 64 khz > 43 db 1600 pf/km 0,60 c 0,65 c 0,65 c Die konventionelle Twisted-Pair-Ethernet-Verkabelung verwendet RJ-45-Steckverbinder. Auch hier gibt es die unterschiedlichsten geschirmten und ungeschirmten Ausführungen. Sie sind für den industriellen Einsatz nur teilweise geeignet. Von den acht Leitungen des RJ45-Steckers werden nur vier verwendet: Pin Signal 1 Sendesignal + 2 Sendesignal - Empfangssignal 3 + Empfangssignal 6 - Zwischen Rechner und Hub verbindet das Kabel die beiden Stecker 1:1. Bei speziellen Kabeln für die direkte Verbindung zweier Computer oder für das Kaskadieren von Hubs müssen die Leitungen gekreuzt werden. Die Verbindung ist dann: Pin (Signal) Pin (Signal) 1 (TX+) - 3 (RX+) 2 (TX-) - 6 (RX-) 3 (RX+) - 1 (TX+) Twisted-Pair, 10BaseT 43

49 6 (RX-) - 2 (TX-) Die RJ-45-Buchsen sind inzwischen auch keine profanen Steckkontakte mehr, sondern in ihnen sind auch gleich Übertrager, Drosseln und Widerstände integriert. Damit wird nicht nur Leiterplattenplatz eingespart, sondern auch bessere EMV-Eigenschaften erzielt und Layoutfehler vermieden. Das folgende Bild zeigt die elektrische Beschaltung einer solchen Buchse: Die Übertrager sorgen gleichzeitig für eine Potentialtrennung zwischen der Buchse und der restlichen Schaltung und für die Ausblendung von Störungen. Im folgenden Bild ist eine typische Buchse für die Platinenmontage abgebildet und darunter sind die Abmessungen (Vorder- und Seitenansicht) gezeigt. Oft sind in die Buchsen noch ein oder zwei LEDs integriert. Twisted-Pair-Verkabelung Wie gesagt, verlegt man pro Rechner ein eigenes Kabel. Während BNC-Netze eine Bus-Struktur haben, zeichnen sich Twisted-Pair-Netze durch eine Baumstruktur aus. Die einzelne Kabellänge zu einem Rechner darf 100 m nicht überschreiten. Die Anzahl der im Netz verfügbaren Rechner ist abhängig von den eingesetzten Repeatern, die hier "Hub" heißen (4-Port, 8-Port; usw.). Twisted-Pair-Verkabelung 44

50 Mehr dazu steht im Kapitel über Twisted-Pair-Verkabelung. Lichtwellenleiter Seit einiger Zeit werden Netzwerkleitungen teilweise als Lichtwellenleiter verlegt. Der zusätzliche Aufwand zum Konvertieren von Strom in Licht und zurück lohnt sich. Der Hauptvorteil liegt in der sehr hohen Übertragungskapazität der durchsichtigen Faser, die bis in den Bereich von GBit/s reicht. Die Datenübertragung via Lichtsignal läßt sich außerdem durch elektrische und elektromagnetische Störungen kaum beeinträchtigen. Dadurch ist das Glasfaserkabel besonders für die Datenübertragung in elektrisch verseuchten Räumen wie zum Beispiel einer Maschinenhalle geeignet. Auch spielt die schon beschriebene Problematik des sich unweigerlich immer weiter verschlechternden Rauschabstandes keine Rolle mehr. Lichtwellenleiter bieten gegenüber dem Kupferkabel entscheidende Vorteile: Lichtwellenleiter können beliebig mit anderen Versorgungsleitungen parallel verlegt werden. Es gibt keine elektromagnetische Störeinflüsse. Wegen der optischen Übertragung gibt es keine Störstrahlungen, Kontakt- oder Masseprobleme. Entfernungsbedingte Verluste des Signals aufgrund der Leitungs-Induktivitäten, -Kapaziäten und -Widerständen treten nicht auf. Weitgehend frequenzunabhängige Leitungsdämpfung der zu übertragenen Signale. Übertragungsraten sind durch mehrere Trägerwellen mit unterschiedlichen Wellenlängen (Farbspektrum) erweiterbar. Allerdings sind Lichtwellenleiter teurer als Kupferleitungen. Dies betrifft nicht nur die Materialkosten sondern auch den Aufwand für die Verlegung. Und ganz so einfach ist die Datenübertrag via Lichtwellenleiter (LWL) auch nicht. Die Eigenschaften des Leiters hängen vom geometrischen Aufbau und den physikalischen Eigenschaften des verwendeten Materials ab. Physikalische Grundlage des LWL ist das Prinzip von Brechung und Reflexion. Allgemein bekannt ist das Brechungsgesetz: Licht wird, wie das Bild zeigt, beim Übergang von einem optisch dichteren in ein optisch dünneres Medium vom Einfallslot weg gebrochen. Lichtwellenleiter 45

51 Die Ursache dafür liegt in der sich ändernden Ausbreitungsgeschwindigkeit. Diese hat in jedem Medium einen anderen Wert. In einem optisch dichteren Medium bewegt sich Licht langsamer fort als in einem optisch dünneren. Das Verhältnis der Lichtgeschwindigkeit c in Vakuum zur Lichtgeschwindigkeit v in einem anderen Medium ergibt die Brechzahl: n = c/v Typische Werte für die Brechzahl sind: für Glas etwa 1,5, für Wasser 1,33 und für das Vakuum 1. Bei jedem Medienübergang wird ein Teil des Lichts reflektiert je stumpfer der Einfallswinkel, desto stärker die Reflexion. Der Reflexionsgrad hängt vom Unterschied der beiden optischen Dichten und vom Einfallswinkel ab. Erreicht der Einfallswinkel einen kritischen Wert, gelangt überhaupt kein Licht aus dem Medium mit der höheren Brechzahl heraus. Auf dieser Totalreflexion beruht das Prinzip des Lichtwellenleiters. Die Aufgabe des Leiters besteht ja darin, das Licht verlustlos und ohne Impulsverformung über lange Strecken zu transportieren. Da sich Licht aber nach allen Seiten ausbreitet, muß man einen Käfig bauen, der das Licht im Leiter hält. Denn bei jeder Biegung des Kabels würde sonst nur ein Bruchteil des ursprünglichen Lichts im Kabel verbleiben und eine längere Übertragungsstrecke wäre völlig unmöglich. Deshalb konstruiert man den Lichtwellenleiter als optische Röhre. Im Innern der Röhre kann sich das Licht ungehindert fortpflanzen und an den Wänden wird es total reflektiert. So wird der Lichtstrahl gezwungen, sich innerhalb der Faser fortzubewegen. Der LWL mit dem einfachsten Aufbau besteht aus einem konzentrischen optischen Kern mit einer hohen Brechzahl n1, der mit einem optischen Mantel kleinerer Brechzahl n2 versehen ist. Licht, das in einem gewissen Winkelbereich in den LWL eintritt, wird durch fortlaufende Totalreflexion an der Grenze Kern/Mantel weiterbefördert. Neben dem reinen Transport ist die Verformung, die die Lichtimpulse während der Leitung erleiden, von Bedeutung. Sehen Sie sich dazu das Einspeisen des Lichts in den LWL etwas genauer an: Trifft das Licht in einem Winkel nahe dem maximalen Einfallswinkel für den Lichtleiter auf, wird es sehr oft im LWL reflektiert. Es heißt dann Licht hohen Modes. Entsprechend heißt Licht, welches in relativ guter Übereinstimmung mit der optischen Achse des LWL eintrifft, Licht niedrigen Modes. Licht hohen Modes legt insgesamt einen längeren Weg im Kabel zurück und benötigt dadurch mehr Zeit für den Durchlauf. Fällt nun Licht mit nicht genau definiertem Winkel in den LWL ein, kommt es bis zum Ausgang wegen der unterschiedlichen Laufzeiten für jeden Einfallswinkel zu einer Dehnung des Lichtimpulses. Dieser unschöne Effekt, die Dispersion, verbreitert die Signalimpulse und beschränkt damit die erreichbare Übertragungsrate. Unter Dispersion versteht man die Verbreitung eines Lichtimpulses durch Laufzeitunterschiede (Gruppenlaufzeit) der Moden (Eigenwellen), was eine Begrenzung der Übertragungsbandbreite von LWLs zur Folge hat. Man unterscheidet die Modendispersion und die chromatische Dispersion, die Lichtwellenleiter 46

52 sich aus Materialdispersion und Wellenleiterdispersion zusammensetzt. Die Modendispersion ist ein Effekt der unterschiedlichen Signallaufzeiten der Moden, was zu einer Signalverzerrung führt. Die Materialdispersion, auch Manteldispersion bezeichnet, ist die Wellenlängenabhängigkeit der Brechzahl eines Materials. Die Wellenleiterdispersion (Waveguide Dispersion) ist gerade bei Singlemode-LWL von Bedeutung und bezieht sich auf die Wellenlängenabhängigkeit der Lichtverteilung zwischen Kern und Mantel. Die nutzbare Übertragungsbandbreite ist umgekehrt proportional zur Dispersion. Die Dispersion wird in einer Zeit- zu Längeneinheit (ns/km) angegeben und ist der reziproke Wert des Bandbreitenlängenproduktes. Beispiel: Dispersion 5ns/km <-> Bandbreite 200 MHz * km. Abhilfe schafft ein nach außen hin stetig abnehmender Brechungsindex. Dadurch gleichen sich die Geschwindigkeiten und Laufzeiten für die verschiedenen Einfallswinkel bei genügender Kabellänge wieder aus. Wegen des stetigen Übergangs von Kern zu Mantel werden diese Leiter Gradientenprofilfasern genannt. Es ergibt sich beim Einfall der unterschiedlichen Lichtwellen trotz unterschiedlich langer Wege in der Faser eine nahezu gleiche Laufzeit aller Wellen. Eine noch geringere Dispersion liefern die Monomode-Fasern. Im Gegensatz zu den Multimode-Fasern leiten sie nur Licht einer bestimmten Wellenlänge. Ihr Kerndurchmesser ist so klein, daß sich das Licht fast nur noch entlang der Längsachse ausbreiten kann. Mit diesen Monomode-Fasern sind also die steilsten Flanken und damit die größten Übertragungsraten zu erzielen. Wellenlängen Mit zunehmender Wellenlänge nimmt der Streuverlust eines LWL ab. Verunreinigung, z.b. Sauerstoffionen oder OH-Ionen, die bei der Herstellung in die Faser gelangen, absorbieren das Licht bei verschiedenen Wellenlängen. Bedingt durch die Absorptionsspitzen gibt es Dämpfungsspitzen bei ca. 950, und nm und günstige Wellenlängenbereiche, die auch "Fenster" oder "Arbeitswellenlängenbereiche" genannt werden. Heute werden bei LWL-Systemen drei Fenster bei 850 nm, 1300 nm und 1550 nm genutzt. Wellenlängen 47

53 Typische LWL haben folgende Daten. Multimode-Stufenindex-Faser Multimodefasern mit Stufenprofil haben einen Durchmesser von 200 µm. Durch sie werden mehrere Lichtwellen gleichzeitig geschickt. An den Wänden der Faser wird das Signal hart reflektiert. Das Ausgangssignal wird dadurch verbreitert (je nach Einfallswinkel dauert das Signal unterschiedlich lang, weil der Weg mal länger und mal kürzer ist) und bedämpft. Sie werden z.b. als Verbindungskabel beim Patchfeld verwendet. Multimode-Gradienten-Faser Multimodefasern mit Gradientenprofil haben einen Durchmesser von 50 µm. Durch sie werden mehrere Lichtwellen gleichzeitig geschickt. An den Wänden der Faser wird das Signal weich reflektiert. Das Ausgangssignal wird zwar auch verbreitert, aber nicht so stark bedämpft. Sie werden für Verbindungen von Gebäuden oder Etagen eingesetzt. Wellenlängen 48

54 Monomode-Stufenindex-Faser Monomode-Fasern (Singlemode-Fasern) haben einen Durchmesser von 10 µm. Durch sie werden die Lichtwellen gerade hindurchgeleitet. Das Signal wird wenig bedämpft und auch nicht verbreitert. So ist eine hohe Bandbreite möglich. Sie werden für weite Strecken eingesetzt. Grundlagen Computernetze Als Sender für die LWL-Übertragung stehen Leuchtdioden (LEDs) und Laserdioden (LD) zur Verfügung. dabei werden LEDs am besten im Bereich von 850/860 nm eingesetzt und LDs im Bereich von 1300 nm. LED LD Licht-Typ inkohärent kohärent Wellenlänge 850/860 nm und 1300 nm 1300 nm Spektralbreite nm 1-3 nm Abstrahlwinkel mittel bis hoch einkoppelbare Leistung gering gering hoch Lebensdauer 10 6 Stunden 10 5 Stunden Die unten stehende Abbildung zeigt die Zusammenhänge von Faserart und Sendertyp im Hinblick auf das Einsatzgebiet bezüglich Übertragungsstrecke und Übertragungsrate. Wellenlängen 49

55 Die optischen Sender und Empfänger (meist Laserdioden) müssen genau auf die Faser abgestimmt sein, um verlustarm und reflexionsfrei übertragen zu können. Ein großes technisches Problem beim Verlegen von LWL ist immer noch der Übergang von einem Leiterstück auf ein anderes, das sogenannte 'Spleißen'. Im Gegensatz zum elektrischen Leiter, bei dem eine Klemm- oder Lötverbindung ohne große Sorgfalt genügt, müssen die Glasfasern genau in der optischen Achse plan miteinander verschweißt werden. Unter Laborbedingungen stellt das natürlich längst kein Problem mehr dar, aber im mobilen Einsatz sieht das schon etwas anders aus. Beim sogenannten 'Spleißen' von Glasfaserkabeln gibt es zahlreiche Fehlermöglichkeiten. Das beginnt nach dem Entfernen des Sekundärschutzes mit mangelhaftem Reinigen der Faser. Weitere Fehlermöglichkeiten sind zu sparsame Verwendung des Leims zum Verkleben der Faser im Kontaktkörper oder zu wenig Sorgfalt beim anschließenden Schleifen der Kontaktfläche. Das beste 'Meßinstrument' ist hier eine Lupe mit mindestens 10-facher Vergrößerung. Man leitet sichtbares Licht in die Faser und prüft die Fläche auf Verunreinigungen oder Kratzer. Zum Reinigen der Kontaktfläche verwendet man nicht-denaturierten reinen Alkohol. Dämpfung Bei Lichtwellenleitern ist die Dämpfung der Energieverlust des Lichtstrahls, der beim Durchlaufen der Faser in Form von Streuung und Absorption auftritt. Sie wird in db angegeben und meistens auf eine Länge von einem Kilometer (db/km) bezogen. Die Dämpfung ist abhängig von der verwendeten Wellenlänge. Günstige Wellenlängen für Quarzglas liegen bei 850 nm, nm und nm. Die Dämpfung sollte so niedrig wie möglich sein, um die Signalverluste bei der Übertragung so gering wie möglich zu halten. Typische Dämpfungswerte liegen bei ca. 3 db/km für 850 nm Wellenlänge. Zum Vergleich haben Koaxialkabel eine Dämpfung von ca. 17 db/km. 10Base-F Ethernet Schon früh wurden Glasfasern als Link-Segmente für die Verbindung zweier Repeater-Komponenten standardisiert (Fiber Optic Inter Repeater Link - FOIRL). Unter Beachtung der Repeaterregel und des Laufzeitverhaltens lassen sich so entfernte Segmente untereinander verbinden. Dieser Standard wurde mittlerweile so erweitert (10Base-F), daß sich auch Stationen über Glasfasern an Glasfaserrepeater anschließen lassen. Die Konfiguration entspricht etwa der von 10Base-T. Für die Verbindung werden Wellenlängen 50

56 sogenannte ST-Stecker vorgeschrieben. Grundlagen Computernetze Link-Segmente mit FOIRL-Geräten können bis zu 1000 m lang sein und Segmente mit 10Base-F Geräten bis zu 2000 m. Maximale Länge von Glasfaserkabeln ohne Verstärkung: Typ Stufenindex Gradientenindex Monomode Dämpfung 20dB/km bei 900nm 3dB/km bei 850nm 0,1dB/km bei 1300nm Bitratenlängenprodukt max. Länge (ohne Repeater) Gigabit-Ethernet 5 MHz * km 1,5 GHz * km 250 GHz * km 1 km 10 km 60 km/100 km Während die Normierung der neuen Verkabelungsklassen bzw. Kategorien E/6 (250 MHz) und für die Bewertung von Verkabelungsanlagen F/7 (600 MHz) im Jahr 2001 zum Endspurt ansetzte, ist mit Gigabit-Ethernet eine Anwendung nachgerückt, die deutlich mehr Bandbreite als bisherige Übertragungsprotokolle beansprucht. Hierdurch sind Klasse C/Kategorie-3- und -4-Verkabelungen endgültig überholt. Aber auch Klasse D/Kategorie-5-Verkabelungen sind "Auslaufmodelle", insbesondere dann, wenn zukunftssichere Konzepte für Neuinstallationen gefragt sind. Gigabit Ethernet (IEEE 802.3z, 802.3ab) Gigabit Ethernet kann sowohl über Kupferkabel als auch über Glasfaser laufen: 1000Base-T Cat 5 UTP 1000Base-CX STP/Twinax Gigabit-Ethernet 51

57 1000Base-SX Multimode Fiber (850nm) 1000Base-LX Monomode Fiber oder Multimode (1300nm) STP- und Fiber-Standards sind verabschiedet, zur Festlegung des UTP-Standards wurde ein eigenes IEEE-802.3ab-Subkommitee gebildet. Dieses hat das Ziel, einen Standard für eine Reichweite von 100m auf UTP Cat. 5 Kabeln zu erzielen. Gigabit Ethernet: 1000Base-T über Kupfer Auf Grund der schwachen+-+ Auslegung von Klasse D/Kategorie-5-Verkabelungen sind bei 2-paariger Übertragung und Schwerpunktfrequenzen bis etwa 60 MHz Übertragungsraten bis 155 MBit/s (ATM) möglich. Der Bandbreitenengpaß bei Kategorie-5-Verkabelungen (bis 100 MHz) erfordert deshalb die Verwendung von 4 Paaren, um die Übertragung von Gigabit Ethernet zu ermöglichen. 1000Base-T verwendet eine Symbolrate von 125 Mbaud und eine 5-Level-Codierung (PAM 5). Da bei 1000Base-T auf allen 4 Paaren gleichzeitig in beiden Richtungen gesendet und empfangen wird, übernimmt jedes Paar 250 MBit/s und in Summe (alle Paare) 1 GBit/s. Bei der Voll-Duplex-Übertragung über 4 Paare wechseln die Sende- und Empfangszustände der GigaBit-Ethernet-Bausteine ständig einander ab. Die gleichzeitige Übertragung in zwei Richtungen und die wechselnden Sende- und Empfangszustände haben neue Übertragungsparameter für die Bewertung von Verkabelungen generiert: 1. Leistungssumme des Nahnebensprechens(PSNEXT) Power Sum NEXT (PSNEXT) beschreibt die Summe aller Störleistungen, die durch Nahnebensprechen in ein Paar eingekoppelt werden. Das kommt dem tatsächlichen Einsatzfall, d.h. wenn alle Paare in Betrieb sind, nahe. Maßgeblich ist immer der stärkste Störer. Nur bei hohen Paarzahlen gibt es deutliche Unterschiede zwischen NEXT und Power Sum NEXT. 2. Fernnebensprechen (FEXT) Mit FEXT (Far End Cross Talk) wird das Nebensprechen am fernen (empfängerseitigen) Ende bezeichnet, das im Allgemeinen geringere Störungen verursacht als das Nahnebensprechen.Man unterscheidet beim FEXT zwischen: Input-Output-FEXT (l/o-fext) und Equal-Level-FEXT (EL-FEXT). Beide Größen sind durch die Gleichung EL-FEXT = I/O - FEXT - Dämpfung verbunden, wobei das ELTEXT in etwa dem ACR beim NEXT entspricht. 3. Leistungssumme des Fernnebensprechens (PSFEXT) Power Sum FEXT (PSFEXT) beschreibt die Summe aller Störleistungen, die durch Fernnebensprechen in ein Paar eingekoppelt werden. Das kommt dem tatsächlichen Einsatzfall, alle Paare in Betrieb, nahe. 4. Delay und Skew Propagation Delay (Verzögerung der Ausbreitung) bezeichnet die Verzögerungszeit/Laufzeit Gigabit Ethernet (IEEE 802.3z, 802.3ab) 52

58 der Signalübertragung über ein Paar. Sind die Signalverzögerungen frequenzabhängig, führt das zu Signalverzerrungen, auch "Dispersion" genannt. Der Wert "Delay Skew" gibt die Differenz der Verzögerungszeiten/Laufzeiten zwischen zwei Paaren an. 5. Rückflußdämpfung (RL) Die Rückflußdämpfung, auch "Return Loss" genannt, beschreibt die Inhomogenitäten/Fehlanpassungen entlang des Übertragungskanals anhand des Verhältnißes von rücklaufender zu hinlaufender elektromagnetischer Welle. 6. Störleistungsunterdrückung Die Störleistungsunterdrückung ist ein Maß für die Fähigkeit eines Kabels, elektrische externe Störungen zu bedämpfen. Je höher die Störleistungsunterdrückung ist, umso besser ist die elektromagnetische Verträglichkeit. Gigabit Ethernet: konkurrierende Eigenschaften Die untereinander konkurrierenden Parameter für die Übertragung von Gigabit Ethernet haben Einfluß auf die konstruktive Gestaltung der Kabel. Die Problematik läßt sich anhand der unterschiedlichen Übertragungsparameter in Abhängigkeit der bekannten Kabelbauarten mit verseilten Paaren aufzeigen. Je nach Anforderung werden dem Datenkabel möglichst kleine und unterschiedliche (für NEXT und FEXT) oder möglichst lange und gleiche Paarschlaglängen) (für Dämpfung, Return Loss, propagation delay und delay skew) abverlangt. Ein Kompromiß bei UTP und S/UTP-Kabeln ist äußerst diffizil und führt zu Einbußen bei dem einen oder anderen Parameter. Eine Ausnahme stellen die S/STP-Kabel dar. Hier werden die NEXT-, FEXT- und ACR-Anforderungen wesentlich durch Einzelschirmung der Paare (PiMF) sichergestellt. Dies erlaubt erhebliche Freiheitsgrade bei der Gestaltung der Paarschlaglängen. S/STP-Kabel stehen deshalb für sicheres Einhalten aller Eigenschaften bis 600 MHz und darüber hinaus (1200 MHz). Zudem verfügen sie auf Grund der doppelten Abschirmung über hervorragende EMV-Eigenschaften. Anmerkung: Die "Schlaglänge" ist die Länge (z. B. in Millimetern), bei der sich eine Ader vom Anfangspunkt A bis zum Endpunkt B einmal um 360 Grad gedreht hat. Zusammenfassung: 1000Base-T auf UTP Kabeln Verwendung einer 5 Level Codierung gleichzeitig Verwendung von 4 Adernpaaren Vollduplex Betrieb auf allen 4 Paaren Trellis Codierung (nicht 8B10B) Gegenüberstellung Ethernet - fast Ethergent - Gigabit-Ethernet Ethernet Fast Ethernet Gigabit Ethernet Standard IEEE IEEE 802.3u IEEE 802.3z Datenrate 10 Mbit/s 100 Mbit/s 1000 Mbit/s Zeitdauer eines Bits 100 ns 10 ns 1 ns Kollisionsfenster 51,2 µs 5,12 µs 0,512 µs Größtes Datenpaket Kleinstes Datenpaket Grundlagen Computernetze 64 Byte 1518 Byte 512 Byte (kleinere Datenpakete mit Carrier Extension) Gigabit Ethernet (IEEE 802.3z, 802.3ab) 53

59 Zugriffsverfahren: CSMA/CD Bei Erhöhung der Übertragungsrate auf 1 Gbit/s möchte man auf die vorhandenen Verkabelungsstrukturen aufsetzen, d. h. die Leitungslängen sollen gleich sein wie bei 100Base-T (Da die Dauer des Kollisionsfensters nur noch 0,512 µs beträgt, dürften rein rechnerisch die Kabel nur noch maximal 10 m lang sein - nicht praktikapel). Daher muß bei gleicher Leitungslänge die minimale Paketgröße vergrößert werden. Es gilt daher beim Gigabit-Ethernet eine minimale Paketlänge von 512 Byte. Mit Hilfe eines "Kunstgriffs" wird diese Festsetzung ohne Änderung im Datenframe-Format gewährleistet: der Carrier Extension. Bei Gigabit Ethernet-Frames mit weniger als 493 Datenbytes (46 bis 492) werden die fehlenden Datenbytes durch das Aufrechthalten des Trägers nach dem Ende des eigentlichen Datenpakets überbrückt. Der Ethernet-Frame wird dabei nicht verändert, so dass es für die Kommunikationssoftware keinen Unterschied gibt. Muss Carrier Extension eingesetzt werden, steigt auch der Overhead des Ethernet-Protokolls. Um dieses Anwachsen möglichst zu kompensieren, führt Gigabit Ethernet das Frame Bursting ein, das ebenfalls auf dem Physical Layer integriert wird. Dabei wird im Physical Layer versucht, mehrere kurze Datenblöcke in einen Ethernet-Frame zu packen, um so die erforderliche Mindestlänge von 512 Byte ohne den Einsatz von Carrier Extension zu erreichen. Im Gegensatz zu Ethernet und Fast Ethernet werden bei Gigabit Ethernet alle vier Paare eines Twisted Pair-Kabels verwendet. Damit können im Vollduplex-Betrieb die Daten Ober jeweils zwei Paare gleichzeitig gesendet und empfangen werden. Für die Optik-Version bestehen folgende Randbedingungen: Bezeichnung Medium 1000Base-SX Multimode Fiber (850nm) 62, Base-SX Multimode Fiber (850nm) Base-LX Multimode Fiber (850nm) 62, Base-LX Multimode Fiber (850nm) Base-LX Monomode Fiber 8, Fibre Channel mm Max. Länge (m) Ursprünglich entwickelt von HP, IBM und Sun als Möglichkeit einer Hochgeschwindigkeitsanbindung von Rechnern zu Peripheriegeräten. Fibre Channel (ANSI-T11) ist allerdings auch als LAN-Technologie denkbar. Fibre Channel definiert die Schichten 1 und 2 des OSI-Modells. Übertragungsraten von 1 Gbit/s sind heute verfügbar (2 Gbit/s als Dual Channel), 4 Gbit/s ist in Entwicklung und 8 Gbit/s geplant. Vorteilhaft sind die Ausfallsicherheit bei Verwendung eines Dual Channel, der geringe Protokoll-Overhead und gesicherte Übertragung (keine Zellverluste wie bei ATM). Es ist eine Kabellänge bis 10 km möglich. Der Adreßraum umfaßt 16'000'000 Adressen im lokalen Fibre-Channel-Netz und ist so mit klassischen LAN-Technologien vergleichbar. Fibre Channel bildet die Grundlage für andere Technologien, z. B. ATM over Fibre Channel oder Gigabit Ethernet auf Fibre Channel. Die folgende Tabelle fasst nochmals knapp alle Medien zusammen: Bezeichnung Datenrate [MBit/s] Übertragungsmedium 10Base5 10 RG 8 Koaxialkabel 50 Ohm, 500 m Segmentlänge Base2 10 RG 58 Koaxialkabel 50 Ohm, 200 m Segmentlänge 802.3a IEEE-Norm Gigabit Ethernet (IEEE 802.3z, 802.3ab) 54

60 10Broad36 10 Koaxialkabel 75 Ohm, max.ausdehnung 3600 Meter 802.3b 10BaseT 10 Twisted Pair Kabel, Kat.3, 100 m Segmentlänge 802.3i 10BaseFL 10 10BaseFB 10 MMF-Lichtwellenleiter, 850 nm, 2000 m Segmentlänge MMF-Lichtwellenleiter, 850 nm, 2000 m Segmentlänge 100Base-TX 100 Twisted Pair Kabel, Kat.5, 100 m Segmentlänge 100Base-T Base-T Base-FX 100 Twisted Pair Kabel, Kat.3, 100 m Segmentlänge, 2x2 Adern Twisted Pair Kabel, Kat.3, 100 m Segmentlänge, 4x2 Adern MMF-Lichtwellenleiter, 1300 nm, 2000 m Segmentlänge 1000Base-T 1000 Twisted Pair Kabel, Kat.5, 100 m Segmentlänge 802.3ab 1000Base-SX Base-LX Base-CX GBase-SR 10 10GBase-SW 10 10GBase-LR 10 10GBase-LW 10 10GBase-ER 10 10GBase-EW 10 10GBase-LX Gigabit Ethernet MMF-Lichtwellenleiter, 830 nm, 550 m Segmentlänge MMF-Lichtwellenleiter, 1270 nm, 5000 m Segmentlänge Twinax-Kupferkabel, 150 Ohm, 25 m Segmentlänge seriell, Lichtwellenleiter, 850 nm, m, ohne WAN-Anpassung seriell, Lichtwellenleiter, 850 nm, m, mit WAN-Anpassung seriell, Lichtwellenleiter, 1310 nm, m, ohne WAN-Anpassung seriell, Lichtwellenleiter, 1310 nm, m, mit WAN-Anpassung seriell, Lichtwellenleiter, 1550 nm, m, ohne WAN-Anpassung seriell, Lichtwellenleiter, 1550 nm, m, mit WAN-Anpassung Lichtwellenleiter, 1310 nm, m, WWDM-Technik m. 4 Kanälen 802.3z 802.3z 802.3z 10 Gigabit Ethernet ist die (zur Zeit) schnellste Übertragungsvariante für Ethernet. In der IEEE 802.3ae werden die Produktspezifikationen für die entsprechenden Geräte standardisiert. Anzeige-LEDs Grundlagen Computernetze In den Slotblechen von Netzwerkkarten finden Sie in den meisten Fällen einige Leuchtdioden, welche die gleiche Aufgabe wie bei den Hubs haben. Typische Bezeichnungen und die damit verbundenen Funktionen sind in der Tabelle angegeben, wobei - je nach Typ - auch nur eine Teilmenge davon Gigabit Ethernet (IEEE 802.3z, 802.3ab) 55

61 vorhanden sein kann. Bezeichnung 10 LNK 100 LNK ACT Action COL Collision FDX Full Duplex Link (Beat) Link LNK Link NML Normal POL Polarity PWR Power REC Receive RX (DATA) Receive Data T/R Transceive/Receive Bedeutung Diese LED signalisiert, dass die Karte im 10 MBit/s-Mode (Standard-Ethernet) arbeitet. Diese LED signalisiert, dass die Karte im 100 MBit/s-Mode (Fast-Ethernet) arbeitet. Es werden Daten gesendet oder empfangen, wenn diese LED aktiv ist. Die LED blinkt bei auftretenden Datenkollisionen (CSMA/CD). Diese LED signalisiert, dass eine Voll-Duplex-Verbindung besteht, also gleichzeitiges Senden und Empfangen möglich ist. Die LED leuchtet, wenn eine Netzwerkverbindung besteht (Kabel angeschlossen, Datenverbindung möglich, usw.). Die LED leuchtet, wenn eine Netzwerkverbindung besteht (Kabel angeschlossen, Datenverbindung möglich, usw.). Der Hub arbeitet in der normalen Betriebsart und kann zum Test per Schalter in einen Testmodus geschaltet werden, woraufhin diese Diode dann nicht leuchtet. Diese LED ist eher selten zu finden und ist normalerweise aus. Sie leuchtet nur dann, wenn die Polarität der Datenempfangsleitungen vertauscht ist. In der Regel können Netzwerkkarten mit einer derartigen Anzeige automatisch die richtige Polarität herstellen, und dann leuchtet auch die LED. Die Spannungsversorgung des Hubs ist vorhanden, wenn diese LED leuchtet. Die LED blinkt, wenn gerade Daten von der Einheit empfangen werden. Die LED blinkt, wenn gerade Daten von der Einheit empfangen werden. Die LED blinkt, wenn gerade Daten von der Einheit gesendet oder empfangen werden. TX (DATA) Transmit Data Die LED blinkt, wenn gerade Daten von der Einheit gesendet werden. Die Receive- und Transmit-Leuchtdioden sind nützlich, um den augenblicklichen Status einer Netzwerkkarte ablesen zu können. Falls keine LED leuchten will, ist der Treiber für die Karte wahrscheinlich (noch) nicht korrekt installiert worden oder die Karte wurde nicht korrekt mit dem Netz verbunden. Die Anzeige LNK (Link) oder ACT (Activity) sollte auf jeden Fall dann leuchten, wenn das Netzwerk aktiv ist. Außerdern sollte an einer Netzwerkkarte auch die Receive-Anzeige leuchten oder blinken, wenn Pakete im Netz übertragen werden. Wie funktioniert Wake-on-LAN Bei Wake-On-LAN, kurz WOL, handelt es sich um einen 1995 von AMD in Zusammenarbeit mit HP veröffentlichten Standard, der das Einschalten von Rechnern über das Netz regelt. Um WOL zu nutzen, müssen das Mainboard und die Netzwerkkarte des jeweiligen PCs ACPI unterstützen. Um einen PC aufzuwecken, sendet man ein sogenanntes Magic Packet an diesen. Dieses Paket veranlasst dann den Rechner, zu starten. Natürlich muss im BIOS des jeweiligen Rechners WOL aktiviert Anzeige-LEDs 56

62 werden. Unter Umständen muss bei einigen Netzwerkkarten auch erst das passende WOL-Kabel zwischen Netzwerkkarte und Mainboard gesteckt werden (damit die Karte auch bei ausgeschaltetem Rechner mit Strom versorgt wird). Unter Windows XP wird in der ACPI-Spezifikation festgelegt, dass WOL einen Rechner aus den Zuständen S3 (Suspend-to-RAM), S4 (Suspend-to-Disk) und S5 (Soft-Off) aufwecken kann. Die Optionen werden an unterschiedlichen Stellen in den Eigenschaften der Netzwerkkarte (erreichbar über den Geräte-Manager) konfiguriert. Bei Linux deaktivieren viele Netzwerkkarten-Treiber die WOL-Funktion nach dem Starten des Interfaces. Um diese nun wieder zu aktivieren, benutzen wir das Programm ethtool, das in vielen Fällen nützlich ist. Durch den Aufruf unter Angabe des Netzwerk-Interfaces erhalten Sie alle Informationen über die Netzwerkkarte: # ethtool eth0 Settings for eth0: Supported ports: [ TP ] Supported link modes: 10baseT/Half 10baseT/Full 100baseT/Half 100baseT/Full 1000baseT/Full Supports auto-negotiation: Yes Advertised link modes: 10baseT/Half 10baseT/Full 100baseT/Half 100baseT/Full 1000baseT/Full Advertised auto-negotiation: Yes Speed: 1000Mb/s Duplex: Full Port: Twisted Pair PHYAD: 0 Transceiver: internal Auto-negotiation: on Supports Wake-on: umbg Wake-on: d Current message level: 0x (7) Link detected: yes Wichtig sind die beiden Zeilen Supports Wake-on: umbg Wake-on: g Die erste Zeile listet die Möglichkeiten des Weckrufs auf. Bei meiner Karte werden u, m, b und g unterstützt. Die Bedeutung der Buchstaben zeigt folgende Tabelle: Code p u m b a g s Wake on phy activity Bedeutung Wake on unicast messages Wake on multicast messages Wake on broadcast messages Wake on ARP Wake on MagicPacket Grundlagen Computernetze Enable SecureOn password for MagicPacket d Disable (wake on nothing) Wie man an der zweiten Zeile sieht, ist das WOL derzeit deaktiviert. Um WOL per Magic Packet zu aktivieren, genügt der Kommandoaufruf ethtool -s eth0 wol g. Damit man das nicht nach Wie funktioniert Wake-on-LAN 57

63 jedem Reboot des Rechners das Kommando von Hand eingeben muss, schreibt man es am besten in die Datei /etc/rc.local. Debian-User vermerken NETDOWN=no in der Datei /etc/default/halt, damit die Netzwerkkarte eingeschaltet bleibt. Wie nun den Rechner aufwecken? Das Magische am "Magic Packet" ist gar nicht so magisch: Es wird ein Datenpaket an den Rechner gesendet, das aus sechs Bytes mit dem hexadezimalen Wert 0xFF besteht. Dann folgt 16-mal die Hardwareadresse (MAC-Adresse) der Netzwerkkarte. Die Daten können als nacktes Ethernet-Paket gesendet werden, oder per UDP bzw. TCP. Bei den meisten Linux-Distributionen ist ein Perl-Programm namens "wakeonlan" von Jose Pedro Oliveira enthalten, welches mit allem Komfort arbeitet. Es kann beispielsweise die MAC-Adressen der zu weckenden Rechner aus einer Datei lesen, einen ARP-Eintrag für die IP-Adresse hinzufügen usw. Die einfachste Form des Weckrufs benötigt aber nur wenige Zeilen Perl. Die folgende Funktion überprüft zunächst, ob ihr eine gültige MAC-Adresse (xx:xx:xx:xx:xx:xx) übergeben wurde, und sendet dann den Weckruf per Broadcast aus. Die MAC-Adresse(n) werden auf der Kommandozeile übergeben: use strict; use warnings; use Socket; while { } sub send_wol_broadcast { my $mac = shift; die "Fehler in MAC-Addrese $mac\n" if ($mac!~ /([0-9a-f]{2}:){5}[0-9a-f]{2}/i); # Doppelpunkte entfernen $mac =~ tr/://d; Grundlagen Computernetze # Magic Packet: 6 x FF, 16 x MAC-Adresse my $magic = ("\xff" x 6). (pack('h12', $mac) x 16); # Create socket socket(s, PF_INET, SOCK_DGRAM, getprotobyname('udp')) or die "Oops - Socket: $!\n"; # Enable broadcast setsockopt(s, SOL_SOCKET, SO_BROADCAST, 1) or die "Oops - Setsockopt: $!\n"; # Paket senden die "Oops - Send: $!\n" unless defined(send(s, $magic, 0, sockaddr_in(0x2fff, INADDR_BROADCAST))); close(s); } Die zweite Version adressiert nur den Zielrechner über seine IP-Adresse. Dazu muss aber gegebenenfalls die Zuordnung MAC-Adresse zu IP-Adresse in die ARP-Tabelle geschrieben werden. Leider unterscheidet sich das entsprechende Kommando bei Linux und Windows bei der Angaben der MAC-Adresse: Linux: arp -s :aa:00:62:c6:09 Windows: arp -s aa c6-09 Im folgenden Listing sind beide Varianten berücksichtigt, da das Betriebssystem bekanntlich über die Variable $^O ermittelt werden kann. Zum Absetzen des arp-kommandos sind jedoch auf jeden Fall Wie funktioniert Wake-on-LAN 58

64 Root-Rechte erforderlich. use strict; use warnings; use Socket; while } sub send_wol_packet { my $mac = shift; my $ip = shift; my $iaddr; die "Fehler in MAC-Addrese $mac\n" if ($mac!~ /([0-9a-f]{2}:){5}[0-9a-f]{2}/i); die "Fehler in IP-Adresse $ip\n" if (! defined($iaddr = inet_aton($ip))); # ARP-Eintrag schreiben if ($^O =~ /MSWIn/) { $mac =~ s/:/-/g; } # NUR bei Windows system("arp -s $ip $mac") == 0 or die "Warning: arp command failed, you need to be root\n"; # Doppelpunkte entfernen $mac =~ tr/://d; $mac =~ tr/-//d; # fuer Linux # fuer Windows # Magic packet: 6 x FF, 16 x MAC-Adresse my $magic = ("\xff" x 6). (pack('h12', $mac) x 16); # Create socket socket(s, PF_INET, SOCK_DGRAM, getprotobyname('udp')) or die "Oops - Socket: $!\n"; # Paket senden die "Oops - Send: $!\n" unless defined(send(s, $magic, 0, sockaddr_in(0x2fff, $iaddr))); close(s); } Ethernetkarten konfigurieren unter Linux Um die Parameter eines Netzwerk-Interfaces anzusehen oder um eine optimale Performance zu erzielen, braucht man ein Programm, das die Konfiguration des Interfaces gestattet. Unter Linux gibt es dafür "ethtool". Leider arbeiten nicht alle Treiber mit dem Programm zusammen. In der Regel funktioniert eine Verbindung im Ethernet auch ohne weitere Konfiguration. Um die verfügbare Bandbreite optimal auszunutzen, gilt es einige Grundregeln: Die Duplexeinstellung mussebei beiden Linkpartnern gleich sein. Also entweder beide Seiten eines Link auf Autonegotiation oder beide Seiten fest auf die selben Parameter einstellen. Viele preiswerte Switches bieten keine Einstellmöglichkeiten und arbeiten immer mit Autonegotiation. Die Netzwerkkarten der angeschlossenen Clients müssen also auch auf "Auto" stehen. Zur Anzeige der aktuellen Parameter wird "ethtool" mit dem entsprechenden Interface als Parameter aufgerufen. Hier die Ausgabe für das Interface eth0: netzmafia:~# ethtool eth0 Settings for eth0: Ethernetkarten konfigurieren unter Linux 59

65 Supported ports: [ TP MII ] Supported link modes: Supports auto-negotiation: Yes Speed: 10Mb/s Duplex: Half Port: MII PHYAD: 0 Transceiver: internal Auto-negotiation: off Supports Wake-on: d Wake-on: d 10baseT/Half 10baseT/Full 100baseT/Half 100baseT/Full Mit ethtool ist es auch möglich, Einstellungen der Netzwerkkarte zu verändern. Das folgende Kommando stellt das Interface eth0 auf 100 MBit/s und Halbduplex ein. ethtool -s eth0 speed 100 duplex half Für "speed" sind die Parameter 10, 100 und 1000 erlaubt. Der Duplexmode kann auf "half" oder "full" eingestellt werden. Autonegotiation wird mit dem Paramter "autoneg on" eingeschaltet und mit "autoneg off" abgeschaltet. ethtool -s eth0 autoneg on Für Netzwerkinterfaces die WakeOnLAN (WOL) beherrschen (siehe oben), bietet ethtool auch einige Konfigurationsoptionen. Der Benutzer kann festlegen welche Art von Frame ein Aufwachen auslösen soll und ein Kennwort für Wake-on-LAN festlegen. Nicht alle Interfaces unterstützen diese Option. ethtool -s eth0 wol <argument> Das Argument von "wol" ist eine Kombination aus folgenden Buchstaben: p Wake on phy activity u Wake on unicast messages m Wake on multicast messages b Wake on broadcast messages a Wake on ARP g Wake on MagicPacket(tm) s Enable SecureOn(tm) password for MagicPacket(tm) d Disable (wake on nothing). Die Option "d" löscht auch alle anderen Optionen. ethtool -s eth0 sopass xx:yy:zz:aa:bb:cc Setzt das Wake-on-LAN-Passwort. Das Passwort wird als Folge von 6 Hexzahlen angegeben, die durch Doppelpunkte getrennt sind. Neuere Netzwerkkarten haben mitunter die Möglichkeit, eine LED manuell blinken zu lassen. Das ist zum Identifizieren einer Karte in komplexen Umgebungen sehr hilfreich. Dazu dient der Parameter "-p": ethtool -p eth1 Tabellen Normen Tabellen 60

66 Abkürzung, Begriff ISO IEC IEC Klasse D Klasse E Klasse F OSI TIA TIA 568A TIA 568B Cat 5 Cat 5e Cat 6 Cat 7 Erläuterung International Standard Organization, internationale Normungsorganisation. International Electrotechnical Commission, Internationale Elektrotechnische Kommission, erstellt und veröffentlicht internationale Normen für Elektrotechnik, Elektronik und verwandtze Gebiete. Die internationale Entsprechung der TIA568B: Norm zur Definition strukturierter Gebäudeverkabelungen. Legt auch die bekannten ISO-Klassen D, E, und F fest. Leistungsklasse für strukturierte Gebäudeverkabelung nach ISO/IEC bis 100MHz Leistungsklasse für strukturierte Gebäudeverkabelung nach ISO/IEC bis 250MHz (Entwurf) Leistungsklasse für strukturierte Gebäudeverkabelung nach ISO/IEC bis 600MHz (Entwurf) Open Systems Interconnection, globaler Rahmen für die Standardisierung "Offener Kommunikation" zwischen kooperierenden Systemen. Die 7 Schichten des OSI-Referenzmodells zerlegen, losgelöst von speziellen Implementierungen, den Funktionskomplex Kommunikation in sieben schichtdiskrete hierarchische Teilprozesse. Telecommunications Industry Association, US-amerikanische Normungsorganisation für (u.a.) Netzwerkstandards. Commercial Building Telecommunications Cabling Standard, US-Norm zur Definition strukturierter Gebäudeverkabelungen. Legt auch die bekannten Cat 5, Cat 5e, Cat 6 etc. fest. Heute (seit April 2001) gültige Version der US-Norm Engl. Abk. für Category 5 (Kategorie 5), Leistungsklasse für strukturierte Gebäudeverkabelung nach TIA568 bis 100MHz, legt (unter anderem) die bei der Endabnahme (Zertifizierung) anzuwendenden Grenzwerte für die zu messenden Parameter fest. "verbesserte" (engl. enhanced) Cat 5 mit etwas verschärften Grenzwerten bis 100MHz, die ausreichende Reserven zur Übertragung von Gigabit Ethernet (1000BaseT), für die Cat 5 ursprünglich nicht vorgesehen war, sicherstellen soll. Entspricht ISO Klasse D. Leistungsklasse für strukturierte Gebäudeverkabelung nach TIA568 bis 250MHz (Entwurf) Leistungsklasse für strukturierte Gebäudeverkabelung nach TIA568 bis 600MHz (Entwurf) Tabellen 61

67 EN EN European Norm, dt. Europäische Norm. Oberbegriff für die vom CEN (Comité Européenne de Normalisation) und CENELEC (Comité Européenne de Normalisation Electrotechnique) erarbeiteten Normen. "Europäisierte" Entsprechung der IEC 11801: Norm zur Definition strukturierter Gebäudeverkabelungen. Schnittstellendefinitionen/Steckernormen Abkürzung, Begriff RJ-45 BNC RS-232, RS-232C DB-9, DB-9M, DB-9F Erläuterung Registered Jack, 8-Poliger Stecker Bayonet Neill Concelman, für Koax-Verkabelungen üblicher Bayonet-Steckverbindertyp Recommended Standard 232, serielle Schnittstelle, an PCs heutzutage meist mit DB-9 Steckergesicht In der Computer- und Telekommunikationstechnik verbreiteter 9-poliger Standard-Steckerverbinder. Einsatzbeispiele: Token-Ringund FDDI-Netze (STP), serielles Interface DB-9M (IBM AT Standard) eines Personalcomputers. 10 Base T Standard: IEEE 802.3, steht für Ethernet mit 10 Mbit/s Übertragungsgeschwindigkeit, Basisbandübertragung und TP-Verkabelung (Twisted Pair) 100 Base TX "Fast Ethernet" mit 100 Mbit/s Twinax Siemon Tera Twinaxialkabel, elektrisches Nachrichtenkabel, dessen Aufbau dem Koaxialkabel ähnelt, das jedoch zwei Innenleiter aufweist "CAT 7" Steckverbinder, bei dem bis zu 4 Aderpaare einzeln geschirmt durch die Steckverbindung geführt werden. Weist gegenüber RJ-45 Steckverbinder weit bessere Leistungsdaten auf und kann daher bis zu weit höheren Frequenzen eingesetzt werden. Kerpen E-Line 600 Weiterer "CAT 7" Steckverbinder, bei dem bis zu 4 Aderpaare einzeln geschirmt durch die Steckverbindung geführt werden. Weist gegenüber RJ-45 Steckverbinder weit bessere Leistungsdaten auf und kann daher bis zu weit höheren Frequenzen eingesetzt werden. Weitere Infos zur Verkabelungspraxis finden Sie im Kapitel Twisted-Pair-Verkabelung und Netzplanung. Zum vorhergehenden Abschnitt Zum Inhaltsverzeichnis Zum nächsten Abschnitt Copyright FH München, FB 04, Prof. Jürgen Plate Copyright FH München, FB 04, Prof. Jürgen Plate 62

68 Letzte Aktualisierung: 07. Mär 2012 Grundlagen Computernetze Prof. Jürgen Plate Copyright FH München, FB 04, Prof. Jürgen Plate 63

69 Störquellen Auf die Verkabelung eines Netzes wirken die mannigfachsten elektromagnetischen Störquellen ein, z. B. elektrisch angetriebene Maschinen, Leuchtstofflampen, die Computer, Kopierer, und vieles andere. Aber auch die Kabel selbst verändern das Signal durch ihren ohmschen Widerstand und die Tiefpaßcharakteristik. Alle Einflüsse ändern das eingespeiste digitale Signal - unter Umständen bis hin zu Fehlern auf Empfängerseite. Das Bild zeigt die wichtigsten Störeinflüsse und deren Auswirkungen. Dämpfung Wie schon erwähnt, wirkt die Leitung wie ein Tiefpaßfilter: sie läßt nur niedrige Frequenzen durch, hohe werden herausgefiltert. Diese Tiefpaßeigenschaft der Leitung zwingt dazu, nach einer gewissen Leitungslänge Verstärker (Repeater) einzubauen, um das Signal wieder zu regenerieren. Das Verhältnis von Aus- zu Eingangsspannung wird Dämpfung genannt und in Dezibel (db) angegeben. Dabei gilt: 1 db = 20 * log(eingangsspannung/ausgangsspannung) Ideal ist natürlich ein Verhältnis von 1:1 zwischen Ein- und Ausgangsspannung, also eine Dämpfung von 0 db. Das bleibt aber ein Ideal, da jede Leitung einen gewissen Widerstand hat. Die naheliegendste Abhilfe liegt im Einsatz der Zwischenverstärker. Doch auch diesen sind prinzipielle Grenzen gesetzt. Auch mit Verstärkerelementen, sogenannten Repeatern, sind nicht beliebig lange Leitungen realisierbar. Auf jede Leitung wirken Störungen ein. Diese elektrischen Signale weisen meist ein zufällig verteiltes Frequenzspektrum auf. Alle möglichen Nutzfrequenzen werden also mehr oder weniger stark gestört. Wichtig ist dabei,daß das Nutzsignal noch eindeutig erkennbar bleibt. Das Amplitudenverhältnis von Nutz- und Rauschsignal (in db) nennt man Störabstand oder auch Signal-Rausch-Abstand. Repeater können aber in der Regel nicht zwischen Nutz- und Störsignal unterscheiden, sondern verstärken das gesamte Eingangssignal. Damit hat zwar das Ausgangssignal einen hohen Pegel, aber der Signal-Rausch-Abstand hat sich dabei nicht verbessert. Auf der nächsten Leitungsstrecke kommt zwangsläufig wieder Rauschen dazu, so daß mit wachsender Leitungslänge das Nutzsignal von immer mehr Rauschen überlagert wird. Störquellen 64

70 Wenn der Rauschpegel genauso groß ist wie der Nutzpegel, kann kein Empfänger mehr Nutz- und Störsignal voneinander unterscheiden. Einige Tricks gibt es doch, der einfachste ist natürlich eine möglichst undurchlässige Abschirmung der Leitung, um das Eindringen des Rauschens zu verringern. Sonst wäre das weltumspannende Telefonnetz überhaupt nicht funktionsfähig. Bei der Verlegung von Datenleitungen kommt es aber nicht allein auf eine gute Abschirmung an. Immer dann, wenn es um die elektrische Anpassung der Leitung an ein Gerät oder eine andere Leitung geht, kommt es auch auf die Beachtung des Eingangswiderstands oder der Impedanz der Leitung an. Anpassung ist immer dann gegeben, wenn der Ausgangswiderstand der einen Leitung genauso groß ist wie der Eingangswiderstand der anderen. Denn nur in diesem Fall kommt es nicht zu Reflexionen an den Übergangsstellen. Sonst geht eine ankommende Welle nicht vollständig in das neue Medium über, sondern wird teilweise an der Nahtstelle reflektiert und damit zum Störsignal. Begrenzung der Bandbreite Man kann sich ein typisches Digitalsignal auch zusammengesetzt aus einer größeren Anzahl von Sinussignalen unterschiedlicher Freqenzen vorstellen. Je höher die Frequenz ist, desto geringer ist die Amplitude des jeweiligen Signals. Von diesen Frequenzen gelangen nur die Anteile zum Empfänger, die innerhalb der Bandbreite der Übertragungsstrecke liegen. Je geringer die Bandbreite des Mediums ist, desto mehr wird das Rechtecksignal "verschliffen". Am Empfangsort muß dann die Rechteckform wieder regeneriert werden. Nyquist hat eine Formel abgeleitet, mit der sich die maximale Datenübertragungsrate bei gegebener Bandbreite ermitteln läßt. Bei einem Digitalsignal (also zwei unterschiedliche Signalpegel) können bei einer Bandbreite von B (in Hertz) 2*B Bit pro Sekunde Übertragen werden. Allgemein lautet die Formel für die Übertragungsrate C (in Bit/s) bei einer Bandbreite B und einer Anzahl der Signalpegel M: C = 2*B*ld(M) Grundlagen Computernetze In der Praxis wird dieser Idealwert natürlich nicht erreicht, weil andere Störgrößen (z. B. Rauschen) dies verhindern. Eine Begrenzung der Bandbreite kann durch zu hohe Dämpfungswerte oder falsche Kabeltypen hervorgerufen werden. Insbesondere sollte man bei der Twisted-Pair-Verkabelung die geringe Mehrausgabe nicht scheuen und gleich Typ-5-Kabel für 100 MBit/s verwenden, auch wenn man noch mit 10 MBit/s arbeitet. Bei einer späteren Aufrüstung ist das Neuverlegen wesentlich teuerer. Meist tritt jedoch die Bandbreitenbegrenzung bei WAN-Verbindungen über Modem in Erscheinung. Die derzeit erreichbaren Raten von bps und mehr sind bei normalen Telefonverbindungen schon am Rande des technisch möglichen. Verzerrungen durch Laufzeit Die Geschwindigkeit, mit der ein sinusförmiges Signal in einem Medium transportiert wird, variiert mit der Freqenz. Wenn also ein Rechtecksignal übertragen wird, das wir uns als Gemisch von Sinussignalen unterschiedlicher Frequenz vorstellen, dann kommen die einzelnen Frequenzanteile zu verschiedenen Zeiten beim Empfänger an (Laufzeitverzerrungen). Die Verzerrungen nehmen mit steigender Datenrate noch zu, weil das Signalgemisch nicht homogen wie bei einem stetigen 0-1-Wechsel ist. Die Signalanteile, die durch die Flanken des Digitalsignals hervorgerufen werden, kommen häufiger vor und interferieren zusätzlich mit anderen Signalanteilen. Man spricht deshalb auch von 'Intersymbol-Interferenzen'. Diese können dazu führen, daß bei der Abtastung des Signals beim Empfänger in der nominellen Bitmitte Fehler auftreten können. Bei manchen Empfängerschaltungen versucht man diesen Fehler zu umgehen, indem der Abtastzeitpunkt adaptiv geändert wird. Die Laufzeitverzerrungen sind auch der Grund dafür, daß nicht beliebig viele Repeater hintereinandergeschaltet werden können. Dämpfung 65

71 Rauschen In einem idealen Übertragungskanal sind in Übertragungspausen außer dem Ruhepegel keinerlei elektrische Signale festzustellen. In der Praxis stahlen jedoch mannigfache elektromagnetische Wellen auf das Kabel ein. Quellen solcher Störsignale sind alle elektrischen Geräte und Maschinen in der Umgebung der Leitung und nicht zuletzt auch die natürliche Strahlung von Erde und Atmosphäre. Die Freqenzen und Feldstärken sind von zufälligen Faktoren abhängig. Alle diese auf das Übertragungsmedium einwirkenden zufälligen Signale nennt man 'Rauschen'. Dieses Rauschen läßt sich durch keinerlei Maßnahmen vollständig beseitigen, sondern nur mildern, z. B. durch abgeschirmte Kabel. Aber auch innerhalb der Übertragungsstrecke, etwa durch die Bewegung der Elektronen im Leiter wird ein, wenn auch sehr schwaches, zusätzliches Signal erzeugt. In den Übertragungsweg geschaltete Verstärker, z. B. Repeater, verstärken natürlich nicht nur das Nutzsignal, sondern auch den Rauschanteil. Wenn das Rauschen einen gewissen Pegel übersteigt, kann dies zu empfängerseitigen Fehlern führen. Von besonderem Interesse ist das Verhältnis von Nutzsignal zum Störsignal, da dieses 'Signal-Rauschverhältnis' wie schon die vorher erwähnte Bandbreite die maximale Übertragungsrate beeinflußt. Speziell bei der modulierten Übertragung spielt dieser Faktor eine wichtige Rolle. Das Signal-Rauschverhältnis wird meist in Dezibel angegeben: SR = 10 * log(signalpegel/rauschpegel) db Ein hoher Wert für SR impliziert einen weiten Abstand zwischen Signalpegel und Rauschpegel. Ein niedriger Wert steht für 'schlechte' Leitungen. Ein schlechter Wert läßt sich immer auf zwei Wegen verbessern; entweder durch Anheben des Signalpegels oder durch reduzieren des Rauschpegels. Das theoretische Maximum der Datenübertragungsrate C abhängig von SR und der Bandbreite B wird durch das Gesetz von Shannon-Hartley definiert: C = B * ld(1 + SR) bps Maßnahmen zur Senkung des Rauschpegels sind einerseits Abschirmung (beim Koaxkabel), im Einstreuung von Störsignalen zu verhindern, und andererseits Differenzsignale (bei Twisted Pair), bei denen sich die eingestreuten Störungen auf den beiden Leitungen kompensieren. Reflexionen, Rückflußdämpfung, Nebensprechen Die meisten Netzverkabelungen setzen mittlerweile auf einer einheitlichen physischen Infrastruktur auf die bestimmten Anforderungen genügen muß. Die international wichtigsten Normen für Netzwerkverkabelungen sind: TIA 56813, ISO/IEC und DIN/EN Die Normen unterscheiden verschiedene Leistungsklassen der Netzwerkverkabelung: die TIA, die bekannten Kategorien Cat 3, Cat 5, Cat 5E, Cat 6 und Cat 7, und die ISO/IEC und EN die Klassen C, D, E und F. Category Type Spectral B/W Length LAN Applications Notes Cat3 UTP 16 MHz 100m 10Base-T, 4Mbps Now mainly for telephone cables Cat4 UTP 20 MHz 100m 16Mbps Rarely seen Cat5 UTP 100MHz 100m 100Base-Tx,ATM, CDDI Common for current LANs Cat5e UTP 100MHz 100m 1000Base-T Common for current LANs Cat6 UTP 250MHz 100m Emerging Cat7 ScTP 600MHz 100m Rauschen 66

72 Die Normen definieren verschiedene Verbindungsarten, englisch "Link". Die Basic Link Definition schließt die Messkabel mit ein. Inzwischen wird aber normkonform nur noch nach Permanent Link oder Channel gemessen. Bei der Permanent-Link-Messung (PL) darf der Einfluss der Messkabel nicht in die Messwerte eingehen. Damit belegt der Installateur seinem Auftraggeber die Funktion genau der Strecke, die er installiert hat, üblicherweise das fest verlegte Kabel inklusive der Dosen an beiden Enden. Die dritte Link-Definition, der Channel, schließt die Patchkabel mit ein, mit der die Endgeräte an die fest installierte Strecke angeschlossen werden. Bei dieser Messung wird der gesamte Übertragungsweg, über den die Netzkommunikation läuft, erfasst. Nicht in den Messwerten niederschlagen dürfen sich nach der normgemäßen Channel-Definition die Anteile der letzten Steckverbinder, mit denen die Patchkabel an die Messgeräte angeschlossen werden. Ein automatischer Test an einer Netzverkabelungs-Strecke schließt nach Norm die folgenden Messungen und Prüfungen ein: Verdrahtungsplan (Wiremap): Überprüft werden alle vier Aderpaare und Schirme auf Durchgang, Schluss und Vertauschung, wobei der Fehler "Split" besonders tückisch ist: Reflexionen, Rückflußdämpfung, Nebensprechen 67

73 Laufzeit, Laufzeitunterschied und Längen (Delay, Delay Skew und Length): Das Messgerät ermittelt die Signallaufzeiten auf allen Aderpaaren. Aus der Laufzeit errechnet der Kabelscanner unter Verwendung des NVP-Werts die Kabellänge. Auf Grund der unterschiedlichen Verdrillung sind die Laufzeiten auf den vier Aderpaaren leicht unterschiedlich. Damit Übertragungen, die Daten parallel über mehrere Aderpaare versenden, zuverlässig funktionieren, muß gewährleistet sein, daß die parallel gesendeten Daten auch gleichzeitig ankommen. Gleichstrom-Schleifenwiderstand (DC Loop Resistance): Den Gleichstrom-Schleifenwiderstand sollte man nicht mit der Kabelimpedanz (komplexe Kabeleigenschaft) verwechseln, deren Ermittlung im Rahmen einer normalen Abnahmemessung einer installierten LAN-Verkabelung von keiner aktuellen Norm verlangt wird. Dämpfung bzw. Einfügedämpfung (Attenuation/Insertion Loss): Es wird die Dämpfung im Frequenzbereich der zu Grunde gelegten Norm für jedes Aderpaar erfasst und bewertet. Nahnebensprechen (Near End Crosstalk, NEXT): Da dieser Effekt frequenzabhängig ist, wobbelt der Tester alle Frequenzen durch (daher der Name Cable-Scanner, Wobbel-Messtechnik), die die Norm für die betreffende Kategorie bzw. Klasse fordert, für Cat 6/Klasse E also von 1,0 bis 250 MHz. Im NEXT-Test sendet das Messgerät jeweils auf einem Paar ein Signal und misst, wie viel davon in die verschiedenen benachbarten Paare eingekoppelt wird. Bei einem 4-Paar-Kabel ergeben sich so sechs Aderpaar-Kombinationen, nämlich 12-36, 12-45, 12-78, 36-45, und 45-78, Entsprechend ergeben sich sechs Frequenzgangkurven. Da das NEXT von beiden Seiten der Leitung gemessen werden muß, erhält man insgesamt 12 Kurven. Starkes Übersprechen (niedriger Zahlenwert!) ist eine der häufigsten Ausfallursachen bei Abnahmemessungen. Gute Kabelscanner zeigen das NEXT im Abstand vom Messpunkt so, daß man Aufschluß darüber erhält, wie viel NEXT an den Steckverbindungen oder auf der eigentlichen Kabelstrecke auftritt. Attenuation to Crosstalk Ratio, ACR: Dies ist die Differenz von Dämpfung und NEXT und gibt Auskunft über den Störabstand zwischen dem (gedämpften) Nutzsignal und dem Störsignal NEXT. Der ACR wird nicht direkt gemessen, sondern auf Grundlage der gemessenen Dämpfungs- und NEXT-Werte vom Tester errechnet. Rückflussdämpfung (Return Loss, RL): Impedanzvariationen entlang der Verbindung führen zu Signalreflexionen, die einerseits das zum anderen Ende gelangende Signal schwächen (Anteile die reflektiert werden dringen nicht bis zur anderen Seite durch), andererseits aber auch vom anderen Ende ankommende, entsprechend gedämpfte Signale stören könnten. Speziell die Steckverbindungen sind, ähnlich wie beim NEXT, für RL kritisch. Allerdings können auch schlechte oder bei der Installation beschädigte Kabel RL-Probleme verursachen. Ein häufig unterschätztes Problem sind außerdem Impedanzsprünge zwischen Installations- und Patchkabel. Auch RL wird von beiden Seiten gemessen und in db angegeben. Je größer der Zahlenwert, umso besser. Ausnahmeregel: Liegt die Dämpfung der gemessenen Strecke unter 3dB, wird das RL nicht bewertet, sondern Reflexionen, Rückflußdämpfung, Nebensprechen 68

74 nur informativ angegeben. Bei kurzen Strecken "sieht" der Kabelscanner nämlich nicht nur die Reflexion vom Anfang der Strecke, sondern teilweise auch vom anderen Ende (auf längeren Kabeln wird das vom fernen Ende reflektierte Signal auf dem Rückweg zum Scanner so stark gedämpft, daß es keine nennenswerte Rolle mehr spielt). Diese dann fast doppelt so starken Reflexionen können bei Messgeräten, die diese normgemäße Ausnahmeregel nicht berücksichtigen, zu Fehlbewertungen führen. FEXT/ELFEXT (Far End CrossTalk/Equal Level Far End CrossTalk): Hierbei wird, im Gegensatz zu NEXT, das Übersprechen von einem Aderpaar auf die anderen am fernen Ende gemessen. Da für den Signalempfang natürlich der Störabstand entscheidend ist und das Signal am anderen Ende gedämpft ankommt, bezieht man den gemessenen FEXT-Wert nicht auf das Sendesignal in seiner Originalstärke, sondern auf den Empfangspegel. ELFEXT ist also ein errechneter Wert, der aus der Subtraktion der Dämpfung vom gemessenen FEXT entsteht und in db angegeben wird. Anders als NEXT kann FEXT richtungsabhängig sein, darum gibt es für jedes Ende der gemessenen Verbindung 12 Messwerte (Paarkombinationen), insgesamt also 24. Power Sum NEXT, ACR und ELFEXT (PSNEXT, PSACR, PSELFEXT): Bei Gigabit-Ethernet-Übertragungen über Klasse D Verkabelungen wird auf allen vier Aderpaaren gleichzeitig in beide Richtungen gesendet und empfangen. Das auf jedem einzelnen Paar empfangene Signal kann also von den Signalen gestört werden, die gleichzeitig auf drei anderen Paaren übertragen werden. Das heißt, die Störungen, die von den drei anderen Paaren im Kabel verursacht werden, addieren sich. Genauso werden auch die Power-Sum-Werte pro Paar durch Addition der auf jedes Paar einwirkenden Störgrößen ermittelt. Es handelt sich also nicht um Messungen, sondern um eine rechnerische Auswertung der zuvor mit den Messungen von Dämpfung, NEXT und ELFEXT ermittelten Werte. Ein genereller Problempunkt bei Messungen von Cat 6/Klasse E-Verkabelungen ist die elektrische Kompatibilität von Stecker und Buchse. Natürlich paßt jeder RJ-45-Stecker mechanisch in jede RJ-45 Dose, aber harmonieren Stecker und Dose auch elektrisch? Die Hersteller müssen spezielle Maßnahmen ergreifen, um die für Cat 6/Klasse E festgelegten Grenzwerte der Steckverbinder zu garantieren. Meist sind das kleine Leiterplatten mit Kondensatoren, die durch geeignete Verschaltung das in der gesteckten Verbindung (RJ-45 Stecker in Dose eingesteckt) entstandene Übersprechen kompensieren. Der Kompensationsschaltkreis kann dabei in Stecker oder Dose eingebaut sein. Wichtig für die Übertragungseigenschaften ist nur das hochfrequenztechnische Gesamtergebnis von Dose und Stecker. Reflexionen, Rückflußdämpfung, Nebensprechen 69

75 Die Erfüllung der Cat 6/Klasse E-Leistungsdaten von Steckern und Dosen verschiedener Hersteller miteinander ist nicht garantiert. Das betrifft leider auch die Stecker an den Permanent-Link-Adaptern der Kabeltester! Für den Installateur bringt eine Channel-Messung Vorteile. Bei Messungen nach Permanent Link werden ja die Permanent-Link-Adapter für jede Strecke einmal ein- und ausgesteckt. Die Stecker unterliegen also ständigem Verschleiß. Da sie Teil des Messaufbaus sind, kann man die Stecker an den Permanent-Link-Adaptern nicht einfach ersetzen, denn damit verändern sich die elektrischen Eigenschaften des Messaufbaus, was zu Verfälschungen der Messwerte führt. Der Permanent-Link-Adapter ist also ein Verschleißteil, das normalerweise nach einigen tausend Messungen ersetzt werden muß. Im Gegensatz dazu werden Messungen mit dem Channel-Adapter und einem Patchkabel durchgeführt. Das zum Zertifizieren verwendete Patchkabel kann dabei am Channel-Adapter eingesteckt bleiben, hier gibt es also kaum Verschleiß am Adapter. Nur der Stecker am anderen Ende des Patchkabels verschleißt, so daß nur dieses Kabel ersetzt werden muß. CAT5, CAT5e, and CAT6 UTP Solid Cable Specifications Comparison Category 5 Category 5e Category 6 Frequency 100 MHz 100 MHz 250 MHz Attenuation (Min. at 100 MHz) 22 db 22 db 19.8 db Characteristic Impedance 100 ohms ± 15% 100 ohms ± 15% 100 ohms ± 15% NEXT (Min. at 100 MHz) 32.3 db 35.3 db 44.3 db PS-NEXT (Min. at 100 MHz) no specification 32.3 db 42.3 db ELFEXT (Min. at 100 MHz) no specification 23.8 db 27.8 db PS-ELFEXT (Min. at 100 MHz) no specification 20.8 db 24.8 db Return Loss (Min. at 100 MHz) 16.0 db 20.1 db 20.1 db Delay Skew (Max. per 100 m) no specification 45 ns 45 ns Erdschleifen (Ground Loops) entstehen durch einen Potentialunterschied zwischen Sender und Empfänger. Durch Erdschleifen werden u. U. sehr große Ströme auf der Abschirmung oder den Masseleitungen hervorgerufen, wodurch auch Störungen auf die Signalleitungen gelangen (Induktion). Durch das nur einseitige Erden der Abschirmung (meist im Verteiler oder am Patchfeld) lassen sich Erdschleifen vermeiden. Eine aufwendigere Methode ist der Einsatz von Optokopplern, die Sender und Empfänger galvanisch trennen. Erdschleifen 70

76 Eine Erdung von Datenkabeln erfolgt eigentlich nur im Bereich explosionsgefährdeter Industrieanlagen. Bei unsachgemäßer Verkabelung richtet die Erdung mehr Schaden als Nutzen an. Zum vorhergehenden Abschnitt Zum Inhaltsverzeichnis Zum nächsten Abschnitt Copyright FH München, FB 04, Prof. Jürgen Plate Letzte Aktualisierung: 07. Mär 2012 Grundlagen Computernetze Prof. Jürgen Plate Copyright FH München, FB 04, Prof. Jürgen Plate 71

77 Repeater, Bridge, Router OSI-Modells angesiedelt. Um die Längenbeschränkung eines Ethernet-Segmentes aufzuheben, verwendet man Repeater. Ein klassischer Repeater verbindet zwei Ethernet-Segmente (10Base5 oder 10Base2), er ist mit je einem Transceiver an jedes Segment angeschlossen. Ein Remote-Repeater ist ein Repeater-Paar, das durch einen max m langen Lichtwellenleiter verbunden ist. In jedem Netz dürfen höchstens vier Repeater vorhanden sein, man erreicht so eine Gesamtlänge von 2500 m. Ein Remote Repeater-Paar zählt dabei wie ein lokaler Repeater. An den Lichtwellenleiter können keine Ethernet-Stationen angeschlossen werden. Der Repeater ist als reines Verstärkerelement in der untersten Schicht des Multiport-Repeater Der Multiport-Repeater bietet die Möglichkeit, mehrere (typischerweise bis zu acht) Cheapernet-Segmente zusammenzuführen und über einen Transceiveranschluß mit dem Standard-Ethernet zu verbinden. Bei zwei oder mehr anzuschließenden Cheapernet-Segmenten ist die Lösung kostengünstiger als der Einsatz von Standard-Repeatern. Hub Analog dem Multiport-Repeater besteht die Funktion eines Hub darin, mehrere Twisted-Pair-Kabelsegmente über einen Transceiveranschluß mit dem Ethernet zu verbinden. Das englische Wort "Hub" bezeichnet die Nabe eines Speichenrades - wie die Speichen des Rades verteilen sich die Leitungen sternförmig vom Hub aus. Der Begriff "Hub" steht also für fast alle Verstärkerkomponenten, die eine sternförmige Vernetzung ermöglichen. Hubs haben immer mehrere Ports zum Anschluß von mehreren Rechnern. Bei Twisted-Pair-Verkabelung ist meist einer der Ports als "Uplink" schaltbar, d. h. es werden wie im 4. Kapitel beschrieben die Leitungen gekreuzt. Auf diese Weise lassen sich die Hubs kaskadieren. Typisch sind Hubs mit 4, 8, 12, 16, 24 und 32 Ports. Manche Repeater/Hubs lassen sich über spezielle Busports und in der Regel sehr kurze Buskabel verbinden. Vorteil dieser herstellerspezifischen Kaskadierung ist, daß alle so verbundenen Repeater/Hubs als ein Repeater bezüglich der Repeaterregel zählen. Repeater, Bridge, Router 72

78 Repeaterregel (5-4-3-Regel) Die Anzahl der hintereinanderschaltbaren Repeater bei 10Base5 und 10Base2 ist jedoch limitiert (Addition von Laufzeiten, Phasenverschiebungen, usw.). Ein Remote-Repeater-Paar (10Base5, 10Base2) mit einer Punkt-zu-Punkt-Verbindung zwischen beiden Hälften wird als ein Repeater betrachtet. Weiterhin gilt: Es dürfen nicht mehr als fünf (5) Kabelsegmente verbunden werden. Zur Verbindung werden vier (4) Repeater benötigt und nur drei (3) der Segmente dürfen Rechner angeschlossen haben. Bei Ethernet (10Base5) können so 5 Segmente zu je 500 m verbunden werden, das gesamte Netz darf damit eine Ausdehnung von 2,5 km haben. Man kann diese Regel auch auf Twisted-Pair-Hubs anwenden - auch hier kann man nicht beliebig viele Hubs kaskadieren. Hier ist die Leitungslänge sogar auf ca. 100 m je Segment begrenzt. Eine Erweiterung ist durch aktive Elemente möglich (Switch, Router). Lichtwellenleiter (10BaseF, FOIRL) und Sternkoppler Zur Verbindung von Gebäuden werden oft Lichtwellenleiter (LWL) verwendet. Außerdem können mit ihnen in Gebäuden längere Entfernungen als mit Koaxkabeln überbrückt werden. Lichtleiter können wie TwistedPair auch im Ethernet-Verkehr nur für Punkt-zu-Punkt-Verbindungen eingesetzt werden. Lichtleiter werden zwischen Bridges, Switches und/oder Repeatern, einem Repeater und einer einzelnen Station mit Transceiver oder zwischen zwei Stationen mit Transceivern verwendet. Als Industriestandard für Lichtleiterprodukte hatte sich ursprünglich FOIRL (Fiber Optic InterrepeaterLink) durchgesetzt. Inzwischen wurde FOIRL vom offiziellen IEEE BASE-FL-Standard abgelöst, daher sollte man heute nur noch 10BASE-FL konforme Geräte einsetzen. An einem FOIRL-Segment kann ein FOIRL-kompatibles Gerät mit einem 10BASE-FL-Transceiver gemischt werden. In diesem Fall gelten jedoch die strengeren FOIRL-Regeln. Normalerweise ist das eingesetzte LWL-Kabel ein Multimode- (MMF-) Kabel mit ST- oder SC-Steckern. Die maximale Länge des Kabels ist 2000 m beim Einsatz von 10BASE-FL-Komponenten, 1000 m bei FOIRL. Sternkoppler können als Verstärker betrachtet werden, jedes Datenpaket, das von einem angeschlossenen Segment stammt, wird in alle anderen Segmente verbreitet, einschließlich Kollisionen und fehlerhafter Pakete. An einen Sternkoppler können Koax- oder Cheapernet-Segmente angeschlossen werden. Zudem gibt es direkte Transceiver-Anschlüsse und mittlerweile auch Anschlüsse für Twisted-Pair-Kabelsegmente. Hub 73

79 Bridge Grundlagen Computernetze Eine Bridge trennt zwei Ethernet-LANs physikalisch, Störungen wie z. B. Kollisionen und fehlerhafte Pakete gelangen nicht über die Bridge hinaus. Die Bridge ist protokolltransparent, d. h. sie überträgt alle auf dem Ethernet laufenden Protokolle. Die beiden beteiligten Netze erscheinen also für eine Station wie ein einziges Netz. Durch den Einsatz einer Bridge können die Längenbeschränkungen des Ethernets überwunden werden, den sie verstärkt die Signale nicht nur, sondern generiert senderseitig einen neuen Bitstrom. Die Bridge arbeitet mit derselben Übertragungsrate, wie die beteiligten Netze. Die Anzahl der hintereinandergeschalteten Bridges ist auf sieben begrenzt (IEEE 802.1). Normalerweise wird man aber nicht mehr als vier Bridges hintereinanderschalten. Jede lokale Bridge ist über Transceiver an zwei Ethernet-LANs angeschlossen. Die Bridge empfängt von beiden Netzsegmenten, mit denen sie wie jede normale Station verbunden ist, alle Blöcke und analysiert die Absender- und Empfängeradressen. Steht die Absenderadresse nicht in der brückeninternen Adreßtabelle, so wird sie vermerkt. Die Bridge lernt und speichert so die Information, auf welcher Seite der Bridge der Rechner mit dieser Adresse angeschlossen ist. Ist die Empfängeradresse bekannt und der Empfänger auf derselben Seite wie der Absender, so vewirft die Bridge das Paket (filtert es). Ist der Empfänger auf der anderen Seite oder nicht in der Tabelle, wird das Paket weitergeschickt. Die intelligente Bridge lernt so selbständig, welche Pakete weitergeschickt werden müssen und welche nicht. Bei managebaren Bridges können zusätzliche Adreß-Filter gesetzt werden, die regeln an welche Adressen die Bridge Informationen immer weiterschicken muß oder nie weiterschicken darf. Eine Bridge arbeitet auf der Ebene 2 des OSI-Schichtenmodells. Bridges können Ethernet-Segmente auch über synchrone Standleitungen, Satellitenverbindungen, Funkverbindungen, öffentliche Paketvermittlungsnetze und schnelle Lichtleiternetze (z.b. FDDI) verbinden. In der Regel müssen solche Bridges immer paarweise eingesetzt werden. Bridges sind komplette, relativ leistungsfähige Rechner mit Speicher und mindestens zwei Netzwerkanschlüssen. Sie sind unabhängig von höheren Protokollen (funktionieren also z.b. mit TCP/IP, DECnet, IPX, LAT, MOP etc. gleichzeitig) und erfordern bei normalem Einsatz keine zusätzliche Software oder Programmierung. Nach Außen bildet ein mittels Bridge erweitertes LAN Bridge 74

80 weiterhin eine Einheit, welches eine eindeutige Adressierung bedingt. Eine Bridge interpretiert die MAC-Adressen der Datenpakete. Weitere Features einer Bridge sind: Ausfallsicherheit Störungen gelangen von der einen Seite einer Bridge nicht auf die andere Seite. Sie werden auch in diesem Sinne zum Trennen von sog. Kollisions-Domänen (collision domain) eingesetzt. Datensicherheit Informationen, die zwischen Knoten auf einer Seite der Bridge ausgetauscht werden, können nicht auf der anderen Seite der Bridge abgehört werden. Durchsatzsteigerung In den durch Bridges getrennten Netzsegmenten können jeweils unterschiedliche Daten-Blöcke gleichzeitig transferiert werden. Hierdurch wird die Netzperformance erhöht. Allerdings erzeugen Brücken dadurch, daß sie die Blöcke zwischenspeichern eine zusätzliche Verzögerung und können deswegen bei kaum ausgelasteten Netzen die Performance sogar verschlechtern. Vermeidung von Netzwerkschleifen Eine Bridge unterstützt den sog. "Spanning-Tree-Algorithmus", wodurch es möglich ist, auch Schleifen- oder Ring-Konfigurationen (= redundante Verbindungen) im Netz zu erlauben. Die Bridges im Netz kommunizieren miteinander, im Gegensatz zu "dummen" Repeatern oder Hubs, und stellen über den Algorithmus sicher, daß bei mehreren redundanten Verbindungen immer nur eine gerade aktiv ist. Weitere Kenndaten einer Bridge sind die Größe der Adreßtabelle, die Filterrate, und die Transferrate. Die Größe der Adreßtabelle gibt an, wieviele Adressen (Knoten) insgesamt in der Bridge gespeichert werden können. Die Filterrate gibt an, wieviele Pakete pro Sekunde (packets per second, pps) eine Bridge maximal empfangen kann. Bei voller Last und minimaler Paketlänge können in einem Ethernet-Segment theoretisch bis zu Pakete pro Sekunde auftreten. Auf beiden Ports hat eine 2-Port-Bridge also insgesamt maximal Pakete pro Sekunde zu filtern. Alle modernen Bridges erreichen diese theoretisch möglichen Maximalwerte. Die Transferrate gibt an, wieviel Pakete pro Sekunde die Bridge auf die andere Seite weiterleiten kann. Der Maximalwert ist hier pps, da bei dieser Transferrate beide Segmente voll ausgelastet sind. Switch Grundlagen Computernetze Der Switch ist wie die Bridge ein Gerät des OSI-Layers 2, d. h. er kann LANs mit verschiedenen physikalischen Eigenschaften verbinden, z. B. Koax- und Twisted-Pair-Netzwerke. Allerdings müssen, ebenso wie bei der Bridge, alle Protokolle höherer Ebenen 3 bis 7 identisch sein! Ein Switch ist somit protokolltransparent. Er wird oft auch als Multi-Port-Bridge bezeichnet, da dieser ähnliche Eigenschaften wie eine Bridge aufweist. Jeder Port eines Switch bildet ein eigenes Netzsegment. Jedem dieser Segmente steht die gesamte Netzwerk-Bandbreite zu Verfügung. Dadurch erhöht ein Switch nicht nur - wie die Bridge - die Netzwerk-Performance im Gesamtnetz, sondern auch in jedem einzelnen Segment. Der Switch untersucht jedes durchlaufende Paket auf die MAC-Adresse des Zielsegmentes und kann es direkt dorthin weiterleiten. Der große Vorteil eines Switches liegt nun in der Fähigkeit seine Ports direkt miteinander verschalten zu können, d. h. dedizierte Verbindungen aufzubauen. Switch 75

81 Was ist nun der Unterschied zwischen einem Switch und einer Multiport-Bridge? Bei den Produkten der meisten Hersteller gibt es keinen. "Switch" klingt nach Tempo und Leistung, deswegen haben viele Hersteller ihre Multiport-Bridges Switches genannt. Der Begriff Switch für Multiport-Bridges wurde von der Firma Kalpana (inzwischen von Cisco aufgekauft) kreiert, da deren Produkte nicht der IEEE-Spezifikation einer Bridge entsprachen, konnte Kalpana die Produkte nicht Bridges nennen und hat den Namen Switch gewählt. Kalpana war nun sehr erfolgreich mit dem Marketing ihrer Switches. Deswegen haben andere Hersteller ihre Bridges auch Switch, Switch mit Bridge-Eigenschaften oder "Bridging Switch" genannt. Switches brechen die Ethernet-Busstruktur in eine Bus-/Sternstruktur auf. Teilsegmente mit Busstruktur werden sternförmig über je einen Port des Switch gekoppelt. Zwischen den einzelnen Ports können Pakete mit maximaler Ethernet-Geschwindigkeit übertragen werden. Wesentlich ist die Fähigkeit von Switches, mehrere Übertragungen zwischen unterschiedlichen Segmenten gleichzeitig durchzuführen. Dadurch erhöht sich die Bandbreite des gesamten Netzes entsprechend. Die volle Leistungsfähigkeit von Switches kann nur dann genutzt werden, wenn eine geeignete Netzwerktopologie vorhanden ist bzw. geschaffen werden kann. Die Datenlast sollte nach Möglichkeit gleichmäßig über die Ports verteilt werden. Systeme, die viele Daten übertragen, müssen unter Umständen an einen eigenen Switch-Port angeschlossen werden. Dies bezeichnet man dann als Private Ethernet. Außerdem sollte man versuchen, Systeme die viel miteinander kommunizieren, an einen gemeinsamen Port des Switches anzuschließen, um so die Datenmengen, die mehr als ein Segment durchlaufen müssen, zu reduzieren. Es haben sich drei grundlegende Realisierungsformen für Switches etabliert: Shared Memory: Alle Schnittstellen kommunizieren über einen zentralen Speicher. Bei dieser meist recht preisgünstigen Realisierung steht oft nur ein einfacher interner Rechnerbus zur Verfügung. Common Bus: Die Schnittstellen verfügen über einen lokalen Speicher und werden über einen gemeinsamen Bus mit den anderen Schnittstellen verbunden. Der interne Bus ist in der Regel schneller getaktet als die externen Schnittstellen (Zeitmultiplex) oder erlaubt als so genannte Backplane mehrere parallele Verbindungen (Raummultiplex). Crosspoint Matrix: Die Schnittstellen verfügen über einen lokalen Speicher und werden über eine flexible und leistungsfähige Schaltmatrix mit den anderen Schnittstellen verbunden. Diese Realisierungsform erlaubt in der Regel die höchste Leistungsfähigkeit, bedingt aber den größten Hardwareaufwand. Switch 76

82 Allgemein haben sich in der Switch-Technologie zwei Methoden der Weiterleitung herauskristallisiert: Cut-Through bzw. On The Fly Der Ethernet Switch wartet im Gegensatz zu normalen Bridges nicht, bis er das vollständige Paket gelesen hat, sondern er überträgt das ankommende Paket nach Empfang der 6-Byte-Destination-Adresse. Da nicht das gesamte Paket bearbeitet werden muß, tritt eine Zeitverzögerung von nur etwa 40 Mikrosekunden ein. Sollte das Zielsegment bei der Übertragung gerade belegt sein, speichert der Ethernet Switch das Paket entsprechend zwischen. Bei den Switches werden, im Gegensatz zu Bridges, mit Ausnahme von short frames (Pakete, die kleiner als die minimal zulässigen 64 Bytes sind), fehlerhafte Pakete auch auf das andere Segment übertragen. Grund hierfür ist, daß die CRC-Prüfung (Cyclic Redundancy Check) erst bei einem vollständig gelesenen Paket durchgeführt werden kann. Solange der Prozentsatz von fehlerhaften Paketen im Netz gering ist, entstehen keine Probleme. Sobald aber (z.b. aufgrund eines Konfigurationsfehlers, fehlerhafter Hardware oder extrem hoher Netzlast bei gleichzeitig langen Segmenten mit mehreren Repeatern) der Prozentsatz der Kollisionen steigt, können Switches auch dazu führen, daß die Leistung des Gesamtnetzes deutlich sinkt. Cut-Through-Switching bietet dann einen Vorteil, wenn man sehr geringe Verzögerungen bei der Übertragung zwischen einzelnen Knoten benötigt. Diese Technologie sollte also eingesetzt werden, wenn es darum geht, in relativ kleinen Netzen eine große Anzahl Daten zwischen wenigen Knoten zu übertragen. Store-and-Forward Die Switches dieser Kategorie untersuchen im Gegensatz zu den vorher erwähnten das gesamte Datenpaket. Dazu werden die Pakete kurz zwischengespeichert, auf ihre Korrektheit und Gültigkeit überprüft und anschließend verworfen oder weitergeleitet. Einerseits hat dies den Nachteil der größeren Verzögerung beim Weiterschicken des Paketes, andererseits werden keinerlei fehlerhafte Pakete auf das andere Segment übertragen. Diese Lösung ist bei größeren Netzen mit vielen Knoten und Kommunikationsbeziehungen besser, weil nicht einzelne fehlerhafte Segmente durch Kollisionen das ganze Netz belasten können. Bei diesen Anwendungen ist die Gesamttransferrate entscheidend, die Verzögerung wirkt sich hier kaum aus. Switch 77

83 Inzwischen sind Switching-Produkte (z.b. von 3Com, Cisco oder Allied Telesyn) am Markt, die beide Technologien unterstützen. Dies geschieht entweder per Konfiguration (Software) oder automatisch anhand der CRC-Fehler-Häufigkeit. Wird eine vorgegebene Anzahl von fehlerhaften Paketen überschritten, schaltet der Switch automatisch von "Cut Through" auf "Store and Forward" um. Die Performance eines Netzes kann man auf Basis vorhandener Standalone-Switches erhöhen, indem zusätzliche Switches über die Ethernetports kaskadiert werden. Alle Switches erlauben die Kaskadierung über einen einzelnen Ethernet-Port mit einer maximalen Transferrate von 10 Mbit/s (bzw. 100 Mbit/s bei Fast Ethernet Switches). Kann man das Netz in Teilnetze unterteilen, zwischen denen diese Transferrate ausreicht, ist dies eine sinnvolle Lösung. Doch meistens ist das nicht der Fall. Die nächste und wohl beste Möglichkeit der Kopplung von Switches ist der Einsatz von Produkten, die den Anschluß an einen High Speed Backbone erlauben. Im Gegensatz zu kaskadierten Standalone-Switches können weitere Geräte an den Backbone gehängt werden, ohne daß Ports für die Switch-zu-Switch-Verbindung verlorengehen. Eine Backbone-Lösung ist nicht nur schneller und flexibler sondern für große Netze auch kostengünstiger. Man muß unterscheiden zwischen Lösungen, die eine herstellereigene Verbindung benutzen (proprietär) und solchen, die auf einen Standard wie Fast Ethernet, Gigabit Ethernet, FDDI oder ATM setzen. Unterschiede Hub - Switch: Hub Switch Es kann immer nur ein Datenpaket nach dem anderen den Hub passieren Geschwindigkeit 10 oder 10/100 Mbps bei Dual Speed Hubs Hubs wissen nicht, an welchem Port welche Station angeschlossen ist, sie können es auch nicht lernen. Hubs müssen nicht konfiguriert werden. Mehrere Datenpakete können den Switch gleichzeitig passieren Die Gesamtbandbreite (der Datendurchsatz) ist wesentlich höher als bei einem Hub Switches lernen nach und nach, welche Stationen mit welchen Ports verbunden sind, somit werden bei weiteren Datenübertragungen keine anderen Ports unnötig belastet, sondern nur der Port, an dem die Zielstation angeschlossen ist Geschwindigkeiten sind heute 10, 10/100 oder 1000 MBit/s (Gigabit Ethernet) Switches müssen nicht konfiguriert werden inzwischen preisgünstiger als Hubs Switch 78

84 Eine oft gestellte Glaubensfrage: "In der Literatur und im Web finde ich immer wieder die Bemerkung, dass ein Hub nur Half-Duplex-Übertragung ermögliche, ein Switch dagegen aber Full-Duplex. Das kann ich nicht glauben. Vorausgesetzt, der Hub ist ein Signalverstärker, an den die Geräte mit zwei Aderpaaren (RX und TX) angeschlossen sind." Für die Antwort betrachten wir das Ganze aus angemessener Distanz: Ein Hub ist nach wie vor ein Verstärker, der alles, was an einem Port reinkommt auf allen(!) Ports wieder ausgibt - egal wie's kommt. Dann gibt der Hub die empfangenen Impulse aber auch an dem Port aus, an dem sie gerade reinkommen. Wenn jetzt eine Kommunikation zwischen zwei Knoten an beispielsweise den Ports 1 und 2 stattfindet und Knoten 1 sendet, dann bekommt er sein logischerweise auch eigenes Geschwätz zu hören. Wenn dann noch der Knoten 2 sendet, gibt's eine Kollision. Also muss Knoten 2 still sein, wenn Knoten 1 sendet und umgekeht - das ist aber dann doch nur halbduplex. Der Switch schaltet einen "Kanal" zwischen zwei Ports, die anderen bleiben aussen vor und daher kann er tatsächlich vollduplex fahren (bis die Last soweit steigt, das er in den Hub-Modus schaltet und alles wieder egal ist). Latenzzeiten von Ethernet Switches Aufgrund der Arbeitsweise unterscheiden sich das Cut-Through-Verfahren und Store-and-Foreward-Verfahren in ihren Latenzzeiten. Der Cut-Through-Switch benutzt die Zieladresse als ein Entscheidungskriterium, um einen Zielport aus einer Adresstabelle zu erhalten. Nach der Bestimmung des Zielports wird eine Querverbindung durch den Switch geschaltet, und der Frame wird zum Zielport geleitet Da diese Switching-Methode nur die Speicherung eines kleinen Teils des Frames erfordert, bis der Switch fähig ist, die Zieladresse zu erkennen und den Switching-Vorgang einzuleiten, ist die Latenzzeit in diesem Fall nur minimal. Die Latenzzeit für einen 10-Mbps-Ethernet-Frame berechnet sich wie folgt: Der Switch muss zunächst 14 Bytes einlesen (8 Bytes für die Präambel und 6 Bytes für die Zieladresse). Für die Latenzzeit T L eines Cut-Through Ethernet-Switches ergibt sich T L = T IG + 14*8*T BK [µs] Mit einem Interframe-Gap von T IG = 9,6 µs und einer Bitdauer von T BK = 0,1 µs: T L = 9,6 + 14*8*0,1 = 9,6 + 11,2 = 20,8 µs Ein Store-and-Forward-Switch speichert erst den gesamten Frame, bevor die Verarbeitung der Datenfelder des Frames beginnt. Wenn der gesamte Frame im Zwischenspeicher angekommen ist, wird ein CRC-Check durchgeführt, optional auch weitere Filteraktionen. Ist der Frame fehlerfrei, wird er von Zwischenspeicher zum Zielport geleitet, anderenfalls verworfen. Für die Latenzzeit T L eines Ethernet Store-and-Foreward Switches gilt also theoretisch mit der Framegröße FG: T L = T IG + FG*8*T BK [µs] Da die minimale Größe eines 10-Mbps-Ethernet-Frames 72 Bytes beträgt, gilt für die minimale Latenzzeit TL min eines Store-and-Foreward Ethernet-Switches: T L = T IG + 72*8*T BK [µs] Mit einem Interframe-Gap von T IG = 9,6 µs und einer Bitdauer von T BK = 0,1 µs ergibt sich: T L = 9,6 + 72*8*0,1 = 67,2 µs Grundlagen Computernetze Aufgrund der Speicherung des gesamten Frames ist die Latenzzeit beim Store-and-Foreward Latenzzeiten von Ethernet Switches 79

85 Switching abhängig von der Framegröße, so daß für Frames maximaler Größe (1526 Bytes) gilt: T L = 9, *8*0,1 = 1,23 ms Router Grundlagen Computernetze Große Netzwerke wie das Internet bestehen aus vielen kleineren Teilnetzwerken. Die Verbindung der verschiedenen Netze wird durch spezielle Rechner hergestellt. Das sind, neben Bridges, Switches und Gateways, im Internet vor allem Router. Diese haben die Aufgabe, Daten zwischen Rechnern in verschiedenen Netzen auf möglichst günstigen Wegen weiterzuleiten. Zum Beispiel wenn Rechner 1 im Netz B Daten an Rechner 2 im Netz C schicken möchte. Router verbinden, im Gegensatz zu Bridges, in OSI-Schicht 3 auch Netze unterschiedlicher Topologien. Sie sind Dreh- und Angelpunkt in strukturiert aufgebauten LAN- und WAN-Netzen. Mit der Fähigkeit, unterschiedliche Netztypen sowie unterschiedliche Protokolle zu routen, ist eine optimale Verkehrslenkung und Netzauslastung möglich. Routing wird erst dann erforderlich, wenn Kommunikation zwischen Stationen in unterschiedlichen Subnetzen erfolgen soll. Sie sind nicht protokolltransparent, sondern müssen in der Lage sein, alle verwendeten Protokolle zu erkennen, da sie Informationsblöcke protokollspezifisch umsetzen. Klassische Beispiele in Heim- und KMU-Netzen sind die ISDN- oder DSL-Router, welche die Verbindung zum Provider herstellen. Router operieren in der Ebene 3 des OSI-Referenzmodells. Sie verbinden Netzwerke über die entsprechenden Netzwerkprotokolle. Sie ermöglichen die Zerlegung großer Netzwerke in kleinere Verwaltungseinheiten. Sie leiten Datenpakete der Netzwerkschicht weiter (forwarding) und treffen Entscheidungen über Wegewahl und Erreichbarkeit zu anderen Netzwerken (routing). Der Router muß dafür die Adressierungsstruktur in der Netzwerkschicht kennen. Bevor ein Router ein Paket mit einer bestimmten IP-Adresse weiterleiten kann, muß er für diese Adresse zunächst den Weg durch das Netz zum Zielrechner bestimmen. Das geschieht mit Hilfe spezieller Protokolle wie ARP, RIP, OSPF, EGP/BGP. Er ist jedoch von der Schicht 2 unabhängig und kann deswegen verschiedene Schicht-2-Welten (zum Beispiel Ethernet und Token Ring) miteinander verbinden. Ein Router Router 80

86 unterscheidet sich u.a. von einer Bridge darin, dass die Bridge für die Netzwerkteilnehmer völlig transparent ist, während die Adresse eines Routers jedem Host im Netzwerk explizit bekannt sein muß, wenn er dessen Dienste nutzen will. Ein Router kann einen von mehreren potentiellen Wegen zur Weiterleitung der Daten aussuchen, wobei er seine Entscheidung mit Hilfe von Parametern, wie zum Beispiel Übertragungszeiten, Knotenlast oder auch nur einfach Knotenanzahl, trifft. Wie Router die Wegeentscheidung treffen, hängt wesentlich vom konkreten Protokoll der Schicht 3 ab. In der Routingtabelle ist aber nicht der gesamte Weg zu einem Rechner mit einer bestimmten IP-Adresse gespeichert. Vielmehr kennt der einzelne Router nur die nächste Zwischenstation (engl. next hop) auf dem Weg zum Ziel. Das kann ein weiterer Router oder der Zielrechner sein. Grundlegende Komponenten von Routern Grundlagen Computernetze Der Router besteht, wie ein Computer auch, aus CPU und Speicher. Dazu kommen mehrere Netzwerkadapter, die eine Verbindung zu jenen Netzen herstellen, die mit dem Router verbunden sind. Die Adapter sind meist über einen Systembus mit der CPU des Routers verbunden. Die CPU wiederum hält im Hauptspeicher des Rechners die Routingtabelle vor. LAN Interfaces: Die meisten Router haben ein oder mehrere LAN-Interfaces, je nach Topologie für Token-Ring, Ethernet, 100BASE-T Fast Ethernet, FDDI oder auch ATM. Für den Anschluß entsprechender Medien sind entweder alternativ nutzbare Ports (z.b. Ethernet AUI, BNC, RJ45) vorhanden oder der Anschluß ist als Einschub realisiert und kann daher den Erfordernissen angepaßt werden. WAN Interfaces: WAN-Leitungen werden von unterschiedlichen Anbietern mit unterschiedlichen Geschwindigkeiten angeboten. Entsprechend variieren die Kosten und die Schnittstellen. Für kleinere Anbindungen (z.b. Workgroups) werden Verbindungen mit einer Übertragungsgeschwindigkeit von 64 Kbit/s empfohlen. Es gibt natürlich Applikationen, wo eine geringere Übertragungsrate ausreicht. Werden höhere Übertragungsraten benötigt, so bietet sich die in Europa übliche E1-Verbindung (im Prinzip ein ISDN Primärmultiplexanschluß) mit einer Übertragungsrate von 2048 kbit/s an. Router haben einen oder mehrere WAN-Ports, die entweder fest eingebaut sind oder bei modularen Modellen mit entsprechenden Schnittstellenmodulen aufgerüstet werden können. Übliche physikalische Schnittstellen für Synchronbetrieb sind RS449, V.35 und X.21, für asynchronen Betrieb das RS232-Interface. Für den Anschluß an ISDN wird die S0-Schnittstelle verwendet. Grundlegende Komponenten von Routern 81

87 Routing Da, wie gesagt, Routing auf Schicht 3 stattfindet, wird in diesem Abschnitt auf das Internet-Protocol vorgegriffen (siehe Kapitel 10: 10 TCP/IP). Wenn einer der Netzwerkadapter ein Datenpaket erhält, so verarbeitet er zunächst die Schicht-2-Protokolldaten, extrahiert dann das IP-Paket und reicht es zur weiteren Verarbeitung an die CPU weiter. Diese entnimmt dem Paketkopf die IP-Adresse des Zielrechners. Wenn nicht der Router selber adressiert ist, muß das Paket weitergeleitet werden. Dazu sucht die CPU in der Routingtabelle nach der passenden Next-Hop-Information. Die Next-Hop-Information beinhaltet zum einen die Nummer des Netzwerkadapters über den das Paket ausgegeben werden soll und zweitens die IP-Adresse des Next-Hop. Diese Adresse übergibt die CPU des Routers nun zusammen mit dem IP-Paket an den entsprechenden Netzwerkadapter. Dieser generiert daraus ein Schicht-2-Paket und sendet es ab. Werden auch Informationen im Kopf des Datagramms vor dem Weiterleiten geändert? Zunächst einmal wird bei Eintreffen eines IP-Datagrammes überprüft, ob die Prüfsumme mit den Daten des Paketes zusammenpasst. Wenn dies nicht der Fall ist, muß der Router eine Fehlermeldung an den Absender schicken. Anschließend wird der Zähler "time-to-live" im Kopf des Paketes dekrementiert. Erreicht er den Wert 0, wird das Paket verworfen. Auf diese Weise können Endlosschleifen vermieden werden. Da sich der Inhalt des Paketes deswegen verändert hat, muß eine neue Prüfsumme berechnet werden. Das neue Datagramm wird nun weitergeleitet. Ist eine lokale Auslieferung möglich, ist die physikalische Zieladresse die MAC-Adresse des IP-Zieles. Im Falle einer indirekten Auslieferung ist die physikalische Zieladresse die MAC-Adresse des Routers. Also ist die Information über den Router nicht im Kopf eines IP-Paketes vermerkt. Der Weg eines Datagrammes kann also nicht verfolgt werden. Bevor ein Router ein Paket mit einer bestimmten IP-Adresse weiterleiten kann, muß er ggf. für diese Adresse zunächst den Weg durch das Netz zum Zielrechner bestimmen. Das geschieht mit Hilfe spezieller Protokolle wie ARP, RIP, OSPF, EGP/BGP. Bei der Verbindung von mehr als zwei Netzen existieren Knotenpunkte, an denen eine Richtungsentscheidung getroffen werden muß. Router mit mehreren Interfaces legen den Weg eines Paketes durch das Netz fest. Es ginge im Prinzip auch nur mit einem Interface - aber auf Kosten der Performance. Betrachten wir dazu ein stark vereinfachendes Beispiel. Dabei werden lokale Netze im folgenden nur noch als gelbe Ovale dargestellt. Innerhalb eines lokalen Netzes hat jeder Rechner eine eigene IP-Adresse. Zwei Netze werden miteinander über Router (rotes Rechteck) gekoppelt. Routing 82

88 Das Konzept wird rasch an vielen Stellen umgesetzt. Es entstehen miteinander gekoppelte Netze. Aber noch haben nicht alle Netze miteinander eine Verbindung. Durch weitere Verbindungen haben nun alle Netze Kontakt. Jeder Rechner kann mit jedem anderen Rechner kommunizieren, auch wenn sie nicht in zwei benachbarten Netzen liegen. Durch Querverbindungen entsteht ein vermaschtes System. Auch wenn eine der Verbindungen ausfällt, kann die Kommunikation weiterlaufen. Routing 83

89 Durch die für das Routen notwendige Untersuchung des Datenpakets, erhöht sich die Verweilzeit der Daten im Router selbst (Latenzzeit). Die eigentliche Stärke von Routern liegt in ihrer Fähigkeit mittels bestimmter Algorithmen den bestmöglichen Weg für ein Datenpaket zum Empfänger aus seiner Routing-Tabelle zu wählen. Um die Daten "routen" zu können, ist es notwendig, daß der Router alle angeschlossenen Netzwerkprotokolle versteht und diese auch die Fähigkeit des Routens unterstützen. Der Vorteil des Routers gegenüber der Bridge ist die logische Trennung und die Bildung von (Sub-)Netzen bei TCP/IP bzw. von Areas bei DECNET. Weitere Features von Routern sind ihre Netzwerk-Management- und die Filter-Funktionen. Durch geeignet gewählte Routing-Einstellungen ist es möglich, die Netwerk-Performance je nach Anforderungen ans Netz zu verbessern. Die Filterfunktionen auf Netzwerk-Protokollebene sind ähnlich wie bei der Bridge. Router bieten aber eine generell höhere Isolation da sie z. B. Broadcasts in der Regel nicht weiterleiten. Außerdem können sie zusätzlich als "screening Router" verwendet werden, indem z. B. bestimmten IP-Adressen der Zugriff auf bestimmte Netzteile verwehrt wird. Aus den erwähnten Gründen sind Router in der Regel per Software konfigurierbar. Bei Hochgeschwindigkeitsnetzen im Gigabitbereich ist die oben beschriebene Struktur eines Routers nicht mehr ausreichend. Die CPU und der Systembus müßten dabei die Summe der Übertragungsraten aller angeschlossenen Netzwerke verarbeiten können. Bei 2 GBit/s Datenübertragungsgeschwindigkeit entspricht das bei einer angenommenen Paketgröße von 1000 Bits bis zu zwei Millionen IP-Paketen pro Sekunde und Netzwerkanschluß. Bei solchen Hochleistungsroutern geht man dazu über, die Aufgabe des Weiterleitens von IP-Paketen den einzelnen Netzwerkadaptern zu übertragen. Die Netzwerkadapter erhalten zu diesem Zweck eine eigene CPU und Speicher, in dem sich eine Kopie der zentralen Routingtabelle des Routers befindet. Trifft bei diesem Routermodell ein IP-Paket bei einem der Adapter ein, bestimmt dieser den Next-Hop und gibt das Paket direkt an den entsprechenden Ausgangsadapter weiter. Die CPU des Routers ist nur noch für die Ausführung der Routingprotokolle und die Verwaltung der zentralen Routingtabelle sowie anderer administrativer Aufgaben zuständig. Die zentrale Routingtabelle wird im Fall einer Änderung anschließend in die Speicher der einzelnen Netzwerkadapter kopiert. Die Routingtabelle Eine einfache Tabelle über alle 2 32 (bei IPv4) bzw (bei IPv6) möglichen IP-Adressen wäre kaum machbar. Schließlich kann ein Router über die direkt mit ihm verbundenen Netze nur maximal einige tausend Rechner erreichen. In der Regel sind es sogar weniger als hundert. In der Routingtabelle ist auch nicht der gesamte Weg zu einem Rechner mit einer bestimmten IP-Adresse gespeichert. Die Routingtabelle 84

90 Vielmehr kennt der einzelne Router nur die nächste Zwischenstation (engl. next hop) auf dem Weg zum Ziel. Das kann ein weiterer Router oder der Zielrechner sein. Die IP-Adressen sind nicht einzeln wahllos auf Rechner in der ganzen Welt verstreut worden. Bei IPv4 ist der Adreßraum in fünf verschiedene Klassen A-E unterteilt worden, wobei hier nur die Klassen A - C interessieren. Jede IPv4-Adresse besteht aus einer Klassenkennung, einer Netzadresse, einer möglichen Subnetzadresse und einer Rechneradresse. Jede Organisation im Internet bekommt eine Netzadresse aus einer bestimmten Klasse zugewiesen. Mit den Netzadressen der verschiedenen Klassen sind unterschiedliche Kontingente von Rechneradressen verbunden, je nachdem wie viele Adressen von einer Organisation benötigt werden. So sind die Netzadressen der Klasse B 16 Bit lang, und für die Adreßverteilung innerhalb einer Organisation stehen 16 Bit zur Verfügung. Für die mögliche Aufteilung in Subnetze und die Verteilung der Adressen an einzelne Rechner innerhalb der Organisationen sind diese selber zuständig. Class A-Netz: 1 Byte Netzadresse, 3 Byte Rechneradresse. Class B-Netz: 2 Byte Netzadresse, 2 Byte Rechneradresse, Class C-Netz: 3 Byte Netzadresse, 1 Byte Rechneradresse, Class D-Netz: für Multicast-Anwendungen Class E-Netz: für Experimente Beispiel für drei IP-Netze mit Routern Das folgende Netz besteht aus drei IP-Netzen, die über Router verbunden sind. Jeder Router hat zwei Netzwerk-Interfaces, die jeweils in zwei der Netze hängen. Es ist nicht unbedingt erforderlich, für jedes Netz ein eigenes Interface zu verwenden; über sogenannte 'virtuelle Interfaces' kann man mehrere Netze auf ein Hardwareinterface legen. Die Routing-Tabellen dazu sehen so aus: Beispiel für drei IP-Netze mit Routern 85

91 Router 1 Router 2 Empfänger im Netzwerk Zustellung über Empfänger im Netzwerk Zustellung über direkt direkt direkt direkt Routingverfahren Das Routing (Wegewahl, Pfadsteuerung) hat die Aufgabe, Pfade für die Übertragung durch ein Netz festzulegen. Jeder Vermittlungsknoten fällt dabei eine Entscheidung auf welcher Übertragungsleitung ein eingelaufenes Paket weitergeleitet werden soll. Im Prinzip läuft die Entscheidung innerhalb des Routers folgendermaßen ab: Beim Routing werden diverse Ziele verfolgt: Geringe Paketverzögerung Hoher Durchsatz Geringe Kosten Fehlertoleranz Es gibt eine Reihe von Routingverfahren, die sich hinsichtlich Zentralisierung und Dynamik unterscheiden: Zentralisierung: Wo werden Wegewahlen getroffen? Zentral, in einem Netzkontrollzentrum. Dezentral, verteilt über die Vermittlungsknoten. Dynamik: Welche Größen beeinflussen die Wegewahlen? Nicht-adaptive Verfahren. Wegewahl sind fest vorgegeben oder lange Zeit konstant. Der Zustand eines Netzes hat keinen Einfluß auf die Wegewahl. Routingverfahren 86

92 Adaptive Verfahren. Wegewahlen hängen vom Zustand des Netzes ab (Topologie, Lastveränderungen usw.). Routing-Algorithmen benutzen zwei grundlegende Verfahrensweisen: Teile der Welt mit, wer deine Nachbarn sind: Link-State-Routing-Protokolle (z. B. OSPF) sorgen dafür, daß nach einiger Zeit jeder Router die vollständige Topologie des Netzwerkes kennt und sich die kürzesten Wege darin selbst ausrechnen kann. Teile deinen Nachbarn mit, wie für sie die Welt aussieht: Bei Distanzvektor-Protokollen (z. B. RIP) teilen sich die Router untereinander nur mit, wie "gut" sie an verschiedene Zielknoten angebunden sind. Durch Auswahl des für ein bestimmtes Ziel optimalen Nachbarn wird die Suche nach dem kürzesten Weg auf mehrere Router verteilt. Eine etwas verallgemeinerte Form der Distanzvektorprotokolle mit einer verbesserten Form der Schleifenerkennung sind die Pfadvektor-Protokolle (z. B. das Border Gateway Protocol (BGP)). Weiterhin werden Routing-Algorithmen nach Ihrer Zentralisierung und Dynamik beurteilt: Zentralisierung: Wo ist der Algorithmus lokalisiert? Zentral in einem Netzkontrollzentrum oder dezentral verteilt auf die Vermittlungsknoten? Dynamik: Bei nicht adaptiven Verfahren bleibt die Routingtabelle im Vermittlungsknoten, verglichen mit der Verkehrsänderung, über längere Zeit konstant. Ist das Verfahren adaptiv, hängen die Routingentscheidungen vom Zustand des Netzes ab (Topologie, Lastverhältnisse). Aus diesen Punkten ergibt sich ein Zielkonflikt, da zentrale, nicht adaptive Verfahren das Netz weniger mit Routingnachrichten belasten, aber möglicherweise veraltete und unvollständige Informationen über den Zustand des Netzes benutzen. Je adaptiver und verteilter die Routingverfahren sind, desto besser sind die Informationen über das Netz verteilt. Durch den Austausch von häufigen Nachrichten mit Routinginformationen wird das Netz jedoch stärker belastet. Die Routingverfahren suchen hier einen möglichst idealen Mittelweg. Routingverfahren lassen sich auf dieser Basis in folgende Teile aufteilen: Paketweiterleitung: Verbindungslose Vermittlung (Datagramme) Für jedes Datagramm wird die Wegewahl neu getroffen. Verbindungsorientierte Vermittlung (Session-Routing) Die Wegewahl wird bei der Verbindungserstellung getroffen. Alle Pakete einer (virtuellen) Verbindung verwenden denselben Weg. Wegewahl (Routing): Routing-Protokoll (Protokoll zum Austausch von Informationen, die für die Wegewahl benötigt werden). Routing-Algorithmen (Verfahren zur Bestimmung von Wegen). Routing-Tabellen (Datenstrukturen, die die Wegeinformationen speichern). Statisches Routing Grundlagen Computernetze Statisches Routing (Static Routing, Directory Routing) ist nicht adaptiv und einfach aber sehr häufig benutzt. Die Eigenschaften sind: Jeder Knoten unterhält eine Routing-Tabelle, in der jeder mögliche Zielknoten durch eine Zeile gekennzeichnet ist. Jede Zeile enthält ein oder mehrere Einträge für die zu verwendende Übertragungsleitung in Richtung des Zieles. Jeder Eintrag enthält auch eine relative Gewichtung. Routingverfahren 87

93 Zum Weiterleiten eines Paketes wird sein Ziel bestimmt, die entsprechende Zeile aus der Tabelle gesucht und aus ihr die "beste" Übertragungsleitung ausgewählt. Auf dieser wird das Paket weitergesendet. Zentralisiertes Routing Zentralisiertes Routing arbeitet auf einem zentralen Knoten (Routing Control Center RCC). Es handelt sich um ein adaptives Verfahren: Jeder Knoten sendet periodisch Zustandsinformationen an das RCC (wie den Leitungszustand, Auslastung, Verkehr usw.). Das RCC sammelt diese Informationen und berechnet optimale Wege durch das gesamte Netz. Das RCC übermittelt Routingtabellen zu jedem Knoten. In großen Netzen dauert die Berechnung sehr lange. Durch Ausfall des RCC kann das gesamte Netz inoperabel werden. Isoliertes Routing Beim isolierten Routing wird die Wegewahl von jedem Knoten nur aufgrund von Informationen, die er selber sammelt, getroffen. Eine Anpassung an den globalen Zustand eines Netzes ist nur mit Hilfe beschränkter Informationen möglich. Verteiltes adaptives Routing Diese Verfahren sind gekennzeichnet durch: Jeder Knoten tauscht periodisch Informationen für die Routing-Entscheidungen mit seinen Nachbarn aus. Routingtabellen werden anhand der Informationen von den Nachbarn bestimmt. Routing-Informationen werden entweder in bestimmten Intervallen synchron ausgetauscht. Routing-Informationen werden asynchron bei lokalen Änderungen an die Nachbarn weitergegeben. Hierarchisches Routing Bei großen Netzen ist die Speicherung und Übermittlung von Routing-Tabellen kaum noch möglich (Speicherplatz, Netzbelastung). Desweiteren verlangsamt das Durchsuchen langer Tabellen die Weiterleitung der Pakete erheblich. Daher verfährt man wie folgt: Aufteilung des Netzes in Regionen. Die Knoten in den Regionen haben nur Routing-Informationen über die eigene Region. Mindestens ein Knoten dient als Schnittstelle zu anderen Regionen. Eine Hierarchisierung in Regionen, Zonen usw. ist möglich. Routing im Internet Grundlagen Computernetze Prinzipiell unterscheidet man im Internet je nach Zweck zwei verschiedene Arten von Routing: Intradomain-Routing findet innerhalb eines autonomen Systems statt (Intranet). Es verwendet sogenannte Interior Gateway-Protokolle (IGP). Es geht in den meisten Fällen um eine technisch effizienten Nutzung des Netzwerkes. Typisch ist eine Wegewahl entlang kürzester Pfade. Der Administrator versucht, durch geschicktes Konfigurieren des Routings das durch Routingverfahren 88

94 das Netzwerk übertragene Datenvolumen zu maximieren (Traffic Engineering). Interdomain-Routing bezeichnet das Routing zwischen autonomen Systemen. Es verwendet sogenannte Exterior Gateway-Protokolle (EGP), meist das Border Gateway Protocol (BGP). Da Interdomain-Routing das Routing zwischen verschiedenen Providern regelt, liegt der Fokus beim Interdomain-Routing normalerweise auf einer finanziell effizienten Nutzung des Netzes. Dem zugrunde liegt die Idee, daß ein autonomes System nicht allen seinen Nachbarn die gleichen Informationen (Routen) zukommen lässt. Welche Informationen ausgetauscht werden, wird vertraglich geregelt und dementsprechend die Router konfiguriert. Man spricht in diesem Zusammenhang auch von "policy-basiertem Routing". (Der Namensbestandteil "domain" bezieht sich auf das autonome System, er hat nichts mit den "DNS-Domains" zu tun.) Zusammenwirken von Protokollen Abhängig davon, ob ein Router Teil eines autonomen Systems ist oder dessen Grenze bildet, verwendet er oftmals gleichzeitig Routing-Protokolle aus verschiedenen Klassen: Interior Gateway Protocols (IGPs) tauschen Routing-Informationen in einem einzelnen autonomen System aus. Häufig verwendet werden: IGRP/EIGRP (Interior Gateway Routing Protocol/ Enhanced IGRP) OSPF (Open Shortest Path First) IS-IS (Intermediate System to Intermediate System) RIP (Routing Information Protocol) MPLS (Multi-Protocol Label Switching) Exterior Gateway Protocols (EGPs) regeln das Routing zwischen verschiedenen autonomen Systemen. Dazu gehören: BGP (Border Gateway Protocol) ist heute weltweit der de-facto-standard (BGP4). EGP (Exterior Gateway Protocol) verband früher die Internet-Backbones. Es ist inzwischen veraltet. Ad hoc Routing-Protokolle werden in Netzen mit wenig oder keiner Infrastruktur verwendet. OLSR (Optimized_Link_State_Routing) findet meist Verwendung im mobilen Bereich. AODV (Ad-hoc On-demand Distance Vector-Routing) findet in kleineren Netzen mit hauptsächlich statischem Traffic Verwendung. Layer-3-Switching Grundlagen Computernetze Layer-3-Switching ist eine neue Technologie. Sie kombiniert leistungsfähiges Switching (Layer 2) mit skalierbarem Routing (Layer 3). Herkömmliche Switches verwenden die MAC-Adresse der Ethernet-Frames zur Entscheidung, wohin die Frames transportiert werden sollen, während Router Datenpakete anhand von Routingtabellen und Accesslisten auf Layer-3-weitervermitteln. Router sind in vielen Installationen als reine LAN-to-LAN-Router im Einsatz, um Subnetze zu verbinden und die Nebeneffekte von rein geswitchten Netzen, wie z. B. Broadcast-Stürme, fehlendes Subnetting etc. zu verhindern. Router, die auf der Transportebene arbeiten, müssen jedes IP-Paket aus den Ethernet-Frames zusammenbauen und vielfältige Operationen an IP-Paketen durchführen. Dies führt zu einer Verzögerungszeit und, im Vergleich zu Switches, geringerem Datendurchsatz. In reinen IP-Netzen kann das Layer-3-Switching, auch "Fast IP" genannt, diese LAN-to-LAN-Router ersetzen. Der Layer-3-Switch liest beim ersten IP-Paket sämtliche Frames dieses Paketes, analysiert die Absender- und Empfänger-IP-Adressen und leitet das IP-Paket weiter. Alle nachfolgenden Frames dieses Stationspaars können daraufhin anhand der MAC-Adresse weitergeleitet werden. Der Layer-3-Switch behandelt IP-Pakete beim ersten Mal wie ein Router, nachfolgende Daten können auf Routing im Internet 89

95 Frame-Ebene geswitcht werden. Nicht-IP-Daten, wie z. B. IPX-Pakete, werden vom Layer-3-Switch auf Layer 2 geswitcht. Das Konzept des Layer-3-Switching bedingt eine Erweiterung des Ethernet-Frameformats und ist bisher nur proprietär implementiert. Die Erweiterung des Layer-3-Switching auf andere Layer-3-Protokolle wie z.b. IPX ist geplant. Es ist anzunehmen, daß die herstellerspezifischen Implementationen in einen gemeinsamen Standard münden. Terminalserver Ein Terminal-Server dient dazu, einem beliebigen Endgerät, sofern es eine serielle, asynchrone V.24 (RS 232 C)-Schnittstelle besitzt, die Verbindung zu einem Rechner herzustellen. Der Terminal-Server ist über einen Transceiver an das Ethernet angeschlossen und stellt dem Terminal-Benutzer eine Kommandoschnittstelle zur Verfügung, so daß er Verbindungen aufbauen, abbauen und Parameter (z.b. Echo) setzen kann. Ein Terminal kann meist mehrere Verbindungen haben und zwischen ihnen wechseln. Es gibt Terminal-Server für verschiedene Protokolle, z. B. für TCP/IP (Telnet) und DECnet (LAT) oder auch beides zugleich. Die meisten Terminal-Server haben acht Ports zum Anschluß von Endgeräten, sie können auch kaskadiert werden. Der Einsatz eines Terminal-Servers ist immer nötig, wenn es für das Endgerät keine Möglichkeit gibt, eine Ethernet-Karte einzubauen. Gateway Gateways können völlig unterschiedliche (heterogene) Netze miteinander koppeln. Sie stellen einen gemeinsamen (virtuellen) Knoten dar, der zu beiden Netzen gehört und den netzübergreifenden Datenverkehr abwickelt. Gateways werden einerseits für die LAN-WAN-Kopplung (oder die LAN-WAN-LAN-Kopplung) andererseits für den Übergang zwischen unterschiedlichen Diensten verwendet (z. B. das Absetzen von Fax-Nachrichten aus einem LAN). Ein Gateway ist ein aktiver Netzknoten, der von beiden Seiten aus adressiert werden kann. Er kann auch mehr als zwei Netze miteinander koppeln. Gateways behandeln auf beiden Seiten unterschiedliche Protokolle bis hinauf zur Schicht 7. Insbesondere ist das Routing über Netzgrenzen (korrekte Adressierung!) hinweg eine wichtige Aufgabe des Gateways. Man unterscheidet im wesentlichen zwei Typen: Medienkonvertierende Gateways (Translatoren), die bei gleichem Übertragungsverfahren die Verbindung zwischen unterschiedlichen Protokollen der unteren beiden Ebenen (bei unterschiedlichem Transportmedium) herstellen - also dort, wo ein Router nicht mehr ausreichen würde. Protokollkonvertierende Gateways, die unterschiedliche Protokolle der Ebenen 3 und 4 abwickeln und ineinander überführen. Der Gateway unterstützt hauptsächlich zwei wichtige Dienste: Die Übermittlung aufeinanderfolgender Nachrichten zwischen Quelle und Ziel als unabhängige Einheit und das Etablieren einer logischen Verbindung zwischen Quelle und Ziel. Um auf die unterschiedlichen Anforderungen der Flußkontrolle der zu verbindenen Netze eingehen zu können, muß der Gateway gegebenfalls Daten zwischenspeichern. Ist eines der beteiligten Netze leistungsfähiger als das andere, muß der Gateway dies erkennen und das "schnellere" Netz bremsen. Arbeiten beide Netze mit unterschiedlichen Paketgrößen, müssen Datenpakete "umgepackt" werden. Dies kann ganz einfach dadurch geschehen, daß zu große Pakete in kleinere Pakete aufgespalten und am Ziel gegebenenfalls wieder zusammengesetzt werden. Firewall-Rechner Grundlagen Computernetze Als Schutz vor Einbruchsversuchen in lokale Netze, die über einen Anschluß an öffentliche Netze verfügen (z. B. Internet, aber auch ISDN), haben sich Firewall-Rechner, kurz 'Firewalls' bewährt. Layer-3-Switching 90

96 Ähnlich der Zugbrücke einer Burg erlauben sie den Zugang nur an einer definierten Stelle. Damit läßt sich der Datenverkehr von und nach außen kontrollieren. Normalerweise sind zahlreiche Rechner des Unternehmens, die unter diversen Betriebssystemen laufen, direkt aus dem öffentlichen Netz erreichbar. Eine Firewall kanalisiert die Kommunikation, indem alle Daten von und nach außen über dieses System laufen müssen. Die Kanalisierung erhöht zudem die Chancen, einen Einbruchversuch anhand ausführlicher Protokoll-Dateien zu erkennen, da der Eindringling erst die Firewall passieren muß. Eine Firewall kann aus einer einzelnen Maschine oder aus einer mehrstufigen Anordnung bestehen. Eine mehrstufige Anordnung ist vor allem dann sinnvoll, wenn man bestimmte Dienste der Öffentlichkeit zur Verfügung stellen will, etwa einen WWW- oder FTP-Server. Die entsprechenden Hosts können dann in einem Zwischennetz isoliert werden. Architektur mit Dualhomed-Host Grundlagen Computernetze Eine Architektur mit Dualhomed-Host wird um einen Rechner herum aufgebaut, der über mindestens zwei Netzwerkschnittstellen verfügt. Ein solcher Host ist als Router zwischen den Netzen einsetzbar, die an die Schnittstellen angeschlossen sind. Er kann dann IP-Pakete von Netz zu Netz routen. Für diese Firewall-Architektur muß diese Routingfunktion jedoch deaktiviert werden. IP-Pakete werden somit nicht direkt von dem einen Netz (dem Internet) in das andere Netz (das interne, geschützte Netz) geroutet. Systeme innerhalb der Firewall und Systeme außerhalb (im Internet) können jeweils mit dem Dualhomed-Host, aber nicht direkt miteinander kommunizieren. Der IP-Verkehr zwischen ihnen wird vollständig blockiert. Die Netzarchitektur für eine Firewall mit Dualhomed-Host ist denkbar einfach: der Dualhomed-Host sitzt in der Mitte, wobei er mit dem Internet und dem internen Netz verbunden ist. Ein Dualhomed-Host kann Dienste nur anbieten, indem er entsprechende Proxies (Stellvertreter) oder Gateways einsetzt. Es ist jedoch auch möglich, direkte Nutzerzugriffe zu gestatten (Sicherheitsrisiko). Architektur mit überwachtem Host Die "screened host architecture" bietet Dienste von einem Rechner an, der nur an das interne Netz direkt angeschlossen ist, wobei ein getrennter Router verwendet wird. Der Bastion-Host befindet sich im inneren Netz. Auf diesem Router verhindern Paketfilter das Umgehen des Bastion-Host. Die Paketfilterung auf dem Sicherheitsrouter muß so konfiguriert werden, daß der Bastion-Host das einzige System im internen Netz darstellt, zu dem Rechner aus dem Internet Verbindungen aufbauen können (das einzige "nach außen sichtbare" System). Zusätzlich sind nur gewisse Dienste zugelassen. Firewall-Rechner 91

97 Alle externen Systeme, die auf interne Systeme zugreifen wollen, und auch alle internen Systeme, die externe Dienste wahrnehmen wollen, müssen sich mit diesem Rechner verbinden. Daraus ergibt sich ein besonderes Schutzbedürfnis für diesen Bastion-Host. Der Vorteil bei dieser Konstruktion ist die Tatsache, daß ein Router leichter zu verteidigen ist. Dies liegt u. a. daran, daß auf ihm keine Dienste angeboten werden. Nachteilig wirkt sich aus, daß bei einer eventuellen Erstürmung des Bastion-Host das interne Netz vollkommen schutzlos ist. Architektur mit überwachtem Teilnetz Die "screened subnet architecture" erweitert die Architektur mit überwachtem Host um eine Art Pufferzone, die als Grenznetz das interne Netz vom Internet isoliert. Diese Isolierzone wird auch "Demilitarisierte Zone" (DMZ) genannt. Architektur mit Dualhomed-Host 92

98 Bastion-Hosts sind von ihrer Art her die gefährdetsten Rechner in einer Firewallkonstruktion. Auch wenn sie in der Regel mit allen Mitteln geschützt sind, werden sie doch am häufigsten angegriffen. Die Ursache liegt darin, daß ein Bastion-Host als einziges System Kontakt zur Außenwelt unterhält. Zur Software-Konfiguration einer Firewall existieren zwei Grundstrategien: 'Es ist alles erlaubt, was nicht verboten ist' Dieser Ansatz schließt die Nutzung bestimmter Dienste (z. B. tftp, nfs) generell aus. Er ist benutzerfreundlich, da neue Dienste automatisch erlaubt sind, aber auch gefährlich, da der Administrator das Verhalten der Nutzer ständig beobachten und rechtzeitig Gegenmaßnahmen treffen muß. 'Es ist alles verboten, was nicht erlaubt ist' Diese Strategie könnte von den Nutzern als hinderlich angesehen werden, da diese neue Dienste erst umständlich beantragen müssen. Sie schützt aber auch vor Sicherheitslücken im Betriebssystem und in Anwendungsprogrammen, da sie den Zugriff auf unbekannte Ports unterbindet. Es gibt drei Arten von Firewall-Softwaresystemen: Grundlagen Computernetze Paketfilter überprüfen die Quell- und Zieladresse (IP-Adresse und TCP/UDP-Port) eines Pakets und entscheiden, ob es passieren darf oder nicht. Der Vorteil besteht in der Transparenz für den Anwender. Diese Transparenz ist aber zugleich von Nachteil: Paketfilter können nicht zwischen Nutzern und deren Rechten unterscheiden. Paketfilter sind im allgemeinen auf Routern angesiedelt und werden heute von den meisten Herstellern mitgeliefert. Intelligente Paketfilter analysieren zusätzlich den Inhalt der Pakete und erkennen auch die Zulässigkeit von Verbindungen, die einfache Paketfilter nicht erlauben würden (z. B. Datenverbindung bei ftp). Circuit Level Gateways sind mit Paketfiltern vergleichbar, arbeiten jedoch auf einer anderen Ebene des Protokollstacks. Verbindungen durch solch ein Gateway erscheinen einer entfernten Maschine, als bestünden sie mit dem Firewall-Host. Somit lassen sich Infomationen über geschützte Netzwerke verbergen. Application Gateways, auch 'Proxy' (Stellvertreter) genannt, stellen ein anderes Firewall-Konzept dar. Hierbei wird auf dem Firewall-Host für jede zulässige Anwendung ein eigenes Gateway-Programm installiert. Der Client muß sich dabei oftmals gegenüber dem Proxy-Programm authentifizieren. Dieser Proxy führt dann alle Aktionen im LAN stellvertretend für den Client aus. Damit lassen sich zum einen benutzerspezifische Zugangsprofile (welche Zeiten, welche Dienste, welche Rechner) erstellen, zum anderen kann man die Festlegung der zulässigen Verbindungen anwendungsbezogen vornehmen. Die daraus resultierenden separaten kleinen Regelsätze bleiben besser überschaubar als der komplexe Regelsatz eines Paketfilters. Application Gateways sind typische Vertreter der 'Verboten-was-nicht-erlaubt'-Strategie und als die sicherste, aber auch aufwendigste Lösung einzuschätzen. Da beim Proxy alle Zugriffe nach außen über eine Instanz laufen, kann man den Proxy gleichzeitig als Cache (Pufferspeicher) benutzen. Der Proxy speichert alle erhaltenen WWW-Seiten zwischen, so daß er bei einem erneuten Zugriff darauf - egal, ob vom selben oder einem anderen Anwender - keine Verbindung nach außen aufbauen muß. Der Einsatz von Firewalls bietet sich auch innerhalb einer Organisation an, um Bereiche unterschiedlicher Sensitivität von einander abzugrenzen. Firewalls bieten jedoch niemals hundertprozentige Sicherheit! Sie schützen nicht vor dem Fehlverhalten eines authorisierten Anwenders und können, etwa durch eine zusätzliche Modem-Verbindung, umgangen werden. Mehr zu diesem Thema finden Sie im Firewall-Kapitel des Sicherheits-Skripts. Architektur mit Dualhomed-Host 93

99 VLAN - virtuelle lokale Netzwerke Was ist ein VLAN? Die Abkürzung VLAN steht für "virtuelles LAN", also eine Netzstruktur mit allen Eigenschaften eines gewöhnlichen LAN, jedoch ohne räumliche Bindung. Während die Stationen eines LAN nicht beliebig weit auseinander liegen können, ermöglicht es ein VLAN hingegen, weiter entfernte Knoten zu einem virtuellen lokalen Netzwerk zu verbinden. VLANs sind geswitchte Netze, die logisch segmentiert werden können. Ohne Beschränkung durch die räumliche Position ist möglich, Server und Workstations nach ihrer Funktion zu dynamischen Arbeitsgruppen zusammenzufassen. VLANs können transparent und ohne physikalische Veränderungen des Netzes eingerichtet werden. Eine Umgliederung ist ohne Umpatchen oder Verlegen von Rechnern möglich, im Idealfall kann sie über Software erfolgen. Ein VLAN ist weiters eine Broadcast- und Kollisionsdomäne, die sich auch über mehrere Switches erstrecken kann. Der Broadcastverkehr ist nur in dem VLAN sichtbar. Diese Möglichkeit, VLANs komplett voneinander zu isolieren, erhöht die Sicherheit. Der Verkehr zwischen VLANs muß geroutet werden, hier gibt es Lösungen, die die Geschwindigkeit von Switches erreichen. Innerhalb des VLAN ist hingegen kein Routing nötig. Beliebige Netzteilnehmer aus verschiedenen Segmenten können nach unterschiedlichen Kriterien (Switch-Port, MAC-Adresse, Protokoll der Netzwerkschicht, logische Netzwerkadresse, Applikation) zu einem virtuellen Netz vereint werden, ohne daß das Netz physikalisch umstrukturiert werden muß. Warum virtuelle Netze? Broadcasts werden nicht über das gesamte Netzsegment verbreitet Einfache Abbildung der Organisationsstruktur auf die Netzwerkstruktur Unterstützung dynamischer Workgroups Räumliche Entfernung der Mitarbeiter spielt keine Rolle bei der Aufgabenverteilung Jeder Mitarbeiter zieht etwa alle paar Jahre innerhalb des Unternehmens um, verbleibt aber in seiner logischen Arbeitsgruppe Server in zentralen Technikräumen werden entfernten Arbeitsgruppen zugeordnet Teilweise kein Routing mehr nötig Bisher wurden Netze mit Hilfe von Routern segmentiert. Router sind teuer, es entstehen viele Subnetze, die Router beanspruchen viel Rechenzeit und der IP-Adressraum wird schnell zu klein. VLANs vereinigen die Vorteile von Bridges und Routern: Eine Station kann leicht hinzugefügt, entfernt oder geändert werden und das Netz kann strukturiert werden. Es können beispielsweise virtuelle Benutzergruppen gebildet werden und es ist nicht mehr erforderlich, Benutzer nur deshalb verschiedenen Subnetzen zuzuordnen, weil ihre räumliche Entfernung zu groß ist. Server, die in zentralen Räumen untergebracht sind, können räumlich entfernten Workgroups zugeordnet werden. VLANs können helfen, Geld zu sparen, denn Switches sind billiger als Router und leichter zu administrieren. Gerade das Ändern von Subnetzadressen, das mit VLANs vermieden wird, ist in großen Netzen sehr aufwändig und damit teuer. Der Broadcast-Traffic wird nicht auf alle Ports übertragen, sondern bleibt im entsprechenden VLAN. Broadcasts in fremden VLANs sind nicht sichtbar. Realisierung von VLANs Grundlagen Computernetze VLANs werden mittels Switches gebildet. Diese unterstützen an jedem Port die volle Bandbreite und transportieren die Daten schneller als Router. Netzteilnehmer können nach verschiedenen Kriterien zu virtuellen Netzen vereinigt werden, und eine Management-Software ermöglicht ggf. eine komfortable VLAN - virtuelle lokale Netzwerke 94

100 Verwaltung und Konfiguration der VLANs. Zur Inter-VLAN-Kommunikation muß Routing eingesetzt werden. Entweder ist ein Router über mehrere physische Ports als Teil mehrerer VLANs eingerichtet, oder es wird VLAN-Trunking eingesetzt. In diesem Fall muß der Router VLAN-Tags erkennen und verändern können. Abbilden von Ports auf VLANs Ausgangsbasis sind ein Switch oder mehrere miteinander verbundene Switches, bei denen die Ports unterschiedlichen VLANs zugeordnet werden. Die einfachste Form wäre ein Switch, bei dem die Hälfte der Ports dem VLAN A und die andere Hälfte dem VLAN B zugeordnet ist. Um den Geltungsbereich eines VLANs festzulegen, gibt es mehrere Strategien: 1. VLAN A belegt die Ports 1 bis k, VLAN B die Ports k+1 bis n. 2. Der Switch kann mit einer VLAN/Port-Zuordnung konfiguriert werden. 3. Der Switch kann mit einer VLAN/MAC-Adressen-Zuordnung konfiguriert werden. Er bestimmt dann dynamisch die VLAN/Port-Zuordnung aufgrund der MAC-Adresse. 4. Der Switch kann mit einer VLAN/IP-Präfix-Zuordnung konfiguriert werden. Er bestimmt dann dynamisch die VLAN/Port-Zuordnung aufgrund der Quell-IP-Adresse. 5. Der Switch kann mit einer VLAN/Protokoll-Zuordnung konfiguriert werden. Er bestimmt dann dynamisch die VLAN/Port-Zuordnung aufgrund des Protokolltyps. Bei den ersten beiden Punkten spricht man von "Port-basierenden VLANs", bei Punkt drei von "Level-2-VLANs" und den letzten Punkten von "Protokoll-basierenden VLANs". Port-basierende VLANs Die Ports eines Switches werden unterschiedlichen VLANs zugeordnet. An einem Port können immer nur Angehörige desselben VLANs angeschlossen sein. Die starre Zuordnung zwischen Port und VLAN vereinfacht die Fehlersuche. Soll eine Station zu mehreren VLANs gehören, so sind aber mehrere Netzwerk-Adapter nötig. Bei Broadcasts ist eine hohe Sicherheit gewährleistet. Die Flexibilität bei Umzügen ist nicht groß, denn ein Umzug einer Station muß durch den Administrator im VLAN-Manager nachgeführt werden. Im Gegensatz zu der Gruppierung nach MAC-Adressen oder IP-Adressen kann das Engerät nicht einfach den Umzug bekannt geben und das VLAN automatisch umgestaltet werden. Dieses Verfahren ist weit verbreitet, es ist durch IEEE 802.1Q standardisiert und wird von vielen Herstellern unterstützt. Level-2-VLANs Die Zugehörigkeit zu einem VLAN richtet sich nach der MAC-Adresse. Der Switch muß bei jedem empfangenen Datenpaket entscheiden, zu welchem VLAN es gehört. So können an einem Port auch Stationen verschiedener VLANs angeschlossen sein, aber es kann in diesem Fall auch zu Performance-Verlusten kommen. Der Umzug von Stationen ist leicht möglich, da die Zuordnung zum VLAN ja erhalten bleibt. Problematisch ist die Initialisierung, da die MAC-Adressen aller Endgeräte erfasst werden müssen. Gerade in großen Netzen, wo häufig VLANs eingerichtet werden müssen, ist dann aber die VLAN-Konfiguration der einzelnen Arbeitsplätze wieder sehr zeitaufwendig. Was ist ein VLAN? 95

101 Schema eines Netzwerkes aus zwei Layer-2 Switches und einem Router. Der Layer-2-Switch interpretiert wie eine Bridge nur die MAC-Adresse der Pakete. Es kann aber im Unterschied zu dieser parallel arbeiten und mehrere Pakete gleichzeitig weiterleiten, etwa von Port A nach C und von B nach D. Sobald jedoch mehrere Switches vernetzt sind, muß sichergestellt werden, daß die Adreßtabellen in allen Switches konsistent sind. Dazu müssen regelmäßig Informationen über das Netz übertragen werden. Genau dies ist aber das Hauptproblem der VLANs. Jeder Hersteller verwendet für diesen Informationsabgleich eigene Verfahren. Deshalb verstehen sich die Switches verschiedener Produzenten oft nicht. U. a. gibt es: den regelmäßigen Austausch der Adreßtabellen mit MAC-Adressen und VLAN-Nummer. Die Tabellen werden etwa einmal pro Minute ausgetauscht. das Frame Tagging, bei dem die VLAN-Nummer als Tag vor das MAC-Paket gesetzt. Die zulässige Paketlänge kann dabei überschritten werden. das Zeitmultiplexverfahren, bei dem der Backbone zwischen den Switches in Zeit-Slots aufgeteilt wird, die fest den einzelnen VLANs zugeordnet sind. Protokoll-basierende VLANs Layer-3-Switches bieten zusätzliche Möglichkeiten durch Basis-Routing-Funktionalität wie z.b. ARP. Der externe Router wird somit oft überflüssig. Diese Variante ist langsamer, da auch Layer-3-Informationen ausgewertet werden müssen. Die Zuordnung einzelner Datenpakete zu verschiedenen virtuellen LANs geschieht durch Auswertung der Subnetzadressen oder portbasiert. Innerhalb eines VLAN wird auf Layer 2 geswitcht. Bei der Verwendung nicht routingfähiger Protokolle treten Schwierigkeiten auf und dynamische Adresszuordnungsverfahren können nicht eingesetzt werden. Was ist ein VLAN? 96

102 Layer-3-Switches verwenden Routerfunktionen zur Definition virtueller Netze. Um effizient arbeiten zu können, wird innerhalb eines VLAN nur gebridged. Regelbasierende VLANs Hier werden logische Zuordnungen eingesetzt und die VLAN-Zugehörigkeit wird anhand des Ports, der MAC-Adresse, des Protokolls oder der Netzadresse bestimmt. Das System ist besonders flexibel, der Administrator kann selbst eine Balance zwischen Sicherheit, Verkehrsoptimierung und Kontrolle erreichen, aber dafür ist die Einrichtung aufwendig. Durch die Abarbeitung der einzelnen Regeln ergibt sich eine hohe Latenzzeit. Layer-2-Switches Grundlagen Computernetze Layer-2-Switches arbeiten unabhängig von darüber liegenden Protokollen auf der Data-Link-Layer und garantieren eine transparente Verbindung der Endgeräte. Während des Betriebs lernt ein Switch alle MAC-Adressen und ordnet sie in einer MAC-Tabelle den Anschlussports zu. In dieser Tabelle sucht der Switch nach der Zieladresse und dem zugeordneten Zielport. Die Adresstabellen der Switches müssen um die Adressen der VLANs ergänzt und immer am aktuellen Stand gehalten werden. Dafür stehen hauptsächlich folgende Verfahren zur Verfügung: Austausch der MAC-Adresstabellen Wie beim Routing tauschen auch die Switches Informationen aus um ihre Adresstabellen abzugleichen. Wird eine neue Station an das Netz angeschlossen, so erkennt der lokale Switch am Port, zu welchem VLAN die Station gehört und ergänzt seine Adresstabelle. Dann sendet er die MAC-Adresse und die Adresse des VLANs an die anderen Switches. Wenn alle Switches die neue Endstation kennen, können deren Daten übertragen werden. Time Division Multiplexing (TDM) Beim Zeitmultiplexverfahren wird der Backbone, der die Switches verbindet, in Zeitslots aufgeteilt und jedes VLAN erhält exklusiv einen oder mehrere Slots zur Datenübertragung. Die Switches müssen nur wissen, welcher Zeitslot welchem VLAN zugeordnet ist. Es entfällt zwar der Overhead durch den Austausch von Adresstabellen oder aufgrund von Tags, aber Bandbreite, die von einem VLAN nicht genutzt wird, steht nicht für andere VLANs zur Verfügung. Für den sinnvollen Einsatz dieses Verfahrens ist eine an das tatsächliche Netzverhalten angepasste Zuordnung der Zeitslots nötig. Frame Tagging Das Frame Tagging wird am häufigsten eingesetzt. Beim impliziten Tagging werden keine zusätzlichen Informationen in das Datenpaket eingefügt, sondern die Tagging-Information wird aus der vorhandenen Header-Information hergeleitet und vom Switch in Tabellen gespeichert. Dadurch werden vorhandene Standards nicht verletzt. Beim expliziten Tagging wird in den Ethernet-Frame ein Marker (Tag) eingesetzt (VLAN-ID), der angibt, zu welchem VLAN das Datenpaket gehört. Dadurch ist kein Austausch von Adresstabellen nötig. Der erste Switch, der ein bestimmtes Datenpaket erhält, analysiert es auf seine VLAN-Zugehörigkeit und fügt die Kennung des VLANs als Tag an. Das Paket wird am Backbone von Switch zu Switch weitergeleitet, der letzte Switch entfernt das Tag und übergibt das Paket der Endstation. Die Switches müssen sehr leistungsfähig sein, um möglichst mit Wirespeed die Paketinformationen auswerten und mit den Tabellen vergleichen zu können. Das Einfügen von zusätzlicher Information in das Paket ist problematisch, wenn die Datenpakete schon die maximal zulässige Länge erreicht haben. Durch das Hinzufügen eines weiteren Tags würden dann die Vorgaben des MAC-Protokolls verletzt, das Paket als fehlerhaft erkannt und vernichtet. Daher setzen die Hersteller spezifische Techniken zur Vermeidung dieses Problems ein (Kapselung - Encapsulation) - siehe unten. Was ist ein VLAN? 97

103 Layer-2-Systeme sind leichter zu konfigurieren als Ebene-3-VLANs, benötigen weniger Software und sind meist preisgünstiger und schneller. Außerdem sind sie protokollunabhängig und können auch nicht routbare Protokolle bedienen. Layer-3-Switches Grundlagen Computernetze Layer-3-Switches arbeiten auf der Netzwerkebene (Layer 3 des ISO/OSI-Modells). Sie integrieren Routing-Funktionalität in die VLANs und machen externe Router zur Verbindung der VLANs überflüssig. Daher werden sie auch als "Switched Router" bezeichnet. Layer-3-Switches können Ebene-3-Informationen auswerten und deshalb VLANs auch abhängig vom verwendeten Protokolltyp definieren. So kann man z.b. alle IP-Stationen oder alle Netware-Stationen ortsunabhängig zu einem VLAN zusammenfassen. In Schicht-3-VLANs werden eigentlich nicht Endgeräte, sondern Datenpakete den VLANs zugeordnet. Diese Zuordnung geschieht durch Auswerten der Subnetzadressen und es ist kein Informationsaustausch zwischen den Switches wie bei den Layer-2-Systemen nötig. Obwohl auch die Ebene-3-Informationen ausgewertet werden, muß die Routing-Funktionalität nur zwischen den VLANs eingesetzt werden. Layer-3-Switches müssen auch Routing-Protokolle beherrschen. Unbekannte Datenpakete werden innerhalb des VLANs an alle Stationen geschickt (Broadcast). Der Broadcast-Traffic kann aber durch Bildung von Subnetzen eingedämmt werden. Im Vergleich zu klassischen Routern erlauben Layer-3-Switches einen sehr schnellen Durchsatz auf Ebene 3, da die Zuweisung der Daten über spezielle Hardware erfolgt. "Wirespeed Switched Router" sind in der Lage, Pakete ohne Verzögerung, also mit Leitungsgeschwindigkeit, weiterzuleiten. Für den Umzug von Mitarbeitern ist keine manuelle Rekonfiguration des Netzwerks nötig, sondern der Switch lernt automatisch die neuen Verbindungen und baut daraus Routing- bzw. Switching-Tabellen auf. Layer-3-Systeme sind für komplexe Netzwerke besser geeignet, der Overhead zur Synchronisation fällt weg. Broadcast kann gezielter übertragen werden und es stehen Filtermöglichkeiten zur Sicherung der VLANs zur Verfügung. Dynamische VLAN-Bindung, Switch-Switch Sehen wir uns nun den Fall an, wenn ein Switch an einen anderen Switch angeschlossen ist: Auf der Verbindung zwischen den beiden Switches können Pakete entweder zu VLAN 1 oder VLAN 2 gehören. Das Schema zum Hinzufügen von zusatzlichen Informationen zu einem Paket ist vom IEEE standardisiert. Es handelt sich um die "VLAN-Marke", damit Switches Was ist ein VLAN? 98

104 wissen, für welches VLAN ein Paket bestimmt ist. Ein Endgerät wäre jedoch verwirrt, wenn es ein Paket mit einer VLAN-Marke erhalten würde. Folglich müssen die Switches wissen, an welche Ports Switches und an welche Ports Endgeräte angeschlossen sind. Ein Switch entfernt die VLAN-Marke vom Paket, bevor er es zu einem Nicht-Nachbarswitch-Port weiterleitet. Die VLAN-Marke ist eine 2-Byte-Zahl, die drei Bits für die Prioriät, zwölf Bits für eine VLAN-ID und ein Bit enthält, das anzeigt, ob die Adressen im kanonischen Format vorliegen. Durch den Ethernet-Typ wird angezeigt, daß eine VLAN-Marke vorhanden ist. Beispielsweise ist ein Ethernet-Paket folgendermaßen aufgebaut: Dasselbe Paket mit VLAN-Marke sieht dann folgendermaßen aus: Ein Paket im Format wird in ein Format mit einer VLAN-Marke umgesetzt, indem dieselben vier Bytes (81-00 für Ethertype und die 2-Byte-VLAN-Marke) wie im Ethernet-Paket hinzugefügt wurden. Die Längenangabe und weitere Felder werden analog nach hinten verschoben. Auf anderen LANs als ist es nicht möglich, das Ethernet-Format zu verwenden. In diesem Fall Was ist ein VLAN? 99

105 wird eine andere Kodierung verwendet, um die VLAN-Marke einzufügen. Ein Switch kann alle VLANs "lernen", die auf dem Port verügbar sind, der ihn mit einem anderen Switch verbindet. Er tut dies auf der Grundlage der VLAN-Marken in den Paketen, die auf diesem Port empfangen werden. Da die Endgeräte die VLAN-Marke nicht verstehen, muß der Switch so konfiguriert sein, daß er niemals ein Paket mit einer VLAN-Marke zu einem Port sendet, auf dem sich ein Endgerät befinden könnte. Einige Switch-Anbieter haben einen anbieterspezifischen Mechanismus zum Informationsaustausch darüber, welche VLANs auf dem Switch-zu-Switch-Port erreichbar sind. Auf diese Art lernt der Switch die VLANs über explizite Protokollnachrichten. Bisher existiert jedoch kein Standard dafür. Zum vorhergehenden Abschnitt Zum Inhaltsverzeichnis Zum nächsten Abschnitt Copyright FH München, FB 04, Prof. Jürgen Plate Letzte Aktualisierung: 07. Mär 2012 Grundlagen Computernetze Prof. Jürgen Plate Was ist ein VLAN? 100

106 TCP/IP Die Protokolle der TCP/IP-Familie wurden in den 70-er Jahren für den Datenaustausch in heterogenen Rechnernetzen (d. h. Rechner verschiedener Hersteller mit unterschiedlichen Betriebssystemen) entwickelt. TCP steht für 'Transmission Control Protocol' (Schicht 4) und IP für 'Internet Protocol' (Schicht 3). Die Protokollspezifikationen sind in sogenannten RFC-Dokumenten (RFC - Request for Comment) festgeschrieben und veröffentlicht. Aufgrund ihrer Durchsetzung stellen sie Quasi-Standards dar. Die Schichten 5-7 des OSI-Standards werden hier in einer Anwendungsschicht zusammengefaßt, da die Anwendungsprogramme alle direkt mit der Transportschicht kommunizieren. In Schicht 4 befindet sich außer TCP, welches gesicherten Datentransport (verbindungsorientiert, mit Flußkontrolle (d. h. Empfangsbestätigung, etc.) durch Windowing ermöglicht, auch UDP (User Datagram Protocol), in welchem verbindungsloser und ungesicherter Transport festgelegt ist. Beide Protokolle erlauben durch die Einführung von sogenannten Ports den Zugriff mehrerer Anwendungsprogramme gleichzeitig auf ein- und dieselbe Maschine. In Schicht 3 ist das verbindungslose Internet-Protokoll (IP) angesiedelt. Datenpakete werden auf den Weg geschickt, ohne daß auf eine Empfangsbestätigung gewartet werden muß. IP-Pakete dürfen unter bestimmten Bedingungen (TTL=0, siehe unten) sogar vernichtet werden. In Schicht 3 werden damit auch die IP-Adressen festgelegt. Hier findet auch das Routing, das heißt die Wegsteuerung eines Paketes von einem Netz ins andere statt. Ebenfalls in diese Ebene integriert sind die ARP-Protokolle (ARP - Address Resolution Protocol), die zur Auflösung (= Umwandlung) einer logischen IP-Adresse in eine physikalische (z. B. Ethernet-) Adresse dienen und dazu sogenannte Broadcasts (Datenpakete, durch die alle angeschloßenen Stationen angesprochen werden) verwenden. ICMP, ein Protokoll, welches den Austausch von Kontroll- und Fehlerpaketen im Netz ermöglicht, ist ebenfalls in dieser Schicht realisiert. Die Schichten 1 und 2 sind gegenüber Schicht 3 protokolltransparent. Sie können durch standardisierte Protokolle (z. B. Ethernet (CSMA/CD), FDDI, SLIP (Serial Line IP), PPP (Point-to-Point Protocol)) oder andere Übertragungsverfahren realisiert werden. TCP/IP 101

107 Zur TCP/IP-Familie gehören mehrere Dienstprogramme der höheren OSI-Schichten (5-7), z. B.: Telnet (RFC 854) Ein virtuelles Terminal-Protokoll, um vom eigenen Rechensystem einen interaktiven Zugang zu einem anderen System zu realisieren. FTP (RFC 959) Dieses (File-Transfer-) Protokoll ermöglicht, die Dateidienste eines Fremdsystems interaktiv zu benutzen sowie die Dateien zwischen den Systemen hin und her zu kopieren. NFS (RFC 1094) Das Network File System ermöglicht den Zugriff auf Dateien an einem entfernten System so, als wären sie auf dem eigenen. Man nennt dies auch einen transparenten Dateizugriff. NFS basiert auf den zur TCP/IP-Familie gehörenden UDP- (User- Datagramm-) Protokollen (ebenfalls Schicht 4), RFC 768. Im Unterschied zu TCP baut UDP keine gesicherten virtuellen Verbindungen zwischen kommunizierenden Hosts auf. Aufgrund dieser Eigenschaft ist es für den Einsatz in lokalen Netzen vorgesehen. NNTP (RFC 977) Das Network News Transfer Protocol spezifiziert Verteilung, Abfrage, Wiederauffinden und das Absetzen von News-Artikeln innerhalb eines Teils oder der gesamten Internet-Gemeinschaft. Die Artikel werden in regional zentralen Datenbasen gehalten. Einem Benutzer ist es möglich, aus dem gesamten Angebot nur einzelne Themen zu abonnieren. SMTP (RFC 821/822) Das Simpl -Transfer-Protokoll (RFC 821) ist ein auf der IP-Adressierung sowie auf der durch den RFC 822 festgelegten Namensstruktur basierendes Mail-Protokoll. DNS (RFC 920) Der Domain Name Service unterstützt die Zuordnung von Netz- und Host-Adressen zu Rechnernamen. Dieser Service ist z. B. erforderlich für die Anwendung von SMTP sowie in zunehmendem Maße auch für Telnet und FTP. Aus Sicherheitsgründen wendet sich der fremde Host an den DNS, um zu prüfen, ob der IP-Adresse des ihn rufenden Rechners auch ein (Domain-)Name zugeordnet werden kann. Falls nicht, wird der Verbindungsaufbau abgelehnt. Die TCP/IP-Protokolle Der große Vorteil der TCP/IP-Protokollfamilie ist die einfache Realisierung von Netzwerkverbunden. Einzelne Lokale Netze werden über Router oder Gateways verbunden. Einzelne Hosts können daher Die TCP/IP-Protokolle 102

108 über mehrere Teilnetze hinweg miteinander kommunizieren. IP als Protokoll der Ebene 3 ist die unterste Ebene, die darunter liegenden Netzebenen können sehr unterschiedlich sein: LANs (Ethernet, Token-Ring, usw.) WANs (X.25, usw.) Punkt-zu-Punkt-Verbindungen (SLIP, PPP) Internet-Protokolle OSI-Schicht Internet Protokoll Suite DOD Schicht 7 Anwendung File Transfer 6 Darstellung File Transfer Protocol 5 Sitzung (FTP) RFC Transport 3 Netzwerk Address Resolution Protocol (ARP) RFC 826 Electronic Mail Simple Mail Transfer Protocol (SMTP) RFC 821 Terminal Emulation Telnet Protocol (Telnet) RFC 854 Usenet News Usenet News Transfer Protocol (NNTP) RFC 977 Transmission Control Protocol (TCP) RFC 793 Internet Protocol (IP) RFC 791 World Wide Web Hypertext Transfer Protocol (HTTP) RFC 2616 Domain Name Service Domain Name Service (DNS) RFC 1034 User Datagram Protocol (UDP) RFC 768 Internet Control Messsage Protocol RFC Sicherung Ethernet Token Ring DQDB FDDI ATM 1 Physikalische Übertragung Art der Kommunikation Applikation Host to Host Kommunikation Internet lokales Netzwerk Twisted Pair Lichtwellenleiter Coaxkabel Funk Laser Netzzugriff Es ist offensichtlich, daß die Gateways neben dem Routing weitere nichttriviale Funktionen haben, wenn sie zwischen den unterschiedlichsten Teilnetzen vermitteln (z. B. unterschiedliche Protokolle auf Ebene 2, unterschiedliche Datenpaketgröße, usw.). Aus diesem Grund existieren in einem Internet drei unabhängige Namens- bzw. Adressierungsebenen: Physikalische Adressen (z. B. Ethernet-Adresse) Internet-Adressen (Internet-Nummer, IP-Adresse) Domain-Namen Die Ethernet-Adresse wurde bereits behandelt, auf die anderen beiden Ebenen wird in den folgenden Abschnitten eingegangen. Die Umsetzung der höchsten Ebene (Domain-Namen) in IP-Adressen erfolgt durch das oben erwähnte DNS, worauf die Dienstprogramme der Schichten 5-7 zurückgreifen. ARP Grundlagen Computernetze Die Umsetzung einer IP-Adresse in eine Hardware-Adresse erfolgt durch Tabellen und auf Hardware-Ebene (z. B. Ethernet) automatisch über ARP (Adress Resolution Protocol). Dazu ein Beispiel: Die Station A will Daten an eine Station B mit der Internetadresse I(B) senden, deren physikalische Adresse P(B) sie noch nicht kennt. Sie sendet einem ARP-Request an alle Stationen im Netz, der die eigene physikalische Adresse und die IP-Adresse von B enthält. ARP 103

109 Alle Stationen erhalten und überprüfen den ARP-Request und die angesprochene Station B antwortet, indem sie einen ARP-Reply mit ihrer eigenen physikalischen Adresse an die Station A sendet. Letztere speichert die Zuordnung in einer Tabelle (Address Resolution Cache). Auch für die Umkehrfunktion gibt es eine standardisierte Vorgehensweise, den RARP (Reverse ARP). Hier sendet die Station A unter Angabe ihrer physikalischen Adresse P(A) einen RARP-Request. Wenn im Netz nur eine Station als RARP-Server eingerichtet ist (eine Station, die alle Zuordnungen von P(x) <--> I(x) "kennt"), antwortet diese mit einem RARP-Reply an die anfragende Station, der I(A) enthält. Diese Funktion ist z. B. für sogenannte "Diskless Workstations" wichtig, die ihre gesamte Software von einem Server laden. ARP 104

110 ARP ist für den Benutzer unsichtbar, so dass das Vorhandensein dieses Protokolls meist nur bemerkt wird, wenn seltene Fehler auftreten. Die Dauer der Gültigkeit eines ARP-Eintrags (normalerweise wenige Minuten) kann ein Problem darstellen, wenn falsche Einträge vorhanden sind. Solange ein fehlerhafter Eintrag existiert, kann mit dem betreffenden Host nicht kommuniziert werden. Die Fehlfunktion wird häufig nicht dem ARP-Protokoll zugeschrieben, sondern dem Netz oder einem Fehler in der Netzwerkimplementierung. Darüber hinaus ermöglicht nicht jedes Betriebssystem das Erzeugen eines korrigierten Eintrags oder einer Anforderung. Mit ARP-Spoofing ist es möglich, absichtlich eine falsche Hardwareadresse in einem Netz zu verteilen. Dadurch kann der Datenverkehr für einen Rechner auf einen anderen umgelenkt und eventuell von diesem sogar verändert werden. Proxy ARP Grundlagen Computernetze Grundlagen Computernetze Prof. Jürgen Plate Proxy ARP 105

111 Höhere Protokolle In diesem Abschnitt werden beispielhaft einige höhere Protokolle für Internet-Dienste skizziert. Bemerkenswert ist, daß viele dieser Protokolle aus wenigen Anweisungen in lesbarem Klartext bestehen. Der Grund hierfür ist unter anderem, daß man diese Protokolle zum Testen einer Verbindung durch eine Telnet-Verbindung auf einem bestimmten Port (z. B. 80 für HTTP) von Hand nachvollziehen kann. Durch den Klartext ist auch die Fehlersuche bei einer Verbindung ohne großen Aufwand und ohne spezielle Tools möglich. Die vorgestellten Protokolle werden hier nicht bis ins Detail ausgebreitet, es soll Ihnen nur eine Vorstellung über die Arbeitsweise der Internet-Protokolle vermittelt werden. DHCP und RADIUS DHCP Um in einem IP-basierten Netzwerk Kontakt mit anderen Rechnern aufnehmen zu können, benötigt jeder Computer eine eigene, eindeutige IP-Nummer. Je größer das Netzwerk wird und je mehr verschiedene Rechnerplattformen darin vereint sind, desto höher ist der Aufwand für den Administrator: Wann immer ein neuer Rechner in das Netzwerk integriert wird, muß er zuerst konfiguriert werden. Ändert einer der zentralen Server seine Adresse oder wird er auf eine andere Maschine verlegt, müssen alle Netzwerk-Client umkonfiguriert werden. Einen zweiter Aspekt bringen sogenannte "nomadische" Systeme, z. B. Laptops, die irgendwo ins Netz eingebunden werden sollen. Dabei bieten sich verschiedene Zugangsmöglichkeiten für Rechner in das Intranet: Anschluß über einen Ethernet-Hub oder -Switch Zugang durch drahtlose Netze (und evtl. einen Router zum drahtlosen Subnetz) Zugang vom Internet über eine Firewall Modemzugang über einen Modemserver Günstig wäre es, wenn der Zugang eines Rechners zum Netz folgenden Anforderungen genügen würde: automatisiert, d. h. ohne manuellen Eingriff authentifiziert, d. h. nur zugelassene Systeme erhalten Zugriff vollständig (Netz-, System- und Anwendungskonfiguration) standardisiert, d. h. für alle Systeme in einheitlicher Form Eine Lösung für dieses Problem bietet DHCP (Dynamic Host Configuration Protocol). Dieser Dienst ermöglicht es, einem Client dynamisch eine IP-Nummer und andere Netzwerkparameter, wie den Netzwerknamen, die Gatewayadresse, etc., zuzuweisen, ohne daß der Administrator den Rechner überhaupt zu Gesicht bekommt. DHCP ist dabei völlig unabhängig von der eingesetzten Plattform. Das heißt, es kann sowohl Windows-Maschinen wie auch zum Beispiel Unix-Rechner mit den Netzwerkeinstellungen versorgen. Um ein Mindestmaß an Verfügbarkeitsanforderungen zu erfüllen, sollte natürlich mehr als nur ein DHCP-Server vorhanden sein, da sonst dessen Ausfall die Funktion sämtlicher Clienten beeinträchtigt. Das in RFC 2131 definierte Protokoll DHCP arbeitet nach dem Client-Server-Modell. Als Server wird ein Programm bezeichnet, das den Pool der zu vergebenden Nummern verwaltet und sich darum kümmert, daß eine Nummer nicht zweimal vergeben wird. Der Client ist ein Programm auf dem lokalen Rechner, das zunächst den Server selbsttätig im Netz suchen muß und ihn anschließend darum bittet, eine IP-Nummer zuzuteilen. Die Grundfunktion des Servers ist recht einfach aufgebaut: über eine Konfigurationsdatei teilt der Administrator ihm mit, welche Adreßbereiche er für die Weitergabe Höhere Protokolle 106

112 an Client zur Verfügung hat. Fragt ein Client nach einer IP-Adresse, dann muß der Server zunächst nachsehen, ob noch eine Adresse frei ist. Diese freie IP-Nummer liefert er an den Client aus. Gleichzeitig muß er eine Datei (Leases-File) führen, in der er protokolliert, welche Adresse bereits an wen vergeben ist. Bei der Adreßvergabe sind drei verschiedene Modi einstellbar: Automatic Allocation: Fordert ein Client eine IP-Nummer an, wird sie ihm auf unbegrenzte Zeit zugeteilt, solange noch Adressen zur Verfügung stehen. Sind alle Adressen verbraucht, kann kein neuer Client mehr konfiguriert werden, auch wenn ein Teil der zuvor bedienten Rechner im Moment gar nicht eingeschaltet ist. Manual Allocation: In dieser Betriebsart geht es nur darum, Verwaltungsaufwand zu minimieren. In der Konfigurationsdatei ist für jeden Client im Netzwerk eine IP-Nummer fest zugeordnet. Der Server ist lediglich für die Auslieferung der Adresse an den Client verantwortlich. Dynamic Allocation: Jeder Client bekommt auf Anfrage eine IP-Nummer, solange im definierten Pool noch Einträge frei sind. Der Unterschied gegenüber der Automatic Allocation besteht darin, daß die IP-Nummer nur für eine bestimmte, maximale Zeitspanne (Lease-Time) gültig ist und vom Client innerhalb dieser Zeit zurückgegeben werden kann, wenn sie nicht mehr benötigt wird. Als einzige der drei Betriebsarten erlaubt Dynamic Allocation, kleine IP-Nummern-Pools mit einer großen Anzahl von Rechnern zu teilen. Einzige Voraussetzung: nicht alle Maschinen dürfen gleichzeitg laufen. Damit lassen sich auch Computer, die eher selten ins Netzwerk integriert werden, wie Laptops, zuverlässig mit einer IP-Nummer versorgen. Wird der Rechner vom Netz getrennt, kann die Adresse für eine andere Station verwendet werden. In dieser Betriebsart werden die meisten DHCP-Server betrieben. DHCP ist eine Erweiterung des BOOTP-Protokolls und konkurriert in seiner Basisfunktionalität mit RARP. Gegenüber BOOTP zeichnet es sich vor allem durch die Flexibilität bezüglich der abfragbaren Konfigurationsparameter und durch das Konzept der Lease aus, d. h. die Möglichkeit eine Information dem Client gegenüber als nur begrenzt gültig zu markieren. Damit wird die Flexibilität bei Veränderungen der Netztopologie und weiterer Konfigurationsparameter gewahrt. Ferner ist die Unterstützung von großen Netzen, in denen nichts stets alle Systeme zugleich aktiv sind, mit limitierten Pools von Adressen möglich. Durch die Rückwärtskompatibilität zum PDU-Format von BOOTP ist die Verwendung existierender BOOTP-Relay-Agents in Subnetzen ohne DHCP-Server gewahrt. Beim Start des Systems schickt der Client ein DHCPDISCOVER-Paket in Form eines Broadcasts an (Phase 1). Anhand der Identifikation des Client im Paket können sich einige (oder ein einzelner) DHCP-Server entscheiden, dem Client die gewünschte IP-Adresse sowie andere Konfigurationsinformation in Form eines DHCPOFFER-Pakets zuzuteilen. (Vor der Vergabe können und sollten die Server die Konfliktfreiheit bzgl. der Adresse mittels ICMP-Ping oder ARP prüfen.) Der Client kann sich in Phase 2 aus den Antworten eine für ihn geeignete aussuchen und bestätigt dies gegenüber dem Server durch ein DHCPREQUEST-Paket (Phase 3). Entscheidungsparameter können z.b. die Leasedauer (t l ) oder die Menge der angebotenen Konfigurationsinformation. Bei korrekter Information im DHCPREQUEST bestätigt der Server die Lease durch ein DHCPACK-Paket, womit die Konfiguration abgeschlossen ist Bevor die IP-Adresse verwendet wird, sollte der Client ihre Einzigartigkeit durch ein Gratuitious ARP prüfen. Sollte der Client die angebotene Adresse ablehnen wollen, teilt er dies durch DHCPDECLINE-Paket dem Server und beginnt nach einer kurzen Wartefrist erneut mit Phase 1. Sobald der Client die Bestätigung durch DHCPACK erhalten hat, ist er für die Überwachung der Lease-Dauer selbst verantwortlich. Insbesondere kennt das Protokoll auch keine Methode, einem Client die Lease zu entziehen. Vor Ablauf der Lease-Dauer (meist nach der Hälfte der Zeit = 0,5 * t l ) sollte der Client durch einen erneuten Durchgang durch Phase 3 versuchen, die Lease vom selben DHCP-Server verlängert zu bekommen. Gelingt ihm das nicht, kann er vor endgültigem Ablauf der Lease-Dauer (meist nach ca. 0,8 * t l ) die Phase 1 nochmals durchlaufen, um eine Verlängerung bzw. Neuausstellung der Lease (eventuell von einem anderen Server) zu erhalten. Die vorzeitige Aufgabe einer Lease sollte der Client dem Server durch ein DHCPRELEASE mitteilen, DHCP 107

113 um den Pool freier Adressen möglichst groß und den Vergabestand im Server möglichst akkurat zu halten. Alle Zustandsübergänge im Client sind in folgender Abbildung zusammengefaßt. Die Komplexität hat in der Vergangenheit zu einigen Fehlimplementierungen mancher Client-Software geführt, die jedoch aufgrund der großen "Toleranz" im Protokoll meist keine kritischen Auswirkungen hatten. Der Vorgang "Lease erneuen" kann beliebig oft wiederholt werden, solange der Client die Adresse noch braucht und der Server nichts dagegen hat. Unter Umständen verweigert der DHCP-Server die Erneuerung. Falls die gewünschte Adresse für den DHCP-Server inakzeptabel ist, schickt er dem Client ein ablehnendes DHCPNAK. Der Client beginnt dann von Neuem. Was passiert, wenn der Client den DHCP-Server nicht mehr erreichen kann, der ihm seine IP-Adresse zugeteilt hat? Bevor sein Lease verfällt, soll der Client den DHCPREQUEST nicht mehr direkt an den DHCP-Server schicken, sondern es broadcasten. Somit hören alle DHCP-Server wieder mit. Wenn Failover richtig funktioniert, wird der Backup-Server jetzt das Lease erneuen. Kommt hingegen keine Antwort oder nur ein DHCPNAK, muß der Client wieder von vorne beginnen, und ein DHCPDISCOVER broadcasten usw. Das ist insofern schlecht, als er nun höchstwahrscheinlich eine ganz andere IP-Adresse bekommt. Bestehende Verbindungen, die noch die alte IP-Adresse verwenden, müssen abgebaut werden. Es darf natürlich nicht jeder beliebige Rechner Zugang zum LAN erhalten. Deshalb kann der DHCP-Server auch eingeschränkt werden - bis hin zu einer Liste von "erlaubten" MAC-Adressen. Man kann auch eine gemischte Versorgung der Rechner im Netz vorsehen, teils mit festen IP-Adresse (z. B. Server mit "Außenwirkung"), teils mit dynamisch zugewiesenen Adressen. Remote-Zugang mit RADIUS Der Zugang zum Netz über Wählleitungen (analoges Telefon, ISDN, xdsl) erfolgt normalerweise über einen oder mehrere Remote Access Server (RAS), in Einzelfällen auch über einen Rechner mit angeschlossenem Modem, ISDN-Karte oder xdsl-anschluß. Deren Aufgabe ist es, ankommende digitale oder analoge Anrufe entgegenzunehmen, eine Benutzerauthorisierung durchzuführen und, falls diese erfolgreich war, die Verbindung des anrufenden Rechners mit dem internen Datennetz freizugeben. Der ferne Rechner verhält sich dann so, als ob er direkt am Datennetz angeschlossen Remote-Zugang mit RADIUS 108

114 wäre. Als Übertragungsprotokoll wird in der Regel PPP (Point to Point Protokoll, erlaubt IP- und IPX-Verbindungen), SLIP (Serial Line Internet Protokoll, veraltet, nur für IP-Verbindungen) und ggf. ARAv2 (Apple Remote Access Version 2) angeboten. Ein spezieller Terminalserver-Modus gestattet es, sich mit einem normalen Terminalprogramm (z.b. Hyperterminal, Kermit, usw.) auf dem Access-Server anzumelden und von dort aus Telnetverbindungen aufzubauen. IP-Adressen werden normalerweise aus einem IP-Adresspool vergeben. Oft werden auch "virtuelle Verbindungen" unterstützt. Diese erlauben den physikalischen Abbau von Verbindungen, wenn gerade keine Daten übertragen werden, ohne daß die logische Verbindung verloren geht. Die Verbindung wird automatisch mit den gleichen Parametern wie vorher wieder aufgebaut, wenn Daten wieder übertragen werden müssen. Für die standardisierte Authentifizierung am Modem- und Internetzugang setzt sich zunehmend das RADIUS-Protokoll (Remote Authentication and Dial-In User Service) durch. Seine Client-Proxy-Server-Architektur erlaubt die flexible Positionierung an Netzzugangspunkten und wird von fast allen Herstellern von Modemservern unterstützt. In Kombination mit DHCP und PPP ist die Aufgabe der Konfiguration der anwählenden Endsysteme in automatisierter Weise gelöst. Der Radius-Server ist ein zentraler Authentifizierungs-Server, an den sich alle RA-Server wenden. Auf diese Weise lassen sich unabhängig von der Netz-Infrastruktur alle Remote-User zentral verwalten und Benutzerprofile mit Zugangsrestriktionen definieren, aber auch zusätzliche Sicherheitsverfahren vorsehen. Beispielsweise kann festgelegt werden, dass der Nutzer nur nach einem Rückruf durch den Einwahlknoten an eine zuvor vereinbarte Rufnummer Zugriff auf das Unternehmensnetzwerk bekommen darf. Diese Informationen übergibt der Radius-Server an den RA-Server, der das weitere Login entsprechend koordiniert. Der Vorteil dieses Verfahrens liegt in den einmalig generierten Zugangsdaten der Nutzer, die auch in verteilten Netzwerken jederzeit aktuell verfügbar sind und mit einfachen administrativen Eingriffen an zentraler Stelle definiert und verändert werden können. Darüber hinaus ist die innerbetriebliche Abrechnung der Nutzung des Systems durch ein entsprechendes Accounting möglich. Das Radius-Protokoll setzt auf UDP auf. Die Struktur eines Radius-Pakets ist ausgesprochen einfach. Es besteht aus fünf grundlegenden Elementen: einem Radius-Code, einem Identifier, einer Angabe zur Paketlänge, einem Authenticator und gegebenenfalls aus einer Reihe von Attributen. Der Radius-Code beschreibt die Aufgabe des Datenpakets. Aufbau des Radius-Pakets Die Codes 1, 2 und 3 verwalten den reinen Access vom Request bis zur Bestätigung oder Abweisung. Die Codes 4 und 5 dienen dem Accounting. Der Identifier ist acht Bit lang und dient der Zuordnung von Anfragen und Antworten. Das sicherheitstechnisch wichtigste Feld eines Radius-Rahmens ist der Authenticator, der eine Länge von 16 Oktetts beziehungsweise vier 32-Bit-Worten hat. Dabei wird zwischen dem Request Authenticator und dem Response Authenticator unterschieden. Inhalt des Request Authenticators ist eine Zufallszahl, die das gesamte Feld ausfüllt. Die Länge dieser Zufallszahl gewährleistet mit einer sehr hohen Wahrscheinlichkeit die Einmaligkeit dieses Wertes. Remote-Zugang mit RADIUS 109

115 Damit bietet das System einen gewissen Schutz vor Hackerattacken. Mit dem Versand des Request Authenticators werden die Zugangsdaten des Nutzers, der sich im gesicherten Netzwerk anmelden möchte, als Attribute übergeben. Der Radius-Server wird diese Anfrage entweder mit einer Access-Accept-, Access-Reject- oder Access-Challenge-Nachricht beantworten, die ihrerseits mit einem 16 Oktett langen Response Authenticator versehen ist. Dieser ist ein MD5-Hash-Fingerprint setzt sich zusammen aus dem empfangenen Radius-Paket einschließlich der Attribute sowie den geheimen Zugangsdaten, die auf dem Server abgelegt sind, zusammensetzt. Die Attribute eines Radius-Pakets beinhalten alle wichtigen Informationen, die zwischen dem RAS und dem Radius-Server ausgetauscht werden müssen. Attribute sind sehr einfach aufgebaut Attribute werden in einer Liste mit variabler Länge im Anschluss an den Authenticator übertragen. In den Attributen können natürlich Nutzernamen und Passwörter, aber auch IP-Adresse, Service-Typen, Status-Meldungen, Filter-IDs und - wichtig beim CHAP - ein entsprechender Challenge-Wert übergeben werden. Attribute werden in Datensätzen variabler Länge übertragen, die jeweils aus drei Feldern bestehen. Das erste aus acht Bit bestehende Feld benennt die Art des Attributes. Da nicht nur die Liste aller Attribute, sondern auch jeder einzelne Datensatz selbst in der Länge variabel ist, gibt das zweite Oktett die Länge des Attributes an. Erst ab dem dritten Oktett werden die eigentlichen Informationen übertragen. Im einfachsten Fall wird ein Radius-Request mit einer Legitimierung des Nutzers oder dessen Abweisung beantwortet. Dazu folgt auf dem Access-Request eine Access-Accept- oder eine Access-Reject-Nachricht vom Radius-Server. Die Art der Antwort wird mit dem Radius-Code angezeigt. Das Verfahren harmonisiert mit PAP und CHAP. SMTP - Simple Mail Transfer Protocol Der urspüngliche Standard für SMTP - niedergelegt im RFC stammt aus dem Jahr 1982 und gilt, abgesehen von einigen Erweiterungen, nach wie vor. Dieser RFC 821 legte ein Minimum an Schlüsselworten fest, die jede Implementation von SMTP (d. h. die Verkörperung von SMTP in einem Programm) beherrschen muß. Dies sind: Kommando Argument Beschreibung HELO Systemname Beginn, Name des sendenden Systems MAIL From: Absenderadresse Beginn der Übermittlung RCPT To: Empfängeradresse Adressat der DATA Brieftext, Ende durch eine Zeile mit "." HELP Topic Hilfestellung VRFY Mailadresse Mailadresse verifizieren EXPN Mailadresse Mailadresse expandieren (z. B. Liste) RSET Senden abbrechen, Zurücksetzen NOOP nichts tun QUIT Verbindung beenden Die Verbindung eines MTA zu einem anderen läßt sich nachstellen: Remote-Zugang mit RADIUS 110

116 telnet lx-lbs.e-technik.fh-muenchen.de smtp Trying Connected to lx-lbs.e-technik.fh-muenchen.de. Escape character is '^]'. 220 lx-lbs.e-technik.fh-muenchen.de Smail #1 ready at Sun, 25 Feb 96 23:15 MET helo 250 lx-lbs.e-technik.fh-muenchen.de Hello mail from: 250 Sender Okay rcpt to: 250 Recipient Okay data 354 Enter mail, end with "." on a line by itself Hallo Holm, zu Deiner Frage bezeglich der Reinigung von Morgensternen wollte ich Dir nur den Tip geben, dazu reine Kernseife zu verwenden. Damit ist die Drecksarbeit im Handumdrehen erledigt. Beste Gruesse, Paulsen. 250 Mail accepted quit 221 lx-lbs.e-technik.fh-muenchen.de closing connection Connection closed by foreign host. Beim Verbindungsaufbau meldet sich der lokale MTA mit einer "Begrüßungszeile". Der lokale empfangende MTA wird mit "HELO" angesprochen und als sendender MTA der des Systems angegeben. Der lokale MTA antwortet mit einem Zahlencode, der dem Sender-MTA signalisiert, daß seine geforderte Aktion in Ordnung geht. Die Klarschrift nach dem Zahlencode dient nur der besseren Lesbarkeit für den Menschen (z. B. für den, der Fehler suchen muß). Auf "MAIL FROM:" folgt die Adresse des Absenders, und auf "RCPT TO:" die des Empfängers. Auf das Schlüsselwort "DATA" folgt schließlich der ganze Brief, also sowohl die Kopfzeilen, als auch der Text. Der Empfänger-MTA wird solange Text erwarten, bis ihm der Sender-MTA über eine Zeile, die nur einen Punkt enthält, signalisiert, daß der Brief zu Ende ist. Nach der letzten Bestätigung des Empfänger-MTAs könnte der Sender den nächsten Brief übermitteln, wiederum beginnend mit "MAIL FROM:". Nach dem Empfang des Briefes kopiert der lokale MTA den Brief in die Postfach-Datei des Empfängers. Der RFC 821 legte noch einige weitere Schlüsselworte fest, z. B. "EXPN" für expand, welches eine Unterstützung von Mailing-Listen erlaubt, oder "VRFY" für verify, mittels dessen eine Bestätigung der Empfänger-Adresse gefordert werden kann. Eine ganze Reihe von RFCs haben den Standard für SMTP erweitert. Die erweiterte Version heißt nun offiziell ESMTP (für Extended SMTP). Hinzugekommen sind beispielsweise Schlüsselworte für die Unterstützung von 8bit-Briefen (z. B. solche mit Umlauten), und die Möglichkeit eine maximale Größe für Briefe, die empfangen werden, festzulegen. Auf Arbeitsplatzrechnern, die normalerweise nicht ständig eingeschaltet sind, erfordert spezielle Betriebsweisen. Falls der Rechner in ein lokales Netz integriert ist, bietet sich eine Lösung über den Netzwerkserver oder einen speziellen Mail-Server an. Es gibt auch die Möglichkeit, direkt vom PC-Kompatiblen oder Macintosh auf eine Unix-Mailbox zuzugreifen. Voraussetzung dafür ist, daß der Arbeitsplatzrechner direkt mit TCP/IP am Ethernet angeschlossen ist oder über eine Modem-Verbindung per PPP-Protokoll angebunden ist. Die Mailer sind lokale Programme am PC oder Mac. Der Vorteil ist, daß man in der PC-Umgebung bleibt, und Dateien direkt aus dem PC-Directory-System versandt werden können. Die Mailbox des Benutzers liegt dabei selbst auf einem Mail-Server (Postfach). Der Zugriff vom PC auf das Mailsystem des Servers wird über den Client/Server-Mechanismus realisiert. Protokolle, die dieses erlaubt, sind POP ('Post Office Protocol') und IMAP ('Internet Message Access Protocol'). SMTP - Simple Mail Transfer Protocol 111

117 POP Grundlagen Computernetze POP, genauer POP 3, ist die bisher noch gebräuchlichste Methode, um s von einem Provider zu empfangen, wenn der eigene Rechner nicht ständig mit dem Internet verbunden ist. Das Prinzip und der Funktionsumfang von POP sind einfach: Die für den Empfänger bestimmten s landen beim Provider im Spool-Verzeichnis und müssen dort vom Empfänger abgeholt werden. Der Provider stellt einen POP-Server zur Verfügung, welcher die Schnittstelle des POP-Clients auf dem Empfänger-Rechner darstellt. Der lokale POP-Client kommuniziert mit dem POP-Server beim Provider. Über ihn werden die vorhandenen s angeboten. Eine Kommunikation zwischen dem POP-Client und dem POP-Server beim Provider kann schematisch beispielsweise so aussehen : Client: Hast Du neue s für mich? Server: Ja, insgesamt fünf Stück! Client: Liste mir die Absender auf! Server: Meier, Mueller, Huber, Schulze Client: Zeige die s an! Server: ((Zeigt s an)) Client: ((Speichert s ab)) Client: Lösche alle angezeigten s Server: ((Löscht alle angezeigten s)) Wenn ein Client über POP3 Nachrichten abrufen möchte, baut er eine TCP-Verbindung über Port 110 auf. Ist die Verbindung zustande gekommen, sendet der Server eine Begrüßungsmeldung. Die weitere Kommunikation zwischen beiden Rechnern erfolgt über Kommandos, die aus drei oder vier Zeichen langen Wörtern (mit einem oder mehreren Argumenten mit bis zu je 40 Zeichen) bestehen. Antworten enthalten einen Status-Indikator und ein Statuswort sowie optionale Informationen. Es gibt zwei Status-Indikatoren: Positiv: +OK Negativ: -ERR Eine POP3-Verbindung durchläuft mehrere Stufen. Nach der Server-Begrüßung beginnt der "Authorization State". Der Client muß sich gegenüber dem Server identifizieren. Nach erfolgreicher Authorisierung beginnt der "Transaction State". Es werden alle Operationen zum Bearbeiten von Mails ausgeführt. Sendet der Client das Kommando QUIT, beginnt der "Update State". Der Server beendet die TCP-Verbindung und führt die vom Client im "Transaction State" angeforderten Änderungen durch. Viele POP3-Server haben zusätzlich einen Inaktivitäts-Timer. Laut Spezifikation muß dieser auf mindestens zehn Minuten eingestellt sein. Jedes Kommando des Clients setzt den Timer zurück. Ist der Timer abgelaufen, wird die TCP-Verbindung beendet, ohne in den "Update State" zu wechseln - eventuelle Änderungen werden auf dem Server nicht gespeichert. Nachdem der POP3-Client eine Verbindung zum Server aufgebaut hat, sendet dieser eine einzeilige Begrüßungsmeldung beliebigeninhalts, z. B.: Server: +OK POPEL-3 server ready Dabei handelt es sich bereits um eine Antwort des Servers, daher beginnt die Meldung immer mit einer positiven Bestätigung (+OK). Die Verbindung befindet sich nun im Zustand "Authorization". POP 112

118 Der Client muß sich jetzt gegenüber dem Server identifizieren. Dies erfolgt über die beiden Kommandos USER und PASS. Kommandos im "Authorization State" Kommando Argument Beschreibung USER Name Das Argument identifiziert eine Mailbox. PASS String Der String enthält ein Mailbox-spezifisches Passwort. QUIT - Beendet die Verbindung. Die Kombination aus den Kommandos USER und PASS ist am gebräuchlichsten. Dabei werden die jeweiligen Parameter im Klartext an den Server gesendet. Ein Beispiel: Der Username für das Postfach soll "plate", das Passwort "XYZ1230" heißen. In diesem Fall wird folgender Authentifizierungsdialog ablaufen: Client: USER plate Server: +OK name is a valid mailbox Client: PASS YXZ1230 Server: +OK plates's maildrop has 9 messages (1600 octets) Bei falschen Angaben verweigert der Server den Zugang und gibt eine Fehlermeldung aus. Mögliche Dialoge bei falschem Usernamen: Client: USER plato Server: -ERR sorry, no mailbox for plato here Oder bei einem falschen Passwort: Client: USER plate Server: +OK name is a valid mailbox Client: PASS tralala Server: -ERR invalid password Grundlagen Computernetze Die Tatsache, daß alle Dialoge im Klartext über das Netz abgewickelt werden, birgt ein hohes Sicherheitsrisiko. Mit dem Kommando APOP sieht die aktuelle POP3-Definition eine wesentlich sicherere Option zur Authentifizierung vor. Diese beschreibt in einem Kommando den User und identifiziert ihn mit einer Einweg-Hash-Funktion. Hat sich der Client beim Server identifiziert, wechselt die Verbindung in den "Transaction State". Dem Client stehen nun eine Reihe von Kommandos zur Behandlung der Mails zur Verfügung: Kommandos im "Transaction State" Kommando Argument Beschreibung STAT - Liefert die Anzahl der gespeicherten Mails und die Größe der Mailbox zurück (in Byte). LIST Nummer Liefert die Nummer und Größe (in Bytes) aller Mails zurück. Wird als Argument eine Mail-Nummer angegeben, wird nur die Größe dieser Mail ausgegeben. RETR Nummer Gibt die Mail mit der als Argument übergebenen Nummer aus. DELE Nummer Löscht die Mail mit der übergebenen Nummer. NOOP - Bewirkt die Antwort "+OK". Dient zur Aufrechterhaltung der Verbindung, ohne daß ein Time-Out auftritt. RSET - Setzt die aktive Verbindung zurück. Noch nicht ausgeführte Änderungen werden verworfen. POP 113

119 QUIT - Beendet die Verbindung und führt alle gespeicherten Änderungen aus. Der Server führt das Kommando DELE nicht unmittelbar aus. Die entsprechenden s werden als gelöscht markiert und erst bei Beenden der Verbindung endgültig vom Server gelöscht. Hat man eine Nachricht zum Löschen gekennzeichnet, möchte dies jedoch rückgängig machen, führt man das Kommando RSET aus. Der Server verwirft alle noch nicht ausgeführten Operationen. Sendet der Client das QUIT-Kommando, wechselt die Verbindung in den "Update State". Der Server trennt die TCP-Verbindung und führt alle gespeicherten Änderungen aus. Neben den hier vorgestellten, für eine minimale Implementation ausreichenden Kommandos gibt es noch weitere, die von den meisten Clients und Servern unterstützt werden. Details hierzu finden Sie in RFC1725. Im folgenden Beispiel sehen Sie den Ablauf einer POP3-Verbindung. Der Client identifiziert sich gegenüber dem Server und ruft eine Liste der gespeicherten s ab. Danach werden die Nachrichten einzeln heruntergeladen, auf dem Server zum Löschen gekennzeichnet, und die Verbindung wird beendet. Server: +OK POP3 server ready Client: user plate Server: +OK Client: pass xyz1230 Server: +OK Client: LIST Server: +OK 3 messages (520 octets) Server: Server: Server: Server:. Client: RETR 1 Server: +OK 120 octets Server: <... sendet Nachricht 1> Server:. Client: DELE 1 Server: +OK message 1 deleted Client: RETR 2 Server: +OK 190 octets Server: <... sendet Nachricht 2> Server:. Client: DELE 2 Server: +OK message 2 deleted Client: RETR 4 Server: -ERR no such message Client: QUIT Server: +OK Grundlagen Computernetze IMAP: Internet Message Access Protocol IMAP (genauer: IMAP, Version 4) löst das POP-Verfahren zunehmend ab und wird zum neuen Standard. Der Unterschied liegt unter anderem in der Funktionalität des IMAP-Verfahrens. Das Prinzip ist dem POP-Verfahren jedoch sehr ähnlich. Die s werden wie beim POP-Verfahren beim Provider zwischengespeichert und können mit einem IMAP-Client auf den eigenen Rechner kopiert werden. IMAP bietet jedoch zusätzliche Funktionalitäten, die von POP noch nicht angeboten werden, z. B. kann der Mail-Body getrennt geladen werden, und auch die Attachments lassen sich getrennt abrufen. -Client und Server tauschen bei IMAP ihre Daten über den TCP-Port 143 aus. Im Gegensatz zu den Protokollen SMTP und POP muß der Client bei IMAP nicht nach jedem gesendeten Kommando auf die unmittelbare Antwort des Servers warten. Es können mehrere Befehle hintereinander versendet IMAP: Internet Message Access Protocol 114

120 werden, die jeweilige Rückmeldung vom Server kann später erfolgen. Dazu wird jedem Kommando seitens des Client eine Kennung vorangestellt, auch "Tag" genannt, zum Beispiel "X001" für den ersten Befehl und "X002" für den zweiten. Der Server kann dem Client auf mehrere Arten antworten: Mit einem Plus-Zeichen am Anfang der Zeile antwortet der Server, wenn er weitere Informationen zu dem vorangegangenen Kommando erwartet. Er signalisiert dem Client gleichzeitig seine Empfangsbereitschaft. Steht dagegen ein Sternchen am Anfang der Zeile, sendet der Server weitere Informationen an den Client zurück. Die Antwort eines Servers kennzeichnet den Erfolg oder Fehler eines Kommandos: OK (Kommando erfolgreich ausgeführt), NO (Fehler beim Ausführen) oder BAD (Protokoll-Fehler: Kommando unbekannt oder Syntax-Fehler). Die Antwort enthält denselben Tag wie das zugehörige Kommando, damit der Client erkennt, welcher Response welchem Befehl gilt. Wie bei POP durchläuft eine IMAP-Verbindung mehrere Sitzungsstufen: Non-Authenticated State: Unmittelbar nach dem Aufbau der Verbindung. Der User muß sich gegenüber dem Server identifizieren. Authenticated State: Der User hat sich erfolgreich identifiziert und muß nun eine Mailbox auswählen. Selected State: Eine Mailbox wurde ausgewählt. Mailbox und Mails lassen sich bearbeiten. Logout State: Die Verbindung wird beendet; der Server führt noch anstehende Tätigkeiten aus. Der "Non-Authenticated State" stellt mehrere Möglichkeiten zur Identifizierung des Anwenders zur Verfügung. Es gibt in diesem Zusatand folgende Kommandos: Kommandos im "Non-Authenticated State" Kommando Argument Beschreibung AUTHENTICATE Authentifizierungs-Mechanismus Das Kommando bestimmt den Authentifizierungs-Mechanismus, zum Beispiel "Kerberos" oder "S/Key". Details zu den Authentifizierungs-Mechanismen finden Sie in RFC1731. LOGIN Name/Passwort Identifiziert den Anwender über Benutzername und Passwort. Beispiel für eine Authentifizierung mit dem LOGIN-Kommando: Client: X001 LOGIN PLATE XYZ1230 Server: X001 OK LOGIN completed Im "Authenticated State" hat sich der User authentifiziert und muß nun eine Mailbox auswählen, welche in dieser Sitzung bearbeitet werden soll. Dazu stehen unter anderem folgende Kommandos zur Verfügung: Kommando Argument Grundlagen Computernetze Wichtige Kommandos im "Authenticated State" Beschreibung SELECT Mailbox-Name Wählt eine Mailbox zur weiteren Bearbeitung aus. Als erfolgreiche Antwort IMAP: Internet Message Access Protocol 115

121 sendet der Client Informationen zur gewählten Mailbox, wie beispielweise die Anzahl der gespeicherten Nachrichten. EXAMINE Mailbox-Name Identisch mit dem Kommando SELECT. Jedoch wird die Mailbox als "read-only" ausgewählt, es sind keine dauerhaften Änderungen möglich. CREATE Mailbox-Name Erstellt eine Mailbox mit dem als Argument übergebenen Namen. DELETE Mailbox-Name Löscht die als Argument übergebene Mailbox. RENAME Bestehender Mailbox-Name / Neuer Mailbox-Name Beispiel: Löschen einer Mailbox: Ändert den Namen einer Mailbox. Client: X324 DELETE TRALALA Server: X234 OK DELETE completed Im "Selected State" gibt es viele Kommandos zum Bearbeiten einer Mailbox: Wichtige Kommandos im "Selected State" Kommando Argument Beschreibung CLOSE - Entfernt alle zum Löschen gekennzeichneten Mails und setzt die Verbindung in den Authenticated State zurück. EXPUNGE - Entfernt alle zum Löschen gekennzeichneten Mails, die Verbindung bleibt im Selected State. SEARCH ein oder mehrere Suchkriterien Erlaubt die Suche nach bestimmten Nachrichten in der aktuellen Mailbox. Das Kommando unterstützt logische Verknüpfungen. FETCH Gewünschte Daten einer Nachricht Bewirkt das Senden von Daten einer Nachricht vom Server zum Client. Beispiel: Suchen einer Nachricht. Ergebnis sind die Nummern der entsprechenden Mails: Client: X246 SEARCH SINCE 1-NOV-2001 FROM "ADAM" Server: * SEARCH Server: X246 OK SEARCH completed Beendet der Client mit dem Kommando LOGOUT die Verbindung, wechselt der Server in den "Update State" und führt noch anstehende Arbeiten aus. Es gibt eine Reihe weiterer Befehle im "Authenticated State" und "Selected State", die in RFC2060 nachzulesen sind. Im abschließenden Beispiel sehen Sie den Ablauf einer IMAP4-Verbindung. Der Client identifiziert sich gegenüber dem Server, wählt eine Mailbox aus und lädt den Header einer Nachricht herunter. Server: * OK IMAP4 Service Ready IMAP: Internet Message Access Protocol 116

122 Client: X001 login plate XYZ1230 Server: X001 OK LOGIN completed Client: X002 select inbox Server: * 12 EXISTS Server: * FLAGS (\Answered \Flagged \Deleted \Seen \Draft) Server: * 2 RECENT Server: * OK [UNSEEN 11] Message 11 is first new message Server: * OK [UIDVALIDITY ] is first new message Server: X002 OK [READ-WRITE] SELECT completed Client: X003 fetch 9 rfc822.header Server: * 9 FETCH (RFC822.HEADER {346} Server: Date: mon, 11 Mar :23: (MET) Server: From: plate Server: Subject: Schulung Netzwerke am Donnerstag Server: To: Server: Message-Id: Server: Mime-Version: 1.0 Server: Content-Type: TEXT/PLAIN; CHARSET=iso Server: ) Server: X003 OK FETCH completed Client: X004 LOGOUT Server: * BYE IMAP4 server terminating connection Server: X004 OK LOGOUT completed Nachdem der Mail-Client über TCP eine Verbindung zum SMTP-Server aufgebaut hat, wartet er auf einen Begrüßungstext des Servers. Im nächsten Schritt identifiziert sich der Client mit dem Kommando LOGIN, als Argument übergibt er den Benutzernamen und das Passwort. Nach dem Auswählen der Mailbox sendet der Server einige Informationen, z. B. die Anzahl der ungelesenen Nachrichten. Mit dem Kommando FETCH fordert der Client den Header der Nachricht 9 an. LOGOUT beendet die Verbindung. Bei Inbetriebnahme eines POP- bzw. IMAP-Clients (Outlook, Pegasus Mail, Netscape) muß dieser zunächst konfiguriert werden. Wichtige Angaben sind: Domainname des POP- bzw. IMAP-Servers, d.h. Systems, auf dem die eigentliche Mailbox liegt. Benutzernummer auf diesem System Paßwort für diese Benutzernummer für den Versand: Angabe des SMTP-Mail-Relayhosts POP/IMAP dient nur zum Abholen der Post vom Mail-Server. Der Versand von vom PC oder Mac aus geschieht ganz normal mit SMTP (Simple Mail Transfer Protocol). FTP Ein weiterer zentraler Dienst in einem Intranet, der besonders dem Transport von Dateien auf andere Systeme dient, ist das File-Transfer-Protokoll. Die Besonderheit des Protokolls liegt in den getrennten Kanälen für die Daten und die Steuerung. Im RFC 959 ist für FTP TCP-Port 20 als Steuerungskanal und TCP-Port 21 als Datenkanal festgelegt. FTP verwendet als Transportprotokoll immer TCP, da dieses bereits einen sicheren Datentransfer garantiert und die FTP-Software sich nicht darum zu kümmern braucht. FTP besitzt eine eigene Kommandooberfläche, die interaktiv bedient wird. Der Aufruf dieses Filetransferprogrammes erfolgt durch das Kommando ftp. Die Vorteile von FTP liegen in den effizienten Verfahren zur Übertragung von Dateien beliebigen Formats und der Tatsache, daß der Zugriff seitens beliebiger Internet-Teilnehmern möglich ist. Andererseits kann bei größeren Archiven schnell die übersicht verlorengehen, wenn die Datenbestände nicht vernünftig sortiert sind. Bei umfangreichen Dateibäumen ist hingegen die Navigation durch die Verzeichnisse eine zeitraubende Angelegenheit. Es werden weiterhin zwei FTP 117

123 Betriebsmodi unterschieden: Benutzerspezifisches FTP Anonymous-FTP In beiden Fällen ist es möglich, Verzeichnisse einzusehen und zu wechseln, sowie Dateien zu empfangen und zu senden. Der Unterschied liegt in den Privilegien, die ein Benutzer besitzt. Während im ersten Fall der User eine Zugangsberechtigung zum System benötigt, so verfügt ein Gastzugang nur über eine eingeschränkte Sicht auf den Datenbereich des Servers, was als einfacher Sicherheitsmechanismus anzusehen ist. Der Kommandoaufruf des FTP-Kommandos lautet ftp [ -v ] [ -d ] [ -i ] [ -n ] [ -g ] [ host ] Wird beim Programmaufruf der gewünschte Kommunikationspartner (host) mit angegeben, so wird sofort versucht, eine Verbindung zu diesem Rechensystem aufzubauen. Ist der Versuch erfolglos, so wird in den Kommandomodus umgeschaltet. Der Prompt "ftp>" erscheint immer auf dem Bildschirm, wenn ftp-kommandos eingegeben werden können. ftp verfügt über einen help-mechanismus, über den sämtliche auf dem jeweiligen System verfügbare Kommandos mit Kurzerklärungen abfragbar sind. Nachfolgend werden wesentliche Kommandos nach Funktionalität gruppiert vorgestellt. Kommandos können soweit verkürzt eingegeben werden, als sie noch eindeutig erkennbar sind. Enthalten Kommandoargumente "Blanks", so sind die Argumente beidseitig mit Hochkommas eingeschlossen einzugeben. Nicht alle ftp-implementierungen unterstützen alle ftp-kommandos. help [ kommando ] zeigt kurze Informationen zu dem angegebenen Kommando. Wird das Kommando weggelassen, zeigt dieser Aufruf eine Liste der zulässigen Kommandos. open host Öffne einer Verbindung zu einem fernen Host. Je nach angewähltem System werden Benutzerkennung und Passwort abgefragt. FTP 118

124 user user-name [ password ] Eingabe von Benutzerkennung und Passwort.! Aufruf einer (eingeschränkten) Shell auf dem lokalen System. Für Dateiübertragung relevante Kommandos wie mkdir, mv, cp, etc sind absetzbar. Verlassen wird diese Shell mit "exit". lcd [directory ] Wahl des lokalen Directories für die Dateiübertragung. pwd Anzeige des aktuellen Directories auf dem entfernten System. cd remote-directory Wahl des aktuellen Directories auf dem entfernten System. cdup Wechsel in das nächsthöhere Directory auf dem entfernten System. dir [ remote-directory [ local-file ] ] ls [ remote-directory [ local-file ] ] Ohne Optionen erfolgt eine Anzeige der Einträge des entfernten aktuellen Directories. Dabei liefert dir ausführliche und ls eine knappe Information bezüglich des Directory-Inhalts. Bei Angabe des remote-directory erfolgt die Anzeige der Einträge des entfernten Directories. Wird local-file angegeben, erfolgt eine Umlenkung der Directory-Anzeige in die Datei local-file auf dem lokalen System. mdir remote-files [ local-file ] mls remote-files [ local-file ] Anzeige von Dateien aus dem entfernten aktuellen Directory und Abspeicherung in eine lokale Datei. mkdir directory-name Einrichten eines neuen Directories directory-name auf dem entfernten System. rmdir directory-name löscht das Directory directory-name auf dem entfernten System. rename [ from ] [ to ] Umbenennen einer Datei auf dem entfernten System von from nach to. delete remote-file Löschen der Datei remote-file auf dem entfernten System. mdelete remote-files Löschen mehrerer Dateien remote-files auf dem entfernten System. put local-file [ remote-file ] send local-file [ remote-file ] Dateiübertragung der Datei local-file vom lokalen zum entfernten System. Wird remote-file nicht angegeben, so wird auch auf dem Zielsystem der Dateiname local-file verwendet. append local-file [ remote-file ] überträgt die Datei local-file vom lokalen System an das entfernte System und hängt diese am Ende der Datei remote-file an. Wurde remote-file nicht angegeben, wird die Datei ans Ende der Datei local-file auf dem entfernten System angehängt. mput local-files Dateiübertragung einer Dateigruppe namensgleich vom lokalen zum entfernten System. get remote-file [ local-file ] recv remote-file [ local-file ] Dateiübertragung einer Datei remote-file vom entfernten System zum lokalen System. Wird local-file nicht mitangegeben, so erhält die Datei auch auf dem lokalen System den Dateiname remote-file. mget remote-files Dateiübertragung einer Dateigruppe namensgleich vom entfernten zum lokalen System. ascii type ascii FTP 119

125 Die Dateiübertragung findet im ASCII-Code statt. Gegebenfalls werden bei Binärdateien Zeichen verändert (z. B. die Zeilenendedarstellung ans Zielsystem angepaßt) oder Zeichen verfälscht. binary type image type binary Die Dateiübertragung findet transparent statt. case Mit diesem Schalter läßt sich einstellen, ob Dateinamen beim Empfangen (get, recv, mget) von Großbuchstaben nach Kleinbuchstaben übersetzt werden sollen. glob Mit diesem Schalter läßt sich einstellen, ob bei den Kommandos mdelete, mget und mput bei Dateinamen, die Metazeichen (*?[]~{}) enthalten, diese Metazeichen übertragen werden oder nicht. ("off" = keine Metazeichenbehandlung). ntrans [ inchars [ outchars ] ] Definition und Aktivierung einer Übersetzungstabelle für Dateinamen, wenn beim Dateiübertragungsauftrag (Senden und Empfangen) keine Zieldateinamen angegeben werden. Zeichen eines Dateinamens, die in inchars zu finden sind, werden durch das positionsgleiche Zeichen in outchars übersetzt. Ist inchars länger als outchars, so werden die korrespondenzlosen Zeichen von inchars aus dem Zieldateinamen entfernt. prompt Mit diesem Zeichen wird bei Mehrdateienübertragung gesteuert, ob jede zu übertragende Datei extra quittiert werden muß oder nicht. verbose Wenn der "verbose"-modus eingeschaltet ist, erhält man für jede übertragene Datei den Dateinamen auf dem lokalen und entfernten Rechner, sowie die Datenmenge und die dafür benötigte Übertragungszeit angezeigt. bell Dieser Schalter bewirkt, daß je nach Stellung am Ende jedes Dateiübertragungsauftrages ein akustisches Signal ertönt oder nicht. status Anzeige der aktuellen logischen Schalterstellungen sowie des Verbindungszustandes. close disconnect Beendigung einer aktiven Verbindung. quit Beendigung des Programmes ftp. bye Beendigung einer aktiven Sitzung und des Programmes ftp. Die optionalen Parameter beim ftp-kommando setzen logische Schalter für den ftp-programmlauf. Im Kommandomodus sind die Einstellungen jederzeit wieder änderbar. -v verbose-schalter einschalten. -d debug-schalter einschalten. -i interactive-modus für Mehrdateiübertragung einschalten. -n verhindert, daß FTP zum Beginn der Sitzung einen Login-Versuch unternimmt. -g glob-schalter einschalten. Die Datei-Übertragung wird durch die Terminal "interrupt"-taste (üblicherweise Ctrl-C) abgebrochen, was einen sofortigen Abbruch zur Folge haben soll. Nicht alle Kommunikationspartner verstehen die Abbruchaufforderung, wodurch dennoch die gesamte Datei übertragen wird. Dateinamen, die als Argumente von FTP-Kommandos Verwendung finden, werden wie folgt FTP 120

126 bearbeitet: Ist "file globbing" eingeschaltet, werden bei den Kommandos mget, mput und mdelete die Namen lokaler Dateien folgendermaß behandelt: Der * steht für eine beliebige Anzahl (auch Null) von Zeichen. Das?steht für ein einziges beliebiges Zeichen. Wird im Dateinamen eine Zeichenfolge angetroffen, die zwischen eckigen Klammern oder zwischen geschweiften Klammern steht, so sind alle Dateinamen zutreffend, die an dieser Stelle ein einziges beliebiges Zeichen aus der Zeichenfolge innerhalb der Klammern enthalten. Steht die Zeichenfolge ~/ (Tilde, Schrägstrich) am Beginn des Dateinamens, so wird sie durch den Home-Directory-Pfad ersetzt. Das Zeichen ~, dem eine Benutzerkennung folgt, wird durch den Home-Directory-Pfad dieser Benutzerkennung ersetzt. Kommandos und Protokoll-Anweisungen: Beispiel ftp-client FTP-Protokoll Aufgabe login help help command USER username PASS password HELP HELP command SYST anmelden Hilfe Server-Identifikation status STAT Transfer-Status STAT path wie LIST, über control-verbindung dir path LIST path Kataloginhalt zeigen, ausführlich ls path NLST path Dateinamen zeigen delete path DELE path Datei löschen rename from to RNFR from-path RNTO to-path Datei umbenennen pwd PWD Arbeitskatalog zeigen cd path CWD path Katalog wechseln mkdir path MKD path Katalog erzeugen rmdir path RMD path Katalog löschen ascii TYPE A N Textübertragung (Voreinstellung) binary TYPE I Datenübertragung PORT h,h,h,h,p,p Port des Klienten für data-verbindung get remote-path RETR path Datei zum Klienten übertragen put local-path STOR path Datei zum Server übertragen append local-path APPE path an Datei auf Server anfügen interrupt ABOR _bertragung abbrechen quit QUIT Verbindung beenden Benutzereingaben sind fett gedruckt. ftp multimedia.ee.fhm.edu Grundlagen Computernetze Beispiel 121

127 Verbindung mit multimedia.ee.fhm.edu. 220 ProFTPD 1.2.2rc2 Server [multimedia.e-technik.fh-muenchen.de] Benutzer (multimedia.ee.fhm.edu:(none)): plate 331 Password required for plate. Kennwort: 230 User plate logged in. Ftp> ls 200 PORT command successful. 150 Opening ASCII mode data connection for file list. tmp Mail bin 226 Transfer complete. Ftp: 36 Bytes empfangen in 0.00Sekunden KB/Sek. Ftp> cd tmp 250 CWD command successful. Ftp> lcd E:\www-netzmafia\skripten\perl Lokales Verzeichnis jetzt E:\www-netzmafia\skripten\perl. Ftp> cd /opt/www/skripten/perl 250 CWD command successful. Ftp> put perl3.html 200 PORT command successful. 150 Opening ASCII mode data connection for perl3.html. 226 Transfer complete. Ftp: Bytes gesendet in 9.17Sekunden 8.46KB/Sek. Ftp> put perl4.html 200 PORT command successful. 150 Opening ASCII mode data connection for perl4.html. 226 Transfer complete. Ftp: Bytes gesendet in 3.24Sekunden 9.55KB/Sek. Ftp> quit Active und Passive FTP Grundlagen Computernetze Beim FTP-Zugriff werden zwei Modi unterschieden, active und passive FTP. Beim active mode FTP öffnet der Client eine Verbindung von einem unprivilegierten Port (Portnummer N > 1023) zum Kommandoport 21 des FTP-Servers. Dann spezifiziert der Client den Port N+1 als Datenport (PORT-Kommando). Der Server schickt seine Daten an den spezifizierten Port des Client von seinem Port 20 aus. Aus Sicht eines vorgeschalteten Firewall-Systems müssen demnach folgende Ports offen sein: FTP Serverport 21 von allen Ports ausserhalb (Client initiert die Verbindung) FTP Serverport 21 an Ports > 1023 (Server-Antwort auf Kommandos) FTP Serverport 20 an Ports > 1023 (Datenverbindung, Aufbau von Serverseite) FTP Serverport 20 von Ports > 1023 (Datenverbindung, Bestätigung vom Client) Sperrt ein Firewall im Netz des Client den Verbindungsaufbau von außen, ist keine Datenübertragung möglich (wohl aber die Kommandoverbindung). Active und Passive FTP 122

128 Zur Lösung dieses Problems kann der FTP-Client mit dem Befehl PASV in das passive mode FTP umgeschaltet werden. Der Client initiert nun Kommando- und Datenverbindung. Nach dem Umschalten in den passiven Modus, bietet der Server einen unprivilegierten Port > 1023 an, den der Client dann für den Datentransfer ansprechen kann. Aus Sicht eines vorgeschalteten Firewall-Systems müssen demnach folgende Ports offen sein: FTP Serverport 21 von allen Ports ausserhalb (Client initiert die Verbindung) FTP Serverport 21 an Ports > 1023 (Server-Antwort auf Kommandos) FTP Serverport > 1023 von überall (Datenverbindung, Aufbau von Clientseite) FTP Serverport > 1023 an Ports > 1023 (Datenverbindung, Bestätigung vom Server) Wenn auch nun die Probleme auf der Cleintseite gelöst sind, sind sie nun auf der Serverseite vorhanden. Der FTP-Server muß im Passivmodus alle Verbindungen von anderen Systemen auf Ports > 1023 zulassen. Um hier die Sicherheit zu verbessern, kann man bei etlichen Serverprogrammen den Portbereich per Konfiguration einschränken. Manche FTP-Clients können nicht in den Passivmodus schalten, es bleibt dann nur die Wahl eines anderen Programms. Dagegen können die Webbrowser im Passivmodus arbeiten (und tun dies meist per Default). HTTP - Hypertext Transfer Protocol HTTP ist ein Protokoll der Applikationsschicht, das alle Möglichkeiten der Übertragung von Hypermedia-Informationen bietet. HTTP ist nicht Hardware- oder Betriebssystemabhängig. Seit 1990 ist dieses Protokoll im Einsatz und wird derzeit meist in der Version 'HTTP/1.1' (seltener 1.0) verwendet. Heutige Informationssysteme benötigen weit mehr Funktionen als das einfache Senden und Empfangen von Nachrichten. Die Entwicklung von HTTP ist nicht abgeschlossen. Es bietet die Möglichkeit, weitere Funktionalität zu entwickeln. Die Adressierung von Ressourcen erfolgt dabei mittels URls, die zum einen Orte (URL) oder Bezeichner (URN) sein können. Diese zeigen gleichzeitig den gewünschten Übertragungsmechanismus an. Nachrichten werden in der gleichen Form übertragen, wie sie auch bei normalem Mail-Transport verwandt werden. Dabei kommt oft MIME zum Einsatz. HTTP/1.1 ist auch für den Zugriff auf Server mit anderen Protokollen geeignet. HTTP - Hypertext Transfer Protocol 123

129 Hauptfunktionen des HTTP Grundlagen Computernetze Die grundlegende Funktionsweise des HTTP folgt dem alten Frage-Antwort-Spiel. Ein fragendes Programm (WWW-Browser) öffnet eine Verbindung zu einem Programm, welches auf Fragen wartet (WWW-Server) und sendet ihm die Anfrage zu. Die Anfrage enthält, die Fragemethode, die URL, die Protokollversion, Informationen über den Dienst und möglicherweise etwas Inhalt in Form einer Nachricht. Der Server antwortet auf diese Frage mit einer Statusmeldung, auf die eine MIME-artige Nachricht folgt, die Informationen über den Server und eventuell schon das gefragte Dokument enthält. Direkt nach Beantwortung der Frage wird die Verbindung wieder abgebaut. So soll erreicht werden, daß die Leitungskapazitäten geschont werden. Derzeit finden HTTP-Verbindungen meist per TCP/IP statt. Das soll aber nicht heißen, daß HTTP nicht auch auf anderen Netzwerkprotokollen aufsetzen kann. Beide Seiten müssen auch dazu in der Lage sein, auf den vorzeitigen Abbruch der Kommunikation durch die andere Seite zu reagieren. Vorzeitiger Abbruch kann durch Aktionen von Benutzern, Programmfehler oder Überschreiten der Antwortzeiten ausgelöst werden. Durch den Abbruch der Verbindung durch eine der beiden Seiten wird der gesamte Vorgang abgebrochen. Struktur der HTTP-Botschaften Jede Kommunikation zwischen zwei WWW-Programmen besteht aus HTTP-Botschaften, die in Form von Anfragen und Antworten zwischen Client und Server ausgetauscht werden. Eine HTTP-Botschaft (HTTP-Message) kann entweder ein Simple-Request, eine Simple-Response, ein Full-Request oder eine Full-Response sein. Die beiden zuerst genannten Botschaftstypen gehören zum HTTP/0.9-Standard. Die beiden letzten Typen gehören schon zum HTTP/1.0. Allgemeinfelder des Botschaftskopfes Jedes der Felder eines HTTP-Botschaftenkopfes weist die gleiche Struktur auf. Im RFC 822 wurde definiert, daß jedes Feld mit einem Feldnamen und dem Feldinhalt erscheint. Auf den Feldnamen muß unbedingt ein Doppelpunkt folgen. Der Feldname kann alle Zeichen außer dem Doppelpunkt und der Escape-Sequenzen enthalten. Allgemeinfelder enthalten Informationen wie das Datum, die Message-ID, die verwendete MIME-Version und ein 'forwarded'-feld, das angibt, ob das Dokument eigentlich von einer anderen Adresse stammt. Anfragen Bei Anfragen wird zwischen einfachen und komplexen Anfragen unterschieden. Eine einfache Anfrage besteht nur aus einer Zeile, die angibt, welche Information gewünscht wird. Ein Beispiel: Hauptfunktionen des HTTP 124

130 GET Dabei wird nur die Methode (GET) und die URL des Dokumentes angegeben. Es werden keine weiteren Felder erwartet und vom adressierten Server wird auch nur ein ganz einfacher Antwortkopf zurückgesendet. Es kann aber auch eine komplexere Anfrage erzeugt werden. Dabei muß die Zeile aus dem obigen Beispiel noch die Version des HTT-Protokolls angehängt werden. In einem Beispiel würde das folgendermaßen aussehen: GET HTTP/1.0 Die Anfügung der HTTP-Version ist also der ganze Unterschied zwischen einer einfachen und einer komplexen HTTP-Anfrage. Der Unterschied zwischen einfacher und komplexer Anfrage wird aus Gründen der Kompatibilität gemacht. Ein Browser, der noch das alte HTTP/0.9 implementiert hat, wird nur eine einfache Anfrage losschicken können. Ein neuer Server muß dann eine Antwort, auch im Format des HTTP/0.9 zurücksenden. Felder einer komplexen Anfrage Um die Anfrage näher zu spezifizieren, wurden weitere Felder eingeführt. In den Anfragefeldern stellen z. B. Informationen über den Server und den benutzten Browser. Weiterhin kann man dort Informationen über den Gegenstand der Übertragung bekommen. In der folgenden kurzen Übersicht sind alle möglichen Felder einer Anfrage aufgeführt. Anfragezeile (Request-Line) Informationsanfrage wie oben geschildert. Die zugehörigen Methoden folgen im nächsten Abschnitt. Allgemeiner Kopf (General-Header) Im allgemeinen Kopf werden allgemeine Informationen über die Nachricht übermittelt. Anfragekopf (Request-Header) In diesen Feldern kann der Browser weitere Informationen über die Anfrage und über den Browser selbst absetzen. Diese Felder sind optional und müssen nicht erscheinen. Gegenstandskopf (Entity-Header) In diesem Feld werden Einträge übermittelt, welche den Inhalt der Nachricht näher beschreiben. Gegenstand der Nachricht (Entity-Body) Vor dem eigentlichen Inhalt muß definitionsgemäß eine Leerzeile stehen. Der Inhalt ist dann in dem Format codiert, das in den Gegenstandsfeldern definiert wurde (meist HTML). Fragemethoden Grundlagen Computernetze Das an erster Stelle in einer Anfragezeile (Request-Line) stehende Wort beschreibt die Methode, die mit der nachfolgenden URL angewendet werden soll. Die Methodennamen müssen dabei immer groß geschrieben werden. Der Entwurf des HTTP-Standards erlaubt leicht eine Erweiterung. Kommen wir nun zur Bedeutung der einzelnen Methoden. GET Diese Methode gibt an, daß alle Informationen, die mit der nachfolgenden URL beschrieben werden, zum rufenden Client geholt werden sollen. Zeigt die URL auf ein Programm (CGI-Script), dann soll dieses Programm gestartet werden und die produzierten Daten liefern. Handelt es sich bei dem referenzierten Datum um eine Datei, dann soll diese übertragen werden. Beispiel: GET HEAD Anfragen 125

131 Diese Methode ist identisch zur Methode GET. Die Antworten unterscheiden sich nur darin, daß bei der Methode GET ein komplettes Dokument übertragen wird und bei HEAD nur die Meta-Informationen gesendet werden. Dies ist nützlich, um Links auszuprobieren oder um die Erreichbarkeit von Dokumenten zu testen. Bei Anwendung der Methode HEAD wird der Kopf des referenzierten HTML-Dokuments nach 'link' und 'meta' Elementen durchsucht. POST Diese Methode wird hauptsächlich für größere Datenmengen verwandt. Man stelle sich vor, ein HTML-Dokument enthält ein komplexes Formular. Per POST wird dem Server angezeigt, daß er auch die Daten im Körper der Botschaft bearbeiten soll. Verwendet, wird es hauptsächlich bei Datenblöcken, die zu einem verarbeitenden Programm übertragen werden. Die wirkliche Funktion, die durch POST auf dem adressierten Rechner angestoßen wird, wird durch die URL bestimmt. Meist, sind es CGI-Scripte, die den Inhalt der Nachricht verarbeiten. PUT Die mit der Methode PUT übertragenen Daten sollen unter der angegeben URL gespeichert werden. Das soll ermöglichen, daß WWW-Seiten auch ohne direkten Zugriff auf den anbietenden Rechner erstellt und angeboten werden können. Wird ein Dokument mit der Methode PUT übertragen, dann wird unter dieser Adresse ein Dokument mit dem übertragenen Inhalt angelegt. War die Aktion erfolgreich, wird die Meldung '200 created' zurückgegeben. Existiert unter dieser Adresse schon ein Dokument, dann wird dieses überschrieben. War auch diese Aktion erfolgreich, dann wird nur '200 OK' zurückgemeldet. Der Hauptunterschied zwischen POST und PUT besteht darin, daß bei POST die URL eine Adresse eines Programmes referenziert, das mit den Daten umgehen kann. Bei PUT hingegen wird die URL als neue Adresse des Dokumentes gesehen, das gerade übertragen wurde. Meist jedoch ist die Methode PUT ausgeschaltet, weil Server-Betreiber befürchten, daß die Sicherheit, des Systems dadurch nicht mehr gewährleistet ist. DELETE Mit dieser Methode kann der Inhalt einer URI (Unified Resource Identifier) gelöscht werden. Diese Methode ist neben der Methode PUT eine der gefährlichsten. Wenn Server nicht richtig konfiguriert wurden, dann kann es mitunter vorkommen, daß alle Welt die Berechtigung zum Löschen von Ressourcen hat. LINK Mit dieser Methode können eine oder mehrere Verbindungen zwischen verschiedenen Dokumenten erzeugt werden. Es werden dabei keine Dokumente erstellt, sondern nur schon bestehende miteinander verbunden. UNLINK entfernt Verbindungen zwischen verschieden Ressourcen. Dabei wird nur die Verbindung gelöscht. Die Dokumente existieren trotzdem weiter. Mit diesen Methoden kann man alle möglichen Ressourcen erreichen, welche die verschiedenen Server zur Verfügung stellen. Die folgenden Felder beschreiben nun die Fragen etwas genauer. Es kann zum Beispiel verhindert werden, daß ungewollt umfangreiche Bilder übermittelt werden, wenn dies nicht gewünscht wird. Beispiel einer Konversation Benutzereingaben werden kursiv geschrieben. Das lokale System ist eine Windows-Kiste. > telnet 80 Trying Connected to Escape character is '^]'. GET /index.html HTTP/1.0 HTTP/ OK Date: Mon, 18 Sep :59:58 GMT Server: Apache/1.3.6 (Unix) (SuSE/Linux) Grundlagen Computernetze Fragemethoden 126

132 Last-Modified: Tue, 29 Aug :08:58 GMT ETag: " e8-39ab6f9a" Accept-Ranges: bytes Content-Length: 2280 Connection: close Content-Type: text/html <HTML> <HEAD> <TITLE>Netzmafia</TITLE> </HEAD> <body bgcolor="#000000" text="#ffffcc" link="#ffcc00" alink="#ff0000" vlink="#ff9900">... Grundlagen Computernetze </BODY> </HTML> Connection closed by foreign host. Zum vorhergehenden Abschnitt Zum Inhaltsverzeichnis Zum nächsten Abschnitt Copyright FH München, FB 04, Prof. Jürgen Plate Letzte Aktualisierung: 07. Mär 2012 Grundlagen Computernetze Prof. Jürgen Plate Beispiel einer Konversation 127

133 Weitverkehrsnetze, Voice-over-IP, Poweline Communication, Funknetze Übertragungsmedien für Weitverkehrsnetze Datex-Netz (veraltet) DATEX-L DATEX ist eine Abkürzung für "Data Exchange" (Datenaustausch). Das L sagt aus, daß es sich um ein leitungsvermitteltes Netz handelt, d. h. es wird ein Leitungsweg zwischen zwei Kommunikationspartnern zur Verfügung gestellt. Beide Partnerstationen müssen in Datenrate, Code und Protokoll übereinstimmen. Der Vorteil gegenüber dem Telefonnetz liegt im schnellen Verbindungsaufbau (0.4-1 Sekunde). Da heute Datex-L keine Vorteile mehr gegenüber ISDN hat, ist Datex-L ein auslaufendes Modell. DATEX-P Das P steht für "Paket-Vermittlung". Die Daten werden in Form genormter und mit Adressinformation versehener Datenblöcke (Datenpakete) übertragen. Stationen, die nicht zur Paketübertragung in der Lage sind, werden über einen Umsetzer (PAD = Packet Assembly Disassembly) versorgt. Die angeschlossenen Stationen können mit unterschiedlichen Datenraten arbeiten. Die Paketübertragung selbst erfolgt im Netz mit 64 KBit/s, wobei derzeit das Netz auf 1,92 MBit/s ausgebaut wird. Jedes Datenpaket wird auf dem günstigsten Weg ohne Rücksicht auf die logische Reihenfolge übertragen. Zwischen zwei über DATEX-P verbundenen Partnern können u. U. mehrere Übertragungswege existieren. Beim Empfänger wird die korrekte Reihenfolge der Pakete wiederhergestellt. Inzwischen ist aber der Bedarf an schnellerer Datenübertragung erheblich gestiegen, so dass als Nachfolgetechnik nun vorzugsweise Frame Relay verwendet wird. Fernsprechnetze und ISDN/DSL Das Fernsprechnetz ist das mit Abstand am weitesten ausgebaute Weitverkehrsnetz. Es dient vor allem zur Übertragung von Telefongesprächen, aber auch für die Datenkommunikation. Das Telefonnetz ist ein Beispiel für ein Leitungsvermitteltes Netz. Jedem Verbindungskanal steht eine Bandbreite von 64 kbit/s zur Verfügung. Auf analogen Leitungen (Modem) wird diese Grenze allerdings nicht erreicht. Die Datenrate kann hier bei bester Leitungsqualität bis zu 56 kbit/s betragen. Bei einem Zugang über eine Mobilfunkstrecke ist die Bandbreite allerdings noch geringer. ISDN steht für "Integrated Services Digital Network" = diensteintegrierendes Netz (Siehe auch Näheres im Modem-Skript). Der ISDN-Basisanschluß bietet zwei Kanäle mit einer Bandbreite 64 kbit/s pro Kanal. Aufgrund der digitalen Übertragungsweise steht diese durchgehend zur Verfügung. Neben den beiden Basiskanälen steht noch der Signalisierungskanal (D-Kanal) mit 16 kbit/s zur Verfügung. Dieser wird nur für die Signalisierung genutzt, während die beiden B-Kanäle der eingentlichen Datenübertragung dienen. Neben dem Standardanschluß mit 64 kbit/s wird noch der ISDN-Primärmultiplexanschluß (PMxA) PMxA angeboten, der eine Bandbreite von 2 MBit/s bietet. Der PMxA hat 30 B-Kanäle mit einer Datenrate von jeweils 64 kbit/s. Dazu kommt noch ein D-Kanal, der hier im Unterschied zum ISDN-Ba auch eine Datenrate von 64 kbit/s hat, sowie ein weiterer Kanal für Rahmenbildung und Rahmenerkennung mit einer Rate von ebenfalls 64 kbit/s. Die Bandbreite für Modems ist selbst bei gutem Signal/Rausch-Abstand auf analogen Telefonleitungen ausgereitzt. Jedoch stellen die geringen Übertragungsraten kein Problem der Kupferadern des Telefonanschlusses bis zur Vermittlungsstelle dar. Das Problem liegt im Weitverkehrsnetze, Voice-over-IP, Poweline Communication, Funknetze 128

134 Zusammenspiel aller beteiligten Komponenten des Netzes: Der Weg vom Anschluß zur Vermittlungsstelle, die Übertragungstechnik der Vermittlungsstellen untereinander und der Weg zu dem Anschluß der angewählt wurde. Ende der 80er Jahre hat man SDSL (Single Line Digital Subscriber Line) und HDSL (High Data Rate Digital Subscriber Line) entwickelt. So war es nun endlich möglich kostengünstige 2-MBit-Systeme anzubieten. HDSL hat einige Vorteile gegenüber SDSL: Drei- bis vierfache Leitungslänge ohne Regeneratoren durch Verwendugn eines andern Leitungsprotokolls und einer leistungsstarken Echokompensation. Außerdem verursacht HDSL relativ geringe Störungen der benachbarten Adern, diese können bei SDSL wegen der starken Einstrahlung kaum für andere Anwendungen (Telefonie) verwendet werden. ADSL (Asymetric Digital Subscriber Line) und VDSL (Very High Data Rate Digital Subscriber Line) wurden ebenfalls Anfang der 90er Jahre entwickelt, hierdurch wird noch mehr Bandbreite zur Verfügung gestellt. Mehr dazu im Modem-Skript. Frame Relay Grundlagen Computernetze Aufgrund des immer breiteren Einsatzes von Glasfaserleitungen ist die Fehleranfälligkeit der Datenübertragung zurückgegangen. Die Rechenleistung der Endgeräte ist zudem mittlerweile genügend hoch, um auch Aufgaben der Flußsteuerung und Verbindungsüberwachung zu übernehmen. Aus diesem Grunde kann hier das Prinzip des "Fast Packet Switching" (schnelle Paketvermittlung) zum Einsatz kommen. Das Verfahren ist als "Frame Relay" standardisiert worden. Das Frame-Relay-Verfahren arbeitet mit Datenpaketen variabler Länge, die allerdings ohne Fehlerkorrektur vermittelt werden. Beim Frame-Relay-Verfahren findet die Datenübertragung über virtuelle Verbindungen statt. Die zugehörigkeit eines Datenpaketes zu einer virtuellen Verbindung wird im Paketheader codiert. Hierfür ist das DLCI (Data Link Connection Identifier) Feld vorgesehen, das insgesamt 10 Bit breit ist. Insgesamt sind maximal 1024 virtuelle Verbindungen gleichzeitig möglich. Die Zahl der virtuellen Verbindungen wird durch die Anzahl der Bits im Paketheader, die zur Codierung einer Verbindung dienen begrenzt. Mit 10 Bit können demnach 2 10 = 1024 virtuelle Verbindungen dargestellt werden. Effektiv nutzbar sind allerdings nur 976 virtuelle Verbindungen, da einige DLCI für Sonderaufgaben reserviert sind. Eine virtuelle Verbindung kann dauerhaft eingerichtete werden oder erst bei Bedarf aufgebaut und nachher abgebaut werden. Im Falle der dauerhaften Verbindung spricht man von einer "Permanent Virtual Circuit", abgekürzt PVC, anderenfalls von einer "Switched Virtual Circuit" (SVC). Die SVCs werden beispielsweise dann eingesetzt, wenn die Verbindung nur selten punktuell genutzt wird. Eine dauerhafte Verbindung würde in einem solchen Falle nur unnötige Kosten verursachen. Ein Beispiel hierfür ist z.b. die Anbindung von Telearbeitsplätzen an das Rechnernetz des Betriebes. Das Frame-Relay-Verfahren ermöglicht zwar einen schnellen Datenaustausch in paktetvermittelten Datennetzen, doch die Übertragung von Sprache und anderen echtzeitkritischen Datenströmen kann hiermit nicht erfolgen. Bei der Übertragung eines Datenpaktes ist die Leitung für die Zeit der Übertragung blockiert; eine begonnene Übertragung eines Paketes kann nicht mehr unterbrochen werden. Aufgrund der variablen Größe der Datenpaktete bei Frame Relay kann die Übertragung daher eine längere Zeit inanspruch nehmen. Ein Weg dieses Problem zu lösen wäre es, die Datenpaketgröße drastisch zu reduzieren, wie es z.b. beim ATM-Verfahren festgelegt wurde. Während das Datex-Netz bis zur Schicht 3 hinauf definiert ist, umfaßt der Standard von Frame-Relay nur noch die Schichten 1 und 2. Die Eigenschaften in Stichpunkten: Paketorientiertes Protokoll mit variabler Paketlänge Frames werden in derselben Reihenfolge Empfangen wie sie abgeschickt wurden, es ist also keine Zwischenspeicherung und Sortierung nötig. Keine Empfangsbestätigung, keine Flußkontrolle (bleibt höheren Protokollen vorbehalten). Fehlererkennung, aber keine Fehlerkorrektur. Nur fehlerfreie Frames werden weitergeleitet. Fernsprechnetze und ISDN/DSL 129

135 FPS Transparente Verbindung FPS (fast packet switching) ist ein schneller Paketvermittlungsdienst, bei dem Rahmen fester Länge vermittelt werden. Die Rahmen werden auch als Zellen bezeichnet, man spricht von Zellenvermittlung (cell switching). ATM basiert auf FPS. FPS zeichnet sich durch eine variable Bandbreitenzuordnung aus. Nur die Informationen im Informationsteil (Header) der Zellen sind mit einer Fehlererkennung ausgestattet. Die Zellen werden wie bei ATM über virtuelle Verbindungen durch das Netz übertragen (zu virtuellen Verbindungen siehe 'ATM'). Zellen werden ununterbrochen generiert und übertragen, nicht belegte Zellen werden im Header als 'leer' gekennzeichnet. ATM ATM steht für asynchronous transfer mode = asynchrone Übertragungsart. Diese Hochgeschwindigkeits-Paketvermittlung wurde für Breitband-ISDN (B-ISDN) als Vermittlungstechnik entwickelt und ist für Daten, Sprache, Text und Bilder gleichermaßen geeignet. Es gilt als die Technologie der Zukunft. ATM basiert auf FPS (fast packet switching). Dabei werden die Daten zu Paketen zusammengefaßt und zum Ziel geroutet. Das zuständige Normungs- und Standardisierungsgremium ist nicht das IEEE, sondern das ATM-Forum. Im folgenden soll die Funktion von ATM vereinfacht dargestellt werden. ATM arbeitet verbindungsorientiert, d. h. vor der Übertragung muß eine Verbindung erst geschaltet werden. Wie bei der klassischen Telefontechnik wird die Verbindung "irgendwie" geschaltet; wenn der kürzeste Weg bereits ausgelastet ist, wird ein Ausweichweg verwendet (salopp gesagt: Wenn die Strecke Nürnberg-München ausgelastet ist, wird eben der Weg Nürnberg-Flensburg-München gewählt). Im Kontrollfeld (Header) werden auch keine expliziten Quell- und Zieladressen angegeben, sondern ein virtueller Pfad und ein virtueller Kanal. Ein virtueller Pfad (virtual path, VP) ist eine für kurze Zeit geschaltete Verbindung, die während ihrer Existenz so aussieht wie eine richtige Festverbindung (Standleitung). Dieser geschaltete Weg durch das Netz wird als virtuell bezeichnet, weil er nicht permanent fest geschaltet ist, sondern nur für die kurze Zeit der Datenübertragung. Zur Kennzeichnung wird ihr ein VPI (virtual path identifier) als Bezeichnung zugeordnet. Ein virtueller Kanal (virtual channel, VC) ist ein Übertragungskanal, der genau wie der virtuelle Pfad nur während der Datenübertragung existiert. Zur Kennzeichnung wird ihm ein VCI (virtual channel identifier) als Bezeichnung zugeordnet. Ein virtueller Pfad besteht aus mehreren virtuellen Kanälen, komplexe Anwendungen können mehrere virtuelle Kanäle gleichzeitig belegen. Die klassischen Standleitungen enthalten ebenfalls mehrere Übertragungskanäle, doch können die virtuellen Kanäle bei ATM die virtuellen Pfade (Leitungen) wechseln. Wenn beispielsweise zwei virtuelle Kanäle auf Pfad 1 ankommen, kann Kanal 1 durchaus auf Pfad 2 und Kanal 2 auf Pfad 1 zum selben Zielnetz geschaltet werden. Bei VP-Switches bleiben die Kanäle den virtuellen Pfaden fest zugeordnet, die Pfade werden durch das Netz geschaltet. Bei VC-Switches werden die Kanäle über verschiedene Pfade geschaltet. Bei den geschalteten Verbindungen gibt es zwei wichtige Arten: Eine PVC (permanent virtual circuit = permanente virtuelle Verbindung) bleibt auch im unbenutzten Fall so lange geschaltet, bis sie wieder gewollt abgebaut wird. Eine SVC (switched virtual circuit = geschaltete vinuelle Verbindung) bleibt nur für die Dauer der Übertragung geschaltet und wird nach Übertragungsende automatisch wieder abgebaut. Bei der Wegewahl wird eine einfache Art des Routings verwendet, um die Datenpakete durch das Netz zu senden. Der Weg, den das Datenpaket durch das ATM-Netz zurücklegt, besteht dabei aus drei Frame Relay 130

136 Hauptabschnitten: 1. Vom Absender zum Switch, an dem der Absender angeschlossen ist. 2. Vermittlung innerhalb des ATM-Netzes von Switch zu Switch. 3. Vom Switch, an dem der Empfänger angeschlossen ist, zum Empfänger. Als Übertragungsverfahren wird bei ATM das Paketvermittlungsverfahren Cell Relay ("Zellenvermittlung") verwendet. Bei diesen Zellen handelt es sich um Rahmen fester Länge mit 5 Byte Header für Adressierung und Steueranweisungen sowie 48 Byte Nutzdaten, insgesamt also 53 Byte. Dabei wird zwischen zwei unterschiedlichen Zelltypen unterschieden. Die UNI-Zellen (user network interface) werden an der Schnittstelle zwischen Anwender und ATM-Netz verwendet und besitzen im Header 8 Bit für die Angabe des virtuellen Pfades und 4 Bit für die Flußkontrolle. Die NNI-Zellen (network node interface) werden zwischen den Netzwerkknoten (ATM-Switches) verwendet und besitzen 12 Bit für die Angabe des virtuellen Pfades, jedoch keine Flußkontrolle. Die Zellen werden von den Switches an den entsprechenden Trennstellen im ATM-Netz automatisch umgewandelt. Durch die sogenannte 'cell loss priority', die Verlustpriorität, wird festgelegt, welche Zellen auch bei sehr hoher Auslastung des Netzes noch unbedingt übertragen werden müssen (z. B. kritische Daten oder Synchronisationsanweisungen) und welche gegebenenfalls auch verloren gehen können (z. B. Bildinformation bei Bildtelefonie). Die Fehlerkontrolle bezieht sich nur auf den 5 Byte großen Header, nicht jedoch auf die Daten. Es ist ATM völlig egal, was übertragen wird, wichtig ist nur wohin und wie. Das ist auch ein Grund für die Schnelligkeit. Die wichtigsten Übertragungsraten sind 622 MBit/s (Lichtwellenleiter), 155 MBit/s (LWL und Kupferleitungen), 100 MBit/s (LWL und FDDI) und 26 MBit/s (Kupferleitungen). ATM kann Datenströme unterschiedlicher Bitraten flexibel übertragen und vermitteln. Die Übertragungsrate ist skalierbar, d. h. Übertragungsbandbreite wird flexibel bereitgestellt. Jedem Endgerät kann statisch (also vorab) oder dynamisch (also bei konkretem Bedarf) Bandbreite zugewiesen werden, die Netzleistung wächst also mit. Durch die transparente Übertragung in den Zellen werden bei den Netzübergängen keine Gateways benötigt, um von LAN- auf WAN-Protokolle umzusetzen. ATM ist gleichermaßen für LANs, schnelle Backbones und WANs geeignet. ATM ist verbindungsorientiert und baut immer eine Punkt-zu-Punkt-Verbindung auf. Für eine Übertragung muß also immer eine Verbindung zwischen zwei Stationen geschaltet werden (ATM basiert auf der Vermittlungstechnik). Klassische LANS sind verbindungslos, jede Station ist zu jeder Zeit mit allen anderen Stationen fest verbunden, alle teilen sich dasselbe Übertragungsmedium. ATM als LAN (lokales ATM, L-ATM) benötigt eine LAN-Emulation. So entsteht ein virtuelles Netz, bei dem das ATM-Netz mehreren Teilnehmern (Geräte/Software) ein nichtexistierendes LAN vorspiegeln muß. Dabei sind verschiedene Ansätze allerdings noch in Diskussion. Diese LAN-Emulationen arbeiten alle auf Schicht 2 des ISO-Schichtenmodells, dadurch eignen sie sich für routebare und nicht routebare Protokolle gleichermaßen. Für die Übertragung von IP-Paketen über ATM haben sich die nachfolgend beschriebenen 3 Verfahren heute etabliert. CLIP Dies ist die Abkürzung für "Classical IP". Hier werden die Datenpakete aus unterschiedlichen Netzen über ATM transportiert. Die Datenpakete aus verschiedenen Netzformen (wie Ethernet, Token-Ring) können in einem Fall nach der "Logical Link Control Encapsulation"-Methode alle über eine virtuelle Verbindung übertragen werden. Die ATM-Zellen werden mit Header-Informationen über den Protokolltyp des transportierten Datenpaketes versehen. Zur effizienten Gestaltung des Datentransportes kann auch je Protokolltyp eine virtuelle Verbindung aufgebaut werden. Das Feld mit der Typangabe für die ATM 131

137 transportierten Pakete kann enfallen, so das mehr Raum für Nutzinformationen zur Verfügung steht. Die mittels CLIP transportierten Datenpakete können allerdings hinsichtlich der IP-Adressen nur immer innerhalb eines IP-Subnetzes transportiert werden, da hier keine Möglichkeit des Routings über ATM besteht. LANE Das LAN-Emulationsverfahren (LANE) simuliert die Abläufe und Funktionen eines herkömmlichen LAN. Hierdurch kann eine existierendes LAN auf ATM abgebildet werden. Das emulierte LAN (ELAN) hat eine Client/Serverarchitektur, bei der jedes Endgerät einen softwareseitigen "LAN Emulation Client" (LEC) besitzt. Dieser unterhält Steuerverbindungen zu den einzelnen LANE-Servern. Eine Nutzdatenverbindung kann direkt zu den anderen LEC aufgebaut werden. Daneben kann auch eine Broadcastsendung verschickt werden, indem einen Nachricht an den "Broadcast and Unknown Server" (BUS) geschickt wird, der diese Nachricht dann an alle Clients verteilt. Das ELAN wird von einem "LAN Emulation Configuration Server" konfiguriert. Daneben ist noch ein LAN-Emulations-Server installiert, der zur Registrierung einzelner Clients und zur Ermittlung von Adressen dient. Die Teilnehmer des emulierten LAN gehören alle zu einem Subnetz. Es besteht mittels LANE keine Möglichkeit, Datenpakete zwischen einzelnen LANE-Netzen zu routen. Auch die Garantie einer Dienstgüte ist bei LANE nicht möglich. MPoA Das "Multiprotocol Encapsulation over ATM"-Verfahren beseitigt die Nachteile der anderen beiden Verfahren hinsichtlich des Routings zwischen den Subnetzen. Zudem kann hier die Dienstegüte für einzelne Dienste garantiert werden. Das Netz besteht aus MPoA-Servern und MPoA-Clients. Die MPoA-Server dienen als virtelle Router, welche die Aufgabe haben, die Route zum Zielnetz zu ermitteln. Im Gegensatz zu den herkömmlichen Routern, die auch den Transport der Daten übernehmen, sind die Router hier allerdings nur für die Wegewahl zuständig. Die MPoA-Clients bauen mit den Informationen der MPoA-Server die gewünschte Verbindung auf, und übernehmen den eigentlichen Datentransport. Gegenüberstellung der Technologien Telefonnetz Paketnetz (Datex, X.25) Frame-Relay Vermittlungsprinzip Leitungsvermittlung Paketvermittlung schnelle Paketvermittlung Fehlerkorrektur im Netz ATM nein ja nein nein Zellvermittlung Paketgröße keine Pakete variabel variabel fest (53 Byte) mehrere Verbindungen gleichzeitig Durchsatz der Netzknoten Punkt-zu-Punkt-Verbindungen Grundlagen Computernetze nein ja ja ja sehr hoch mittel hoch sehr hoch Bei größeren Entfernungen zwischen zwei Punkten kommen fast ausschließlich Glasfaserleitungen zum Einsatz. Sie bieten theoretisch mögliche Kapazitäten im TBit/s-Bereich. In der Boom-Phase des Internet um die Jahrteusendwende vergruben die Telekommunikationsunternehmen zehntausende Kilometer teures Glasfaserkabel in ganz Europa. Einige Energieversorger sind ins Geschäft mit den Lichtwellenstrecken eingestiegen und machen sich dabei ihre bestehende Infrastruktur zunutze. Der Bedarf blieb jedoch hinter den Erwartungen zurück. Gegenüberstellung der Technologien 132

138 Quelle: TeleGeography Research, PriMetrica Inc, Angemietet wurden die Lichtwellenleiter von den Providern meist "dunkel" (Dark Fiber), also unbeschaltet. Wenn ein IP-Carrier neue Punkt-zu-Punkt-Strecken benötigt, kann er bei den Dark-Fiber-Versorgern Faser(n) anmieten. Der Dark-Fiber-Anbieter verlegt Kabel verschiedener Hersteller. In einem LEAF-Kabel (Large Effective Area Fiber) beispielsweise stehen 144 Fasern zur Verfügung. Mit welcher Kapazität der Carrier die Fasern beschaltet, liegt in seinem Ermessen. Die technische Ausstattung dafür richtet er selbst ein. Um eine flächendeckende Versorgung mit seinem Backbone-Netz zu gewährleisten, muss ein IP-Carrier zumindest in mehreren Großstädten vertreten sein. Dazu betreibt er dann "Points of Presence" (PoPs), die über Punkt-zu-Punkt-Glasfasertrassen verbunden sind. Von dort aus führen sie außerdem IP-Leitungen zu ihren Kunden. Außerdem arbeiten die IP-Carrier oft auch als Internet Service Provider. In den PoPs finden überdies noch Router von kleineren lokalen Carriern Platz, die mit dem großen Nachbarn IP-Daten austauschen. Die PoPs dienen innerhalb des Carrier_netzes als Datendrehscheibe. Um mehr Bandbreite aus einer Faser herhauszuholen, hat sich das "Dense Wavelength Division Multiplexing" (DWDM) durchgesetzt. Dabei werden mehrere Signale multiplex in den Lichtwellenleiter eingespeist. Pro Wellenlänge und Faser lassen sich heutzutage Bitraten von 1 GBit/s bis 40 GBit/s erreichen. Auf dem Weg durch den Lichtwellenleiter wird das Signal gedäpft. Etwa alle hundert Kilometer müssen Repeaterstationen stehen, die mit optischen Faserverstärkern ausgestattet sind. Je nach Bedarf wird bei dieser Gelegenheit auch noch eine Abzweigung eingerichtet, um regionale Kunden zu versorgen. In nahezu jedem modernen Weitverkehrsnetz kommt als Transporttechnik in Europa die "Synchrone Digitale Hierarchie" (SDH) und in den USA der fast deckungsgleiche "Standard Synchronous Optical Network" (SONET) zum Einsatz. Mit einem Zeitmultiplexverfahren werden Nutzdaten in Transport-Container ("Synchrone Transport-Module", STM) verpackt und mit einem Header versehen. Jedes Paket hat je nach Streckenbandbreite eine bestimmte "Byte-Breite", dauert aber stets 125 Nanosekunden. SDH gestattet den Verkauf von Kapazitäten je nach Bandbreite. Im Angebot stehen beispielsweise STM-1 (155 MBit/s), STM-4 (622 MBit/s), STM-16 (2,5 GBit/s) und STM-64 (10 GBit/s). In den USA bietet der SONET-Standard die gleichen Geschwindigkeitsstufen unter anderen Bezeichnungen: Eine STM-4-Leitung entspricht in SONET einer OC-12-Verbindung ("OC = Optical Carrier"), STM-16 entspricht OC-48, usw. Diese Klassifizierung ist für die Provider wichtig. Inoffiziell teilen sich die Unternehmen in "Tier"-Klassen ein (englisch "tier" = Stufe, Rang). "Tier 1" bedeutet über weite Strecken mindestens STM-16, ein autonomes System mit nationaler oder globaler Ausdehnung und rege Beziehungen zu anderen Carriern. "Tier-2"-Anbieter sind deutlich kleiner, und "Tier-3"-Provider verfügen über ein lokal beschränktes Glasfasernetz. Punkt-zu-Punkt-Verbindungen 133

139 Der Betrieb von Austauschknoten oder Transitpunkten benötigt Hardware und Wartung. Daher haben sich weltweit einige große öffentliche Knoten etabliert. Europas größter Knoten ist der "London Internet Exchange"(LINX). An den Knoten können die Provider ihre Daten kostenneutral von einem Netz ins andere leiten ("Commercial Internet Exchange", CIX). Sie sorgen dabei selbst für die Zuführung zum CIX und die Kosten. National existieren kleinere Knoten, in Deutschland beispielsweise der INXS in München, der BCIX in Berlin und der HHCIX in Hamburg sowie der internationam bedeutende DeCIX in Frankfurt (betrieben vom Provider-Verband eco). 141 Carrier und Provider sind dort derzeit angebunden. IP-Routen zwischen London, Paris und Frankfurt Statistiken über die Datenmenge, die durch den DeCIX rauscht erhalten Sie unter Weiterführende Informationen zu diesem Thema: Roland Kiefer, Peter Winterling: Optische Netze, Technik, Trends und Perspektiven, c't 2/03, S. 152 Holger Bleich, Jürgen Kuri, Petra Vogt: Zwischen Boom und Baustopp, Schweinezyklus beim Ausbau der Internet-Backbones, c't 21/03, S. 184 Irene Heinen: Daten-Disponenten, Neue Internet-Knoten verkürzen Wegstrecken auf dem Daten-Highway, c't 25/03, S. 92 Holger Bleich: Bosse der Fasern, Die Infrastruktur des Internet, c't 07/05, S. 88 Voice over IP Der klassische Telefondienst wird heute im Fernbereich, Mobilkommunikation sogar generell über digitale Paketvermittlungsnetzwerke (ATM, Frame-Relay etc.) abgewickelt, auch wenn er natürlich weiterhin leitungsvermittelt zu sein scheint. Die Konvergenz von Internet und Telekommunikation ist Voice over IP 134

140 ein Trend von erheblicher Bedeutung für die gesamte Informatik. Unternehmen mit eigenen Computernetzen und/oder festen Internet-Anschlüssen gehen deshalb dazu über, die TCP/IP-Netze auch zur internen bzw. externen Sprachkommunikation zu nutzen. Die verwendeten Protokolle in der Anwendungsschicht werden unter dem Oberbegriff "Voice-over-IP" (VoIP) zusammengefasst. Durch "Internet-Telefon-Gateways" läßt sich das klassische Telefonnetz mit dem IP-Netz verbinden, so daß von Telefon zu Telefon über das Internet telefoniert werden kann. Bekanntester, aber wenig populärer Ableger ist die Internet-Telefonie. Zwar läßt sich damit billig mit Gesprächspartnern in der ganzen Welt telefonieren, dies müssen lediglich ebenfalls über ein Internet-Telefon oder die entsprechende Software verfügen. Aber da der Datenstrom im Internet unberechenbar ist und es keine Zustellgarantie für Datenpakete gibt, leidet die Sprachqualität. Im eigenen Firmennetz hingegen lassen sich Netzlast, Traffic, Laufzeiten und Verbindungswege kontrollieren. Das ändert zwar nichts daran, daß IP an sich ausschließlich zur Datenübertragung entwickelt wurde. Das IP-Protokoll ist aber wesentlich flexibler, als es ihm viele zutrauen. Firmen können Ihren gesamten internen Telefonverkehr über ihr Intranet kostenlos abwickeln. Privatanwendern und Firmen erschließen sich Kostenersparnisse bei Telefonaten ins Ausland oder zum Mobilfunknetz. Voice over IP stellt die erste Stufe der Konvergenz von Daten und Sprache dar. Die Sprachintegration auf der flexibleren EDV-Infrastruktur auf der Basis von IP bietet sich an. Die Schritte zur integrierten Telefonie bzw. der vollständigen Vereinigung der Kommunikationsplattformen sind: 1. Gemeinsame Infrastruktur In die Telefonapparate werden Netzwerk-Schnittstellen eingebaut. Das Telefon ist somit in die gleichen Services- bzw. Netzumgebung eingebunden wie der PC 2. Gemeinsames Management Die Funktionen der Telefonzentrale werden auf einem PC-Server integriert. Die Verbindung ins öffentliche Telefonnetz erfolgt via Router. Die Sprache wird auf dem Firmennetz gegenüber dem Datenverkehr privilegiert. 3. Gemeinsame Anwendungen Die Interaktion zwischen Daten und Sprache ist nun möglich: Eine Telefonnummer kann mit einer Produkt- oder Kunden-Nummer oder einer Homepage verknüpft werden etc. 4. Mehrwertdienste Die Internet-Telefonie bietet zusätzliche Leistungsmerkmale bei PC-Nutzung z. B. Videoübertragung, Whiteboard oder gemeinsames Bearbeiten von Dokumenten. Bei geringeren Kosten bietet die integrierte Telefonie bessere Leistung und ist bereits sehr stark auf die kommenden Geschäftsanwendungen ausgerichtet. Die Vorteile sind u. a.: Mit dem Zusammenlegen der Infrastruktur und dem Management verringern sich nicht nur die Investitionskosten (nur eine Verkabelung, nur ein Kommunikationsanschluss pro Arbeitsplatz), sondern insbesondere auch die Betriebskosten. Der Unterhalt und Betrieb eines einzigen Service für Sprache und Daten auf einer einzigen Kommunikationsinfrastruktur schlägt gegenüber zwei getrennten Systemen positiv zu Buche. Die lokale Telefonie innerhalb eines Netzwerkes ist gratis. Die Infrastruktur stellt einen lokalen Telefonanbieter dar; es fallen für lokale Gespräche keine Kosten bei einem externen Carrier an. Voice over IP 135

141 Die Auslastung des bestehenden Netzwerkes wird optimiert. Die LAN-Architektur bietet grösstmögliche Flexibilität für Anpassungen an die Unternehmensstruktur. Zu einem kompletten Voice-over-IP-System gehört zunächst einmal eine TK-Anlage auf Softwarebasis. Als Kommunikationszentrale verwaltet sie die Berechtigungen und Profile der Nutzer. Sie stellt Verbindungen her und sorgt für die richtige Zuordnung, ohne daß die eigentliche Kommunikation über sie läuft. Der IP-Gateway ist der Mittler zwischen IP-Telefonie und der bisher genutzten Telefontechnologie wie etwa ISDN. Am Ende der Leitung im VoIP-Netz steht entweder ein IP-Telefon oder ein Computer mit Sound-Karte und IP-Telefonie-Software. Für die Sprachein- und -ausgabe wird ein Headset verwendet. Herkömmliche Telefone lassen sich aber mit einer Adapterkarte ebenso computertauglich anschließen. Bei Datenpaketen kommt es nicht so sehr darauf an, in welcher Reihenfolge und mit welcher Verzögerung sie übertragen werden. Der Empfänger speichert die eingehenden Pakete und setzt sie wieder in der richtigen Reihenfolge zusammen. Wird ein Paket beschädigt oder geht verloren, wird es erneut gesendet. Das funktioniert nicht bei zeitsynchronen Daten wie Sprache oder Video. Deshalb wurden im neuen IP-Standard, IPv6, zwei neue Sub-Standards implementiert: das Reservation Protocol (RSVP) und das Realtime Transport Protocol (RTP). RSVP erlaubt zwei Endpunkten einer Verbindung, bestimmte Parameter auszuhandeln, darunter eine maximale Verzögerung (Delay) und einen minimalen Durchsatz. Das IP-Netz garantiert mittels verschiedener Verfahren, daß diese als "Flowspec" bezeichneten Quality of Service (QoS) eingehalten werden. Am sichersten funktioniert das unter Verwendung des "Guaranteed-Service"-Verfahrens. Hierbei wird anderer Traffic im Netz unterbunden, sobald dieser die Flowspec gefährden könnte. Diesem starren, aber effizienten Verfahren steht "Controlled Load" gegenüber. Hierbei dürfen auch andere Stationen IP-Pakete solange senden, wie eine mittels Flowspec ausgehandelte Verbindung keine Beeinträchtigung in den vorgegebenen Parametern feststellt. "Controlled Load" bietet also mehr Dynamik und lastet das IP-Netz insgesamt besser aus. Ein Vorurteil ist, daß für Voice over IP Anwendungen bestimmte IP-Pakete mit Sprachdaten mittels RSVP priorisiert werden. Das stimmt nicht. RSVP dient nur zum Aushandeln und Überwachen der Verbindungsparameter. IP-Sprachpakete werden zwar in den meisten IP-Netzen von Routern und Switches vorrangig behandelt, allerdings ist diese Priorisierung meist herstellerabhängig und somit proprietär. Das birgt Probleme, wenn Voice over IP 136

142 Netzkomponenten unterschiedlicher Hersteller im IP-LAN Voice-Daten transportieren soll. Dem soll RTP entgegenwirken. Jedes IP-Paket erhält seit IP 6 zusätzlich einen Zeitstempel (Time Stamp) mit der Entstehungszeit sowie eine Folgenummer (Sequence Information). Dies erlaubt es dem Empfänger, Pakete nicht nur in richtiger Reihenfolge, sondern auch zeitsynchron zusammenzusetzen. Das Real Time Control Protocol (RTCP) koordiniert zudem Sender- und Empfängerprotokolle und sorgt für Monitoring und Management von Echtzeitverbindungen. Außerdem definiert RTP die Kodierung von Audiosignalen nach G.711 sowie G.723. Hierbei handelt es sich um Codecs (Coding/Decoding), die von der ITU zur analogen und digitalen Verschlüsselung von Sprache in Telefonnetzen definiert wurden. G.711 entspricht in etwa dem ISDN-Standard, Sprachdaten werden mit einem Datenstrom von 64 kbit pro Sekunde übertragen. Für Voice over IP kommt G.711 jedoch nicht zum Einsatz, da sich die Datenlast durch zusätzliche Komprimierung und bessere Abtastverfahren auf bis zu 9,6 kbps drücken läßt (dies entspricht dem GSM-Standard). Verbreitet ist vor allem das CELP-Verfahren (Codebook Excited Linear Predictive Coding), das mit einem komplizierten mathematischen Modell der menschlichen Sprache arbeitet. Als Ergebnis entsteht ein Datenstrom von 16 kbit pro Sekunde, der Telefonate in ISDN-Sprachqualität überträgt. Kombiniert mit Dualrate Speech Coding, definiert im G.723-Standard, genügt sogar ein Datenstrom von nur 5,3 kbps. Außer der geringeren Netzlast bringt dies den Vorteil, daß sich mehr Pakete puffern lassen, ohne die Echtzeitbedingung zu gefährden. Die Qualität der Sprachübertragung im IP-Netz gewinnt also, je kleiner die Datenrate für einen Sprachkanal ist. Ein weiterer wichtiger Standard für Voice over IP kommt vom Videoconferencing. H.323 umfaßt sowohl eine Codec-Technologie (wie G.723) wie auch die Signalisierung und Verbindungssteuerung für Videokonferenzsysteme. Für IP-Telefonie wurden Teile des H.323-Standards übernommen. Über eine TCP-Verbindung wird zwischen Sender und Empfänger das Signalisierungsprotokoll H.245 ausgehandelt. Dies zeigt eingehende Rufe an und übermittelt Statusinformationen. Die Datenübertragung selbst erfolgt über UDP. TCP-Pakete werden dadurch bei jedem Hop auf Fehler kontrolliert und gegebenenfalls korrigiert beziehungsweise zurückgewiesen. UDP läßt diese Kontrolle aus, UDP-Pakete erreichen den Empfänger also schneller. Dafür muß der sich selbst um Fehlerkorrektur bemühen. Voice over IP kodiert hierzu entweder im selben Paket oder im Folgepaket Redundanz, aus der sich ein beschädigtes Paket beim Empfänger reparieren läßt, womit ein erneutes Senden defekter IP-Pakete vermieden wird. Zusätzlich erfolgt die Verbindungssteuerung einer Sprachübertragung im IP-Netz gemäß H.323 mit einem Q.931-konformen Signalisierungskanal. Dieser steuert die Sprachverbindung und ist für Funktionen wie etwa Makeln oder Rufnummernübermittlung zuständig. Um Voice over IP im LAN einzuführen, müssen sämtliche Switches und Router die entsprechenden Protokolle von IPv6 auf dem ISO/OSI-Level 3 unterstützen. Wichtig sind vor allem die Verarbeitung von RTP sowie die Unterstützung von RSVP. Für Konferenzen und Videodaten (die mittels der selben Verfahren wie Sprache übertragen werden), wird außerdem das relativ neue IP-Multicast genutzt. Dabei kopiert eine Netzkomponente einen eingehenden Datenstrom eigenständig und sendet ihn an alle Empfänger weiter. Dies vermeidet zusätzliche Datenkanäle zwischen dem Ursprung der Übertragung und jedem Empfänger. Statt dessen wird der Datenfluß an beliebiger Stelle im Netz dupliziert. Mittlerweile gibt es erste Ethernet-Telefone. Diese werden statt an eine Telefondose an eine RJ-45-Buchse eines Ethernet-Hubs angeschlossen. Alternative hierzu bieten sich CTI oder Wandlerkarten an. Auch etliche DSL-Router ermöglichen den Anschluß von herkömmlichen Analogtelefonen oder dienen sogar als Telefonanlage. Aber auch die Telefonie direkt am PC mit einem Headset und passender Software ist möglich (sogenanntes Softphone). VoIP läuft so zuverlässig wie die Internetverbindung selbst. Generell besteht damit kein Unterschied Voice over IP 137

143 zur Festnetzanschluss. Auch können Gespräche in die Fest- und Mobilfunknetz geführt und entgegengenommen werden. Dazu erhalten Nutzer beim VoIP-Provider kostenlos ihre Ortsrufnummer, der auch die Notrufe 110 und 112 bereitstellt. Bei Voice-over-IP (VoIP) bestehen Sicherheitsmängel, die sich aus der Internetnutzung ergeben. Telefonate von VoIP-Nutzern lassen sich innerhalb lokaler Netze mit Hilfe von Software-Tools (Paket Sniffern) abhören und Rufnummern ausspionieren. VoIP-Adapter und -Telefone sind empfindlich gegenüber Hacker-Attacken, insbesindere Denial-of-Service-Angriffen. Generell sollte auch die Konfigurationsoberfläche der VoIP-Hardware durch ein Passwort geschützt werden. Eindringlinge könnten sonst bestehende Guthaben abtelefonieren und eingehende Anrufe entgegennehmen. Im Gegensatz zur SPAM-Problematik bei ist unerwünschte Werbung über VoIP, sogenannter SPIT, derzeit noch kein Problem. Gegenüber ist der VoIP-Bereich nicht offen zugänglich, sondern abgeschottet. Realisiert wird dies durch die genaue Zuordnung der VoIP-Rufnummern. Jeder Nutzer ist damit dem VoIP-Provider bekannt. Anrufe, die außerhalb dieser vertrauenswürdigen Netze initiiert werden, sind nicht kostenlos und deshalb uninteressant für SPITTER. Ein Problem stellt die Signalisierung zwischen den einzelnen Telefonanbietern dar, die gewissermaßen "auf Vertrauensbasis" abläft. Überwindet ein Hacker die Signalisierungsprotokolle, kann er so ziemlich alles machen was er will. Powerline Communications die Stromleitung ist das Netzwerk Grundlagen Computernetze Powerline Communications erlaubt die Obertragung von Daten mit Geschwindigkeiten von mehr als einem Mbit/s bis zum Endbenutzer über das Niederspannungs-Energieverteilnetz. Mit dieser Übertragungstechnik wird eine echte Alternative für die sogenannte "Letzte Meile" geschaffen. Mit der Powerline Communications Systemlösung von Siemens können Energieversorgungsunternehmen (EVU) und Stadtwerke vor allem den privaten Stromkunden neue Dienste wie beispielsweise "Internet aus der Steckdose" sowie Energie- und Mehrwertdienste auf eigener Infrastruktur anbieten. Das Stromverteilnetz ist die weltweit größte flächendeckende Kabelinfrastruktur bis in jeden Haushalt. Die bisher ausschließlich für die Energieversorgung genutzte Verkabelung ist im deregulierten Telekommunikationsmarkt der Schlüssel für den direkten Zugang zum privaten Kunden. Die EVUs können ihr existierendes Stromnetz für neue Dienstangebote nutzen und sich dadurch neue Einnahmequellen erschließen. Auf Basis der PLC Kommunikationsinfrastruktur werden EVUs weitere Anwendungen zur Effizienzsteigerung (z.b. Lastmanagement) und zusätzliche Dienste (z.b. Security, Fernüberwachung) entwickeln und so ihre Wettbewerbsposition in deregulierten Energiemärkten verbessern. Im Unterschied zu anderen Lösungsansätzen ermöglicht die Powerline Communications Lösung von Siemens die Nutzung des Niederspannungsnetzes bis zur Steckdose im Haushalt. Über das Stromnetz können zusätzlich zur Energie gleichzeitig Daten und Sprache übertragen werden. Bitraten von mehr als einem Mbit/s machen aus jeder Steckdose einen leistungsfähigen Kommunikationsanschluß. In die Lösung ist ein intelligentes Bandbreitenmanagement implementiert, das ermöglicht, den Benutzern je nach Bedarf Bandbreite zur Verfügung zu stellen. Siemens entwickelte für Powerline Communications ein neues, für das besondere Übertragungsverhalten des Stromnetzes optimiertes Übertragungsverfahren. Das Verfahren (Orthogonal Frequency Division Multiplexing, OFDM) ermöglicht hohe Datenraten selbst bei starken Störungen auf dem Energienetz. Die Siemens AG, Bereich Information and Communication Networks und der Schweizer Hersteller von Telekommunikationsausrüstung Ascom wollen die Entwicklung der breitbandigen Powerline Communications (PLC)-Technik für den Einsatz auf dem Niederspannungsnetz gemeinsam weiter vorantreiben. Beide Unternehmen führen Gespräche, um offene Fragen für die Regulierung zu klären und Spezifikationen für gemeinsame Schnittstellen zu erstellen. Heute gibt es bereits erste Feldversuche und Labormuster für die neue Technik. Aus Kundensicht sind die derzeit auf dem Markt angebotenen proprietären Lösungen jedoch nicht zufriedenstellend. Denn ein breiter Einsatz dieser PLC-Technik wird heute weniger durch den noch frühen Entwicklungsstand, als durch die nicht Powerline Communications 138

144 vorhandene Kompatibilität der Lösungen behindert. HomePlug: PC-Vernetzung über die Stromleitung "Power-Line-Communications" ist dezeit relativ tot, aber seit 2002 gibt es etwas Neues, die "Home-Plug-Technologie" wieder. Mit der Powerline-Technologie hat Home-Plug wenig zu tun. Jedoch haben die technischen Grundprinzipien eine neue und sinnvole Anwendung gefunden: Rechner über existierende 230-V-Leitungen im Haus miteinander zu vernetzen. Etliche Unternehmen bieten entsprechende Adapter an, die alle ähnlich arbeiten. Bei der Develo AG heißt das Teil "Micro-Link-DLAN" und sieht aus wie ein Steckernetzteil. Die Home-Plug-Technologie nutzt die bestehenden 230-V-Leitungen im Haus für die Datenübertragung. Mit einer maximalen Datenübertragungsrate von 14 Mbit/s und synchronem Up- und Download ist Home-Plug auch recht flott. In der Praxis lassen sich - je nach Leitungsqualität - Bandbreiten zwischen 5 Mbit/s und 7 Mbit/s gewährleisten, was z. B.für die Verlängerung des DSL-Anschlusses in jedes Zimmer eines Hauses völlig ausreicht. Je nach Dämpfungsfaktor der Elektroinstallation lassen sich mit MicrolinkDLAN (Direct-LAN) Entfernungen bis 200 m überbrücken und beliebig viele Computer anschließen. Zusätzliche Geräte sind nicht notwendig, da die Phasenkopplung durch ein "Übersprechen" stattfindet. Die Installation der DLAN-Komponenten gestaltet sich einfach: Über den DLAN-Adapter verbindet man eine Netzkomponente an die nächstgelegene Steckdose, und sofort lässt sich jede andere beliebige Stromsteckdose im Haus als Netzwerkzugang verwenden. Ein Ethernet- oder ein USB-Kabel - je nach Modell - koppelt den PC an einen weiteren Micro-Link-DLAN-Adapter, dessen Stecker die Verbindung zum Heimnetz herstellt. Auf Grund automatischen Frequenzwechsels unterdrückt das System Einflüsse in der Datenübertragung durch aktive und Störungen ins Stromnetz sendende Haushaltsgeräte wie Waschmaschinen oder Kühlschränke. Im Unterschied zu drahtlosen Funknetzen wirkt bei HomePlug der Stromzähler im Haus als Sperre gegen unerwünschten Zugriff von außen (Signal wird stark gedäpft). Zusätzliche Sicherheit bietet eine leistungsfähige DES-Verschlüsselung (Datenverschlüsselung in Übertragungssystemen). Die Geräte sind kompatibel zum Home-Plug-Standard 1.0. Im vergangenen Jahr verabschiedete die Home-Plug-Powerline-Alliance diesen Standard, zu deren weltweit über 100 Mitgliedern unter die Stromleitung ist das Netzwerk 139

145 anderem Compaq, Intel, Motorola, AMD, Cisco Systems, 3Com, Panasonic und Texas Instruments gehören. Die von der DLAN-Technik verwendeten Frequenzen liegen im Bereich von 4 MHz bis 21 MHz, somit werden die Rundfunkbänder nicht gestört (520 khz bis 1605 khz = Mittelwelle; 150 khz bis 285 khz = Langwelle; 87,20 MHz bis 108,00 MHz = UKW). Die Technik basiert auf dem Home-Plug-Standard, in dem die Sendepegel speziell in einigen Amateurfunkbändern abgesenkt sind. "Abgesenkt" heiß aber, daß das Signal ist in der Nähe durchaus noch feststellbar ist, teilweise sogar in störender Stärke. Übrigens betrifft die Absenkung nur die klassischen KW-Amateurfunk-Bänder 40m, 20m und 15m. Die seit einigen Jahren im Bereich 4 bis 21 MHz zusätzlich erlaubten Blöcke (30m und 17m) sehen keine Absenkung. Wenn sich DRM (www.drm.org) weiter ausbreitet, dürften sich auch die neuen Kurzwellendigitalrundfunkhörer über PLC ärgern - ebenso die Minderheit der Fernempfangsfreaks. Obwohl Home-Plug von der Leistungsfähigkeit herkömmlicher Ethernet-Verbindungen noch ein gutes Stück entfernt ist, stellt es für viele Gebiete eine interessante Alternative dar. Auch gegenüber Wireless-LAN bietet diese Technologie einige Vorteile. In der Praxis hängt die erreichbare Übertragungsgeschwindigkeit allerdings vom Zustand der Elektroinstallation im Haus und der Ausstattung der Steckdosen ab. Hier ist dann das Know-how des Elektroinstallateurs gefragt. Funk-LAN-Technologie Grundlagen Computernetze Die Möglichkeit, Computer drahtlos zu vernetzen, ist auf den ersten Blick verlockend, konnte sich aber im Vergleich zu kabelgebundenen Lösungen bisher nur für einige Spezialaufgaben durchsetzen. Das hat vor allem folgende Gründe: Drahtlose Netzwerk-Adapter sind erheblich langsamer als herkömmliche Netzwerkkarten. Selten wird eine Geschwindigkeit von mehr als 22 MBit/s erreicht, meist erheblich weniger. Innerhalb der Reichweite (je nach Gebäudestruktur etwa m) teilen sich die drahtlos vernetzten Computer die Übertragungsleistung. Die Netto-Geschwindigkeit sinkt dadurch weiter. Die Kosten für drahtlose Adapter liegen über jenen für konventionelle 10-MBit/s-Netzwerkkarten. Bei den meisten Lösungen sind zusätzliche teure "Access Points" nötig, die die Schnittstelle zwischen einem Kabel-Netzwerk und drahtlosen Workstations darstellen. Die ersten "Radio LANs" arbeiteten überwiegend mit dem gegenüber Störungen relativ unempfindlichen Spread-Spectrum-Verfahren, bei dem die Daten auf viele Trägerfrequenzen verteilt werden, typisch auf einen Bereich von 20 MHz bei einer Datenrate von 2 MBit/s. Das Spreizen des Signals erfolgte entweder mit dem Zufallssystem Direct Sequence Spread Spectrum (DSSS) oder durch das zyklische Springen zwischen mehreren Frequenzbändern (FHSS, Frequency Hopping Spread Spectrum). Sicherheitshalber werden die Daten verschlüsselt. Technisch entsprechen diese Netze einem Bus-System ohne Kabel oder die Schnurlos-Stationen bilden zusammen eine Bridge. Seit 1997 werden Funk-LANs mit 1 oder 2 MBit/s im 2,4-GHz-Bereich mit der Norm IEEE standardisiert. Als Sendeleistung ist maximal 1 Watt vorgesehen. Die Reichweite innerhalb von Gebäuden beträgt etwa 50 m, außerhalb davon einige hundert Meter. Neuere Entwicklungen erreichen bei 19 GHz bis zu 10 MBit/s, allerdings bei deutlich kleinerer Reichweite. Funk-LAN-Technologie 140

146 Mit IEEE (Teil der Standardisierungsbemühungen des IEEE-802-Komitees, zuständig für lokale Netzwerktechnologien) ist 1997 ein erster Standard für Funk-LAN-Produkte geschaffen worden. Mitte 1997 wurde der erste IEEE Standard (2 Mbit/s Funk-LAN-Technologie) veröffentlicht, welcher dann, im Oktober 1999, mit IEEE b (High Rate) um einen Standard für 11-Mbit/s-Technologie erweitert wurde. Der IEEE Standard beschreibt die Übertragungsprotokolle bzw. Verfahren für zwei unterschiedliche Arten, Funk-Netzwerke zu betreiben. Der Standard basiert auf CSMA/CA (Carrier Sense Multiple Access with Collision Avoidance). Der WLAN Standard ist ähnlich aufgebaut wie der Ethernet-Standard (CSMA/CD), versucht aber, Kollisionen zu minimieren. Der Grund liegt darin, daß z.b. zwei mobile Einheiten zwar von einem Access Point erreicht werden, sich aber gegenseitig nicht "hören". Damit kann die wirkliche Verfügbarkeit des Access Points nicht in jedem Fall erkannt werden. Wie bei CSMA/CD hören alle teilnehmenden Stationen den Verkehr auf dem Funkkanal mit. Wenn eine Station übertragen will, wartet sie, bis das Medium frei ist. Danach wartet sie noch eine vorbestimmte Zeitperiode (DIFS) plus einer zufällig gewählten Zeitspanne, bevor sie ihren Frame übertragen will. Auch in dieser Zeitspanne (Wettbewerbsfenster) wird der Funkkanal weiter überwacht. Wenn keine andere Station innerhalb des Wettbewerbsfensters vor dem gewählten Zeitpunkt mit der Übertragung beginnt, sendet die Station ihren Frame. Hat aber eine andere Station Funk-LAN-Technologie 141

147 innerhalb der Wartezeit mit der Übertragung begonnen, wird der Zeitzähler angehalten und nach der Übertragung der anderen Station weiter benutzt. Auf diese Weise gewinnen Stationen, die nicht übertragen durften, an Priorität und kommen mit einer erhöhten Wahrscheinlichkeit in den nächsten Wettbewerbsfenstern zum Zug. Eine Kollision kann nur entstehen, wenn zwei oder mehrere Stationen den gleichen Zeitslot auswählen. Diese Stationen müssen die Wettbewerbsprozedur erneut durchlaufen. Funknetz-Szenarien Grundlagen Computernetze Das erste Funk-Netz-Szenario beschreibt die Kommunikation in einfachen "Ad-hoc"-Netzwerken. Hierbei sind mehrere Arbeitsrechner in einem begrenzten Sendebereich miteinander verbunden. Zentrale Übermittlungs- bzw. Kontrollsysteme, sogenannte "Access-Points" sind bei diesem Anwendungsfall nicht vorgesehen. Ein derartiges "Ad-hoc" Netzwerk könnte zum Beispiel zwischen den tragbaren Computersystemen während einer Besprechung in einem Konferenzraum aufgebaut werden. Im zweiten Anwendungsfall, dem sogenannten "Infratruktur-Modus", kommen "Access-Points" zum Einsatz. Bei diesen Geräten handelt es sich um Netzwerkkomponenten, welche die Kommunikation innerhalb eines Funk-LANs, zwischen einzelnen Funk-LAN-Zellen und die Verbindung zwischen Funk-LANs und herkömmlichen LANs (Kabel basierend) ermöglichen und kontrollieren. Access-Points regeln die "gerechte" Verteilung der zur Verfügung stehenden Übertragungszeit im Funk-Netzwerk. Des Weiteren ermöglichen diese Komponenten mobilen Arbeitsstationen das unterbrechungsfreie Wechseln (Roaming) von einer Funk-LAN-Zelle in die Nächste. Verschiedene Systeme können mittels einer speziellen Frequenzwahl bis zu acht unterschiedliche Kanäle im Frequenzband alternativ oder teilweise auch gleichzeitig nutzen. Durch dieses Verfahren können in bestimmten Fällen z. B. auch durch Störungen belastete Frequenzen umgangen werden, um so die Übertragung zu sichern. Des weiteren können durch den Einsatz mehrere Accesspoints parallele Funkzellen auf unterschiedlichen Frequenzen aufgebaut werden und so die Gesamtübertragungskapazität eines WLANs erweitern. Die dadurch entstehende Möglichkeit unterschiedliche Frequenzen zur Datenübertragung mit getrennten Benutzergruppen zu nutzen, kann den Datendurchsatz in einem solchen Funknetz vervielfachen, da die einzelnen Frequenzsegmente jeweils die volle Bandbreite für den Datenstrom zur Verfügung stellen. Eine wichtige Frage, die sich im Hinblick auf den Einsatz von Funk-Technologie immer wieder stellt, ist die mögliche gegenseitige Störung von elektronischen Geräten (nicht nur von Funk-Sendern und Funknetz-Szenarien 142

148 Empfängern). Oftmals werden sogar Bedenken zu einem möglichen Gesundheitsrisiko durch die Nutzung von auf Funk basierenden Produkten geäußert. Auf Funk basierende Geräte müssen einer Vielzahl von Standards und strengen gesetzlichen Richtlinien entsprechen, die sicherstellen, daß die Beeinflussung zwischen verschiedenen auf Funk basierenden Geräten und auch anderen elektronischen Geräten entweder unmöglich ist, oder die festgelegten Grenzwerte nicht überschreiten, welche die internationalen und nationalen bzw. europäischen Standardisierungs-Gremien festlegen. Alle in Deutschland zugelassenen WLAN Systeme benutzen ein offiziell für industrielle und andere Zwecke reserviertes ISM-Frequenzband (Industrial Scientific Media) zwischen 2,400 und 2,483 GHz und übertragen durch Nutzung eines Teils der darin verfügbaren Frequenzen mit Datenraten von bis zu 11 Mbps (802.11b) oder 22 Mbps (802.11g). Der Standard a beschreibt Systeme, die im 5-GHz-Band betrieben werden und Brutto-Datenraten bis zu 54 Mbps ermöglichen. Im 5-GHz-Band steht ein größeres Frequenzband zur Verfügung - und damit mehr Kanäle. Wichtig ist auch, daß dieses Band ausschließlich für WLAN reserviert ist. Die Kanäle von b und ihre Frequenzen. Kanal Grundlagen Computernetze Mittenfrequenz (GHz) Kanal Die Abstufung erfolgt in 5 MHz Schritten (ausgenommen Kanal 14). In den USA sind die Kanäle 1-11 verfügbar. In Europa sind die Kanäle 1-13 verfügbar. In Frankreich sind die Kanäle verfügbar. In Japan ist Kanal 14 verfügbar. Mittenfrequenz (GHz) Da Funk-LAN-Produkte speziell für den Einsatz in Büros und anderen Arbeitsumgebungen entwickelt wurden, senden sie auch mit einer entsprechend niedrigen, gesundheitlich unbedenklichen Leistung. Diese Leistung liegt unter einem maximalen Wert von 100 mw und damit z. B. signifikant unter der Sendeleistung von gebräuchlichen GSM Telefonen (ca. 2 W bei Geräten GSM Klasse 4, d. h. Frequenzbereich MHz). Erhöhte Gesundheitsrisiken konnten deshalb beim Umgang mit Funk-LANs im 2.4 GHz Frequenzband nicht festgestellt werden. Die größten Bedenken gelten üblicherweise der Technologie Funk selbst. Aber unberechtigtes "Mithören" erweist sich in der Praxis sogar als wesentlich schwieriger und aufwendiger als bei herkömmlichen auf Kupferkabeln basierenden Netzwerken. Sogenannte "Walls" sichern den Datenverkehr mittels eines Verfahrens zur Bandspreizung (Spread-Spectrum, SS) gegen Abhören und Störungen, dieses Verfahren entspricht einer komplexen Kodierung, die ein Abhören schon durch die eingesetzten technischen Prinzipien sehr schwer macht. Alle z. Zt. bekannten zugelassenen WLAN Systeme setzen zwei verschiedene Techniken ein, das sogenannte Direct Sequence SS (DSSS) und das Frequency Hopping SS (FHSS) Prinzip. Funknetz-Szenarien 143

149 Direct Sequence SS verschlüsselt jedes Bit in eine Bitfolge, den Chip, und sendet diesen auf das Frequenzband aufgespreizt. Für unbefugte Lauscher verschwindet das Signal dadurch im Hintergrundrauschen, erst der autorisierte Empfänger kann es wieder ausfiltern. Das DSSS System ist unempfindlicher gegen Störungen und hat sich als Lösung mit den meisten installierten Geräten in diesem Markt durchgesetzt. Beim Frequence Hopping vereinbaren Sender und Empfänger während des Verbindungsaufbaus eine Folge, nach der einige Male pro Sekunde die Sendefrequenz umgeschaltet wird. Ein nicht autorisierter Zuhörer kann diesen Sprüngen nicht folgen, die Synchronisation zwischen Sender und Empfänger bedeutet jedoch zusätzlichen Ballast (Overhead) in der Datenübertragung. Um das komplette Signal erfolgreich empfangen und interpretieren zu können, muß der Empfänger den korrekten Entschlüsselungsalgorithmus kennen. Daten während der Übertragung abzufangen und zu entschlüsseln wird dadurch recht schwierig. Die Sicherheit von Funk-LAN-Produkten beschränkt sich selbstverständlich nicht nur auf die Wahl von DSSS als Übertragungsverfahren. So sieht der IEEE Standard optional auch verschiedene Methoden für Authentisierung und Verschlüsselung vor. Unter Authentisierung versteht man dabei all jene Mechanismen mit denen überprüft bzw. kontrolliert wird, welche Verbindungen im Funk-LAN zulässig sind. Mit der zusätzlichen Verschlüsselungstechnik WEP (Wired Equivalent Privacy), welche auf dem RC4-Verschlüsselungsalgorithmus basiert, wird ein Sicherheitsniveau erreicht, welches dem herkömmlicher LAN-Technologien mehr als entspricht. Als weitere sehr flexible Sicherheitsfunktion, erweisen sich auch Filter auf MAC-Adress-Ebene, die im Access-Point konfiguriert werden können. Über diese Filter kann die Kommunikation über den Access-Point sehr wirkungsvoll gesteuert werden. Funk-LAN-Technologie und -Produkte ergänzen in idealer Weise die "klassischen" LAN-Lösungen. Die Bandbreite wird jedoch dann zu einem entscheidenden Faktor beim Einsatz von Funk-LAN-Installationen, wenn eine große Anzahl von Arbeitsstationen angebunden werden soll und der Einsatz sehr "bandbreitenintensiver" Multimedia-Anwendungen geplant ist. Man sollte nicht übersehen, daß Funk-LAN-Technologie sich wie jedes andere "Shared-Medium" verhält und damit sehr ähnlich zu Ethernet-Lösungen ist. Funknetz-Szenarien 144

150 Ein weiterer wichtiger, zu beachtender Aspekt bei Planung und Einsatz von Funk-LAN-Lösungen, liegt in den oftmals schwer einschätzbaren Umgebungseinflüssen, welche die Übertragungsqualität und Übertragungsreichweite vermindern können. So können Reichweite und Qualität der Übertragung nicht nur durch die Positionierung und Anordnung der Arbeitsstationen und Access-Points beeinflusst werden, sondern es entsteht auch eine, zum Teil gravierende, Beeinträchtigung durch die zu durchdringenden Hindernisse (Ziegelwände, Stahlbeton, etc.). Für die Realisierung eines Funk-Lan stehen zwei Betriebsarten zur Verfügung: Im Infrastructure Mode hingegen vermittelt eine spezielle Basisstation, Access Point genannt, zwischen den Clients. Er dient zum einen als Bridge zum drahtgebundenen Netz, vermittelt also Pakete zwischen den Netzen hin und her. Zum anderen arbeitet ein Access Point als Repeater, das heißt er empfängt die Pakete der Stationen und leitet sie an andere weiter - dabei sinkt natürlich der Durchsatz. Letztlich kann ein Access Point die Reichweite verdoppeln, wenn er zentral aufgestellt ist: Er lässt zwei Stationen miteinander kommunizieren, die so weit voneinander entfernt stehen, daß sie sich im Ad-hoc-Modus nicht "sehen" könnten. Bei der Raumabdeckung ist mit einem Radius von rund 50 Metern zu rechnen, innerhalb dessen sich die mobilen Stationen um einen Access-Point bewegen können. Im Ad-hoc-Modus kommunizieren die Stationen direkt miteinander. Im Grunde genommen handelt es sich um Punkt-zu-Punkt-Verbindungen, da aber jeder Rechner mehrere dieser Verbindungen unterhalten kann, spielt das praktisch keine Rolle. Mit einer Ausnahme: Es ist möglich, daß weit voneinander entfernte Stationen einander nicht "sehen" können, beide sehr wohl aber eine dritte Station dazwischen. Der Ad-hoc-Modus ist letztlich am besten geeignet, wenn man gar kein großes Funknetz aufbauen will, sondern nur zwei Netze oder Systeme verbinden will. Der Ad-hoc-Modus hat aber Haken: Viele Hersteller haben dieser Betriebsart anfangs wenig Aufmerksamkeit gewidmet und statt der verabschiedeten Standards proprietäre Verfahren implementiert. So kann es sein, daß die Karten zweier Hersteller im Ad-hoc-Modus nicht zueinander finden. Zur Inbetriebnahme eines Ad-hoc-Netzes muß man auf allen Clients einen einheitlichen Namen für das Funknetz einstellen. Bei einem Netz mit Access Point reicht es hingegen, dort den gewünschten Namen einzutragen; bei der Einstellung "any" auf den Clients erhalten diese automatisch den Namen übermittelt. Unter Umständen kann es im Ad-hoc-Netz Sinn machen, den Kanal vorzugeben, auf dem die Stationen funken sollen; im Normalfall finden sie aber selbstständig einen gemeinsamen Kanal. Eine gute Hilfestellung bietet die Software, die viele Hersteller ihren Funkkarten beilegen. Funknetz-Szenarien 145

Grundlagen Computernetze Einführung in die Welt der Rechnernetze

Grundlagen Computernetze Einführung in die Welt der Rechnernetze BENG-TKI 2005 Grundlagen Computernetze Einführung in die Welt der Rechnernetze Prof. Jürgen Plate 15.03.2005 2 Grundlagen Computernetze Inhaltsverzeichnis 1. Einführung... 5 1.1 Einführung... 5 1.2 ISO-Referenzmodell

Mehr

Fachbereich Medienproduktion

Fachbereich Medienproduktion Fachbereich Medienproduktion Herzlich willkommen zur Vorlesung im Studienfach: Grundlagen der Informatik I USB Universal serial bus (USB) Serielle Datenübertragung Punkt-zu-Punkt Verbindungen Daten und

Mehr

Gigabit Ethernet. Technische Daten: Standart 802.3z. Aspekte für Gigabit Ethernet

Gigabit Ethernet. Technische Daten: Standart 802.3z. Aspekte für Gigabit Ethernet Standart 802.3z Gigabit Ethernet Aspekte für Gigabit Ethernet 80% aller Installationen im LAN-Bereich sind Ethernet-Installationen hohe Zuverlässigkeit entscheidet im Unternehmenseinsatz alle vorhandenen

Mehr

Breitband ISDN Lokale Netze Internet WS 2009/10. Martin Werner, November 09 1

Breitband ISDN Lokale Netze Internet WS 2009/10. Martin Werner, November 09 1 Telekommunikationsnetze 2 Breitband ISDN Lokale Netze Internet Martin Werner WS 2009/10 Martin Werner, November 09 1 Breitband-ISDN Ziele Flexibler Netzzugang Dynamische Bitratenzuteilung Effiziente Vermittlung

Mehr

Das Ethernet. Geschichtlicher Hintergrund und Entwicklung des Ethernet

Das Ethernet. Geschichtlicher Hintergrund und Entwicklung des Ethernet Das Ethernet Definition Ethernet Ethernet ist eine herstellerunabhängige und sehr weit verbreitete Netzwerktechnologie zur Datenübertragung in lokalen Netzwerken (LANs). Die Grundlage für das Ethernet

Mehr

Internetworking. Motivation für Internetworking. Übersicht. Situation: viele heterogene Netzwerke

Internetworking. Motivation für Internetworking. Übersicht. Situation: viele heterogene Netzwerke Internetworking Motivation für Internetworking Übersicht Repeater Bridge (Brücke) Verbindung zwischen zwei gleichen LANs Verbindung zwischen zwei LANs nach IEEE 802.x Verbindung zwischen mehreren LANs

Mehr

IP Adressen & Subnetzmasken

IP Adressen & Subnetzmasken IP Adressen & Subnetzmasken Jörn Stuphorn stuphorn@rvs.uni-bielefeld.de Universität Bielefeld Technische Fakultät Stand der Veranstaltung 13. April 2005 Unix-Umgebung 20. April 2005 Unix-Umgebung 27. April

Mehr

1976 im Xerox Palo Alto Research Center entwickelt 1980 erster Standard von Xerox, DEC und Intel 1983 erster IEEE Standard 802.3

1976 im Xerox Palo Alto Research Center entwickelt 1980 erster Standard von Xerox, DEC und Intel 1983 erster IEEE Standard 802.3 4 Ethernet weltweit sehr verbreitete LAN-Technologie historische Entwicklung: 1976 im Xerox Palo Alto Research Center entwickelt 1980 erster Standard von Xerox, DEC und Intel 1983 erster IEEE Standard

Mehr

TCP/IP-Protokollfamilie

TCP/IP-Protokollfamilie TCP/IP-Protokollfamilie Internet-Protokolle Mit den Internet-Protokollen kann man via LAN- oder WAN kommunizieren. Die bekanntesten Internet-Protokolle sind das Transmission Control Protokoll (TCP) und

Mehr

Modul 4: Fast und Gigabit Ethernet

Modul 4: Fast und Gigabit Ethernet Modul 4: Fast und Gigabit Ethernet M. Leischner // K. Uhde Netze SS 2010 Folie 1 Ethernet: Namensregelung Beispiele: 10Base-T, 100Base-Fx, 10GBase-T Der Name enthält 3 Bereiche Der erste Bereich gibt die

Mehr

Hochverfügbares Ethernet MRP - Media Redundancy Protocol

Hochverfügbares Ethernet MRP - Media Redundancy Protocol Hochverfügbares Ethernet MRP - Media Redundancy Protocol Hirschmann Automation and Control GmbH Dipl.- Ing. Dirk Mohl 1 25.01.07 - ITG Automation Übersicht Netzwerke und Redundanztypen Rapid Spanning Tree

Mehr

Chapter 9 TCP/IP-Protokoll Protokoll und IP-Adressierung. CCNA 1 version 3.0 Wolfgang Riggert,, FH Flensburg auf der Grundlage von

Chapter 9 TCP/IP-Protokoll Protokoll und IP-Adressierung. CCNA 1 version 3.0 Wolfgang Riggert,, FH Flensburg auf der Grundlage von Chapter 9 TCP/IP-Protokoll Protokoll und IP-Adressierung CCNA 1 version 3.0 Wolfgang Riggert,, FH Flensburg auf der Grundlage von Rick Graziani Cabrillo College Vorbemerkung Die englische Originalversion

Mehr

1 Protokolle und. Netzwerkkomponenten. 1.1 Was sind Protokolle? Was sind Protokolle?

1 Protokolle und. Netzwerkkomponenten. 1.1 Was sind Protokolle? Was sind Protokolle? Was sind Protokolle? 1 Protokolle und Netzwerkkomponenten Lernziele: Überblick über die Protokolle Unicast, Broadcast und Multicast Aufgaben der Netzwerkkarte Netzwerktechnologien Aktive Netzwerkkomponenten

Mehr

Internet Routing am 14. 11. 2006 mit Lösungen

Internet Routing am 14. 11. 2006 mit Lösungen Wissenstandsprüfung zur Vorlesung Internet Routing am 14. 11. 2006 mit Lösungen Beachten Sie bitte folgende Hinweise! Dieser Test ist freiwillig und geht in keiner Weise in die Prüfungsnote ein!!! Dieser

Mehr

Telekommunikationsnetze 2

Telekommunikationsnetze 2 Telekommunikationsnetze 2 Breitband-ISDN Lokale Netze Internet WS 2008/09 Martin Werner martin werner, January 09 1 Breitband-ISDN Ziele Flexibler Netzzugang Dynamische Bitratenzuteilung Effiziente Vermittlung

Mehr

Carsten Harnisch. Der bhv Co@ch Netzwerktechnik

Carsten Harnisch. Der bhv Co@ch Netzwerktechnik Carsten Harnisch Der bhv Co@ch Netzwerktechnik Inhaltsverzeichnis Einleitung 11 Über dieses Produkt 11 Zielgruppe 11 Aufbau 11 Modul 1 Einführung in die Netzwerktechnik 13 1.1 Der Netzverbund 13 1.2 Die

Mehr

Networking Basics. Peter Puschner Institut für Technische Informatik peter@vmars.tuwien.ac.at

Networking Basics. Peter Puschner Institut für Technische Informatik peter@vmars.tuwien.ac.at Networking Basics Peter Puschner Institut für Technische Informatik peter@vmars.tuwien.ac.at Why Networking? Communication Computation speedup (Parallelisierung von Subtasks) Load balancing ardware preference

Mehr

Rechnernetze und Organisation

Rechnernetze und Organisation Assignment A3 Präsentation 1 Motivation Übersicht Netzwerke und Protokolle Aufgabenstellung: Netzwerk-Protolkoll-Analysator 2 Protokoll-Analyzer Wireshark (Opensource-Tool) Motivation Sniffen von Netzwerk-Traffic

Mehr

KN 20.04.2015. Das Internet

KN 20.04.2015. Das Internet Das Internet Internet = Weltweiter Verbund von Rechnernetzen Das " Netz der Netze " Prinzipien des Internet: Jeder Rechner kann Information bereitstellen. Client / Server Architektur: Server bietet Dienste

Mehr

Internet - Grundzüge der Funktionsweise. Kira Duwe

Internet - Grundzüge der Funktionsweise. Kira Duwe Internet - Grundzüge der Funktionsweise Kira Duwe Gliederung Historische Entwicklung Funktionsweise: -Anwendungen -Rechnernetze -Netzwerkschichten -Datenkapselung -RFC -Verschiedene Protokolle (Ethernet,

Mehr

Modul 3: Ethernet. 3.1 Ethernet-Einführung 3.2 CSMA/CD Medien-Zugriffsprotokoll 3.3 Ethernetframe. Prof. Dr. Martin Leischner Netzwerksysteme und TK

Modul 3: Ethernet. 3.1 Ethernet-Einführung 3.2 CSMA/CD Medien-Zugriffsprotokoll 3.3 Ethernetframe. Prof. Dr. Martin Leischner Netzwerksysteme und TK Modul 3: Ethernet 3.1 Ethernet-Einführung 3.2 CSMA/CD Medien-Zugriffsprotokoll 3.3 Ethernetframe 15.04.2014 15:32:07 M. Leischner Netze, BCS, 2. Semester Folie 1 3.1 Ethernet- Einführung 15.04.2014 15:32:07

Mehr

TCP/UDP. Transport Layer

TCP/UDP. Transport Layer TCP/UDP Transport Layer Lernziele 1. Wozu dient die Transportschicht? 2. Was passiert in der Transportschicht? 3. Was sind die wichtigsten Protkolle der Transportschicht? 4. Wofür wird TCP eingesetzt?

Mehr

Aufgaben zum ISO/OSI Referenzmodell

Aufgaben zum ISO/OSI Referenzmodell Übung 1 - Musterlösung 1 Aufgaben zum ISO/OSI Referenzmodell 1 ISO/OSI-Model Basics Aufgabe 1 Weisen Sie die folgenden Protokolle und Bezeichnungen den zugehörigen OSI- Schichten zu: IP, MAC-Adresse, HTTP,

Mehr

Ethernet Switching und VLAN s mit Cisco. Markus Keil IBH Prof. Dr. Horn GmbH Gostritzer Str. 61-63 01217 Dresden http://www.ibh.de/ info@ibh.

Ethernet Switching und VLAN s mit Cisco. Markus Keil IBH Prof. Dr. Horn GmbH Gostritzer Str. 61-63 01217 Dresden http://www.ibh.de/ info@ibh. Ethernet Switching und VLAN s mit Cisco Markus Keil IBH Prof. Dr. Horn GmbH Gostritzer Str. 61-63 01217 Dresden http://www.ibh.de/ info@ibh.de Der klassische Switch Aufgaben: Segmentierung belasteter Netzwerke

Mehr

SNMP und der MIB- Browser von MG-Soft

SNMP und der MIB- Browser von MG-Soft SNMP und der MIB- Browser von MG-Soft 1. SNMP 1.1 Was ist SNMP 1.2 Historie von SNMP 1.3 Einordnung in das OSI-Modell 1.4 Die Architektur von SNMP 1.5 Kommunikation von SNMP 1.6 SNMP-PDUs PDUs 2. MIB und

Mehr

Netzwerkperformance 2.0

Netzwerkperformance 2.0 Netzwerkperformance 2.0 Die KPI`s als Schlüsselfaktoren der Netzwerke Andreas Dobesch, Product Manager DataCenter Forum 2014, Trafo Baden ISATEL Electronic AG Hinterbergstrasse 9 CH 6330 Cham Tel. 041

Mehr

Wie organisiert ihr Euer menschliches «Netzwerk» für folgende Aufgaben? an alle an ein bestimmtes an ein bestimmtes an alle an ein bestimmtes

Wie organisiert ihr Euer menschliches «Netzwerk» für folgende Aufgaben? an alle an ein bestimmtes an ein bestimmtes an alle an ein bestimmtes Computernetzwerke Praxis - Welche Geräte braucht man für ein Computernetzwerk und wie funktionieren sie? - Protokolle? - Wie baue/organisiere ich ein eigenes Netzwerk? - Hacking und rechtliche Aspekte.

Mehr

Vorlesung 11: Netze. Sommersemester 2001. Peter B. Ladkin ladkin@rvs.uni-bielefeld.de

Vorlesung 11: Netze. Sommersemester 2001. Peter B. Ladkin ladkin@rvs.uni-bielefeld.de Vorlesung 11: Netze Sommersemester 2001 Peter B. Ladkin ladkin@rvs.uni-bielefeld.de Vielen Dank an Andrew Tanenbaum der Vrije Universiteit Amsterdam für die Bilder Andrew Tanenbaum, Computer Networks,

Mehr

Grundlagen TCP/IP. C3D2 Chaostreff Dresden. Sven Klemm sven@elektro-klemm.de

Grundlagen TCP/IP. C3D2 Chaostreff Dresden. Sven Klemm sven@elektro-klemm.de Grundlagen TCP/IP C3D2 Chaostreff Dresden Sven Klemm sven@elektro-klemm.de Gliederung TCP/IP Schichtenmodell / Kapselung ARP Spoofing Relaying IP ICMP Redirection UDP TCP Schichtenmodell Protokolle der

Mehr

UDP-, MTU- und IP- Fragmentierung

UDP-, MTU- und IP- Fragmentierung UDP-, MTU- und IP- Fragmentierung Jörn Stuphorn stuphorn@rvs.uni-bielefeld.de Universität Bielefeld Technische Fakultät Stand der Veranstaltung 13. April 2005 Unix-Umgebung 20. April 2005 Unix-Umgebung

Mehr

Rechnernetze I. Rechnernetze I. 4 LAN Switching SS 2014. Universität Siegen rolanda.dwismuellera@duni-siegena.de Tel.: 0271/740-4050, Büro: H-B 8404

Rechnernetze I. Rechnernetze I. 4 LAN Switching SS 2014. Universität Siegen rolanda.dwismuellera@duni-siegena.de Tel.: 0271/740-4050, Büro: H-B 8404 Rechnernetze I SS 2014 Universität Siegen rolanda.dwismuellera@duni-siegena.de Tel.: 0271/740-4050, Büro: H-B 8404 Stand: 3. Juli 2014 Betriebssysteme / verteilte Systeme Rechnernetze I (1/10) i Rechnernetze

Mehr

... relevante Ports für Streaming bzw. Remote Control!

... relevante Ports für Streaming bzw. Remote Control! ... relevante Ports für Streaming bzw. Remote Control! Wenn Sie mit der Installation des IO [io] 8000 / 8001 beginnen, ist es am sinnvollsten mit einem minilan zu beginnen, da dies mögliche Fehlrequellen

Mehr

Rechnernetze und Organisation

Rechnernetze und Organisation LAN 1 Übersicht Motivation Netzwerke Netzwerkschichten Ethernet Mehrfachzugriff Hub Switch 2 Motivation Local Area Networks (LAN) Lokales Netzwerk Zur Nutzung gem. Ressourcen Netzwerkkabel, Drucker,...

Mehr

Netzwerke für den Einsatz mit dem BIM-Server

Netzwerke für den Einsatz mit dem BIM-Server Netzwerke für den Einsatz mit dem BIM-Server Kurzerklärungen...2 LAN - Local Area Network (Lokales Netzwerk)...4 LAN-Beispiele...4 Beispiel 1: LAN mit zwei Computern ohne weitere Netzwerkgeräte...4 Beispiel

Mehr

Hauptdiplomklausur Informatik März 2002: Internet Protokolle

Hauptdiplomklausur Informatik März 2002: Internet Protokolle Universität Mannheim Fakultät für Mathematik und Informatik Lehrstuhl für Praktische Informatik IV Professor Dr. W. Effelsberg Hauptdiplomklausur Informatik März 2002: Internet Protokolle Name:... Vorname:...

Mehr

ICMP Internet Control Message Protocol. Michael Ziegler

ICMP Internet Control Message Protocol. Michael Ziegler ICMP Situation: Komplexe Rechnernetze (Internet, Firmennetze) Netze sind fehlerbehaftet Viele verschiedene Fehlerursachen Administrator müsste zu viele Fehlerquellen prüfen Lösung: (ICMP) Teil des Internet

Mehr

18C3-Workshop. SwitchedEthernet. Achim Friedland 1/33. 18C3 -Switched Ethernet

18C3-Workshop. SwitchedEthernet. Achim Friedland <mail@ahzf.de> 1/33. 18C3 -Switched Ethernet 18C3Workshop SwitchedEthernet 1/33 18C3 Switched Ethernet Probleme mit Ethernet... Hubs/Repeatersindi.A.reineSignalverstärkerauf Layer I. Hubsbesitzen i.a. keinerleiintelligenzumauf Netzwerkprobleme angemessenreagierenzukönnen.

Mehr

5 Token Ring. 5.1 Varianten des Token Ring. 5.2 Codierung. 5.3 Grundalgorithmus. 5.4 Rahmenaufbau. 5.5 Verwaltung

5 Token Ring. 5.1 Varianten des Token Ring. 5.2 Codierung. 5.3 Grundalgorithmus. 5.4 Rahmenaufbau. 5.5 Verwaltung 5 Token Ring 5.1 Varianten des Token Ring 5.2 Codierung 5.3 Grundalgorithmus 5.4 Rahmenaufbau 5.5 Verwaltung Standarderarbeitung in IEEE 802.5 Token Ring Working Group. Der Token Ring existiert in vier

Mehr

7 Transportprotokolle

7 Transportprotokolle 7 Transportprotokolle 7.1 Transmission Control Protocol (TCP) 7.2 User Datagram Protocol (UDP) 7.3 Ports 7.1 TCP (1) IP-Pakete (Datagramme) von A nach B transportieren reicht nicht interaktive Verbindungen

Mehr

Sniffer. Electronic Commerce und Digitale Unterschriften. Proseminar Leiter: Dr. Ulrich Tamm Vortragender: Stefan Raue Datum: 29.06.2004.

Sniffer. Electronic Commerce und Digitale Unterschriften. Proseminar Leiter: Dr. Ulrich Tamm Vortragender: Stefan Raue Datum: 29.06.2004. Sniffer Proseminar: Electronic Commerce und Digitale Unterschriften Proseminar Leiter: Dr. Ulrich Tamm Vortragender: Stefan Raue Datum: 29.06.2004 Gliederung Was sind Sniffer? Einführung Ethernet Grundlagen

Mehr

Netzwerk- Konfiguration. für Anfänger

Netzwerk- Konfiguration. für Anfänger Netzwerk- Konfiguration für Anfänger 1 Vorstellung Christian Bockermann Informatikstudent an der Universität Dortmund Freiberuflich in den Bereichen Software- Entwicklung und Netzwerk-Sicherheit tätig

Mehr

3 Das verbindungslose Vermittlungsprotokoll IP

3 Das verbindungslose Vermittlungsprotokoll IP Das verbindungslose Vermittlungsprotokoll IP 27 3 Das verbindungslose Vermittlungsprotokoll IP In diesem Kapitel lernen Sie das verbindungslose Vermittlungsprotokoll IP näher kennen. Nach dem Durcharbeiten

Mehr

Networking - Überblick

Networking - Überblick Networking - Überblick Netzwerkgrundlagen René Pfeiffer Systemadministrator GNU/Linux Manages! lynx@luchs.at rene.pfeiffer@paradigma.net Was uns erwartet... Hardware (Ethernet, Wireless LAN) Internetprotokolle

Mehr

6. Vorlesung Netzwerke

6. Vorlesung Netzwerke Dr. Christian Baun 6. Vorlesung Netzwerke Hochschule Darmstadt SS2012 1/34 6. Vorlesung Netzwerke Dr. Christian Baun Hochschule Darmstadt Fachbereich Informatik christian.baun@h-da.de Dr. Christian Baun

Mehr

InfiniBand Low Level Protocol

InfiniBand Low Level Protocol InfiniBand Low Level Protocol Seminar Ausgewählte Themen in Hardwareentwurf und Optik HWS 08 17.12.2008 Andreas Walter Universität Mannheim Inhalt Motivation InfiniBand Basics Physical Layer IB Verbs IB

Mehr

Chapter 7 Ethernet-Technologien. CCNA 1 version 3.0 Wolfgang Riggert,, FH Flensburg auf der Grundlage von

Chapter 7 Ethernet-Technologien. CCNA 1 version 3.0 Wolfgang Riggert,, FH Flensburg auf der Grundlage von Chapter 7 Ethernet-Technologien CCNA 1 version 3.0 Wolfgang Riggert,, FH Flensburg auf der Grundlage von Rick Graziani Cabrillo College Vorbemerkung Die englische Originalversion finden Sie unter : http://www.cabrillo.cc.ca.us/~rgraziani/

Mehr

9. Vorlesung Netzwerke

9. Vorlesung Netzwerke Dr. Christian Baun 9. Vorlesung Netzwerke Hochschule Darmstadt SS2012 1/48 9. Vorlesung Netzwerke Dr. Christian Baun Hochschule Darmstadt Fachbereich Informatik christian.baun@h-da.de Dr. Christian Baun

Mehr

ComputeriaUrdorf «Sondertreff»vom30. März2011. Workshop mit WLAN-Zugriff auf das Internet

ComputeriaUrdorf «Sondertreff»vom30. März2011. Workshop mit WLAN-Zugriff auf das Internet ComputeriaUrdorf «Sondertreff»vom30. März2011 Workshop mit WLAN-Zugriff auf das Internet 30. März 2011 Autor: Walter Leuenberger www.computeria-urdorf.ch Was ist ein (Computer-)Netzwerk? Netzwerk-Topologien

Mehr

Allgemeine Beschreibung (1)

Allgemeine Beschreibung (1) Allgemeine Beschreibung (1) Zunächst soll erklärt werden, wozu ein ISDN Primärmultiplexanschluss gebraucht wird. Dieser wird nur als Anlagenanschluss (Punkt zu Punkt) angeboten. Diese Anschlussart besagt,

Mehr

Technischer Anhang. Version 1.2

Technischer Anhang. Version 1.2 Technischer Anhang zum Vertrag über die Zulassung als IP-Netz-Provider im electronic cash-system der deutschen Kreditwirtschaft Version 1.2 30.05.2011 Inhaltsverzeichnis 1 Einleitung... 3 2 Anforderungen

Mehr

Domain Name Service (DNS)

Domain Name Service (DNS) Domain Name Service (DNS) Aufgabe: den numerischen IP-Adressen werden symbolische Namen zugeordnet Beispiel: 194.94.127.196 = www.w-hs.de Spezielle Server (Name-Server, DNS) für Listen mit IP-Adressen

Mehr

Einführung zu Bridging, Routing, Spanning Trees, Cisco IOS

Einführung zu Bridging, Routing, Spanning Trees, Cisco IOS Einführung zu Bridging, Routing, Spanning Trees, Cisco IOS Diese Folien orientieren sich an den Lecture-Slides von Panwar, Mao, Ryoo und Li (http://catt.poly.edu/catt/tcpipessentials.html) Jörn Stuphorn

Mehr

Ein "natürlicher" Parameter für eine erste Klassifizierung von Netzen, ist die geographische Ausdehnung des Netzes.

Ein natürlicher Parameter für eine erste Klassifizierung von Netzen, ist die geographische Ausdehnung des Netzes. Ein "natürlicher" Parameter für eine erste Klassifizierung von Netzen, ist die geographische Ausdehnung des Netzes. LAN (Local Area Network): Die wesentlichen Merkmale eines LAN s bestehen zunächst in

Mehr

Gefahren aus dem Internet 1 Grundwissen April 2010

Gefahren aus dem Internet 1 Grundwissen April 2010 1 Grundwissen Voraussetzungen Sie haben das Internet bereits zuhause oder an der Schule genutzt. Sie wissen, was ein Provider ist. Sie wissen, was eine URL ist. Lernziele Sie wissen, was es braucht, damit

Mehr

Protokolle der OSI-Schicht 2 (Data-Link)

Protokolle der OSI-Schicht 2 (Data-Link) Protokolle der OSI-Schicht 2 (Data-Link) Michael Dienert 19. Oktober 2008 Inhaltsverzeichnis 1 Die Schichtenmodelle in der Netzwerktechnik 2 1.1 Das OSI- und das DOD-Modell.................... 2 1.2 Kapselung

Mehr

Einführung in IP, ARP, Routing. Wap WS02/03 Ploner, Zaunbauer

Einführung in IP, ARP, Routing. Wap WS02/03 Ploner, Zaunbauer Einführung in IP, ARP, Routing Wap WS02/03 Ploner, Zaunbauer - 1 - Netzwerkkomponenten o Layer 3 o Router o Layer 2 o Bridge, Switch o Layer1 o Repeater o Hub - 2 - Layer 3 Adressierung Anforderungen o

Mehr

Chapter 8 ICMP. CCNA 2 version 3.0 Wolfgang Riggert, FH Flensburg auf der Grundlage von

Chapter 8 ICMP. CCNA 2 version 3.0 Wolfgang Riggert, FH Flensburg auf der Grundlage von Chapter 8 ICMP CCNA 2 version 3.0 Wolfgang Riggert, FH Flensburg auf der Grundlage von Rick Graziani Cabrillo College Vorbemerkung Die englische Originalversion finden Sie unter : http://www.cabrillo.cc.ca.us/~rgraziani/

Mehr

Thema IPv6. Geschichte von IPv6

Thema IPv6. Geschichte von IPv6 Geschichte von IPv6 IPv6 ist der Nachfolger des aktuellen Internet Protokolls IPv4, welches für die Übertragung von Daten im Internet zuständig ist. Schon Anfang der 90er Jahre wurde klar, dass die Anzahl

Mehr

Netzwerkgrundlagen. by www.abyter.de (Martin Monshausen) 1

Netzwerkgrundlagen. by www.abyter.de (Martin Monshausen) 1 Netzwerkgrundlagen Einführung In diesem Workshop möchte ich dir die Netzwerk-Grundlagen und die Netzwerktechnik näher bringen, denn laut Umfragen haben viele Haushalte mehr als einen Computer, was liegt

Mehr

UNIX Netzwerk-Tools. Johann Schlamp 29.11.2005

UNIX Netzwerk-Tools. Johann Schlamp 29.11.2005 UNIX Netzwerk-Tools Johann Schlamp 29.11.2005 Inhaltsverzeichnis 1 Netzwerk-Aufbau 2 1.1 WAN LAN................................. 2 1.1.1 LAN (Local Area Network)..................... 2 1.1.2 WAN (Wide

Mehr

Rechnernetze Übung 8 15/06/2011. Schicht 7 Schicht 6 Schicht 5 Schicht 4 Schicht 3 Schicht 2 Schicht 1. Switch. Repeater

Rechnernetze Übung 8 15/06/2011. Schicht 7 Schicht 6 Schicht 5 Schicht 4 Schicht 3 Schicht 2 Schicht 1. Switch. Repeater Rechnernetze Übung 8 Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Juni 2011 Schicht 7 Schicht 6 Schicht 5 Schicht 4 Schicht 3 Schicht 2 Schicht 1 Repeater Switch 1 Keine Adressen 6Byte

Mehr

1.) Nennen Sie Aufgaben und mögliche Dienste der Transportschicht (Transport Layer) des ISO/OSI-Schichtenmodells.

1.) Nennen Sie Aufgaben und mögliche Dienste der Transportschicht (Transport Layer) des ISO/OSI-Schichtenmodells. Übung 7 1.) Nennen Sie Aufgaben und mögliche Dienste der Transportschicht (Transport Layer) des ISO/OSI-Schichtenmodells. 2.) Charakterisieren Sie kurz das User Datagram Protokoll (UDP) aus der Internetprotokollfamilie

Mehr

Die IP-Adressierung. IP-Adresse Netz- / Hostadressteil Einteilung der Adressen Subnetting Arbeit des Routers Fragmentierung IPv6

Die IP-Adressierung. IP-Adresse Netz- / Hostadressteil Einteilung der Adressen Subnetting Arbeit des Routers Fragmentierung IPv6 Die IP-Adressierung IP-Adresse Netz- / Hostadressteil Einteilung der Adressen Subnetting Arbeit des Routers Fragmentierung IPv6 1 Post-Adresse / IP-Adresse Post-Paket IP-Paket 193.135.244.14 Herr Hans

Mehr

Andere Industrielle Bussysteme

Andere Industrielle Bussysteme Andere Industrielle Bussysteme Dr. Leonhard Stiegler Automation www.dhbw-stuttgart.de Industrielle Bussysteme Teil 8 Andere Feldbusse, L. Stiegler Inhalt Profinet Ethernet Powerlink Avionics Full Duplex

Mehr

The Cable Guy März 2004

The Cable Guy März 2004 The Cable Guy März 2004 Local Server-Less DNS-Namensauflösung für IPv6 von The Cable Guy Alle auf Deutsch verfügbaren Cable Guy-Kolumnen finden Sie unter http://www.microsoft.com/germany/ms/technetdatenbank/ergebnis.asp?themen=&timearea=3j&prod=

Mehr

Router 1 Router 2 Router 3

Router 1 Router 2 Router 3 Network Layer Netz 1 Netz 2 Netz 3 Router 1 Router 2 Router 3 Router 1 Router 2 Router 3 Netz 1, Router 1, 1 Netz 1, Router 1, 2 Netz 1, Router 2, 3 Netz 2, Router 2, 2 Netz 2, Router 2, 1 Netz 2, Router

Mehr

Internet und WWW Übungen

Internet und WWW Übungen Internet und WWW Übungen 6 Rechnernetze und Datenübertragung [WEB6] Rolf Dornberger 1 06-11-07 6 Rechnernetze und Datenübertragung Aufgaben: 1. Begriffe 2. IP-Adressen 3. Rechnernetze und Datenübertragung

Mehr

Grundlagen Funktionsweise Anhang Begriffserklärungen. DHCP Grundlagen. Andreas Hoster. 9. Februar 2008. Vortrag für den PC-Treff Böblingen

Grundlagen Funktionsweise Anhang Begriffserklärungen. DHCP Grundlagen. Andreas Hoster. 9. Februar 2008. Vortrag für den PC-Treff Böblingen 9. Februar 2008 Vortrag für den PC-Treff Böblingen Agenda 1 Einleitung Netzwerkeinstellungen 2 Feste Zuordnung Lease 3 4 Einleitung Einleitung Netzwerkeinstellungen DHCP, das Dynamic Host Configuration

Mehr

1 Technische Aspekte des Internets

1 Technische Aspekte des Internets 1.1 Aufbau, Adressierung und Protokolle 7 Um das manchmal komplexe Verhalten von Informatiksystemen zu verstehen, ist eine Vorstellung von deren technischen Grundlagen erforderlich. Die Ursache der Komplexität

Mehr

Netzwerk Linux-Kurs der Unix-AG

Netzwerk Linux-Kurs der Unix-AG Netzwerk Linux-Kurs der Unix-AG Benjamin Eberle 5. Februar 2015 Netzwerke mehrere miteinander verbundene Geräte (z. B. Computer) bilden ein Netzwerk Verbindung üblicherweise über einen Switch (Ethernet)

Mehr

Rüdiger Schreiner. Computernetzwerke. Von den Grundlagen zur Funktion und Anwendung HANSER

Rüdiger Schreiner. Computernetzwerke. Von den Grundlagen zur Funktion und Anwendung HANSER Rüdiger Schreiner Computernetzwerke Von den Grundlagen zur Funktion und Anwendung HANSER r 1 Netzwerke zur Geschichte 2 1.1 Netzwerke, der Beginn 2 1.2 Definition eines Netzwerkes 4 1.3 Das OSI-Modell

Mehr

Scaling IP Addresses. CCNA 4 version 3.0 Wolfgang Riggert,, FH Flensburg

Scaling IP Addresses. CCNA 4 version 3.0 Wolfgang Riggert,, FH Flensburg Scaling IP Addresses CCNA 4 version 3.0 Wolfgang Riggert,, FH Flensburg auf der Grundlage von Rick Graziani, Cabrillo College Vorbemerkung Die englische Originalversion finden Sie unter : http://www.cabrillo.cc.ca.us/~rgraziani/

Mehr

Netzwerk Linux-Kurs der Unix-AG

Netzwerk Linux-Kurs der Unix-AG Netzwerk Linux-Kurs der Unix-AG Andreas Teuchert 16. Juli 2013 Netzwerk-Protokolle legen fest, wie Daten zur Übertragung verpackt werden unterteilt in verschiedene Schichten: Anwendungsschicht (z. B. HTTP,

Mehr

Lösungen zu 978-3-8045-5387-3 Informations- und Telekommunikationstechnik Arbeitsheft, 3. Auflage

Lösungen zu 978-3-8045-5387-3 Informations- und Telekommunikationstechnik Arbeitsheft, 3. Auflage 1. HANDLUNGSSCHRITT Wireless Local Area Network kabelloses lokales Netzwerk Aufgabe 14 Vorteile: einfache Installation, bequeme Nutzung durch mobile Geräte (z. B. Notebooks oder Tablet-PCs), geringe Kosten,

Mehr

Computernetzwerke -- Von den Grundlagen zur Funktion und Anwendung

Computernetzwerke -- Von den Grundlagen zur Funktion und Anwendung Computernetzwerke -- Von den Grundlagen zur Funktion und Anwendung Rüdiger Schreiner ISBN 3-446-40491-0 Inhaltsverzeichnis Weitere Informationen oder Bestellungen unter http://www.hanser.de/3-446-40491-0

Mehr

Matthias Hofherr. WLAN-Sicherheit. Professionelle Absicherung von 802.11-Netzen. Heise

Matthias Hofherr. WLAN-Sicherheit. Professionelle Absicherung von 802.11-Netzen. Heise Matthias Hofherr WLAN-Sicherheit Professionelle Absicherung von 802.11-Netzen Heise 5 Bevor man einen genaueren Blick auf die Sicherheitsmechanismen von Netzwerken auf Basis des Standards 802.11 wirft,

Mehr

Vorlesung. Rechnernetze II Teil 3. Sommersemester 2004

Vorlesung. Rechnernetze II Teil 3. Sommersemester 2004 Vorlesung Rechnernetze II Teil 3 Sommersemester 2004 Christian Grimm Fachgebiet Distributed Virtual Reality (DVR) Lehrgebiet Rechnernetze C. Grimm 20. April 2005 Überblick Ethernet und Virtual LANs Struktur

Mehr

Netzwerke. Inhalt. Nicola Kaiser / Gruppe Technik Lehrstuhl für Computerlinguistik, Ruprecht-Karls-Universität Heidelberg, WS 04/05

Netzwerke. Inhalt. Nicola Kaiser / Gruppe Technik Lehrstuhl für Computerlinguistik, Ruprecht-Karls-Universität Heidelberg, WS 04/05 1 Netzwerke Nicola Kaiser / Gruppe Technik Lehrstuhl für Computerlinguistik, Ruprecht-Karls-Universität Heidelberg, WS 04/05 2 Inhalt Hardware Kommunikation Internetworking Praxis 3 Rechner (Knoten) Rechner

Mehr

Vorlesung SS 2001: Sicherheit in offenen Netzen

Vorlesung SS 2001: Sicherheit in offenen Netzen Vorlesung SS 2001: Sicherheit in offenen Netzen 2.4 Internet-Protokolle für serielle Leitungen Prof. Dr. Christoph Meinel Informatik, Universität Trier & Institut für Telematik, Trier Prof. Dr. sc. nat.

Mehr

1. Interface. Wireshark (Ehtereal)

1. Interface. Wireshark (Ehtereal) Wireshark (Ehtereal) Das Programm Wireshark Network Protocol Analyzer dient dazu, wie der Name schon sagt, ersichtlich zu machen, welche Datenpakete die Netzwerkkarte empfängt bzw. sendet. In Form von

Mehr

Computeria Urdorf «Sondertreff» vom 7. November 2012. Workshop. auf das Internet

Computeria Urdorf «Sondertreff» vom 7. November 2012. Workshop. auf das Internet Computeria Urdorf «Sondertreff» vom 7. November 2012 Workshop mit WLAN-Zugriff auf das Internet 7. November 2012 Autor: Walter Leuenberger www.computeria-urdorf.ch Was ist ein (Computer-)Netzwerk? Netzwerk-Topologien

Mehr

... ... ... 4 Gigabit- und 10-Gigabit-Ethernet. 4.1 Überblick Gigabit-Ethernet. 4.2 Burst-Modus. 4.3 Übertragungsmedien. 4.

... ... ... 4 Gigabit- und 10-Gigabit-Ethernet. 4.1 Überblick Gigabit-Ethernet. 4.2 Burst-Modus. 4.3 Übertragungsmedien. 4. Einsatz von Gigabit Ethernet als "Backbone": 4 Gigabit- und 10-Gigabit-Ethernet Server-Farm 4.1 Überblick Gigabit-Ethernet 4.2 Burst-Modus 4.3 Übertragungsmedien 4.4 8B/10B-Code 1 Gb-Switch... 4.5 Vollduplex

Mehr

Grundlagen Netzwerktechnik

Grundlagen Netzwerktechnik Grundlagen Netzwerktechnik - Aus dem Inhalt - 1. Von der Notwendigkeit der Vernetzung 2 2. Computer-Netzwerk 2 3. Erörterung: Vernetzung oder Einplatzlösungen? 2 4. Netzwerktopologie 3 5. Übertragungsmedien

Mehr

Serielle Datenauswertung

Serielle Datenauswertung Serielle Datenauswertung Liebherr Temperature Monitoring Serial Interface Kälte-Berlin Inh.: Christian Berg Am Pfarracker 41 12209 Berlin Fon: +49 (0) 30 / 74 10 40 22 Fax: +49 (0) 30 / 74 10 40 21 email:

Mehr

Klausur - Computernetzwerke

Klausur - Computernetzwerke Klausur - Computernetzwerke Márk Félegyházi Zeit: 1.5 Stunden, keine Hilfmaterialien Gesamtpuntke: 50 2011.04.12 Name der/den Studenten(innen): NEPTUN: ===================================================

Mehr

2. Kommunikation und Synchronisation von Prozessen 2.2 Kommunikation zwischen Prozessen

2. Kommunikation und Synchronisation von Prozessen 2.2 Kommunikation zwischen Prozessen 2. Kommunikation und Synchronisation von Prozessen 2.2 Kommunikation zwischen Prozessen Dienste des Internets Das Internet bietet als riesiges Rechnernetz viele Nutzungsmöglichkeiten, wie etwa das World

Mehr

Netzwerke. Teil 4. Adressierung und. Netzwerkklassen 11.09.2011. BLS Greifswald. Netzwerk-Adressierung (1)

Netzwerke. Teil 4. Adressierung und. Netzwerkklassen 11.09.2011. BLS Greifswald. Netzwerk-Adressierung (1) Netzwerke Teil 4 Adressierung und Netzwerkklassen 11.09.2011 BLS Greifswald Folie 1/26 Netzwerk-Adressierung (1) Ein Protokoll der Netzwerkschicht muss grundsätzlich gewährleisten, das jeder Knoten mit

Mehr

Grundlagen verteilter Systeme

Grundlagen verteilter Systeme Universität Augsburg Insitut für Informatik Prof. Dr. Bernhard Bauer Wolf Fischer Christian Saad Wintersemester 08/09 Übungsblatt 5 26.11.08 Grundlagen verteilter Systeme Lösungsvorschlag Aufgabe 1: Erläutern

Mehr

Einführung in TCP/IP. das Internetprotokoll

Einführung in TCP/IP. das Internetprotokoll Schwarz Einführung in TCP/IP das Internetprotokoll Was ist ein Protokoll? Mensch A Mensch B Englisch Deutsch Spanisch Französisch Englisch Japanisch Was sind die Aufgaben eines Protokolls? Informationen

Mehr

Aktive Komponenten. Betriebsarten

Aktive Komponenten. Betriebsarten Aktive Komponenten Betriebsarten Simplex: Ein Sender sendet Informationen an einen Empfänger. Der Empfänger kann selbst keine Informationen senden. Ein Beispiel dafür ist der Rundfunk. Die Rundfunkanstalten

Mehr

Die automatische Clientkonfiguration durch den DHCP-Server geschieht folgendermaßen:

Die automatische Clientkonfiguration durch den DHCP-Server geschieht folgendermaßen: Default Gateway: 172.16.22.254 Ein häufiger Fehler in den Konfigurationen liegt darin, dass der Netzanteil des Default Gateway nicht mit dem Netzanteil der IP-Adresse des Rechners übereinstimmt. 4.4 DHCP-Service

Mehr

Lösungen zu 978-3-8045-5387-3 Informations- und Telekommunikationstechnik - Arbeitsheft

Lösungen zu 978-3-8045-5387-3 Informations- und Telekommunikationstechnik - Arbeitsheft Lösungen zu ---- Informations- und Telekommunikationstechnik - Arbeitsheft Handlungsschritt Aufgabe a) Die TCP/IP-Protokollfamilie verwendet logischen Adressen für die Rechner (IP- Adressen), die eine

Mehr

Grundlagen der Netzwerktechnik

Grundlagen der Netzwerktechnik 1. Grundlagen 2 2. Arten von Rechnernetzen 2 2.1. Einteilung nach der Entfernung 2 2.2. Einteilung nach dem System 3 2.3. Einteilung nach Architektur 3 3. Hardwarekomponenten im Netzwerk 5 3.1. Workstation

Mehr

Der Weg ins Internet von Jens Bretschneider, QSC AG, Geschäftsstelle Bremen, im Oktober 2004

Der Weg ins Internet von Jens Bretschneider, QSC AG, Geschäftsstelle Bremen, im Oktober 2004 Der Weg ins Internet 1 Übersicht Internetverbindung aus Sicht von QSC als ISP Struktur Technik Routing 2 Layer Access-Layer Distribution-Layer Core-Layer Kupfer- Doppelader (TAL) Glasfaser (STM-1) Glasfaser

Mehr

IP routing und traceroute

IP routing und traceroute IP routing und traceroute Seminar Internet-Protokolle Dezember 2002 Falko Klaaßen fklaasse@techfak.uni-bielefeld.de 1 Übersicht zum Vortrag Was ist ein internet? Was sind Router? IP routing Subnet Routing

Mehr

ISA 2004 Netzwerkerstellung von Marc Grote

ISA 2004 Netzwerkerstellung von Marc Grote Seite 1 von 7 ISA Server 2004 Mehrfachnetzwerke - Besonderheiten - Von Marc Grote Die Informationen in diesem Artikel beziehen sich auf: Microsoft ISA Server 2004 Einleitung In meinem ersten Artikel habe

Mehr

Kommunikationsnetze. Praxis Internet. Michael@Rotert.de. Version 4.0

Kommunikationsnetze. Praxis Internet. Michael@Rotert.de. Version 4.0 Kommunikationsnetze Praxis Internet Michael Rotert E-Mail: Michael@Rotert.de Version 4.0 Inhalt Einführung (Teil 1) Lokale Netze (LAN) Topologie, Komponenten Ethernet Punkt-zu-Punkt über Ethernet Virtuelle

Mehr

8 Das DHCPv6-Protokoll

8 Das DHCPv6-Protokoll 8 Das DHCPv6-Protokoll IPv6 sollte DHCP als eigenständiges Protokoll ursprünglich überflüssig machen, da viele DHCP- Funktionen serienmäßig in IPv6 enthalten sind. Ein IPv6-fähiger Rechner kann aus der

Mehr

Lösungen zu Kontrollfragen: Internet

Lösungen zu Kontrollfragen: Internet Lösungen zu Kontrollfragen: Internet 1. Zählen Sie mindestens 5 Internet-Dienste auf. World Wide Web E-Mail News File Transfer Telnet/Secure Shell Domain Name Service 2. Was ist eine virtuelle Verbindung?

Mehr

Klausur Kommunikationsprotokolle in der Automatisierungstechnik

Klausur Kommunikationsprotokolle in der Automatisierungstechnik Hochschule Darmstadt Fachbereich Informatik Klausur Kommunikationsprotokolle in der Automatisierungstechnik angefertigt von Jürgen Müller Proffessor: Prof. Dr. Klaus Frank Inhaltsverzeichnis 1 Klausur

Mehr