UBIQUITOUS ACCESS AND EMBEDDED ADDRESSABILITY. Technical Report des DAI-Labors der Technischen Universität Berlin

Größe: px
Ab Seite anzeigen:

Download "UBIQUITOUS ACCESS AND EMBEDDED ADDRESSABILITY. Technical Report des DAI-Labors der Technischen Universität Berlin"

Transkript

1 UBIQUITOUS ACCESS AND EMBEDDED ADDRESSABILITY Technical Report des DAI-Labors der Technischen Universität Berlin Jens Wohltorf DAI-Labor of Technische Universität Berlin, Franklinstrasse 28/29, Berlin, Germany

2

3 VORWORT Das hier vorliegende Dokument ist innerhalb eines Kompaktseminars der Deutschen Telekom AG in Kooperation mit dem Fachgebiet Agententechnologie in Betrieblichen Anwendungen und der Telekommunikation der Technischen Universität Berlin im Wintersemester 2003/2004 entstanden. Das Seminar trug den Titel Dienste und Anwendungen in der Telekommunikation und Informationstechnologie. Für das Kompaktseminar wurden zu den beiden Hauptthemenfelder Ubiquitous Access and Embedded Addressability jeweils vier Unterthemen gebildet und als wissenschaftliche Ausarbeitung an die Studierenden verteilt. Diese 8 Themenfelder markieren die Kapitel dieses Berichts. Die Ausarbeitungen wurden abschließend während eines zweitägigen Seminars von den Autoren präsentiert. Die nachfolgenden Kapitel entstammen hauptsächlich den wissenschaftlichen Ausarbeitungen von Marco Blumendorf, Nicolas Braun, Servet Celik, Simohamed Elfalahi, Holger Endert, Eva Maria Hoffmann, Marek Iwaszkiewicz, David Linner, Alain-Ferdinand Momouo, Aster Neway, Alexander Nieswand, Till Plumbaum, Ilkem Ahu Sahin, Stephan Schmidt, Mohamed Siddig, Thomas Strecker, Louis Calvin Touko Tcheumadjeu, Robert Woll und Paul Zernicke. Weiter Informationen sind auf den Webseiten des DAI-Labors der Technischen Universität zu finden. Jens Wohltorf Berlin, 11. Juni 2004

4

5 INHALTSVERZEICHNIS VORWORT... III INHALTSVERZEICHNIS... V ABBILDUNGSVERZEICHNIS... XI TABELLENVERZEICHNIS...XV 1 MULTIPLE ACCESS TECHNOLOGIES IN SINGLE DEVICES Einleitung Die mobile Welt Service-Entwickler Service-Anbieter Geräte-Hersteller Netzwerk-Operatoren Benutzer Zusammenfassung Szenarien Broadband Session Multi Access Session Verteilte Ressourcen Roaming in heterogenen Netzen Aktuelle Technologien GSM GPRS UMTS WLAN Bluetooth Integration Multi Mode User Equipment in 3G Kernaufbau von 3G Netzen WLAN Technologien und 3G Netze Die Verwendung multipler Modi in einem Endgerät Multi-mode user equipment Modulare Architekturen Vorgefertigte Geräte Das PMG Konzept Integrierte Architekturen Aktuelle MMUE Zusammenfassung und Ausblick STANDARDIZED APPLICATION DEPLOYMENT... 41

6 2.1 MULTI ACCESS SERVICE PLATFORM Arten der Adaption Anforderungsdefinition: MASP Architektur für eine MASP Realisierung der Adaption durch Profile Das Profil RDF CC/PP Composite Capabilities / Preference Profiles XML-basierte Interaktionssprachen Allgemeiner Überblick GUI-Auszeichnungssprachen Rendering in Zielformate - XML UI Builder (Renderer) UIML Rendering-Prozess Weitere Renderer Fazit und Ausblick TRANSFER OF INTELLIGENCE TO END-USER-DEVICES Einleitung Definition von Thick Client Definition von Thin Client Thick Clients Vs Thin Clients Grundlagen Vorteile Nachteile Vergleich der Kosten Fazit Thin Clients Im WAN Grundlagen Vorteile Nachteile Fazit Ausblick Ein Zukunftsszenario Das Konzept Zukünftige Herausforderungen Zusammenfassung INTELLIGENT BUFFERING, STORING AND REPLICATION Einleitung Struktur dieses Dokuments Content Delivery Network (CDN) Content Caching Content Distribution und Management... 80

7 4.2.3 Content switching (Load Balancing) Content-Routing (Globalisierung von Netzen) Content Edge-Delivery Digital Rights Management Old Rights Management - Ursprung des Digital Rights Management Anfänge von DRM DRM-Systeme schaffen Geschäftsmodelle Das DRM-Referenzmodell Trusted Computing Platform Alliance (TCPA) und Palladium Ausblick AMBIENT INTELLIGENCE - SECURITY OF ACCESS AND DATA Einleitung Begrifflichkeiten Ambient Intelligence, Pervasive und Ubiquitous Computing Sicherheit und Privatsphäre Technische Aspekte Hardware Infrastrukturen Software Sicherheit und Ambient Intelligence Kryptographie Vertraulichkeitsprobleme in drahtlosen Netzwerken Schutz der Privatsphäre und ambient intelligence Erläuterung der Problematik Lösungsansätze Sicherheits versus Privatsphäre Zusammenfassung und Fazit AVAILABILITY OF LOCATION INFORMATION Einleitung Grundlagen Was ist Lokalisierung? Wozu dient Lokalisierung? Technologien Techniken zur Positionsermittlung Eigenschaften von Lokalisierungstechniken Übertragungstechniken Anwendungen der Technologien Fazit Location Based Services Was sind Location Based Services (LBS)? LBS Dienste

8 6.4.3 Anwendungsbeispiele Erwartungen Marküberblick deutscher LBS-Dienste Herausforderungen Fazit Fazit und Ausblick DIFFERENTIATION OF SERVICE QUALITY Einleitung Parameter der Qualität Eines Dienstes Was ist ein guter Dienst und wie wird er gemessen? Quality of Service in Mobilen Telekommunikationsnetzen Rückblick in frühere Generationen der Telekommunikationsnetze Quality of Service in Telekommunikationsnetzen Quality of Service - Klassen in 2.5G Quality of Service Klassen und Dienste in 3G Dienste in der Konversationsklasse Dienste in der Streamingklasse Dienste in der Interaktivklasse Dienste in der Hintergrundsklasse Dienstgüte messen Fazit und Ausblick FULFILLMENT OF QOS Einleitung Anforderungen an die Dienstgüte Klassifizierung der Dienstgüte Verschiedene Dienstarten und ihre Anforderungen an die Dienstgüte Gewährleistung von Dienstgüte Gewährleistung von Dienstgüte auf Empfängerseite Gewährleistung von Dienstgüte auf Senderseite Gewährleistung von Dienstgüte innerhalb des Netzwerks Verschiedene Diesntgütearchitekturen Integrated Services (IntServ) und RSVP Reservierung von Ressourcen mit RSVP Vor- und Nachteile der IntServ-Architektur Differentiated Services (DiffServ) Multiprotocol Label Switching (MPLS) Messung von Dienstgüte Fazit und Ausblick LITERATUR- UND QUELLENVERZEICHNIS

9

10

11 ABBILDUNGSVERZEICHNIS Abbildung 1: Mobile value chain Abbildung 2: GSM Netzarchitektur Abbildung 3 : Circuit and Packet Switching Abbildung 4: GSM/GPRS Erweiterung der Netzarchitektur Abbildung 5 : UMTS Netzarchitektur Abbildung 6 : Datendurchsatz in Abhängigkeit von der Entfernung bei WLAN Abbildung 7 : WLAN Netzarchitekturen Abbildung 8 : Bluetooth Netzarchitekturen Abbildung 9: integriertes Netzwerk Abbildung 10: Roaming in 3G Netzen Abbildung 11: Vertikales Roaming Abbildung 12: ipaq mit GSM Abbildung 13: ipaq mit WLAN Abbildung 14: ipaq Jacket Abbildung 15 : HP ipaq h Abbildung 16 : LOOX Abbildung 17: Siemens S Abbildung 18: Nokia Abbildung 19: Sony-Ericsson P Abbildung 20: PMG & Sleek-Devices Abbildung 21:HTML-Darstellung Pizzabestelldienst [Schill] Abbildung 22:WAP-Darstellung Pizzaservice [Schill] Abbildung 23: Palm Darstellung Pizzaservice [Schill] Abbildung 24: Umfassende Adaption [Kost 2003] Abbildung 25: Architektur der MASP Abbildung 26: Grafische Darstellung eines RDF-Graphen Abbildung 27: RDF-Dokument Abbildung 28: Deklaration einer neuen Klasse von Ressourcen Abbildung 29: Deklaration einer neuen Eigenschaft von Ressourcen Abbildung 30: CC/PP Profil Abbildung 31: CC/PP Komponente mit Eigenschaften Abbildung 32: UIML Meta-Interface Model [UIML 2002] Abbildung 33: Hello World Beispiel Abbildung 34: XAML-Codebeispiel... 57

12 Abbildung 35: UIML-Elemente für WML-Rendering Abbildung 36: WML Output des Rendering Prozesses Abbildung 37: Die drei klassischen Caching-Konzepte Abbildung 38: Content Switching [wipro.co] Abbildung 39: Intelligentes vs. Einfaches Load-Balancing Abbildung 40: Edge-Server Infrastruktur [cisco] Abbildung 41: Struktur eines dynamisch erzeugten Dokumentes im Sinne des ESI- Konzeptes Abbildung 42: Referenzmodell eines DRMS [Rosenblatt et al. 2002] Abbildung 43: Passive RFIDs der neusten Generation [Texas Instruments] Abbildung 44: Benutzerkontrollierter Prozess [IPTS03]] Abbildung 45: Der Erfassungsprozess ist vom Nutzer nicht mehr kontrollierbar [IPTS03] Abbildung 46: Komponenten von location information Abbildung 47: Infrarot Abstrahlungs- und Empfangswinkel [Nilsson 2002] Abbildung 48: Funktionsweise des RFID Systems [Nilsson 2002] Abbildung 49: Ollivetti Active Badge (rechts) und Basisstation (links) Abbildung 50: Active Bat Sender Abbildung 51: Die Dienstseite der WAP Telefon Anbieter von Bob.[ILBS 2002] Abbildung 52: LBS Service Request Response[OpenLS 2002] Abbildung 53: LBS-Architektur Abbildung 54: LBS Mobile Endgeräte Abbildung 55: LBS Dienste pro Kategorie [MobilKom 2003] Abbildung 56: Location Based Services Wertschöpfungskette [LBSMarkt 2003] Abbildung 57: LBS-Marktplayer [Northstream2001] Abbildung 58: Wachstum von LBS-Nutzer Abbildung 59: LBS-Einnahme [GC 2002] 128 Abbildung 60: LBS-Umfrage Ergebnis [ExperTeam 2002] Abbildung 61: Fünf Dimensionen des Quality of Service [Chadwick 2002] Abbildung 62: QoS Parameter [Chalmers 1999] Abbildung 63: Zusammenhang zwischen Datenverlust und Zeitverzögerung [UMTSlink 2004] Abbildung 64: Dienstgüte in IP-Netzwerken Abbildung 65: Unterscheidung von Daten- und Kontrollpfad [Zitterbart 2004] Abbildung 66: Bedienstrategien [Kurose 2001] Abbildung 67: Schematischer Aufbau einer Dienstgüte-Architektur [Dirscherl 2002]. 152 Abbildung 68: Komponenten in RSVP-fähigen Systemen [Zitterbart 2004]

13 Abbildung 69: Multicast mit RSVP [Zitterbart 2004] Abbildung 70: Traffic-Conditioning [Seum 2001] Abbildung 71: Das DiffServ-Domänenmodell [Zitterbart 2004] Abbildung 72: DSCP-Einträge für verschiedene AF-Klassen und ihre Drop-Precedence Abbildung 73: Differentiated Services vs. Integrated Services Abbildung 74: LSPs für Pakete verschiedener FECs mit gleicher Zieladresse [Müller 2003] Abbildung 75: Spezifikation der Dienstgüte durch den Benutzer [Gecei 1995]

14

15 TABELLENVERZEICHNIS Tabelle 1: Aufteilung der Frequenzbänder in Europa Tabelle 2 : Einige Eigenschaften aktueller Geräte Tabelle 3: Vorteile Thick Clients vs. Thin Clients Tabelle 4: Nachteile Thick Clients vs. Thin Clients Tabelle 5: Kostenvergleich Thin Clients vs. Thick Clients Tabelle 6: LBS-Engeräte mit Vorteil und Nachteil Tabelle 7: LBS-Dienste mit Applikationsumgebung [MEXPRESS 2001] Tabelle 8: Indoor LBS-Anwendungen Tabelle 9: Dienste und Dienstanbieter in Deutschland Tabelle 10: Verzögerungsklassen bei GPRS-Diensten Tabelle 11: Dringlichkeitsklassen bei GPRS Tabelle 12: Verzögerungsklassen bei GPRS-Diensten Tabelle 13: Spitzendurchsatzklasse in GPRS-Diensten Tabelle 14: Durchsatzklasse in GPRS-Diensten Tabelle 15: Dienstgüteparameter Tabelle 16: Anforderungen verschiedener Dienste an die primären Dienstgüteparameter [Tanenbaum 2003]

16

17 17 1 MULTIPLE ACCESS TECHNOLOGIES IN SINGLE DEVICES MULTIPLE ACCCESS TECHNOLOGIES IN SINGLE DEVICES soll Möglichkeiten für die Integration verschiedener, mobiler Kommunikationstechnologien in einem Endgerät beschreiben. In diesem Rahmen werden aktuelle Technologien erläutert und Ansätze für die Integration und Organisation dieser Technologien in einem gemeinsamen Netz und in mobilen Endgeräten aufgezeigt. Die vorgestellten Funktechnologien wurden jeweils stellvertretend für eine bestimmte Gruppe mit ähnlichen Eigenschaften ausgewählt. Beschrieben werden GSM/GPRS 1, UMTS, WLAN und Bluetooth. Es wird gezeigt, dass sich diese Technologien aufgrund komplementärer Eigenschaften ergänzen können. Eine Integration dieser Technologien erfordert jedoch auch eine Organisation in einem gemeinsamen Netz. Ausgehend von den Kommunikationsnetzen der dritten Generation werden Kernaspekte erörtert, die für die Benutzung eines MMUE gewährleistet sein müssen. Die aktuellen Bemühungen des 3GPP für die Verwendung von 3G-Systemen in WLAN werden beschrieben und die unterschiedlichen Nutzungsszenarien von MMUE in solchen integrierten Netzen erklärt. Verschiedene Konzepte zur Integration multipler Zugangstechnologien in aktuellen und zukünftigen Geräten werden vorgestellt und verglichen. Der Schwerpunkt hierbei liegt auf der Nutzbarkeit in heterogenen Kommunikationsnetzen der Zukunft. Die Vor- und Nachteile einer modularen, einer vorgefertigten und einer Gateway-Architektur werden hervorgehoben und anhand von Beispielen aus den einzelnen Bereichen verdeutlicht. Die gravierendsten Probleme aktueller Geräte sind die Erweiterbarkeit, die Größe, das Gewicht und der Energiebedarf, da diese Parameter sich nicht gleichzeitig optimieren lassen. Ein kurzer Einblick auf aktuelle Forschungsthemen wie Software-Defined Radio und System-on-a-Chip versucht zu zeigen, wie man die auftretenden Probleme bewältigen könnte. Schlagworte: Multi-Mode User Equipment, Mobilität, Integration, Personalized Access 1.1 Einleitung Der weltweit wachsende mobile Datenverkehr und die Verbreitung einer Vielzahl heterogener, mobiler Kommunikationsnetze für spezielle Anwendungsgebiete motivieren neue Betrachtungen über die Gestaltung zukünftiger Netze und mobiler Endgeräte. Ausgehend von den beteiligten Interessengruppen und einigen Szenarien für den mobilen Benutzer der nahen Zukunft, soll beschrieben werden welche Erwartungen und Ziele Kommunikationsnetze und Geräte erfüllen müssen. Aus der Betrachtung aktueller Funktechnologien und ihrer Eigenschaften, insbesondere in Hinblick auf die Kombination miteinander, wird versucht zu bestimmen, welche Veränderungen sich für die Kommunikationsnetze und mobilen Endgeräte der nächsten Generation ergeben können. 1 Die Legende für Abkürzungen, die nicht explizit eingeführt wurden, befindet sich im Anhang B.

18 18 Multiple Access Technologies in Single Devices Aufbauend auf diesen notwendigen oder wünschenswerten Veränderungen wird untersucht, inwiefern aktuelle Konzepte zur Integration multipler Zugangstechnologien in einem Gerät in diesem Kontext abschneiden. Dazu werden etablierte Konzepte wie modulare und vorgefertigte Architekturen sowie Konzepte aus dem Gebiet hochintegrierter und durch Software steuerbarer Lösungen vorgestellt. Als Alternative zu Konzepten von Komplettgeräten entwickelt sich das Konzept das Personal Mobile Gateway, welches eine Trennung von Darstellungs- und Verbindungslogik vornimmt und somit eine neue Klasse von Geräten und Diensten ermöglicht. Ein Vergleich von Vertretern der verschiedenen Konzepte, die momentan auf dem Markt verfügbar sind, soll einen Ausblick geben, inwiefern eine Realisierung der eingangs erwähnten notwendigen Veränderungen absehbar ist. 1.2 Die mobile Welt In der mobilen Welt sind grundsätzlich mehrere Parteien an den Services beteiligt. Um herauszufinden, warum ein Entwicklungsschritt nötig ist, müssen die Erwartungen und Ziele der Parteien mit dem aktuellen Stand verglichen werden. Durch die Differenzen lassen sich dann die zu lösenden Probleme identifizieren und mögliche Lösungen ableiten. Allgemein gibt es mindestens 4 Parteien: Service-Entwickler, Netzwerk-Operatoren, Geräte-Hersteller und Benutzer. Stellen Netzwerk-Operatoren offene Plattformen für Dienste bereit, kommen noch Service-Anbietern hinzu, womit man das untenstehende Diagramm erhält. Abbildung 1: Mobile value chain Zusätzliche Teilnehmer, wie Regulierungsbehörden, Standardisierungsgremien oder Content-Provider, werden hier nicht speziell betrachtet. Einerseits wird von einem bereits geformten Mobilnetz ausgegangen. Andererseits wird die Granularität auf ein bestimmtes Maß begrenzt, weil aus einer Verfeinerung keine neuen Erkenntnisse gewonnen würden.

19 Service-Entwickler Von den entwickelten Diensten wird zunehmend mehr Intelligenz erwartet. Diese Intelligenz beinhaltet beispielsweise die Anpassung an die Fähigkeiten eines Gerätes, mit dem auf einen Dienst zugegriffen wird, oder die Verfügbarkeit von Kontextinformationen zum Benutzer, wie beispielsweise Ort, Präsenz oder Kontaktlisten. Dazu muss in dem Netz, in dem die Dienste angeboten werden, eine Reihe von Basisdiensten existieren, auf die die Entwickler Zugriff haben. Damit diese Dienste unabhängig von der Art des Gerätes oder Zugangs ist, müssen diese Dienste auf einer Ebene angesiedelt sein, die prinzipiell ebenfalls unabhängig von Gerät und Technologie ist Service-Anbieter Anbieter von Diensten erwarten vor allem, dass ihre Services gut skalieren, sich an Änderungen anpassen und Erweiterungen zulassen, ohne sie von Grund auf neu entwickeln zu müssen. Kundenbindung ist genauso wichtig, und wird vor allem dadurch erreicht, dass Dienste sehr stark personalisiert angeboten werden. Einerseits entsteht dadurch ein hoher Mehrwert für den Kunden. Andererseits erhöht sich für einen Benutzer der Aufwand beim Wechsel, da er einen neuen Dienst erst wieder personalisieren müsste Geräte-Hersteller Der Entwicklungszyklus bei Mobiltelefonen wird immer kürzer. Entsprechend haben die Hersteller vor allem zwei Bedürfnisse. Erstens möchten sie ihre Kunden möglichst binden. Zweitens möchten sie neue Produkte ohne hohe Entwicklungs- und Anpassungskosten auf den Markt bringen können Netzwerk-Operatoren Für Netzwerkoperatoren sind vor allem neue Möglichkeiten der Gewinnschöpfung interessant, wobei die dabei für sie entstehenden Kosten möglichst gering sein müssen. Da die Abrechnung meist zeit- oder volumenbasiert erfolgt, wäre eine Möglichkeit, Benutzer dazu zu bringen, mehr Zeit im Netz zu verbringen oder mehr Daten zu übertragen. Die Entwicklung neuer Technologien und das Ausbringen einer neuen flächendeckenden Infrastruktur wären dagegen unerwünschte Kosten Benutzer Benutzer möchten vor allem eines: eine Erhöhung der Lebensqualität durch verfügbare Dienste. Grundlegend dafür ist ein einfacher und komfortabler Zugang zu den Diensten. Benutzer möchten sich nicht darum kümmern müssen, welcher Anbieter für sie in Frage kommt und wie sie den Zugang konfigurieren müssen. Aber es ist für sie wichtig, dass die angebotenen Dienste möglichst gut auf ihre Bedürfnisse und die jeweilige Situation zugeschnitten sind. Dienste müssen daher Mechanismen zur Personalisierung und Kontextbezogenheit integrieren. Abhängig davon, ob der Benutzer ein Geschäfts- oder Privatkunde ist, spielen hier auch finanzielle Fragen mehr oder weniger eine Rolle, solange gewährleistet wird, dass der Benutzer einen echten Mehrwert durch die Dienste hat. Für Geschäftskunden ist sicherlich die seamless connectivity und das connected anytime, anywhere besonders wichtig, während Privatkunden preisbewusster sind Zusammenfassung Es kristallisieren sich mindestens drei grundlegende Anforderungen an die mobilen Netze der Zukunft heraus: Bandbreite, Erweiterbarkeit und Intelligenz. Bandbreite wird für Multimediadienste benötigt. Erweiterbarkeit bezieht sich auf die Zahl der Benutzer im Netz, die angebotenen Dienste und die integrierten Technologien.

20 20 Multiple Access Technologies in Single Devices Die Intelligenz ist die Voraussetzung für die Schaffung von echtem Mehrwert. Sie setzt Basisdienste voraus, die im Netz integriert sind, und erlaubt Personalisierung und Kontextbezogenheit von Diensten. 1.3 Szenarien Multiple Zugangstechnologien in mobilen Endgeräten lassen sich durch eine Vielzahl von verschiedenen Szenarien motivieren. Stellvertretend sollen nun zunächst vier mögliche Anwendungsfälle vorgestellt werden Broadband Session Multimediale Dienste sind für gegenwärtige und zukünftige Kommunikationsnetze von zentraler Bedeutung. Insbesondere in den bestehenden Netzen mit hoher Mobilität sind diesen Diensten jedoch technische Schranken gesetzt. Die Übertragung größerer Datenmengen erfordert einen nicht unerheblichen Zeitaufwand, und Audio/Video-Streaming ist in schlechter Qualität oder gar nicht realisierbar. Die Kombination einer wenig mobilen Breitband Technologie (z.b. WLAN) mit einer sehr mobilen Technologie mit geringerer Bandbreite (z.b. GSM) macht die Möglichkeit einer hohen Quality of Service Broadband Sessions denkbar. Wenn das Breitbandnetz verfügbar ist, können Sessions dieses für zusätzliche Funktionen benutzen. Beispiele dafür wären Multimedia-Streaming mit einer besseren Darstellungsqualität oder das Zuschalten von Video-Übertragung oder eines Whiteboard zu einer Konferenzschaltung Multi Access Session Anlehnend an Broadband Sessions ist auch der zeitgleiche Gebrauch zweier Technologien denkbar. Sind verschiedene Technologien für unterschiedliche Teile eines Dienstes optimiert, kann ein Benutzer diese Technologien parallel in Anspruch nehmen. So wäre es vorstellbar während einer Videokonferenz das Videosignal über das schnellere WLAN auf einen Monitor zu streamen, während das Audiosignal über Bluetooth an einem Mobiltelefon benutzt wird Verteilte Ressourcen In einer Vielzahl von Unterhaltungs-, IT- und Haushaltsgeräten halten einheitliche Kommunikationsschnittstellen Einzug. Stellvertretend sei an dieser Stelle Bluetooth erwähnt. Derartige Schnittstellen ermöglichen eine Integration vieler verschiedenartiger Geräte in einer gemeinsamen Umgebung, einem PAN. In einem PAN können Dienste und Ressourcen geteilt werden. Sind die Ressourcen in einem PAN aufgezehrt kann ein Teilnehmer mit entsprechender Zugangstechnologie auf die Ressourcen eines anderen Netzes zurückgreifen. Befinden sich etwa eine Digitalkamera und GPRS-Device in einem PAN und der Bildspeicher der Kamera ist aufgebraucht, könnte die Kamera die Bilder über das GPRS-Device auf einem Fileserver zwischenspeichern Roaming in heterogenen Netzen Die Kommunikationsnetze der nächsten Generation dürften aus Kostengründen nicht mehr nur allein durch eine flächendeckende Funktechnologie bedient werden. Es ist wahrscheinlich, dass Breitband Technologien mit niedriger Mobilität in Ballungszentren von übergeordneter Bedeutung sein werden, während man sich in weniger dicht besiedelten Gegenden der Technologien mit hoher Mobilität bedienen wird. Um zu gewährleisten, dass ein Endgerät in verschiedenen Regionen und somit Netzen nutzbar ist, wird auch hier eine Kombination verschiedener Zugangstechnologien sinnvoll.

21 Aktuelle Technologien In den letzten Jahren haben sich einige Technologien als besonders erfolgreich im Bereich der mobilen Sprach- und Datenkommunikation erwiesen, andere gelten als aussichtsreiche Favoriten für die Zukunft. In diesem Abschnitt sollen fünf Technologien vorgestellt werden, die sich durch ihre Charakteristika als gute Stellvertreter auszeichnen GSM Die Spezifikation für das Global System for Mobile Communications (GSM) wurde 1982 als Teil einer CEPT Standardisierung begonnen. Ziel war die Schaffung eines einheitlichen mobilen Kommunikationsnetzes für Europa auf einem 900MHz Band. Später wurde die Spezifikation für ein 1800MHz- und ein 1900MHz- Band erweitert. Somit ist GSM in lizenzpflichtigen Frequenzbändern angesiedelt. GSM-Netze ermöglichen Sprachkommunikation von hoher Zuverlässigkeit und guter Qualität sowie nahtloses Roaming weltweit. Die Datenkommunikation wird nicht direkt durch das Netz unterstützt, ist jedoch eingeschränkt über ein Voice-Modem realisierbar. GSM gilt gegenwärtig als der am schnellsten wachsende Standard für mobile Telefonie und bedient fast 1 Mrd. Kunden in 190 Ländern. Diese Eigenschaften zeichnen GSM in diesem Abschnitt als Stellvertreter für die Kommunikationsnetze der zweiten Generation aus Technische Merkmale GSM gibt es in drei verschiedenen Ausprägungen GSM-900, GSM-1800 und GSM- 1900, wobei sich die Zahlwerte jeweils auf das verwendete Frequenzband beziehen. Alle Ausprägungen bedienen sich einer Kombination aus FDMA- und TDMA-Techniken. Dazu wird das jeweilige GSM-Band auf 124 Trägerfrequenzen aufgeteilt, die für sich in jeweils 8 full-rate oder 16 half-rate Kanäle (TimeSlots) zerlegt werden. Die Kanäle können für Sprache, Daten oder Signalisierung in Raten von 9,6kb/s, 4,8kb/s und 2,4kb/s benutzt werden. Jeder full-rate Kanal kann einen Anruf bedienen. Da sich bis zu drei Netzwerkanbieter ein GSM-Band teilen müssen, stehen jedem Anbieter mindestens 40 Trägerfrequenzen zu. Die maximale Reichweite einer GSM Base Transceiver Station (BTS) beträgt ca. 35km. Die Fläche die damit abgedeckt werden kann, wird als Zelle bezeichnet. Eine Zusammensetzung vieler Zellen realisiert ein GSM-Netz. Da sich jedoch die Zellen an den Grenzen überschneiden, dürfen in benachbarten Zellen nicht dieselben Frequenzen verwendet werden. Daraus resultiert, dass die mindestens 40 Trägerfrequenzen eines Anbieters auf benachbarte Zellen verteilt werden müssen. Je nach Größe der Zellen des Netzes ist dann die Zahl der möglichen Anrufe innerhalb einer bestimmten Fläche begrenzt. In Ballungszentren wird aus diesem Grund die Größe der Zellen sehr klein gewählt. Da GSM für mobile Teilnehmer konzipiert wurde, werden Phasen und Frequenzen im Falle eines Doppler-Effekts 2 für Geschwindigkeiten bis zu 250km/h synchronisiert. Die Verbindung eines Benutzers zum GSM-Netz ist leitungsvermittelt. Diese Eigenschaft wird im Abschnitt eingehend erläutert. 2 Frequenzverschiebung die bei sich bewegenden Emittern oder Empfängern von (hier: elektromagnetischen) Wellen auftritt.

22 22 Multiple Access Technologies in Single Devices Netzwerk Architektur Abbildung 2: GSM Netzarchitektur Eine BTS stellt die Luftschnittstelle einer GSM-Zelle dar und verbindet demnach mobile Teilnehmer mit dem Netz. Mehrere Base Stations werden von einem Base Station Controller (BSC) verwaltet. Das Mobile Switching Center (MSC) regelt die Verbindung mit dem Netz und vermittelt eingehende und abgehende Anrufe. Im Home Location Register (HLR) wird kontinuierlich der Aufenthaltsort (aktuelle BTS) eines jeden Benutzers verzeichnet, um gegebenenfalls Anrufe weiterleiten zu können. Durch dieses Polling kann im HLR ein Zellwechsel festgestellt und nahtloses Handover ermöglicht werden. Ein Pendant zum HLR ist das Visitor Location Register (VLR), in dem die Aufenthaltsinformation eines Besuchers im Fall eines Roaming vermerkt wird. Authentication Center (AuC) und Equipment Identity Register (EIR) verifizieren Status und Gerät eines Benutzers GPRS Global Packet Radio Services (GPRS) wurde als Erweiterung von GSM entwickelt und durch die ETSI standardisiert. GPRS soll Schwächen von GSM im Bereich der Datendienste wie wireless Internet/Intranet und Multimedia kompensieren und wird als Vertreter der 2.5 ten Generation der mobilen Kommunikationsnetze in diesem Abschnitt vorgestellt Technische Merkmale GPRS basiert auf den gängigen GSM-Technologien und unterliegt somit den gleichen physikalischen Voraussetzungen wie die GSM-Netze. Die Innovation in GPRS ist die paketvermittelte Übertragung. Anders als in der leitungsvermittelten Übertragung von GSM ist ein Teilnehmer immer online, belegt jedoch Kanäle nur wenn tatsächlich Daten (Pakete) zu senden sind.

23 23 Abbildung 3 : Circuit and Packet Switching Die vorhandenen Ressourcen eines Netzes können damit effizienter genutzt werden und, da einem GPRS-Teilnehmer gleichzeitig mehrere Kanäle zur Verfügung stehen, beträgt die maximale Datenrate theoretisch 170 kb/s Netzwerk Architektur Abbildung 4: GSM/GPRS Erweiterung der Netzarchitektur Für GPRS wurde das GSM-Netzwerk um zwei wesentliche Komponenten erweitert. Der Serving GPRS Support Node (SGSN) beobachtet den Zustand eines Teilnehmers und ist verantwortlich für die Herstellung und die Verwaltung von Verbindungen zwischen Teilnehmer und Zielnetzwerk. Der Gateway GPRS Support Node (GGSN) repräsentiert den Verbindungspunkt von GPRS-Domäne und externen Datennetzen. Dem BSS wurde die Packet Control Unit (PCU) hinzugefügt, die die Zuweisung von Ressourcen zu den mobilen Teilnehmern verwaltet. Das Roaming in GPRS muss eine Reihe von Routing- und Sicherheitsprotokollen gewährleisten, um einem GPRS-Teilnehmer, der sich in einem anderen Public Land Mobile Network (PLMN) als dem eigenen aufhält, den Zugang zu den Diensten seines Home Networks zu ermöglichen. Diese Funktionalität wird auf ein GPRS Roaming exchange (GRX) Dienst abgebildet. Dieser Dienst verbindet die Roaming-Partner zu einem VPN

24 24 Multiple Access Technologies in Single Devices und wird durch dritte Parteien gewährleistet. Andere Basisdienste wie das Handover stützen sich auf das GSM-Netz UMTS UMTS (Universal Mobile Telecommunication System) wurde in den Jahren 1999 und 2000 im Rahmen des 3'rd Generation Partnership Projects (3GPP) unter IMT-2000 spezifiziert und von der ETSI standardisiert. UMTS wurde als Nachfolger von GRPS und HSCSD für die dritte Generation der mobilen Telefonnetze entwickelt und ist stärker auf die gestiegenen Ansprüche an die weltweite mobile Datenkommunikation ausgerichtet. Insbesondere werden die verwendeten Funkbänder durch neue Technologien und Algorithmen besser genutzt und den Teilnehmern somit eine wesentlich höhere Bandbreite geboten. Optional wird auch eine Anbindung an mobile Satellitendienste definiert. Die Ausbreitung von UMTS-Netzen ist aufgrund der hohen Migrationskosten bislang gering. Dennoch gilt UMTS als die europäische Lösung für die Kommunikationsnetze der dritten Generation und wird in diesem Abschnitt als Vertreter der CDMA- Technologien vorgestellt Technische Merkmale Das UMTS-Netz ist wie GPRS paketvermittelt. Die teilweise lizenzpflichtigen Frequenzbänder sind in mehrere Segmente unterteilt, auf denen jeweils verschiedene Standards definiert wurden. Frequenzbereich [MHz] Verwendungszweck DCS-1800 Uplinkband (Digital Cellular System = GSM 1800) DCS-1800 Downlinkband DECT Digital Enhanced Cordless Telecommunications UTRA-TDD (4x 5MHz-Bänder) UTRA-FDD Uplink (12x 5MHz Bänder für Uplink) MSS Uplink (Mobile Satellite Service) UTRA-TDD unlizenzierter Betrieb (2x 5MHz Bänder) UTRA-TDD (1x 5MHz Band) UTRA-FDD Downlink (12x 5MHz Bänder für Downlink) MSS Downlink (Mobile Satellite Service) Tabelle 1: Aufteilung der Frequenzbänder in Europa Der terrestrische Teil des UMTS-Netzes wird durch das UMTS Terrestrial Radio Access Network (UTRAN) bedient und definiert die Standards UTRA-FDD (UMTS Terrestrial Radio Access Frequency Division Duplex) und UTRA-TDD (UMTS Terrestrial Radio Access Time Division Duplex). Beide Standards benutzen ein W-CDMA Multiplexverfahren. UTRA-FDD basiert auf gepaarten Frequenzpaketen bestehend aus zwei 5MHz Frequenzbändern, wobei jeweils eines für den Uplink und eines für den Downlink definiert ist.

25 25 UTRA-TDD verteilt Up- und Downlink mittels TDD auf einem 5MHz Band. Die Reichweite einer UMTS-Zelle variiert zwischen 200m und 1600m und korreliert mit der Zahl der Teilnehmer. Eine hohe Teilnehmerzahl führt zu starken Interferenzen und wirkt sich negativ auf die Reichweite aus. So muss wie bereits in GSM die Größe der Zellen in Ballungszentren klein gewählt werden Netzwerk Architektur Abbildung 5 : UMTS Netzarchitektur Die wesentlichen Abweichungen der UMTS-Netz Architektur von der des GSM/GPRS- Netzes findet man im Funkteil, dem UTRAN. Das Radio Network Subsystem (RNS) ersetzt das BSS, der Knoten B ersetzt die BTS und der Radio Network Controller (RNC) ersetzt den BSC. Die Radio Network Controller sind miteinander verbunden. Jeder RNC beschreibt mit all seinen Knoten B ein RNS. Die Knoten B unter einem RNC werden für sich zu Location Areas (LA) zusammengefasst (in der Grafik farbig dargestellt). Im HLR wird nur noch die Location Area vermerkt und das Handover somit beschleunigt WLAN Im Jahr 1999 hat die IEEE den ersten von bisher drei Standards für drahtlose Local Area Networks (WLAN) verabschiedet [802]. Seit spätestens 2001 fand diese Technologie, durch sinkende Hardware-Preise und sich allmählich entwickelnde Infrastrukturen, zunehmende Verbreitung. Die Spezifikationen sind Teile der Spezifikationsgruppe 802, die eine LAN/MAN Architektur beschreiben und spezifizieren, wie drahtlose Verbindungen operieren müssen, damit sie wie drahtgebundene Bestandteile eines LANs erscheinen. Die Ideen hinter WLAN waren einfache Einrichtung, Übertragungsraten nahe an der Geschwindigkeit von LAN und der Wegfall der Verkabelung. Diese Vorteile waren vor allem, aber nicht nur, für Besitzer von Laptops interessant, da sie ihnen endlich die lang ersehnte kabellose mobile Arbeitsstation mit Internetzugang ermöglichen würden, die bis dahin kaum möglich war, da die meisten Technologien Sichtkontakt zwischen Sendeund Empfangseinheit erforderten. Der Fokus lag von Anfang an auf relativ kurzen Entfernungen (Local Area) und eingeschränkter Mobilität. Schon aus diesen Gründen ist WLAN nicht als Konkurrenz, sondern eher als Ergänzung zu 2G und 3G Telefonie-Technologien zu sehen. Aufgrund großer Verbreitung und Popularität wird WLAN in diesem Abschnitt als Vertreter der kabellosen LAN-Technologien auf freien Frequenzbändern vorgestellt.

26 26 Multiple Access Technologies in Single Devices Technische Merkmale Die WLAN Spezifikationen existieren zunächst in drei Versionen, die teilweise durch Zusätze ergänzt wurden. Die Kommunikation bei WLAN erfolgt, abhängig von der Spezifikation, im 2,4GHz oder 5GHz Bereich b verwendet 3 Kanäle im 2,4GHz Bereich, welcher in den meisten Ländern lizenzfrei ist, und erzielt Übertragungsraten bis 11Mbps, während a 12 Kanäle im 5 GHz Bereich benutzt und bis zu 54Mbps erreicht g stellt eine Verbesserung der Nutzung des Spektrums bei 2,4GHz dar und erzielt ebenfalls bis zu 54Mbps. Die eigentliche Übertragungsgeschwindigkeit ist von der Entfernung der kommunizierenden Stationen, dem Umfeld und der Anzahl der kommunizierenden Stationen abhängig, da sich alle Stationen die gesamte verfügbare Bandbreite pro Kanal teilen. Für das 2,4GHz Band gilt, dass es generell störanfälliger ist, da auch andere Funktechnologien auf diesem lizenz- und zulassungsfreien Band arbeiten und es dadurch zu Interferenzen kommen kann. Außerdem spielen Umwelteinflüsse, wie Regen, Nebel oder Mauerwerk eine große Rolle, die die Reichweite und Übertragungsgeschwindigkeit beeinflussen. Im Allgemeinen beträgt die Reichweite in Gebäuden 10m, im Freien und ohne Umwelteinflüsse und Behinderungen sind Reichweiten von ca. 100m möglich a b Abbildung 6 : Datendurchsatz in Abhängigkeit von der Entfernung bei WLAN Alle Spezifikationen enthalten unter anderem Mechanismen für Authentication und Privacy. Authentifizierung erfolgt entweder im Open System Verfahren, was im Prinzip keine Authentifizierung darstellt, oder per Shared Key, wo die authentifizierende Station einen Zufallswert an die anfragende Station schickt, den diese mit dem Shared Key verschlüsselt zurücksendet. Die Verschlüsselung erfolgt über Wired Equivalent Privacy (WEP), ein symmetrisches schlüsselbasiertes Verfahren. Die Länge des Keys ist variabel, wobei gilt, dass längere Keys generell als sicherer gelten. Aktuelle Systeme unterstützen Schlüssel mit bis zu bis zu 256 Bit Länge. Zusätzlich werden Erweiterungen und neue Verfahren der Verschlüsselung entwickelt, um die Sicherheit der Kommunikation zu erhöhen Netzwerk Architektur Geräte, die WLAN benutzen, können in zwei verschiedenen Modi operieren. Der Ad-Hoc Modus erlaubt die spontane Bildung von Netzwerken mit Stationen, die sich direkt über Funk erreichen. Im Infrastruktur-Modus authentifizieren sich alle Clients gegenüber einem Access Point, der dann die Weiterleitung und Verteilung mittels einen Distribution Systems über-

27 27 nimmt. Auf diese Weise ist es auch möglich Stationen miteinander zu verbinden, die keinen direkten Kontakt über Funk haben. Abbildung 7 : WLAN Netzarchitekturen Durch die Anzahl der verfügbaren Kanäle in jeder Spezifikation ist jedoch die Anzahl der gleichzeitig an einem Ort funktionierenden Access-Points für den Infrastruktur Modus eingeschränkt. Operieren zwei Access-Points auf demselben Kanal, kommt es zu Störungen, wodurch Denial-of-Service Attacken relativ einfach möglich sind. Da die Reichweite von WLAN begrenzt ist, ist auch die Mobilität eingeschränkt. Bei jedem Wechsel zwischen Access-Points ist eine neue Authentifizierung notwendig, oftmals mit anschließender Re-Konfiguration der Netzwerkparameter, wie IP Adresse, DNS Server und Gateways. Bewegt sich eine Station zu schnell, reicht die Zeit, die sie sich innerhalb der Reichweite eines Access-Points befindet, möglicherweise nicht zur Authentifizierung und Re-Konfiguration. Eine Lösung hier kann nur eine Access-Point übergreifende AAA Infrastruktur in Kombination mit einer Technik zur Handhabung mobiler IPs schaffen Bluetooth Bluetooth wurde 1998 und 1999 als System für kabellose Kommunikation über kurze Strecken durch die IETF spezifiziert und durch die IEEE standardisiert. Es operiert auf einem lizenzfreien 2.4 GHz Band und gilt als robust und preiswert. Große Verbreitung findet Bluetooth in Mobiltelefonen und Multimedia-PCs. Es soll in diesem Abschnitt als Vertreter der kabellosen PAN-Technologien vorgestellt werden Technische Merkmale Das Bluetooth System operiert in einem lizenzfreien Frequenzband zwischen 2400 MHz und 2483,5 MHz, welches in 79 Frequenzen zerlegt wird. Jedes Bluetooth Gerät bedient diese Frequenzen dann in einem speziellen Muster durch Frequency Hopping. Auf den einzelnen Frequenzen wird ein TDD Verfahren für die bidirektionale Kommunikation verwendet. Die maximale Bandbreite liegt bei 1Mb/s. Je nach Leistung der Endgeräte hat Bluetooth Reichweiten zwischen 10cm und 100m. Eine Bluetooth-Kommunikation findet jeweils zwischen zwei Endgeräten als Punkt-zu- Punkt Verbindung statt. In dieser Verbindung nimmt eines der Endgeräte die Rolle des

28 28 Multiple Access Technologies in Single Devices Masters, das andere die Rolle des Slave an. Ein Master kann bis zu sieben aktive Slaves bedienen Netzwerk Architektur Abbildung 8 : Bluetooth Netzarchitekturen Bluetooth Teilnehmer organisieren sich selbstständig zu Pico-Netzen, auch genannt PANs. Eine explizite Paarung zweier Teilnehmer etabliert eine Verbindung. Ein Slave kann Teilnehmer in mehreren Pico-Netzen sein oder Master in einem anderen Pico-Netz. Ein Master kann seine Funktion in verschiedenen Pico-Netzen zur selben Zeit ausüben. Routing innerhalb eines Pico-Netzes oder Handover zwischen mehreren verbundenen Netzen wird durch Bluetooth nicht explizit definiert. Bluetooth Teilnehmer bieten ihre Fähigkeiten als Dienste an. Die Handhabung dieser Dienste wird in Profilen beschrieben und die Profile anderen Teilnehmern zur Verfügung gestellt um den Zugriff auf die Dienste zu ermöglichen Integration Multi Mode User Equipment soll mehrere mobile Technologien kombinieren und sinnvoll nutzbar machen. Für die erläuterten Vertreter stellt sich demzufolge die Frage wie sie kombiniert werden können. Die Eigenschaften von GSM/GPRS, UMTS und WLAN zeigen, dass sich diese Technologien sinnvoll ergänzen können. GSM/GPRS zeichnen hohe Reichweite und Mobilität aus, während UMTS größere Bandbreiten in dichteren Netzen gewährleisten kann. WLAN erlaubt noch höhere Bandbreiten, ist nach der Spezifikation jedoch keine flächendeckende Technologie, sondern eher auf einen punktuellen Einsatz ausgerichtet. Schwächen in Reichweite und Mobilität könnten in Ergänzung mit UMTS begrenzt werden. Wie die Organisation einer Integration dieser drei Technologien aussehen kann soll Thema des nächsten Abschnitts sein. Im Gegensatz zu GSM/GPRS, UMTS und WLAN bezieht sich Bluetooth auf Netze die nur wenige Meter umspannen. Dennoch kann Bluetooth als punktuell eingesetzte Lösung

29 29 ähnlich WLAN ergänzend zu flächendeckenden Technologien verwendet werden. Die mögliche Bandbreite macht eine solche Ergänzung bezogen auf GSM/GPRS oder UMTS sogar sinnvoll. Die Stärken von Multi-Mode User Equipment mit integriertem Bluetooth werden jedoch auch weiterhin in der Fähigkeit liegen, Personal Area Networks mit Local oder Wide Area Networks zu verbinden. Abbildung 9 zeigt eine mögliche, räumliche Verteilung der verschiedenen Zugangstechnologien. WLAN Satellite GSM/ GPRS BT WLAN WLAN UMTS WLAN WLAN Abbildung 9: integriertes Netzwerk 1.5 Multi Mode User Equipment in 3G Die Kommunikationstechnologien wurden in den vergangen Jahren sehr stark durch die inzwischen weltweit etablierten Mobilfunknetze geprägt. Die Architektur dieser Netze und die darin enthaltenen Lösungen für elementare Probleme haben Standards für die mobile Sprach- und Datenkommunikation gesetzt. Die Kommunikationsnetze der Übergangsgeneration 2.5G, in Europa gleichzusetzen mit GSM/GPRS, definieren bereits Lösungen für AAA, Mobility Management, Abrechnung und Services auf weltumspannenden, paketvermittelten Systemen. Die nun entstehende dritte Generation der mobilen Kommunikationsnetze könnte gut auch andere Funktechnologien als GSM/GPRS oder UMTS integrieren und somit eine organisierte Umgebung für Multi Mode User Equipment etablieren.

30 30 Multiple Access Technologies in Single Devices Dieses Abschnitt soll eingangs elementare Aspekte im Aufbau der 3G-Netze darstellen, danach Möglichkeiten der Kombination von WLAN-Technologien mit 3G-Netzen erläutern und schließlich die Anwendungsmöglichkeiten von Multi Mode User Equipment in redundanten, heterogenen 3G Netzen beschreiben Kernaufbau von 3G Netzen Wie bereits im Abschnitt erläutert, sind sich die Netzarchitekturen von 2.5G und 3G sehr ähnlich. Die elementaren Aufgaben sind Authentifizierung, Autorisierung, Administration und Mobility Management. Authentifizierung, Autorisierung und Administration wurden bereits in der Beschreibung der GSM Netze erläutert. Das Mobility Management soll nun etwas näher betrachtet werden. Die Bewegung eines mobilen Benutzers kann die Übergabe der Verbindung von einer kabellosen Zelle zu einer anderen notwendig machen. Haben beide Zellen dieselben Eigenschaften (Datenrate, Mobilität, Deckung) spricht man von einem horizontalen Handover, bei unterschiedlichen Eigenschaften von einem vertikalen Handover. Ein vertikales Handover setzt das Multi Mode User Equipment voraus. Ein Spezialfall des Handover ist das Roaming. Es wird notwendig wenn beide Zellen von verschiedenen Netzwerk-Operatoren betreut werden. Das Roaming erfordert ein Agreement zwischen den beteiligten Operatoren, bietet einem Benutzer jedoch einen transparenten Übergang zwischen verschiedenen Netzen und verdeckt somit die physischen Grenzen des Heimatnetzes. Abbildung 10 veranschaulicht die Strukturen eines 3G-Netzes, die an einer Verbindung über ein Roaming Leg hinweg beteiligt sind. Abbildung 10: Roaming in 3G Netzen Wie in Abschnitt beschrieben wird in 3G-Netzen noch immer zwischen der leitungs- und der paketvermittelten Verbindung unterschieden. Die Abbildung 10 stellt eine paketvermittelte Verbindung da. Das User Equipment eines Benutzers wird im besuchten Netz vom SGSN bedient, seine Verbindung jedoch über den GGSN im Heimatnetz etab-

31 31 liert. Authentifizierung, Autorisierung und Administration übernimmt ebenfalls der SGSN im besuchten Netz, der dafür jedoch nicht wie bei der leitungsvermittelten Verbindung das eigene VLR konsultiert, sondern direkt das HLR im Heimatnetz. Auf dieser Ebene werden nur das horizontale Handover und ein vertikales Handover zwischen 3G-konformen leitungs- und paketvermittelten Technologien betrachtet. Datenverkehr und Signalisierung sind über proprietäre Protokolle realisiert, womit für das Einbringen einer nicht auf 3G ausgerichteten Technologie zunächst Gemeinsamkeiten fehlen. In der Abbildung 10 ist neben den für die Kommunikation elementaren Bestandteilen im Netz auch eine übergreifende Dienstarchitektur erkennbar. Die Service Control Function (SCF) bietet eine Schnittstelle zu elementaren Diensten des Netzes. Einige Beispiele für diese Dienste sind Call Control, AAA, User Location und Charging. Vermittelt wird durch die Service Switching Function (SSF). Über dieser Dienstarchitektur wird in 3G ein IP basiertes System errichtet, welches eine echte Basis für die Verwendung von Internettechnologien in 3G Netzen bietet, das IP Multimedia Subsystem (IMS) [3GPP TS ]. Die Möglichkeit durch das IMS über Internetprotokolle auf Basisfunktionalitäten des Netzes zugreifen zu können, erfüllt die Anforderungen für eine Integration von mobilen Netzen, die nicht mit 3G konform sein müssen WLAN Technologien und 3G Netze Das 3'rd Generation Partnership Project hat für das Release 6 die Möglichkeiten für die Verwendung von 3GPP Systemen in Wireless Local Area Networks beschrieben [3GPP TR ]. Dienste und Ressourcen von 3G-Netzen sollen auf IP Ebene über WLAN verfügbar gemacht werden. Um den Zugriff über externe Netze zu gewährleisten wird ein integriertes 3GPP System mit zwei neuen Komponenten eingeführt. Die erste Komponente ist ein 3GPP AAA Server für die Realisierung von Authentifizierung, Autorisierung und Administration über ein externes Netz. Die zweite Komponente ist das Packet Data Gateway (PDG) für den Datenverkehr zwischen dem 3G Netz und einem externen IP-Netz. 3GPP Home Network Intranet / Internet HSS HLR Wx D' / Gr' Wf CGw/ CCF WLAN UE WLAN Access Network Wr / Wb Wn 3GPP AAA Server Wg WAG Wm Wp Wo OCS Wu Wi PDG Scenario 3 Abbildung 11: Vertikales Roaming

32 32 Multiple Access Technologies in Single Devices Wie in Abbildung 11 zu erkennen ist, ergeben sich für einen Benutzer zwei Wege für den Zugriff auf ein 3GPP System. Die Benutzung kann transparent über das WLAN Access Network und das WLAN Access Gateway (WAG) geschehen, oder direkt über das Packet Data Gateway. Der zweite Weg setzt natürlich eine separate Anmeldung am WLAN Access Network voraus. Ist der Benutzer mit dem 3G Heimatnetz verbunden stehen wiederum Basisdienste wie AAA oder Charging (Online Charging, Charging Collection Function) zur Verfügung. Aus den beiden Zugangswegen ergeben sich für das Mobility Management verschiedene Konstellationen. Erfolgte die Anmeldung über das WLAN Access Network transparent an einem von dem Heimatnetz verschiedenen 3G Netz, wäre ein Roaming zwischen beiden notwendig. Hat sich ein Benutzer direkt am PDG des Heimatnetzes angemeldet entfällt ein Roaming in jedem Fall. Ein vertikales Handover zwischen WLAN- und 3G-Technologien wäre durch diese Architektur erstmals spezifiziert und könnte durch entsprechendes Multi Mode User E- quipment in Anspruch genommen werden Die Verwendung multipler Modi in einem Endgerät Die Unterstützung verschiedener komplementärer Modi durch ein Endgerät erfordert Betrachtungen wie diese parallel eingesetzt werden können oder wann ein vertikales Handover angestrebt werden sollte. Multi Mode User Equipment wird zu diesem Zweck zunächst nach vier Benutzungszuständen klassifiziert [3GPP TR21.910]. Zustand 1: Das Gerät operiert in einem Modus ohne die Durchführbarkeit anderer Modi zu überprüfen. Ein vertikales Handover erfolgt durch eine Benutzeraktion oder automatisch falls der ursprüngliche Modus nicht mehr praktikabel ist. Zustand 2: Das Gerät operiert in einem Modus prüft aber andere Modi auf Durchführbarkeit und signalisiert in diesen. Paralleles Senden und Empfangen über verschiedene Modi werden nicht unterstützt. Zustand 3: Das Gerät empfängt in mehreren Modi gleichzeitig, sendet jedoch nur in einem. Zustand 4: Das Gerät empfängt und sendet gleichzeitig in mehreren Modi. Das vertikale Handover in den ersten beiden Zuständen kann durch verschiedene Kriterien definiert werden. Ein elementarer Aspekt ist die Verfügbarkeit der Modi. Sollte der primäre Zugangweg zu einem Netz aus physischen Gründen nicht mehr verwendbar sein, kann ein Fallback auf einen zuverlässigeren Modus praktiziert werden. Ein weiteres Kriterium für ein vertikales Handover kann die Quality of Service sein. Benötigt man für eine begrenzte Zeit eine Verbindung mit hoher QoS, wird auf einen Modus gewechselt der den Anforderungen entsprechen kann. Analog hat dieser Fall auch für die Bandbreite Gültigkeit. Ein viertes Kriterium sind die Kosten die für die Verbindungen in verschiedenen Modi anfallen. 1.6 Multi-mode user equipment Für die Gestaltung von Geräten, die mehrere Zugangstechnologien integrieren gibt es zwei grundsätzliche Möglichkeiten. Zum einen können sie als Standalone Geräte konzipiert sein, die sowohl die Zugangstechnologien als auch die Anwendungen und Darstellung enthalten. Ein Beispiel hierfür wären Dual- oder Tri-Band Mobiltelefone, die eventuell auch noch über Bluetooth verfügen, PDAs, die WLAN und Bluetooth-Adapter besitzen, oder Smartphones, die eine Mischung der beiden darstellen.

33 33 Alternativ wäre es möglich, die Zugangstechnologie von den Applikationen und der Darstellung zu trennen. Ein solches Gerät würde dann nur über die notwendigen Funktionen verfügen, einen Zugang über eine der integrierten Technologien herzustellen. Die Nutzung des Zugangs durch Applikationen und deren Darstellung würde über eine drahtlose Kurzstreckenverbindung durch einen anderen Terminal erfolgen. Solche Geräte bezeichnet man als Personal Mobile Gateway (PMG) [IXI PMG]. Unabhängig davon, welche Variante man bevorzugt, gibt es für die Integration von verschiedenen Zugangstechnologien in einem Gerät verschiedene Ansätze, die hier kurz vorgestellt werden sollen. Zunächst werden die Konzepte der modularen und vorgefertigten Architekturen betrachtet. Im Anschluss werden die Konzepte für PMGs, wie sie von den Firmen IXI und WSI entworfen wurden, vorgestellt. Den Abschnitt der Konzepte schließt ein Abschnitt über integrierte Architekturen ab ein Thema, mit dem sich die aktuelle Forschung intensiv beschäftigt. Abgeschlossen wird der Teil, der sich mit Multi-Mode User Equipment auseinandersetzt, durch einen Abschnitt, in dem einige aktuelle Geräte aus den einzelnen Bereichen vorgestellt und verglichen werden. Der Schwerpunkt bei dem Vergleich soll dabei nicht auf der Gesamtheit der Eigenschaften und Preis liegen, sondern vor allem auf der Eignung für Mobilität, Personalisierbarkeit und Erweiterbarkeit und Roaming Modulare Architekturen Aktuell verfügbare modulare Geräte, die mehrere Zugangstechnologien vereinen, sind in der Regel PDAs oder Pocket-PCs, die über eine Anzahl von Erweiterungs-Slots verfügen. Da diese als Standalone Geräte konzipiert sind, sind sie relativ groß, und bei Benutzung der Erweiterungs-Slots teilweise sogar inakzeptabel unhandlich. Abbildung 12: ipaq mit GSM Abbildung 13: ipaq mit WLAN Abbildung 14: ipaq Jacket Trotzdem ermöglicht diese Art von Geräten bereits jetzt die Erforschung, Entwicklung und Erprobung von Funktionen, die in den mobilen Netzwerken der Zukunft möglich sein müssen. Außerdem ist die einfache Erweiterbarkeit um oder Austauschbarkeit von Zugangstechnologien ein Vorteil, der gerade jetzt wertvoll ist, da viele Standards noch in der Entwicklung sind und oftmals deren genaue Ausprägung noch nicht absehbar ist. Da es bei PDAs aus Platzgründen oft unmöglich ist, mehrere Erweiterungs-Slots einzubauen, integrieren aktuelle Geräte oft schon eine oder mehrere Funk-Technologien. Zwei Beispiele für solche Geräte sind der HP ipaq h5500 und der LOOX 610, die in der Ü- bersicht noch vorgestellt werden.

34 34 Multiple Access Technologies in Single Devices Abbildung 15 : HP ipaq h5500 Abbildung 16 : LOOX 610 Der Vorteil dieser Geräte in Hinblick auf die Integration in heterogene Netze ihre Erweiterbarkeit ist auch ihr größtes Problem. Durch die Möglichkeiten der Erweiterbarkeit muss auch die Intelligenz für die Wahl des Zugangs, für die Anpassung der Dienste sowie für die Übermittlung der Präferenzen und Fähigkeiten erweiterbar gestaltet werden. An den Problemen moderner Betriebssysteme mit Erweiterungen wird sichtbar, dass auch auf dem Gebiet der PDAs potentiell Probleme existieren, die man sorgfältig bedenken muss, wenn man eine zuverlässige und komfortable Hardware-, Software- und Dienstarchitektur entwickeln will. Außerdem setzen sich Fortschritte bei der Miniaturisierung bei modularen Geräten nur langsam durch. Zum einen müssen einzelne Komponenten noch mit externen Schnittstellen und Gehäusen, ausgestattet werden, damit sie als Erweiterungskarten benutzt werden können, so dass hier die Verkleinerung langsamer fortschreitet. Zum anderen sind die Erweiterungs-Slots genormt, und somit ist eine echte Verkleinerung der Komponenten erst möglich, wenn sich eine kleinere Bauform für Erweiterungen durchsetzt Vorgefertigte Geräte Mobiltelefone sind Beispiele, wo eine Multimode Technik zum Einsatz kommt, die aber in der Regel nicht erweiterbar ist. Sie verfügen über Dual- oder Tri-Band-GSM Zugangstechnik und aktuelle Geräte integrieren oft noch Bluetooth. Die Hersteller haben dabei auf eine optimale Abstimmung der einzelnen Teilkomponenten geachtet, so dass weniger Probleme bei der Zusammenarbeit auftreten und die Bedienung einfach gestaltet werden kann. Abgesehen davon, dass Mobiltelefone immer noch relativ kleine Displays besitzen, sind die eigentlichen Zugangstechnologien erheblich kompakter in dem Gehäuse untergebracht. Laut [Merging] bewegen sich Größe und Gewicht aktueller PDAs von ca. 90cm 3 und 110g bis ca. 250cm 3 und 250g, während aktuelle Mobiltelefone bei ca. 80cm 3 ein Gewicht von ca. 80g haben. Diese Werte liegen für Smartphones, die in der Architektur zwischen PDAs und Mobiltelefonen liegen, in der Regel auch in der Mitte. Drei Beispiele für aktuelle Mobiltelefone sind das Siemens S55, das Nokia 6600 und das Sony-Ericsson P900, welche auch im Vergleich kurz betrachtet werden.

35 35 Abbildung 17: Siemens S55 Abbildung 18: Nokia 6600 Abbildung 19: Sony-Ericsson P900 Um die einzelnen Komponenten möglichst klein zu halten, nutzen die neusten Geräte aktuelle Fortschritte aus der Forschung. WLAN Controller werden mittlerweile komplett auf SD/IO Cards untergebracht, wo früher noch PCMCIA Karten mit klobigen Antennen nötig waren. Und auch bei Bluetooth und 2G 3G Controllern wird durch die Forschung eine zunehmende Miniaturisierung ermöglicht. Entsprechend kompakter können Kombinationen dieser Komponenten untergebracht werden Das PMG Konzept Das Konzept des PMG wurde vor ca. 2 Jahren von der Firma IXI auf der 3GSM vorgestellt. IXI erklärt: The PMG combines cellular (e.g. GSM/GPRS, CDMA, etc.) and short distance wireless (e.g. Bluetooth or other technologies like WiFi), with micro-router and micro-server functionalities. It is the point of connection between the wireless network and the new category of affordable and best-of-breed mobile devices (Sleek Devices) for consumers. The PMG can be a stand-alone device the size of a small mint box, or integrated into a cellular phone. [IXI PMG] Danach ist das PMG für Benutzer die zentrale Komponente eines beliebig erweiterbaren Systems. Es stellt einerseits die Verbindung zum WAN her, andererseits erlaubt es zusätzlichen Geräten, so genannten Sleek-Devices, diese Verbindung zu nutzen. Dabei ü- bernimmt das PMG unter anderem das Routing zwischen WAN und PAN bzw. innerhalb des PAN, die Authentifizierung und die Verwaltung der Sleek-Devices. Als zentrale Vorteile werden bei IXI die einfache Erweiter- und Personalisierbarkeit sowie die niedrigen Kosten genannt. Sleek-Devices können nach Belieben und nach und nach zum System hinzugefügt werden. Dabei kann der Benutzer von den relativ niedrigen Preisen der Geräte profitieren. Da sie große Teile der Konnektivität dem PMG überlassen können, sind sie einfacher, preiswerter und kompakter herzustellen. Außerdem soll durch eine große Anzahl unterschiedlicher, stets aktueller Sleek-Devices gewährleistet werden, dass für jeden Geschmack und Zweck ein Gerät zur Verfügung steht. Zusatzfunktionen lassen sich außerdem durch einspielbare Software-Updates nachrüsten.

36 36 Multiple Access Technologies in Single Devices Jedes Sleek-Device kann an die eigenen Präferenzen und Vorstellungen angepasst werden. Ein Beispiel hierfür sind Uhren [Seiko], bei denen man Themes, Logos und Klingeltöne verändern kann. Durch einheitliche Schnittstellen wird gewährleistet, dass die einzelnen Komponenten sowohl untereinander kommunizieren können als auch jederzeit austauschbar sind. Dadurch ist es möglich, die Ausgabe auf beliebigen Geräten erfolgen zu lassen und somit jederzeit eine optimale Kombination auszuwählen. Steht in einer Situation nur ein PDA- Display und Kopfhörer zur Verfügung, könnte an anderer Stelle ein TFT-Monitor und Lautsprecher genutzt werden. Einige interessante Prototypen und Ideen für Sleek-Devices kann man auf der IXI Presse- Seite sehen: die a;ware;able Uhren [Seiko], Messenger Terminals [SMART], Mobiltelefone [Samsung], Stifte, Spielkonsolen und vieles mehr. Alles soll sich verbinden lassen, ergänzt sich gegenseitig und trägt zum Komfort und Spaß des Benutzers bei. Abbildung 20: PMG & Sleek-Devices Leider war von den vorgestellten Sleek-Devices außer den Bildern und einzelnen Pressemitteilungen nicht viel zu finden. Das legt nahe, dass noch keine Geräte wirklich in Serienproduktion sind, so dass sich das Konzept noch in der Praxis beweisen werden muss. Ähnlich dem Konzept von IXI hat die Firma WSI ein PMG namens BlueTex entwickelt. The BlueTex is (...) combining powerful short range Bluetooth and Mobitex, a narrowband data-only network that is based on an open international standard. (...) The BlueTex works as a gateway transforming signals between Bluetooth and Mobitex. The user connects through the device using a hand-held computer (PDA) and special designed software. [BlueTex] Dieses nutzt als Funktechnologien Bluetooth zur Verbindung mit den Zusatzkomponenten und Mobitex zur Verbindung mit dem Internet. Auch wenn das Konzept prinzipiell ähnlich wie bei IXI ist, gibt es hier doch zwei grundlegende Unterschiede. Zum einen ist die Zielgruppe eine andere. Wo IXI auf jugendliche Trendsetter setzt, welche moderne Designs und Spaß wollen, legen die Entwürfe von WSI Geschäftskunden als Zielgruppe nahe. Zum anderen ist durch die Wahl von Mobitex als Schnittstelle zum WAN das Einsatzgebiet und die Übertragungsrate beschränkt, da Mobitex noch nicht die Verbreitung wie GPRS und GSM hat [GPRS vs. Mobitex] und ein reines Datennetz ist.

37 Integrierte Architekturen Momentan findet die Kombination von Komponenten noch auf Basis von Platinen statt. Jede einzelne Komponente benötigt dabei außer ihrem eigentlichen Chip noch ein kleines Gehäuse, Pins und Leitungen zur Verbindung mit dem restlichen System. Der nächste Schritt bei der Verkleinerung der Technik ist also logischerweise die Integration verschiedener Systemteile und Zugangstechnologien auf einem Chip. Idealerweise würde sogar das gesamte System, inklusive Speicher, Prozessoren, DSPs, Controllern und Ein- /Ausgabelogik, auf einem Chip Platz finden. Solche Systeme nennt man System-on-a- Chip. Aktuelle Forschungs- und Entwicklungserfolge auf dem Gebiet der Integration melden zum Beispiel QualComm [MSM 7xxx] [QualComm], mit der Integration von WLAN und Quad-Band Funktechnologien, und ETRI [ETRI SOC], wo Komponenten- Designs für SoCs entwickelt werden. Entsprechend rücken diese Systeme mit der Zeit in greifbare Nähe. Trotz der erwähnten Fortschritte benutzen alle integrierten Techniken immer noch dedizierte Antennen und Sende-/Empfangs-Komponenten. Auch die gleichzeitige Nutzung verschiedener Technologien wie 2.5G und 3G, die die gleiche Antenne benutzen würden, ist nicht möglich. Das ultimative Ziel der aktuellen Forschung dagegen ist das Software- Defined Radio (SDR) [IEEE SDR Concept] [JTRS SDR] [SDRF]. A software defined radio (SDR) (sometimes called a software radio) is analogous to a computer in that users can tailor its capabilities to specific needs by using relatively generic hardware and loading multiple software waveform applications that meet i- dentified requirements. A software defined radio is flexible, by virtue of being programmable, to accommodate various physical layer formats and protocols. (...) A software defined radio converts analog radio signals of different frequencies into digital data. The bits are processed by software running on a microprocessor. Software controls functionality such as frequency, modulation, bandwidth, security functions, and waveform requirements.[jtrs SDR] SDRs sind Systeme, die aus re-programmierbaren Sende- und Empfängereinheiten bestehen. Diese sind in der Lage, sich innerhalb gewisser Grenzen auf neue Technologien einzustellen, und somit im Endeffekt mindestens drei Vorteile bringen. Zunächst einmal Platzersparnis, da nicht für jede neue Technologie ein Teilchip integriert werden muss. Als zweites würde die geringere Anzahl von Transistoren auch eine Einsparung an Energie bedeuten. Und der dritte Vorteil, der sofort auffällt, wäre die Möglichkeit, neue Funktechnologien durch einfache Umprogrammierung der Antennen- und Sende- /Empfangseinheiten zu integrieren. Es ist klar, dass eine solche Lösung einen großen Schritt für die Mobilkommunikation bedeuten würde. Leider gibt es auf dem Weg dahin noch Probleme, die man bisher nicht lösen konnte. [SDR Quest] [Merging] [ETRI] Als erstes wird das Problem der Signalfilterung genannt. Filter sorgen für das Entstören und Duplexen der empfangenen Signale. Da Filter in SDRs einen großen Frequenzbereich abdecken müssen, können sie nicht wie die Filter in Anwendungen für einen speziellen Frequenzbereich optimiert werden. Sie sind schwierig zu entwickeln und aktuelle Systeme sind entsprechend noch relativ groß und benötigen viel mehr Energie als speziell optimierte Filter. Ein zweites Problem ist die Verstärkung des Ausgangssignals. Prinzipiell muss sich der Verstärker eines SDR auf variable Frequenz- und Ausgangsspannungsbereiche einstellen lassen. Auch hier haben Verstärker, die für spezielle Anwendungen optimiert werden, noch große Vorteile, vor allem bezüglich des Energiebedarfs.

38 38 Multiple Access Technologies in Single Devices Das dritte Problem, das genannt wird, ist die Leistung der ADCs. Auch hier stellt die notwendige Flexibilität der Komponenten bei der verarbeiteten Frequenz, Signalstärke und Auflösung noch Anforderungen an die Rechenleistung, die bislang nur von hochgradig optimierten Wandlern für spezielle Anforderungen erreicht werden. Gerade die Probleme der Größe und des Energiebedarfs stellen eine Herausforderung für die Forschung dar, denn für die Integration in tragbaren Mobilgeräten ist beides nicht erwünscht. Für Situationen, wo die Größe und das Gewicht nicht entscheidend sind, wurden durch das amerikanische Militär bereits erste Systeme für die Integration in militärische Einheiten entwickelt. Somit werden die Grundlagen für ein Konzept gelegt und erfolgreich erprobt, welches man nun sukzessive optimieren kann. [JTRS] [SDR Quest] Aktuelle MMUE Tabelle 2enthält eine Übersicht über sieben aktuelle Geräte aus den Gruppen der modularen und vorgefertigten Geräte. Leider sind noch keine Geräte mit integrierter Funktechnologie oder PMGs verfügbar, so dass diese beiden Gruppen vorerst außer Acht gelassen werden. Die ausgewählten Merkmale sollen vor allem helfen, die Tauglichkeit für Mobilität, Erweiterbarkeit, Personalisierbarkeit und Roaming zu evaluieren. Gerät Breite Höhe Dicke Gewicht PAN WAN Standby Betrieb HP ipaq h5550 [HP] BT, b * Tungsten T3 [PalmOne] BT -?? LOOX 610 [FSC] , /205 3 BT, b * Tungsten W [PalmOne] / ,5 181 * +?? Siemens S55 [S55] BT Nokia 6600 [Nokia] , BT Sony-Ericsson P900 [P900] BT Tabelle 2 : Einige Eigenschaften aktueller Geräte Hinweis: Breite, Höhe und Dicke sind in Millimetern, das Gewicht ist in Gramm angegeben. Standby und Betrieb sind Herstellerangaben maximale Werte in Stunden. Legende BT Bluetooth b b WLAN 3 Der zweite Wert ist das Gewicht mit integriertem WLAN 4 Der zweite Wert ist die Höhe inklusive Antenne

39 39 - nicht vorhanden + vorhanden * nachrüstbar? nicht zu ermitteln Für die Mobilität sind die Größe des Gerätes, sein Gewicht und die Betriebsdauer ohne Netz wichtige Indikatoren. Ist ein Gerät zu groß oder schwer, ist die der Transport problematisch. Da man die Geräte oft in der Hand hält, führen schwere Geräte schnell zu Ermüdung. Andererseits sind große Displays oder Tastaturen für die Ein- und Ausgabe vorteilhaft. Die Betriebsdauer ist wichtig, da ein Gerät potentiell einen ganzen Arbeitstag, in der Regel also bis zu 10 Stunden, in Benutzung ist. Mobiltelefone haben bei Größe und Gewicht eindeutig einen Vorteil. Bei der Betriebsdauer liegen Mobiltelefone und PDAs nahezu gleichauf. Dabei profitieren die PDAs sicherlich von ihrer Größe, da sich größere Akkus unterbringen lassen. Es fällt jedoch auf, dass Mobiltelefone mit jeder zusätzlichen Funktion sich bei Größe und Gewicht den PDAs annähern, während die Betriebsdauer abnimmt und sie somit an Boden verlieren. Ein PDA ist eher auf die Arbeit für einen Arbeitstag ausgelegt, während Mobiltelefone zwar für die anfallende Telefonie während eines Arbeitstages ausreichen, sie sich aber nicht für eine permanente Datenkommunikation mit dem WAN eignen. Die Erweiterbarkeit wird vor allem durch die Möglichkeit von Software-Updates, die Erweiterungs-Slots und die Inter-Device-Konnektivität bestimmt. Mittlerweile lassen sich selbst die meisten Mobiltelefone mit Firmware-Updates modernisieren, viele Mobiltelefone, Smartphones und PDAs unterstützen auch das Aufspielen neuer Applikationen oder Betriebssysteme. PDAs verfügen in der Regel über mindestens einen Erweiterungs- Slot, durch den Speicher- oder Funktionserweiterungen möglich sind, während Mobiltelefone üblicherweise statisch konstruiert sind. Bei allen Geräten ist jedoch mindestens eine PAN oder WAN Funktechnologie integriert oder nachrüstbar. Verfügen sie über WAN und PAN Zugang, könnten sie als PMG dienen. Geräte ohne WAN Zugang könnten praktisch die Rolle der Sleek-Devices im PMG Konzept übernehmen. Jedoch ist diese Möglichkeit noch eingeschränkt realisierbar, wenn überhaupt, da solche Funktionalitäten nur ein Zusätze sind. Bei einem echten PMG oder Sleek-Device sind dies Grundfunktionen und für die Kommunikation gibt es konkrete Schnittstellen, sodass das PMG und die Sleek-Devices besser zusammenarbeiten können als Lösungen, die aus aktuellen Geräten zusammengestellt werden. Personalisierung ist ebenfalls bei den meisten Geräten möglich, wenn auch nicht in dem Umfang, der für die Sleek-Devices des PMG anvisiert ist. Applikationen, Spiele, Bilder, Logos und Musik sind bereits austausch- und nachladbar. Echtes Roaming ist momentan nur innerhalb der 2G und 2.5G Netze möglich. In diesen ist, mit entsprechendem Zugang, auch die seamless connectivity möglich. Leider bieten diese Netze noch keine hinreichende Geschwindigkeit für alle angestrebten Anwendungen. Für WLAN, welches die Anforderungen der Geschwindigkeit erfüllt, gibt es noch keine praktikablen Lösungen für Roaming. Entsprechend weit entfernt ist die Ausbringung einer entsprechenden Infrastruktur. Nahtloses vertikales Roaming ist noch nicht möglich. Das stellt aber aktuell kein Problem dar, da praktisch noch keine Geräte auf dem Markt sind, die über eine Kombination an Zugangstechnologien verfügen, die diese Art von Roaming sinnvoll machen würden.

40 40 Multiple Access Technologies in Single Devices Selbst das PMG Konzept von IXI sieht WLAN nur als Inter-Device-Kommunikation, nicht als WAN Zugang. 1.7 Zusammenfassung und Ausblick Bei der Integration mehrerer sich ergänzender Technologien in einem Gerät ergeben sich für den Benutzer sichtbare Vorteile in den Bereichen Geschwindigkeit, Mobilität, Personalisierung, Kosten und Zuverlässigkeit. Vielfalt wird ein Schlüsselthema zukünftiger mobiler Endgeräte und Netze sein. Besondere Anforderungen werden an die Mehrwertdienste in heterogenen Netzen gestellt. Sie müssen während der Ausführung auf variierende Voraussetzungen reagieren können. Zu diesem Zweck sollten MMUE ihre technischen Eigenschaften und die Präferenzen ihrer Benutzer an die Netze übermitteln können. Einen gemeinsamen Ansatz bieten die Protokolle und Standards der paketvermittelten Netze und zeichnen somit für die mobile Kommunikation der vierten Generation eine scharfe Linie Richtung IP basierter Netzwerktechnologie. Von der Geräteseite aus betrachtet, kann man zusammenfassend sagen, dass die aktuelle Situation noch wenig zufrieden stellend ist. Kein Gerät bietet die Lösung für die Anforderungen der nahen Zukunft. Kein Gerät verfügt sowohl über die notwendigen Technologien, als auch über die Betriebsdauer und das Design, um die aus den Szenarien entwickelten Anforderungen zu erfüllen. Lösungen für Teilaspekte existieren zwar, aber für einige Funktionen, wie beispielsweise nahtloses vertikales Roaming zur optimalen Ausnutzung verfügbarer Bandbreite, gibt es nicht einmal Ansätze einer Lösung, die in die Praxis übernommen werden könnten. Insofern ruhen nicht umsonst die Hoffnungen der Branche auf Entwicklungen wie dem PMG und zugehörigen Geräten, die allein durch ihr Aussehen und Trendcharakter hohe Umsätze versprechen und durch die Flexibilität des Designs eine schrittweise Annäherung an die Anforderungen der Zukunft ermöglichen. In seiner aktuellen Implementierung eignet sich jedoch auch das PMG nicht für alle Formen von Echtzeit-Multimedia-Diensten, so dass hier noch Entwicklungsarbeit vonnöten ist. Es ist jedoch bereits absehbar, dass aus den Bereichen aktueller Forschung und verschiedenen Standardisierungsgremien zunehmend Lösungen gefunden werden.

41 41 2 STANDARDIZED APPLICATION DEPLOYMENT Die rasanten Entwicklungen auf dem Endgerätemarkt und die immer vielfältiger werdende Palette von Endgerätarten bedeuten für Anbieter von Informationssystemen und Diensten im Internet einen erheblichen Aufwand zur Bereitstellung von endgerätspezifischen Benutzerschnittstellen. Diese Ausarbeitung zum Thema Standardized Application Deployment im Rahmen der Lehrveranstaltung Dienste und Anwendungen in der Telekommunikation und Informationstechnologie stellt eine Architektur für automatisierten geräteunabhängigen Zugang zu Informationssystemen und Diensten im Internet vor. Diese Architektur trägt den Namen Multi Access Service Platform. Die Geräteunabhängigkeit des Zugangs wird durch die Beschreibung der Dienst- bzw. Informationssystemschnittstelle in einer abstrakten Interaktionsbeschreibungssprache erreicht. Außerdem werden Konzepte zur automatisierten Transformation der abstrakten Interaktionsbeschreibung in gerätespezifische Benutzerschnittstellen vorgestellt. Für Anbieter von Informationssystemen oder Diensten im Internet kann die vorgestellte Architektur erhebliche Einsparungen im Bereich der Entwicklungsarbeit bringen, da Benutzerschnittstellen nicht mehr für jede verfügbare Zugangsart implementiert werden müssen, sondern lediglich die abstrakte Interaktionsbeschreibung bereitgestellt werden muss. Keywords: Multi Access Service Platform, technische Adaption, persönliche Adaption, CC/PP, abstrakte Interaktionsbeschreibungen, Rendering 2.1 MULTI ACCESS SERVICE PLATFORM Die Entwicklung moderner Informationstechnologien ist rasant. Die Informationssysteme bzw. Dienste der Zukunft werden immer neue Anwendungsdomänen erobern und sich immer weiter in das alltägliche Leben der Nutzer integrieren. Handheld-Computer und PDAs sind erste Zeichen für diese Entwicklung und bieten Nutzern vorher nie da gewesene Möglichkeiten des mobilen Zugangs zu Informationen, Diensten und Applikationen. Auch die Entwicklungen auf dem Mobilfunkmarkt haben zu diesem Trend beigetragen. Die modernen Handygenerationen wurden um etliche Funktionalitäten erweitert und ermöglichen den Zugang zu Informationssystemen im Internet. Neben PDAs und Handys existieren natürlich noch eine ganze Reihe weiterer Endgräte wie z.b. Home-PCs, Pocket-PCs und Notebooks. Diese zum großen Teil mobilen Endgeräte unterscheiden sich jedoch gravierend in ihrer Architektur und in ihren Leistungsmerkmalen und es ist anzunehmen, dass sich auch folgende Endgerätgenerationen von den jetzt modernen Endgeräten erheblich unterscheiden werden. Diese Tatsache stellt ein ernstzunehmendes Problem für die Realisierung eines hochwertigen und umfassenden Zugangs zu Informationssystemen und Diensten im Internet dar.

42 42 Standardized Application Deployment Faktoren wie mangelnde Display- oder Speichergröße, schwache Prozessorleistung sowie die in der Regel geringe Bandbreite der Funkverbindung erzwingen eine Adaption bestehender Informationssysteme auf die individuellen Fähigkeiten der unterschiedlichen mobilen Endgeräte. Die geforderte Adaption stellt ein Bindeglied zwischen der Informationssystemschnittstelle und dem Endgerät dar. Sie könnte von den Anbietern der Informationssysteme durchgeführt werden und besteht darin, die Informationssysteme mit zusätzlichen Schnittstellen auszustatten, die an die unterschiedlichsten Endgerätarten angepasst sind. Beispielsweise würde die Adaption an WAP-fähige Endgeräte in der Erweiterung des Informationssystems um eine WML-Schnittstelle bestehen. Dieser Prozess der Adaption von Informationssystemen wird in vielen modernen Unternehmen schon eingesetzt und muss, der Endgerätentwicklung folgend, ständig weiter vorangetrieben werden. Denn das Ziel kommerzieller Informations- und Dienstanbieter im Internet ist es, ihre Dienstleistungen einem möglichst großen Publikum zur Verfügung stellen zu können, um auf dem Informationsmarkt zu bestehen. Allerdings stellt die dafür notwendige Erweiterung der Informationssysteme um zusätzliche Schnittstellen einen immer größer werdenden Aufwand an Entwicklungsarbeit für die Dienstanbieter da. Hierzu ein kleines Beispiel: Man stelle sich vor, ein Anbieter betreibt im Internet einen Pizzabestelldienst. Wenn ein Nutzer diesen Dienst über ein WAP-fähiges Handy, einen HTML-Browser und über einen Palmpilot nutzen können soll, so muss der Pizzabestelldienst eine WML- (Wireless Markup Language), eine HTML- (HyperText Markup Language) und eine dem Palmpilot angepasste Schnittstelle anbieten. Die folgenden Abbildungen stellen mögliche gerätespezifische Benutzerschnittstellen für einen exemplarischen Pizzabestelldienst dar. Abbildung 21:HTML-Darstellung Pizzabestelldienst [Schill] Abbildung 22:WAP-Darstellung Pizzaservice [Schill] Abbildung 23: Palm Darstellung Pizzaservice [Schill]

43 43 Dem Anbieter des Pizzabestelldienstes entsteht durch die Bereitstellung von drei gerätespezifischen Benutzerschnittstellen ein nicht zu unterschätzender Mehraufwand an Entwicklungsarbeit. Überträgt man dieses kleine Beispiel auf die Domäne eines größeren professionellen Informationsanbieters, so lässt sich erahnen, welch immenser Entwicklungsaufwand für einen geräteunabhängigen Zugang betrieben werden muss. Diese Ausarbeitung greift das geschilderte Problem der vermehrten Entwicklungsarbeit auf und liefert aktuelle Konzepte, Lösungsansätze sowie ein Architekturmodell für eine Multi Access Service Platform (MASP). Im folgenden Abschnitt wird einleitend genauer auf den Begriff der Adaption eingegangen. Daraufhin folgen eine Anforderungsdefinition sowie das Architekturmodell für eine MASP. Im Abschnitt 2.2 Realisierung von Adaption durch Profile werden ein Kernkonzept und dessen Anwendung innerhalb der MASP aufgezeigt. Das Abschnitt 2.3 widmet sich abstrakten Interaktionsbeschreibungen, einem weiteren Kernkonzept der MASP und liefert einige aktuelle Sprachstandards zur Umsetzung dieses Konzepts. Im Abschnitt Rendering in Zielformate werden Techniken zur automatisierten Transformation von abstrakten Interaktionsbeschreibungen in konkrete Zielformate (z.b. HTML, WML) beschrieben und verglichen. Der letzte Teil enthält ein Fazit sowie einen Ausblick auf Weiterentwicklungen im Bereich des Standardized Application Deployment Arten der Adaption In der Einleitung wurde der Begriff Adaption hauptsächlich auf der technologischen Ebene betrachtet und bestand in der Anpassung von Informationssystemen an Endgeräte (z.b. Displaygröße), verwendete Standards (z.b. WML für WAP-fähige Handys) und der gerätespezifischen Anpassung von Datenformaten (z.b. Adaption von Grafiken an Displayeigenschaften). Der Begriff der Adaption kann jedoch auch auf anderen Ebenen betrachtet werden. Abbildung 24 zeigt eine umfassende Betrachtung des Begriffs der Adaption. Abbildung 24: Umfassende Adaption [Kost 2003] Neben der schon angeführten technologischen Adaption kann man Informationssysteme sowohl auf die kulturellen Vorraussetzungen (Cultural Adaption) als auch auf die persönlichen Voraussetzungen der Nutzer anpassen (Personal Adaption). Kulturelle Adaption kann man beispielsweise dadurch erreichen, dass Dienste und Informationen in der Landessprache eines Nutzers angezeigt werden oder indem man In-

44 44 Standardized Application Deployment formationen an die kulturell bedingte Wahrnehmung von Nutzern anpasst (Herausfiltern bestimmter Inhalte, sofern sie mit kulturellen Standards kollidieren). Persönliche Adaption von Informationssystemen kann in der Anpassung an die vom Nutzer bevorzugte Darstellungsart bestehen. Diese kann beispielsweise durch die Verwendung bestimmter Farben oder Schriftarten oder durch die Präsentation von Benutzerschnittstellen unter Berücksichtigung einer Corporate Identity realisiert werden. Weiterhin könnte eine persönliche Anpassung darin bestehen, die Interessen des Nutzers zu berücksichtigen (z.b. kann ein Informationssystem dem Nutzer bevorzugt Artikel zu einem bestimmten Thema zur Verfügung stellen). Auch eine dem persönlichen Profil angepasste Bereitstellung von Dienstfunktionalitäten würde in den Bereich der persönlichen Adaption fallen Anforderungsdefinition: MASP Die im nächsten Abschnitt folgende Architektur für eine Multi Access Service Platform sollte folgenden Anforderungen genügen: 1. Die MASP soll den geräteunabhängigen Zugang zu Informationssystemen ermöglichen. 2. Die MASP soll den zentralen Zugang zu Informationssystemen ermöglichen, damit Zugangskontrolle und Abrechnung für Dienstnutzungen zentral geschehen können. 3. Die MASP soll den Entwicklungsaufwand für geräteunabhängigen Dienstzugang und die Dienste selbst minimieren. Dies kann durch eine abstrakte Beschreibung der Dienstschnittstelle und deren automatische Transformation in konkrete, dem Endgerät angepasste, Zielformate erreicht werden. 4. Die MASP soll zukünftige Neuentwicklungen auf dem Gerätemarkt integrieren können. Es wird nun eine Architektur vorgestellt, die eine adäquate Lösung für die Adaption von Informationssystemen, liefert. Inwieweit bislang entwickelte Techniken den definierten Adaptionsbegriff realisieren können, wird im Abschnitt 2.2 Realisierung der Adaption durch Profile vorgestellt Architektur für eine MASP Abbildung 25 stellt die Architektur der Multi Access Service Platform dar.

45 45 Abbildung 25: Architektur der MASP Im Folgenden werden die Komponenten der MASP-Architektur erklärt und im späteren Verlauf analysiert, ob die MASP der Anforderungsdefinition genügt. User: Repräsentiert den Nutzer eines Informationssystems. User Agent: Software-Komponente die die Funktionalitäten der verwendeten Darstellungsapplikation kapselt. Von der eigentlichen Darstellungsapplikation wird in dieser Betrachtung abstrahiert. Der User Agent könnte also ein Web-Browser (auf einem PC, Notebook etc.) zur Darstellung von HTML-Seiten, ein Voice-Browser zur Kommunikation über Sprache mit Dialog-Servern (Dialogsprachen: z.b. VoiceXML oder SALT) oder auch ein WAP-Browser sein. Soll ein Dienst genutzt werden, so sendet der User Agent ein Profil der Endgerätplattform und einen Dienstaufruf an die Multi Access Komponente. Multi Access Komponente: Komponente, die eine abstrakte Interaktionsbeschreibung (z.b. in XML modelliert, mehr zu diesem Thema im Abschnitt 2.3) erhält und diese in ein konkretes Zielformat transformiert (z.b. WML, VoiceXML, JFC Swing etc.), welches dann anschließend von einem User Agenten als Benutzerschnittstelle interpretiert wird. Für jedes Zielformat muss innerhalb der Muli Access Komponente eine generische Transformation abgelegt sein. UI Komponente: Diese Komponente bietet eine abstrakte Interaktionsbeschreibung der durch den Web Application Server angebotenen Dienste an. Web Application Server: Ein Web-Server, der Webseiten bereitstellt und als Webschnittstelle zu Informationssystemen aller Art (z.b. Web Services, Mail Server, Datenbanken etc.) fungiert.

46 46 Standardized Application Deployment Web Applications: Repräsentieren Informationssysteme aller Art, die ihre Funktionalitäten über das Web anbieten (z.b. Web Services, Mail Server, Datenbanken etc.). Server mit Profilgenerator: Der Server mit Profilgenerator nimmt Informationen über die Beschaffenheit einer Endgerätplattform entgegen und generiert aus diesen ein Profil. Dieses Profil wird vom User Agenten zusammen mit einem Dienstaufruf an die Multi Access Komponente geschickt. Die Multi Access Komponente holt sich daraufhin die abstrakte Interaktionsbeschreibung des zu nutzenden Dienstes und generiert eine an das Profil angepasste Benutzerschnittstelle. Server mit Profilinformation: Der Server mit Profilinformation stellt der Multi Access Komponente spezifische Merkmale der Endgerätplattform zur Verfügung (z.b. Displaygröße oder minimale/maximale Bandbreite einer mobilen Funkverbindung), deren Profil der Multi Access Komponente vom User Agent zugesandt wurde. Ausgehend von den Profilinformationen kann die Multi Access Komponente eine adaptive Benutzerschnittstelle generieren. Endgerätplattform: Eine Endgerätplattform ist eine Kombination aus einer Hardwarekomponente (Endgerät), einem auf der Hardware installierten Betriebssystem und einer Zugangssoftware (z.b. WAP-Browser). Mögliche Endgerätplattformen sind zum Beispiel: Home PC (Endgerät) mit Windows 2000 (Betriebssystem) und einem Netscape Browser (Zugangssoftware) Ein Mobiltelefon (Hardware), das mit einem Voice-Server (Zugangssoftware) kommuniziert. Das Betriebssystem spielt bei dieser Zugangsart eine untergeordnete Rolle. Die vorgestellte Architektur erfüllt die gestellten Anforderungen an eine MASP. Die MASP ermöglicht wie gefordert den geräteunabhängigen Zugang zu Informationssystemen. Die MASP ermöglicht den zentralen Zugang und somit auch zentralisierte Zugangskontroll- und Abrechnungsmechanismen. Die MASP minimiert den Entwicklungsaufwand, indem Dienstschnittstellen abstrakt beschrieben werden und der Renderingprozess in ein gewünschtes Zielformat automatisiert geschehen kann. Entwickler müssen für die Bereitstellung eines neuen Dienstes lediglich eine abstrakte Interaktionsbeschreibung in der UI Komponente ablegen. Die Multi Access Komponente kann daraufhin, unter Verwendung einer formatspezifischen Transformation, Benutzerschnittstellen für den Dienst erstellen. Sollen neue Zielformate mit der MASP bedient werden, so muss eine neue Transformation in der Multi Access Komponente hinterlegt werden. Inwieweit Neuentwicklungen auf dem Gerätemarkt bzw. neuartige Endgerätplattformen integriert werden können, hängt von den verwendeten Profilen ab. Im nächsten Abschnitt wird darauf näher eingegangen. Inwieweit das automatisierte Rendering von abstrakten Interfacebeschreibungen geschehen kann, wird in Abschnitt 2.4 beleuchtet.

47 Realisierung der Adaption durch Profile Um die im vorherigen Abschnitt beschriebenen Adaptionsprozesse durchführen zu können, benötigt man detaillierte Informationen über die Endgerätplattform und die Präferenzen eines Nutzers. Diese Informationen werden in so genannten Profilen organisiert. Dieses Abschnitt spricht zunächst allgemeine Anforderungen, die an Profile gestellt werden, an und geht dann auf CC/PP ein, einem aktuellen Profilstandard, der in das Ressource Description Framework (RDF) eingebettet ist Das Profil Hier folgen allgemeine Anforderungen, die an ein Benutzerprofil gestellt werden: Das Profil soll dem Dienstanbieter zugänglich gemacht werden können. Dazu gibt es zwei Ansätze. Entweder kann das Profil bei einem Dienstanbieter persistent gespeichert werden oder der Dienstnutzer überträgt das Profil bei jeder einzelnen Sitzung. In der MASP wird die zweite Variante umgesetzt, da sensible Daten einer besseren Kontrolle durch den Nutzer unterliegen. Das Profil sollte so einheitlich und verständlich wie möglich sein. Zusätzlich sollte es erweiterbar sein, um neuen Anforderungen genügen zu können. Dennoch sollte es von Maschinen interpretierbar sein. Das Profil sollte transparent für den Nutzer gehalten werden, denn dieser soll die Möglichkeit haben, es anzupassen. Eine weitere Anforderung ist die effiziente Übertragbarkeit an den Dienstanbieter über gängige Protokolle. Dies betrifft hauptsächlich Endgeräte mit geringer Verbindungsbandbreite, wie es zum Beispiel bei Handys der Fall ist. Als letzte Anforderung soll das Profil die gängigen Sicherheitsstandards erfüllen. Um zu erklären, wie das CC/PP, der nachfolgend beschriebene Profil-Standard, diese Anforderungen erfüllt, werden im folgenden Abschnitt die Grundlagen von RDF (Ressource Description Framework) erläutert, da CC/PP mit dieser Technologie realisiert ist. Einige der CC/PP-spezifischen Vorteile resultieren aus dem RDF. Dies gilt insbesondere für die Interoperabilität von Daten RDF Das Ressource Description Framework [RDF] (im Folgenden RDF genannt) ist eine Sprache, die zur Beschreibung von Informationen im World Wide Web entwickelt wurde. Mit ihr können Metadaten über Quellen (Internetseiten) aus dem Internet dargestellt werden, wie etwa Titel, Autor oder ein Erstellungsdatum. Im Folgenden wird ein kurzer Überblick über die Architektur von RDF gegeben Einleitung RDF kann auch dazu benutzt werden, Informationen über Entitäten darzustellen, die nicht mit dem Internet in Verbindung stehen, also auch über ganz konkrete Objekte wie z.b. Fahrzeuge. Die Grundidee dabei ist es, alle zu beschreibenden Ressourcen über eine URI (Uniform Ressource Identifier) zu identifizieren.

48 48 Standardized Application Deployment Die Beschreibung dieser Ressourcen erfolgt durch Eigenschaften (Properties) und Eigenschaftswerte (Values), welche ihrerseits wieder über URIs identifiziert werden können. Eine Ausnahme sind Literale, konstante Werte, welche nur als Eigenschaftswerte zulässig sind. Diese liegen in Textform vor und werden nicht weiter spezifiziert. Diese Darstellungsform befähigt RDF, Aussagen über Ressourcen und ihren Eigenschaften in Form eines gerichteten Graphen zu machen. Dabei sind Ressource und Eigenschaftswerte die Knoten und die Eigenschaft die verbindende Kante (von der Ressource zum Eigenschaftswert gerichtet). Sowohl Knoten und Kanten werden eindeutig mit einer URI assoziiert, welche die Herkunft angibt, um Mehrdeutigkeiten auszuschließen. Abbildung 26 veranschaulicht dies: Abbildung 26: Grafische Darstellung eines RDF-Graphen In Abbildung 26 ist dargestellt, dass eine Ressource, in diesem Fall ein HTML- Dokument, die Eigenschaft Autor besitzt, welche einen Wert hat, der selbst wieder in einer Ressource spezifiziert ist. Sowohl die Knoten als auch die Kante werden über eine URI identifiziert. Um diese RDF-Graphen serialisierbar zu machen, bedient man sich der Möglichkeiten von XML. Die entsprechende Syntax, RDF/XML genannt, sowie die Möglichkeiten zum Einführen neuer Typen durch RDF-Schemata werden im Folgenden erörtert Die Syntax von RDF/XML RDF bietet eine XML-basierte Syntax zur Beschreibung der gerichteten Graphen, genannt RDF/XML. Im Folgenden wird ein kurzer Überblick über die Struktur eines RDF/XML Dokuments gegeben. Dazu ein kleines Beispiel: <?xml version="1.0"?> <rdf:rdf xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:meta="http://www.beispiel.de/meta/"> <rdf:description rdf:about="http://www.beispiel.de/index.html"> <meta:autor rdf:resource="http://www. beispiel.de/personen/schmidt"/> </rdf:description> </rdf:rdf> Abbildung 27: RDF-Dokument

49 49 Das einleitende Element (siehe Abbildung 27) ist das <rdf:rdf> Tag. Dieses enthält zumeist mehrere Namespace-Attribute, welche die Beschreibungen des im Dokument verwendeten Vokabulars referenzieren. Hier wird das Vokabular für RDF selbst und für das Meta-Attribut Autor eingefügt, welches später verwendet wird. Die Beschreibung einer Ressource, also des Graphen, wird innerhalb des Tags <rdf:description> geschrieben. Dieses besitzt als Attribut rdf:about=, welches die eindeutige URI für diese Ressource enthält. Innerhalb des <rdf:description> Tags werden dann die Eigenschaften und Eigenschaftswerte angegeben. Dazu wird das aus dem Namespace eingeführte <meta:autor> Tag verwendet. Die URI, welche dieses identifiziert, setzt sich aus dem Namespace von meta und dem Autor zusammen, also ist konkret Die Ressourcen und Eigenschaften sind Bestandteil des so genannten Vokabulars eines RDF Dokuments, welches unter Umständen erst definiert werden muss. Dies erfolgt in den RDF Schemata, die im Folgenden kurz erläutert werden RDF-Schemata Die Definition eines Vokabulars, mit dem Eigenschaften für Ressourcen in einem RDF- Dokument angegeben werden, erfolgt über RDF-Schemata. Auch hierzu zur Veranschaulichung ein kleines Beispiel: <?xml version= 1.0?> <rdf:rdf xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:rdfs="http://www.w3.org/2000/01/rdf-schema#" xml:base="http://www.beispiel.de/schemas/fahrzeuge"> <rdf:description rdf:id="motorrad"> <rdf:type rdf:resource="http://www.w3.org/2000/01/rdf-schema#class"/> </rdf:description> </rdf:rdf> Abbildung 28: Deklaration einer neuen Klasse von Ressourcen Das RDF-Dokument (Abbildung 28) beinhaltet unter anderem das vordefinierte Vokabular zum Erstellen neuer Ressourcen. Eine neue Klasse von Ressourcen wird eingeführt, indem in einer RDF-Description eine rdf:id vergeben wird. Diese stellt einen eindeutigen Bezeichner innerhalb dieses Dokuments dar und referenziert mit dem Tag <rdf:type> die Ressource Dadurch deklariert die Description einen neuen Typ. Mit der Eigenschaft <rdf:subclassof> können auch Hierarchien von Typen ähnlich wie bei objektorientierten Sprachen erstellt werden. Man kann später anstelle des Typen Class auch diesen neuen Typ angeben, da dieser von Class erbt. Das Erzeugen neuer Typen funktioniert analog zum Beschreiben von Ressourcen, also auch über die RDF-Graphen.

50 50 Standardized Application Deployment Nun benötigt man noch ein Mittel, um Eigenschaften von Ressourcen einzuführen. Dies geschieht im Prinzip analog, nur dass hier auch die Werte- und Zielbereiche mit angegeben werden können. Folgendes Beispiel veranschaulicht dies: <rdf:description rdf:id="fahrervon"> <rdf:type rdf:resource="http://www.w3.org/1999/02/22-rdf-syntax-ns#property"/> <rdfs:domain rdf:resource="#motorrad"/> </rdf:description> Abbildung 29: Deklaration einer neuen Eigenschaft von Ressourcen In Abbildung 29 wird die Eigenschaft FahrerVon definiert, welche als Wertebereich die Klasse Motorrad besitzt. Das rdf:resource Attribut beim Domain-Tag darf hier als relative URI angegeben werden, weil angenommen wird, dass es im selben Dokument steht wie die Definition der Klasse selbst. Mit diesen Mitteln ist man in der Lage, neue Ressourcen zu erstellen und zu identifizieren. Es wird jedoch empfohlen, neue Schemata nur zu erstellen, wenn man sicher ist, dass es noch kein adäquates gibt, mit dem man seinen Diskursbereich beschreiben will. Viele Schemata könnten andernfalls eine gleiche oder ähnliche Semantik haben, was die Verwendbarkeit einzelner Schemata verringert und somit Standardisierungsbemühungen entgegenwirkt. Anschließend werden die aus RDF resultierenden Eigenschaften mit den Anforderungen an das Profil in Zusammenhang gebracht Eigenschaften von RDF Wie dargestellt besitzt das RDF eine Reihe von Eigenschaften, die ebenfalls wichtig für das verwendete Profil sind. Wichtig sind Interoperabilität und Erweiterbarkeit der Daten. Interoperabilität wird dadurch erreicht, dass jede Ressource durch eine eindeutige URI identifiziert werden kann. Damit werden Mehrdeutigkeiten ausgeschlossen. Erweiterbarkeit wird durch die Möglichkeit der Neueinführung bzw. Anpassung der RDF-Schemata gewährleistet. Nachdem die Grundlage, auf der das CC/PP Profil aufsetzt, beschrieben wurde, wird dieses nun etwas genauer betrachtet CC/PP Composite Capabilities / Preference Profiles Composite Capabilities / Preference Profiles (CC/PP) [W3C] meint einerseits die Fähigkeiten und Eigenschaften bezogen auf die Endgerätplattform und andererseits die Vorzüge, Interessen und Eigenschaften des Benutzers selbst. Dieses Dokument geht nur näher auf die gerätespezifischen Eigenschaften des Profils ein Architektur CC/PP ist in RDF umgesetzt und die damit erstellten Profile sind Instanzen eines entsprechenden RDF-Schemas. Ein CC/PP Profil besteht grundsätzlich aus einer Hierarchie von zwei Ebenen, einer Komponenten-Ebene und der darin enthaltenen Attribut-Ebene. Jedes Profil besitzt mindestens eine Komponente und diese wiederum mindestens ein Attribut.

51 51 Um die Darstellung eines Profils zu veranschaulichen, wird folgendes Beispiel betrachtet: <?xml version="1.0"?> <rdf:rdf xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:ccpp="http://www.w3.org/2002/11/08-ccpp-schema#" xmlns:example="http://www.example.com/schema#"> <rdf:description rdf:about="http://www.example.com/profile#myprofile"> <ccpp:component> <rdf:description rdf:about="http://www.example.com/profile#terminalhardware"> <!-- TerminalHardware properties here --> </rdf:description> </ccpp:component> <ccpp:component> <rdf:description rdf:about="http://www.example.com/profile#terminalsoftware"> <!-- TerminalSoftware properties here --> </rdf:description> </ccpp:component> <ccpp:component> <rdf:description rdf:about="http://www.example.com/profile#terminalbrowser"> <!-- TerminalBrowser properties here --> </rdf:description> </ccpp:component> </rdf:description> </rdf:rdf> Abbildung 30: CC/PP Profil In Abbildung 30 sind drei Komponenten durch die Tags <ccpp:component> dargestellt. Die erste Komponente beschreibt die Terminal-Hardware, die zweite die Terminal-Software, also das Betriebssystem und die dritte den Terminal-Browser. Jede Komponente wird über eine eindeutige URI (genauer einer URIref) identifiziert. Innerhalb dieser Komponenten lassen sich nun in Konformität zum RDF-Schema verschiedene Attribute angeben. Dies verdeutlicht das nächste Beispiel: <ccpp:component> <rdf:description rdf:about="http://www.example.com/profile#terminalhardware">

52 52 Standardized Application Deployment <rdf:type rdf:resource="http://www.example.com/schema#hardwareplatform" /> <ex:displaywidth>320</ex:displaywidth> <ex:displayheight>200</ex:displayheight> </rdf:description> </ccpp:component> Abbildung 31: CC/PP Komponente mit Eigenschaften Hier wird beispielhaft die Display-Größe eines Endgerätes angegeben mit den Eigenschaften displaywidth und displayheight. Dies sind RDF Eigenschaften und hier über die Namespaces eindeutig identifizierbar. Nachdem der Aufbau von CC/PP Profilen erörtert worden ist, werden noch ein paar relevante Eigenschaften erwähnt, die bei Profilen mit CC/PP berücksichtigt werden sollten Protokollunabhängigkeit In der CC/PP Spezifikation wird kein bestimmtes Protokoll vorgeschlagen, welches zur Übertragung von Profilen verwendet werden soll. Vielmehr soll die Vielfalt an nutzbaren Protokollen den Wert von CC/PP ausmachen. Theoretisch kann jedes Protokoll benutzt werden, welches das Übertragen von XML und somit auch RDF gewährleistet. Auch künftige Protokolle werden kompatibel bleiben, da XML als Standard weitestgehend unterstützt werden soll. Mögliche funktionierende Protokolle sind z.b. HTTP und WAP Berücksichtigung kleiner Bandbreite Besonders Handys leiden unter einer kleinen Datenübertragungsrate, weswegen auch Aspekte zur Effizienz betrachtet werden sollten. Eine Möglichkeit ist das Komprimieren der Daten. Alternativ kann der Einsatz von Referenzen erfolgen, wobei diese auf Default- Werte zeigen und nur Abweichungen von den Werten mit dem Profil übertragen werden. Weil Dienstanbieter in der Regel über eine schnelle Internet-Verbindung verfügen, ist das Auflösen der Referenzen an dieser Stelle unproblematisch Privacy & Security Da Profile sensitive Daten enthalten, ist es wichtig, diese vor unzulässigem Zugriff zu schützen. Auch wenn CC/PP Daten Benutzern nicht direkt zuzuordnen sind, gibt es Methoden Bezüge herzustellen. An dieser Stelle sei erwähnt, dass es Konzepte zur Wahrung der Sicherheit gibt, z.b. Encryption oder Signaturen und Zertifikate Anmerkung Eine bereits bestehende Anwendung von CC/PP ist [DICE]. Informationen darüber sind unter zu finden. 2.3 XML-basierte Interaktionssprachen In der MASP Architektur ist die abstrakte Interaktionsbeschreibung von zentraler Bedeutung, um ein automatisiertes Rendering durchführen zu können. In diesem Abschnitt werden aktuelle Sprachen zur abstrakten Interaktionsbeschreibung vorgestellt. In unserer Architektur werden die Interaktionsbeschreibungen in der UI Komponente gehalten und

53 53 von dort aus an die Multi Access Komponente weitergeleitet. Hier erfolgt dann ein Rendering in die gewünschten Zielformate (siehe Abschnitt 2.4) Allgemeiner Überblick In der Informatik bedient man sich in vielen Bereichen möglichst umfassend anwendbarer abstrakter Beschreibungsmechanismen. Diese sollen dabei helfen, von konkreten Problemstellungen zu abstrahieren und damit Lösungsansätze auf einer höheren, zumeist einfacher handhabbaren Ebene zu finden. Auch im Bereich der Mensch-Maschine- Interaktion (HCI) halten vermehrt Beschreibungsformalismen Einzug, die auf einer geräteunabhängigen abstrakten Spezifikation beruhen. Immer weiter rücken dabei die Möglichkeiten der Extensible Markup Language (XML) in den Mittelpunkt. XML ist eine vereinfachte Form der SGML (Standard Generalized Markup Language) und Quasi- Standard zur Erstellung strukturierter Dokumente im World Wide Web oder in Intranets. XML wurde vom WWW-Konsortium empfohlen, um das Web anwenderfreundlicher zu machen. Im Gegensatz zur weit verbreiteten Hypertext Markup Language (HTML), mit der sich Webdokumente auszeichnen lassen, ist es mit XML möglich, eigene Auszeichnungselemente (Tags) zu definieren. Somit kann man sich vom eingeschränkten Vorrat an HTML-Tags lösen und individuell gestaltete Dokumente (so genannte Dokumenttypdefinitionen) anfertigen. Der wesentliche Unterschied ist darin zu sehen, dass mit HTML lediglich der Inhalt von Webseiten (in der Regel Text und Grafik) spezifiziert wird, während XML darüber hinaus Tags beinhalten kann, die die Bedeutung des Inhalts beschreiben. Im Rahmen der Entwicklung adaptiver Benutzerschnittstellen bedient man sich nun der Vorzüge, die XML bietet, um von der großen Vielfalt an Endgeräten abstrahieren zu können. Über die Definition von grafischen Typelementen lassen sich Sprachen konstruieren, mit denen grafische Benutzerschnittstellen (im Folgenden GUIs) spezifiziert werden können, die sich den jeweiligen Endgeräten (technische Adaption) und den Bedürfnissen der Endnutzer (persönliche Adaption) anpassen. Es wird nicht mehr nötig, die GUIs auf die entsprechenden (auch mobilen) Endgeräte zu portieren. Stattdessen wird aus einer abstrakten XML-basierten Beschreibung eine Oberfläche generiert, die auf jedem Endgerät visualisiert und genutzt werden kann. Bestimmte Tools ermöglichen darüber hinaus ein Rendering in die verschiedensten Zielformate (WML, J2ME, JFC Swing etc.), wobei sie dabei als Basis die entsprechenden Auszeichnungssprachen zugrunde legen. Abschnitt 2.4 beschäftigt sich ausführlich mit diesem Vorgang GUI-Auszeichnungssprachen Es gibt eine ganze Reihe an mehr oder minder bekannten Auszeichnungssprachen, die allesamt das Ziel verfolgen, die Entwicklung von Applikationen zu vereinfachen. Allen liegen eine XML-basierte Spezifikation und das übergeordnete Ziel zu Grunde, den Aufwand bei der Konzeption des Endnutzerzugangs von Applikationen zu minimieren. Man stelle sich den eingangs erwähnten Pizzabestelldienst oder aber einen privaten Online-Service vor, der über das Internet Eintrittskarten für Sportveranstaltungen über ein Webinterface vertreibt. Dieses Interface sollte nun auf einer großen Vielzahl von Endgeräten zugänglich sein, noch dazu möglichst über eine einheitliche GUI erreichbar, die den Aspekt der Corporate Identity realisiert und den Nutzern stets die gleichen Dialogelement präsentiert. Eine Umgewöhnung des Users entfällt dadurch. Es wäre nun sehr aufwändig, für jedes auf dem Markt erhältliche Endgerät eine grafische Oberfläche zu entwickeln. Dieses Problem geht mit einem hohen Verwaltungsaufwand und immensen

54 54 Standardized Application Deployment Portierungskosten einher. Einfacher (und billiger) wäre es, eine einzelne Sprache verwenden zu können, die Benutzerschnittstellen für alle Typen von Endgeräten realisiert. Im folgenden Abschnitt soll stellvertretend für alle Auszeichnungssprachen UIML detailliert beschrieben werden. Da sich die einzelnen Sprachen zwar voneinander in ihrer spezifischen Syntax unterscheiden, nicht jedoch in ihrer übergeordneten oben erläuterten Funktionalität, erscheint ein genaueres Studium von UIML als Stellvertreter ausreichend. Die darüber hinaus existierenden Markup Languages werden in einem eigenen Abschnitt vorgestellt, eine eingehende Betrachtung dieser Sprachen würde allerdings den Rahmen dieser Arbeit sprengen UIML UIML [HUI] steht für User Interface Markup Language und ist von der amerikanischen Firma Harmonia s Inc. seit 1998 konzipiert und entwickelt worden. Aktuell liegt UIML in der Spezifikation 3.0 unter der Bezeichnung UIML3 vor. Es handelt sich um eine deklarative Meta-Sprache, die ohne Lizenzierungskosten von jedermann implementiert werden kann und somit frei verfügbar ist. Bei der Konzeption der UIML wurden mehrere Ziele verfolgt: Jedermann soll UIs entwickeln ohne vorher bestimmte Programmiersprachen o- der Schnittstellen für Anwendungsentwickler (APIs) zu erlernen. Die Zeit für die Entwicklung der Schnittstellen für eine Familie von Geräten soll gesenkt werden. Es soll eine natürliche Trennung von UI-Code und der Anwendungslogik, die hinter der Applikation steht, erfolgen. Auch unerfahrenen Programmieren soll es möglich sein, UIs zu implementieren. Die Internationalisierung (z.b. verwendete Sprache) und die Lokalisierung (z.b. regional verfügbare Dienste) sollen vereinfacht werden. Ein effizienter Download der UIs über das Netzwerk auf die entsprechenden Endgeräte wird angestrebt. Zukünftige Erweiterungen sollen sich leicht in die Sprache integrieren lassen. Über allem steht das Ziel der Entwickler, mit Hilfe der Sprache eine einheitliche Syntax zu definieren, die sich geeignet in vorhandene Programmiersprachen abbilden (transformieren) lässt. Es lassen sich sowohl Transformationsalgorithmen aufstellen, die UIML- Dokumente ineinander überführen, als auch ein Algorithmus, der aus einem UIML- Dokument ein entsprechendes Zielformat (z.b. Java) generiert. UIML ist, wie eingangs erwähnt, eine Metasprache. Deswegen ist sie auch völlig frei von UI-Metaphern (z.b. graphical UI metaphor ), Zielplattformen (Handy, PDA etc.) und Zielformaten (VoiceXML, WML etc.). UIML arbeitet die wesentlichen Teile einer Nutzerschnittstelle heraus und separiert diese, indem sie dafür Tags einführt. Mittels dieser Tags lässt sich die Struktur von UI Elementen darstellen (z.b. ein Button innerhalb eines Frames). Dazu wird eine baumartige hierarchische Struktur verwendet. Über Attribute lassen sich die Eigenschaften der einzelnen Elemente beeinflussen (beispielsweise die Farbe oder die Größe der Elemente) und darüber hinaus auch das Verhalten der Elemente bei Benutzerinteraktion. Die Wiederverwendbarkeit von UIML-Code wird über Templates realisiert, die in neue Dokumente eingebunden werden können. Die Struktur eines UIML-Dokuments besteht aus verschiedenen Interface-Elementen ( parts ), mit denen der Benutzer interagiert. Jeder Part hat einen bestimmten Inhalt ( content ), wie Text, Sound oder Bild. Einige Schnittstellenelemente können Eingaben

55 55 vom Benutzer empfangen. Die nachstehende Abbildung zeigt die Unterteilung eines Parts in seine einzelnen Bestandteile. Abbildung 32: UIML Meta-Interface Model [UIML 2002] Es wird nun ein UIML-Dokument betrachtet, das das berühmte Hello World -Beispiel aufgreift und die Verwendung der UIML-Tags verdeutlicht. Abbildung 33: Hello World Beispiel Ein Prolog, der die verwendete XML-Version, das verwendete Encoding, sowie den Fundort der UIML 3.0 DTD angibt, leitet ein UIML-Dokument ein. Das Wurzelelement des Dokuments ist das <uiml>-tag. Dieses hat mit dem <interface>- Tag ein Kindelement, das eine Aufteilung der Nutzerschnittstelle in verschiedene Sektionen vornimmt. Zwei dieser Sektionen (Struktur und Style) sind im Beispiel implementiert, das <peers>-tag wird erst im nächsten Abschnitt, wenn es um das Code-Rendering geht, interessant. Eine detaillierte Betrachtung der einzelnen Elemente soll an dieser Stelle nicht erfolgen, sondern stattdessen auf den aktuellen Draft der UIML 3.0 Spezifikation verwiesen werden. Diese ist unter [UIML 2002] zu finden.

56 56 Standardized Application Deployment Weitere Sprachen Nach dieser ausführlichen Betrachtung von UIML sollen die anderen bekannten und verwendeten XML-basierten Auszeichnungssprachen selbstverständlich nicht verschwiegen werden. Dazu werden im Folgenden XUL, XAML und XIML kurz vorgestellt und in einem zusätzlichen Abschnitt noch einige weitere Sprachen und aktuelle Forschungsprojekte genannt. XUL Die Auflösung des Akronyms XUL [XUI, OXA, XPC] bereitet bislang Kopfzerbrechen. So finden sich in der einschlägigen Literatur die verschiedensten Auflösungen, die letztendlich doch alle dieselbe Bedeutung suggerieren. Mit XML-based User Interface Language, XML User Interface Language und Extensible User Interface Language haben sich drei Bezeichnungen etabliert. XUL ist im Rahmen des Mozilla Projektes entstanden und stellt eine abstrakte Beschreibungssprache zur Generierung von grafischen Benutzerschnittstellen für Applikationen dar. Im Vordergrund stand dabei die leichtere und schnellere Entwicklung des Mozilla Browsers. XUL orientiert sich stark an den W3C-Standards und ist plattformunabhängig. Alle aus modernen Benutzerschnittstellen bekannten Elemente sind verfügbar. Dazu gehören unter anderem Eingabefelder (Textboxes, Checkboxes etc.), Toolbars, Registerkarten (Tabbed dialogs) und viele mehr. Der benötigte XUL-Content kann lokal aus einer Datei oder von einer entfernten Webseite geladen werden. Bei der Entwicklung von XUL verfolgte man neben der einfachen Entwicklung des Mozilla Browsers auch das Ziel, Ressourcen einzusparen (plattformübergreifende Softwareentwicklung teuer und zeitintensiv). GUIs sollten sich darüber hinaus leicht entwickeln und ändern lassen. XAML XAML [LON] oder XML Application Markup Language ist eine von Microsoft Corp. entwickelte XML-basierte deklarative Auszeichnungssprache. Mit dieser lassen sich Applikationen für das voraussichtlich Anfang des Jahres 2006 erscheinende Windows-Betriebssystem mit Codenamen Longhorn entwickeln. XAML erlaubt es den Entwicklern, das Layout der Benutzerschnittstellen ihrer Anwendungen (Text, Grafiken, Buttons etc.) zu definieren. Jedes XAML Tag steht in Korrespondenz zu genau einer Klasse des.net Frameworks. Ein Button kann also durch eine einfache Angabe des <Button>-Tags konstruiert werden. Damit erlaubt es XAML wie alle anderen hier betrachteten Auszeichnungssprachen ein User Interface zu generieren, ohne dabei Code einer Programmiersprache erzeugen zu müssen. Es erfolgt auch hier eine Trennung von UI-spezifischen Elementen und der dahinter stehenden Logik. Der für die Logik relevante Code kann aber im Gegensatz zu den anderen Sprachen nicht nur hinter dem Markup stehen, sondern auch innerhalb der Auszeichnungselemente erscheinen. Das folgende Code-Beispiel demonstriert die Integration eines Event- Handlers im Markup selbst. Sobald der Button geklickt wird, wird sein Hintergrund rot.

57 57 Abbildung 34: XAML-Codebeispiel XIML Hinter dem Kürzel XIML [XIO] verbirgt sich die Extensible Interface Markup Language. XIML ist eine XML-basierte universelle Auszeichnungssprache für Benutzerschnittstellen. Die Sprache bietet umfassende Funktionalitätsunterstützung während des gesamten Lebenszyklus (Lifecycle) der UI. Dazu gehören das Erscheinungsbild der Benutzerschnittstelle, deren Entwicklung, in ihr durchgeführte Operationen, die Organisation und Verwaltung der Schnittstelle und deren Evaluierung. Der Benutzer soll bei all diesen Funktionsanforderungen angemessen unterstützt und mit den richtigen Werkzeugen bedacht werden. Die Entwicklung der Sprache wird vom XIML Forum durchgeführt, aktuelle Forschungsansätze werden vom Forum aufgegriffen und vorangebracht. Sonstige Sprachen und Projekte Neben den bereits vorgestellten abstrakten Auszeichnungssprachen gibt es noch eine Reihe weiterer interessanter Sprachen und Projekte. Hierzu gehören die Alternate Abstract Interface Markup Language (AAIML), die Abstract User Interface Markup Language (AUIML), die W3C XForms Working Group oder die Web Service User Interface (WSUI) Initiative [OML]. 2.4 Rendering in Zielformate - XML UI Builder (Renderer) Nun soll kurz erläutert werden, welche Möglichkeiten man besitzt, die vorgestellten abstrakten Auszeichnungssprachen in Zielformate zu transformieren. Zu diesem Zweck bedient man sich so genannten XML UI Builder, die oft auch als Renderer oder Transformatoren bezeichnet werden. Das sind mehr oder minder mächtige Software-Tools, die als Eingabe entsprechende Markup-Dateien erhalten und aus diesen mittels geeigneter Transformationsalgorithmen ein Zielformat generieren. So finden sich für die verschiedenen Sprachen Renderer für JFC Swing, J2ME oder WML, aber auch für Macromedia Flash sind entsprechende Renderer zu erhalten. Prinzipiell kann jedermann einen entsprechenden Renderer implementieren, wenn er ein gutes Verständnis über Ausgangsund Zielformat besitzt. So findet sich im World Wide Web dann auch eine ganze Reihe an XML UI Buildern, die größtenteils frei verfügbar (Open Source) sind. Im Folgenden soll nun SwingML betrachtet werden, ein XUL Motor, der ein Rendering in Java- Swing vornimmt.

58 58 Standardized Application Deployment UIML Rendering-Prozess Dieser Abschnitt befasst sich mit dem Rendering eines UIML-Dokuments in die WML (Wireless Markup Language). Dazu ist das oben bereits angesprochene <peers>-tag innerhalb des UIML Hello World -Beispiels ausschlaggebend. Innerhalb dieses Tags werden die für den Rendering-Prozess relevanten Informationen angegeben. Der folgende Codeausschnitt zeigt auf, welche Elemente innerhalb des <peers>-tags für ein WML- Rendering notwendig sind. Abbildung 35: UIML-Elemente für WML-Rendering Das Attribut name des <presentation>-tags gibt das Zielformat der Transformation an, in diesem Fall die Wireless Markup Language. Innerhalb dieses Tags werden die relevanten WML-Elemente ausgezeichnet. Ein Rendering mit Hilfe dieses <peers>-konstrukts erzeugt dann folgenden WML-Output: Abbildung 36: WML Output des Rendering Prozesses Auf diese Art und Weise lässt sich ein Rendering in die unterschiedlichsten Zielformate vornehmen. Existiert ein entsprechender UI Builder, der das Rendering automatisiert vornehmen kann, dann braucht sich ein Anwendungsentwickler zukünftig nur noch um eine abstrakte Beschreibung der (grafischen) Benutzerschnittstelle zu kümmern. Dies reduziert den Entwicklungs- und Portierungsaufwand von Applikationen in einem ganz erheblichen Maße Weitere Renderer Mittlerweile (Stand: Januar 2004) existiert eine ganze Palette an UI Buildern. Einige von ihnen sollen in diesem Abschnitt kurz vorgestellt werden. SwingML (Swing Markup Language) [SWIN] ist ein Open Source Projekt, das von CrossLogic Corp. gesponsert wird und unter der GNU Lesser General Public License

59 59 (LGPL) entwickelt worden ist. Damit steht es jedem kostenlos zur Verfügung. In einer SwingML Architektur erfolgt zwischen Server und Client ein Austausch von SwingML- Daten. Diese XML-basierten Daten werden von einem Renderer, der als Applet realisiert und in den Browser auf Clientseite integriert ist, in eine auf JFC Swing basierende grafische Benuteroberfläche umgewandelt. SwingML stellt damit eine weitere XML-basierte Auszeichnungssprache dar, mit der sich auch komplexe Swing-Oberflächen auf Clientseite realisieren lassen. Ein weiterer UI Builder ist Thinlet [THIN]. Entwickelt unter der LGPL läuft er mit Java 1.1 bis Java 1.4 und Personal Java. Ein Rendering in Swing ist mit Thinlet dagegen nicht möglich. Haupteinsatzgebiet dieses Renderers sind mobile Endgeräte wie Handys oder ressourcenarme PDAs mit einer (vor-) installierten Java Virtual Machine. Die Größe dieses GUI Toolkits beträgt gerade einmal 38 KB und belegt damit nur einen kleinen Teil des persistenten Speichers. Es handelt sich bei diesem Tool um eine einzige Java-Klasse, die eine Hierarchie von GUI-Elementen und Eigenschaften der Oberfläche parst und die gesamte Benutzerinteraktion steuert. Die grafische Präsentation, die durch XML-Dateien beschrieben wird, wird dabei strikt von der Anwendungslogik (reine Java-Methoden) getrennt. Als letzter XML UI Builder soll an dieser Stelle JellySWT betrachtet werden. Dabei handelt es sich um eine einfache Jelly Bibliothek, die dazu genutzt werden kann, aus XML-Dokumenten SWT (Standard Widget Toolkit) Benutzerschnittstellen zu generieren. JellySWT [JELL] ist vom Jakarta Project entwickelt worden und nimmt wie die anderen Renderer auch - dem Anwendungsentwickler eine Menge Arbeit ab. 2.5 Fazit und Ausblick Zusammenfassend lässt sich feststellen, dass es in der Zukunft anhand der in dieser Ausarbeitung dargelegten Konzepte möglich sein wird, den Prozess der Softwareentwicklung in großen Teilen zu vereinfachen und zu harmonisieren. Die technische Adaption lässt uns in Zukunft einheitliche Dienste nutzen, die von beliebigen Endgeräten aus erreichbar und nutzbar sind. Profile erlauben die Integration individueller Daten in diese generierten Oberflächendialoge. Das Vertrauen der Benutzer in die Dienstnutzung wächst, die Bedienung der Oberflächenelemente wird sich automatisieren und er kann spezielle Dienste effizienter nutzen, als es zum heutigen Zeitpunkt möglich ist. Multi Access Service Plattformen realisieren über personalisierte User Agenten, abstrakte Interaktionssprachen und ein automatisiertes Rendering in jegliche Zielformate eine auf die persönlichen Interessen und Vorlieben optimierte Darstellung der Nutzerschnittstellen. Eine mögliche Erweiterung der MASP, die hier nur kurz angesprochen wird, ist das zur Verfügung stellen von Push-Diensten, also das Senden von Informationen ohne vorherige Anfrage durch den Nutzer. Als Ausblick soll ein fiktives Beispiel betrachtet werden: Ein Business-User kann über seinen Personalized Agent seine Präferenzen in einem Profil abspeichern lassen. Der Agent bietet ihm dann morgens im Zug auf dem Weg zur Arbeit im Web-Browser seines Notebooks eine entsprechende dienstbezogene HTML- Webseite mit für ihn relevanten Börsenkursinformationen an. Weil er am Nachmittag aus beruflichen Gründen nach Mailand fliegen muss, benötigt er aber noch ein Flugticket und

60 60 Standardized Application Deployment übergibt diese Aufgabe seinem Agenten. Er fährt sein Notebook herunter und beginnt, im Büro angekommen, mit seiner Arbeit. Der Agent ermittelt daraufhin offline anhand der Nutzer-Profileinträge ein entsprechendes Flugticket (Nichtraucher, First-Class, Fensterplatz etc.), sucht entsprechende Angebote heraus und liefert diese auf den Büroarbeitsplatzrechner des Users. Dieser studiert die entsprechenden Angebote, wählt eines davon aus und teilt dieses dem Agenten mit. Daraufhin bucht der Agent das Ticket. Am Nachmittag auf dem Weg zum Flughafen meldet sich der Agent auf dem Smartphone des Users und teilt ihm über den installierten Web-Browser in einem Java-Applet mit, dass der Flug aufgrund der schlechten Wetterlage verspätet stattfinden wird oder eventuell ganz ausfällt. In einer Swing-basierten Oberfläche erlaubt der Agent dem User die Stornierung der Buchung und bietet ihm alternative Auswahlmöglichkeiten zu einer Flugumbuchung. Er entscheidet sich für eine Beibehaltung seiner Buchung und eine damit verbundene bevorstehende Wartezeit und bittet seinen Agenten, ihm eine Liste von in Flughafennähe befindlichen Restaurants mitzuteilen, entsprechend zusammengestellt aus den gespeicherten Profileinträgen zu seinen Geschmacksrichtungen. Er wählt ein Lokal aus der Liste aus und beauftragt den Agenten, für ihn dort einen Tisch zu reservieren. Dieser schickt daraufhin eine Mail an die Lokalität mit dem Reservierungswunsch und per SMS wird der User kurze Zeit später über die Bestätigung der Reservierung informiert. Eine Anfahrtsskizze erhält er kurze Zeit später per MMS- Bildmitteilung. Er genießt seine Wartezeit gemütlich bei einem Glas Wein eines italienischen Restaurants. Dieses kurze Zukunftsszenario lässt sich mit den in dieser Ausarbeitung vorgestellten Konzepten und Möglichkeiten im Bereich der Personalisierung ( Profilisierung ) und Adaption von Benutzerschnittstellen per Bereitstellung durch eine Multi Access Service Platform in absehbarer Zeit effizient realisieren. Einer möglichen Vereinfachung des Lebensalltags auf Benutzerseite steht eine effizientere und kostengünstigere Entwicklung von Diensten und entsprechenden (grafischen) Benutzerschnittstellen der Serviceprovider gegenüber. Inwieweit sich diese Art der Dienstnutzung in der Zukunft durchsetzen wird, hängt selbstverständlich von der Akzeptanz der Benutzer, aber auch von der Qualität der angebotenen Dienste ab.

61 61 3 TRANSFER OF INTELLIGENCE TO END-USER- DEVICES Computernetzwerke ermöglichen die Verteilung von Anwendungslogik auf mehrere Computer. Häufig erbringt dabei nur ein Computer, ein Server, für mehrere andere Computer, die Clients, eine Dienstleistung, indem er ihnen die Arbeit abnimmt und die gesamt Anwendungslogik bei sich ausführt. Die Clients können die Ergebnisse der Anwendung vom Server empfangen und/oder die Anwendung auf dem Server auch steuern. Eine solche verteilte Anwendung, bei der auf dem Client nur eine einfache Benutzerschnittstelle zur Verfügung steht, nennen wir Thin Client Anwendung. Der Ansatz einer Thin Client Anwendung lässt sich auch auf einen ganzen Computer ausweiten, indem der Computer gar keine Anwendung außer einer Schnittstelle zu einem oder mehreren Server/n mehr ausführt. Bei einem solchen Computer sprechen wir einfach von einem Thin Client Computer. Eine Thin Client Anwendung ist eine Anwendung, die nur auf einem Computer ausgeführt wird. Ein Thick Client Computer wäre demzufolge ein Computer, auf dem nur Thick Client Anwendungen ausgeführt werden. Da ein Internetbrowser allerdings bereits eine Schnittstelle für Thin Client Anwendungen darstellt und viele Anwendungen erst durch den Thin Client Ansatz möglich werden, trifft man heutzutage kaum einen Computer an, auf welchem nur Thick Client Anwendungen ausgeführt werden. Im Folgenden wollen wir also der Einfachheit jeden Computer, der kein Thin Client Computer ist, einen Thick Client Computer nennen. Im Rahmen dieser Ausarbeitung soll besprochen werden, welche Vor- und Nachteile die beiden Ansätze mit sich bringen. Dazu wollen wir mehrere Einsatzmöglichkeiten genauer betrachten: Jedes größere Unternehmen mit einem Computernetzwerk, sollte sich einmal mit der Frage beschäftigen, ob der Einsatz von Thin oder Thick Client Computern wirtschaftlich sinnvoller ist. Da die Antwort auf diese Frage nicht für jedes Unternehmen gleich beantwortet werden kann, werden die Vor- und Nachteile beider Ansätze in diesem Kontext aufgezählt und verglichen. Dabei ergibt sich in vielen Fällen eine Menge guter Argumente für den Einsatz von Thin Client Computern, die auch faktisch belegt werden können. Während der Einsatz von Thin Client Computern in Unternehmensnetzwerken in vielen Fällen vorteilhaft erscheint, stellen sich im Kontext größerer, nicht lokaler Netzwerke ganz andere Probleme, die hier betrachtet werden müssen. Datenverlust, hohe Latenzzeiten und zu langsame Datenübertragung sind hier typische Probleme, die dem Einsatz vieler Thin Client Anwendungen und damit auch Thin Client Computern im Weg stehen. Während eine Reihe heutzutage weit verbreiteter Thin Client Anwendungen, die sogenannten Web Applikationen, aus später genauer dargelegten Gründen kaum noch wegzudenken sind, bieten sich Thin Client Anwendungen auch zur Vermietung von Softwaredienstleistungen über das Internet an. Die Vorteile und Nachteile, die heutzutage mit dieser Idee einhergehen, werden näher betrachtet. Dabei wird deutlich, dass die hier für einen sinnvollen Einsatz nötigen Technologien noch nicht weit genug verbreitet sind. In einer Zukunftsvision wird schließlich der breite Einsatz von Thin Client Computern motiviert. Während Thin Client Computer heutzutage vor allem im Unternehmensbereich von hohem Interesse sind, ist eine Verbreitung auf dem Privatkundensektor erst in ferne-

62 62 Transfer of Intelligence to End-User-Devices rer Zukunft zu erwarten, dies allerdings mit guten Gründen, die im Folgenden auch deutlich gemacht werden. Schlagworte: Thin Client, Thick Client, Administration von Firmennetzwerken, Vermietung von Softwarediensten, Web Applikationen 3.1 Einleitung Dank sich stets weiter entwickelnder Netzwerktechnologien ergeben sich heutzutage völlig neue Anwendungsgebiete verteilter Anwendungen. Eine Anwendung muss nicht immer nur auf einem Rechner ausgeführt werden. Diesem alten Ansatz des so genannten Thick Clients stehen neue Techniken gegenüber. Besonders der Thin Client Ansatz ist hier von Interesse für Privat- wie auch Firmenkunden. Um einen Vergleich dieser beiden Techniken präsentieren zu können, wird im Folgenden zunächst eine Definition der beiden Begriffe gegeben. Anschließend sollen die besonderen Vor- und Nachteile beider Ansätze einerseits im Kontext lokaler Netzwerke und andererseits in Wide Area Networks (WANs) näher betrachtet werden. Die erste Betrachtung wird hier vor allem für Firmenkunden interessant sein, die für gewöhnlich besonders hohe Ansprüche an ihre lokalen Netzwerke stellen. Typische Forderungen solcher Unternehmen sind: niedrige Wartungskosten, hohe Skalierbarkeit, Benutzerfreundlichkeit, hohe Stabilität und Datensicherheit. Hier bieten beide Ansätze mögliche Lösungen, wobei keine der Beiden pauschal zu bevorzugen ist. Für welches Unternehmen welche Lösung eher angebracht ist, soll deshalb in Abschnitt 3.2 besprochen werden. In Wide Area Networks hingegen ist z.zt. relativ klar, in welchen Anwendungsfeldern Thin Clients deutliche Vorteile mit sich bringen und in welchen nicht. Diese Fragestellungen sollen in Abschnitt 3.3 geklärt werden. Anschließend soll noch eine Vision für den möglichen Einsatz von Thin Client Technologien in der näheren Zukunft gegeben werden. Welche Lösungen denkbar wären, welche Anforderungen an die Technik dafür erfüllt werden müssten und welche Herausforderungen aus diesen abgeleitet werden können, soll in Abschnitt 3.4 behandelt werden Definition von Thick Client Ein Thick Client (oder Fat Client) ist definiert, als ein System, welches Applikationen vorhält, die auf dem System selbst ausgeführt werden. Programme werden lokal gespeichert und sind nur auf dem Client verfügbar, auf dem sie installiert wurden. Außerdem kann ein Thick Client auch außerhalb eines Netzwerkes benutzt werden. Ein klassischer Vertreter dieser Gattung ist der Personal Computer (PC) mit dem Microsoft Windows Betriebssystem.

63 Definition von Thin Client Eine Thin Client Anwendung ist eine spezielle verteilte Anwendung. Eine verteilte Anwendung ist eine Anwendung, die nicht nur auf einem Gerät ausgeführt wird, sondern auf mehreren Geräten, die über ein Netzwerk miteinander verbunden sind. In der Familie der verteilten Anwendungen zählt eine Thin Client Anwendung zu den Client-Server-Anwendungen. Bei einer Client-Server-Anwendung stehen 2 Geräte in einer klaren Kunde-Dienstleister-Beziehung zueinander. Der Client nutzt dabei eine Funktionalität, die von dem Server erbracht wird. Bei einer Thin Client Anwendung stellt der Client lediglich die Benutzerschnittstelle bereit, während der Server quasi die gesamte inhaltliche Funktionalität erbringt. 3.2 Thick Clients Vs Thin Clients Im folgenden Abschnitt wollen wir uns mit dem Einsatz der Thin-/Thick Client Technik in Local Area Networks (LAN) beschäftigen. Dabei werden wir speziell den Bereich der kommerziellen Anwendungen, d.h. den Einsatz in Unternehmen, betrachten Grundlagen In Unternehmen findet man heutzutage hauptsächlich Netzwerke die aus einer Vielzahl von unterschiedlichen PCs bestehen. Das bedeutet immense Kosten und einen hohen Administrationsaufwand, um ein solches Netzwerk am laufen zu halten. Um die Total Cost of Ownership (TCO) zu senken wird deswegen seit längerem über den Einsatz von Thin Clients als Standard Rechner und den Einsatz von Serverfarmen nachgedacht. Besonders in Unternehmen mit über 100 Rechnern wird die Frage nach dem Einsatz von Thin Clients diskutiert, während kleinere Unternehmen dem Umstieg von den bisher benutzten Thick Client Netzwerken auf Thin Client Netzwerke aufgrund der Migrationskosten eher negativ gegenüber stehen. Viele dieser Unternehmen setzen eher auf Desktop Management Systemen, die mittlerweile sehr ausgereift sind und die Administration von Netzwerken unterstützen. Allerdings stoßen solche Management Lösungen auch an ihre Grenzen, wenn viele Mitarbeiter mit mobilen, zum Teil privaten, Geräten arbeiten, die nicht immer für Wartungsarbeiten zur Verfügung stehen. Wann also lohnt sich der Umstieg auf eine komplett neue Netzwerktechnologie für ein Unternehmen? Welche Vorzüge bieten die beiden unterschiedlichen Ansätze, welche Nachteile haben sie? Diese Fragen versucht dieses Abschnitt zu klären. Der Privatanwender wird bei dieser Betrachtung weitestgehend außen vor gelassen, da es für ihn selten möglich ist, sich einen Server in die Wohnung zu stellen um ein Thin Client Netzwerk zu betreiben. Für ihn ist ein Thick Client Netzwerk eher interessant, da durch die fallenden Preise für PCs ein kleines Netzwerk (4-5 PCs) aus Thick Client finanziell attraktiver ist Vorteile Wenn ein Unternehmen den Einsatz von vernetzten Computern plant, stellt sich die Frage, ob ein Thin oder Thick Client Netzwerk die gewünschten Eigenschaften besser unterstützt. Welche Vorteile die Systeme aufweisen wird hier kurz dargestellt Thick Clients Ein Hauptgrund für den Einsatz von Thick Clients in Unternehmen ist die hohe Flexibilität der PCs und Notebooks. Egal ob der Anwender nur einfache Textverarbeitung, Kundendaten verwalten oder rechenintensiver 3D-Anwendungen und CAD-Anwendungen

64 64 Transfer of Intelligence to End-User-Devices ausführen möchte, alles ist mit einem PC möglich. Dem Benutzer werden keine Grenzen gesetzt. Die lokale Ausführung der Programme garantiert zudem eine Performance Sicherheit, die eine schnelle Ausführung der gewünschten Anwendung garantiert, im Gegensatz zu Server-Basierten Anwendungen, die je nach Auslastung des Servers und des Netzwerkes unterschiedliche Performance anbieten. Der Einsatz eines Thick Clients hebt den Sicherheitsstandard, und das Sicherheitsgefühl des Anwenders. Er hat den Überblick über die eigenen Daten, kann sie selbst verwalten und sichern. Jeder PC ist autonom vom gesamten Netz, ein Absturz eines Servers führt nicht zu einem vollständigen Datenverlust, wie das bei einem zentralen Fileserver der Fall wäre. Außerdem kann jeder PC gegenüber Angriffen von Außen geschützt werden, ein Einbruch in das Firmennetzwerk würde nicht automatisch bedeuten, dass alle persönlichen Daten des Benutzers zugänglich sind Thin Clients Einer der Gründe, warum sich ein Unternehmen für den Einsatz eines Thin Client Netzwerkes entscheidet, ist die Hoffnung, den Administrationsaufwand, z.b. bei Software- Updates, niedrig zu halten und so Kosten einzusparen. Die meisten Wartungsarbeiten können von wenigen Administratoren an zentralen Servern vorgenommen werden, ohne dass der Nutzer von solchen Veränderungen beeinträchtigt wird. Die Erweiterung solcher Netzwerke ist weniger Kosten intensiv, da nur neue Clients angeschafft werden müssen, die weitaus weniger komplex und teuer sind als normale PCs. Nicht nur die Administration der Rechner, auch die Wartung des Netzwerkes vereinfacht sich. Durch die geringe Komplexität der Client-Rechner und die dadurch geringere Fehleranfälligkeit müssen die meisten Wartungsarbeiten nur an den zentralen Servern durchgeführt werden. Es reichen einige wenige Techniker, die sich dafür mit dem System sehr gut auskennen Übersicht Thick Clients hohe Flexibilität bei Anwendungen Sicherheit bei Performance Sicherheit bei Netzwerkproblemen Thin Clients Aufwandsminimierung beim Client Niedrige Administration Kosten Niedrige Wartungskosten Kosten Tabelle 3: Vorteile Thick Clients vs. Thin Clients Nachteile Jede der beiden Ansätze bringt neben den oben genannten Vorteilen auch einige Nachteile mit sich. Besonders der Umstieg von einem Thick Client Netzwerk auf ein Thin Client Netzwerk ist nicht ohne Probleme zu bewerkstelligen Thick Clients Die Vorteile der Thick Clients sind zugleich auch die größten Nachteile. Individuell angepasste PCs bestehen aus einem Konglomerat verschiedenster Hard- und Software. Die hohe Flexibilität wird bezahlt mit einer hohen Komplexität. Jeder Computer muss einzeln auf dem aktuellen Stand bei z.b. Virenschutz und Netzwerksicherheit gehalten werden. Dabei muss auch darauf geachtet werden, dass es bei der Installation von Updates zu Inkompatibilitäten aufgrund der unterschiedlichen Hard-

65 65 ware kommen kann. Auch der Serverseitige Aufwand ist nicht zu unterschätzen. So muss der Server in einem Design Büro nicht nur mit einem Betriebsystem in unterschiedlichen Update-Stufen (z.b. Windows XP mit und ohne SP1), sondern auch mit komplett verschiedenen Betriebssystemen (Mac/Windows) klar kommen. Das erfordert einen erhöhten Supportaufwand seitens der Netzwerk-Administratoren. Bei Hardware Problemen muss jeder Computer als Einzelstück betrachtet werden, durch die unterschiedliche eingesetzte Hardware muss für jeden fehlerhaften Computer eine Fehleranalyse durchgeführt werden. Das erfordert, je nach Größe des Unternehmens, eine Vielzahl an Service Mitarbeitern. Auch für den User selbst kann der Einsatz von Thick Clients, neben den oben genannten Nachteilen, zu Problemen führen. Wenn er neben der Arbeit im Büro auch von zu Hause an seinem Projekt arbeiten möchte, muss er selbst dafür sorgen, das sein Heim-Computer alle nötigen Applikationen zur Verfügung hat, die ihm ermöglichen, von außen auf den Arbeitsserver zuzugreifen Thin Clients Nachteile bietet die Thin Client Architektur vor allem bei Sonderwünsche der Nutzer was spezielle Software betrifft. Das liegt daran, dass nicht jede Software für den Einsatz im Netzwerk geeignet ist. In einem solchen Fall muss häufig ein Thick Client verwendet werden oder die Software aufwendig an das Netzwerk angepasst werden. Dadurch, dass der Hauptteil der Berechnungen auf den Servern gemacht werden, müssen die Server ausreichend Last verarbeiten können. Dazu muss das System ausreichen skalierbar sein. Außerdem muss das System, um eine gewisse Ausfallsicherheit zu garantieren, redundant gehalten werden. Die Deutsche Bank unterhält zwei Serverfarmen, die dieselben Daten vorhalten, an unterschiedlichen Orten. Das erhöht natürlich die Kosten für ein solches Thin Clint Netzwerk. Da die gesamten Daten, auch sicherheitsrelevante Daten, des Unternehmens auf Servern liegen, die auch von außen erreichbar sind, müssen hier besonders hohe Sicherheitsvorkehrungen getroffen werden Übersicht Thick Clients Thin Clients Hoher Administrationsaufwand Hohe Ansprüche an die Netzwerk- Verbindungen, Systemperformance und Ausfallsicherheit Hoher Wartungsaufwand Software nicht immer Netzwerktauglich Tabelle 4: Nachteile Thick Clients vs. Thin Clients Vergleich der Kosten In einem von der Gartner Group 2001 veröffentlichtem Bericht über die Senkung des TCO beim Einsatz von Thin Clients in Netzwerken wird deutlich, dass man nicht nur Thick und Thin Client Systeme betrachten muss. Man muss auch eine Unterscheidung zwischen gut und schlecht administrierten Thick Client Systemen treffen. Die Analyse basiert auf den Beobachtungen von 2500 Desktops und 35 Servern.

66 66 Transfer of Intelligence to End-User-Devices TCO Thin Thick Managed Thick Unmanaged Direct 5,276,197 5,943,658 6,710,772 Indirect 5,478,388 7,424,767 10,402,545 Migration Costs 2,176, Total TCO 12,930,789 13,368,426 17,113,318 Payback Period 0.84 months 0.34 months Tabelle 5: Kostenvergleich Thin Clients vs. Thick Clients Die Einspaarungen bei Thin Client Netzwerken werden weniger durch die direkten Einspaarungen (Software und Hardware Kosten), als vielmehr durch die indirekten Kosten (Support und Data Management), erreicht. Der Kostenunterschied zwischen einem Thin Client und einem unmanaged Thick Client Netzwerk beträgt ca. 90% und 32% zu den managed Systemen. Die Managed Thick Client Netzwerke sind meist Systeme, wo dem Benutzer durch diverse Einschränkungen die Möglichkeit genommen wird, selbst Einstellungen am System vorzunehmen. Wobei zu bedenken ist, dass solche Einschränkungen auch zu einer niedrigeren Produktivität führen können Beispiel Deutsche Börse Group Bis zum Jahr 1999 arbeiteten die Angestellten der Deutschen Börse Group (DBG) mit einem herkömmlichen Thick Client Netzwerk von ca Rechnern. Nachdem die hohen Wartungs- und Administrationskosten den Zweifel an der Richtigkeit dieser Lösung gemehrt hatten, wurde im Dezember, nach einem positiv ausgefallenen Business Case, mit der Umstellung auf ein Thin Client Netzwerk begonnnen. Es wurde das Betriebssystem NetWare5 eingesetzt. Sämtliche Applikationen laufen auf zwei getrennten Serverfarmen, die zusammengesetzt sind aus Applikationsservern (MetaFrame, WindowsNT4.0), Server die für die Benutzerverwaltung zuständig sind und Printserver. Bis auf ein paar Performanceprobleme, die inzwischen weitestgehend abgestellt sind, läuft das System stabil Fazit In Umgebungen mit Hunderten oder Tausenden von Clients, in denen der Client durchgehen vernetzt und die Vernetzung durchgehend verfügbar ist und mit wenigen Serverbasierten Applikationen gearbeitet wird, bietet der Thin Client Ansatz Vorteile gegenüber den Thick Clients. Zum Betrieb von Thin Clients ist eine Infrastruktur mit zentralisierten Anwendungen nötig, was besonders in der Migrations- und Anfangsphase ein Unternehmen zu hohen Investitionen zwingt. Aber gerade für große Unternehmen, die weltweit agieren, werden z.b. Softwareupdates von mehreren 100Mb für alle angeschlossenen Clients, vereinfacht. Die meisten anfallenden Probleme, Kompatibilitätsprobleme der Software zum Beispiel, können in den zentralen Serverfarmen von dem dort arbeitenden Fachpersonal gelöst werden. Auch der Austausch der Client-Hardware ist ohne größere Probleme zu handhaben, da meist nicht mehr als ein paar Parameter (IP-Adresse, Servername, etc.) eingestellt werden müssen und die Hardware einsatzbereit ist. Es sind allerdings nicht alle Umgebungen geeignet, um den Betrieb auf Thin Clients umzustellen. So wird in vielen Unternehmen eine Vielzahl unterschiedlichster Applikatio-

67 67 nen von einer geringen Anzahl der Anwender genutzt, so dass sich der Aufwand der Integration in eine Thin Client Landschaft nicht lohnt. Auch der Einsatz von reisenden Angestellten, ausgerüstet mit Laptops, verhindert heutzutage den Einsatz von reinen Thin Client Netzwerken. Trotzdem sollte auch in solchen Unternehmen über die Vereinheitlichung des eingesetzten Betriebsystems und die Verwendung einer Desktopmanagement- Lösung nachgedacht werden, um die Konfiguration für die Systemsicherheit (Virenschutz, Firewall) zu erleichtern. 3.3 Thin Clients Im WAN In diesem Abschnitt werden die Vor- und Nachteile des Thin Client Ansatzes im speziellen Kontext größerer Netzwerke, so genannter WANs, betrachtet. Es werden zwei Nutzungsmöglichkeiten näher betrachtet: die für das heutige Internet typischen Web Applikationen und die Nutzung von Software auf fremden Servern per Pay-Per-Use-Verfahren Grundlagen Neben den lokalen Netzwerken, den Local Area Networks (LANs), gibt es auch die weiter gefassten Netzwerke, die Wide Area Networks (WANs). Der Unterschied zwischen diesen beiden liegt vor allem darin, dass der Datenstrom bei lokalen Netzwerken: meist innerhalb einer wirtschaftlichen Einheit (Privathaushalt oder Unternehmen) verläuft und deutlich kürzere Kommunikationswege zwischen den verbundenen Computern gegeben sind. Daraus ergeben sich die beiden großen Schwachstellen der WANs: Problem Vertraulichkeit: Der Verlauf und der Zugriff auf versendete Daten lässt sich nur schwer kontrollieren. Problem Leistung und Zuverlässigkeit: Die langen Kommunikationswege sind langsamer und die Störungsanfälligkeit ist dadurch höher. Trotz alledem hat sich z.b. das World Wide Web, das zweifellos bekannteste WAN, durchgesetzt. Dieser bahnbrechende Erfolg ist wohl vor allem einem Faktor zu verdanken: Das Internet ist ein neuer Markt, mit neuen Kunden, die neue Produkte fordern. Das Internet, das anfangs als Informationsquelle gedacht war, entwickelte sich so sehr schnell zu einer Art von Dienstleistungsmarktplatz, auf dem Kunden Dienste eines Anbieters völlig ortsunabhängig nutzen können. Die Diensterbringung wird dabei vom Kunden einfach über einen Internetbrowser angestoßen, während die Applikation selbst auf einem Server des Anbieters ausgeführt wird. Diese Anwendungsart entspricht genau dem Thin Client Ansatz. Jede dynamische Internetseite kann als kundenbezogener Dienst verstanden werden, da ihr ein Softwareprodukt zugrunde liegt. Solche Anwendungen nennt man Web Applikationen. Das Internet hat vor allem einen großen Effekt: Aufgaben wurden verlagert, um Kosten einzusparen. Hiervon betroffen waren vor allem bereits existierende Dienstleistungen, die bisher per mündliche Absprache erledigt wurden, wie Reservierungen, Informationsbereitstellung oder Reklamationen. Es wurden also vor allem Kommunikationskosten eingespart, ohne tatsächlich neue Dienstleistungen bereit zu stellen. An dieser Stelle bietet der Thin Client Ansatz eine neue Möglichkeit der Dienstleistung: die Vermietung von Softwareprodukten. Dazu muss ein Dienstanbieter ein Softwareprodukt auf einem Server installieren und eine einfache Benutzerschnittstelle über das Internet bereitstellen. Anstatt ein Softwareprodukt auf seinem

68 68 Transfer of Intelligence to End-User-Devices eigenen Computer zu installieren und es dann zu nutzen, kann der Kunde es so einfach über das Internet nutzen. Welche Vor- und Nachteile ein solcher Diensleistungsansatz bietet, soll in den folgenden Abschnitten verdeutlicht werden Vorteile Neue Geschäftsmodelle Nach dem Thick Client Ansatz muss ein Kunde ein Softwareprodukt erst kaufen, um es nutzen zu können. Damit erhält der Kunde (im Regelfall) gleichzeitig das Recht, dieses Produkt in einem bestimmten Zeitraum beliebig oft zu nutzen. Häufig möchte ein Kunde eine Dienstleistung allerdings nur einige wenige Male in Anspruch nehmen. In einem solchen Fall lohnt es sich für den Kunden nicht, dass Produkt zu kaufen, wenn der erwartete Nutzen zu hohen Anschaffungskosten gegenüber steht. So können einem Anbieter eines Softwareproduktes potentielle Kunden verloren gehen. Der Thin Client Ansatz erlaubt einfache Pay-Per-Use-Verfahren. Das heißt: der Kunde bezahlt nur genau so viel Dienstleistung, wie er auch in Anspruch nimmt. Möchte der Kunde eine bestimmte Funktionalität nur einmal nutzen, so kann er dies einfach und kostengünstig tun. Das Kosten-Nutzen-Problem des Thick Client Ansatzes fällt so weg. Die tatsächlich bestehende Nachfrage kann befriedigt werden, wodurch das Produkt an mehr Kunden verkauft wird. Der Nutzen für den Anbieter als auch für den Kunden steigt, da die Anbieter den Umsatz steigern und der Kunde die gewünschten Funktionalitäten in Anspruch nehmen kann Wegfall von Erweiterungen Nach dem Thick Client Ansatz muss ein Kunde ein Softwareprodukt erst auf seinem Computer installieren, um es nutzen zu können. Dabei können diverse Probleme auftreten: Der Computer erfüllt nicht die Leistungsanforderungen des Softwareproduktes. Es können Konflikte zwischen verschiedenen Softwareprodukten auftreten. Treiber, die von dem Softwareprodukt benötigt werden, sind nicht installiert. Der Kunde versteht die Installationsanweisungen nicht. All diese Probleme können bei dem Thin Client Ansatz nicht auftreten, da der Kunde keine Installation vornehmen muss. Anstatt dessen wird die Installation auf einem Server eines Unternehmens durch einen Spezialisten vorgenommen. Der Kunde kann also eine Dienstleistung nutzen, sobald sie ihm von einem Dienstleister zur Verfügung gestellt wurde. Die Erweiterung des Computers des Kunden um neue Funktionalitäten erfolgt auf der Seite des Anbieters und fällt somit für den Kunden weg Geringe Hardwarekosten Jede Software stellt Anforderungen an die Hardware des Computers, auf welchem sie ausgeführt werden soll. Nach dem Thick Client Ansatz muss ein Kunde, der ein bestimmtes Softwareprodukt erwerben möchte, also einen Computer besitzen, der die Leistunsanforderungen dieser Software erfüllt. Möchte man nun sogar mehrere Anwendungen gleichzeitig ausführen, was in der Praxis meist der Fall ist, so steigen die Anforderungen an die Hardware sogar noch weiter. Zudem belegt ein jedes Softwareprodukt Speicherplatz auf dem Computer. So kann es passieren, dass ein potentieller Kunde ein Softwareprodukt nicht erwirbt, weil er sich den Computer, den er bräuchte, um diese

69 69 Software auszuführen, nicht besitzt und sich die Anschaffung eines solchen auch nicht leisten kann. Die tatsächlich bestehende Nachfrage kann so also nicht befriedigt werden. Jede Anwendung, die nach dem Thin Client Ansatz nicht auf dem Computer eines Kunden ausgeführt wird, mindert die Hardwareanforderungen an diesen. Der Kunde muss also weniger für seinen Computer bezahlen, ohne auf die von ihm gewünschten Funktionalitäten verzichten zu müssen Geringer Stromverbrauch Wie im letzten Punkt beschrieben muss der Computer eines Kunden dem Thick Client Ansatz zufolge bestimmte Leistungsmerkmale erfüllen, die lediglich durch die Verwendung zusätzlicher Hardware möglich gemacht werden. Leistungsstarke Hardware weist für gewöhnlich auch eine höhere Leistungsaufnahme auf als weniger leistungsstarke Hardware. Da der Computer des Kunden nach dem Thin Client Ansatz über weniger leistungsstarke Hardware verfügen muss, folgt daraus im Regelfall auch eine geringere Leistungsaufnahme. Dies mindert die Kosten, die der Kunde zu tragen hat und steigert im Umkehrschluss wiederum seine Kaufkraft. Ein zweiter wichtiger Effekt der geringeren Leistungsaufnahme ist die damit einhergehende höhere Akkulaufzeit bei allen mobilen Computern wie Laptops oder PDAs. Für den Endnutzer ist somit ein höheres Maß an Mobilität möglich Nachteile Datenverlust Nach dem Thin Client Ansatz müssen Daten über das Netzwerk gesendet werden. Bei einer direkten Verbindung zwischen zwei Computern gibt es üblicherweise keinen Datenverlust, wenn die physische Verbindung nicht unterbrochen wird. In den meisten Netzwerken hat allerdings nicht jeder Computer eine direkte Verbindung zu jedem anderen. Dies käme graphentheoretisch einem vollständigen Graphen gleich und bei solchen verhält sich die Kantenanzahl in Abhängigkeit der Knoten exponentiell. Da kein größeres Netzwerk so viele Verbindungen zur Verfügung stellen kann, werden die Daten in solchen Fällen über mehrere Computer geroutet bis sie beim intendierten Empfänger ankommen. Werden Daten über mehrere Computer und Netzknoten hinweg geroutet, kann es leicht passieren, dass Datenströme miteinander kollidieren oder die Daten durch überlastete Netzknoten gebremst werden und sie deswegen nicht schnell genug beim Empfänger ankommen. Um eine korrekte Funktionsweise zu garantieren, müssen Kommunikationspartner in einem Netzwerk deshalb nach bestimmten Wartezeiten davon ausgehen, dass solche Daten verloren gegangen sind. Dies ist zwar selten tatsächlich der Fall, doch ist die Zeit hier wichtiger als das Warten auf einige wenige verlorene Bytes. Die Möglichkeit für einen solchen Datenverlust nimmt, wie man sich leicht vorstellen kann, mit zunehmender Zahl durchlaufener Knoten stetig zu. Dies stellt vor allem in WANs ein enormes Problem dar, da hier für gewöhnlich sehr viele Knoten passiert werden. Da Datenintegrität in vielen Anwendungsbereichen ein kritischer Faktor ist, kommt hier die Thin Client Lösung kaum in Frage.

70 70 Transfer of Intelligence to End-User-Devices Geringer Datendurchsatz Da nach dem Thin Client Ansatz Daten über das Netzwerk versendet werden, kann es bei zu großen Datenmengen zu Übertragungsschwierigkeiten kommen. Da auf der Seite eines Thin Clients lediglich Informationen dargestellt werden und keine Funktionalität erbracht wird, betrifft dieses Problem nur Anwendungen, bei denen ein hohes Maß an visuellen und auditorischen Medien zum Einsatz kommt. Ein gutes Beispiel ist hier die Bild-, Video- oder Soundbearbeitung von Dateien mit sehr hoher Auflösung Geringe Sicherheit Da bei Thin Client Anwendungen in WANs Daten üblicherweise Netzwerkknoten passieren, die sich außerhalb der wirtschaftlichen Einheit befinden, von der sie stammen, kommt es hier zu erheblichen Sicherheitsrisiken. Es besteht die Möglichkeit, dass Anwendungen, die auf einem solchen Netzwerkknoten installiert sind, Zugriff auf den Datenverkehr erhalten. Dies birgt nicht nur das Risiko einer Unterbrechung des Datenstroms, sondern auch das Risiko, das Unbefugte Einsicht in die Daten selbst erhalten o- der diese manipulieren. Da sich fremde Netzwerkknoten nicht kontrollieren lassen, kann man deren Betreibern nur vertrauen oder von einem Versand der Daten über solche Wege absehen Ungenügende Schnittstellen Da ein Thin Client möglichst viel Aufwand auslagern soll, sollte er auch möglichst nur eine generische Schnittstelle für alle möglichen Anwendungen nutzen. Die einzige generische Schnittstelle, die z.zt. für Thin Client Anwendungen über das Internet zur Verfügung steht, ist der Internetbrowser. Thin Client Anwendungen, die diese Schnittstelle verwenden, werden auch Web Applikationen genannt. Ein Online-Banking-Service ist ein typisches Beispiel für eine Web Applikation. Vergleicht man die Benutzerschnittstellen von Web Applikationen mit denen von Thick Client Lösungen, so stellt man sehr schnell fest, dass die Interaktionsmöglichkeiten zu einer Internetseite sehr viel eingeschränkter sind. Die HTML, aus denen die ersten Internetseiten noch vollständig bestanden, wies so deutliche Schwächen auf, dass sie schnell um interaktive Elemente erweitert wurde. Das Anzeigen von Informationen beim Bewegen des Mauszeigers über Knöpfe z.b. war anfangs gar nicht möglich. Denkt man im Vergleich damit an ein Grafikbearbeitungsprogramm mit seinen vielen Auswahlmöglichkeiten von Grafikelementen, so stellt man schnell fest, dass die Internetbrowser von heute ein solches Maß an Interaktivität nicht bieten können. Soll ein Softwareprodukt, welches bisher auf dem Computer eines Kunden installiert werden musste, nun nach dem Thin Client Ansatz auf einem Server installiert werden, so darf die bisherige Benutzerschnittstelle nicht an Interaktivität verlieren, da diese häufig einen nicht geringen Teil der Funktionalität einer Anwendung ausmacht. Über einen einfachen Internetbrowser ist eine solche Forderung allerdings nicht ein zu halten und andere generische Schnittstellen existieren z.zt. nicht Fazit Die Versprechungen des Thin Client Ansatzes zur Vermietung von Softwareprodukten im Internet sind in höchstem Maße reizvoll. Ihnen gegenüber stehen aber heutzutage noch eine Menge ungelöster Probleme, welche die Einführung eines solchen Geschäftsmodells unmöglich erscheinen lassen. Diese betreffen vor allem: sicherheitskritische Anwendungen (wie die Datenverwaltung einer Bankgesellschaft),

71 71 Anwendungen, die hohe Anforderungen an die Durchsatzraten und die Zuverlässigkeit des Netzwerkes stellen (wie z.b. Videostreaming) und Anwendungen, für welche die heutigen Interaktionsfähigkeiten zwischen dem Nutzer und einem typischen Web-Browser nicht ausreichen, um die Anwendung richtig zu bedienen (wie z.b. CAD-Anwendungen). Für alle Anwendungen die nicht zu den oben aufgezählten gehören, wäre eine Thin Client Lösung mit Software-Vermietung durchaus denkbar. Man sollte dabei jedoch eines nicht aus den Augen verlieren: solange nicht der Grossteil aller möglichen Softwareprodukte zur Vermietung angeboten wird, wird es sich für viele Kunden nicht lohnen, ein reines Thin Client Endgerät zu kaufen, wenn sie bestimmte Anwendungen nutzen möchten, die ihnen damit nicht zur Verfügung stehen. Damit bliebe es also bei dem was wir heute haben, nämlich Thick Clients, die gleichzeitig eine Schnittstelle zu Thin Client- Anwendungen bereitstellen, einen einfachen Web-Browser. Der Vorteil der geringeren Hardwarekosten und der geringeren Leistungsaufnahme fällt somit weg, obwohl es gerade diese beiden Vorteile sind, in denen das große Potential von Thin Client Anwendungen liegt. Die Vermietung von ein paar Softwareprodukten über einen Web-Browser, so wie sie heute schon denkbar wäre, könnte durchaus gewinnbringend sein. Doch die viel wichtigeren Versprechungen dieses Ansatzes, nämlich die Erschließung sehr großer, neuer Kundengruppen durch die Vermarktung sehr viel billigerer Computer, sind z.zt. leider noch nicht realisierbar. Im Bereich der Kommunikationsdienstleistungen fallen die Argumente für den Thin Client Ansatz hingegen sehr deutlich aus. Kundenservice oder Einkauf sind Bereiche, in denen der Einsatz von Web Applikationen enorme Kostenersparnisse mit sich bringen kann. Kaum ein Unternehmen kommt heutzutage noch ohne seine eigene Web Applikation mehr aus und daran wird sich auch so schnell nichts ändern. 3.4 Ausblick Im Folgenden wird ein Szenario für den möglichen Einsatz von Thin Client Technologien in der Zukunft beschrieben. Danach wird kurz das diesem Szenario zugrunde liegende, grobe Konzept für eine mögliche Realisierung erläutert. Schließlich sollen die Herausforderungen, die sich aus einer solchen Vision ergeben näher betrachtet werden Ein Zukunftsszenario John ist gerade auf dem Weg zu einer wichtigen Konferenz in Venezuela. Am Flughafen fällt ihm auf, dass er sein PDA vergessen hat. Er geht schnell in einen der Flughafenshops und kauft sich für 50 Euro einen neuen PDA. Als das Flugzeug endlich abhebt, aktiviert John das Display des PDA. In einem Formular wird er gebeten seine Nutzerdaten und Bankverbindung anzugeben. Kurz danach erscheint auf einer Benutzeroberfläche ein Menü, über das verschiedene Bereiche anwählbar sind. John wählt den Menüpunkt Office, da er noch eine Präsentation für seinen Chef vorbereiten muss. Er wählt also den Unterpunkt Präsentation an sucht sich dann den z.zt. günstigsten Anbieter heraus. Er klickt den schnell gefundenen Link an und sofort öffnet sich eine Benutzeroberfläche, auf der er dann auch gleich loslegt. Nach 40 Minuten ist er endlich fertig und schickt das Ergebnis seinem Chef. Wenig später vibriert sein PDA und das Display zeigt ihm eine Anfrage zu einer Videokonferenz. Es ist sein Chef. Er bestätigt die Annahme der Verbindung und sieht dann seinen Chef auf dem Display. Man unterhält sich ein wenig, der Chef erklärt ihm, dass er zufrieden ist und verabschiedet sich dann.

72 72 Transfer of Intelligence to End-User-Devices John, der jetzt nichts mehr zu tun hat, startet sein Lieblingsspiel UT Nachdem er seine Spielerwerte geladen hat, loggt er sich auf einem Server ein, um noch ein paar Runden zu spielen. Als er irgendwann müde wird, beendet er das Spiel und prüft seinen Kontostand. 4, 37 Euro. John entscheidet sich, noch einen neuen Film zu gucken, bevor er ein kleines Nickerchen macht Das Konzept Der Grossteil aller mobilen Endnutzergeräte und selbst die meisten Heimcomputer enthalten lediglich eine drahtlose Netzwerkverbindung, ein Display und einen kleinen Prozessor mit etwas Zwischenspeicher. Sämtliche Applikationen werden von Dienstanbietern im weltweiten Netz angeboten und können per Abonnement- oder Pay-Per-Use Verfahren in Anspruch genommen werden. Alle Applikationen nutzen die gleiche generische Schnittstelle auf dem Endgerät und Daten werden auf individuellen Accounts gespeichert, so dass jeder Nutzer von überall aus und jederzeit auf diese Zugreifen kann. Wenn ein Gerät das erste Mal benutzt wird, gibt der Nutzer seine Personalien an. Die Abrechnung erfolgt dann entweder über eine Einzugsermächtigung oder über monatliche Rechnungen. Die Endgeräte sind grundsätzlich billiger, da die eingebaute Hardware nicht viel kostet. So kann sich quasi jede Privatperson ein solches Gerät leisten. Wartung und Administration werden von den Dienstanbietern ausgeführt, der Endnutzer muss keine weiteren Installationen mehr vornehmen Zukünftige Herausforderungen Zweifellos werden sich in näherer Zukunft einige große Änderungen auf dem Feld der Netzwerktechnologien ergeben. Um die hier formulierten Visionen Realität werden zu lassen, müssen vor allem die folgenden Probleme bewältigt werden: Probleme mit geringem Datendurchsatz sind in erster Linie hardwaretechnischen Problemen anzurechnen. Hierbei ist weniger der Stand der Technik das Problem, als viel mehr die schleppende Verbreitung neuester Technologien. Traumhafte Durchsatzraten werden z.b. bei der Datenübertragung über Satelliten erzielt. Hier sind vor allem finanzielle Fragen der Grund für die geringe Verbreitung dieser Technologie. Das aktuelle Problem der Kommunikationskonzerne mit den UMTS-Lizenzen ist auf anderer Seite ein gutes Beispiel für mangelhafte Geschäftskonzepte. Sicherheitsfragen beschäftigen die Forschung wohl schon am längsten unter all den genannten Problemen. Informationen vor Manipulation oder Einsicht zu schützen wird vor allem durch Verschlüsselungsverfahren erreicht. Hier ist alles nur eine Frage der Komplexität. Kein Verschlüsselungsverfahren ist unknackbar. Eine andere wichtige und immer aktueller werdende Frage ist die des Vertrauens. Authentifikationsmechanismen sind hier der wohl bekannteste Ansatz, doch auch so genannte Trust Lists und Verträge sind hier von hohem Interesse. Das Problem der mangelhaften Schnittstellen ist unter all den genannten das wohl umständlichste, da es die Kommunikation aller interessierten Parteien erfordert. Will man sich auf eine möglichst mächtige und allgemeingültige Nutzerschnittstelle festlegen, so müssen alle großen Softwareunternehmen mitbestimmen. Dies ist ein typisches Standardisierungsproblem. Ohne einen gemeinsamen Standard ist eine weite Verbreitung neuer Technologien nicht denkbar. Ein Ansatz wie der hier genannte ist von so hohem Interesse für alle beteiligten Parteien, dass eine Einigung schwer fallen wird.

73 73 Wir sehen also, dass wir besonders die folgenden Dinge brauchen: etwas Zeit für die Einführung neuer Netzwerktechnologien und viel gemeinsamer Wille aller großen Softwareunternehmen. 3.5 Zusammenfassung Der Thick Client Ansatz ist heutzutage weitaus häufiger in der Praxis anzutreffen als der Thin Client Ansatz. Der typische einzelne Arbeistplatzrechner, wie man ihn in vielen Privathaushalten und Unternehmen antrifft, ist ein Thick Client Computer, der allerdings durch einen Internet-Browser die Fähigkeit besitzt, auch einige Thin Client Anwendungen zu nutzen. Während einige Unternehmen reine Thin Client Computer benutzen sind diese im Privatkundenbereich quasi nie anzutreffen. Dennoch stellt sich nach einer eingehenden Betrachtung der Vor- und Nachteile beider Ansätze die Frage, ob dem Thin Client Ansatz nicht etwas mehr Aufmerksamkeit geschenkt werden sollte. Um diese Frage zu beantworten, muss man zwischen lokalen Netzwerken und dem heutigen Internet als möglichen Anwendungsbereichen deutlich unterscheiden. Während größere lokale Netzwerke vor allem in Unternehmen anzutreffen sind, betrifft das Internet nicht nur den Unternehmens-, sondern auch sehr stark den Privatkundenbereich. Gerade in Firmennetzwerken sind eine Menge Faktoren zu betrachten, die die Entscheidung zwischen Thick und Thin Client Ansatz beeinflussen können. Abschnitt 3.2 hat versucht die Vor- und Nachteile der beiden Technologien in großen Netzwerken unter die Lupe zu nehmen. Dabei wurden sowohl der Faktor der direkten Kosten (Hardware) und der indirekten Kosten näher betrachtet. Aufgrund der Fülle der Einflussfaktoren muss ein Unternehmen die Faktoren genau Betrachten. Grob lässt sich sagen, dass bei Unternehmen mit mehreren 100 Rechnern und weitestgehenden einheitlichen Applikationen sich der Umstieg/Einstieg auf die Thin Client Technologie durchaus lohnt. Bei kleineren Unternehmen ist der Umstieg nicht immer die beste Lösung, da es inzwischen Verwaltungstools gibt, die es einem Administrator relativ leicht machen, mehrere einzelne Arbeistplatzrechner in einem Unternehmensnetzwerk zu verwalten. In WANs sind Thin Client Lösungen heutzutage vor allem im Bereich der Web Applikationen von großem Vorteil für Unternehmen, die ihre Kommunikationskosten minimieren wollen. In vielen anderen Anwendungsbereichen hingegen stehen dem erfolgreichen Einsatz neuer Thin Client Anwendungen vor allem typische Probleme Verteilter Systeme im Weg. Während Abschnitt 3.3 diese Schwachstellen deutlich aufgezeigt hat, wurde in Abschnitt 3.4 eine weitreichende Vision solcher Technologien für die Zukunft vorgestellt. Durch die Verlagerung von Anwendungen auf große Server wird die Produktion reiner Thin Client Endgeräte möglich, die so billig sind, dass sie sich fast jeder leisten kann. Das ist in näherer Zukunft zwar nicht zu erwarten, doch lässt sich schon jetzt ein deutlicher Trend in diese Richtung verzeichnen. Gerade bei Handys und PDAs fällt eine stetig zunehmende Anzahl von Internetdiensten auf, die über einfache Web-Browser genutzt werden können. Vielversprechende Vermarktungsstrategien sind hier wohl der deutlichste Grund, warum auch weiterhin von einer solchen Entwicklung auszugehen ist. In fernerer Zukunft darf dann wohl auch mit reinen Thin Client Endgeräten gerechnet werden und dies nicht nur im Bereich der mobilen Endgeräte, sondern möglicherweise auch als Ersatz der heutzutage so teuren Heim-PC s.

74 74 Transfer of Intelligence to End-User-Devices

75 75 4 INTELLIGENT BUFFERING, STORING AND REPLICATION Das Internet spielt für Unternehmen, die schnellen und kostengünstigen Kundenkontakt wünschen, eine immer wichtigere Rolle. Begründet ist dies zum Teil dadurch, dass immer mehr private User über immer schneller werdende Internet-Verbindungen verfügen beispielsweise sei hier der DSL-Boom angeführt. Firmen, die diese Tatsache als Möglichkeit erkennen, dem Kunden einen aufregenderen Webinhalt zu bieten oder digitale Güter (kostenpflichtige Datenpakete) zu transportieren, liegen im Trend. Jedoch birgt diese Geschäftsmöglichkeit auch einige Probleme in sich. Zu lange Transportstrecken und großvolumige Webinhalte, wie Rich-Media oder Streaming-Daten, deren Übertragung nahezu in Echtzeit erfolgen muss, bedeuten eine große Netzbelastung. Diese Belastung kann nicht mehr allein durch die Steigerung der Bandbreiten kompensiert werden, daher waren, bis vor einigen Jahren, die Netzwerk- Infrastrukturen der wenigsten Firmen dieser Last gewachsen. Es entstanden Unternehmen, wie beispielsweise Akamai, die sich mit der Problematik der optimalen Datenverteilung auf großen Netzen auseinander setzten. Anfangs wurde die Bedeutung ihrer Arbeit unterschätzt aber nach den ersten Jahren Internetbooms, war schnell der Punkt erreicht, an dem sich ihre Arbeit auszahlte. Sie machte es durch eine intelligente Steuerung der Datenverteilung auf verfügbare Server und den Aufbau von Redundanzen möglich, eine höhere Verfügbarkeit, Skalierbarkeit und bessere Auslastung der Netzwerke zu erreichen die ersten Content Delivery Networks entstanden. Ein Content Delivery Network (CDN) verfügt über eine Infrastruktur, die auf rasche Auslieferung von umfangreichen Inhalten ausgelegt ist. Hierbei werden Daten im Voraus auf so genannte Edge-Server verteilt. Diese Server werden am Point-Of-Presence positioniert, und verringern somit den Abstand zum Verbraucher. Dadurch wird erst Media-Streaming ermöglicht. Gestreamte Dateien werden simultan empfangen und wiedergegeben, wobei keine Kopie des Inhalts auf dem empfangenden Gerät verbleibt. Ein wichtiger Vorteil des Media-Streaming ist somit der Urheberschutz. Beim Verteilen der Daten in einem CDN müssen urheberrechtlich geschützte Daten gesondert behandelt werden, hierzu können Digital-Rights-Management (DRM)-Methoden herangezogen werden. Ein weiterer Aspekt der Behandlung von digitalen Daten ist die Handhabung von dynamischen Webinhalten, besonders im Hinblick auf das Zwischenspeichern der Webinhalte. Der Trend zu dynamischen Webseiten hat zur Folge, dass das Netz mit den bisherigen Cacheverfahren nicht mehr entlastet werden kann. Eine neue Betrachtung dynamischer Webseiten und die Speicherung der dynamischen Inhalte, bietet das Edge-Side-Includes (ESI)- Konzept, das die Internetseite in einzelne Fragmente zerteilt. ESI ist jedoch an eine spezielle Infrastruktur gebunden, welche ein CDN, der Kernpunkt unserer Ausarbeitung, erfüllt. Schlagworte: Content Delivery Network, Digital Rights Management, Load Management, Edge-Side-Includes

76 76 Intelligent Buffering, Storing and Replication 4.1 Einleitung Intelligentes Datenmanagement ist notwendig, um Performanceprobleme zu lösen, die entstehen können, wenn Server mit gefragtem Content von vielen tausend Clients gleichzeitig kontaktiert werden und mit dieser Last überfordert sind. Überlegungen, wie man dieses Problem lösen kann, führten über Caching von statischen Inhalten bis hin zu modernen Content Delivery Networks (CDNs), die Daten auf im Netz verteilte, sogenannte Edge-Server verteilen um Performanz, Skalierbarkeit, Robustheit und Zuverlässigkeit sicherzustellen. Ein Beispiel, an dem wir unsere Motivation fest machen wollen ist die Vermittlung von Inhalten, die von E-Business Gesellschaften bereitgestellt werden. Die Übertragung von Inhalten ist in den meisten Fällen mit Kosten für den Nutzer verbunden, der sich auf Dauer sicherlich auf einen schnelleren Anbieter festlegen wird. E-Business-Anwendungen laufen in verteilten Systemen und setzen ein hohes Maß an Sicherheit und Zuverlässigkeit voraus. Datenmanagementsysteme, wie wir sie später vorstellen werden, sollen Kosten minimieren und dadurch den Profit der Firmen maximieren. So hat zum Beispiel E-Learning zahlreiche Vorteile aber auch einen großen technisch bedingten Nachteil. Mitarbeiter können sich zwar direkt am Arbeitsplatz in ihrer gewohnten Umgebung effizient weiterbilden und somit im Voraus Problemen mit neu eingeführter Software aus dem Weg gehen aber diese Technologie fordert Höchstleistungen von den Netzwerken, die Daten bereitstellen, denn die multimedialen Lektionen am Bildschirm erfordern das Übertragen großer Datenmengen (meist als kontinuierlicher Datenstrom). Das beschriebene Szenario verlangt die Durchstellung von Daten verschiedenster Art zu den anfragenden Client. Diese Daten können Rich-Media-, Streaming-, dynamische oder statische Text-Daten sein. Der Trend zu Streaming-Media-Daten wird durch eine Studie der Firma Frost & Sullivan belegt. Den Zahlen dieser Studie zufolge, wird der Markt für Streaming-Media- Objekte von derzeit 5% auf 25% im Jahre 2007 steigen, was größtenteils auf das wachsende Interesse von immer mehr privaten Nutzern für diese Art von Content zurückzuführen ist [Frost & Sullivan 2002]. Je nachdem ob man es mit dynamischen oder statischen Daten zu tun hat, sind verschiedene Ansätze notwendig, um dem Ziel, schnellere Netze mit optimaler/gleichmäßiger Auslastung der vorhandenen Hardwareressourcen zu schaffen, näher zu kommen. Wir stellen in unserer Arbeit zwei populäre Ansätze vor. Zum einen Content Delivery Networks, auf die wir unser Fokus gesetzt haben und zum anderen Edge-Side-Includes. Nachdem beide Technologien dazu eingesetzt werden, Daten von einem Rechner auf den anderen zu Transportieren, beleuchten wir auch den rechtlichen Aspekt, der hinter einem solchen Transfer und der daraus resultierenden teilweisen Rechtsabtretung steht. Digital-Rights-Management-Systeme (DRMS) sind so zahlreich vorhanden und dabei auch dermaßen umfangreich, dass alleine dieses Thema eine Doktorarbeit ausmachen könnte. Im Rahmen dieser Arbeit möchten wir uns nicht allzu detailliert mit den verschiedenen Methodiken des DRM beschäftigen, sondern vielmehr damit, wozu es dient und wo es ursprünglich herkommt.

77 Struktur dieses Dokuments In unserer Seminararbeit erklären wir zunächst den Aufbau des wohl erfolgversprechendsten Ansatzes zur Erfüllung aller oben beschriebenen Anforderungen Content Delivery Networks. Nach einem Überblick gehen wir detaillierter auf die Aufgaben der einzelnen Module eines Content Delivery Networks ein. Auch die Daten, die transportiert werden, müssen differenziert betrachtet werden. Wenn man sich genauer mit der Beschaffenheit der Daten auseinandersetzt, die von diesen speziellen Netzwerken verwaltet werden müssen, erkennt man schnell die offensichtliche Notwendigkeit, statische Daten anders zu behandeln als dynamische. Trends in Webbasierten Anwendungen zwingen auch den Unternehmen diese Gedanken auf, denn das bislang erfolgreiche Caching wird durch das Vorhandensein von dynamischen Anteilen in den Webseiten in seiner Wirksamkeit ausgehebelt. Daher stellen wir ihnen anschließend eine Technologie vor, die speziell für dynamische Webinhalte entworfen wurde Edge-Side-Includes. Nachdem wir der unterschiedlichen Beschaffenheit von Daten gerecht geworden sind, möchten wir ein aktuelles Thema anreißen, dass im Zusammenhang mit Datenweitergabe nicht zu vernachlässigen ist - Urheberrechte. Überall auf der Welt sind Gesetze vorhanden, die Rechte an intellektuellen Gütern regeln. Ihre Umsetzung kann entweder durch menschliche Kontrolle oder aber mithilfe von computergestützten Systemen erfolgen. Die Rede ist von Digital Rights Management. Wir zeigen die Ursprünge und die Entwicklung bis zur heutigen Zeit auf und erklären das Zusammenspiel von Content-Servern mit DRMS an einem Referenzbeispiel. Zum Abschluss werden die in den Medien heftig diskutierten Initiativen Trusted Computing Platform Alliance und Microsofts Palladium aufgegriffen und vorgestellt, um eine Art Zukunftsbild für DRMS zu präsentieren. 4.2 Content Delivery Network (CDN) Content-Delivery-Network-Dienste sorgen dafür, dass Multimedia Content (Bilder, Grafiken, Animationen) von Webseiten schnell und sicher übertragen wird. [golem 2002] Das erreichen sie durch intelligente Zuordnung von Anfragen an verfügbare Server, die auch in der Lage sind, diese Anfragen zu beantworten. Die stetig wachsende Popularität von CDNs ist im Wesentlichen auf drei Gründe zurückzuführen: - das steigende Interesse von Unternehmen, Streaming- und Rich-Media-Content zu verbreiten. - Im Zuge der Etablierung von DRM-Systemen, die Inhalte kostenpflichtig übertragen, ist der Aspekt des QoS weiter in den Vordergrund gerückt. - Die Einsparungsmöglichkeiten, die sich für Unternehmen aus der Einführung einer idealen Web-Infrastruktur ergeben. CDNs wurden ursprünglich zum Cachen von statischen Daten konzipiert, sind dann aber in einer evolutionären Weiterentwicklung zu Datenverwaltungstalenten geworden, auf die Firmen, die große Datenmengen über das Netz bewegen, nicht mehr verzichten können. Ein CDN ist ein modulares System, das aus mehreren Teilen besteht: (1) Content Caching (2) Content-Distribution und Management

78 78 Intelligent Buffering, Storing and Replication (3) Content Switching (4) Content Routing (5) Content Edge Delivery Content Caching Unter Content Caching versteht man die Vorhaltung von Daten auf Servern, die möglichst nah am User stehen. Anfragen der User landen zunächst bei diesen Cacheservern. Hier werden Inhalte, die abgefragt wurden (eine bestimmte Zeit lang) gespeichert. Bei einem eingehenden Request wird auf dem Cacheserver nachgeschaut, ob die Daten bereits gespeichert vorliegen. Ist dies der Fall, werden sie nicht vom eigentlichen Weboder Fileserver, sondern von hier aus an den Client weitergeleitet. Wenn sie noch nicht gecacht wurden, wird die Anfrage an den Server durchgestellt, auf dem die originalen Daten liegen. Bei den heutigen Webinhalten kann klassisches Caching von statischem Inhalt nur noch bei 30% bis maximal 50% aller Requests einen Cache-Hit liefern und bringt daher nicht mehr die gewünschte Bandbreitenentlastung. Als Cache-Hit bezeichnet man die erfolgreiche Durchstellung von Daten, die vom Cache stammen und nicht vom tatsächlichen Fileserver. Das Gegenteil wird als Cache-Miss bezeichnet. Mit dieser Erfolgsrate können sich Anbieter umfangreicher B2C-Applikationen (Business-to-consumer-Applikationen) nicht mehr zufrieden geben, da jede Sekunde, die man schneller ist als ein Konkurrenzportal, einen entscheidenden Geschäftsvorteil mit sich bringt. Um eine Erhöhung der Cache-Treffer-Rate zu erzielen, muss man daher zwei Kategorien von Daten unterscheiden: statische Daten dynamische Daten Beispiele zu den beiden Kategorien statisch: Ein HTML-Dokument, das nicht dynamisch generiert wird, sondern immer denselben Inhalt und immer dasselbe Aussehen hat, ist statisch. dynamisch: Ein HTML-Dokument, das dynamisch von einem Serverseitigen Skript wie PHP - generiert wird. Hier kann die Seite je nach Benutzereingabe einen anderen Content haben. (Warenkorb beim Onlineshopping) Caching statischer Inhalte Webinhalte werden in der heutigen Zeit immer dynamischer (z.b. personalisierte Webdienste wie MyYahoo, wechselnde Werbebanner o.ä.). Daher führen statische Cacheverfahren, wie in Abbildung 37 dargestellt, nur zu unbefriedigenden Ergebnissen. Es wurde daher notwendig, Caching für dynamische Inhalte einzuführen, denn Caching ist die Verbindung zwischen dem unaufhaltsamen Wachstum des Internets und den immer größer werdenden Erwartungen an Performanz und Zuverlässigkeit.

79 79 Caching Konzepte für statische Daten: Client Cache HTTP Server Client HTTP Cache HTTP Server Client HTTP Cache Server Abbildung 37: Die drei klassischen Caching-Konzepte Caching beim Client Der Client speichert temporär die zuletzt erhaltenen Web-pages und bedient bei wiederholten Anforderungen, beim Zurückblättern und bei dem "History" Mechanismus aus seinem Speicher (Cache). Die verschiedenen Browser haben jeweils eigene Caching- Strategien. Caching auf dem Weg zwischen Client und Server Bei dem Einsatz einer separaten Zwischenkomponente muss der Client explizit konfiguriert werden, um einen solchen Cache nutzen zu können. Der Cache entscheidet, ob die Anfrage beantwortet werden kann oder ob sie an den Server oder an einen anderen Cache weitergeleitet werden muss. Caching beim Server Der Server speichert erteilte Antworten zwischen. Dies ist sinnvoll, wenn vielen gleichartige Anfragen erwartet werden. Diese Caching-Methode verkürzt die Antwortzeit durch ersparte Rechenzeit, die notwendig wäre, um jedes Mal dieselbe Antwort zu errechnen, nicht aber den physikalischen Abstand zwischen Client und Server. Verschiedene Server haben jeweils eigene Caching-Strategien Caching dynamischer Inhalte Für Caching dynamischer Inhalte existieren ebenfalls mehrere Ansätze: Active Caching: Bei Active Caching wird aktiv aktueller Content auf die Cacheserver gepusht. Dabei werden die dynamischen Anteile, die es zu cachen gilt, als Objekte angesehen, die als Ergebnis von Rechenprozessen vom Server geliefert wurden. Wird ein solches Objekt gecacht, wird das Applet, das es produziert hat, ebenfalls auf den Proxy-Server repliziert. Ankommende Anfragen werden dann, samt der übergebenen Parameter, zunächst durch das ausgelagerte Applet verarbeitet. Danach gibt es drei Möglichkeiten:

80 80 Intelligent Buffering, Storing and Replication a) das errechnete Ergebnisdokument entspricht dem gecachten Inhalt! Das Applet weist den Proxy-Server an, das gecachte Dokument an den Client durchzustellen b) das errechnete Ergebnis entspricht nicht dem angeforderten Dokument! das errechnete Dokument wird vom Proxy-Server ausgegeben c) das Applet weist den Proxy an, die Anfrage an den Webserver durchzustellen Immer wenn eine Applikation am originalen Content etwas verändert, stößt sie einen Auslagerungsprozess an, durch den die aktualisierten Daten auf die Cacheserver verteilt werden. Delta Kodierung: Oftmals unterscheiden sich die angeforderten Dokumente nur geringfügig von jenen, die bereits auf dem Cache liegen. In diesem Fall kann durch Delta Kodierung Overhead vermieden werden, da es sicherstellt, dass alleine die veränderten Dokumentbereiche (Delta) an die Cacheserver weitergegeben werden, dem anfragenden Client wird dann das aktualisierte Dokument vom Cache geliefert Content Distribution und Management Unter Content Distribution versteht man die aktive Verteilung von Inhalten auf Datenbanken, Webserver oder Filesysteme etc.. Diese Aufgabe und das Replizieren der Daten wird vom Content Distribution Manager, einem Interface, wahrgenommen. Über dieses Interface können Zeitintervalle, in denen die aktualisierten Daten auf die Edge Server gepusht werden sollen, festgelegt werden. Weiterhin bietet dieses Interface eine Vielzahl von Konfigurationsmöglichkeiten an. So kann hier die Bandbreite für Datentransfers festgelegt werden. Verteilung der Daten kann mittels Content Distribution Management organisiert werden. Diese Technologie wird vor allem für Daten angewendet, bei denen man davon ausgehen muss, dass sie oft abgerufen werden. Als Beispiel für solche Daten könnte der Inhalt der News-Seite dienen. Die Daten, gerade wenn es sich um große Datensätze handelt, sind dadurch schon bei der ersten Anforderung schnell verfügbar. Bei dieser Art der Optimierung wird ein eingehender Request vom CDN entgegengenommen und vom eigentlichen Server weg, zum nächsten Cache-Server geroutet. Der Cache-Server sieht nach, ob der angeforderte Datensatz bereits gecacht vorliegt und stellt im negativen Fall eine Anfrage an den eigentlichen Web- oder Fileserver, wo die neuen Daten angefordert werden. Anschließend werden diese gecacht und an den anfragenden Client ausgeliefert. Content Delivery beruht größtenteils auf Domain Name System (DNS)-Redirecting, worunter man die Übersetzung eines Domainnamens (www.domainname.domain) in eine Internet Protocol (IP)-Adresse, durch die letztlich der Server physikalisch adressiert wird, versteht. Des Weiteren gibt es noch HyperText Transfer Protocol (HTTP)-Redirecting und IP-Redirecting, die hier nur der Vollständigkeit wegen erwähnt sein sollen.

81 Content switching (Load Balancing) Abbildung 38: Content Switching [wipro.co] Unter Content-Switching, oder auch Load Balancing genannt, versteht man das intelligente Durchschalten von Anfragen an verfügbare Server, die über den angeforderten Inhalt verfügen. Dadurch werden Hardwareressourcen optimal ausgeschöpft und das Netzwerk gleichmäßig belastet (vgl. dazu Abbildung 38). Um eine Auswahl bei der Durchstellung der Anfragen zu ermöglichen, muss Content auf mehreren Servern repliziert vorliegen. Damit wird gleichzeitig der Single point of failure vermieden, denn falls ein Server ausfällt, verteilt der Switch die Anfragen des ausgefallenen Servers auf die anderen Server, die über redundante Daten verfügen. Unter Single Point Of Failure versteht man den Ausfall eines Netzes infolge des Ausfalls einer einzigen Komponente. Intelligentes Load-Balancing (Abbildung 39) leitet ankommende Anfragen nicht an Server weiter, die nicht reagieren. Ferner kennt es die Rechenkapazität eines jeden angeschlossenen Servers und kann dementsprechend viele respektive wenige Anfragen durchstellen. Abbildung 39: Intelligentes vs. Einfaches Load-Balancing Ein Switch, der diese Aufgabe erfüllt wird Load-Balancing-Switch genannt. Dazu fasst er mehrere physikalische Server mit individuellen IP-Adressen über eine einzige logische IP-Adresse zu einem virtuellen Server zusammen, falls diese mindestens einen gemein-

82 82 Intelligent Buffering, Storing and Replication samen Dienst oder eine gemeinsame Applikation anbieten. Dadurch ist die Möglichkeit der Bereitstellung von redundanten Serverdiensten auf der IP-Ebene gegeben, denn im optimalen Fall entsteht ein virtueller hochleistungsfähiger Server, der eigentlich eine Serverfarm ist. Clients kommunizieren über diese virtuelle IP-Nummer, die vom DNS im Netzwerk publiziert wird, und werden vom Switch an den durch Balancing-Algorithmen ermittelten Server durchgestellt. Zu diesen Algorithmen gehören: Einfacher Round-Robin-Algorithmus (sequenzielle Verteilung): Einfaches Round Robin ist die wohl einfachste Methode. Dabei werden die Anfragen eine nach der anderen an die angeschlossenen Server verteilt. Einfaches Round Robin bietet sich nur an, wenn alle Server dieselben Inhalte speichern und gleich stark sind. Gewichteter Round-Robin-Algorithmus: Der Algorithmus bearbeitet die Anfragen auch sequentiell, räumt jedoch Anfragen mit der höchsten Priorität absoluten Vorrang ein, mit der Folge, dass die Anfragen niedriger Priorität verlängerte Latenzzeiten in Kauf nehmen müssen. Um Übertragungen mit niedriger Priorität nicht übermäßig zu diskriminieren, werden für die Warteschlangen Kapazitätsbegrenzungen berücksichtigt, so dass auch der Datenstrom geringer Priorität eine garantierte Übertragungszeit erhält. Least-Connection (geringste Auslastung): Der Server, der die wenigsten Verbindungen bedient, erhält die nächste Anfrage. Weighted-Distribution (gewichtete Auslastung): Mit dieser Methode kann der Systemadministrator dafür sorgen, dass leistungsfähigere Server mehr Anfragen bearbeiten müssen als langsamere Systeme. Response-Time (Antwortzeit): Der Server mit der besten Antwortzeit erhält die Anfrage. Kombinationen aus diesen Verfahren: Die Weiterleitung der Anfrage abhängig von der Anzahl der aktuellen Verbindungen und der Antwortzeit der Server Intern wird anschließend die eigentliche IP-Adresse im Switch mit den Session-Daten in einer Tabelle gepflegt. Über die Tabelle wird die Verbindung für die betreffende Session zum physikalischen Server hergestellt. Um die Ausfallsicherheit solcher Systeme zu erhöhen, könnten jeweils zwei Switche zu Lastenverteilung verwendet werden. Im Falle eines Ausfalls des primären Switche würde der sekundäre dessen Aufgaben mit übernehmen (Redundanz). Einige Switche tauschen dazu Session-Informationen in Echtzeit untereinander aus, damit laufende Verbindungen nicht verloren gehen. Intelligente Lastenverteilung in Netzwerken wird unter Anderem dadurch erreicht, dass Informationen, die in den Anfragen stecken möglichst vollständig ausgeschöpft werden. Dazu werten diese Switche das jeweils für die Kommunikation benutzte Protokoll durchgereichten Informationen aus. Sowohl TCP als auch UDP enthalten im Layer 4 Headerinformationen, wie z.b. Portnummer, anhand derer der Datenverkehr klassifiziert werden kann. Z.B. ist Port 80 Well Known für HTTP-Anfragen und 20/21 für FTP. Über

83 83 diese Ports und/oder den IP-Adressen eines Applikationsservers identifiziert der Layer-4- Switch den Datenstrom und bringt auf dieser Basis seine Load-Balancing-Intelligenz ein. Das Priorisierungsmodell, bei dem anfragende Clients klassifiziert und der Wichtigkeit nach eingeordnet werden können, braucht noch mehr Informationen, als die Layer-4- Switche aus den Headerinformationen auswerten können, um Anfragen von priorisierten Kunden vorrangig bearbeiten zu können. Somit sind diese Switche für das Priorisierungsmodell ungeeignet. Daher wurden Layer-7-Balancer eingeführt, die zusätzliche Informationen (Cookie- und URL-Daten) aus dem Application-Layer des OSI- Schichtenmodells (Layer-7) auswerten, um auf dieser Basis einen Schaltvorgang entscheiden zu können. Die HTTP-Anfrage eines Clients ist vollgespickt mit Informationen, die ein Load- Balancer für seine Routingentscheidung aufgreifen kann. Der Layer-7-Switch erkennt in diesen Daten genau, welche URL oder Webseite der Client aufruft. So kann er eine Bilder-Anfrage sofort an den Image-Server senden oder alle Datenbank-Requests an den speziell dafür konzipierten Datenbank-Webserver umleiten. Web-Content-Switching ist sehr auf hardwareseitige Ressourcen angewiesen, um eine Leistungssteigerung des Gesamtsystems zu erreichen. Negatives Beispiel: Bei einer Webseite eines Unternehmens, die heute schon hohe Datenmengen bewältigen muss, könnte der Einsatz eines Web-Switches sogar weitaus mehr Probleme schaffen, als er lösen würde. Der Layer-7-Switch kann sich dadurch sogar auf die Geschäftsprozesse auswirken, weil er einen Flaschenhals verursachen und mit seinen fortschrittlichen Funktionen die Transaktions-Sessions von Kunden verzögern könnte Load-Balancer als Healthchecker Um im Fall eines Serverausfalls intelligente Weiterleitungen entscheiden zu können, muss der Switch erst einmal merken können, dass ein Server nicht erwartungsgemäß reagiert. Dazu sind moderne Balancer mit einer Reihe von Funktionen ausgestattet, um angeschlossene Server auf ihre Funktionsfähigkeit überprüfen zu können. In diesem Zusammenhang dienen sie zur Kontrolle und als Garant eines performanten, zuverlässigen und sicheren Netzes. Dazu gibt es bis zu drei Vorgehensweisen, die im Folgenden näher erläutert werden sollen. Externe Überwachung Als Methode für Gesundheitschecks wird einfaches Anpingen benutzt. Bekommt der Switch auf eine bestimmte Anzahl von Pingversuchen keine Antwort, geht er davon aus, dass der Server nicht ansprechbar ist und leitet Anfragen an andere, noch verfügbare Server um Intelligente Externe Kontrolle Um nicht nur Hardwaredefekte sondern auch die korrekte Funktionsweise eines Servers im Sinne von korrekten Anfrageergebnissen kontrollieren zu können, werden vom Switch Applikationsanfragen an Server geschickt, die einen komplexen Rechenprozess

84 84 Intelligent Buffering, Storing and Replication nach sich ziehen können (Datenbankzugriffe etc.). Die erhaltene Antwort wird mit derjenigen verglichen, die in einer Tabelle des Switches abgelegt ist. Interne Überwachung Hierzu wird auf die Server eine Software installiert, die die Auslastung, Speicherbelegung etc. der Maschine überwacht und meldet Load-Balancer und Firewalls Firewalls können nur eine bestimmte Anzahl an TCP-Verbindungen kontrollieren und durchschalten. In manchen Fällen können sie daher zu einem Flaschenhals in Serverfarmen werden. Außerdem stellen Firewalls einen Single-Point-Of-Failure dar, wenn man keine Maßnahmen zur intelligenten Verteilung der Anfragen ergreift. Eine solche Maßnahme ist, dass mehrere Firewalls, die der Kapazität der entsprechenden Serverfarm gewachsen sind, hinter den Load-Balancer zusammengeschaltet werden. Dieser beachtet dann beim Durchstellen der Anfragen nicht nur die Auslastung der Server sondern auch noch die der Firewalls. Die Delegation der Anfrage läuft dann durch die Firewall, die noch genügend Kapazitäten hat. Bei Ausfall einer Firewall werden die Anfragen vom Switch über die verfügbaren restlichen Firewallsysteme durchgestellt Content-Routing (Globalisierung von Netzen) Große Unternehmen betreiben nicht nur eine, sondern mehrere global verteilte Serverfarmen. Um ihren Kunden mehr oder weniger gleiche Bedingungen zu gewährleisten haben diese Unternehmen die Load-Balancing-Ansätze globalisiert. Firmen mit mehreren Serverfarmen haben vor jeder solchen Farm einen Load-Balancing-Switch geschaltet. Durch eine spezielle Plattform werden diese Serverfarmen gebündelt und sind über eine globale URL erreichbar, so dass sich die Datenressourcen eines Unternehmens dem Kunden als Einheit darstellen. Die lokalen Switche informieren eine zentrale Management-Plattform über den Status ihrer Serverfarm. Diese Plattform ist an einen DNS-Dienst gekoppelt, der alle globalen Anfragen abfängt, die individuellen Kriterien der Anfrage untersucht und daraufhin diese Anfrage an die geeignetste Serverfarm delegiert. Der Standort des jeweiligen Web- Clients und sein Kundenstatus sind unter anderem zwei Kriterien für die Untersuchung der Anfrage. Es soll im Idealfall ein Kunde an die für ihn optimale lokale Serverfarm durchgereicht werden. Für die Delegation werden vom Switch zwei Techniken eingesetzt: - Network Proximity (NP) bezieht ausser dem Standort des Clients auch die Distanz des Servers vom Client in die Entscheidung ein (kürzeste Distanz bevorzugt) - Distributed Sites (DS) bezieht ausser dem Standort des Clients auch die Auslastung der jeweiligen Serverfarm und deren maximale Bandbreite mit in die Entscheidung ein (geringste Auslastung bevorzugt) Die Hersteller versprechen, dass sie mit diesem Konzept auch den Effekt von Distributed-Denial-of-Service-Angriffen (DDoS) minimieren können. Falls eine lokale Serverfarm massiv attakiert wird, leiten die Load-Balancer alle legalen Anfragen an die noch nicht betroffenen Farmen um und vergrößern somit das Reaktionsfenster, in dem die Sicherheitsverantwortlichen des betroffenen Unternehmens ihre Gegenmaßnahmen auslösen können.

85 Content Edge-Delivery Unter Content Edge-Delivery versteht man die transparente Verteilung von Web- oder Streamingdaten an Clients. Dazu werden die Daten auf Edge-Server gepusht die nach Möglichkeit so zu verteilen sind, dass sie so nah wie möglich am mit Information zu beliefernden Client positioniert sind. Content Edge-Delivery könnte als der Kern- Bestandteil von CDNs angesehen werden, der nicht von den anderen, bereits beschriebenen, Bestandteilen separat betrachtet werden kann. Es ist vielmehr in alle Module integriert und fest in ihnen verankert. Wie bereits im Abschnitt (Caching) beschrieben, muss sich die immer größer werdende Gemeinde der Anbieter von Webdiensten Gedanken machen, wie die riesigen Datenmengen und die großen Zugriffszahlen vereinbar sind. Des Weiteren sorgt der Trend zu dynamischen Webinhalten dafür, dass mit den bisherigen Cacheverfahren das Netz nicht mehr entlastet werden kann. Ein vielversprechender und in den letzten Jahren immer populärer werdender Ansatz ist Edge-Side-Includes (ESI). Abbildung 40: Edge-Server Infrastruktur [cisco] Edge-Side-Includes (ESI)-Konzept: Bei ESI handelt es sich um eine XML-basierte Markup-Sprache, die es ermöglicht, eine Seite anhand ihrer Informations- und Funktionsbereiche, mit deren Aktualisierungsintervallen und Cachebarkeit, zu strukturieren. Jeder dieser so identifizierten Bereiche wird als Fragment bezeichnet. Die endgültig zusammenzubauende Seite, die vom Client angefordert wurde, nennt man Template. Ein solches Template enthält Verweise auf einzubindende Fragmente. Das Umwandeln des Templates in HTML-Code erfolgt auf dem Weg vom Server zum Client durch spezielle Cache-Server (auch Edge-Server genannt). Der Einsatz von ESI ermöglicht eine optimale Bereitstellung von aktuellen Informationen möglichst schnell und kostengünstig.

86 86 Intelligent Buffering, Storing and Replication Abbildung 41: Struktur eines dynamisch erzeugten Dokumentes im Sinne des ESI-Konzeptes Die Struktur einer dynamisch erzeugten Seite besteht aus einem HTTP-Paket, das in seinem Kopf auch die Parameter für die Cachebarkeit transportiert. Abbildung 41 zeigt, dass eine solche Seite ganz unterschiedliche Informationsteile enthalten kann, die in jeweils unterschiedlichen Zeitintervallen aktualisiert werden. Die einzelnen Fragmente haben also unterschiedliche Aktualitätsgrade. Auf einer Seite kann es Bereiche geben, die sich so gut wie nie ändern, hierzu zählen zum Beispiel Firmenlogos und Menüstrukturen. Dann gibt es Bereiche, die von Zeit zu Zeit angepasst werden müssen, deren Inhalt sich aber für viele Anfragen nicht ändert, und es gibt noch Seitenausschnitte, die sich fast bei jeder Anfrage ändern. Werden für jeden dieser Bereiche eigene HTTP-Köpfe erstellt, in denen cache-relevante Informationen, wie die Aktualitätsdauer (TTL / Time To Live) eines Fragments, stehen, ermöglicht man das Cachen bestimmter Teile der Seite. Um die Aktualität einer Seite sicherzustellen, muss, für die Aktualisierung der gecachten Informationen, die Lebenszeit des sich am schnellsten ändernden Informationsseitenbereiches genommen werden ESI Sprachspezifikation Die Beschreibungsmöglichkeiten mit XML bieten Entwicklern Möglichkeiten der Steuerung der Zusammensetzung und eine Bereitstellung der Struktur einer Seite. Um den Zusammenbau flexibel zu gestalten, werden Kontrollstrukturen angeboten, die Programmiersprachen entliehen sind. Im Einzelnen sind dies: 1. Die Unterstützung von Variablen. Der Umgang damit ähnelt der Variablenbehandlung bei CGI-Scripten. 2. Bedingte Anweisungen sind umsetzbar. Zusammen mit der Variablenunterstützung sind damit komplizierte Programmstrukturen möglich. 3. Eine Fehler- und Ausnahmebehandlung ist implementiert, die an die Ausnahmebehandlung von Java und C++ angelehnt ist. An dieser Stelle soll ein kleines Beispiel einen ersten Einblick in das Aussehen einer solchen ESI-Seite geben.

87 87 1..<html> 2 <head> 3 <title> Ein ESI template</title> 4 </head> 5 <body> 6.. <esi:try> 7.. <esi:attempt> 8.. <esi:include src="www.. esi-wunderbar.com/k_hallo.html" onerror="continue" /> 9.. </esi::attempt> 10.. <esi::except> 11.. HTML--Text anstatt der Werbeseite 12.. </esi:except> 13.. </esi:try> 14.. static content 15.. </body></html> Wie man schnell sieht handelt es sich bei dem Code um eine HTML-Seite, die jedoch mit XML-ESI-Bezeichnern angereichert ist. Die ESI-Tags der Zeilen 6 bis 9 besagen, dass versucht werden soll die Seite k_hallo.html an dieser Stelle in die durch die Edge-Server zusammenzubauende Seite, einzusetzen. Sollte dabei ein Fehler auftreten (Exception geworfen) soll ohne Fehlerausgabe fortgefahren werden (Ende Zeile 8). Wenn ein Fehler aufgetreten ist, soll der HTMLCode der Zeile 11 in die auszuliefernde Seite eingebunden werden. Ansonsten erscheint der Code der Zeilen 10 bis 12 (catch-teil) nicht auf der dem Client zugesandten Seite. Zeile 14 steht für statischen Dateninhalt, der stets unverändert in die fertige Seite übernommen werden soll. Angemerkt sei nach, dass das einzubindende Fragment k_hallo.html wiederum Fragmente enthalten kann, die rekursiv auch aus Fragmenten bestehen können. Betrachtet man nun noch einmal das in Abbildung 41 gezeigte Strukturbild einer dynamischen ESI-Seite. Auf einigen Newsseiten kann man sich gut vorstellen, dass es dort auch Fragmente gibt, die in unregelmäßigen Abständen aktualisiert werden müssen. Z.B. ein Newsfenster, das immer die aktuellsten Schlagzeilen enthält. Dieses Fragment müsste immer dann aktualisiert werden, wenn auf dem Webserver ein neuer Code dafür vorhanden ist. Um den Clients immer aktuelle Fragmente zu zeigen, müssen Konsistenzregeln definiert werden, die sicherstellen, dass auf den Edge-Servern zu jedem Zeitpunkt die aktuellsten Inhalte vorliegen Konsistenzregeln im ESI-Konzept Konsistenzregeln ermöglichen es, die Aktualität der in den Egde-Servern gespeicherten Fragmente auch nach deren Auslieferung durch den Applikations-Server zu beeinflussen. Dazu spezifiziert die ESI-Suite ein Invalidierungsprotokoll. Mithilfe dieses Protokolles ist es dem Webserver möglich, spezielle Nachrichten an das CDN zu senden. Diese Nachrichten werden Invalidierungsnachrichten genannt und enthalten Informationen darüber, welche der Fragmente sich inhaltlich verändert haben und einer Aktualisierung bedürfen. Das Invalidierungsprotokoll arbeitet nach dem Anfrage/Antwort-Prinzip. Es werden HTTP/1.1 Nachrichten verschickt, deren Rümpfe XML-strukturierte Informationen enthalten. Die Authentifizierung der Invalidisierungsnachrichten erfolgt mittels der im HTTP/1.1 Protokoll angebotenen Authentifizierungsmethoden.

88 88 Intelligent Buffering, Storing and Replication 4.3 Digital Rights Management Ein DRM-System (DRMS) ist ein Vertriebssystem für digitale Daten. Gleichzeitig sollen DRMS die illegale Verbreitung von geschützten Inhalten unterbinden, indem Daten beispielsweise mit Kopierschutzmechanismen vor unberechtigter Vervielfältigung geschützt werden. Ausgereifte Systeme bieten noch weitergehende Möglichkeiten. Mit ihnen kann der Rechtstransfer auf den Endnutzer (Konsument) von Inhalten ü- berwacht und auch abgerechnet werden (Billing) auf Billing möchten wir im Rahmen dieser Arbeit nicht weiter eingehen. Um DRMSe effektiv zu machen, muss sichergestellt sein, dass der Nutzer sich die Daten nicht auf illegalem Weg, der ja kostenlos wäre, beschaffen kann. Ferner muss dafür gesorgt werden, und das ist die größte Herausforderung, der DRMS gegenüber stehen, dass die Daten sozusagen zweckgebunden konsumiert werden. Ein Nutzer, der beispielsweise ein Musikstück bezahlt und eine Downloadgenehmigung erhält, soll nicht in der Lage sein, diese Daten zu replizieren und weiterzugeben Old Rights Management - Ursprung des Digital Rights Management Old Rights Management (ORM) war der Anfang von Rechtsmanagementsystemen, wie wir sie heute kennen. ORM wurde erstmals 1950 aktuell, als der Fotokopierer erfunden wurde. Als Content muss man die damaligen Schriften ansehen, die mit Lizenzierungen des predigitalen Zeitalters geschützt werden mussten. Damals gab es keine Systeme, denen man die Verwaltung von Rechten an Wissenschaftlichen Dokumenten oder Poesie überlassen konnte. Diese Aufgabe wurde von Beamten und Anwälten übernommen, die mit der jeweiligen Rechtslage bestens vertraut waren Anwendungsbeispiel für ORM - Musikbusiness Das Musikgeschäft ASCAP (American Society of Composers, Authors, and Publishers): Hier werden die Rechte von Liedermachern, Dichtern und Musikproduzenten verwaltet. Die ASCAP überwacht für sie die Rechte an ihren Werken. Nutzer der Werke müssen an die ASCAP eine Gebühr entrichten, die je nach Veröffentlichungstyp festgelegt ist. Der Teil dieser Gebühr, die dem Inhaber zusteht, wird an ihn weitergeleitet. Im Prinzip zieht eine jede Abspielung von Musik in öffentlichen Bereichen eine Gebühr nach sich. Klassische Nutzer im Sinne der ASCAP, sind: Fernsehen Radio Kaufhäuser (Hintergrundmusik) Nachtclubs Warteschlangenmusik bei Telefonhotlines etc. Die Gebühren sind vom Nutzungsbereich abhängig. Zwei verschiedene Nutzer aus dem gleichen Bereich zahlen dabei stets denselben Betrag. So würden also zwei unterschiedliche Kaufhäuser denselben Betrag entrichten müssen.

89 89 BMI (Broadcast Music International): BMI verwaltet die Rechte von Songwritern, Filme-, Musical- und Klassische Musik- Machern. Die Verwaltung funktioniert hier analog zur ASCAP-Beschreibung. SESAC SESAC begann als Lizenzierungsagentur für Klassische Musik und nahm später auch Popmusik in ihren Bereich auf. Die Verwaltung funktioniert hier analog zur ASCAP- Beschreibung. Überbleibsel aus der predigitalen Zeit sind auch heute noch zu finden. Bei Millionen- Verträgen im Musikgeschäft sollte für den Transfer der Rechte an den Werken nach wie vor eine kompetente Person (beispielsweise ein Notar) als Gutachter eingesetzt werden Anfänge von DRM DRM-Systeme wurden eingeführt, weil die Vervielfältigung von Daten, nach einer digitalen Erfassung, ohne Qualitätsverlust beliebig oft möglich ist. Die Provider solcher Daten benötigten ein Kontrollsystem, mit dem sie die Rechtübertragungen überwachen und zu Abrechnungszwecken erfassen konnten. Das illegale Kopieren von digitalen Daten war zunächst auf Softwarehäuser beschränkt, die diesem Problem noch heute gegenüber stehen. Durch das Wachstum des Internet gelangte aber auch die illegale Benutzung und Vervielfältigung von Webcontent immer mehr in den Vordergrund. Als man nach einem möglichen System suchte, stand am Anfang der Überlegungen ein Firmennetzwerk Modell. Man adaptierte das Rechte-Modell des Betriebssystems, das jedem User bestimmte Rechte (Lese-, Schreib- und Ausführungsrecht) auf den Dateien zuweist, auf große Netzwerke und erhielt somit ein DRM- System. Noch heute arbeiten fast alle Web- und Datenbankserver mit einem solchen Rechtsmanagement. Mit der Verbreitung der Local Area Networks (LANs) bekam das Problem erneut einen höheren Stellenwert. Es war jetzt möglich in einem Firmennetzwerk ganze Datensätze von Fileservern oder die Daten eines Kollegen zu kopieren. Um dieses zu verhindern wurden in den frühen 90 er Jahren kryptographische Methoden eingesetzt, mit denen Inhalte verschlüsselt wurden. Um Daten, die durch ein solches System übertragen wurden, korrekt angezeigt zu bekommen, braucht der Empfänger einen Schlüssel (z.b. einen Zahlencode). Erstes Einsatzgebiet dieser kryptographischen Methoden war die Sicherung von Fonts, die vor der MS-Office Zeit viel Geld kosteten. Das DRM, wie wir es heute kennen, nahm 1996, zwei Jahre nach Beginn des unaufhaltsamen Wachstums des Internet, seinen Anfang. Etwa zeitgleich veröffentlichten damals IBM infomarket und Electronic Publishing Ressources (ERP) ihr Produkt, das der Rechteverwaltung diente. Während IBM s Lösung eine Softwarelösung war, bestand das ERP-Produkt aus Hard- und Software, das als Gesamtsystem ausgeliefert wurde. Das aktuell wohl erfolgreichste Modell ist der von Microsoft entwickelte Windows Media Rights Manager (WMRM). Hierbei werden Dateien von ihren Urhebern mittels WMRM in ein verschlüsseltes Format (.wm,.wma,.wmv) umgewandelt und mit Metadaten versehen, die z.b. den Eigentümer oder Nutzer genauer beschreiben können. Diese Datenpakete, die entweder über das Internet, auf CDs oder per vertrieben werden können, müssen mittels eines separat zu erwerbenden Schlüssels entschlüsselt werden, bevor sie, ausschließlich von dafür vorgesehenen Anwendungen (sogenannten sicheren

90 90 Intelligent Buffering, Storing and Replication Anwedungen ), wiedergegeben respektive verarbeitet werden können. Bei jeder versuchten Nutzung der Daten stellt der Windows Media Player eine Verbindung mit dem Lizenz-Server her und empfängt eine Liste der Anwendungen, denen der Zugriff auf die Datei verweigert werden soll. Den Inhalt der Liste entscheiden Microsoft und die Anbieter der DRM-Inhalte. Im Folgenden wird Windows den in diese Blacklist eingetragenen Anwendungen den Zugriff auf DRM-geschützte Inhalte verweigern. Will ein Rechteinhaber eine bestimmte Nutzungsart nachträglich verbieten, braucht er dazu nur die Nutzungsrichtlinien auf dem Authentifizierungs-Server zu ändern DRM-Systeme schaffen Geschäftsmodelle Gebührenpflichtige Downloads In der Regel läuft die Rechteübertragung in diesem Geschäftsmodell folgendermaßen ab: Der User füllt ein Formular aus, in dem er persönliche Daten und seine Kreditkarteninformationen preisgibt. Danach erhält er die Genehmigung für einen Download. Er erhält einen verschlüsselten Datensatz und kann mit der Lizenz, die er gegen die Bezahlung erhält, die Datei entschlüsseln. Schwächen: relativ schwieriger/langwieriger Prozess, bis die Datei benutzt werden kann Persönliche Daten müssen preisgegeben werden das Verwaltungssystem ist aufwendig Bücher und Musik werden selten auf dem PC gelesen/gehört Ansätze diese Nachteile aus der Welt zu schaffen liefern z.b. QPass und ProQuest im Bereich von Onlinemagazinen. Beiden Anbieter sind Serviceprovider, die eine Software bereitstellen, die einmalig installiert und eingerichtet (persönliche Daten eingegeben) auf viele Magazine online Zugriff gewähren, ohne jedes Mal ein Formular ausfüllen zu müssen. Einen anderen Weg gehen Hersteller von ebook-readern, die ihren Geräten Authorisierungshardware einpflanzen, die transparent bleiben. In der Musikindustrie ist LiquidAudio als Anbieter eines Komplettsatzes bekannt geworden. Sie stellen ein Paket, bestehend aus einem Player, einem Katalog und dem Liquid- StoreServer, wo die Stücke heruntergeladen werden können, zur Verfügung. Diese Lösung ist auf die Filmbranche adaptiert worden und verrichtet auch hier ihren Dienst Subscriptions Nutzer, die einen Mitgliedsbeitrag zahlen bekommen eine UID und ein Passwort und können mit diesen Daten einen geschützten Bereich betreten, wo sie allerdings Inhalte kopieren und auch replizieren können. (z.b. Schwächen: Persönliche Daten müssen preisgegeben werden Viele Nutzer sind mit den Printmedien aufgewachsen und möchten nicht umsteigen (Gewohnheiten)

91 91 Es hat sich herauskristallisiert, dass die Onlineversion die Printversion eines Magazin ergänzen aber nicht ersetzen kann Pay-per-view bzw. Pay-per-listen Bei Pay-per-view handelt es sich um die wohl älteste Form von Rights-Management. Denken wir da nur an die Eintrittskarten, die man kaufen muss, um einer Theatervorstellung oder einem Konzert beiwohnen zu dürfen. Ein weiteres, uns allen bekanntes Beispiel ist das Kabelfernsehen, das sich vor ca. 20 Jahren etabliert hat. Ebenso bekannt sind alte Beispiele aus dem Pay-per-listen Segment. Jukeboxen, die in Milchbars in den 60 er Jahren standen und noch heute in Gasthäusern zu finden sind, sind ein Paradebeispiel für diese Geschäftsform. Dabei wurden beim analogen Gerät die Musikstücke gegen eine geringe Gebühr von Vinylplatten abgespielt. Es ist kaum vorstellbar, dass sich diese Geschäftsform im digitalen Zeitalter ebenfalls so durchsetzt, wie sie es damals getan hat. Es könnten die Musikstücke durch die Jukebox von den Servern eines Providers geholt und abgespielt werden, allerdings wären die Kosten für die Verwaltung der geringen Geldbeträge zu hoch. Damit User für Video-Content Geld bezahlen, muss der Transport von Videodaten über das Netz noch wesentlich besser werden, ansonsten wird kaum jemand bereit sein, dafür Geld zu bezahlen. Ferner bietet sich diese Geschäftsform eigentlich nur für Zeitsensitive Datenpakete an, da Raubkopien dieser Daten generell uninteressant sind. Als Beispiel für Zeitsensitive Daten könnte man ein Weltmeisterschaftsboxfinale anführen. Dieses Datenpaket wird für Nutzer (relativ) uninteressant, nachdem der Sieger bekannt wird, zumal Zusammenfassungen im öffentlichen Fernsehen ausgestrahlt werden Peer-to-peer und Superdistribution Bei dem Superdistributionsmodell gibt es zwei unterschiedliche Vorgehensweisen. 1. Der Käufer von Rechten an einem Satz Daten bekommt dadurch das Recht, diese weiterzuverkaufen zu einem für IHN angemessenen Preis eventuell auch gewinnbringend. Der einstige Käufer wird zum Wiederverkäufer. oder 2. Der Käufer darf das verschlüsselte Datenpaket weitergeben, das Informationen über den Inhalt enthält und einen Zugang zu einem Gebührenpflichtigen Schlüssel herstellen kann. Somit ist jeder Weitere in der Lage ebenfalls einen Schlüssel zu kaufen, wenn ihn die Datei interessiert. Während diese Art der Geschäftsform also eine Art von Push der Daten (jemand verbreitet die Daten aktiv) benötigt, braucht Peer-to-Peer das nicht. Hier schaut der Interessent für eine Datei, wer diese hat und kann sich diese, durch direktes Verbinden seines Peer mit dem Peer des Anbieters, holen Das DRM-Referenzmodell Das DRM Referenzmodell besteht aus drei Komponenten. einem Client, der eine Anfrage auf eine bestimmte Datei stellt einem Content-Server, der die Inhalte bereit hält

92 92 Intelligent Buffering, Storing and Replication einem License-Server Ablauf eines klassischen Rechtstransfers mittels eines DRMS: (siehe dazu Abbildung 42) 1 Ein Client lädt sich ein verschlüsseltes Datenpaket vom Content-Server (FTP- Server, Webseite, etc.) herunter 2 Beim Öffnen dieser Datei wird eine automatische Anfrage an den DRM- Controller gestartet 3 Der DRM-Controller sendet dem License-Server die Daten des Nutzers und der Daten, die er benutzen möchte 4 Der License-Server macht den Nutzer mittels seiner Identifikationsdatenbank als einen autorisierten Nutzer aus 5 Die Rechte, die der Nutzer angefordert hat, werden erfasst 6 Ein eventuell notwendiger Zahlungsvorgang wird eingeleitet 7 Der DRM-License-Generator erstellt und verschlüsselt einen Schlüssel, zu dem Datenpaket 8 Die Lizenz wird dem Nutzer zugeschickt 9 Auf dem Rechner des Users kann der Schlüssel schließlich die heruntergeladenen Daten freigeben und nutzbar machen Rendering applications 10 Rendering applications sind Geräte, die ebenfalls zum DRMS gehören und verschlüsselte Inhalte mit einem entsprechenden Schlüssel verknüpfen (entschlüsseln), um sie dadurch hörbar, sehbar bzw. nutzbar zu machen Abbildung 42: Referenzmodell eines DRMS [Rosenblatt et al. 2002]

93 Trusted Computing Platform Alliance (TCPA) und Palladium Bei der TCPA Initiative handelt es sich um ein DRM, das mit dem Betriebssystem (BS) verankert ist. Das Kernstück dieses Systems ist ein Chip, der zunächst auf das Motherboard gelötet, später in den Prozessor integriert ist und als Trusted Platform Module (TPM) bezeichnet wird. Das TPM dient zur Ver- und Entschlüsselung von Datenpaketen. Der Chip prüft bei jedem Systemstart, ob Hardwaretreiber und Anwendungen die geforderten Sicherheitszertifikate vorweisen können. Vorher ist das System als unsicher eingestuft und die digital gesicherten Inhalte sind blockiert. Im Detail werden beim Systemstart, über das BIOS, sämtliche Steckkarten im PC erfasst und eine Prüfsumme aus deren Schlüsseln erstellt. Aus dieser Prüfsumme wird, mit Hilfe des SHA1-Hash-Algorithmus, ein eindeutiger Wert errechnet, der im TCPA abgelegt wird. Sollte beim Booten ein anderer Wert entstehen, gibt die TCPA-Einheit der Hardware keinen Zugriff auf die Daten. Ist der PC als sicher befunden worden, wird dem BS die Kontrolle überlassen. Sollte, beispielsweise durch eine neue Hardwarekomponente verursacht, der PC als unsicher eingestuft werden, muss der PC online zertifiziert werden. Wenn der Rechner nach dem Bootvorgang als sicher eingestuft wird, weil er beispielsweise die entsprechenden Schlüssel und Lizenzen besitzt, gibt das TPM die Daten zur Benutzung frei. Microsofts Palladium -Initiative ist ähnlich konzipiert. Auch hier hält das BS die Daten unter Verschluss gibt sie für keine Anwendung frei -, solange nicht sichergestellt ist, dass das BS und die zugreifenden Softwaremodule sicher sind. Mit diesem Mechanismus ist die Industrie im Stande, auch nach der Übertragung der Daten, zu kontrollieren, was mit ihnen geschieht. [c t-15/02] 4.4 Ausblick Wir möchten unseren Ausblick auf die drei großen Gebiete unserer Seminararbeit aufteilen. CDNs: Das WorldWideWeb hat sich zu einem enorm leistungsfähigen Kommunikationskanal zwischen Unternehmen und Kunden entwickelt. CDNs senken die Betriebskosten dieses Kommunikationskanals und machen es dabei auch noch leistungsfähiger. Zahlen sagen manchmal mehr als Worte: Die Unternehmensberatung Frost & Sullivan untersuchte den Europamarkt für CDN- Dienste und kam zu dem Ergebnis, dass der Umsatz von derzeit 88 Millionen US-Dollar auf 976 Millionen US-Dollar im Jahr 2007 ansteigen wird. Noch vor zwei Jahren hätte (fast) niemand damit gerechnet, dass CDNs heute eine Notwendigkeit für Firmen sein würde, die große Datenmengen über ihre Webportale versenden (insbesondere Streaming-Media-Daten). Heute haben Firmen, die CDNs nutzen klare Vorteile gegenüber Konkurrenten, die dies nicht tun. Statistisch warten Nutzer nicht länger als 8 Sekunden auf eine angeforderte Seite bzw. auf angeforderte Daten. Für eine renommierte Firma würde daraus nicht nur ein direkter Schaden resultieren, der sich durch verlorene Kundschaft erkennbar macht, sonder auch ein nicht unerheblicher Imageverlust wären die Folge. CDNs sind große schwierig zu wartende Rechnersysteme, die es zu mieten lohnt. Das denken inzwischen immer mehr Unternehmer und das mani-

94 94 Intelligent Buffering, Storing and Replication festiert sich in der unglaublich klingenden Geschäftsentwicklung von Firmen, wie Akamai und Cisco-Systems, den beiden Marktbeherrschenden Unternehmen ESI-Konzept: Mit Hilfe des ESI-Konzeptes ist es auch mittelständischen Unternehmen möglich performante Webservices anzubieten. Die leistungsstarken CDNs sind eine teure Anschaffung, die sich die meisten Unternehmen dieser Größe nicht leisten können. Mit Hilfe des ESI-Modells kann man auf weniger leistungsfähige CDNs ausweichen, die wesentlich kostengünstiger sind. Das System insgesamt ist durch die teilweise ausgelagerte Rechenarbeit auf die Edge-Server, die wiederum nicht gekauft werden müssen, mindestens genauso performant. Ferner ergibt sich durch das ESI-Konzept die Möglichkeit, Latenzzeiten zu verkürzen, weil sie, global im Internet verteilt, die Distanz zwischen anfragendem Client und Fileserver verkürzen. Ein Nachteil ist, dass Webportale, die diese Technik nutzen wollen auch auf dem ESI- Modell entwickelt werden müssen. In den Fällen, wo ein Unternehmen bereits eine Webpräsenz besitzt, wäre also ein komplettes Redesign fällig. Digital Rights Management: Das Internet bietet Unternehmen ein probates Mittel zum Datentransfer, das zudem noch schnell, günstig und zuverlässig ist. Ansätze diese Infrastruktur im Sinne von Urheberrechten sicher zu machen existieren und weitere sind in Planung. Uns macht das Palladium Modell unruhig, denn neben den guten Seiten, wie Sicherheit vor Virenbefall oder Trojanern, hat es auch eine Vielzahl von negativen Seiten. Vor allem ist abzuwarten, inwiefern Microsoft seine dominante Stellung in der Entwicklung der next-generation secure computing base for Windows, wie Palladium mittlerweile genannt wird, ausnutzt. Das System, wie wir es beschrieben haben könnte auch dazu missbraucht werden, um Konkurrenzprodukte, die günstiger oder gar kostenlos sind, vom Markt zu verdrängen. DRMS bieten, trotz einiger Bedenken, interessante Zukunftsmodelle für Internet- und E- Business-Firmen. Zum Abschluss unserer Arbeit möchten wir eine Vision beschreiben, die die Verwebungen der Teilbereiche unserer Seminarbeit verdeutlichen soll. Als Universitäts-Modell der Zukunft könnten wir uns vorstellen, dass Hochschulen, im Zuge der Weiterentwicklung von E-Learning auch Studenten im Ausland die Teilnahme an Lehrveranstaltungen ermöglichen. Dieses Geschäftsmodell würde alle Themen unserer Seminararbeit in einem Modell vereinen. Die Lehrveranstaltungen (z.b. Vorlesungen) wären die Inhalte, für die eine (quasi-studien) Gebühr bezahlt werden müsste. Die Verwaltung der Gebühren und Rechte wiederum, könnte über DRM-Systeme abgewickelt werden. Die Inhalte müssten über Hightech-Netzwerke wie CDNs es sind - zum jeweiligen Studenten gestreamt werden man stelle sich die verheerende Auswirkung von Packet- Losses in diesem Szenario vor. Auf einem Webportal bekäme jeder Student einen persönlichen Bereich, das mit dem ESI-Konzept verwirklicht werden könnte. Dort könnte er stets sicher und schnell auf persönliche Dokumente, wie beispielsweise virtueller Laufzettel, Adressliste seiner Kommilitonen oder seinen Stundenplan, zugreifen.

95 95 5 AMBIENT INTELLIGENCE - SECURITY OF ACCESS AND DATA Beim Konzept der Ambient Intelligence handelt es sich um die Idee allgegenwärtiger, aber versteckter Computersysteme, die Gegenstände intelligent machen. Synonym zu Ambient Intelligence werden auch die Begriffe Pervasive und Ubiqitous Computing verwendet. Zu Anfang werden die technischen Grundlagen dieser Technologie, also die Hardware, die Kommunikations-Infrastrukturen bzw. Netzwerke und Software kurz vorgestellt. Diese Technologie bietet große Vorteile, zum Beispiel die enorme Vereinfachung sowohl des menschlichen Alltags als auch komplexer Problemstellungen. Nachteilig sind insbesondere die Auswirkungen dieser Technologie auf die Sicherheit und die Privatsphäre, denn einerseits wird durch die intelligenten Objekte ein enormes Datenaufkommen erzeugt, und andererseits lässt sich die starke Vernetzung der Komponenten wobei in in eben jener Vernetzung ein Großteil der Gesamtfunktionalität steckt gebrauchen, um hochdetaillierte Benutzerprofile zu erstellen. Dieser Fakt, gepaart mit der Tatsache, daß es in einer konsequent durchgedachten Ambient Intelligence-Welt fast kein Entkommen vor der allgegenwärtigen Erfassung durch Sensoren mehr gibt, lässt die Frage aufkommen, wie eine solche Entwicklung zu vermeiden ist. Die Arbeit beschreibt einerseits nichttechnische, also rechtliche und soziale Rahmenbedingungen, die eine Wahrung von Sicherheit und Privatsphäre auch in einer intelligenten Umgebung ermöglichen, und andererseits die sogenannten Privacy Enhancing Technologies und die Kryptographie, die dem selben Zweck dienen. Den Abschluss bildet eine Zusammenfassung und ein persönliches Fazit, in dem der Hoffnung Ausdruck verliehen wird, daß ein verantwortungsvoller Umgang mit der behandelten Technologie einerseits und das Eingehen vernünftiger Kompromisse andererseits die Gesellschaft keinesfalls in eine düstere Überwachungsvision stoßen müssen, sondert das menschliche Leben lebenswerter machen können. Schlagworte: Ambient Intelligence, Pervasive / Ubiquitious Computing, Privatsphäre, Sicherheit 5.1 Einleitung Socrates: Last night I had a vision, right there before my eyes. The Turtle: So, did it cast it s shadow on you? Jede Revolution hat ihre Propheten, und so gibt es auch Menschen aller Couleur Wissenschaftler, Philosophen, Politiker und viele andere die sich mit der Technisierung unserer Gesellschaft, ja der Welt als Ganzem befassen. Zuerst kam die Industrialisierung. Ihr folgte die Entwicklung der Informationstechnologie. Die gesamte Computertechnik hat sich in einer Geschwindigkeit entwickelt, welche in vielen anderen Bereichen unmöglich scheint Leistungssteigerungen um fünfstellige Faktoren innerhalb von zwanzig Jahren stellen keine Seltenheit dar, sondern sind die

96 96 Ambient Intelligence Security of Access and Data Norm. Das bemerkenswerteste ist wohl, daß auch heutzutage kein Ende dieser Entwicklung abzusehen ist. Doch die wahre Macht der Informationsgesellschaft rührt von einem anderen Punkt her: Es haben sich leistungsfähige Strukturen zur Datenübertragung und Vernetzung entwickelt allen voran das Internet die alle geographischen Hürden tansparent machen. Es wird aufgrund stetig wachsender Leistung und gleichzeitig fallenden Preisen möglich, die Gegenstände des alltäglichen Lebens mit Intelligenz auszustatten und sie zu vernetzen. Diese Technologie ist unter drei Namen bekannt: Pervasive bzw. Ubiquitious Computing und Ambient Intelligence. Die Möglichkeiten und Auswirkungen dieser Technologie sind heutzutage noch schwer abzuschätzen. Eine intelligente Umwelt könnte zum Beispiel den Menschen viele Routineaufgaben abnehmen und allgemein die Effizienz des Individuums und der Gesellschaft steigern. Doch so wie alle großen Ideen große Chancen bieten, bergen sie auch große Risiken. Wer sorgt dafür, daß die vielgepriesene Ambient Intelligence nicht zur Basis eines Orwell schen Überwachungssystems wird wo doch überall und über jeden Einzelnen riesige Datenmengen anfallen, die geradezu zur Verknüpfung und Profilerstellung gemacht scheinen? Es existieren rechtliche Fragen, denn wer darf entscheiden, wie und ob die Daten verwertet werden und wie diese Vorgaben durchgesetzt werden können. Schon heute werden Daten über Kaufverhalten und andere Dinge verwertet, und schon heute ist eine gewisse Machtlosigkeit der Judikative und Exekutive erkennbar, wenn es um solche Probleme geht. Sind die Menschen bereit für die schöne neue Welt? Es bedarf wohl auch eines Umdenkens des Einzelnen, was den Umgang mit seinen Informationen betrifft, denn die bereits zitierten Propheten des digitalen Zeitalters sind sich fast ausnahmslos einig: Nicht materielle Güter werden in Zukunft das Wertvollste sein, sondern Informationen. Außerdem stellen die Begriffe Privatsphäre und Sicherheit zum Teil Gegensätze dar. Manchmal ist die Vertraulichkeit der Information des Individuums ein Sicherheitsrisiko für die Gesellschaft in solchen Fällen muss man beiderlei sorgfältig gegeneinander abwiegen. Dies alles sind viele Fragen, die sich ein jeder stellen kann, und es gibt noch mehr. Wir werden uns in dieser Arbeit jedoch auf die Privatsphäre und die Sicherheit in Bezug auf Ambient Intelligence konzentrieren, denn die Entscheidungen, die heutzutage und in naher Zukunft gefällt werden, werden wohl das Grundgerüst legen sei es nun ein gutes oder schlechtes, von welchem Standpunkt aus gesehen auch immer. 5.2 Begrifflichkeiten In diesem Abschnitt werden grundlegende Begrifflichkeiten erklärt Ambient Intelligence, Pervasive und Ubiqitous Computing einerseits und Sicherheit sowie Privatsphäre andererseits Ambient Intelligence, Pervasive und Ubiquitous Computing Die drei Begriffe Ambient Intelligence (Umgebungsintelligenz), Pervasive (Alldurchdringendes) und Ubiquitous (Allgegenwärtiges) Computing umreissen alle die Idee allgegenwärtiger, jederzeit verfügbarer IT-Systeme, die jedoch vor dem Nutzer in intelligenten Objekten versteckt werden bzw. auf den Menschen ausgerichtete Schnittstellen besitzen.

97 97 Der Begriff des Ubiquitious Computing wurde von Marc Weiser in seiner Arbeit The computer of the 21st century geprägt, der im XEROX PARC Forschungszentrum bereits am Anfang der neunziger Jahre des letzte Jahrhunderts grundlegende Arbeit in diesem Bereich leistete [Weis91]. Die Computerindustrie, die eher an konkret vermarktbaren Technologien interessiert ist, prägte für diesen eher pragmatischen Ansatz den Begriff des Pervasive Computing. In diesem Fall war es die IBM, die den Begriff des Pervasive Computing im Jahr 1993 einführte [Sper01]. Neben der in diesem Gebiet stark involvierten IBM verwenden unter anderem das IEEE (Institute of Electrical and Electronics Engineers) den Begriff Pervasive Computing. Im europäischen Raum beschäftigt sich z.b. die Eidgenössische Technische Hochschule Zürich mit unserem Thema, wobei hier eher der Terminus Ambient Intelligence genutzt wird und man sich auch mit den oben angesprochenen Schnittstellen zwischen Mensch und Maschine und dem damit verwandten Forschungszweig der künstlichen Intelligenz stärker auseinandersetzt. Geprägt wurde der Begriff im Jahr 1999 von den Experten der Information Society Technology Advisory Group (ISTAG) der europäischen Kommission [Gupt] wir werden im folgenden auch den Ausdruck Ambient Intelligence nutzen, wobei dieser von den oben genannten Unterschieden abgesehen synonym zu Pervasive bzw. Ubiquitous Computing gehandhabt werden kann. Ein weiterer Begriff, der im Weiteren auftauchen wird, ist der Begriff der intelligent objects. Ein Netzwerk intelligenter Objekte bildet die Basis für die Ambient Intelligence dies können vernetzte elektronische Geräte, im besonderen aber auch Alltagsgegenstände sein, die an sich gar keine elektronischen Komponenten besitzen Sicherheit und Privatsphäre Dieses UnterAbschnitt beschäftigt sich mit den Definitionen der Begriffe Sicherheit und Privatsphäre mit dem Fokus auf die Informationstechnologie Definition des Begriffes Sicherheit Der Begriff der Sicherheit lässt sich allgemein definieren, wobei man unter Sicherheit normalerweise den Schutz vor Gefahren versteht. Im Kontext der Informations- und Kommunikationstechnologie (ICT- Information and Communication Technology) definiert man Sicherheit als Ansammlung von verschiedenen sogenannten Schutzzielen, die erreicht bzw. eingehalten werden müssen, um Sicherheit zu gewährleisten. Die bekanntesten Schutzziele sind [VoKe83]: Verfügbarkeit (Availability) Ein System ist verfügbar, wenn es die im Rahmen seiner Definition vorgegebenen Aufgaben korrekt erfüllen kann, so würde z.b. ein verfügbarer Webserver die auf ihm bereitgestellten Informationen auf Abruf innerhalb einer vertretbaren Zeitspanne ausliefern. Einen Angriff auf das Schutzziel der Verfügbarkeit würde für eben diesen Webserver eine Denial-of-Service-Attacke darstellen. Integrität (Integrity) Die Integrität eines Systems ist dann gewährleistet, wenn Veränderungen an den gespeicherten Daten und der Funktionsweise nur in einem vorher vorgegebenen Rahmen möglich sind, z.b. in einer gesicherten Datenbank nur durch befugte Benutzer. Die Ausnutzung von Systemfehlern oder menschlichen Schwächen (Social Engineering) zur Erlangung eines unauthorisierten Systemzugiffs durch einen Angreifer würde das Schutzziel der Integrität verletzen.

98 98 Ambient Intelligence Security of Access and Data Nichtabstreitbarkeit (Non-Repudiation) Das Schutzziel der Nichtabstreitbarkeit ist erfüllt, wenn durch Nutzung geeigneter Maßnahmen gewährleistet ist, daß eine Nutzung des Systems durch einen Teilnehmer eindeutig bewiesen werden kann insbesondere muss das Beweismittel juristisch anerkannt sein. Ein Beispiel wäre ein E- mail-system, in dem sich Absender einer Nachricht mittels eines Signaturverfahrens eindeutig identifizieren können und das aus diesem Grund auch für juristisch relevanten Schriftverkehr genutzt werden kann. Ein Angreifer, der sich einen Signaturschlüssel mittels eines krytpographischen Angriffs oder mittels Social Engineering zugänglich macht oder anderen diese Möglichkeit offenbart, verletzt das Schutzziel der Nichtabstreitbarkeit, da die eindeutige Zuordnung der Kommunikationsinhalte zu Teilnehmern nicht mehr gegeben ist. Vertraulichkeit (Confidentiality) Das Schutzziel der Vertraulichkeit ist dann gewährleistet, wenn Daten nur dem für sie bestimmten Benutzerkreis verfügbar sind. Als Beispiel für einen Angriff kann man analog zum Schutzziel der Integrität davon ausgehen, daß sich ein Angreifer eine Authorisierung verschafft, die nicht für ihn vorgesehen ist und damit Kenntnis von Daten erlangt, die nicht für ihn bestimmt sind. Ein anderes Beispiel würde das Abhören der Kommunikation zum Zwecke der Erlangung vertraulicher Daten darstellen Definition des Begriffes Privatsphäre Der englische Begriff privacy lässt sich relativ schwer ins Deutsche übersetzen. Wir haben die unserer Meinung nach zutreffendste Möglichkeit gewählt (Privatsphäre) obwohl der Begriff zugegebenermaßen etwas unhandlich ist. Zur Privatsphäre gibt es verschiedene verbreitete Definitionen, u.a. Privacy is the right to be left alone [WaBr1890] - Eine sehr allgemeine Definition - oder Privacy is the claim of individuals, groups or institutions to determine for themselves, when, how and to what extent information about them is communicated to others. [Wes67] (Diese Definition deckt sich mit dem Grundsatz der informationellen Selbstbestimmung.) Im Hinblick auf ICT basiert die Wahrung der Privatsphäre technisch auf dem Schutzziel der Vertraulichkeit und teilweise dem Schutzziel der Integrität. Um eine effektive Einhaltung der Privatsphäre zu gewährleisten, sind neben den technischen auch rechtliche Vorgaben erforderlich. Eng mit der Privatsphäre verbunden ist der Begriff des Datenschutzes, denn da man davon ausgehen muß, daß in einer Ambient Intelligence Umgebung sehr viele private Daten anfallen, muß insbesondere auf deren Schutz geachtet werden. In Deutschland bildet z.b. das BDSG (Bundesdatenschutzgesetz) und das Europäischen Datenschutzgesetz hierfür die Grundlage. Ein für die weitere Betrachtung relevantes Prinzip ist der im BDSG formulierte Grundsatz der Datenvermeidung und Datensparsamkeit : Gestaltung und Auswahl von Datenverarbeitungssystemen haben sich an dem Ziel auszurichten, keine oder so wenig personenbezogene Daten wie möglich zu erheben, zu verarbeiten oder zu nutzen. Insbesondere ist von den Möglichkeiten der Anonymisierung und Pseudonymisierung Gebrauch zu machen, soweit dies möglich ist und der Aufwand in einem angemessenen Verhältnis zu dem angestrebten Schutzzweck steht [BDSG90] 3a.

99 99 Diesem Grundsatz liegt die Überlegung zugrunde, daß die beste Möglichkeit, Daten effektiv zu schützen, darin besteht, sie gar nicht erst anfallen bzw. speichern zu lassen. Wir werden uns unter anderem mit dieser Problematik im Abschnitt 5.5 befassen. 5.3 Technische Aspekte Im Folgenden werden wir uns mit den für Ambient Intelligence relevanten Technologien beschäftigen sowohl mit dem aktuellem Status der technischen Entwicklung als auch mit einem Ausblick in die Zukunft Hardware Sowohl die Rechenleistung als auch Winzigkeit heutiger Integrierter Schaltkreise auf Siliziumbasis stellen die Technik, die noch vor zehn Jahren als state of the art galt, in den Schatten. Andererseits ist der Preis hochkomplexer Schaltungen inzwischen vergleichsweise gering. In der heutigen Zeit werden bereits in fast alle elektronischen Geräte logische Schaltkreise verbaut, seien es hochpreisige Anwendungen wie Automobile, aber auch Niedrigpreisanwendungen wie Küchengeräte und Kinderspielzeug. Für die Vision des Smart Home existiert eine ausreichend miniaturisierte, bezahlbare Rechenleistung. Auch für die Zukunft scheint noch genügend Leistunspotential vorhanden das vom Intel-Gründer Gordon Moore im Jahr 1965 postulierte Gesetz, daß sich die Parameter eines Rechnersystems wie Geschwindigkeit, Speichergröße und Bandbreite alle 2 Jahre verdoppeln [Mend79], hat bis heute Gültigkeit und falls ungefähr im Jahr 2010 die Fertigungstechnik auf Siliziumbasis vollständig ausgereizt sein sollte, wird wohl eine jetzt in der Entwicklung befindliche Technik wie optische Schaltungen oder Schaltungen auf biologischer Basis die Nachfolge übernehmen. Eine bereits genutzte Anwendung im Bereich des Pervasive Computing stellen die sog. RFID s (Radio Frequency Identifications) dar. Dabei handelt es sich um in ein Polymersubstrat eingebettete Speicher mit einer Antenne, die es ermöglichen, beliebige Informationen zu speichern und über Entfernungen von mehreren Metern auszulesen. Aufgrund ihrer geringen Größe RFID s sind sehr flach sowie ihrer Robustheit und ihres kleinen Preises lassen sich RFID s bereits heute einsetzen. Gerade im Bereich der passiven RFID s, die sehr preiswert herstellbar sind, hat es in den letzten Jahren große Fortschritte gegeben: So lassen sich heutige passive RFID s nicht nur auslesen, sondern auch beschreiben [Stan03]. Abbildung 43: Passive RFIDs der neusten Generation [Texas Instruments] Es existieren natürlich noch viele weitere Ansätze in diesem Bereich, die für die Verwendung in der Ambient Intelligence passende Charakteristiken aufweisen, z.b. miniatu-

100 100 Ambient Intelligence Security of Access and Data risierte Sensoren wie etwa Kameras und Mikrofone mit eingebauten Netzwerkschnittstellen oder auch neuartige Anzeigemethoden, die Bilder entweder in den Raum oder direkt auf die Netzhaut des Nutzers projizieren. In weiter Ferne tauchen natürlich direkte neurale Schnittstellen zwischen menschlichen Gehirnen oder Nerven und Schaltkreisen auf, für die jedoch keine realistische zeitliche Entwicklungsabschätzung möglich ist Infrastrukturen Natürlich bergen die einzelnen Objekte jeweils eine eigene Funktionalität, doch den eigentlichen Funktionalitätsgewinn stellt die Vernetzung von einzelnen smart Objects dar, die kommunizieren und so ein smart Environment bzw. die Ambient Intelligence bilden. Aufgrund seiner herausragenden Stellung stellt der Bereich der Infrastrukturen also der Kommunikationsnetzwerke einen eigenen Punkt dar. Die drahtgebundenen Netzwerktechnologien zu denen wir natürlich auch optische Systeme zählen haben inzwischen Multi-Gigabit-Bandbreiten erreicht. Auch für normale Arbeitsplätze sind inzwischen Gigabit-Netzwerke preiswert erhältlich. Die eigentliche Revolution zur dynamischen Vernetzung intelligenter Objekte stellen jedoch die drahtlosen Technologien dar, von denen inzwischen für verschiedenste Anwendungsprofile Lösungen existieren, z.b: IEEE WLAN (Wireless Local Area Network) ist ein von der IEEE festgelegter Standard mit mittleren Reichweiten und hoher Bandbreite (zurzeit maximal 54 Mbit/s Bruttodatenrate), Ad-Hoc-Fähigkeiten, aber auch hohem Stromverbrauch [P802]. Bluetooth ein von einem Industriekonsortium entwickelter Standard zur Vernetzung mobiler Kleingeräte mit geringen Reichweite und Bandbreite, aber sehr geringem Stromverbrauch und einem erweiterbaren Profilsystem, das dem Netzwerk die Möglichkeit gibt, von individuellen Geräten auf Geräteklassen zu abstrahieren [Blue]. UMTS (Universal Mobile Telecommunication System) und GPRS (General Packet Radio Service) mit jeweils mittleren Datenraten, hoher Reichweite und geringem Verbrauch, die jedoch ein relativ komplexes Netzwerk von Basisstationen erfordern, wobei sich GSM Netzwerke mit geringem Aufwand auf GPRS aufrüsten lassen - [UMTS] und [GPRS]. Ein weiterer wichtiger Punkt in der Entwicklung sowohl drahtloser wie drahtgebundener Netzwerke war die Homogenisierung auf Netzwerk- und Protokollebene. Die meisten Netzwerke unterstützen heutzutage das Internet Protocol (IP), was einen einfachen Austausch zwischen verschiedenen Netzwerken möglich macht. Gerade an diesem Punkt wird sich in der Zukunft noch viel vereinfachen lassen sobald analog zum Bluetooth- Profilsystem ein durchgehendes Abstraktionsmodell für Dienste und Anwendungen existiert, welches auch allgemein genutzt wird. Im Allgemeinen kann man davon ausgehen, daß sich in Zukunft im drahtlosen Bereich noch erhebliche Verbesserungen erzielen lassen, da die Relevanz dieser Technologien erst in jüngerer Zeit klar geworden ist so ist für den Standard zur Zeit eine Weiterentwicklung (802.11n) geplant, welche die Nettodatenrate auf 100 bis 320 Mbit/s anheben soll Software Wenn man die heutigen Stand der Software betrachtet, wird auch schnell der Trend zur Homogenisierung der Plattformen offenbar: Systeme wie JAVA von Sun Microsystems

101 101 [JAVA] oder.net von Microsoft [NET]sollen im Fall von JAVA auf diversen Plattformen eine einheitliche, abstrahierte Umgebung bieten und für.net viele verschiedene Sprachen in einer Laufzeitumgebung bündeln (wobei sich JAVA und.net konzeptuell stark ähneln). So soll es möglich werden, Software plattformunabhängig zu entwickeln. Gerade bei diesem Aspekt existieren jedoch zum Teil noch gravierende Probleme dennoch ist die Entwicklungsrichtung zu erkennen. Und gerade JAVA ist mit dem Konzept der Plattformunabhängigkeit bisher hinreichend erfolgreich (JAVACard [JCard], Ein- Platinen-Lösungen mit integriertem JAVA-Stack u. a.) Eine andere Funktion von Software ist es, die Schnittstelle zwischen dem Menschen und dem digitalen System zu bilden. Gerade am Punkt der Benutzeroberflächen tritt oft die Wahrnehmung auf, daß die Geschwindigkeit der technischen Entwicklung manchen Softwaredesigner vergessen läßt, das seine Software auch benutzbar sein sollte. In diesem Bereich ist in Hinblick auf Ambient Intelligence noch viel zu leisten denn die erweiterten Funktionen der intelligenten Objekte sollten ja leicht nutzbar sein, ohne daß der Nutzer jedesmal ein Handbuch lesen muss. 5.4 Sicherheit und Ambient Intelligence Wie bereits in 2.2 festgestellt, ist ein funktionierendes Sicherheitssystem, das die zu erreichenden Schutzziele einhält, eine Grundvoraussetzung für die Akzeptanz und Nutzbarkeit einer Ambient Intelligence-Umgebung. Und auch zum Schutz der Privatsphäre ist unbedingt eine sichere Kommunikation nötig. Das Hauptkommunikationsmedium sind drahtlose Netzwerke. Ein Angriff wird mit hoher Wahrscheinlichkeit auf die Kommunikationsmittel durchgeführt, wobei physikalische Angriffe aufwendiger sind und voraussetzen, dass sich der Angreifer direkt vor Ort befindet. Aus diesem Grund werden wir uns mit der Absicherung der Kommunikation beschäftigen. Die wichtigste Technologie in diesem Kontext ist die Kryptographie Kryptographie In diesem Abschnitt wird zuerst eine kurze Definition vorgenommen, darauf folgt eine Vorstellung der asymmetrischen Verschlüsselungsverfahren, da diese geeignete Voraussetzungen bieten, um die Kommunikation vieler Teilnehmer abzusichern Definition Kryptographie (aus d. Griechischen kryptos versteckt und graphein schreiben) beschäftigt sich mit der Ver- und Entschlüsselung von Daten. Der Begriff ist schon seit der Antike verbreitet Verschlüsselungsverfahren wurden auch in dieser Zeit schon genutzt ein bekanntes Beispiel stellt der Cäsar-Chiffre dar. Ein kryptographisches Verfahren überführt einen Klartext (plain text) in einen verschlüsselten Text (ciphertext), in dem es eine Verschlüsselungsfunktion anwendet. Die Gegenrichtung wird durch eine Entschlüsselungsfunktion realisiert. Die heutzutage verwendeten Verfahren nutzen zumeist für jede Ver- und Entschlüsselung dieselben Funktionen die zueinander invers sind aber verschiedene Schlüssel Asymmetrische Verfahren Verschlüsselungsalgorithmen lassen sich in zwei Klassen aufteilen: symmetrische und asymmetrische wobei der Unterschied darin besteht, daß ein symmetrisches Verfahren für Ver- und Entschlüsselung ein und denselben Schlüssel nutzt. Ein Nachteil dieses Verfahrens liegt darin, daß der geheime Schlüssel sowohl Sender als auch Empfänger bekannt sein muß, daher muss der Schlüssel vorher ausgetauscht werden, was wiederum

102 102 Ambient Intelligence Security of Access and Data einen sicheren Kommunikationskanal benötigt. Falls n Teilnehmer miteinander kommunizieren wollen, sind n^2 / 2 Schlüssel notwendig bei Teilnehmern sind dies bereits Schlüssel. Ein Vorteil von symmetrischen Verfahren ist ihre Geschwindigkeit. Die Probleme der symmetrischen Kryptographie werden durch die asymmetrische Kryptographie elegant umgangen: Pro Teilnehmer existieren zwei Schlüssel: ein öffentlicher (public) und ein geheimer (private) Schlüssel. Wenn Teilnehmer B Teilnehmer A eine Nachricht zukommen lassen will, verschlüsselt er diese mit B s öffentlichem Schlüssel, der jedem zugänglich sein muß. Die Entschlüsselung ist dagegen nur mit B s geheimen Schlüssel möglich dieser darf nur B bekannt sein. Einen Nachteil stellt die Geschwindigkeit asymmetrischer Verfahren dar sie sind teilweise um den Faktor 1000 langsamer als symmetrische Verfahren. Als Beispiele für asymmetrische Verfahren sind PGP (Pretty Good Privacy) [PGP] basierend auf RSA [RSA] zur Verschlüsselung von Texten und s und SSL (Secure Socket Layer) [FKK 96] zur Absicherung von Kommunikation auf Protokollebene Session Keys Eine gut nutzbare Kombination aus asymmetrischen und symmetrischen Verfahren stellen die sog. Session Keys (Sitzungsschlüssel dar). Die Kommunikationspartner handeln am Beginn einer Kommunikationssitzung mittels asymmetrischen Verfahren einen symmetrischen Sitzungsschlüssel aus, der für die Verschlüsselung der eigentlichen Kommunikation genutzt wird so lassen sich gerade größere Datenmengen sicher, einfach und auch effizient übertragen Public Key Infrastructure Wie bereits in erwähnt, stellt die Verfügbarkeit und Authentizität der öffentlichen Schlüssel den wichtigsten Punkt in asymmetrischen Verschlüsselungssystemen dar. Die Nutzung von asymmetrischen Verfahren macht eine Vertrauensstelle nötig, die als Verzeichnisdienst für öffentliche Schlüssel dient und sowohl öffentlich Schlüssel zur Verfügung stellt als auch die korrekte Zuordnung der gespeicherten Schlüssel zu Kommunikationsteilnehmern sicherstellt (Certification Authority CA). Andererseits muß ein Benutzer auch sicher sein können, tatsächlich mit dem Verzeichnisdienst zu kommunizieren, da gerade an diesem Punkt eine man-in-the-middle-attacke sehr lohnenswert wäre denn wenn einem Teilnehmer ein falscher public key nämlich ein vom Angreifer generierter untergeschoben wird, kann der Angreifer mühelos die Nachricht entschlüsseln. Der Ansatz der PKI enthält starke hierarchische Elemente so kann eine CA angeben, daß sie von einer anderen CA als vertrauenswürdig eingestuft wird. Es entsteht eine Hierarchie von Vertrauensbeziehungen, an dessen Spitze beispielsweise staatlich anerkannte Stellen stehen können so lässt sich auch eine juristische Absicherung der Kommunikation sicherstellen. Zur Sicherung dieses Netzwerkes und für viele andere Zwecke lassen sich digtale Signaturen nutzen. [PKI] Digitale Signaturen Eine digitale Signatur erhält man, wenn ein Teilnehmer A einen Text mit seinem geheimen Schlüssel verschlüsselt. Dieser Schlüsseltext lässt sich von jedem anderen Teilnehmer mit A s öffentlichem Schlüssel wieder entschlüsseln, wobei dieser wieder den ursprünglichen Text erhält. Eine Änderung des Klartextes ist jedoch nur mit dem geheimen Schlüssel sicherstellen. Wenn ein Teilnehmer zu den zu übertragenden Daten eine eindeutige Prüfsumme erstellt und diese signiert, lässt sich so das Schutzziel der Integrität überwachen. Ein anderes Anwendungsbeispiel wäre die Authentifizierung eines PKI-

103 103 Verzeichnisses gegenüber dem Nutzer: Das Verzeichnis übersendet eine digitale Signatur, welche der Nutzer beim übergeordneten Verzeichnis bzw. einer CA überprüfen kann Asymmetrische Verfahren und Ambient Intelligence Gerade der Aspekt der PKI stellt im Kontext der Ambient Intelligence einen großen Vorteil gegenüber anderen Verfahren dar. Mit einem Schlüsselpaar kann sich jedes Gerät gegenüber anderen ausweisen und sicher kommunizieren. Der hierarchische Ansatz der PKI könnte sich z.b. in einem smart Home manifestieren so könnte jeder Haushalt eine eigene CA besitzen und alle Geräte des Haushalts verwalten, wobei die CA mit höherwertigen CA s vernetzt ist. Allgemein besteht in drahtlosen Netzwerken ein sehr hoher Verschlüsselungsbedarf, wobei sich diese Tendenz in der Ambient Intelligence-Welt, in der viele wichtige Daten drahtlos übertragen werden, noch um ein vielfaches verstärken wird Vertraulichkeitsprobleme in drahtlosen Netzwerken Wie bereits in Abschnitt 3 festgestellt wurde, läuft ein Großteil der Kommunikation in einer Ambient Intelligence Umgebung drahtlos ab. Dies hat jedoch schwerwiegende Auswirkungen auf die Sicherheit der Übertragung, da ein Funkkanal prinzipbedingt immer abgehört werden kann man kann sich nicht auf die Grundabschirmung einer drahtgebundenen Verbindung verlassen. Die in drahtlosen Netzwerken bisher implementierten Techniken zur Verschlüsselung hatten teilweise gravierende Schwächen. So war mit der ursprünglichen Version des in Netzwerken verwendeten WEP Wireless Equivalent Privacy) keine ausreichende Absicherung des Datenverkehrs möglich [CHG02]. Da es sich bei den zwischen intelligenten Objekten übertragenen Daten um hochsensible Daten handeln kann, besteht gerade im Hinblick auf die Sicherheit einer Ambient Intelligence noch ein großes Verbesserungsbedürfnis. 5.5 Schutz der Privatsphäre und ambient intelligence Das folgende Abschnitt beschäftigt sich mit den Auswirkungen der Ambient Intelligence, wobei zuerst die Problematik motiviert wird und dann Lösungsansätze vorgestellt werden Erläuterung der Problematik Einerseits impliziert die Vision der Ambient Intelligence natürlich eine Vielzahl von Vorteilen für alle Benutzer wie bereits angesprochen andererseits ist die Technologie auch sehr gut dazu geeignet, mittels Überwachung und Profilierung der Benutzer eine inakzeptable Einschränkung der Privatsphäre herbeizuführen. Um sich mit der Problematik auseinandersetzen zu können, sollte zuerst die Situation analysiert werden. In der Studie Security and Privacy for the Citizen in the Post- September 11 Digital Age : A Prospective Overview des Institute for Prospective Technological Studies (IPTS) werden mögliche Verletzungen der Privatsphäre verschiedene Kategorien eingeteilt, an denen wir uns im Folgenden locker orientieren werden [IPTS03]. Wir werden uns zuerst einmal mit der Abgrenzung der Privatsphäre beschäftigen und daran anschließend mögliche Lösungsansätze für die erkannten Probleme. Eine allgemeine Problematik ist, daß den Benutzern der Ambient Intelligence zu großen Teilen die Möglichkeit genommen wird, über die Erhebung von Daten selbst entscheiden zu können die informationelle Selbstbestimmung wird eingeschränkt. Die folgenden beiden Abbildungen illustrieren dieses Problem:

104 104 Ambient Intelligence Security of Access and Data Abbildung 44: Benutzerkontrollierter Prozess [IPTS03]] Abbildung 45: Der Erfassungsprozess ist vom Nutzer nicht mehr kontrollierbar [IPTS03]

105 Die räumliche Dimension der Privatsphäre In nahezu jeder Verfassung wird die Wohnung des Individuums zum Heiligtum (Sanctuary) erklärt, in dem jeder einzelne ganz besondere Rechte geniesst. Im Hinblick auf die Ambient Intelligence stellt sich die Frage, welchen Bereich diese privilegierte Zone im virtuellen Raum umfasst dieser Bereich wird treffend als virtual residence betitelt. Für Sensoren, die körperliche Parameter messen oder Daten im Wohnraum erheben, ist diese Entscheidung relativ einfach zu fällen. Wenn sich ein Individuum jedoch außerhalb seiner Wohnung aufhält, stellt sich die Frage, welche Daten über einen Menschen erfasst werden dürfen etwa alle nach außen sichtbaren, biometrischen Daten? Dies würde prinzipiell der geltenden Auffassung von Privatsphäre entsprechen, denn wenn sich jemand auf einen öffentlichen Platz begibt, befindet er sich in der Öffentlichkeit. Die Problematik, die hier und auch an anderen Stellen auftritt, stellt die Vernetzung der Ambient Intelligence Welt dar. Was in der Studie als memory amplifier benannt wird, ist die Tatsache, daß es mit hochvernetzten ubiquitären Sensoren möglich wird, eine große Menge Daten zu erheben, ohne daß sich der Einzelne dagegen wehren kann, und diese Daten mehrdimensional also in Raum und Zeit zu verknüpfen. Die so entstehenden Profile spiegeln das Dilemma wider: Es sind nicht die enthaltenen Daten, die den Hauptteil der Information ausmachen, sondern deren Verknüpfung. Interessanterweise stellt sich dieser Aspekt auch in den Funktionalitäten der intelligent Objects dar Die zeitliche Dimension der Privatsphäre Der in bereits erwähnte memory-ampilifier ist besonders relevant, wenn es um die zeitliche Dimension der Privatsphäre geht. Ein Benutzerprofil ist größtenteils aufgrund der gespeicherten zeitlichen Zusammenhänge ein so mächtiges Instrument, denn diese zeitlichen Zusammenhänge lassen sich zu kausalen Zusammenhängen abstrahieren wenn eine Supermarktkette weiß, daß ein Kunde in der Vergangenheit bestimmte Produkte gekauft hat, kann sie ihm verwandte Produkte anbieten etc Lösungsansätze Im folgenden werden wir uns mit Lösungsansätzen für die aufgetretenen Probleme insbesondere dem des memory amplifier beschäftigen. Einerseits kann man verschiedene Technologien verwenden, um die durch andere Technologien eingeschränkte Privatsphäre und Vertraulichkeit wieder zu verbessern bzw. zu erhöhen. Andererseits gilt es natürlich, mit rechtlichen und auch ethischen Richtlinien die Datenerfassung von vorneherein einzuschränken Nichttechnische Lösungsansätze Den wohl mächtigsten nichttechnischen Lösungsansatz stellt das Prinzip der Datenvermeidung dar denn wo keine Daten erhoben werden, kann auch keine Bedrohung der Privatsphäre entstehen. Die Problematik dieser Lösung ist, daß gerade der Austausch von Informationen die Funktionalität möglich macht im Hinblick darauf sei nochmals auf die Ähnlichkeit der Verteilung von Information in Benutzerprofilen (Abschnitt 5.5.1) und von Funktionalität in der Ambient Intelligence (Abschnitt 5.3) hingewiesen. Wer also alle Datenerfassung vermeidet, kann keine personalisierten Dienste nutzen und hat auch keine verbesserte Funktionalität. Eine interessante Idee wäre natürlich, die Datenvermeidung auf bestimmte, wohldefinierte Kategorien verschieden stark wirken zu lassen. Die Umsetzung von dieser und anderen Ideen ermöglichen die sogenannten Privacy Enhancing Technologies (Technologien zur Erweiterung der Privatsphäre) oder kurz PET.

106 106 Ambient Intelligence Security of Access and Data Privacy Enhancing Technologies Der Terminus Privacy Enhancing Technologies ist wohl in der Mitte der 90er Jahre des letzten Jahrhunderts entstanden, wobei eine klare Zuordnung zu einem Namensgeber nicht ohne weiteres möglich ist [Clar02]. Die wohl bekanntesten PET-Awendungen lassen sich auf drei Gruppen aufteilen: Verschlüsslungs- und Filtersysteme Verfahren zur Anonymisierung und zur Pseudonymisierung Policy Tools Im Folgenden werden die drei Gruppen genauer beschrieben. Ein zentraler Aspekt dieser drei Anwendungen ist es, dem Benutzer die verloren gegangene Kontrolle über die Verarbeitung wiederzubeschaffen was wie in Abschnitt beschrieben ja einen der Hauptkritikpunkte an der Ambient Intelligence darstellt Verschlüsselungs- und Filtersysteme Auf die Möglichkeiten zur Verschlüsselung wurde in Abschnitt 5.4 bereits ausführlich eingegangen. Mittels Filtersystemen können Informationen gefiltert werden, bevor sie zur Auswertung gelangen. So könnte ein Bewohner eines smart home mittels eines vorgeschalteten Filtersystems entscheiden, daß bestimmte Typen von Information vor Verlassen des Hauses ausgefiltert werden müssen wobei sich hier die Problematik ergibt, daß drahtlose Übermittlungswege prinzipbedingt sehr leicht abhörbar sind. In der heutigen Anwendung versteht man unter Filtersystemen pragmatischere Ansätze wie z.b. SPAM-Filter Verfahren zur Anonymisierung und Pseudonymisierung Unter Anonymisierung versteht man die Entfernung aller Merkmale, die einen Rückschluss auf den Nutzer ermöglichen würden. Bei einer Pseudonymisierung wird zwischen den Nutzer und den Anbieter eines Dienstes eine neutrale, vertrauenswürdige Stelle geschaltet, die dem Anbieter nur ein Pseudonym präsentiert. Es ist also eine teilweise Identifikation und Wiederkennung möglich, jedoch keine wirkliche Erstellung von Profilen. Die Schwachstelle dieses Verfahrens stellt der Vermittler dar, denn sobald der Anbieter über die Verbindung zwischen Pseudonym und realem Nutzer Kenntnis erlangt, kann diese Information zur Erstellung eines kompletten Profils genutzt werden. Eine bereits heute im Einsatz befindliche Technik zur Anonymisierung stellen die sogenannten Mix-Architekturen dar. Nachrichten werden nicht direkt vom Sender zum Empfänger gesandt, sondern in das Mix-Netzwerk geschickt, wo sie mehrmals zwischen den Mix-Rechnern hin- und hergeschickt werden, wobei durch Verschlüsselung sichergestellt wird, daß jeder Mix über die Nachricht nur folgende Informationen erhält: Den Sender und den Empfänger welche jeweils ein Mix sein können. Solange in der sogenannten Mix-Kaskade ein einziger Rechner existiert, welcher eventuellen Angreifern keine Informationen übermittelt, ist die Anonymisierung erfolgreich. Ein Beispiel stellt der Java Anonymization Proxy (JAP) dar, ein Projekt der TU Dresden, welches vor allem wegen seiner Streitigkeiten mit der Bundespolizei ein großes Presseecho erfuhr [JAP] Policy Tools Unter Policy Tools (Werkzeugen zur Durchsetzung von Richtlinien) versteht man Systeme, in denen die Benutzer in einer Richtlinie bestimmen, welche Daten sie preisgeben

107 107 wollen. Bei Nutzung eines Service werden die Richtlinie des Services und die des Nutzers verglichen. Falls eine Übereinstimmung erzielt wird, läuft dieser Handlingprozess für den Benutzer transparent ab wenn jedoch die Richtlinien in Widerspruch stehen, kann sich der Nutzer entscheiden, ob er auf die Servicenutzung verzichtet oder mehr Daten preisgibt, als er geplant hatte. Aktuelle Implementierungen sind z.b. P3P (Platform for Privacy Preferences) des World Wide Web Consortiums [W3C] oder TRUSTe [TRUS]. Die Idee, die hinter den Policy Tools steht, ist jedoch prinzipiell auch sehr gut auf ein komplexes Interaktionsschema zwischen intelligenten Objekten übertragbar. In Hinsicht auf die Problemstellung in einem Ambient Intelligence-Kontext könnte diese Anwendung eine sehr große Rolle spielen denn die völlige Vermeidung von Datenerhebung führt wie bereits erwähnt dazu, daß die erweiterten Funktionalitäten nicht nutzbar sind. Falls sich ein Standard herausbilden sollte, der es ermöglicht, für die Kommunikation intelligenter Objekte verbindliche Richtlinien festzulegen, und dieser Standard auch rechtlich verankert und durchsetzbar wird, könnte dies viele Probleme im Umgang mit der Privatsphäre lösen. 5.6 Sicherheits versus Privatsphäre Leider stellen Sicherheit und Wahrung der Privatsphäre in manchen Fällen einen Widerspruch dar nämlich dann, wenn sich das Sicherheitsbedürfnis eines Teilnehmers nicht mit der Privatsphäre eines anderen Nutzers vereinbaren lässt. Das beste Beispiel stellen wohl der Schutzauftrag des Staates für die Sicherheit seiner Bürger und die Privatsphäre des Individuums dar. In diesem Bereich einen guten juristischen Kompromiss zu erreichen, ist keinesfalls einfach. In der Vergangenheit wurde die Privatsphäre des Einzelnen schon alleine durch die Tatsache implizit geschützt, daß es unmöglich war, die anfallenden Daten eines jeden Bürgers effizient zu speichern. Durch den bereits angesprochenen Effekt des Memory Amplifiers wird dieser natürliche Schutz ausgehebelt und das Gleichgewicht durcheinandergebracht. Die Folgen dieses Prozesses sind bereits heute erkennbar. Die geltenden Richtlinien und Gesetze reichen oftmals nicht mehr aus, um die Datenerfassung der Strafverfolger auf ein vernünftiges Maß zu begrenzen. Andererseits schränken die juristischen Unklarheiten zum Teil die gerichtliche Verwertbarkeit der angefallenen Daten ein. In der Welt der Ambient Intelligence werden sich diese Probleme um ein vielfaches verstärken und damit auch einen anderen Effekt, der sich schon in der Heutigen Zeit manifestiert: Bei den Bürgern entsteht ein wachsendes Misstrauen gegenüber der staatlichen Autorität und deren Machtorganen, da dem Einzelnen nicht klar ist, wie die diversen Daten, die über ihn gesammelt werden, genutzt werden und welcher Personenkreis in diese Daten Einsicht erhält. Dieser negativen Vision hat Oscar Gandy den Namen Panoptic Sort gegeben [Gan93] die Bürger befinden sich in einem Panoptikum ihr kompletter Lebensablauf ist Firmen und staatlichen Organen einsehbar. In seinem Buch beschreibt Gandy die verfügbaren Techniken zur Überwachung durch Profilerhebung, z.b. elektronische Bezahlvorgänge und digitale Ausweise, die für jegliche Interaktion mit staatlichen Stellen genutzt werden. Gandy geht auf die positiven Aspekte dieser Technologien ein, beispielsweise die Möglichkeit, eine betrügerische Nutzung des Sozialsystems zu erschweren. Dennoch zeichnet Gandy einen dunklen Weg in die Zukunft vor, in der die weiterentwickelte Vernetzung also eine der Grundvoraussetzungen für Ambient Intelligence ein Überwachungssystem ermöglicht.

108 108 Ambient Intelligence Security of Access and Data 5.7 Zusammenfassung und Fazit Sobald man beginnt, sich mit dem Thema Ambient Intelligence zu befassen, läuft man Gefahr, sich in diesem hochinteressanten Themenfeld zu verlieren. Es tauchen viele Fragestellungen auf, gerade im Bereich von Sicherheit und Privatsphäre. Und an vielen Stellen wurde uns im Laufe unserer Recherchen klar, daß die heutige Zeit eine Zeit des Umbruchs ist denn die Ambient Intelligence wird unsere Welt verändern, unser menschliches Bezugssystem, die Gesellschaft. Im Rückblick auf diese Arbeit lassen sich einerseits erhebliche Vorteile finden: Den Menschen werden viele Routineaufgaben abgenommen Die intelligente Umgebung wird auch komplexere Handlungen in ihrer Effizienz steigern Die räumliche Entfernung als wie auch immer einschränkender Aspekt wird noch radikaler nivelliert Doch auch gravierende Nachteile wurden angesprochen: Der Kontrollverlust des Einzelnen und die Erschwerung seiner informationellen Selbstbestimmung Damit einhergehend die Gefahr eines Panoptikums, eines Überwachungssystems, in dem der gläserne Bürger Realität wird Wir sind der Überzeugung, daß Technologie an sich ethisch neutral ist es ist die Nutzung zum Guten oder Schlechten, die sie moralische Kategorien einrückt. Die Vision einer Ambient Intelligence stellt sich uns als eine noch unfassbare Möglichkeit dar, die es zu ergreifen gilt und einer der ersten Schritte auf diesem Weg sollte die Sensibilisierung der Öffentlichkeit für die Ideen der Ambient Intelligence an sich und im Besonderen für die behandelten Fragen zur Einhaltung von Sicherheit und Privatsphäre sein, denn ansonsten besteht die Gefahr, daß die neue Technologie nicht akzeptiert wird. Andererseits ist die schleichende Einführung einer Intelligenten Umgebung durch die Industrie ein guter Weg, den Menschen mit der Zukunft vertraut zu machen Learning by Doing. Von höchster Wichtigkeit sind weiterhin rechtliche Rahmenbedingungen, die so klar formuliert sind, daß sie auch in der unklaren Zukunft benutzbar bleiben und vor allem müssen diese Richtlinien Hand in Hand mit der Einführung der Technologie verabschiedet werden, denn ansonsten besteht die Gefahr, daß die Gesetzgeber irgendwann einmal vor vollendeten Tatsachen stehen. Als letzten Punkt müsste sich natürlich die Technik entsprechend unseren Projektionen noch ein gutes Stück weiterentwickeln, um die Vision der Ambient Intelligence Realität werden zu lassen. Dies ist jedoch ein Punkt, in dem wir auf den Effekt der freien Marktwirtschaft setzen, die hoffentlich die technische Entwicklung weiter vorantreiben wird. Zum Abschluss möchten wir unserem Wunsch Ausdruck geben, daß die Ambient Intelligence irgendwann einmal Realität wird. Nicht als Überwachungsalptraum, aber auch nicht als die Verschwendung all jener Ressourcen, die uns die intelligente Umgebung zur Verfügung stellen könnte, sondern als ein typisches Menschenwerk: Als ein guter Kompromiss.

109 109 6 AVAILABILITY OF LOCATION INFORMATION Die immer kleiner und leistungsfähiger werdende Computertechnologie, ermöglicht es den Nutzern jederzeit und überall Zugang zu Informationen und Diensten zu erhalten. Diesen Umstand machen sich vor allem die Telekommunikationsanbieter zu Nutze, die ihren bereits vorhanden Kundenstamm nutzen, um neben der Telephonie weitere Mehrwertdienste anzubieten. Die neuesten Entwicklungen und Forschungen gehen jedoch auch stark in Richtung indoor Services. Hier ist der Vorteil der Telekommunikationsanbieter geringer, so dass es Platz für neue Dienstanbieter gibt. Im Zuge dieser Entwicklung nimmt auch die Relevanz der Informationen über den Kontext einer Dienstnutzung, wie z.b. die Position des Nutzers stark zu. Durch dieses Wissen werden neue innovative Dienste, die so genannte Location Based Services (LBS) möglich. Musste ein Nutzer seine Position früher noch umständlich von Hand eingeben, so ist es heute mit verschiedenen Methoden, der Location Determination Technology möglich Location- Information effizient und in Echtzeit zu ermitteln. Es sind bereits jetzt eine Reihe von Technologien verfügbar, die zur Lokalisierung von Objekten oder Personen eingesetzt werden können. Diese habe teilweise sehr unterschiedliche Eigenschaften und zeichnen sich durch ihre individuellen Stärken und Schwächen aus. Neben den zur Lokalisierung verfügbaren Techniken, wie der Triangulation, der Szenen Analyse oder der Diffusionsmethode, spielen aber noch weitere Eigenschaften von Lokalisierungssystemen eine wichtige Rolle. So unterscheiden sich diese Systeme Beispielsweise in der Art der bestimmten Position, in der Genauigkeit und Skalierbarkeit sowie darin ob die Position von einem mobilen Endgerät anhand der Umgebungsinformationen selbst bestimmt wird oder ob die Umgebung die Position des mobilen Gerätes bestimmt. Die Entwicklung von Lokalisierungssystemen ist ein sehr wichtiges Forschungsgebiet, in dem bereits eine Reihe von Lokalisierungssystemen mit Unterschiedlichen Eigenschaften entwickelt wurde. Neben der Entwicklung neuer Systeme steht aber auch die Einhaltung der Privatsphäre der Nutzer und der sinnvolle Einsatz der Positionsinformationen im Vordergrund. Der zweite Teil dieser Arbeit befasst sich mit Aspekten, der Dienste, die die verfügbaren Positionsinformationen einsetzen um den Nutzern sinnvolle Mehrwertdienste zur Verfügung zu stellen. Er beleuchtet, neben Architekturüberlegungen und den Anforderungen an mobile Geräte, auch Betriebswirtschaftliche Aspekte und die Herausforderungen, denen sich die Anbieter von Location Based Services stellen müssen. Schlagworte: Indoor-Lokalisierung, Outdoor-Lokalisierung, Location Based Services, LBS, Location Information, Lokalisierungstechnologie, Location Determination Technology, LDT 6.1 Einleitung Die immer kleiner und leistungsfähiger werdenden Computer, die momentan in allen Bereichen unseres Alltagslebens Einzug halten, bringen eine Reihe von Vorteilen und Annehmlichkeiten für die Nutzer mit sich. So ist es zum Beispiel sehr angenehm, dank eines Mobiltelefons immer und jederzeit erreichbar zu sein und auch andere jederzeit erreichen zu können. Ebenso nützlich ist es, wenn einem dieses handliche Gerät nun ne-

110 110 Availability of Location Information ben der Möglichkeit zum Gespräch mit anderen Menschen, auch noch den Zugang zu Informationen und Diensten ermöglicht, unabhängig davon wo man sich gerade befindet. All das ist heute bereits in großem Umfang möglich und wird auch von vielen Menschen bereits genutzt. Noch interessanter werden die Dienste und Informationen, die den Nutzern nun jederzeit und überall zur Verfügung stehen aber, wenn sie sich auch noch auf die persönlichen Präferenzen und Vorlieben oder gar die aktuelle Situation des Nutzers einstellen können. So möchte Beispielsweise ein Nutzer, lediglich wissen, wie das Wetter sich im Laufe des Tages in seiner Stadt entwickelt. Wie es im Rest des Landes ist, interessiert ihn nicht. Um eine solche Information schnell und unkompliziert zur Verfügung zu stellen, müsste der genutzte Dienst zum Einen darüber informiert sein, dass der Nutzer lediglich an lokalen Wetterdaten interessiert ist und zum Anderen wissen in welcher Stadt sich der Nutzer derzeit befindet. Während sich erstere Information noch mit einem Klick des Nutzers oder einer Schlussfolgerung aus gespeicherten Verhaltensmustern ermitteln lässt, erfordert die Ermittlung der Position des Nutzers schon wesentlich mehr Interaktion. Um dies zu vermeiden sind bereits jetzt Lokalisierungssysteme im Einsatz, die die Position eines Nutzers bis auf einige Meter genau ermitteln können. Ein solches System wäre für das oben beschriebene Szenario ohne weiteres einsetzbar. Interessanter wird die Frage der Lokalisierung von Personen und Objekten innerhalb geschlossener Gebäude. Diese Problematik ist momentan ein wichtiges Thema in der Forschung. Hier wird, neben der Lokalisierung von autonomen mobilen Robotern, auch die Frage nach Möglichkeiten zur Lokalisierung von beliebigen Objekten oder Menschen immer wichtiger. Die Tatsache, dass eine Vielzahl der Menschen in den Industrienationen heutzutage über ein Mobiltelefon mit einer Vielfalt technischer Möglichkeiten verfügen, eröffnet Telekommunikationsanbietern und Forschern eine Reihe neuer Möglichkeiten, Dienste zu schaffen, die den Nutzern das Leben erleichtern oder ihm neue Möglichkeiten eröffnen sollen. Wir befassen uns in der vorliegenden Arbeit, mit den Eigenschaften der verfügbaren Technologien und versuchen einen umfassenden Überblick über Techniken und verfügbare Lokalisierungssysteme zu geben. Des Weiteren werden wir die Eigenschaften von, auf Lokalisierungsinformationen basierenden, Diensten herausarbeiten und auf konkrete Szenarien und die aktuelle Marktsituation eingehen. 6.2 Grundlagen Die Bestimmung der Position eines Objektes oder einer Person ist für eine Maschine im Allgemeinen keine einfach zu bewältigende Aufgabe. Die einzige dem Menschen von Natur aus zur Verfügung stehende Methode, das Sehen, ist für Maschinen eher ungeeignet, da es sehr komplexe Analysen der wahrgenommenen Informationen und in den meisten Fällen auch ein sehr großes Vorwissen voraussetzt, um brauchbare Ergebnisse zu erzielen. Der Mensch hat sich die Technik zu Hilfe genommen und eine Vielzahl verschiedener Methoden entwickelt, mit denen es Maschinen möglich ist, die Position von Objekten oder Personen zu bestimmen Was ist Lokalisierung? Unter dem Begriff Lokalisierung versteht man die Bestimmung der Position eines Objektes oder einer Person. Die Bestimmung der Position kann je nach Anwendung mit verschiedenen (technischen) Mitteln und mit oder ohne Involvierung des Objektes/der Person erfolgen. Die ermittelte Position kann relativ zu Referenzpunkten in der Umgebung oder in Form von absoluten Koordinaten angegeben werden.

111 111 Die folgende Graphik veranschaulicht die zur Nutzung lokationsbasierter Dienste nötige Infrastruktur sowie den Fluss der benötigten Positionsinformationen: Abbildung 46: Komponenten von location information Wozu dient Lokalisierung? Die Lokalisierung einer Person oder eines Objektes dient in erster Linie dazu, in Abhängigkeit von der ermittelten Position verschiedene Handlungen durchzuführen. Hierbei kann man verschiedene Handlungsweisen unterscheiden: Position als Filter: Die ermittelte Position eines Objektes wird als Filter genutzt, um irrelevante Informationen oder Handlungsalternativen auszuschließen. Ein Beispiel hierfür ist die Suche nach einem Restaurant oder den besten Sonderangeboten in der Nähe des Nutzers. Position als Auslöser: Die Ermittelte Position dient als Auslöser für eine Aktion des Systems. Ein Beispiel hierfür ist das Übertragen von Werbebotschaften, wenn der Nutzer beispielsweise vor einem Schaufenster steht. Position als Information: Hierbei ist die Position selbst die gesuchte Information und wird nicht weiter verarbeitet. Beispiele hierfür sind Friend-Finder oder das Flotten Management. 6.3 Technologien In diesem und den folgenden Abschnitten wollen wir auf die verschiedenen Eigenschaften von Lokalisierungssystemen eingehen. Dabei beschreiben wir erst die verschiedenen Methoden zur Positionsbestimmung und dann die generellen Eigenschaften solcher Systeme. Abschließend geben wir einen Überblick über die verschiedenen aktuell verfügbaren Technologien zur Positionsbestimmung Techniken zur Positionsermittlung In diesem Abschnitt werden wir einen umfassenden Überblick über die verschiedenen Techniken, die zur Lokalisierung von Objekten eingesetzt werden können geben.

112 112 Availability of Location Information Triangulation Die Triangulation (Dreiecksberechnung) setzt voraus, dass mindestens drei Sender bzw. Empfänger eines Signals vorhanden sind. Diese werden synchronisiert, so dass anhand der empfangenen Signale die Position des zu lokalisierenden Objektes mit der gewünschten Genauigkeit bestimmt werden kann. Die Triangulation unterscheidet zwei Methoden: Lateration (Abstandsmessung) und Angulation (Winkelmessung). Bei der Lateration wird der Abstand zum Objekt und bei der Angulations-Methode der Winkel, in dem sich das Objekt befindet, ermittelt. Zur Ermittlung des Abstandes bieten sich drei verschiedene Möglichkeiten: 1. Bei der direkten Messung wird der Abstand zu den Referenzpunkten über eine mechanische Vorrichtung, Markierungen oder Bewegung direkt ermittelt. 2. Bei der Time-Of-Flight Messung wird die Zeit gemessen, die ein (elektromagnetisches) Signal benötigt, um den Weg zwischen Objekt und Referenzpunkt zurückzulegen Diese Messung kann wiederum auf verschiedene Arten durchgeführt werden: Die Time of Arrival (TOA) und die Time Difference of Arrival (TDOA) Methode ermittelt die Position des Objektes anhand des Zeitpunktes des Signaleingangs bzw. des Zeitunterschieds zwischen verschiedenen Signaleingängen. Bei der Observed Time Difference Methode ermittelt das mobile Gerät seine Position eigenständig aus den, von verschiedenen Basisstationen, gesendeten Referenzsignalen. Diese Methode hat vor allem aus datenschutzrechtlicher Sicht Vorteile, setzt aber leistungsfähige Endgeräte voraus. Die Foward Link Trilateration ist eine Kombination der oben beschriebenen Methoden. Hier bestimmt das mobile Gerät den Zeitunterschied zwischen, von verschiedenen Sendestationen gesendeten, Signalen. Der ermittelte Wert wird dann zur Positionsbestimmung an einen Server, der über die nötigen Hardwareressourcen und das nötige Kartenmaterial verfügt, weitergeleitet. 3. Die Dämpfungsmessung misst zur Bestimmung der Entfernung im Gegensatz zur Time-Of-Flight Methode nicht die Zeit, sondern die Energie, die das Signal bei der Überwindung der Strecke verliert Angulation (Winkelmessung) Die Angulation ermittelt die Position eines Objektes mit Hilfe der Winkelmessung. Sie wird auch als Angle of Arrival Methode (AOA) bezeichnet Proximity (Nachbarschaft/Nähe) Die Proximitäts-Methode wird angewendet, um festzustellen ob sich das zu lokalisierende Objekt in räumlicher Nähe zu einem oder mehreren Referenzpunkten befindet. Diese Nähe kann durch verschiedene Methoden festgestellt werden. 1. Die naheliegendste Methode, um räumliche Nähe zu erkennen, ist der physikalische Kontakt. Hierbei wird der Referenzpunkt in der Nähe des zu lokalisierenden Objektes zum Beispiel durch Sensoren oder elektrischen Kontakt ermittelt. 2. Eine weitere Methode basiert auf der Ermittlung erreichbarer Access-Points. Hierbei ermittelt ein mobiles Gerät seine Position anhand der Daten, die von Access-Points in seiner Nähe zur Verfügung gestellt werden.

113 Eine auf der Überwachung automatischer ID-Systeme wie beispielsweise ec- /Kredit-Karten, Terminal-Log-ins etc. basierende Lokalisierung ermöglicht die Bestimmung der Position eines Benutzers, nachdem dieser sich bei einem elektronischen System authentifiziert hat Szenen Analyse Eine weitere Lokalisierungstechnik ist die Analyse von Orten (Szenen Analyse oder Multipath Analyse). Hierbei werden bestimmte Umgebungsdaten ermittelt, um die Position zu bestimmen. Die Szenen Analyse basiert auf der Annahme, dass Geräte, die sich an der gleichen Position befinden auch gleiche oder zumindest ähnliche (akustische, visuelle, elektromagnetische, etc.) Signale empfangen. [Hightower 2001] Odometrie (Dead Reckoning) Bei der Dead Reckoning Methode versucht das mobile Gerät seine Bewegungen möglichst genau zu analysieren, um so den Weg zu ermitteln, den es zurückgelegt hat und anhand dessen seine aktuelle Position zu bestimmen. Zu diesem Zweck können eine Reihe verschiedener Sensoren eingesetzt werden. [Kind 2003] Diffusion Die Diffusionsmethode basiert auf der Annahme, dass ein (mobiles) Gerät seine Position auch ermitteln kann, indem es andere (mobile) Geräte in seiner Umgebung befragt, die ihre Position bereits kennen. Die Lokalisierung per Diffusion setzt dabei voraus, dass eine (relativ geringe) Anzahl statischer, vorprogrammierter Stationen existiert, die Lokalisierungsinformationen zur Verfügung stellen. Diese Informationen werden von (mobilen) Clients abgerufen, so dass diese ihre Position ermitteln können und nun ebenfalls Positionsinformationen für weitere Clients zur Verfügung stellen können. [Spratt 2001] Eigenschaften von Lokalisierungstechniken Die derzeit vorhandenen Technologien zur Lokalisierung verschiedenster Objekte zeichnen sich durch verschiedenste Aspekte aus. Hightower und Borriello spezifizierten in ihrer Arbeit A Survey and Taxonomy of Location Systems for Ubiquitous Computing [Hightower 2001] eine Taxonomie zur Einteilung bzw. Klassifizierung der verschiedenen Systeme. Im Folgenden wollen wir die, in der Arbeit ermittelten, Eigenschaften von Lokalisierungs-Systemen kurz vorstellen: Verschiedene Lokalisierungssysteme unterscheiden sich anhand der Art der ermittelten Position. Während eine physikalische Position die Position des Objektes unabhängig von einem Bezugssystem zweifelsfrei festlegt, besteht die symbolische Position aus einer Ortsbezeichnung oder Kennzeichnung, die mit entsprechendem Wissen in eine physikalische Position überführt werden kann. In diesem Rahmen kann man auch eine absolute und relative Position unterscheiden. Während die absolute Position unabhängig von einem konkreten Bezugssystem ermittelt wird, zeichnet sich eine relative Position dadurch aus, dass sie im Bezug zur Position anderer Objekte definiert wird. Des Weiteren unterscheidet sich die Arbeitsweise von Lokalisierungssystemen. Terminalbasierte Systeme, ermitteln ihre Position bei Bedarf selbständig und bieten so einen gewissen Schutz der Privatsphäre der Nutzer. In Netzwerkbasierten Systemen, ermittelt ein Netzwerk außerhalb des mobilen Objektes/Gerätes die Position des Objektes. Hier muss sich der Nutzer auf Erklärungen des Netzbetreibers zum Schutz der Privatsphäre verlassen.

114 114 Availability of Location Information Die meisten, aber nicht alle Systeme, ermöglichen neben der Positionsbestimmung auch die Identifizierung von Objekten. Die Fehlerfreiheit des Systems legt fest, wie zuverlässig die Daten sind, die das System liefert, bzw. wie hoch die Wahrscheinlichkeit ist, dass das System falsche Daten liefert. Die Genauigkeit mit der ein System arbeitet, bestimmt, wie genau die Position eines Objektes ermitteln werden kann. Der Bereich, in dem aktuelle Systeme arbeiten, erstreckt sich von einigen Kilometern bis zu wenigen Zentimetern. Interessant ist in diesem Zusammenhang auch, ob das System in der Lage ist, die Orientierung eines Objektes bzw. die Blickrichtung einer Person zu ermitteln. Die Skalierbarkeit eines Systems bezieht sich auf die Größe der Umgebung, in der das System sinnvoll eingesetzt werden kann und auf die Anzahl der Objekte, die das System lokalisieren kann. Auch der Umfang der Maßnahmen, die nötig sind um ein System zu erweitern, spielt in diesem Zusammenhang eine Rolle. Die Kosten eines Systems setzen sich zusammen, aus dem Zeitaufwand für die Installation und Wartung des Systems sowie Preis, Größe und Platzbedarf der nötigen Hardware. Als letzter, aber nicht unwichtiger Punkt, bleiben noch die Einschränkungen anzuführen, denen ein Lokalisierungssystem unterworfen ist. Das GPS System unterliegt zum Beispiel, ebenso wie ein Infrarot System, der Einschränkung, dass eine Sichtverbindung zwischen Sender und Empfänger benötigt wird Übertragungstechniken Zur Lokalisierung von Objekten sowohl im outdoor als auch im indoor Bereich stehen eine Reihe verschiedener Technologien zur Verfügung, die wir in diesem Abschnitt kurz vorstellen wollen. Im nachfolgenden Abschnitt werden wir noch weiter auf die Einsatzmöglichkeiten der hier vorgestellten Systeme sowie auf derzeit bereits eingesetzte Systeme eingehen GPS Das Global Positioning System (GPS) wurde vom amerikanischen Militär entwickelt und ist seit 1993 im Einsatz. Es basiert aus einem System von 24 Satelliten und steht weltweit (fast) flächendeckend zur Verfügung. Das System arbeitet mit Hilfe der Timeof-Flight Lateration Technik und erreicht eine Genauigkeit von 1-5 Metern. Zur Positionsbestimmung ist ein spezieller GPS Empfänger nötig. Aufgrund der benötigten Sichtverbindung zu den Satelliten ist das System in dieser Form jedoch für den Einsatz innerhalb von Gebäuden nicht geeignet Mobilfunk Die verschiedenen, heute gebräuchlichen Mobilfunktechniken bieten eine Reihe von Möglichkeiten zur Lokalisierung mobiler Geräte (Mobilfunktelefone). Die Infrastruktur des Global System for Mobile Communication (GSM) basiert auf einem verteilten Netz von Sendestationen. Dies stellt die Basis für verschiedene Techniken wie TOA, TDOA, AOA, etc. dar, die es ermöglichen können ein mobiles Gerät, das in einem Mobilfunknetz angemeldet ist, zu lokalisieren. Das Universal Mobile Telecommunications System (UTMS) besitzt, da es auf dem gleichen Prinzip wie GSM beruht, auch die gleichen Möglichkeiten zur Lokalisierung mobiler Geräte. Da die Funkzellen des UMTS Systems von Haus aus kleiner sind, bieten sich hier ohne zusätzliche Investitionen bereits genauere Positionierungsmöglichkeiten, als beim GSM System.

115 Infrarot Ein auf Infrarot-Technologie basierendes System hat die Eigenschaft, dass die Signale eine beschränkten Reichweite und einen beschränkten Sende- bzw. Empfangswinkel haben und eine Sichtverbindung zwischen Sender und Empfänger notwendig ist. Diese Tatsache ermöglicht eine relativ genaue Positionierung, die unter Umständen auch die Orientierung des betreffenden Objektes oder der Person umfasst. Sie hat aber den Nachteil, dass relativ viele Stationen benötigt werden, um einen Benutzer kontinuierlich lokalisieren zu können. Abbildung 47: Infrarot Abstrahlungs- und Empfangswinkel [Nilsson 2002] Ultraschall (Ultrasound) Ultrasound Systeme basieren auf Tönen im Ultraschall-Bereich. Diese werden zusammen mit Funksignalen, die als Referenz dienen, ausgesandt. Der Empfänger berechnet, aus dem Zeitabstand zwischen dem Empfang des Funksignals und dem des Tonsignals, den Abstand zum Sender und ist, je nach System auch in der Lage, die Orientierung zu bestimmen. Das System benötigt, im Gegensatz zu einem Infrarot basierten System, keine Sichtverbindung zwischen Sender und Empfänger Funk (Radio Frequency, RF) Für die Verwendung von Funktechnik zur Lokalisierung von Objekten stehen verschiedene Technologien mit unterschiedlichen Eigenschaften zur Verfügung. Dies hat zur Folge, dass sie sich, vor allem wenn verschiedene Techniken parallel eingesetzt werden, das Medium Luft als Übertragungskanal teilen müssen, was zu gegenseitigen Störungen der Systeme führen kann. Radio Frequency Identification (RFID) ist eine Technologie, die es ermöglicht so genannte RFID Tags durch, an relevanten Positionen angebrachte, Sendestationen auszulesen. Jedes RFID Tag verfügt über eine weltweit eindeutige Identifikationsnummer. Zum Auslesen dieser ID sendet eine Station ein vordefiniertes Funksignal, das das Tag veranlasst, seine ID an die Sendestation zu übermitteln. Neben der ID, kann ein RFID Tag auch weitere anwendungsspezifische Informationen enthalten. Die Reichweite des RFID Systems kann bis zu 20m betragen. Abbildung 48: Funktionsweise des RFID Systems [Nilsson 2002]

116 116 Availability of Location Information Digital Enhanced Cordless Telecommunications (DECT) ist der Funkstandard, nach dem aktuelle kabellose Festnetztelefone arbeiten. Die Reichweite beträgt je nach Sendeleistung der verwendeten Geräte bis zu 300m. Ein auf dem DECT Standard basierendes Funknetzwerk besteht in der Regel aus einer oder mehrerer Basisstationen, an denen sich die verschiedenen mobilen Geräte anmelden können. Die Position des Gerätes kann durch Proximation oder Triangulation ermittelt werden. [Lazar 1999] Bluetooth ist eine preiswerte, stromsparende Kurzstrecken-Funktechnologie für mobile Geräte, die auch die Bildung von Personal Area Ad-Hoc Netzwerken unterstützt. Der Bluetooth Standard unterstützt drei verschiedene Sendeleistungen, so dass Reichweiten von 10m, 20m und 100m möglich sind. Mobile Geräte haben aufgrund der begrenzt verfügbaren Energie im Allgemeinen eine Reichweite von 10 Metern. Die Position des Gerätes kann durch Proximation oder Triangulation ermittelt werden. Wireless Local Area Network (WLAN) ist als Alternative zu fest verdrahteten Netzwerken entwickelt worden und hat den Nachteil, dass erst langsam mobile Geräte auf den Markt kommen, die mit einer WLAN Schnittstelle ausgestattet sind. Die Reichweite von WLAN Sendern beträgt ca m, so dass sich WLAN Systeme durchaus auch für die Lokalisierung innerhalb von größeren Gebäuden eignen. Die Position des Gerätes kann durch Proximation oder Triangulation ermittelt werden Anwendungen der Technologien Viele der oben beschriebenen Technologien kommen bereits in Lokalisierungssystemen zum Einsatz. Die entwickelten Systeme haben verschiedene Vor- und Nachteile und wurden mit unterschiedlichen Zielen entwickelt, so dass eine breite Palette an Lokalisierungssystemen für verschiedenste Einsatzgebiete zur Verfügung steht. Im Allgemeinen lassen sich die Systeme, durch die Kombination der verfügbaren Techniken, in ihrer Effektivität und Genauigkeit wesentlich verbessern. Dies erhöht aber den Entwicklungs-, Installations- und Administrationsaufwand ebenso, wie die Hard- und Softwarekosten erheblich, so dass sich zwar bessere Systeme entwickeln ließen, diese aber nur zu astronomischen Preisen verfügbar wären. Im folgenden Abschnitt wollen wir einen Überblick über die am Markt verfügbaren sowie die in verschiedenen Forschungslaboren entwickelten Systeme zur Lokalisierung von Personen oder Objekten innerhalb geschlossener Gebäude geben Active Badges Das Active Badge" Lokalisierungssystem, wurde am damaligen Olivetti Research Lab (jetzt AT&T Cambridge) entwickelt und war eines der ersten indoor Lokalisierungssysteme. Es besteht aus mobilen Infrarot-Sendern, den so genannte Badges und einer Reihe von Basisstationen sie in der Umgebung aufgestellt werden. Abbildung 49: Ollivetti Active Badge (rechts) und Basisstation (links) Der Sender sendet alle 10 Sekunden oder auf Knopfdruck eine eindeutige ID, die von den Sensoren in der Umgebung empfangen und an einen zentralen Server weitergeleitet

117 117 wird. Der zentrale Server sammelt die Informationen aller Sensoren und stellt ein Interface zur Verfügung, über das die Positionen aller lokalisierten Personen abgefragt werden können. Die Genauigkeit der Positionsinformation hängt von der Größe des Raumes und der Anzahl der innerhalb des Raumes platzierten Empfänger ab. [Want 1989] Active Bats Das Active Bats System wurde von AT&T als Nachfolger des Active Badge Systems entwickelt. Es arbeitet im Unterschied zum Active Badge System mit Ultraschall Technologie und Time-Of-Flight Lateration und ermöglicht eine genauere Positionierung und einen sehr stromsparenden Betrieb. Die zu lokalisierenden Benutzer tragen einen Sender wie in Abbildung 50 dargestellt. Dieser sendet auf Anfrage des Systems per Kurzstreckenfunk ein Ultraschall Signal zusammen mit einem Funksignal an eine Reihe in der Decke montierte Empfänger. Anhand der errechneten Abstände kann ein zentraler Server die Position des Empfängers mit einer Genauigkeit von bis zu 10 cm ermitteln. Wenn das System über die Position des Senders am Objekt informiert ist, ist es sogar in der Lage, die Blickrichtung der jeweiligen Person zu ermitteln. [Addlesee 2001] Der Nachteil des Active Bat Systems ist die sehr umfangreiche Infrastruktur aus genau positionierten Empfängern, die notwendig ist, um das System zu betreiben. Abbildung 50: Active Bat Sender Cricket Das Cricket System wurde am MIT entwickelt und arbeitet ähnlich wie das Active Bat System mit Ultraschall und Funktechnologie. Im Unterscheid zum Active Bat System wird die Position des Benutzers hier jedoch von dem mobilen Gerät selbst bestimmt. Die Genauigkeit des Systems beträgt ca. 4 Meter. Das so empfangene Signal dient dem Empfänger letztendlich nur dazu, seine Position relativ zu den Sendern zu bestimmen. Zusätzlich ermöglicht es das Cricket System aber auch, Semantische Informationen über die Umgebung, in der sich der Empfänger befindet, zu übertragen. Die Vorteile des Cricket Systems sind die besser geschützte Privatsphäre sowie die Dezentralität. Diese Vorteile erkauft man sich jedoch durch die hohen Anforderungen an das mobile Gerät, welches über genug Rechenpower und Energiereserven verfügen muss, um stetig seine Position zu berechnen. [Priyantha 2000] MSR RADAR Das RADAR System wurde von einer Microsoft Research Group entwickelt. Es nutzt vorhandene WLAN Signale um die Position eines mobilen Gerätes per Szenen Analyse oder Triangulation zu ermitteln. Dabei werden die an einer oder mehreren WLAN Basisstationen empfangenen Signale an einen Server übermittelt, der anhand des Musters der empfangenen Signale oder per Triangulation die Position des mobilen Gerätes ermittelt.

118 118 Availability of Location Information Das System erreicht eine Genauigkeit von ca. 3 Metern beim Einsatz der Szenen Analyse und ca. 4 Meter beim Einsatz der Triangulation, arbeitet aber bisher nur in zwei Dimensionen, so dass es nicht ohne weiteres in mehrstöckigen Gebäuden eingesetzt werden kann. [Bahl 1998] NAVIndoor Das NAVIndoor System ist eine Entwicklung von Space Systems Finnland. Das System basiert auf der GPS Technologie und ermöglicht deren Anwendung im indoor Bereich durch den Einsatz eines so genannten Pseudolite Systems. Das System besteht aus einer Reihe von pseudo Satelliten, die ein GPS Signal aussenden und einer Basisstation zur Konfiguration und Synchronisation der Satelliten. Die Satelliten können so angebracht werden, dass sie Positionen, an denen das GPS Signal nicht Empfangen werden kann (innerhalb großer Gebäude oder in Strassenschluchten), mit einem (pseudo) GPS Signal versorgen. Zur Bestimmung der Position können dann normale GPS Geräte genutzt werden. Die Genauigkeit des Systems beträgt ungefähr 5 Meter Easy Living Das Easy Living System ist ein, ebenfalls von Microsoft entwickeltes, System das, mit Hilfe von Stereo-Kameras, aufgenommene Bilder analysiert, um die Positionen verschiedener Personen oder Objekte zu ermitteln. Dieses Verfahren benötigt eine sehr hohe Rechenleistung, die mit der Komplexität der aufgenommenen Szene steigt. Es hat jedoch den Vorteil, dass es im Prinzip beliebig skalierbar ist und im Zusammenhang mit Gesichtserkennung, Hautfarbenerkennung, Silhouettenanalyse und ähnlichen Verfahren weit reichende Einsatzmöglichkeiten bietet Smart Floor Das an der Georgia Tech Universität entwickelte Smart Floor System basiert auf der A- nalyse von Fußabdrücken. Im Fußboden oder in speziellen Fußmatten eingearbeitete Sensoren messen den Druck der Schritte einer Person und können so die Position an der sich die Person befindet ermitteln. Dieses Verfahren hat den Vorteil, dass die zu lokalisierende Person keinerlei Tags, Badges oder ähnliche Geräte mitführen muss Sonstiges Neben den in den vorhergehenden Abschnitten vorgestellten Systemen gibt es noch eine Reihe weitere Systeme, die zu Lokalisierung von Objekten eingesetzt werden können. Viele basieren auf ähnlichen Systemen wie die bereits beschriebenen: Das PinPoint 3D-iD System arbeitet beispielsweise mit einer ähnlichen Technik wie das RADAR System, basiert aber nicht auf WLAN, sondern benutzt ein proprietäres funk Verfahren, das aber im gleichen Frequenzbereich wie WLAN arbeitet. Mit Hilfe der Time-Of-Flight Methode erreicht das System eine Genauigkeit von 1-3 Metern. Das SpotON System wurde im Rahmen eines Projektes der University of Washington entwickelt. Es basiert auf der Analyse der von festen Empfängern empfangenen Signalstärken (Szenen Analyse). [Hightower 2000] Nibble ist ein Lokalisierungssystem, das an der Universität von Kalifornien entwickelt wurde. Es basiert auf WLAN signalanalysen mit Hilfe von Bayesian Netzwerken. Das PointMan Dead Reckoning Module basiert auf dem Dead Reckoning System und ist in der Lage die Bewegungen eines Objektes mitzuverfolgen, um so die Position des Objektes zu ermitteln. Das System wird mit GPS Koordinaten initialisiert und ist daraufhin in der Lage, die Position des Benutzers mit 20-50m Abweichung pro zurückgelegten

119 119 Kilometer zu berechnen. Um eine höhere Genauigkeit zu erreichen ist das System in der Lage sich selbst, sobald GPS Daten verfügbar sind, neu zu kalibrieren. Weitere Interessante Systeme im Bereich der indoor Lokalisierung sind: Automatic ID Systems, Motion Star Magnetic Tracker System, Avalanche Transceivers, Wireless Andrew und andere Fazit Es gibt bereits jetzt eine Reihe verschiedenster Ansätze zur Lokalisierung von Personen oder Objekten innerhalb und außerhalb geschlossener Gebäude. Des Weiteren existieren auch schon marktreife Systeme die für verschiedenste Zwecke eingesetzt werden können. Trotzdem hat sich hier allerdings aufgrund der sehr unterschiedlichen Eigenschaften und Anforderungen der Systeme noch kein System etabliert oder durchgesetzt und auch die Forschung läuft in diesem Bereich auf Hochtouren, um neben neuen Technologien auch neue Einsatzgebiete und neue Möglichkeiten zu erschließen. Die hier vorgestellten Systeme lassen sich, betrachtet man alleine die technischen Merkmale, größtenteils kombinieren, um sogenannte Hybridsystem zu erhalten, die die Vorteile verschiedener System kombinieren. So könnte man beispielsweise die von Stereokameras erzeugten Bilder durchaus mit, durch Triangulation ermittelten, Daten kombinieren um so eine höhere Genauigkeit des Systems zu erhalten. Dem gegenüber stehen allerdings die Nachteile, der Installation der benötigten Kameras, der höheren Komplexität der notwendigen Software und der Akzeptanz durch den Nutzer, der möglicherweise nicht ständig von verschiedenen Kameras überwacht werden möchte. Unserer Meinung nach liegt jedoch vor allem im Bereich von Bluetooth und Infrarot sowie WLAN Systemen ein sehr großes Potential. Diese Systeme eröffnen, alleine durch die Tatsache, dass sie immer stärker in aktuelle Mobilfunktelefone integriert werden, eine Reihe neuer Möglichkeiten, netzbasierte (indoor) Lokalisierung ohne teure und komplexe Hardwareentwicklungen einzusetzen. 6.4 Location Based Services Nachdem wir in Abschnitt 6.3 die verschiedenen Positionsbestimmungstechnologien erläutert haben, wollen wir in diesem Abschnitt die Dienste, die vom Standort des Benutzers abhängig sind, genauer betrachten Was sind Location Based Services (LBS)? Der nächste wichtige Schritt nach dem Gewinn von Informationen über den Nutzer ist es, diese nun auch sinnvoll einzusetzen, um dem Benutzer spezielle Dienste zur Verfügung zu stellen. In den nächsten Abschnitten werden wir uns mit diesen ortbezogenen Diensten beschäftigen Geschichte Durch die Verordnung der U.S. FCC (Federal Communication Commission) wurde die Entwicklung der Positionsbestimmung von Mobiltelefonen stark vorangetrieben. Nach dieser Verordnung besteht seit Ende 2001 die Verpflichtung, dass bei einem Notrufgespräch (E911) von einem Mobiltelefon aus die Position des Anrufers, an die Notrufzentrale übermittelt wird (Ortung mit einer Genauigkeit < 125 Metern bis 2005). Dieser Umstand hat stark zur Einführung von neuen Diensten, den so genannten Location Based Services, beigetragen. [Haase 2002]

120 120 Availability of Location Information Szenario Der Wecker klingelt morgens früh um 5 Uhr 30, eine Stunde früher als normal. Der Kalender von Bob zeigt, er hat heute um 8 Uhr ein Meeting in der Boulderstrasse, eine Stunde früher als erwartet. Er steht auf und um 6 Uhr 30 ist er vor der Tür. Im Auto gibt Bob sein Reiseziel in den Geräteassistenten seines Autos ein und lässt den Autobahnverkehr überprüfen. Alles ist in Ordnung. Um 7 Uhr wird er über einen Autounfall auf der Autobahn benachrichtigt. Der Geräteassistent informiert ihn über eine bessere Strecke um den Unfallort zu vermeiden. Um 7 Uhr 35 ist Bob endlich in der Boulderstrasse. Er bekommt eine Nachricht von seinem Chef, dass das Meeting auf 9 Uhr verschoben wurde. Bob greift sein wireless access protocol (WAP) Telefon and benutzt seinen Friend Finder, um zu überprüfen, ob seine Kollegin Susanne schon in der Boulderstrasse angekommen ist. Er sieht, dass Susanne sich 5 Meter vor der Boulderstrasse befindet, und sendet ihr eine instant Message um zu fragen, ob sie Lust hat, essen zu gehen. Susanne gibt eine positive Antwort zurück. Bob benutzt noch mal sein WAP Telefon, um ein Restaurant in dem aktuellen Standort zu suchen. Er entscheidet sich für das Boulder Cafe und informiert Susanne über ihren Treffpunkt. Bob benutzt in diesem kleinen Szenario oben ein paar Aspekte von Location Based Services. Er bekommt Verkehrsnachrichten, findet den Standort seiner Kollegin, und suchte das Restaurant in der Nähe seines Standortes. Wir werden in diesem Abschnitt erläutern, was man unter dem englischen Begriff Location Based Services (LBS) versteht. Abbildung 51: Die Dienstseite der WAP Telefon Anbieter von Bob.[ILBS 2002] 1) Bob wählt den Ortsdienst ( Location Service) aus 2) Bob wählt das LBS Find nearest aus. 3) Bob sucht das Restaurant in der Nähe Definition Location Based Services (LBS) sind ortsabhängige oder ortsbezogene Dienste, die dem Benutzer, meistens über mobile Endgeräte, zur Verfügung gestellt werden. Der Benutzer wird mit Lokalisierungsverfahren (Siehe Abschnitt 6.3) geortet. Ein Dienstanbieter ist darauf hin in der Lage, dem Benutzer spezielle Dienste entsprechend der Position des Benutzers anzubieten. Die zurzeit wohl spannendsten Entwicklungen in der Telekommunikation vollziehen sich auf dem Feld der Location Based Services. Es gibt zahlreiche Untersuchungen von Wirtschaftforschungsinstituten und Unternehmensberatungen, die ortsabhängige Dienste als Schlüssel zum Erfolg des m-commerce (kommerzieller Nutzung des Internet über ein mobiles Endgerät) sehen. In einer Forrester Studie und auch in anderen Arbeiten spricht man bei Location Based Services von der Killer Application des mobilen Internets und des Mobilfunknetzes der 3.Generation (UMTS). In der Abbildung 52 kann man die Schritte sehen, die ein LBS-Dienstnutzer braucht, um seinen Dienst zu benutzen (Beispiel von Geoinformation Systeme - GIS).

121 121 Neben der Frage nach der Anwendung solcher Dienste ist darüber hinaus von Interesse, wie diese Dienste überhaupt realisiert werden können. Der grundlegende Unterschied zu anderen Diensten ist die Positionsbestimmung der mobilen Station. Im späteren Verlauf werden wir dieses Thema genauer betrachten. Abbildung 52: LBS Service Request Response[OpenLS 2002] Architekturüberlegungen Zur Realisierung von Location Based Services sind im Wesentlichen drei Komponenten erforderlich. Wie die Abbildung 53 verdeutlicht, lassen sich die Komponenten Access Environment und Positioning-Environment der Mobilfunkwelt zuordnen, während Application-Environment Lösungen aus dem Internetbereich zusammenfasst und mit den ersten beiden Komponenten kommuniziert. Abbildung 53: LBS-Architektur Als Positioning Environment sind Lösungen zur Lokalisierung von mobilen Endgeräten zu verstehen, die auf den in Abschnitt 6.3 vorgestellten Verfahren beruhen. Die ermittelten Lokalisierungsinformationen werden über ein Application Programming Interface (API) dem Application-Environment in auswertbarer Form ü- bermittelt.

122 122 Availability of Location Information Access Environment gliedert sich in mobile Ein- und Ausgabegeräte (siehe nächster Abschnitt) und Protokolle bzw. Sprachen zur Realisierung von Netzinteraktionen, um die vom Application-Environment bereitgestellten LBS-Anwendungen nutzen zu können. Das Application Environment bildet die zentrale Instanz der vorgestellten Architektur. Diese Komponente leitet Lokalisierungsanfragen des Benutzers über die API an das Positioning Environment weiter, erhält als Ergebnis die Lokalisierungsinformationen, welche unter Nutzung geographischer Informationen (digitaler Karten, Routen-informationen, etc.) und anderer orts- oder objektbezogener Informationen aus Datenbanken (Verkehrsinformationen, Hotelstandort, Fahrpläne, Öffnungszeiten, etc.) ausgewertet werden und gibt diese aufbereiteten Informationen z.b. über ein WAP Gateway an das Access Environment Typische Ein- und Ausgabegeräte Um Location Based Services nutzen zu können, wird an sich kein besonderes Endgerät benötigt, da es auch LBS gibt, die über SMS genutzt werden können. Aber wie man sich sicher gut vorstellen kann, ist es von Vorteil, ein Endgerät zu benutzen, dass vor allem technisch und auch graphisch etwas mehr zu bieten hat, denn damit wächst die Anzahl der möglichen Dienste und Darstellungsarten rapide. Für LBS gibt es mobile und stationäre Endgeräte, da die Vorzüge von LBS nur mit einem mobilen Endgerät (Mobilität, Kontextspezifität) vollständig genutzt werden können, werden wir in dieser Arbeit die stationären Endgeräte (z.b. Desktop Computer) nicht betrachten. Mobile Endgeräte können entsprechend Tabelle 6 in vier Klassen aufgeteilt werden. Es gibt weitere mobile Endgeräte wie z.b. Tablettcomputer oder Navigationssysteme in Kraftfahrzeugen, die zur Nutzung von LBS eingesetzt werden können. Tabelle 6: LBS-Engeräte mit Vorteil und Nachteil

123 123 Abbildung 54: LBS Mobile Endgeräte LBS Dienste Man kann LBS in verschiedenen Arten klassifizieren (Pro/Lite oder Pull/Push). Es gibt Dienste, die für Indoor- bzw. Outdoornutzung geeignet sind. (siehe Tabelle 7). Indoor LBS-Dienste und Outdoor LBS-Dienste unterscheiden sich, indem man indoor oder outdoor Lokalisierungstechnik benutzt, um die Lokalisierungsinformation zu bestimmen. Tabelle 7: LBS-Dienste mit Applikationsumgebung [MEXPRESS 2001] Lite Dienste Bis vor kurzem, als noch keine Methoden zur Standortbestimmung zur Verfügung standen, musste man seine aktuelle Position manuell eingeben, dass heißt, man musste, wenn man einen LBS nutzen wollte, erst ein paar Felder für Ort und Strasse oder dergleichen ausfüllen und hat erst dann die Information bekommen können, die man gerne wollte. Diese Art von standortbasierten Diensten nennt man LBS Lite Pro Dienste Heutzutage ist es durch die neuen Arten der Positionsbestimmung möglich geworden, die Standortbestimmung zu automatisieren, dass heißt, man braucht zu seiner aktuellen Posi-

124 124 Availability of Location Information tion nichts mehr einzugeben, was die Benutzung der LBS um einiges erleichtert. Diese Art von LBS wird LBS Pro genannt Pull (Passiv) Dienste Bei einem standortbasiertem Pull-Dienst ist es der Nutzer, der in Bezug auf seinen Standort Informationen anfordert. Die Position des Nutzers wird nur dann bestimmt bzw. aktualisiert, wenn dies für den vom Nutzer gewünschten Dienst notwendig ist. Als Beispiel lässt sicht die Inanspruchnahme eines Navigationsdienstes nennen Pusch (Aktiv) Dienste Standortbasierte Dienste, die nach dem Push-Prinzip arbeiten, sind schwieriger zu realisieren, da neben der ständigen Lokalisierung des Nutzers eine Personalisierung erforderlich ist, um zum richtigen Zeitpunkt, am richtigen Ort die richtigen Information nach dem Eintreten vorher definierter Bedingungen bereitzustellen. Beispielsweise stellt die Nachricht Sie bekommen zwei Drinks zum Preis von einem!, wenn der Nutzer sich gerade in der Nähe einer Bar befindet und eine Vorliebe für Cocktails hat, einen Push- Dienst, also einen proaktiven Service dar Allgemeine Dienste Die Location Based Services kann man prinzipiell in vier Kategorien einteilen: 1.) Sicherheitsbezogene LBS ( safety ): Notfall- und Notrufdienste, Information über Werkstätten, Tankstellen entlang von Verkehrswegen, etc. 2.) Gebührenbezogene LBS ( billing ): location-sensitive-billing (unterschiedliche Tarife an unterschiedlichen Standorten mit dem gleichen Handy z.b. zu Hause oder am Arbeitsplatz) wireless Office, Event billing. 3.) Informationsbezogene LBS: Informationen über bestimmte Lokalitäten, Veranstaltungen, Verkehr etc. Hierbei werden die Anwender z.b. mit einem weiterentwickelten SMS-Informationsdienst ad hoc über den Ausfall einer Veranstaltung informiert. 4.) Positionsübermittelnde LBS ( tracking, positioning ): Lokalisierung von Schiffen und Flottenmanagement ( fleet management ) zur dynamischen Aufnahme neuer Güter, Lokalisierung von Personen ( people positioning ), die an gemeinsamen Freizeitaktivitäten interessiert sind ( Bildung von communities ). In diesem Bereich sind grundsätzlich neue Anwendungsmöglichkeiten zu sehen. Location Based Services bietet eine breite Palette von Dienste in verschiedenen Bereichen. Abbildung 55 zeigt einige LBS-Dienste und ihre Einsatzgebiete

125 125 Abbildung 55: LBS Dienste pro Kategorie [MobilKom 2003] Anwendungsbeispiele In diesem Abschnitt werden wir ein Applikationsbeispiel von indoor location based services vorstellen. Die Applikation eguide, genutzt auf der CeBit 2000 in Hannover, ist ein persönliches Routingsystem auf der Plattform eines Personal Digital Assistant (PDA), das Infrarot als Lokalisierungstechnologie benutzt. Wir werden weitere indoor LBS-Anwendungen präsentieren eguide Das Hauptziel dieser Applikation ist es, einen Besucher in allen Phasen (Vorbereitung, Besuch, nach dem Besuch) zu unterstützen. Einer der Vorteile dieser Applikation ist, dass sie Informationen im elektronischen Format liefert. eguide bietet eine Reihe von Diensten für den Besucher: Suchen eines Weges zu einer Veranstaltung, Information über die Aussteller, Planen einer Personal Tour, Organisieren von Terminen, Navigieren in einem Gebäude, Besuchen des richtigen Meetings, etc. Ein System wie eguide soll den Besucher während der Ausführung seiner aktuellen Arbeit unterstützen. eguide enthält eine alphabetische Suchfunktion, die einen schnellen Zugang zur Ausstellerliste erlaubt. Die Suchfunktion zeigt die Halle mit den Positionen der Aussteller. Zusätzliche Informationen wie Position von Catch-Stellen oder Restaurants können einfach visualisiert werden. eguide bietet auch push advertising und news Services. eguide benutzt die infrarot Technology für die Kommunikation zwischen der broadcast Zelle und dem Endgerät und das XML Format für den Datenaustausch. Die Architektur von eguide basiert auf dem Situation Aware Mobile Assistant (SA- MoA) und dem Personal Interactive Navigator (PIN) Framework. Dieses Framework ist über das Konzept von Task (Struktur und Ziel zu erfüllen), Situation (location management, Nutzer Präferenz, etc.) und Kontext (Information, die sich auf einen bestimmten Task bezieht) aufgebaut. eguide als indoor location based service für kleine Räume war gut bewertet, wurde jedoch aufgrund der Benutzung von Infrarot-Technologien für die Lokalisierung auch kritisiert; die Qualität der Kommunikation wird durch Hindernisse (Person, Objekt, etc.) stark beeinflusst.

126 126 Availability of Location Information Weitere indoor LBS Applikationen Heutzutage existiert zahlreiche indoor LBS Anwendungen auf dem Markt. In der Tabelle 8 werden einige davon gelistet [MEXPRESS 2001] Tabelle 8: Indoor LBS-Anwendungen Erwartungen Der Ortbezogene Dienst ist zurzeit das spannendste Entwicklungsfeld im Bereich der Telekommunikation. Es wird durch solche Dienste mehr Gewinn erwartet. Hier werden wir die Wertschöpfungskette von LBS-Dienste sowie die verschiedenen Marktakteure und ihre Erwartungen vorstellen Die Wertschöpfungskette Die Abfolge der Geschäftsprozesse von LBS (Fall: Geoinformation und Geodienste) ist in der Abbildung 56 gezeigt. Durch die Analyse von LBS Wertschöpfungskette lassen sich neue Geschäft und Wettbewerbsstrategie entwickelt. Abbildung 56: Location Based Services Wertschöpfungskette [LBSMarkt 2003] Die wesentlichen Elemente in der LBS Wertschöpfungskette sind: Network Infrastructure: Hardware/Software für den Betrieb von Mobilfunknetzen Location Services: spezielle Systeme zur Positionsbestimmung von Mobilfunkteilnehmern. Map Data & Content: Geodaten und andere Inhalt LBS Services: elementare Geo-Dienste wie etwa Geocoding, Mapping oder Routing LBS-Applications: Anwendungen für den Endbenutzer Application Portal: Portal, über das ein Nutzer auf LBS und andere Applikationen zugreift Service Provider: Netzzugang zum Portal, inklusive Lokalisierung des Teilnehmers Mobile Terminals: Endgeräte für den mobilen Einsatz

127 Rollen und Abhängigkeiten innerhalb der Wertschöpfungskette Da die zurzeit wohl spannendsten Entwicklungen in der Telekommunikation sich auf dem Feld der Location Based Services vollziehen, stehen die Network Operators nicht allein in der LBS-Arena. Zurzeit ist die Rollenverteilung innerhalb der Wertschöpfungskette unklar, deswegen können die Mobile Operators heutzutage auch meistens die LBS Services anbieten, das wird in Abbildung 57 durch die roten Linien dargestellt. Die Mobile Operators können alleine jedoch nur begrenzt attraktive LBS bieten, neue kleine Spieler wie Content Provider, Location Determination Technology (LDT) Provider, Application Developper, Middleware Provider etc. werden künftig eine große Rolle in diesem Bereich spielen. Es ist klar, dass die meisten der aktuellen Spieler nicht in der Lage sind, allein zu überleben. Einige Operators werden ihren Gewinn mit anderen Spielern teilen (z.b. LBS Provider mit Content Providern). Nur durch eine reibungslose Interaktion von allen Elementen der Wertschöpfungskette kann man dem Benutzer einen operativen LBS zur Verfügung stellen. Abbildung 57: LBS-Marktplayer [Northstream2001] Anbietererwartungen Mit ihrem umfangreichen Dienstspektrum haben Location Based Services tatsächlich das Potenzial, eine breite Nutzerschicht zu erreichen und sinnvollen Mehrwert für die LBS- Dienstanbieter zu generieren. Obwohl sich die LBS noch in einem frühen Entwicklungsstadium befinden, prognostizieren Analysten hohe Umsätze in diesem Markt. Bis 2006 sollen 50% aller Mobilfunknutzer auch Nutzer von LBS sein und nur für das Jahr 2006 wird ein Umsatz von etwas 18,9 Mrd. US Dollar erwartet. Die Netzbetreiber hoffen mit der Einführung der Mobilfunknetze der 3. Generation (Höhere Übertragungsrate) auf innovative Datendienste, die genau die Merkmale einer Killer Applikation d.h. einer mobile Anwendung mit überragendem Markterfolg haben. Die Location Based Services gelten derzeit auch als Killer Application für UMTS. Der Hauptgrund dafür ist, dass die Einführung von UMTS jeden Netzbetreiber und Serviceprovider vor eine ganz wichtige Frage stellt: Welche Anreize kann ich einem heutigen GSM- oder gar schon GPRS-Kunden bieten, damit er möglichst frühzeitig mein UMTS-Kunde wird? Als stärkstes Argument für wechselwillige Kunden in UMTS versorgten Gebieten werden die Anbieter die deutlich höheren Übertragungsraten (etwa 2 Mbit/s) heranziehen. Als neue Dienste, auf Basis dieser hohen Datenübertragungsrate, die den Nutzer zum Umstieg auf UMTS veranlassen, werden letztendlich die Location Based Services eine wichtige Rolle spielen. Die Abbildung 58 und 59 zeigen jeweils das Wachstum von LBS-Nutzern und die geschätzte Einnahme bis zum Jahr Die Angaben sind in Millionen (m = million) gegeben.

128 128 Availability of Location Information Abbildung 58: Wachstum von LBS-Nutzer Abbildung 59: LBS-Einnahme [GC 2002] Erwartungen der Nutzer Das Spektrum möglicher LBS-Dienste ist prinzipiell sehr groß, und die Akzeptanz der potenziellen Nutzer ist grundsätzlich unbekannt. Alle Entwickler und späteren LBS- Anbieter leben also mit der Ungewissheit, ob der Nutzer angebotene LBS-Dienste akzeptiert und viel wichtiger, ob er bereit ist, dafür Geld auszugeben. Um die Anforderungen, die Präferenzen und die Akzeptanz der Anwender herauszufinden, führte ExperTeam im Herbst 2002 eine Internetumfrage durch. Die Umfrageergebnisse basieren auf 360 ausgewerteten Online-Fragebögen. Das Panel umfasst sowohl direkt kontaktierte Spezialisten als auch zufällig beteiligte Privatpersonen und stellt so einen hohen Repräsentationsgrad sicher. Die Auswertungsergebnisse werden in der Abbildung 60 dargestellt. Abbildung 60: LBS-Umfrage Ergebnis [ExperTeam 2002] Entsprechend der Umfrage halten 90% der Befragten die Routenführung (Stau und Störungsinformation) für wichtig. Ein Großteil der Befragten hält die Notrufdienste (75%) und Pannendienste (72%) für bedeutend. Einen niedrigen Stellenwert erhalten Hinweise auf Sehenswürdigkeiten (34%) und die Routenführung zu einen Partner (36%). Bei den Investitionskosten sind 40% der Befragten bereit bis zu 500 Euro für ein LBSfähiges Endgerät auszugeben.

129 Marküberblick deutscher LBS-Dienste Im Folgenden werden wir eine Auswahl der auf dem deutschen Markt verfügbaren LBS- Dienste verschiedener Netzbetreiber und Dienstanbieter vorstellen. T-Mobil, D2-Vodafone, O2, E-plus [ct 2001] sowie Jamba als externe Anbieter stellen über ihre WAP-Portale bereits standortbezogene Dienste bereit. Das Angebot umfasst vor allen Reisedienstleistungen wie Routenplaner, city-guides, Hotel- und Restaurantführer sowie Tankstellenortung. Darüber hinaus bieten die Dienste Hilfe beim Shopping, indem sie den Weg zu den nächstgelegenen Supermärkten und Geldautomaten weisen oder nach Schnäppchen in der näheren Umgebung fahnden. Alles in allem stellen die bisherigen Anbieter allenfalls ein Grundsortiment an standortbezogenen Diensten zur Verfügung [ct 2001]. Tabelle 9: Dienste und Dienstanbieter in Deutschland In der Tabelle 9 sind ein paar angebotene Dienste und die entsprechenden Anbieter dargestellt. Der Dienst t-info bietet abhängig vom Standort eines Benutzer Informationen zu den Themen Reise und Verkehr. Der Dienst Night-Guide bietet standortabhängige Informationen zu Veranstaltungen, Restaurants, Hotel, Taxen, Geldautomaten und Kinoprogramme. NaviGate ist ein dynamisches Navigationssystem, welches Routenplanung mit Stauumfahrung auf Basis aktueller Verkehrsdaten per Graphik oder Sprache beherrscht. Vodafone bietet auch standortbezogene Partner Services in Kooperation mit Partnerunternehmen (ARAL, EDEKA) an, beispielsweise die Suche nach der nächste Aral-Tankstelle oder dem Edeka-Shop Herausforderungen Für den Erfolg von Ortsbezogenen Diensten sollten ein paar Mindestanforderungen erfüllt sein. Die Akzeptanz und die Zukunft solcher Dienste hängt davon ab, wie mit der Information über den Standort eines Dienstnutzers umgegangen wird. In diesem Abschnitt werden wir die LBS-Anforderungen sowie die rechtlichen Rahmenbedingungen für die Dienstnutzung betrachten LBS Anforderungen Um Location Based Services zu realisieren, gilt es, wesentliche Anforderungen zu berücksichtigen: Skalierbarkeit: Je nach Größe des Systems muss eine sehr große Anzahl an Lokalisierungsdaten gespeichert werden. Es sollte also die Möglichkeit bestehen, dass die Komponenten des Systems dies handhaben können. Flexibilität- / Anpassungsfähigkeit: Manche Umgebungen verlangen eine höhere Genauigkeit von Positionsdaten als andere. Insbesondere kann die benötigte Genauigkeit auch im zeitlichen Verlauf schwanken. Es wäre also wünschenswert, dass das System seine Ressourcen flexibel an die Bedürfnisse anpasst.

130 130 Availability of Location Information Sicherheit und Privatsphäre: Ein sehr sensibles Thema bei der Bestimmung der Position eines Benutzers, ist die Frage, in wie weit die Privatsphäre des Anwenders geschützt bleibt. Es muss geklärt werden, wer auf die Daten Zugriff hat. Da wären einmal die Administratoren und Dienstanbieter, die zwar Zugriff erhalten, dennoch sollten auch hier gewisse Beschränkungen gelten. Aber natürlich muss auch eine Abschirmung der Daten gegenüber dem Zugriff von unautorisierten Personen sichergestellt werden Fehlertoleranz: Der Service sollte auch bei Serverausfällen oder ähnlichem noch funktionieren. Es kann durchaus zu einem Qualitätsabfall des Dienstes kommen, doch sollte er immer noch weiter arbeiten. Berücksichtigung der verfügbaren Ressourcen: Je nach Zielplattform können die Hardwarevoraussetzungen sehr unterschiedlich seien. Das System sollte je nach verfügbaren Ressourcen Anpassungsfähig sein und somit auch auf Systemen lauffähig sein, die unterschiedlichste Leistungsmerkmale haben. Antwortzeit: Einige Applikationen verlangen eine schnelle Antwortzeit, um einen möglichst effektiven Dienst anbieten zu können. Auch bei hoher Last muss noch eine Antwortzeit gewährleistet werden können, welche die Bedürfnisse der Anwendung befriedigt Rechtliche Rahmenbedingungen Die Verwendung von Information über den Aufenthaltsort eines LBS-Dienstnutzer für andere Zwecke kann einen großen Nachteil für den Dienstnutzer (Datenschützverletzung) und ein Blockadefaktor für die Zukunft von LBS-Dienste sein. Obwohl die Benutzung der Kundendaten aufgrund der Rechtslage nur in engen Grenzen erlaubt ist, ist es nicht mehr durchschaubar, wie die Daten vermarktet werden und was damit passiert. Die persönlichen Standortdaten dürfen nicht an Dritte weitergegeben werden. Die ermittelten Positionsangaben dürfen lediglich anonym über eine spezielle personenunabhängige Kennung weitergegeben werden. So ist es dem Dienstanbieter nur möglich, den Standort eines Dienstnutzers zu ermitteln, jedoch kann die jeweilige Identität nicht festgestellt werden. Im deutschen Recht gibt es noch keine spezielle Rechtsgrundlage für die Erhebung der Lokalisierungsdaten. Deshalb ist die Einwilligung des Betroffenen notwendige Voraussetzung für die Übermittlung und Nutzung von Standortdaten. Damit verbunden ist eine vorherige und ausreichende Unterrichtung des Nutzers über die grundlegenden Verarbeitungstatbestände der Daten. Nur eine informierte Einwilligung des Nutzers legitimiert die Verarbeitung seiner Standortdaten. Dies kann beim Abschluss eines schriftlichen Vertrages unproblematisch gewährleistet werden. Im Mobilfunk wird man aber im Regelfall die Form der elektronischen Einwilligung mittels Handy wählen, deren Voraussetzungen in 89 Abs. 10 Telekommunikationsgesetz, 4 Telekommunikations- und Datenschutzverordnung geregelt sind. Allerdings ist danach eine Rücknahme dieser Einwilligung innerhalb einer Woche zulässig, sodass auch der Dienst theoretisch erst nach einer Woche angeboten werden könnte. Ein Angebot von LBS in dieser Form ist weder für Kunden noch Anbieter interessant. Die europäische Datenschutzrichtlinie für elektronische Kommunikation (Richtlinie 2002/58/EG vom 12. Juli 2002, s. Nr ) enthält in Artikel 9 eine entsprechende Regelung. Danach sind eine Einwilligung und eine vorherige Mitteilung erforderlich, für welche Zwecke und wie lange Daten verarbeitet werden und ob eine Weitergabe an Dritte erfolgt. Auch eine Rücknahme der Einwilligung für die Zukunft und eine zeitweise Untersagung der Übertragung der Daten muss auf einfache Weise und jederzeit möglich sein. [BFD 2003]

131 Fazit Location Based Services gelten als einer der Wachstumsmärkte der Zukunft. Die Nutzung ortsabhängiger Dienste durch mobile Anwender soll sich laut einer aktuellen Untersuchung rasant entwickeln. Durch die Antwort auf die Frage welche Faktoren für den Erfolg von LBS im Massenmarkt eine wichtige Rolle spielen, werden die Dienstanbieter den Benutzern innovative Dienste zur Verfügung stellen können. Wegen der breiten Palette von LBS-Diensten sollte untersucht werden wo, durch die Integration der Standortinformation, der Nutzen für den Kunden erhöht werden kann. Besonders im den Bereichen Werbung, Information und Sicherheit ergeben sich vielfältige Potentiale. Die Gefahren durch den Einsatz dieser neuen Technologie und deren Anwendungen, sind nicht unerheblich. Neben der ständigen Preisgabe der aktuellen Position und der damit möglichen Aufzeichnungen von Bewegungsprofilen, kann auch der übermäßige Einsatz von LBS den User zur Abschaltung dieser Dienste bewegen. Da die LBS abhängig von Standort sind, kann eine ungenaue Ortung (bei einigen Ortungsverfahren) ein erheblicher Schwachpunkt sein. 6.5 Fazit und Ausblick Die aktuelle Forschung in den Bereichen des Ubiquitous Computing und der Context Aware bzw. Context Sensitive Applications befasst sich zunehmend mit der Ermittlung von Positionsinformationen, die als relevante Größe zur Anpassung von Diensten an die Bedürfnisse des Nutzers identifiziert wurden. Im Zuge dieser Forschungen wurden eine Reihe von Techniken entwickelt, die die Lokalisierung eines Nutzers in verschiedenen Umgebungen und mit unterschiedlichen Genauigkeiten ermöglichen. Eine Reihe der Techniken wurde bereits in verschiedenen Systemen erprobt, andere werden schon in marktreifen Systemen eingesetzt. Durch die neuen Informationen über den Aufenthaltsort eines Nutzers ergeben sich eine Reihe neuer Möglichkeiten, für die Anbieter von Informationen und Diensten. Es entwickeln sich neue Aufgabenfelder und eine Reihe neuer Dienstanbieter, wie Content Provider, Location Determination Provider, Middleware Provider, die sich in die, von den Telekommunikationsgesellschaften dominierten, Bereiche des Marktes drängen. Diese Anbieter haben vor allem im Bereich der Indoor-Lokalisierung gegenüber den großen Telekommunikationsanbietern den Vorteil, dass sie preiswerte Dienste anbieten können, die nicht auf der Infrastruktur der Telekommunikationskonzerne beruhen, sondern alternative Wege der Datenübertragung nutzen können. Durch die Nutzung von Positionsinformation, verbunden mit neuen innovativen Technologien und Diensten, ergeben sich viele neue Möglichkeiten, die zu einem Konkurrenzkampf unter den Anbietern führen. Jeder Anbieter möchte als erster neue Dienste anbieten, die von den Kunden akzeptiert werden und alle Anbieter sind auf der Suche nach der Killer Applikation für den Mobilfunkmarkt. Ein wichtiger Aspekt, der großen Einfluss auf die Akzeptanz der Dienste beim Kunden hat, ist die Privatsphäre des Nutzers. Ein Lokalisierungssystem, das dem Provider die Möglichkeit gibt, Bewegungsprofile von einzelnen Kunden zu erstellen, wird es schwer haben, sich durchzusetzen. Neben Datenschutzerklärungen der Provider wäre ein System, das die Kontrolle über die Lokalisierungsinformationen in die Hände des Kunden legt, wohl das wirksamste Mittel, um eine möglichst hohe Akzeptanz bei den Nutzern zu erreichen.

132 132 Availability of Location Information

133 133 7 DIFFERENTIATION OF SERVICE QUALITY Dieses Dokument gibt einen generellen Überblick auf das Konzept der Dienstqualität, in diesem Zusammenhang wird ein Blick auf die Qualitätsparametern geworfen und ihre verschiedenen Dimensionen in unterschiedlichen Servicebereichen untersucht. Unter diesen verschiedenen Sichtwinkeln wird insbesondere die Dienstqualität in Telekommunikationsnetzen untersucht und die Qualitätsbedingungen in verschiedenen Technologiegenerationen vorgeführt. Dabei wird besonders die 2.5 Generation mit GPRS und die dritte Generation mit UMTS betrachtet. GPRS besitzt einige Qualitätsklassen, die benannt und erklärt werden. Es handelt sich dabei um die Klassen Verlässlichkeit, Dringlichkeit, Verzögerung, Spitzendurchsatz und mittlerer Durchsatz, mit Hilfe dieser Klassen können viele verschiedene Qualitätsprofile erstellt werden. Bei UMTS wird auf die vier verschiedenen Qualitätsklassen eingegangen und auch jeweils ein Beispiel eines Dienstes gegeben. In der Konversationsklasse ist das Beispiel Voice over IP, in der Streamingklasse wird auf Radioübertragung und Videoübertragung eingegangen, in der interaktiven Klasse wird das Web-browsing als Beispiel herangezogen und in der Hintergrundsklasse und SMS. Zu unserem Thema gehören außerdem die Quality of Service (QoS) Regelungen zwischen dem Benutzer und einem Serviceanbieter. Aus diesem Grund wird ein Blick auf Service Level Agreements (SLA) und Service Level Spezifikations (SLS) geworfen. Diese Mechanismen, regeln die Qualitätsbedingungen zwischen Benutzer und Serviceanbieter vertraglich. Das SLA ist dabei der richtige Vertrag und in dem SLS sind die wichtigen technischen Details festgehalten. Eine Einführung in die Messungen der Dienstgüte folgt zum Schluß, denn nur wenn die Dienstgüte gemessen werden kann, kann man nachvollziehen, ob ein SLA eingehalten worden ist. Schlagworte: Qualität, Quality of Service, Dienstgüte, Telekommunikationsdienste, Service Level Agreement (SLA), GPRS, UMTS. 7.1 Einleitung Diese Arbeit befasst sich mit dem Thema Quality of Service, der Dienstqualität. Zunächst wird der Begriff Qualität erklärt, welcher allerdings nicht eindeutig definiert oder standardisiert werden kann. Es gibt nämlich unterschiedliche Definitionen und Sichtweisen von der Qualität. Für Crosby ist Qualität z.b. die Erfüllung von Anforderungen, die DATEV definiert Qualität als Kundenzufriedenheit, während Thaller sie in der Fehlerfreiheit sieht [Thaller 1996]. Am Anfang wird dabei auf den Begriff Qualität eingegangen, und die verschiedenen Parameter vorgestellt. In dem Abschnitt, das von SERVQUAL handelt, wird auch ein System und sein Aufbau vorgestellt, das die Dienstgüte messen kann. Die Qualitätssicherung in den Telekommunikationsnetzen bekommt eine immer größere Bedeutung. Und das nicht ohne Grund, denn die Dienste, die heute in unseren Telekommunikationsnetzen angeboten werden, sind anspruchsvoll und multimedial geworden. Um später auf die verschiedene Telekommunikationsnetze und ihre Qualitätssicherung zu sprechen zu kommen, wird auch ein kleiner Rückblick auf die Geschichte der Tele-

134 134 Differentiation of Service Quality kommunikationsnetze und die verschiedenen Systeme, die dadurch entwickelt wurden, geworfen. Um die Qualität in diesen Telekommunikationssystemen zu sichern, wurden verschiedene Klassen eingerichtet. Unser Diskussionsthema geht genau um diese Klassen, deswegen werden auf den nächsten Seiten die Qualitätsklassen in GPRS und in UMTS erklärt und desweiteren Mechanismen zur Regelung der Dienstgüte betrachtet. 7.2 Parameter der Qualität Eines Dienstes ISO 8402 the totality of the characteristics of an entity which bear on it s ability to satisfy stated and implied needs Nach dieser Definition ist Qualität die Gesamtheit aller Charakteristiken, die die Fähigkeit zur Zufriedenstellung der dargestellten benötigten Erfordernisse ausdrücken. Diese Erfordernisse hängen von dem Kontext ab, in dem die Qualität des Wesens beschrieben wird, wobei dieses Wesen sowohl ein konkretes Objekt (Stoff, Wein, usw.) sein kann oder auch ein dynamisches System bestehend aus Objekten und deren Wechselwirkungen. Ein System wie das letzte entspricht z.b. einem Markt, worauf sich Dienstanbieter und deren Dienste sowie die Kunden befinden. Im Rahmen der Dienstverwaltung wird dann der Begriff der Qualität in die Dienstqualität (Service Quality) eingebracht, die soll als Eigenschaft gelten, und soll die Frage beantworten: Was ist ein guter Dienst? Was ist ein guter Dienst und wie wird er gemessen? Das generelle Konzept des Dienstqualitätsausmasses wurde durch die Arbeit von Parasuraman et al erklärt, in der Beurteilung der Service Quality wurden die folgenden fünf Parameter genannt [Parasuraman 1988]: Reliability (Zuverlässigkeit), Responsiveness (Reaktionsfähigkeit), Assurance (Sicherheit), Empathy (Empathie), und Tangibles (Konkretheit). Sie wurden die Dimensionen der Service Quality genannt, wobei diese Parameter eigentlich aus den 10 folgenden Anfangsparametern bestehen: tangibles (Konkretheit), reliability (Zuverlässigkeit), responsiveness (Verantwortung), communication (Kommunikation), credibility (Glaubhaftigkeit), security (Sicherheit), competence (Kompetenz), courtesy (Höflichkeit), understanding (Verstehen der Kunden), access (Erreichbarkeit). assurance wurde in den zum Schluss dargestellten Dimensionen aus communication, credibility, security, competence, und courtesy aggregiert, wobei understanding und access zusammen empathy bildeten. Abbildung 61: Fünf Dimensionen des Quality of Service [Chadwick 2002] Tangibles bezieht sich auf die konkreten Eigenschaften eines Organisationselements, wie auch oben in der Tabelle genannt, auf die physikalischen Möglichkeiten (Ausrüstung inklusive) und das Verhalten des Personals. Reliability ist ein Maßstab für die korrekten und konsistenten Erfüllungen des gewünschten Dienstes. Zu Responsiveness gehören die Pünktlichkeit in der Dienstbeschaffung und Hilfsbereitschaft für die Kunden.

135 135 Assurance beinhaltet die Breite der Kenntnisse des Angestellten und seine Höflichkeit und Geschicklichkeit bei der Bildung des Vertrauen und Sicherheitsgefühls. Empathy schließlich deutet auf die individuelle Berücksichtigung einzelner Kunden. Diese Parameter können durch objektive Methoden gemessen werden (z.b. Performanz eines Prozesses oder Systems), aber auch durch subjektive (z.b. Kundenempfindung). Mit subjektiven Methoden sind hier die Messungen, die weniger zuverlässig als die objektiven sind, gemeint oder die mit einer schwächeren Vereinbarung zwischen zwei Personen, die denselben Dienst enden. Unter den oben genannten fünf Parametern ist tangibles, wegen seiner physikalischen Charakteristiken, offenbar der objektivste Parameter. Assurance dagegen ist viel mehr subjektiv, denn meistens hängt es von privaten Erfahrungen ab, inwiefern ein Kunde die Kenntnisse und Zuverlässigkeit eines Angestellten einschätzt. Im Rahmen der technologischen Dienste, wie z.b. Dienste, die über mobile Netzwerke angeboten werden, werden die QoS Parameter aber grundsätzlich in 4 Kategorien unterteilt: Priorität: Diese Eigenschaft bezieht sich darauf, wie kritisch ein Dienst ist. Empfangene QoS: Diese Kategorie enthält die Dienstqualitätskriterien wie z.b. Bilddetail, Audioqualität, usw. Kosten: Kosten werden unterteilt in pro-gebrauch Kosten, und pro-einheit Kosten. Z.B. die Kosten, um Zuggriff auf eine Quelle herzustellen, und pro-einheit Kosten, die pro Zeiteinheit entstehen. Sicherheit: Dazu zählen Zuverlässigkeit, Integrität, Authentizität und keine Wiederholung der gesendeten Daten. Alle dieser Charakteristiken basieren auf dem Benutzerempfang. Die Anbieter andererseits können noch die Benutzerbewertungen mit unterschiedlichen Methoden und Techniken überprüfen und dadurch zu richtigeren Schlussfolgerungen über die wirkliche Qualität des Dienstes kommen. (siehe Abbildung 62) Abbildung 62: QoS Parameter [Chalmers 1999]

136 136 Differentiation of Service Quality 7.3 Quality of Service in Mobilen Telekommunikationsnetzen Die Betrachtung der Dienstqualität ist in Telekommunikationsnetzen mit der Zeit gekommen. In diesem Abschnitt werden die mobilen Telekommunikationsnetze betrachtet. Zunächst wird ein kleiner Rückblick auf die Geschichte von mobilen Telekommunikationsnetzen gegeben. Danach wird auf die Dienstqualität eingegangen. Wie im vorherigen Abschnitt dargestellt, setzt sich der Qualitätsbegriff aus den unterschiedlichsten Eigenschaften zusammen. Dem entsprechend, werden in unterschiedlichen Bereichen unterschiedliche Qualitätsansprüche gestellt. Wie in heutigen mobilen Telekommunikationsnetzen Qualität geregt und wie mit ihr gearbeitet wird, wird in diesem Abschnitt vorgestellt Rückblick in frühere Generationen der Telekommunikationsnetze Telekommunikationsnetze gibt es schon seit sehr langem. In 1876 hatte Bell seine Erfindung, das Telefon, patentieren lassen. Damals waren jeweils zwei Telefone mit einem Kabel verbunden. Heutzutage gibt es sogar mobile Telefone und so sind auch die mobilen Telekommunikationsnetze entstanden. Diese Netze veränderten sich mit der Zeit, es gibt verschiedene Generationen von mobilen Telefonen in Telekommunikationsnetzen. 1G Erste Generation mobile Telefone:1946 gab es das erste Autotelefon, und in den 50er Jahren wurden sie immer häufiger eingesetzt. Die Systeme, die sich in den Autotelefonen befanden, waren als push-to-talk-systems bekannt, denn jedes Mal, wenn man sprechen wollte, musste man einen Knopf drücken, der den Empfänger vorübergehend stoppte, damit man selbst sprechen konnte. Sie waren allerdings alle noch analog. 2G Zweite Generation mobile Telefone: In der zweiten Generation gab es schon digitale Systeme, das heißt, dass die Stimme digital übertragen wurde. Die bekanntesten Systeme waren D-AMPS (Digital-Advanced Mobile Phone Systems) in den USA, GSM (Globalsystem for Mobile Communications) in dem Rest der Welt, PDC (Personal Digital Communication) in Japan, welches eine Abwandlung von D-AMPS war und CDMA (Code Division Mode Access), welches sich damals noch nicht richtig durchsetzten konnte, aber die Basis für 3G-Netze ist. In 2G-Netzen ist noch kein Quality of Service vorgesehen gewesen. 3G Dritte Generation mobile Telefone: Digitale Sprache und Daten sind die Stichwörter für die dritte Generation, die auch näher betrachtet werden soll, vor allem das UMTS (Universal Mobile Telecommunications System), das in dieser Generation verwendet werden soll. 2.5G mobile Telefone: Da es dauerte und noch heute dauert bis 3G vollständig einsatzfähig war, ist in Europa ein 2.5 G Netz entstanden. Hier ist GPRS (General Packet Radio Service) sehr wichtig. Es bildet ein Zwischenstopp bis 3G an den Start geht Quality of Service in Telekommunikationsnetzen Heutige Anwendungen werden immer komplexer. Früher war es nur die Sprache, die übertragen werden musste, heute sind es meist multimediale Inhalte. Und während diese Inhalte immer größer werden, werden aber mit der Zeit kürzere Antwortzeiten erwartet. Auch die Technologien gehen in diese Richtung, wie bei der kurzen Vorstellung der mobilen Telekommunikationsnetze erläutert wurde. Es ist jetzt schon so weit, dass Videos online übertragen werden können. Aus diesem Grunde werden an die 2.5 G-Netze, oder 3G-Netze bestimmte Anforderungen gestellt.

137 137 Die Dienste, die in den Netzen angeboten werden, sollten mit einer bestimmten Qualität gezeigt werden. Eine , die abgeschickt wurde, muss ankommen, ein Telefongespräch, das geführt wird, muss eine gute Übertragungsqualität haben. Die Kunden erwarten für die Dienste, die sie angeboten bekommen, auch dass sie mit Sicherheit zu ihrer Zufriedenheit ausgeführt werden. Bevor auf die verschiedenen Qualitätsklassen in den verschiedenen Netzen eingegangen wird, sollen Mechanismen vorgestellt werden, die dem Kunden die versprochene Dienstgüte liefern Service Level Agreement (SLA) In Folge, dass die Anzahl der Service-Provider auf dem Markt gewachsen ist, und die Netzwerkinfrastruktur stark verbessert wurde, ist der Wettbewerb unter den Service- Providern größer geworden. Aus diesem Grunde ist die Service-Qualität zu einem starken Entscheidungsfaktor für oder gegen einen Service-Provider geworden. Um die Service-Qualität zu regeln, ist das Service-Level-Agreement (SLA) eingeführt worden. Verschiedene IT-Dienste werden den Geschäftskunden oder Privatkunden angeboten. Um ein bestimmtes Service-Niveau einzuhalten, werden Vereinbarungen getroffen, die im SLA festgehalten werden. Ein SLA ist ein Qualitätsgarantievertrag zwischen dem Provider und dem Dienstnutzer, mit dessen Hilfe ein Dienstnutzer eine Rückvergütung oder eine andere Entschädigung bekommen kann, falls der Provider die Leistungsgarantien nicht einhalten kann. Andererseits dient es auch als eine Erinnerung für den Provider, immer seine versprochenen Leistungen anzubieten. In einem SLA werden die Maße wie, Bandbreite und Zuverlässigkeit, die ein Dienst erbringen muss, festgehalten. Es können auch verschiedene SLA für verschiedene Kunden abgeschlossen werden. Oft wird die Service-Qualität eng an die finanziellen Kosten gekoppelt. Zum Beispiel zahlen Geschäftskunden viel mehr Geld, erhalten aber auch ein höheres Service-Level, als beispielsweise ein Privatkunde. Die Parameter zur Durchführung der Messung, wie die jeweils benötigten Messwerte, Genauigkeit der Messung, Messintervall, etc. können dabei für verschiedene Tarife, Dienstklassen, Kundentypen, Tageszeiten oder andere Faktoren variieren. Viele der Parameter lassen sich aus dem zwischen Kunden und Provider vereinbarten Service Level Agreement (SLA) ableiten. Die kritische Aufgabe des Service-Providers ist der SLA einzuhalten. Die Dienstgüteunterstützung wird von Nutzern gewünscht, weil heutzutage Anwendungen sehr große Anforderungen haben. Informationen, die in einem SLA zwischen zwei Netzbetreibern stehen, sind der Verkehrtyp, das Verkehrsvolumen und die Dienstgüte, welche separat in der Service Level Spezifikation festgehalten werden Service Level Specification (SLS) Das SLS steht in sehr engen Zusammenhang mit dem SLA. Ein SLS ist sozusagen in einem SLA enthalten. Die rein technischen Daten werden hier festgelegt, auf die das SLA dann zurückgreifen kann. Es sind die Daten, die festsetzen, welche Parameter für eine Dienstgüteermittlung gemessen werden müssen. Für eine Messung der Dienstgüte werden die Informationen, die im SLA, genauer im SLS liegen, gebraucht. In dieser Spezifikation liegen nicht nur die Parameter, die gemessen werden müssen, sondern im SLS können auch die Verfahren, die bei der Messung genommen werden sollen, definiert sein. Zu einer Ermittlung der momentanen Dienstgüte werden permanente Messungen notwendig. Wie diese Messungen aussehen sollten, wird ganz am Ende des Abschnitts erklärt.

138 138 Differentiation of Service Quality Quality of Service - Klassen in 2.5G GPRS ist eine neue, noch schnellere Datenübertragung in der Mobilfunktechnologie. Sie hat GSM abgelöst, dennoch ist GSM die Basis, auf der GPRS aufbaut. GSM schafft eine Datenrate bis zu 14kbit/s, deswegen ist es für Datenübertragung zu langsam und ineffektiv. Das neue im Gegensatz zu GSM ist, dass jetzt Datenpakete mit paketvermittelter Datenübertragung verschickt werden. Das bringt höhere Datenraten (bis 115kbit/s) und es ist möglich ständig online zu sein. Während GSM immer einen Kanal belegte, ist mit GPRS und der Paketvermittlung nicht dauerhaft ein Kanal wegen einer Verbindung belegt. Dadurch ist es besser für multimediale Anwendungen geeignet. Gerade diese Anwendungen sind für die Benutzer immer interessanter geworden. Heutzutage geht viel Kommunikation via , viele Informationen werden aus dem Internet geholt. Und gerade für diese Anwendungen eignet sich GPRS. Mit GPRS wird alles schneller, effizienter und bequemer. In GPRS sind fünf Quality of Service Eigenschaften definiert; die Verlässlichkeit, die Verzögerung, die Dringlichkeit, der Durchschnittsdurchsatz und der Spitzendurchsatz. Aufgrund dieser fünf Klassen kann man viele verschiedene Profile kombinieren Reliability Class Verlässlichkeitsklasse In der Verlässlichkeitsklasse werden die Wahrscheinlichkeiten von den Fehlern Paketverlust, korrupte Pakete, duplizierte Pakete und Pakete außerhalb der Reihenfolge festgesetzt. Es gibt 3 Verlässlichkeitsklassen, um die Qualität in der jeweiligen Klasse einzuhalten. Das heißt, dass für die vier Möglichkeiten die unten beschriebenen Fehlerraten jeweils den maximalen Wert definieren. Um die gewählte Verlässlichkeit zu erreichen, darf die Fehlerrate für den jeweiligen Fehler nicht über dem definiertem Wert liegen. Wahrscheinlichkeit von Datenverlust Wahrscheinlichkeit von fehlerhaften Daten Wahrscheinlichkeit für mehrfacher Übertragung von Datenpaketen Wahrscheinlichkeit für die Paketübertragung außerhalb der Paketreihenfolge Verlässlichkeitsklasse Verkehrstyp fehlerempfindlich, verlustempfindlich fehlerempfindlich wenig verlustempfindlich nicht fehlerempfindlich nicht verlustempfindlich Tabelle 10: Verzögerungsklassen bei GPRS-Diensten Precedence Class Dringlichkeitsklasse Die Dringlichkeitsklassen sind in drei Unterklassen aufgeteilt. Hier wird dem GPRS- Netzwerk die Möglichkeit gegeben, für die Dienste verschiedene Prioritäten zu setzen. Die Dringlichkeit ist ein wichtiger Parameter, in jeder Situation müssen die Übertragungsparameter eingehalten werden. (siehe Tabelle 11) Dringlichkeitsklasse Bezeichnung Vorgangsweise 1 Hohe Priorität bevorzugt vor Klasse 2 und 3 2 normale Priorität bevorzugt vor Klasse 3 3 niedrige Priorität nicht bevorzugt Tabelle 11: Dringlichkeitsklassen bei GPRS

139 Delay Class Verzögerungsklasse Diese Klasse wird selber wieder in 4 Verlässlichkeitsklassen aufgeteilt. Dabei werden die Durchgangszeiten and den GPRS-Zugangspunkten gemessen und die Verzögerung festgehalten. Falls die Qualität in den einzelnen Klassen eingehalten werden muss, darf die Verzögerung nicht, die unten aufgelisteten Werte überschreiten. (siehe Tabelle 12). Verzögerungsklassen mittlere Verzögerung 128Byte-Paket Maximale Verzögerungszeiten 95% - Verzögerung mittlere Verzögerung 1024Bate-Paket 95% - Verzögerung 1 0,5s 1,5s 2s 7s 2 5s 25s 15s 75s 3 50s 250s 75s 375s 4 unbestimmt unbestimmt unbestimmt unbestimmt Tabelle 12: Verzögerungsklassen bei GPRS-Diensten Peak Class Spitzendurchsatzklasse Hier wird die maximale Durchsatzrate definiert, dabei wird nicht garantiert, dass diese Rate tatsächlich erreicht wird. Die tatsächliche Datenrate kann vom GPRS- Netzbetreiber durch die so ausgehandelte Spitzendurchsatzrate eingegrenzt werden - unabhängig davon wie groß die Übertragungskapazität tatsächlich ist. Dazu sind neun verschiedene Klassen definiert (siehe Tabelle 13) Spitzendurchsatzklasse Spitzendurchsatz in Byte/s Spitzendurchsatz in kbit/s 1 < < < < < < < < < Tabelle 13: Spitzendurchsatzklasse in GPRS-Diensten Meanthrough Class Durchschnittsdurchsatzklasse Das gleiche geschieht mit dem Durchschnittsdurchsatz. Dabei gibt es insgesamt 19 verschiedene Klassen. Hier handelt es sich um die Durchschnittsraten und die erste Durchschnittsklasse ist die Best-Effort-Klasse. Hier stehen einem Betriebsmittel zu, wenn sie benötigt werden und auch verfügbar sind. Die anderen nieder-ratingen (z.b Klasse 3) Dienste sind für Telemetriedienste relevant. (siehe Tabelle 14)

140 140 Differentiation of Service Quality Mittlere Durchsatzklasse Mittlerer Datendurchsatz in Byte/Stunde 1 Best effort ( ~ 0.22 bit/s) ( ~ 0.44 bit/s) ( ~ 1.11 bit/s) ( ~ 2.2 bit/s) ( ~ 4.4 bit/s) ( ~ 11.1 bit/s) ( ~ 22 bit/s) ( ~ 44 bit/s) ( ~ 111 bit/s) ( ~ 0.22 kbit/s) ( ~ 0.44 kbit/s) ( ~ 1.11 kbit/s) ( ~ 2.2 kbit/s) ( ~ 4.4 kbit/s) ( ~ 11.1 kbit/s) ( ~ 22 kbit/s) ( ~ 44 kbit/s) ( ~ 111 kbit/s). Tabelle 14: Durchsatzklasse in GPRS-Diensten Quality of Service Klassen und Dienste in 3G 3G Netze sind Netze, die auf UMTS aufbauen, bei denen Übertragungsraten von 144kbps bis zu 2Mbps erreicht werden und damit multimediale Inhalte leicht übertragen werden können. Der Vorteil von UMTS gegenüber GMS ist die vier- bis fünfmal so hohe Netzkapazität, die hohen Datenraten, die nach Bedarf dynamisch geändert werden können. Der Verbindungsaufbau wird schneller und sicherer und die Reichweiten zwischen zwei Handies immer größer. Ein weiterer Aspekt, der sehr wichtig ist, ist die Unterstützung neuer Dienste mit hoher Dienstgüte. Hier gibt es vier Quality of Service - Klassen. Jede der vier Klasse hat bestimmte Übertragungseigenschaften und wird für bestimmte Dienste genutzt. Alle diese vier Klassen sind in der Anwendungsschicht untergebracht Conversational class - Konversationsklasse Diese Klasse ist für hochqualitative Sprach-Übertragung. Anwendungen, wie Telefonieren fallen in diese Klasse. Hier sind Verzögerungen unerwünscht, denn Sprache ist sehr verzögerungsempfindlich. Unser Ohr ist im Vergleich zum Auge zeitlich wesentlich empfindlicher [Klerx 2000]. Verzögerungsfehler in einem Video sind viel leichter zu verkraften, als in der Sprache. Aber nicht nur die Verzögerungszeiten müssen sehr klein sein, sondern, es darf auch nur geringe Schwankungen in der Übertragungsrate geben. In dieser Klasse werden die Quality of Service -Anforderungen mit einer Wahrscheinlichkeit bis zu 95% garantiert. Die Fehler, die jetzt noch passieren können, sind sehr klein und können verkraftet werden Streaming class - Streamingklasse In dieser Klasse sind Anwendungen, die Echtzeit-Streaming brauchen, aber nicht in die Konversations-Klasse fallen. Dazu gehören beispielsweise Radioübertragungen oder Videoübertragungen. Video-on-demand ist eine wichtige Anwendung, um Videosequenzen über das Telekommunikationsnetz sofort zum Anschauen zur Verfügung zu stellen.

141 141 Das ist eine Echtzeitanforderung, denn der Benutzer muss den Film ohne Verzögerung und Wartezeit sehen können. Auch hier ist es wichtig, nur kleine Verzögerungszeiten zu haben, denn kleine konstante Zeitverzögerungen sind nicht weiter schlimm für die Qualität der Anwendung. Dennoch wird eine konstante Übertragungsrate gefordert Background class Hintergrundübertragungsklasse In dieser Klasse findet man Anwendungen wie z.b. , oder SMS (Short Message Service). Die Echtzeit spielt auch dabei keine Rolle; im Gegenteil, diese Anwendungen sind sogar unempfindlich gegen Zeitverzögerungen. Die Klasse hat auch daher ihren Namen Hintergrundübertragungs-Klasse, weil deren Anwendungen auch im Hintergrund ausgeführt werden können. QoS-Klasse Interactive class Interaktivklasse Die Interaktiv-Klasse legt nicht so viel Wert auf die Echtzeit-Unterstützung. Eine konstante Übertragungsgeschwindigkeit ist also nicht nötig. Ein Beispiel hierfür wäre das Internetsurfen. Bei dem Fall ist es nicht so wichtig, dass die Daten sofort verfügbar sind. Dem Benutzer werden so viele Ressourcen zugeteilt, wie gerade frei sind. Ist nichts frei, muss gewartet werden, der Benutzer ein paar Verzögerungen verkraften. Hier läuft es sozusagen nach dem best-effort Prinzip. Aus diesem Grund ist diese Klasse fehlerempfindlich. Übertragungsverzögerung Änderung der Übertragungsverzögerung Fehlerempfindlichkeit Gesicherte Übertragungsrate Konversational Nicht erlaubt Nicht erlaubt Gering Erforderlich Streaming Beschränkt erlaubt Beschränkt erlaubt Gering Erforderlich Interaktive Nicht relevant Nicht relevant Hoch Nicht relevant Hintergrund Nicht relevant Nicht relevant Hoch Nicht relevant Tabelle 6: Überblick über die vier Qualitätsklassen Es gibt die verschiedensten Dienste, die mit diesen QoS-Klassen abgedeckt werden. Die Anwendungen, die UMTS ermöglicht, sind sehr verschieden. Dazu zählen vor allem Internetsurfen, Musikübertragungen, Spiele, Video Clips, Videokonferenzen, dienste, SMS, MMS, Online Banking, Informationsdienste und vieles vieles mehr Dienste in der Konversationsklasse Ein populäres Beispiel bildet das Voice Over IP. Was der Benutzer von diesem Dienst erwartet, ist, dass er mit dem anderen Gesprächspartner telefonieren kann und zwar solange er will. Der Aufbau und das Beenden der Verbindung sollen dann auch von dem Benutzer bestimmt werden. Während des Gespräches soll die Verbindung auch nicht unterbrochen werden. Um diesen Dienst benutzerfreundlich zu machen, soll außerdem der Verbindungsaufbau an sich schnell sein. Wenn die Verbindung erstellt worden ist, muss der Durchsatz genügend hoch sein. Dies ist ein wichtiger Qualitätsparameter; der Durchsatz legt fest wie viele Bits oder Bytes pro Sekunde übertragen werden. Noch viel wichtiger ist der Jitter, dieser stellt die Abweichung der Übertragungszeit vom Mittelwert dar. Die Abweichungen dürfen nicht größer als 20-30ms sein, sonst werden große Qualitätseinbußen eintreten. Das menschliche Gehör empfindet diese Abweichungen als sehr störend und ab einer bestimmten Abweichung sogar als nicht annehmbar.

142 142 Differentiation of Service Quality Auch die Übertragungsverzögerung ist ein wichtiges Kriterium. Wenn die Verzögerung so hoch kommt, endet es auch hier in großen Qualitätsverlusten. Der Benutzer hört dann immer erst viel später, was sein Gesprächspartner gesagt hat und kann nicht mehr auf das aktuelle reagieren, da es für den anderen Teilnehmer schon lange vorbei ist. Gerade beim Telefonieren ist der Vorteil, dass wir an bestimmten Stellen einhaken und unsere Meinung dem anderen mitteilen können. Bei großen Verzögerungen ist dies aber nicht mehr möglich. Das Gespräch wird kompliziert. Die Gesprächsteilnehmer werden genervt und legen als Folge davon auf. Das will der Provider unter allen Umständen vermeiden, denn er will mit diesem Dienst Geld einnehmen, oder den Kunden zufrieden stellen, der sonst vielleicht den Provider wechselt Dienste in der Streamingklasse Dateien, die Musik oder Filme enthalten, sind im Allgemeinen sehr groß. Um trotzdem in der Lage zu sein, Filme oder Musik an einen Empfänger mit beispielsweise langsamer Verbindung zu verschicken, werden die Daten erst einmal komprimiert. Danach werden sie über einen speziellen Server verschickt. In diesem Fall ist es ein Streaming-Server, der eine Verbindung zum Client öffnet und den Medienstrom ungefähr in der Abspielgeschwindigkeit zu senden beginnt. Der Client empfängt die Daten und beginnt die Dateien zu dekomprimieren. Nach der Dekomprimierung wird der Datenstrom abgespielt. Es kann sein, dass er nicht sofort abgespielt wird, sondern es erst zu einer kleinen Verzögerung kommt, da es sonst eventuell mitten beim Abspielen zu Verzögerungen kommen kann. Von Vorteil ist es dabei, dass der Film oder die Musik nicht heruntergeladen werden muss, dies spart natürlich am Speicherplatz. Außerdem kann man Dinge hören oder sehen, in dem Moment, wann sie passieren. Es ist möglich, mehrere Clients gleichzeitig zu bedienen, denn mehrere Clients können mit dem Server Verbindung aufnehmen. So ist es möglich, viele Clients gleichzeitig zu erreichen, wie beispielsweise bei Radioübertragungen und Fernsehübertragungen. Um solche Multimedia-Streaming-Dienste anzubieten, müssen Protokolle eine reibungslose Zusammenarbeit gewährleisten und die Dienstgüte muss gesichert werden. Die Durchsatzrate ist sehr wichtig, denn sie bestimmt z.b. die Anzahl der Bilder pro Sekunde. Der Jitter ist auch hier ein wichtiger Parameter, auch hier muss man daran denken, dass das Ohr verzögerungsempfindlicher als das Auge ist. Bei einem Video ist auch die Farbtiefe ein Parameter, dieser kann aber natürlich bei Audioübertragungen vernachlässigt werden Dienste in der Interaktivklasse Web-Browsing ist ein Dienst, der in der interaktiven Klasse angeboten wird. Um das Internetsurfen so angenehm wie möglich für den Benutzer zu machen, sollten Seiten so schnell wie möglich zu sehen sein, bzw. sollen sie verfügbar sein. Obwohl für den Nutzer die Übertragungsgeschwindigkeit eine große Rolle spielt, ist es nicht schlimm wenn die gewünschte Seite eine Verzögerung von ein paar Millisekunden oder Sekunden hat. Natürlich ist es unzureichend, wenn man sehr lange warten muss, bis die Seite geladen ist. Dennoch werden keine konstanten Übertragungsgeschwindigkeiten gebraucht. Wenn die Seite am Anfang so schnell wie am Ende geladen wird, kommt es zu keinem Qualitätsverlust, denn die Seite kann, wenn sie vollständig aufgebaut worden ist, gelesen werden. Während des Aufbaus werden keine wichtigen Daten für den Benutzer gesendet.

143 143 Dies gilt jedoch nicht für Internet-Radio beispielsweise, denn da braucht man konstante Übertragungszeiten. Es muss dafür gesorgt werden, dass alle Pakete, die vom Server zum Client verschickt wurden, auch ankommen; Paketverluste und fehlende Inhalte sind schließlich nicht erwünscht Dienste in der Hintergrundsklasse Die Dienste in der Hintergrundsklasse werden sozusagen im Hintergrund ausgeführt. Die SMS, die , oder die MMS muss verschickt werden, aber es ist egal, wann der Auftrag ausgeführt wird, wobei je schneller desto besser. Ein schnelles Service stellt den Kunden zufrieden. Eine MMS, SMS oder muss den Empfänger erreichen und zwar mit allen Anhängen und Formatierungen. In der folgenden Abbildung sieht man die maximalen Zeitverzögerungen und die maximalen Datenverlustraten im Zusammenhang. Abbildung 63: Zusammenhang zwischen Datenverlust und Zeitverzögerung [UMTSlink 2004] Dienstgüte messen IEEE- A quantitative measure of the degree to which a system, component or process posesses a given attribute Nach der oben genannten Definition ist eine Metrik, eine quantitative Zuordnung eines Attributes zu einem System, einer Entität oder einem Prozess, um ein spezifisches Attribut zu charakterisieren. In den Netzen 2.5G und 3G wurden Quality of Service -Klassen eingerichtet, um die Qualität eines Dienstes zu sichern. Auch wurde beschrieben, wie Provider und Kunde Dienstgüte-Verträge in Form von SLA abschließen können. Das nützt jedoch alles nichts, wenn man zwar weiß, was gemessen werden soll, aber nicht weiß, wie es gemessen werden soll. Dafür müssen Verfahren und Algorithmen ausgedacht werden, um die Dienstgüte messbar zu machen. Die Dienstgüte muss überwacht werden, um sie später abrechnen zu können. Mit Hilfe von Metriken wird das geschafft, wobei verschiedene Metriken verschiedene Größen messen können. Jede Dienstklasse braucht ihre eigenen Metriken und Verfahren. Diese Messverfahren müssen in allen Komponenten des Netzes implementiert werden, um die verschiedenen Größen überall messen zu können. Diese Daten werden z.b. für die Abrechnung verwendet.

144 144 Differentiation of Service Quality Für das Überwachen der Dienstgüte wird auch eine sogenannte Management Policy eingeführt. Bei Unterschreitungen des Qualitätsniveaus werden Korrekturmechanismen ausgelöst. Auch der Benutzer kann da einwirken, indem er beispielsweise die Bildauflösung heruntersetzt. Aus den verschiedenen Messungen kann man ein ungefähres Lastverhalten herauslesen. Dieses Lastprofil muss alle abgeschlossen SLA erfüllen. Falls das nicht der Fall ist, können Vertragstrafen für das Nichteinhalten der SLA drohen. Aus diesem Grund werden Richtlinien für alle Dienstklassen erstellt. 7.4 Fazit und Ausblick In dieser Ausarbeitung handelte es sich um Quality of Service, d.h. die Qualität eines angebotenen Dienstes. Als Einführung zum Thema wurde zunächst der Begriff Qualität definiert und auf seine Bedeutung im Rahmen unterschiedlicher Dienstfelder eingegangen. Diese wurden durch Vorstellung von Qualitätsparametern verwirklicht. Der Schwerpunkt unserer Diskussion lag aber auf QoS in Telekommunikationsnetzen. Dabei wurden einige Konzepte, wie z.b. SLA, aus dem Gebiet erklärt. Die verschiedenen Qualitätsklassen in den verschiedenen Generationenmobilnetzen wurden vorgestellt. Näher betrachtet wurden da GPRS und UMTS. Während die Beiträge neuer Generationen in die mobile Telekommunikation im Vergleich mit den älteren betont wurden, wurden die entsprechend kommenden Dienste vorgeführt. In dieser Betrachtung wurden auch die UMTS Dienste vorgestellt, von denen viele Kunden nur träumen wie z.b. online Videoschau, unkomplizierte Kommunikation via , MMS und SMS. Alle werden durch eine High-Speed- Verknüpfung von Mobilfunk und Internet, die mit UMTS entstehen wird, realisierbar. Durch die hohen Datenraten werden weiter wahrscheinlich neue Kommunikationsformen entwickelt. Es besteht aber natürlich das Risiko, ob die neuen Technologien von den Kunden angenommen werden. Die Zeit muss schließlich zeigen, ob diese sich durchsetzten können werden.

145 145 8 FULFILLMENT OF QOS Die folgende Ausarbeitung Technische Realisierung von Dienstgüte in Netzwerken wurde im Rahmen des Seminars Dienste und Anwendungen in der Telekommunikation und Informationstechnologie im Wintersemester 2003/04 an der Technischen Universität Berlin erstellt. Es wird eine kurze Einführung in das Themengebiet gegeben, in der der Begriff Dienstgüte definiert und die zugehörigen Parameter identifiziert werden. Im Anschluss werden verschiedene Verfahren untersucht, wie Dienstgüte in IP-Netzen bereitgestellt werden kann. Dazu werden zuerst Algorithmen untersucht, die auf lokaler Ebene, d.h. in bestimmten Netzwerkkomponenten, den Datenverkehr so formen und weiterleiten, dass eine Verbesserung bezüglich der zu erzielenden Dienstgüteparameter erreicht wird. Es werden empfängerseitige (Pufferung) und senderseitige (Token- und Leaky-Bucket-Algorithmus) Verfahren sowie routerinterne Scheduling-Algorithmen besprochen. Anschließend wird auf die verschiedenen Architekturen eingegangen, welche aufbauend auf diesen Algorithmen verschiedene Ansätze zur Bereitstellung von Dienstgüte in komplexen Netzwerken realisieren. Dieser Abschnitt bildet aufgrund der teilweise recht hohen Komplexität dieser Architekturen den Hauptteil dieses Dokuments. Zu den besprochenen Architekturen gehören die sogenannten Differentiated und Integrated Services (DiffServ und IntServ) sowie das Multiprotocol Label Switching (MPLS). Im Abschnitt Integrated Services wird außerdem die Arbeitsweise des von dieser Architektur als Signalisierungsprotokoll verwendeten Resource Reservation Protocols (RSVP) beleuchtet. Dabei werden die verschiedenen Ansätze, die diese Architekturen verfolgen, sowie die Art der technischen Realisierung vorgestellt. In diesem Zusammenhang werden auch Beispiele gegeben, welche für das in Abschnitt 8.3 vorgestellte Verfahren für den Einsatz in der jeweiligen Architektur geeignet ist. Abschließend werden jeweils Vorund Nachteile kurz diskutiert. Der letzte Abschnitt bietet einen kurzen Überblick über die Möglichkeiten, Dienstgüte quantitativ und qualitativ zu messen. Abgeschlossen wird die Arbeit durch ein Resümee und einen kurzen Ausblick, welche weitere Entwicklung in diesem Technologiefeld zu erwarten ist. Schlagworte: Dienstgüte, Integrated Services (IntServ), Differentiated Services (Diff- Serv), Resource Reserveration Protocol (RSVP), Multiprotocol Label Switching (MPLS). 8.1 Einleitung Die Bedeutung und Einsatzbreite von Netzwerken hat in den letzten Jahren stark zugenommen. Ein Ende des exponentiellen Wachstums des Internet ist noch nicht abzusehen, und in dessen Umfeld entstehen immer vielseitigere und leistungsfähigere Anwendungen. Dies gilt in gleichem Maße für Netzwerke, die Teil von Unternehmensinfrastrukturen sind; zum Beispiel Virtuelle Private Netzwerke (VPNs) und Intranets. Parallel zu der steigenden Zahl von Endanwendern wächst die Nachfrage nach multimedialen Inhalten. Audio- und Videokonferenzen, Video-on-Demand und Telefonie (Voice-over-IP) sind nur einige Beispiele einer neuen Generation von modernen Anwendungen, die von Service-Anbietern für Endnutzer bereitgestellt werden. Jedoch besteht zum Teil noch eine erhebliche Diskrepanz zwischen den hohen Anforderungen von Multimedia- Anwendungen bezüglich Qualität und Verfügbarkeit und den Möglichkeiten der heutzu-

146 146 Fulfillment of QoS tage im Einsatz befindlichen Technologie, diese sicherzustellen. Abbildung 64: Dienstgüte in IP-Netzwerken Zum Teil ist diese Technologie nicht mehr in der Lage, die hohen Qualitätsansprüche zu erfüllen. Ein Grund hierfür ist, dass Hardwarekomponenten und Protokolle, die für die bisherigen Anforderungen geeignet waren, keine ausreichende Unterstützung für die Ü- bertragung von zeitkritischen Datenpaketen bereitstellen. Dies gilt in besonderem Maße für fast alle Arten von Echtzeitanwendungen. Als Beispiel hierfür sei die heutzutage vielfach nicht zufriedenstellende Qualität bei Audio-/Video-Streaming über das Internet genannt. In dem folgenden Vortrag werden wir einen Überblick über verschiedenen Verfahren und Architekturen geben, die es ermöglichen, die Dienstgüte für diese kritischen Anwendungen zu garantieren. Dabei werden wir uns auf die Untersuchung von IP- Netzen konzentrieren, da dies diejenige Netzwerkinfrastruktur ist, bei der die größten Schwierigkeiten bei der Sicherstellung von Dienstgüte auftreten. 8.2 Anforderungen an die Dienstgüte Die International Organization for Standardization (ISO) definiert Dienstgüte als A set of qualities related to the collective behavior of one or more objects (ISO 9000: 2000). Diese sehr allgemeine Definition erscheint für unsere Zwecke ungeeignet. Eine weitere Definition der International Telecommunication Union (ITU) Dienstgüte bezeichnet als collective effort of service performances which determine the degree of satisfaction of a user of the service (ITU-T E.800). Diese sehr benutzerzentrierte Definition ist insofern erwähnenswert, da die Zufriedenheit des Benutzers mit einem Dienst ein subjektiver, lediglich empirisch messbarer Parameter ist. Nichtsdestotrotz ist diese subjektive Beurteilung von großer Bedeutung schließlich bestimmt sie in nicht unerheblichen Maße den Preis, den ein Benutzer für den Dienst zu zahlen bereit ist, und ihr wird oft zuwenig Beachtung beigemessen. Wir werden uns auf leistungsspezifischen Parameter von Datenflüssen in Netzwerken beschränken und folgen Tanenbaum [Tanenbaum 2003], der

147 147 Dienstgüte als eine Aggregation der vier primären Parameter Zuverlässigkeit, Übertragungsverzögerung, Jitter und Bandbreite definiert [Tanenbaum 2003]. Dienstgüteparameter Zuverlässigkeit Übertragungsverzögerung Jitter Bandbreite Erklärung Prozentualer Anteil korrekt zugestellter Pakete Durchschnittliche Ende-zu-Ende-Übertragungszeit eines Pakets Standardabweichung der Paketankunftszeiten (große Unterschiede in den Übertragungszeiten bedeutet hohen Jitter) Durchschnittlich benötigte Bandbreite für die Übertragung in Mbit/s Tabelle 15: Dienstgüteparameter Klassifizierung der Dienstgüte Möchte ein Dienstnutzer eine bestimmte Dienstgüte erreichen, so handelt er mit dem Netzbetreiber diese Parameter aus. Das Ergebnis dieses Verfahrens wird als Dienstgütevereinbarung (Service Level Agreement, SLA) bezeichnet. Es gibt keine standardisierte Definition dieses Begriffs; die Aushandlung kann z.b. sowohl von der Sender- (z.b. bei Push-Diensten) als auch vom Empfänger initiiert werden (dies ist zum Beispiel beim Resource Reservation Protocol (RSVP) der Fall, das wir in Abschnitt 8.4 eingehender untersuchen werden). Hat man bezüglich dieser Parameter die Anforderungen festgelegt, kann man die Dienstgüte diesbezüglich in verschiedene Klassen unterteilen. Eine solche Klassifizierung ermöglicht bei lokalen Routing-Entscheidungen die Behandlung von Datenpaketen nach ihrer jeweiligen Klasse Bestmögliche Klasse Diese Klasse, die auch als Best-Effort bezeichnet wird, stellt die niedrigste Dienstgüteanforderung dar. Best-Effort bezeichnet das Bestreben, mit den vorhandenen Ressourcen so effektiv umzugehen wie möglich. Dies ist eine typische Klasse von verbindungslosen Netzen wie dem Internet. Es werden keine Ressourcen reserviert, und es können keine Zusagen bezüglich der Erfüllung der Dienstparameter gemacht werden Statistische Klasse Statistische Dienstgüte bedeutet, dass lediglich statistische Aussagen über die vereinbarten Dienstgüteparameter getroffen werden können. Ein Beispiel wäre eine Dienstgütevereinbarung für eine Voice-over-IP-Verbindung, die garantiert, dass 95% aller Pakete eine Ende-zu-Ende-Verzögerungszeit von weniger als 100 µs haben Deterministische Klasse Für Dienste dieser Klasse werden die Dienstgüteparameter immer eingehalten; dies wird auch als harte Garantie bezeichnet. In diesem Fall stehen die Ressourcen einem Nutzer exklusiv zur Verfügung, was eine optimale Dienstgüte gewährleistet. Der Nachteil besteht jedoch offensichtlich darin, dass eine solche Reservierung von Ressourcen zu Blockierungen innerhalb des Netzes führen kann.

148 148 Fulfillment of QoS Verschiedene Dienstarten und ihre Anforderungen an die Dienstgüte Innerhalb eines Netzwerkes konkurrieren verschiedene Anwendungen um die verfügbare Brandbeite. Jedoch haben nicht alle diese Anwendungen die gleichen Anforderungen bezüglich der erforderlichen Dienstgüteparameter. So hat beispielsweise die fehlerfreie Zustellung einer eine sehr hohe Priorität, die Übertragungsverzögerung hingegen spielt eine eher untergeordnete Rolle. Bei einer Telefonieanwendung hingegen verhält es sich genau umgekehrt: Ein gewisser Paketverlust ist hier durchaus hinnehmbar, während bei einer hohe Übertragungsverzögerung das Gespräch abgebrochen werden muss. Tabelle 16 fasst einige wichtige Anwendungen in Hinblick auf ihre Anforderungen bezüglich der Dienstgüte zusammen. Anwendung Zuverlässigkeit Übertragungsverzögerung Jitter Bandbreite hoch niedrig niedrig niedrig Dateiübertragung hoch niedrig niedrig mittel Webzugriff hoch mittel niedrig mittel Entfernte Anmeldung Audio-on- Demand Video-on- Demand hoch mittel mittel niedrig niedrig niedrig hoch hoch niedrig niedrig hoch hoch Telefonie niedrig hoch hoch niedrig Videokonferenzen niedrig hoch hoch hoch Tabelle 16: Anforderungen verschiedener Dienste an die primären Dienstgüteparameter [Tanenbaum 2003] Im Folgenden wollen wir näher untersuchen, welche verschiedenen Verfahren existieren, um eine bestimmte Dienstgüte zu erzielen. Um einen höheren Abstraktionsgrad bei der Betrachtung dieses Problems zu erreichen, unterscheiden wir zwischen dem Datenpfad und dem Kontrollpfad. Abbildung 65: Unterscheidung von Daten- und Kontrollpfad [Zitterbart 2004]

149 149 Die Komponenten im Datenpfad werden in Abschnitt 8.3 untersucht. Diese sind auf der Ebene der Vermittlungsschicht angesiedelt und bieten verschiedene Verfahren, den Verkehr über die gesamte Ende-zu-Ende-Verbindung (vor Einspeisung in das Netzwerk, während des Routings und beim Empfänger) so zu steuern, dass eine Verbesserung der Dienstgüte erzielt werden kann. Im Abschnitt 8.4 werden wir die Komponenten im Kontrollpfad näher untersuchen. Diese Komponenten implementieren je nach Art der Architektur eine bestimmte Ressourcen-Verwaltung, welche sich die Abschnitt 8.3 beschriebenen Verfahren zunutze macht. 8.3 Gewährleistung von Dienstgüte Die Ursache dafür, dass die Gewährleistung von Dienstgüte ein solch komplexes Problem ist, besteht darin, dass die Ressourcen innerhalb der Netzwerke beschränkt sind. Man könnte diesen gordischen Knoten ganz einfach zerschlagen, indem man mehr Ressourcen zur Verfügung stellt. Dies kann unter anderem dadurch geschehen, dass beispielsweise die Routerkapazität und die Bandbreite innerhalb der Netzwerkinfrastruktur erhöht wird. Im Grunde stellt dies jedoch ein betriebswirtschaftliches Problem dar: Werden die Kosten, die durch die Investition in die Infrastruktur entstehen, durch die Einnahmen, die durch die verbesserte Dienstgüte bei den Dienstnutzern abgerechnet werden können, gedeckt? Aufgrund der vielen komplexen Parameter, die in diese Rechnung mit einbezogen werden müssen, ist es nahezu unmöglich, diese Frage im Vorhinein eindeutig zu beantworten. Deshalb werden wir uns im Folgenden darauf beschränken, Methoden von Gewährleistung von Dienstgüte für bestehende Netzwerkinfrastrukturen zu untersuchen Gewährleistung von Dienstgüte auf Empfängerseite Wirft man einen Blick auf Tabelle 16, so fällt auf, das Datenübertragungen für Audiound Videokanäle, die nicht in Echtzeit ablaufen d.h. zum Beispiel Audio-on-Demand oder Video-on-Demand eine spezielle Ausprägung von Dienstparameteranforderungen haben: Es sollte geringer Jitter auftreten, die Übertragungsverzögerung ist aufgrund des fehlenden Echtzeitcharakters jedoch eher zweitrangig. Für diese Kombination bietet sich ein einfaches Verfahren an: die Pufferung der eingehenden Pakete auf der Empfängerseite. Auf diese Weise erhöht sich zwar die Übertragungsverzögerung; Jitter kann jedoch effektiv geglättet werden. Je größer der verwendete Puffer ist, desto weniger Jitter tritt auf. Es gilt hier natürlich, die Übertragungsverzögerung der Anwendung anzupassen (bei webbasierten Anwendungen wird der Dienstanwender kaum Pufferzeiten über 10 Sekunden akzeptieren). Das sich hier andeutende Thema der Beurteilung der Dienstgüte durch den Dienstanwender wird im Abschnitt Messung der Dienstgüte nochmals aufgegriffen Gewährleistung von Dienstgüte auf Senderseite Das in 3.2 angeführte Beispiel ist natürlich nicht immer eine gute Lösung. Die Möglichkeit, Puffer zu verwenden, entfällt bei Echtzeitanwendungen offensichtlich. Für diese Art von Diensten wäre es von Vorteil, wenn der Datenverkehr geglättet werden könnte, so dass der Sender die Daten mit einer einheitlichen Rate übertragt. Dieser Prozess der Verkehrsglättung wird auch als Traffic Shaping bezeichnet. Man unterscheidet grundsätzlich zwei Arten von Traffic Shaping: Verkehrsmeter und Verkehrsformer: Verkehrsmeter überprüfen Datenströme lediglich auf Konformität mit der Dienstgütevereinbarung; Verkehrsformer hingegen beeinflussen aktiv die Charakteristik des Verkehrs. Betrachten wir nun jeweils einen typischen Vertreter dieser beiden Kategorien:

150 150 Fulfillment of QoS Der Leaky-Bucket-Algorithmus Das Prinzip des Leaky-Bucket-Algorithmus ist relativ einfach: Wir stellen uns einen Eimer mit einem Fassungsvermögen von b Byte vor. Ankommende Pakete werden in diesem Eimer abgelegt, solang dadurch die Kapazität des Eimers nicht überschritten wird, andernfalls werden sie verworfen (der Leaky Bucket ist also im Sinne der obigen Definition ein Verkehrsformer). Der Eimer hat ein Loch der Größe r, d.h. es tröpfeln Pakete mit der Rate r aus dem Eimer. Der Leaky-Bucket-Algorithmus hat somit die Funktion, den Ausgabedatenstrom auf die Rate r zu glätten. Die Eimerkapazität b darf jedoch nicht überschritten werden; kommt ein Paket durch dessen Ablage im Eimer die maximale Kapazität überschritten würde, so muss dieses Paket verworfen werden. Auf diese Weise wird ein ungleichmäßiger Paketfluss vor der Einspeisung durch den Server in das Netzwerk geglättet und das Auftreten von unvorhergesehenen Bursts vermieden. Der Vorteil dieses Algorithmus ist das entstehende gleichmäßige Verkehrsmuster und der Reduzierung von Überlastungen im Netzwerk, der Nachteil ist offensichtlich, dass bereits vor der Einspeisung in das Netzwerk Paketverluste auftreten können Der Token-Bucket-Algorithmus Der Token-Bucket-Algorithmus stellt eine weitere Möglichkeit dar, den Datenfluss auf der Hostseite zu regulieren. Analog zum Leaky-Bucket-Algorithmus kann man sich einen Eimer mit einem Fassungsvermögen von b Byte vorstellen. In diesen Eimer tröpfeln Token mit einer Rate r. Es dürfen sich maximal b Token im Eimer befinden. Für jedes Paket, das gesendet werden soll, ergreift der Host ein Token und zerstört es. Der Token Bucket bietet auf diese Weise eine andere Art der Verkehrsglättung als ein Leaky Bucket: Der Host kann Bursts bis zu einer Größe von b Byte senden, wenn genügend Token vorhanden sind. Sendet der Host also über einen längeren Zeitraum keine Datenpakete, so kann er sich durch Sammlung von Token das Recht ansparen, einen größeren Burst zu senden. Bei der Implementierung dieses Algorithmus ist zu beachten, dass die maximale effektive Burstgröße größer als b sein kann, da während der Leerung des Eimers ebenfalls neue Token erzeugt werden. Der Token Bucket ist ein Verkehrsmeter; im Gegensatz zu einem Leaky Bucket werden niemals Pakete verworfen. Kommen Pakete an, die nicht in den Eimer passen, werden Sie statt dessen als nicht konform zur Dienstgütevereinbarung markiert und gelangen in den Ausgabestrom Gewährleistung von Dienstgüte innerhalb des Netzwerks Wie wir im vorangehenden Abschnitt gesehen haben existieren verschiedene Arten von Traffic Shaping, mit dessen Hilfe wir den Datenfluss in das Netzwerk den gewünschten Dienstgüteparametern anpassen können. Nun müssen für den zu übertragenden Datenfluss innerhalb des Netzwerks die benötigten Ressourcen reserviert werden. Um eine bestimmte Dienstgüte garantieren zu können, müssen alle Router, die von den zu einem bestimmten dienstgütekritischen Datenfluss passiert werden, Strategien zur Verfügung stellen, Pakete entsprechend der benötigten Dienstgüte weiterzuleiten.

151 Scheduling-Algorithmen (Bedienstrategien) Kommt ein Paket an einem Router an, so wird es in eine Warteschlange eingereiht. Wird diese Einreihung in der Reihenfolge der Ankunft vorgenommen, so wird dies als FIFO (First In First Out)-Warteschlange bezeichnet. Auf diese Weise kann offensichtlich keine Dienstgüte bereitgestellt werden, da niedrigpriorisierte Datenströme die gleichen Ressourcen erhalten wie hochpriorisierte. Aggressive Sender können auf diese Weise einen Großteil der Routerkapazität belegen und auf diese Weise die Gewährleistung der Dienstgüte für andere Datenflüsse unmöglich machen. Daher kommt diese Bedienstrategie für die Implementierung durch Dienstgütearchitekturen nicht in Frage. Ein einfacher, für unsere Zwecke geeigneter Scheduling-Algorithmus ist das sogenannte Fair Queuing. Der Router legt bei diesem Verfahren für jeden eingehenden Datenfluss eine Warteschlange an und bedient diese im Round Robin-Verfahren, d.h. er durchsucht die Warteschlangen nacheinander und versendet immer das erste Paket aus der jeweiligen Warteschlange. Das Problem bei diesem Scheduling-Algorithmus besteht darin, dass nun zwar nicht mehr aggressive Sender unverhältnismäßig viel Bandbreite erhalten, sondern diejenigen, die besonders große Pakete versenden Weighted Fair Queuing Der in Verbindung mit Dienstgüte wohl bekannteste und am meisten eingesetzte Scheduling-Algorithmus ist das Weighted Fair Queuing (WFQ). Beim Weighted Fair Queuing werden den einzelnen Warteschlangen verschiedene Prioritäten zugeordnet. Abbildung 66: Bedienstrategien [Kurose 2001] Danach wird im Prinzip ein Round-Robin-Verfahren durchgeführt, wobei Warteschlangen mit hoher Priorität öfter bedient werden als solche mit niedriger Priorität. Die Gewichtung ist abhängig von der Ressourcenverwaltung; sie kann zum Beispiel auf der Art des Datenverkehrs basieren (Echtzeitübertragungen erhalten eine höhere Priorität als Dateiübertragungen) oder von der Anzahl der Datenflüsse von einer bestimmten Quelle abhängig sein. Durch letzteres Verfahren kann beispielsweise jedem Prozess dieselbe Bandbreite zugeteilt werden, auf diese Weise erhält jeder Sender eine Bandbreite proportional zur Größe seines Ausgangsdatenflusses. 8.4 Verschiedene Diesntgütearchitekturen Es werden derzeit verschiedene Ansätze diskutiert, in IP-Netzen die Bereitstellung von Dienstgüte zu realisieren. Die zwei bedeutendsten Architekturen, die in diesem Zusammenhang von der IETF (Internet Engineering Task Force, entwickelt wurden, sind Integrated Services/RSVP (IntServ) und Differentiated Services (DiffServ).

152 152 Fulfillment of QoS Abbildung 67: Schematischer Aufbau einer Dienstgüte-Architektur [Dirscherl 2002] Integrated Services (IntServ) und RSVP IntServ wurde 1995 entwickelt und stellte damals die erste Bandbreitenreservierung in der IP-Welt dar. Das Modell ist in RFC 1633 spezifiziert [Braden 1994]. IntServ ist ein Framework welches das Ziel verfolgt, Mechanismen eines Leitungsvermittlungs-Netzwerks auf ein Paketvermittlungs-Netzwerk abzubilden. Die IntServ- Philosophie besagt, dass die Ressourcen innerhalb eines belasteten Netzwerks so knapp sind, dass eine bessere Verteilung des Datenaufkommens nicht ausreicht, sondern Reservierungen für bestimmte Datenflüsse unumgänglich sind. Aus diesem Grund werden die von IntServ-Architekturen implementierten Algorithmen auch als flussbasierte Algorithmen bezeichnet. Für jeden dienstgütekritischen Datenfluss wird explizit eine virtuelle Verbindung eingerichtet. Ausgehend von den Anforderungen des Datenverkehrs auf dieser virtuellen Verbindung wird ein Dienstgüte-Profil mit fest vorgegebenen Verkehrsparametern vereinbart. Entsprechend werden Ressourcen in jeder Netzwerkkomponente entlang der Verbindung reserviert. In jedem Router wird geprüft, ob ausreichend Ressourcen zur Verfügung stehen; ist dies nicht der Fall, so schlägt der Verbindungsaufbau fehl. Innerhalb von IntServ wurden drei Dienstklassen definiert, um eine Klassifizierung der Datenströme durchzuführen: Best-Effort-Service: In einem unbelasteten Best-Effort-Netzwerk bekommt man den bestmöglichen Service. Es sind keine Zusicherungen bezüglich der zu erzielenden Dienstgüte möglich. Wenn Überlastsituationen (sogenannte Congestions) durch steigende Netzlast entstehen, kommt es aufgrund von Warteschlangenverzögerungen und Bandbreitenrestriktionen zu einer Minderung der Dienstqualität. Controlled-Load-Service (RFC 2210): Dieser Dienst ähnelt dem Best-Effort-Service, ist jedoch von der aktuellen Netzwerkauslastung unabhängig. Er hat also das Ziel, für alle Anwendungen, die diesen Dienst anfordern, ein leicht belastetes Netz zu emulieren, selbst wenn das Netz in Wirklichkeit stark belastet ist. Guaranteed Service (RFC 2212): Diese Dienstklasse stellt sicher, das sich die Ende-zu- Ende-Verzögerung innerhalb fest definierter Grenzen bewegt und gibt auf diese Weise harte Garantien bezüglich Übertragungsverzögerung und Bandbreite. IntServ unterstützt dadurch sowohl Echtzeit- als auch herkömmliche Applikationen. Das bekannteste Protokoll, das auf IntServ aufsetzt, ist das Resource Reservation Protocol (RSVP) [Braden 1997]. RSVP ist ein reines Signalisierungsprotokoll und macht daher keinerlei Vorgaben bezüglich eines zu verwendenden Routing-Algorithmus. Wir be-

153 153 trachten nun ein konkretes Beispiel, wie innerhalb einer IntServ-Domäne mithilfe von RSVP Reservierungen vorgenommen werden können Reservierung von Ressourcen mit RSVP Abbildung 68: Komponenten in RSVP-fähigen Systemen [Zitterbart 2004] Die zentrale Aufgabe von RSVP ist es, Dienstgüte sowohl für Uni- als auch für Multicast-Anwendungen zu garantieren. Da Unicast als Spezialfall von Multicast angesehen werden kann, beschränken wir uns in dem Beispiel auf die Betrachtung einer Multicast- Anwendung. Ein Sender bietet über eine IntServ-Domäne einen Video-on-Demand-Dienst an, für den sich eine bestimmte Benutzergruppe registriert hat. Diese Gruppe erhält eine Gruppenadresse, die der Sender in den Header seiner Pakete setzt. Im ersten Schritt wird ein aus virtuellen Verbindungen bestehenden Verteilbaum (der sogenannte multicast spanning tree) zu den Empfängern aufgebaut. Dies kann mithilfe eines Multicast-Routing- Standardalgorithmus geschehen, die Einzelheiten sind hier dabei jedoch nicht von Belang, da RSVP wie bereits erwähnt vom verwendeten Routing-Algorithmus unabhängig ist. Nach dem Aufbau des Verteilbaums schickt der Sender eine Path-Nachricht (Path) durch das Netz an die Empfänger. Diese Path-Nachricht enthält die sogenannte Flussspezifikation (FlowSpec), in der den Routern und dem Empfänger die Dienstklasse (siehe oben) des Datenverkehrs mitgeteilt wird. Möchte der Sender beispielsweise harte Garantien für die Dienstgüteparameter einhalten (weil die Empfänger für einen Premium- Dienst bezahlen und entsprechende Qualität erwarten), so würde er in dieser FlowSpec die Ausprägung dieser Parameter (für Video-on-Demand beispielsweise geringen Jitter und hohe Bandbreite) und die Dienstklasse Guaranteed Service anfordern. Sobald die Path-Nachricht bei den Empfänger angekommen ist, können diese Reservierungsnachrichten (Resv) rückwärts entlang des Verteilbaums durch das Netz zum Sender schicken. Passiert eine Resv-Nachricht einen Router, so reserviert dieser die erforderlichen Ressourcen für den zu erwartenden Datenfluss. Kann ein Router die benötigte Bandbreite nicht bereitstellen, so wird der Verbindungsaufbauwunsch abgelehnt. Reservierungswünsche verschiedener Empfänger werden in RSVP-fähigen Routern zu einem neuen Reservierungswunsch verschmolzen, der in Richtung zum Sender weitergeleitet wird. Dieser Vorgang des Hinaufschickens von Reservierungsanforderungen entlang des Verteilbaums zum Sender wird als empfängerorientiertes Reservierungskonzept bezeichnet. Damit bei dem Video-on-Demand-Dienst nicht mehr benötigte Ressourcen wieder freigegeben werden können, muss jeder Empfänger die Resv-Nachrichten periodisch erneu-

154 154 Fulfillment of QoS ern, damit die virtuelle Verbindung aufrechterhalten wird. So können Reservierungen für nicht mehr benötigte Datenflüsse wieder freigegeben und unnötige Blockaden vermieden werden. Abbildung 69: Multicast mit RSVP [Zitterbart 2004] Sehen wir uns ein Beispiel für die Verwendung von RSVP an. In der obigen Abbildung ist eine Multicast-Videoübertragung dargestellt: Fred fordert von Barny einen MPEG- Videostream mit 5 Bildern/s an, Pebbles fordert den gleichen Stream mit 25 Bildern/s. Im RSVP-Knoten Dino-Router erfolgt die Umsetzung des Datenstroms. Die Ressourcen zwischen Barny und Dino können gemeinsam genutzt werden Vor- und Nachteile der IntServ-Architektur Der Hauptvorteil von IntServ besteht darin, dass harte Garantien für die Einhaltung der Dienstgüteparameter einzelner Datenflüsse ausgesprochen werden können. Außerdem ist es mit RSVP möglich, immer nur genau die Ressourcen zu reservieren, die auch benötigt werden. Dafür zahlt man jedoch einen hohen Preis: Schlechte Skalierbarkeit: Jeder Router muss intern für jeden Datenfluss Zustandsinformationen (Qualitätsparameter, Sender und Empfängeradressen) verwalten. Dies führt dazu, dass die Leistung des Routers bei einer großen Anzahl von Reservierungen sinkt. Kompliziertes Paket-Scheduling: Die Scheduling-Algorithmen sind wesentlich komplexer als bei anderen Architekturen, weil die Router eine sich dynamisch ändernde Anzahl von Dienstgüten unterstützen müssen. Dies macht eine Bereitstellung von zusätzlichen Ressourcen für die Bedienstrategien in den Routern erforderlich. Man bezahlt also bei IntServ-Architekturen die Möglichkeit fester Garantien mit einem immens hohen Verwaltungsaufwand. Der eigentliche Netzwerkkern sollte jedoch möglichst wenig mit der aufwendigen Reservierung beschäftigt sein. Um eine bessere Skalierbarkeit zu gewährleisten wird daher eine zustandslose Implementierung bevorzugt, bei der die Netzwerkkomponenten keine internen Informationen über den Zustand der Datenflüsse halten müssen. Im folgenden Abschnitt wird die Differentiated-Services- Technologie (DiffServ) untersucht, die einen solchen zustandslosen Ansatz verfolgt.

155 Differentiated Services (DiffServ) Aufgrund der oben genannten Schwierigkeiten, die bei der Implementierung von IntServ und RSVP auftraten, wurde nach Möglichkeiten gesucht, Dienstgüte auf eine einfachere Art und Weise bereitzustellen. Das Ergebnis dieser Überlegungen führte zu der Entwicklung der Differentiated Services (DiffServ) durch die IETF [Blake 1998]. DiffServ verfolgt einen zu IntServ konträren Ansatz. Die Grundidee besteht darin, den Datenverkehr in verschiedene Klassen zu unterteilen und die Paketbehandlung und -weiterleitung auf Grundlage der Klassenzugehörigkeit durchzuführen. Aus diesem Grund wird DiffServ auch als grob-granulare Architektur mit klassenbasierter Dienstgüte bezeichnet, während man IntServ in der Gegenüberstellung als fein-granulare Architektur mit flussbasierter Dienstgüte bezeichnet. Innerhalb einer DiffServ-Domäne werden den verschiedenen Datenflüssen bestimmte Prioritätsstufen zugewiesen. Dies geschieht in IP-Netzwerken im Header des IP-Pakets. Zu diesem Zweck wurde das Type-of-Service-Feld (ToS) in IPv4 beziehungsweise das Traffic-Class-Feld in Ipv6 herangezogen und in Differentiated Services Codepoint (DSCP) umbenannt [Nichols 1998]. Es ist zu beachten, dass derzeit nur die ersten 6 Bits des jeweiligen Octets für den DSCP verwendet werden; die beiden verbleibenden Bits sind CU-Bits (currently unused) [Hetzer 2003]. Kommt nun ein Paket an einem Diff- Serv-fähigen Router an, so sieht dieser im DSCP-Feld nach und nimmt eine Weiterleitung entsprechend des vorgefundenen Eintrags vor. Ist der Differentiated Services Codepoint nicht gesetzt, so erhält das Paket automatisch Best-Effort-Service. Wie wir später sehen werden ist es auch möglich, die Weiterleitung auf der Grundlage von mehreren IP- Header-Einträgen vorzunehmen. Dies können unter anderem Zieladresse, Quelladresse, Zielport oder Quellport sein. Diese Art der Paketklassifizierung trägt den Namen Multi- Field-Classifier. Hat ein Netzbetreiber (z.b. der ISP) Differentiated Services implementiert, müssen die Benutzer mit ihm eine Dienstgütevereinbarung (Service Level Agreement, SLA) treffen. Den Kern einer solchen Vereinbarung bildet das sogenannte Traffic Conditioning Agreement (TCA). In diesem vereinbaren beide Parteien, welches Klassifizierungsschema für die Daten verwendet wird (abhängig von den vom ISP definierten Klassen) und in welcher Form die Datenpakete die DiffServ-Domäne betreten dürfen. Für diese Verkehrsüberwachung an den Eintrittsknoten können die Verkehrsmeter und Verkehrsformer, die in Abschnitt 3 besprochen wurden, eingesetzt werden. Abbildung 70: Traffic-Conditioning [Seum 2001] Eine wichtige Frage in diesem Zusammenhang ist, für welchen Zeitraum eine solche Dienstgütevereinbarung gültig ist. Es gibt zwei Möglichkeiten: Bei den sogenannten statischen Dienstgütevereinbarungen wird das SLA in festen periodischen Zeitabständen erneuert, dies kann zum Beispiel monatlich oder auch jährlich geschehen. Dynamische Dienstgütevereinbarungen hingegen haben zumindest in diesem Bereich eine Ähnlichkeit

156 156 Fulfillment of QoS mit den Integrated Services: sie verwenden ein Signalisierungsprotokoll z.b. RSVP, um Dienste auf Abruf (on-demand) nutzen zu können. Das Setzen des DSCP (was auch als Marking bezeichnet wird) kann auf zwei verschiedene Weisen erfolgen: entweder setzt es der Benutzer, um die gewünschte Dienstgüte explizit anzugeben, oder er überlässt es dem Netzbetreiber, diesen Vorgang am Netzeintrittsknoten (Ingress Node) selbst vorzunehmen. Entscheidet er sich für die letztere Variante, so kommt dabei meist der oben erwähnte Multi-Field-Classifier zum Einsatz. Abbildung 71: Das DiffServ-Domänenmodell [Zitterbart 2004] Sind diese Hürden überwunden und ein am Ingress Node mit einem DSCP versehenes Paket betritt die DiffServ-Domäne, so wird die Weiterleitung des Pakets innerhalb der Domäne ausschließlich aufgrund seiner durch den DSCP festgelegten Prioritätsklasse vorgenommen. Dieses Routing wird als Per-Hop-Behavior (PHB) bezeichnet und legt fest, welche Bandbreiten- und Speicherressourcen den Paketen verschiedener Dienstklassen von den Routern zugeteilt werden. Wie dieses PHB innerhalb einer Domäne aussieht, wird vom jeweiligen Netzbetreiber festgelegt. Von der IETF wurden jedoch einige PHBs standardisiert, um eine Reklassifizierung der Pakete zwischen DiffServ-Domänen verschiedener Netzbetreiber zu vermeiden. Wir werden an dieser Stelle die zwei wichtigsten dieser Standards besprechen Expedited Forwarding Die denkbar einfachste Form eines Per-Hop-Behaviors stellt das sogenannte Expedited Forwarding (EF-PHB) dar [Jacobson 1999]. Bei EF-PHB gibt es lediglich zwei Prioritätsstufen: Normal und Express. Normaler Datenverkehr wird einfach nach dem Best- Effort-Prinzip weitergeleitet und ist damit dem übrigen Datenverkehr innerhalb eines Best-Effort-Netzwerks wie dem Internet gleichgestellt. Für den Express-Verkehr soll jedoch ein praktisch unbelastetes Netz simuliert werden. Für Datenpakete dieser Prioritätsstufe wird ein fester DSCP-Wert von empfohlen [Jacobson 1999]. An den inneren Knoten (interior nodes) einer DiffServ-Domäne muss ein Verfahren implementiert werden, dass eine solche Weiterleitung unterstützt. Zu diesem Zweck kann bei-

157 157 spielsweise das in Abschnitt 8.3 besprochene Weighted Fair Queuing als Bedienstrategie zum Einsatz kommen. Macht der Express-Verkehr beispielsweise 10 Prozent des Datenaufkommens an einem Router aus, so könnte 20 Prozent der Bandbreite für die Express- Pakete verwendet werden; auf diese Weise erhalten diese doppelt so viel Bandbreite wie benötigt, so dass selbst bei hohen Netzbelastungen Übertragungsverzögerungen für Pakete dieser Prioritätsstufe praktisch ausgeschlossen sind [Tanenbaum 2003] Assured Forwarding Hinter dem sogenannte Assured Forwarding (AF-PHB) steckt die Philosophie Never ever let the buffer overflow, d.h. vermeide Puffer-Überlauf um jeden Preis, da sich dies äußerst negativ auf die Netzwerkleistung und somit auf die Dienstgüteparameter auswirkt. Aus diesem Grund spezifiziert AF-PHB neben vier verschiedenen Prioritätsklassen noch drei verschiedene Wahrscheinlichkeiten zum Verwerfen von Paketen (Drop Precedence) [Heinanen 1999]. Die zugehörigen Einträge des DS-Felds sind in Abbildung 72 dargestellt. Abbildung 72: DSCP-Einträge für verschiedene AF-Klassen und ihre Drop-Precedence Aufgrund dieser Einteilung in drei verschiedene Verwerf-Kategorien ist AF-PHB auch unter dem Namen Olympic Service (Gold, Silber und Bronze) bekannt. Die Drop Precedence wird als Unterscheidungsmerkmal an zwei Stellen herangezogen: erstens bei der Verkehrsformung im Sender bzw. am Eingangsknoten (z.b. wenn ein Leaky Bucket ü- berläuft) und zweitens bei vollen Warteschlangen in einem Router. Ist in einem solchen Szenario das Verwerfen von Paketen unumgänglich, so werden Pakete mit einer hohen Drop Precedence eher verworfen als solche mit einer niedrigen Vor- und Nachteile von DiffServ DiffServ ermöglicht gegenüber IntServ eine einfache Implementierung. Die Router müssen lediglich einen Lookup im IP-Header vornehmen und können anhand des DSCP- Werts feststellen, wie das jeweilige Paket zu behandeln ist; das aufwendige Halten von Zustandsinformationen für jeden einzelnen Datenfluss wie bei IntServ entfällt. Daher wächst der Verwaltungsaufwand nicht parallel zur Anzahl der Datenflüsse, sondern statt dessen parallel zur Anzahl der Dienstklassen, die innerhalb der Domäne spezifiziert sind. Aufgrund dieser guten Skalierungseigenschaften ist DiffServ auch für den Einsatz in großen IP-Netzwerken wie dem Internet geeignet. Allerdings kennt DiffServ keine echten Dienstgüteparameter für einzelne Datenströme, da diese ja in den Routern zu Dienstklassen aggregiert werden. Harte Garantien für einzelne Anwendungen sind daher nur schwierig oder gar nicht möglich. Sind alle Datenpakete mit hohen Prioritäten versehen, verliert DiffServ seine Wirkung. Zusätzlich werden bei hohem priorisierten Datenaufkommen die Pakete in den jeweils niedriger priorisierten Warteschlagen vernachlässigt, was ein Aushungern von niedrigpriorisiertem Verkehr zur Folge hat. Man stelle sich vor, dass während des Fussball-WM-Finales aufgrund der hohen Anzahl von Vide-

158 158 Fulfillment of QoS ostream-übertragungen mit hoher Priorität keine s mehr zugestellt werden können. In der untenstehenden Abbildung werden nochmals IntServ und DiffServ tabellarisch gegenübergestellt. Abbildung 73: Differentiated Services vs. Integrated Services Multiprotocol Label Switching (MPLS) Während IntServ und DiffServ von der IETF als echte Dienstgüte-Architekturen entworfen wurden, entsprang das Multiprotocol Label Switching (MPLS) anderen Überlegungen. Ursprünglich wurde es von verschiedenen Router-Herstellern wie Cisco und Ipsilon für die Verbindung von ATM- und IP-Netzwerken entwickelt, inzwischen wurden jedoch viele weitere Anwendungsgebiete für MPLS erschlossen. So kann MPLS unter anderem dazu eingesetzt werden, IPv6-Domänen über ein MPLS-fähiges IPv4-Netzwerk miteinander zu verbinden [Rosen 2001]. Inzwischen ist MPLS auch von der IETF in verschiedenen RFCs spezifiziert worden [Müller 2003]. Die Grundidee von MPLS besteht darin, Pakete mit Kennzeichnern zu versehen, so dass die Weiterleitung in den Routern anhand dieses Kennzeichners vorgenommen werden kann. Da der IP-Header jedoch für verbindungslose Netzwerke entwickelt wurde, existiert keine Möglichkeit, solche Kennzeichner innerhalb des Headers unterzubringen. Aus diesem Grund erhalten die Datenpakete einen weiteren Header, den sogenannten MPLSoder auch Shim-Header. Dieser setzt noch unterhalb des Layer 3-Protokolls (z.b. IP) auf dem Rahmenbildungsprotokoll der Sicherungsschicht (z.b. PPP) auf; in gewissem Sinne bildet MPLS also die Schicht 2,5 im OSI-Referenzmodell. Betrachten wir nun die Funktionsweise von MPLS an einem Beispiel Label Edge Router (LER) Die sogenannten Label Edge Router (LERs) bilden die Netzeintrittsknoten der MPLS- Domäne. Kommt bei ihnen ein Datenpaket aus einem anderen Netz an dies können aufgrund der Layer 3-unabhängigen Architektur von MPLS sowohl verbindungslose als auch verbindungsorientierte Netze sein, so ist es ihre Aufgabe, für dieses Paket einen Kennzeichner zu erstellen. Dies kann beispielsweise auf Grundlage der im Paketheader vermerkten Zieladresse und Dienstgüte (in Verbindung mit DiffServ beispielsweise dem DSCP) geschehen. Ist ein Paket erst einmal mit einem solchen Kennzeichner versehen, so durchläuft es die gesamte MPLS-Domäne, ohne dass ein nochmaliges Lesen des Pa-

159 159 ketinhalts nötig ist; alle Routingvorgänge werden ausschließlich auf der Basis des Kennzeichners vorgenommen Label Switching Router Innerhalb der MPLS-Domäne befinden sich die Label Switching Router (LSPs). Kommt ein Paket an einem LSP an, so sieht sich dieser den 20 Bit langen Kennzeichner an und schlägt diesen in einer Weiterleitungstabelle nach. Der Eingangskennzeichner wird durch den in dieser Tabelle vermerkten Ausgangskennzeichner ersetzt (Label Switching) und das Paket auf die entsprechende Ausgangsleitung gelegt. Interessant ist in diesem Zusammenhang, wie diese Weiterleitungstabelle an den MPLS-Routern eingerichtet wird. Dies geschieht über ein sogenanntes Label Distribution Protocol. In verbindungslosen Netzen bestimmt jeder neue Router zu diesem Zweck, welche Datenpfade bei ihm enden. Anschließend erstellt er für die zu erwartenden Paketklassen Kennzeichner und teilt diese den benachbarten LSRs mit. Diese tragen dann den übermittelnden Kennzeichner als Ausgangskennzeichner in ihre Weiterleitungstabelle ein. Auf diese Weise entsteht für jeden Datenfluss ein sogenannter Label Switched Path (LSP), Auf diesem LSP gilt für die Abfolge von Routern R1 Rn die Bedingung Ausgangslabel (Ri-1) = Eingangslabel (Ri). In diesem Sinne kann der der LSP durch das MPLS-Netzwerk auch als Tunnel angesehen werden. Hat ein Paket die gesamte MPLS-Domäne durchlaufen und erreicht wieder einen Label Edge Router, so wird der MPLS-Kennzeichner entfernt. Die Weiterleitung wird von diesem Punkt aus wieder auf die herkömmliche Weise auf Grundlage der im Paket angegebenen Zieladresse fortgeführt Forwarding Equivalence Class Um die Mächtigkeit des MPLS-Weiterleitungsverfahrens voll auszuschöpfen bietet es sich an, nicht jedem einzelnen Datenfluss mit einem Kennzeichner zu versehen, sondern diese zu Klassen zusammenzufassen. Solche Klassen werden als Weiterleitungsklassen (Forwarding Equivalence Classes, FECs) bezeichnet. Diese Zusammenfassung kann von einem LER vorgenommen werden, beispielsweise anhand der Zieladresse und des Type of Service-Felds im IP-Header. Alle Pakete einer FEC werden mit dem gleichen Kennzeichner versehen und neben denselben Pfad durch die MPLS-Domäne. Pakete mit gleicher Zieladresse können auf diese Weise durchaus verschiedene Kennzeichner erhalten. So können Pakete mit niedrigen Dienstgüteanforderungen auf LSPs mit geringerer Bandbreite übertragen werden als solche mit hohen Anforderungen. An dieser Stelle wird ein gravierender Unterschied zu der Paketweiterleitung in DiffServ-Domänen deutlich: Bei DiffServ nehmen alle Pakete mit derselben Zieladresse den gleichen Weg, erhalten aber auf Grundlage des spezifizierten Per-Hop-Behaviors unterschiedliche Ressourcen an den Routern auf diesem Weg; bei MPLS hingegen können sie auf verschiedenen Wegen zum Ziel gelangen. Dies ist in Abbildung 74 dargestellt; TE bezeichnet in dieser Abbildung Traffic Engineering (Verkehrsformung). Abbildung 74: LSPs für Pakete verschiedener FECs mit gleicher Zieladresse [Müller 2003]

Grundkurs Mobile Kommunikationssysteme

Grundkurs Mobile Kommunikationssysteme Martin Sauter Grundkurs Mobile Kommunikationssysteme UMTS, HSDPA und LTE, GSM, GPRS und Wireless LAN 4., überarbeitete und erweiterte Auflage Mit 186 Abbildungen STUDIUM VIEWEG+ TEUBNER 1 GSM 1 1.1 Leitungsvermittelnde

Mehr

Wireless LAN. nach IEEE 802.11

Wireless LAN. nach IEEE 802.11 Wireless LAN nach IEEE 802.11 Entstanden im Rahmen der Vorlesung LNWN II im Sommersemester 2002 INHALTSVERZEICHNIS 1 WIRELESS LAN NACH DEM IEEE 802.11 STANDARD 3 1.1 IEEE 802.11 3 1.2 IEEE 802.11B 3 1.3

Mehr

Flash-OFDM FMC FOMA. A. Schempp (DCS, DCP, DCF, DCE)

Flash-OFDM FMC FOMA. A. Schempp (DCS, DCP, DCF, DCE) Flash-OFDM FMC FOMA Flash-OFDM, FMC, FOMA das Team B. Krbecek (DCS, DCP) T. Schwarz (DCS) Flash-OFDM - Definition Fast Low-latency Access with Seamless Handoff Orthogonal Frequenzy Division Multiplexing

Mehr

Always Best Connected: Das ABC der drahtlosen Kommunikation an der Universität Karlsruhe

Always Best Connected: Das ABC der drahtlosen Kommunikation an der Universität Karlsruhe Always Best Connected: Das ABC der drahtlosen Kommunikation an der Universität Karlsruhe Vortrag zum Stadtgeburtstag 2004 der Stadt Karlsruhe Prof. Dr. Hannes Hartenstein und Dipl.-Ing. Willi Fries Universität

Mehr

Der Funkstandard LTE (Long Term Evolution)

Der Funkstandard LTE (Long Term Evolution) Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnose und Architektur Der Funkstandard LTE (Long Term Evolution) Christian Hübner Dresden, 30.01.201 Gliederung

Mehr

Quelle: www.roewaplan.de. Stand April 2002

Quelle: www.roewaplan.de. Stand April 2002 Wireless LAN Quelle: www.roewaplan.de Stand April 2002 LAN / 1 Wireless LAN Ein Überblick RÖWAPLAN Ingenieurbüro - Unternehmensberatung Datennetze und Kommunikationsnetze Inhalt Warum WLAN? Standard Planung

Mehr

Entwurf und simulative Bewertung eines QoS-Frameworks für die Mobilfunknetze der dritten Generation

Entwurf und simulative Bewertung eines QoS-Frameworks für die Mobilfunknetze der dritten Generation Rheinische Friedrich-Wilhelms Universität Bonn Institut für Informatik IV Prof. Dr. Peter Martini Einleitungsvotrag zur Diplomarbeit Entwurf und simulative Bewertung eines QoS-Frameworks für die Mobilfunknetze

Mehr

Was ist Mobilkommunikation

Was ist Mobilkommunikation Inhaltsverzeichnis Vorlesung Lehrstuhl Telematik Institut für Informatik I 1. Mobilitätsunterstützung im Internet 2. Technische Grundlagen 3. Zellulare Netze 1G, 2G, 2.5G, 3G, 4G 4. Weitere drahtlose Zugangstechniken

Mehr

Migration von GSM nach UMTS

Migration von GSM nach UMTS Migration von nach UMTS Stephan Rupp, Hans Josef Stegers Alcatel, Stuttgart 1 Übersicht UMTS-Netze werden parallel zum -NSS (Network Subsystem) eingeführt. Bei den Kernnetzen spricht man hier von Architekturen

Mehr

Der Auftritt von WWAN: Welche Bedeutung hat WWAN für den mobilen Berufstätigen?

Der Auftritt von WWAN: Welche Bedeutung hat WWAN für den mobilen Berufstätigen? Hauptartikel Der Auftritt von Breitband-WWAN Der Auftritt von WWAN: Welche Bedeutung hat WWAN für den mobilen Berufstätigen? Eine nahtlose High-Speed-Verbindung wird immer wichtiger sowohl für den Erfolg

Mehr

Prinzipien der Signalaufbereitung im UMTS Mobilfunk

Prinzipien der Signalaufbereitung im UMTS Mobilfunk Prinzipien der Signalaufbereitung im UMTS Mobilfunk Darko Rozic Lehrstuhl für Messtechnik Universität Wuppertal Einführung Seit der Einführung des Global System for Mobile Communications (GSM) um 1990

Mehr

Informationen für Kunden zur Anbindung an die Systeme von SIX Financial Information. Juli 2013

Informationen für Kunden zur Anbindung an die Systeme von SIX Financial Information. Juli 2013 Informationen für Kunden zur Anbindung an die Systeme von SIX Financial Information Juli 2013 Inhalt 1 Einleitung 3 2 Anbindungsmöglichkeiten 4 2.1 Übersicht 4 2.2 IP VPN über MPLS 5 2.2.1 Anschluss in

Mehr

Genereller Aufbau von Funknetzen. WLAN: IEEE 802.11b. Drahtloses Ethernet. Entwurfsziele für drahtlose Netze (WLAN/WPAN)

Genereller Aufbau von Funknetzen. WLAN: IEEE 802.11b. Drahtloses Ethernet. Entwurfsziele für drahtlose Netze (WLAN/WPAN) L apto p L apto p L apto p Entwurfsziele für drahtlose Netze (WLAN/WPAN) weltweite Funktion möglichst geringe Leistungsaufnahme wegen Batteriebetrieb Betrieb ohne Sondergenehmigungen bzw. Lizenzen möglich

Mehr

Mobility Management in Wireless Networks

Mobility Management in Wireless Networks Mobility Management in Wireless Networks Gliederung 1.Einleitung 2.Location Management 3.Registration 4.Handoff Einleitung In Deutschland werden PLMN's (Public Land Mobile Network) von verschiedenen Anbietern

Mehr

WLAN und UMTS. Christian Pauli und Stefan Emilius

WLAN und UMTS. Christian Pauli und Stefan Emilius Design und Realisierung von E-Business und Internet-Anwendungen WLAN und. T-Systems München, 14.06.2007 München, 14.06.2007, Seite 1. Agenda. München, 14.06.2007. 1. Standardisierung 2. Technik -Mobilität

Mehr

Aspekte zur Aufklärung von Mobilfunksystemen der 2. und 3. Generation. H.P. Stuch. Fraunhofer FKIE

Aspekte zur Aufklärung von Mobilfunksystemen der 2. und 3. Generation. H.P. Stuch. Fraunhofer FKIE 0 Aspekte zur Aufklärung von Mobilfunksystemen der 2. und 3. Generation H.P. Stuch Fraunhofer FKIE Begriffe und Bezeichnungen 1 2. und 3. Generation 1G - 2G - 3G - 4G t AMPS GSM UMTS Advanced Mobile Phone

Mehr

10. WCI-Konferenz in Berlin

10. WCI-Konferenz in Berlin 10 WCI-Konferenz in Berlin Ende-zu-Ende-Sicherheit bei Long Term Evolution (LTE) Foliennr: 1 Prof- Dr-Ing Kai-Oliver Detken DECOIT GmbH Fahrenheitstraße 9 D-28359 Bremen URL: http://wwwdecoitde E-Mail:

Mehr

l Wireless LAN Eine Option für Firmennetzwerke der Druckereibranche? WLAN Eine Option für Unternehmen? Komponenten eines WLAN-Netzwerks

l Wireless LAN Eine Option für Firmennetzwerke der Druckereibranche? WLAN Eine Option für Unternehmen? Komponenten eines WLAN-Netzwerks l Wireless LAN Eine Option für Firmennetzwerke der Druckereibranche? BU Wuppertal FB E 2005 Jens Heermann Svend Herder Alexander Jacob 1 WLAN Eine Option für Unternehmen? Vorteile durch kabellose Vernetzung

Mehr

Matthias Hofherr. WLAN-Sicherheit. Professionelle Absicherung von 802.11-Netzen. Heise

Matthias Hofherr. WLAN-Sicherheit. Professionelle Absicherung von 802.11-Netzen. Heise Matthias Hofherr WLAN-Sicherheit Professionelle Absicherung von 802.11-Netzen Heise 5 Bevor man einen genaueren Blick auf die Sicherheitsmechanismen von Netzwerken auf Basis des Standards 802.11 wirft,

Mehr

Lawful Interception (LI) für IP basierte Dienste. Standardisierung bei ETSI

Lawful Interception (LI) für IP basierte Dienste. Standardisierung bei ETSI Lawful Interception (LI) für IP basierte Dienste Standardisierung bei ETSI Historisches Leitungsvermittelte Netze (PSTN, ISDN und GSM) Überwachungsverordnung schreibt Implementierung von ES 201 671 in

Mehr

ComputeriaUrdorf «Sondertreff»vom30. März2011. Workshop mit WLAN-Zugriff auf das Internet

ComputeriaUrdorf «Sondertreff»vom30. März2011. Workshop mit WLAN-Zugriff auf das Internet ComputeriaUrdorf «Sondertreff»vom30. März2011 Workshop mit WLAN-Zugriff auf das Internet 30. März 2011 Autor: Walter Leuenberger www.computeria-urdorf.ch Was ist ein (Computer-)Netzwerk? Netzwerk-Topologien

Mehr

Nach Hause telefonieren

Nach Hause telefonieren Technische Universität Berlin FG Security in Telecommunications Matthias Lange, 03.05.2011 mlange@sec.t-labs.tu-berlin.de Nach Hause telefonieren Wie funktioniert eigentlich Mobilfunk? Technisches Seminar

Mehr

WLAN-Hotspots. Medienengineering Teledienste Prüfung Light. Ronald Nitschke Sebastian Ziegel Christian Loclair. www.802.11b. 802.11b.de.ms.de.

WLAN-Hotspots. Medienengineering Teledienste Prüfung Light. Ronald Nitschke Sebastian Ziegel Christian Loclair. www.802.11b. 802.11b.de.ms.de. WLAN-Hotspots Medienengineering Teledienste Prüfung Light Ronald Nitschke Sebastian Ziegel Christian Loclair www.802.11b 802.11b.de.ms.de.ms Überblick IEEE 802.11b/g Roaming Motivation für Hotspots Anbieter

Mehr

NGN Eine Übersicht. VDE/ITG FG 5.2.3 Harald Orlamünder

NGN Eine Übersicht. VDE/ITG FG 5.2.3 Harald Orlamünder NGN Eine Übersicht VDE/ITG FG 5.2.3 Harald Orlamünder Inhalt > Definition von NGN, Abgrenzung > Architektur von NGNs > Einführung von NGNs > Was bleibt noch zu tun? NGN eine Übersicht 2 Definition [Y.2001]

Mehr

Computeria Urdorf «Sondertreff» vom 7. November 2012. Workshop. auf das Internet

Computeria Urdorf «Sondertreff» vom 7. November 2012. Workshop. auf das Internet Computeria Urdorf «Sondertreff» vom 7. November 2012 Workshop mit WLAN-Zugriff auf das Internet 7. November 2012 Autor: Walter Leuenberger www.computeria-urdorf.ch Was ist ein (Computer-)Netzwerk? Netzwerk-Topologien

Mehr

Was ist LTE? Lehrstuhl fuer Nachrichtentechnik (LNT) 1 / 7 Technische Universitaet Muenchen

Was ist LTE? Lehrstuhl fuer Nachrichtentechnik (LNT) 1 / 7 Technische Universitaet Muenchen Was ist LTE? Das Kürzel LTE steht für Long Term Evolution und bezeichnet den UMTS nachfolgenden, neuen Mobilfunkstandard. Durch die konzeptionelle Neuentwicklung soll LTE auf lange Zeit ( Long Term ) den

Mehr

Inhaltsverzeichnis 1 GSM

Inhaltsverzeichnis 1 GSM Inhaltsverzeichnis 1 GSM.......................................................... 1 1.1 Leitungsvermittelnde Datenübertragung.......................... 1 1.1.1 Klassische Leitungsvermittlung...........................

Mehr

SIRTCP/IP und Telekommunikations netze

SIRTCP/IP und Telekommunikations netze SIRTCP/IP und Telekommunikations netze Anforderungen - Protokolle -Architekturen Von Ulrich Trick und Frank Weber Oldenbourg Verlag München Wien Inhalt Vorwort IX 1 Anforderungen an die Telekommunikationsinfrastruktur

Mehr

Lohnt sich die Investition? Auswirkung der Umstellung auf IPv6 aus Sicht der ISPs.

Lohnt sich die Investition? Auswirkung der Umstellung auf IPv6 aus Sicht der ISPs. Lohnt sich die Investition? Auswirkung der Umstellung auf v6 aus Sicht der ISPs. Deutsche Telekom AG / Group Technology. Uwe Mühlender BMWi v6 Workshop, Berlin, 26. Januar 2012. Verschiedene Märkte, Technologien

Mehr

INFORMATION: WIE FUNKTIONIERT TELEFONIEREN

INFORMATION: WIE FUNKTIONIERT TELEFONIEREN INFORMATION: WIE FUNKTIONIERT TELEFONIEREN Vergleich mit dem Sprechen Das Quiz wird wieder aufgegriffen und folgende Aufgabe gestellt: Sprechen kann mit Telefonieren verglichen werden Ordne die Begriffe

Mehr

PCMCIA Karten von OPTION. im Vertrieb von Baumann Technologie.

PCMCIA Karten von OPTION. im Vertrieb von Baumann Technologie. im Vertrieb von Baumann Technologie. 2 GlobeTrotter COMBO PCMCIA. GlobeTrotter Combo PCMCIA. WLAN, GPRS und GSM auf einer einzigen Karte.»Globe Trotter Combo«ist eine leistungsstarke WLAN-Lösung für Notebooks,

Mehr

FunkLAN an der Uni des Saarlandes. Alfred Neisius

FunkLAN an der Uni des Saarlandes. Alfred Neisius FunkLAN an der Uni des Saarlandes Alfred Neisius FunkLAN Überblick und Technik Das FunkLAN Projekt an der UdS Sicherheit im FunkLAN Funkstrahlung Neue Techniken Funklan an der Uni des Saarlandes Folie

Mehr

Architekturen für IP-basierte Funkzugangsnetze

Architekturen für IP-basierte Funkzugangsnetze Radio Network Concepts Architekturen für IP-basierte Funkzugangsnetze Michael Schopp,, Helmut Becker Radio Network Concepts Information and Communication Mobile Siemens AG ITG-Workshop IP in Telekommunikationsnetzen

Mehr

Kommunikationsinfrastrukturen mit der Herausforderung: Mobilität, Multimedia und Sicherheit. Claus Meergans claus.meergans@nortel.com 12.09.

Kommunikationsinfrastrukturen mit der Herausforderung: Mobilität, Multimedia und Sicherheit. Claus Meergans claus.meergans@nortel.com 12.09. Kommunikationsinfrastrukturen mit der Herausforderung: Mobilität, Multimedia und Sicherheit Claus Meergans claus.meergans@nortel.com 12.09.2006 Die Trends im Netzwerk Die multi- mediale Erfahrung Freiheit

Mehr

Fallstudie HP Unified WLAN Lösung

Fallstudie HP Unified WLAN Lösung Fallstudie HP Unified WLAN Lösung Ingentive Networks GmbH Kundenanforderungen Zentrale WLAN Lösung für ca. 2200 Mitarbeiter und 20 Standorte Sicherer WLAN Zugriff für Mitarbeiter Einfacher WLAN Internetzugang

Mehr

Voice over IP (VoIP) PING e.v. Weiterbildung Dennis Heitmann 13.08.2009

Voice over IP (VoIP) PING e.v. Weiterbildung Dennis Heitmann 13.08.2009 Voice over IP (VoIP) PING e.v. Weiterbildung Dennis Heitmann 13.08.2009 Gliederung Was ist VoIP? Unterschiede zum herkömmlichen Telefonnetz Vorteile und Nachteile Was gibt es denn da so? Kosten VoIP-Praxisvorführung

Mehr

Mobile Datenkommunikation - Funkwellen für Surfer -

Mobile Datenkommunikation - Funkwellen für Surfer - FORSCHUNGSZENTRUM JÜLICH GmbH Zentralinstitut für Angewandte Mathematik 52425 Jülich, (02461) 61-6402 Beratung und Betrieb, (02461) 61-6400 Technische Kurzinformation FZJ-ZAM-TKI-0406 W.Anrath, S.Werner

Mehr

Aktuelle. Wireless LAN Architekturen

Aktuelle. Wireless LAN Architekturen Aktuelle Wireless LAN Architekturen Peter Speth Kellner Telecom www.kellner.de 17. November 2003 / 1 WLAN Evolution Gestern punktuelle Erweiterung des kabelgebundenen Netzwerkes Bis zu 10 Accesspoints

Mehr

High-speed Internet Access. Your mobile workspace at this Hotspot

High-speed Internet Access. Your mobile workspace at this Hotspot High-speed Internet Access Your mobile workspace at this Hotspot Kabellos am Hotspot surfen so oder so Sie haben ein Notebook mit Mobile Unlimited von Swisscom Mobile. Dann surfen Sie in der ganzen Schweiz

Mehr

Mobilfunksysteme: GSM/SMS/EDGE/MMS

Mobilfunksysteme: GSM/SMS/EDGE/MMS Mobilfunksysteme: GSM/SMS/EDGE/MMS GSM, die Systemarchitektur 6. Januar 2008 Seite 1 Typische Anwendung von GSM... Seite 2 1 Einleitung Seite 3 History of cellular systems cellular concept: Bell Labs 1949

Mehr

2. In Abhängigkeit von der Anwendung und dem Zugang zum Internet im engeren Sinne verbindet sich der User über verschiedene Varianten mit dem Netz.

2. In Abhängigkeit von der Anwendung und dem Zugang zum Internet im engeren Sinne verbindet sich der User über verschiedene Varianten mit dem Netz. Aufbau des Internet Im Überblick ist im wesentlichen die Hardeare dargestellt, die digitale Informationen vom User bis zur Entstehung transportiert. Für diesen Überblick beschränken wir uns auf die wesentlichen

Mehr

Dienstgüte in Mobilen Ad Hoc Netzen

Dienstgüte in Mobilen Ad Hoc Netzen Dienstgüte in Mobilen Ad Hoc Netzen KM-/VS-Seminar Wintersemester 2002/2003 Betreuer: Oliver Wellnitz 1 Was ist Dienstgüte? Einleitung The collective effect of service performance which determine the degree

Mehr

Geschichte und Anwendungsgebiete

Geschichte und Anwendungsgebiete VoIP Geschichte und Anwendungsgebiete Sehr geehrter Herr Schmid, liebe Mitschüler, wir möchte euch heute die Geschichte und die Anwendungsgebiete von Voice over IP etwas näher bringen. 1 Inhaltsangabe

Mehr

Nokia Siemens Networks

Nokia Siemens Networks Nokia Siemens Networks Broadband Powerline Access Solutions Christian Nawroth, 4. Dezember 2008 2 Nokia Siemens Networks Unsere Vision ist, daß 2015 weltweit 5 Mrd. Menschen online sein werden. 3 Mrd.

Mehr

Mobile Business. Kapitel 2. Netze, Ortungsverfahren und Mobile Endgeräte

Mobile Business. Kapitel 2. Netze, Ortungsverfahren und Mobile Endgeräte Fakultät Informatik, Prof. Dr. rer. pol. Thomas Urban Mobile Business Kapitel 2 Netze, Ortungsverfahren und Mobile Endgeräte 2.1 Netzaufbau, -technik und funktionsweise, Bandbreiten und Übertragungsgeschwindigkeiten

Mehr

Virtual Access Points Michael Roßberg

Virtual Access Points Michael Roßberg Virtual Access Points Michael Roßberg Übersicht Einleitung Definition und Motivation 802.11 Management Implementierungstechniken Zusammenfassung Quellen Einleitung 802.11 einer der erfolgreichsten Standards

Mehr

57. DFN-Betriebstagung Überblick WLAN Technologien

57. DFN-Betriebstagung Überblick WLAN Technologien 57. DFN-Betriebstagung Überblick WLAN Technologien Referent / Redner Eugen Neufeld 2/ 36 Agenda WLAN in Unternehmen RadSec Technologie-Ausblick 3/ 36 WLAN in Unternehmen Entwicklung Fokus Scanner im Logistikbereich

Mehr

Prinzipiell wird bei IP-basierenden VPNs zwischen zwei unterschiedlichen Ansätzen unterschieden:

Prinzipiell wird bei IP-basierenden VPNs zwischen zwei unterschiedlichen Ansätzen unterschieden: Abkürzung für "Virtual Private Network" ein VPN ist ein Netzwerk bestehend aus virtuellen Verbindungen (z.b. Internet), über die nicht öffentliche bzw. firmeninterne Daten sicher übertragen werden. Die

Mehr

Seminar Mobile Netzwerke

Seminar Mobile Netzwerke Organisation Seminar W&M Datum Inhalt 2015-03-04 Kick-off Seminar Mobile Netzwerke * Organisation des Seminars * Einführung in Wireless und Mobile: a. Wireless Technologien & Netze b. Programmierung von

Mehr

Einfache Ideen verändern die Welt. René Princz-Schelter

Einfache Ideen verändern die Welt. René Princz-Schelter Einfache Ideen verändern die Welt René Princz-Schelter Montag, 12. April 2010 Ein Pferd frisst keinen Gurkensalat The quick brown fox jumps over the lazy dog 640 kb sollten eigentlich genug für jeden sein

Mehr

Next Generation Networks

Next Generation Networks Gerd Siegmund Next Generation Networks IP-basierte Telekommunikation Hüthig Verlag Heidelberg Inhaltsverzeichnis 1 Einführung.. 1 1.1 Netze im Wandel 1 1.1.1 Übersicht 3 1.1.2 Ein Zielnetz oder zunehmende

Mehr

Hintergründe zur Datenübertragung in GSM- und UMTS-Mobilfunknetzen für Sunny WebBox / Sunny Boy Control

Hintergründe zur Datenübertragung in GSM- und UMTS-Mobilfunknetzen für Sunny WebBox / Sunny Boy Control GSM Hintergründe zur Datenübertragung in GSM- und UMTS-Mobilfunknetzen für Sunny WebBox / Sunny Boy Control Inhalt Schon zu Beginn der Konzeption des GSM-Standards wurden neben der Telefonie auch Services

Mehr

Next Generation Network oder Die Zukunft der Standortvernetzung

Next Generation Network oder Die Zukunft der Standortvernetzung Next Generation Network oder Die Zukunft der Standortvernetzung Jens Müller, Dipl.-Ing (FH), MSc QSC AG - Managed Services München, Business Partnering Convention 2011 Agenda Standortvernetzung war gestern

Mehr

Leistungsstark Effizient Vielseitig Entdecken Sie neue Möglichkeiten

Leistungsstark Effizient Vielseitig Entdecken Sie neue Möglichkeiten Wireless LAN-Portfolio Portfolio von Motorola von Motorola Leistungsstark Effizient Vielseitig Entdecken Sie neue Möglichkeiten Erweitern Sie Sie Ihr Ihr Geschäftsmodell mit WLAN mit WLAN Werden Sie Teil

Mehr

Folgende Voraussetzungen für die Konfiguration müssen erfüllt sein:

Folgende Voraussetzungen für die Konfiguration müssen erfüllt sein: 1. Access Point im Personal Mode (WEP / WPA / WPA2) 1.1 Einleitung Im Folgenden wird die Konfiguration des Access Point Modus gezeigt. Zur Absicherung der Daten werden die verschiedenen Verschlüsselungsalgorithmen

Mehr

Die Next Generation Networks im Hochschullabor

Die Next Generation Networks im Hochschullabor Die Next Generation Networks im Hochschullabor Prof. Dr. Ulrich Trick, am Main, Fachbereich Informatik und Ingenieurwissenschaften,, Kleiststr. 3, 60318 Frankfurt, Tel. 06196/641127, E-Mail: trick@e-technik.org,

Mehr

Internet Economics. WirelessLAN: Technologie und kommerzielle Dienstleistungen. Disposition. Basisstandard und Erweiterungen

Internet Economics. WirelessLAN: Technologie und kommerzielle Dienstleistungen. Disposition. Basisstandard und Erweiterungen Internet Economics WirelessLAN: Technologie und kommerzielle Dienstleistungen Disposition z Standard IEEE 802.11 Basisstandard und Erweiterungen z WLAN in der Anwendung Anforderungen und Fallbeispiele

Mehr

GSM & Co: Durchbruch für M2M Projekte. Communication World 2008 Marc Sauter, Cinterion Wireless Modules

GSM & Co: Durchbruch für M2M Projekte. Communication World 2008 Marc Sauter, Cinterion Wireless Modules GSM & Co: Durchbruch für M2M Projekte Communication World 2008 Marc Sauter, GmbH 2008, All rights reserved Inhalt Was ist M2M? Markttrends und -treiber Intelligent M2M Communication Eine M2M Erfolgsgeschichte

Mehr

Eine Open-Source-Lösung für sichere Mobiltelefonie

Eine Open-Source-Lösung für sichere Mobiltelefonie Eine Open-Source-Lösung für sichere Mobiltelefonie Projekt aus dem Projektstudium der WI-Masterstudenten Alexander Höftmann, Christine Mummert, Christian Paschke, Mario Stemmler und Günter-Ulrich Tolkiehn

Mehr

Internetzugänge - Technik, Tarife und Fallen

Internetzugänge - Technik, Tarife und Fallen zugang Was ist das? Dienste im zugänge - Technik, Tarife und Fallen anschluss anbieter David Mika Verein zur Förderung der privaten Nutzung e.v. Donnerstag, den 26. April 2012 1 / 34 Themenüberblick zugang

Mehr

Funknetzwerke und Sicherheit in Funknetzwerken. Dipl.-Inf. (FH) Hendrik Busch PING e.v. Revision 8, 31.8.2006

Funknetzwerke und Sicherheit in Funknetzwerken. Dipl.-Inf. (FH) Hendrik Busch PING e.v. Revision 8, 31.8.2006 Funknetzwerke und Sicherheit in Funknetzwerken Dipl.-Inf. (FH) Hendrik Busch PING e.v. Revision 8, 31.8.2006 Was ist Wireless LAN? Viele Namen, eine Technologie Funknetzwerk WLAN Wireless LAN WaveLAN IEEE

Mehr

Kommunikationsnetze. Praxis Internet. Michael@Rotert.de. Version 4.0

Kommunikationsnetze. Praxis Internet. Michael@Rotert.de. Version 4.0 Kommunikationsnetze Praxis Internet Michael Rotert E-Mail: Michael@Rotert.de Version 4.0 Inhalt Einführung (Teil 1) Lokale Netze (LAN) Topologie, Komponenten Ethernet Punkt-zu-Punkt über Ethernet Virtuelle

Mehr

Mobilität in IP-basierten Netzen Die ITG-FG 5.2.4

Mobilität in IP-basierten Netzen Die ITG-FG 5.2.4 Mobilität in IP-basierten Netzen Die ITG-FG 5.2.4 Ingo Willimowski Workshop: IP Netzmanagement, IP Netzplanung und IMST GmbH Carl-Friedrich-Gauß-Straße 2 D-47475 Kamp-Lintfort, Germany e-mail: willimowski@imst.de

Mehr

vom Stillstand. Toshiba PCs mit Original Microsoft Windows vorinstalliert http://www.microsoft.com/piracy/howtotell Nehmen Sie Abschied

vom Stillstand. Toshiba PCs mit Original Microsoft Windows vorinstalliert http://www.microsoft.com/piracy/howtotell Nehmen Sie Abschied Intel, das Intel Inside Logo, Pentium, Intel SpeedStep und Celeron sind Warenzeichen oder eingetragene Warenzeichen der Intel Corporation oder deren Tochtergesellschaften in den Vereinigten Staaten oder

Mehr

Planung für Voice over IP

Planung für Voice over IP Planung für Voice over IP Evaluierung von Architekturen und Details zur Realisierung von Dr.-Ing. Behrooz Moayeri Seite i Inhaltsverzeichnis INHALTSVERZEICHNIS I VORWORT 1 1 UNTERNEHMENSSTANDARD FÜR SPRACHKOMMUNIKATION

Mehr

Sichere Identitäten in Smart Grids

Sichere Identitäten in Smart Grids Informationstag "IT-Sicherheit im Smart Grid" Berlin, 23.05.2012 Sichere Identitäten in Smart Grids Dr. Thomas Störtkuhl, Agenda 1 2 Beispiele für Kommunikationen Digitale Zertifikate: Basis für Authentifizierung

Mehr

Vorstellung der neuen Fortinet-Meru WLAN Lösung

Vorstellung der neuen Fortinet-Meru WLAN Lösung Vorstellung der neuen Fortinet-Meru WLAN Lösung Jan Willeke-Meyer, Regional Sales Manager 16. September 2015 Copyright Fortinet Inc. All rights reserved. Agenda Übernahme Meru durch Fortinet Warum? Markttrends

Mehr

Einführung in 802.1x Organisatorische und technische Voraussetzungen Zertifikatsbasierte 802.1x Anwendung in der Praxis

Einführung in 802.1x Organisatorische und technische Voraussetzungen Zertifikatsbasierte 802.1x Anwendung in der Praxis Präsentationen Einführung in 802.1x Organisatorische und technische Voraussetzungen Zertifikatsbasierte 802.1x Anwendung in der Praxis Erfahrungsbericht Wireless 802.1x am USZ Anforderungen des USZ und

Mehr

WLAN Drahtloses Netzwerk

WLAN Drahtloses Netzwerk WLAN Drahtloses Netzwerk Florian Delonge & Jürgen Thau AUGE e.v. 18. Dezember 2004 WLAN (F. Delonge, J. Thau) (1) Wireless LAN, das drahtlose Netzwerk Inhalt: Überblick WLAN Vergleich WLAN / Bluetooth

Mehr

MWN Ethernet-basierte & mobile drahtlose Zugangsarchitekturen

MWN Ethernet-basierte & mobile drahtlose Zugangsarchitekturen MWN Ethernet-basierte & mobile drahtlose Zugangsarchitekturen Workshop Mobilität und Multimedia Von den Grundlagen bis zur Anwendung Natalia Ossipova Djamshid Tavangarian Universität Rostock Institut für

Mehr

Umstellung der Kommunikationsnetze der Deutschen Telekom auf IP-basierte Technologie. Bedeutung und Auswirkung auf die Stromnetze

Umstellung der Kommunikationsnetze der Deutschen Telekom auf IP-basierte Technologie. Bedeutung und Auswirkung auf die Stromnetze Umstellung der Kommunikationsnetze der Deutschen Telekom auf IP-basierte Technologie Bedeutung und Auswirkung auf die Stromnetze 16. April 2015 Impressum Forum Netztechnik / Netzbetrieb im VDE (FNN) Bismarckstraße

Mehr

Notizen-Neuerungen WIRELESS LAN

Notizen-Neuerungen WIRELESS LAN WIRELESS LAN Wireless-Netzwerk...2 Wireless Grundlagen... 2 Mehr Flexibilität durch mobiles Arbeiten Netzwerk ohne Kabelsalat... 2 Aufbau... 3 Übersicht der Standards... 4 Hotspot... 5 Arten des Netzwerkaufbaus...6

Mehr

Virtual Private Networks mit zentralem Management Bausteine einer ganzheitlichen Remote Access-Lösung

Virtual Private Networks mit zentralem Management Bausteine einer ganzheitlichen Remote Access-Lösung KompetenzTag 24.11.2004 Virtual Private Networks mit zentralem Management Bausteine einer ganzheitlichen Remote Access-Lösung Peter Söll (CEO) Internet ps@ncp.de www.ncp.de WAS IST UNTER EINER GANZHEITLICHEN

Mehr

ALL YOU NEED IN A WIRELESS WORLD

ALL YOU NEED IN A WIRELESS WORLD Lager und Logistik wireless Ba Automobilindustrie WAN Gesundheitswesen Drahtlose Gastzugänge Beispielhafte Lösungen für wirtschaftliche und flexible WirelessLAN-Infrastrukturen Wireless Backbone 02_03

Mehr

Drahtlose Kommunikation Teil 3. Dipl.-Inf. J. Richling Wintersemester 2003/2004

Drahtlose Kommunikation Teil 3. Dipl.-Inf. J. Richling Wintersemester 2003/2004 Drahtlose Kommunikation Teil 3 Dipl.-Inf. J. Richling Wintersemester 2003/2004 Überblick Anwendungen Grundlagen Beschränkungen natürlicher und künstlicher Art Beispiele IrDA WLAN Bluetooth GSM UMTS 11-1

Mehr

Das Netzwerk einrichten

Das Netzwerk einrichten Das Netzwerk einrichten Für viele Dienste auf dem ipad wird eine Internet-Verbindung benötigt. Um diese nutzen zu können, müssen Sie je nach Modell des ipads die Verbindung über ein lokales Wi-Fi-Netzwerk

Mehr

Alternative Lösungen durch Funkanbieter durch innovative Lösungen Versorgungslücken schließen. Robert Schönau Ilm Provider Version 1.

Alternative Lösungen durch Funkanbieter durch innovative Lösungen Versorgungslücken schließen. Robert Schönau Ilm Provider Version 1. Alternative Lösungen durch Funkanbieter durch innovative Lösungen Versorgungslücken schließen Themenübersicht Richtfunk Was ist Richtfunk? Wie wird es realisiert? Kosten Vorteile WMAN Was ist WMAN? Wie

Mehr

Innovative VoIP-Lösungen (15:50 Uhr, Track 2) VoIP mit DECT und neue ZyXEL VoIP-PBX

Innovative VoIP-Lösungen (15:50 Uhr, Track 2) VoIP mit DECT und neue ZyXEL VoIP-PBX Innovative VoIP-Lösungen (15:50 Uhr, Track 2) VoIP mit DECT und neue ZyXEL VoIP-PBX David Studer, Aastra Telecom Schweiz AG Candid Aeby, Studerus AG Innovative VoIP-Lösungen mit DECT Technology Forum Präsentiert

Mehr

WLAN im Fokus. Unternehmenspräsentation I 1

WLAN im Fokus. Unternehmenspräsentation I 1 WLAN im Fokus Unternehmenspräsentation I 1 WLAN im Fokus I 2 Agenda Aktuelle Bedrohungsszenarien im WLAN-Umfeld Neue Standards und Trends Vergleich der Lösungen Cisco, Juniper, Aerohive, Aruba WLAN im

Mehr

bintec elmeg Filialisten Lösungen mit WLAN Controllern IP Access WLAN ITK VoIP / VoVPN IT Security UC Unified Teldat Group Company

bintec elmeg Filialisten Lösungen mit WLAN Controllern IP Access WLAN ITK VoIP / VoVPN IT Security UC Unified Teldat Group Company Filialisten Lösungen mit WLAN Controllern Autor: Hans-Dieter Wahl, Produktmanager bei Teldat GmbH IP Access WLAN ITK VoIP / Vo IT Security UC Unified Communications WLAN Netzwerke findet man inzwischen

Mehr

ProSafe 20-AP Wireless Controller WC7520

ProSafe 20-AP Wireless Controller WC7520 ProSafe 20-AP Wireless Controller Datenblatt Verlässlicher, sicherer und skalierbarer Wireless Controller Der NETGEAR ProSafe 20-AP Wireless Controller bietet eine hochperformante und mit umfangreichen

Mehr

Grundlagen & erste Schritte

Grundlagen & erste Schritte Grundlagen & erste Schritte Freies Netz Was ist das? gemeinschaftlich betriebene Infrastruktur (last mile) realisiert mit freien Übertragungstechnologien Einsatz von mesh routing (im speziellen OLSR) in

Mehr

Jörg Müller-Kindt. tküv das ohr am draht Vortrag 21C3 29. Dezember 2004

Jörg Müller-Kindt. tküv das ohr am draht Vortrag 21C3 29. Dezember 2004 tküv das ohr am draht Vortrag 21C3 29. Dezember 2004 Gliederung Entwicklung Kommunikationsnetze Entwicklung Telekommunikationsrecht und TK-Überwachung Systematik Recht Telekommunikations-Überwachung Übersicht

Mehr

Mobile Security Smartphones

Mobile Security Smartphones Mobile Security Smartphones Schmelztiegel privater und geschäftlicher Aktivitäten eberhard@keyon.ch V1.1 2011 by keyon (www.keyon.ch) Über Keyon Warum Smartphones Welcher Nutzen wird vom Unternehmen erwartet?

Mehr

Next Generation Networks und UMTS

Next Generation Networks und UMTS Next Generation Networks und UMTS Ulrich Trick, Fachgebiet Digitale Übertragungstechnik - Telekommunikationsnetze, FH Frankfurt am Main, Kleiststr. 3, D-60318 Frankfurt/M., E-Mail: trick@e-technik.org

Mehr

Verfahren zur Berechnung von Routen zur Gewährleistung von Ende-zu-Ende QoS

Verfahren zur Berechnung von Routen zur Gewährleistung von Ende-zu-Ende QoS Verfahren zur Berechnung von Routen zur Gewährleistung von Ende-zu-Ende QoS Dezember 007 Dipl.-Ing. Stefan Abu Salah Dipl.-Ing. Achim Marikar QoS (Quality of Service): Sicherstellung der Qualität Zeitkritische

Mehr

S a t S e r v i c e Gesellschaft für Kommunikationssysteme mbh

S a t S e r v i c e Gesellschaft für Kommunikationssysteme mbh sat-nms Universal Network Management and Monitoring & Control System for Multimedia Ground Terminals Enhancement and Hardware Extension SatService GmbH Hardstraße 9 D- 78256 Steißlingen Tel 07738-97003

Mehr

Lasttests zur Verifizierung der Diensteverfügbarkeit von Airborne GSM Systemen im Flugzeug

Lasttests zur Verifizierung der Diensteverfügbarkeit von Airborne GSM Systemen im Flugzeug Lasttests zur Verifizierung der Diensteverfügbarkeit von Airborne GSM Systemen im Flugzeug JDSU Acterna Germany GmbH Dipl.-Ing. (FH) Zoran Kulovnjak Business Development Manager Airborne-GSM Technisches

Mehr

VPN - Virtual Private Networks

VPN - Virtual Private Networks VPN - Virtual Private Networks Wolfgang Böhmer Kommunikationssicherheit in VPN- und IP-Netzen, über GPRS und WLAN ISBN 3-446-22930-2 Inhaltsverzeichnis Weitere Informationen oder Bestellungen unter http://www.hanser.de/3-446-22930-2

Mehr

T-Online Global Corporate Access Integrierte Remote Access Lösungen

T-Online Global Corporate Access Integrierte Remote Access Lösungen T-Online Global Corporate Access Integrierte Remote Access Lösungen 24.11.2004 Hans Panse 13.5.2004, Seite 1 Agenda 1. Marktentwicklungen 2. als Lösung 3. Ausblick 13.05.2004, Seite 2 Trends Connectivity

Mehr

Digitale Sprache und Video im Internet

Digitale Sprache und Video im Internet Digitale Sprache und Video im Internet Kapitel 6.4 SIP 1 SIP (1) SIP (Session Initiation Protocol), dient als reines Steuerungsprotokoll (RFC 3261-3265) für MM-Kommunikation Weiterentwicklung des MBONE-SIP.

Mehr

Kurzeinführung VPN. Veranstaltung. Rechnernetze II

Kurzeinführung VPN. Veranstaltung. Rechnernetze II Kurzeinführung VPN Veranstaltung Rechnernetze II Übersicht Was bedeutet VPN? VPN Typen VPN Anforderungen Was sind VPNs? Virtuelles Privates Netzwerk Mehrere entfernte lokale Netzwerke werden wie ein zusammenhängendes

Mehr

PREVIEW: LANCOM Large Scale Monitor. 1 Leistungsstarkes Programm zum Monitoring zahlreicher Netzwerkkomponenten

PREVIEW: LANCOM Large Scale Monitor. 1 Leistungsstarkes Programm zum Monitoring zahlreicher Netzwerkkomponenten LANCOMHIGHLIGHTS 2012 PREVIEW: LANCOM Large Scale Monitor 1 Leistungsstarkes Programm zum Monitoring zahlreicher Netzwerkkomponenten 1 Übersichtliche grafische Oberfläche zum Monitoring von LANCOM Routern,

Mehr

WLAN-Technologien an der HU

WLAN-Technologien an der HU WLAN-Technologien an der HU 1. Technik, Abdeckung, Verfahren 2. Gegenwärtige Sicherheitstechnologien 3. Authentifizierung 802.1x, Verschlüsselung WPA/WPA2 4. Authentifizierung und Verschlüsselung mit IPSec-VPN

Mehr

Cisco erweitert Gigabit-Ethernet-Portfolio

Cisco erweitert Gigabit-Ethernet-Portfolio Seite 1/6 Kleine und mittelständische Unternehmen Neue 1000BaseT-Produkte erleichtern die Migration zur Gigabit-Ethernet- Technologie WIEN. Cisco Systems stellt eine Lösung vor, die mittelständischen Unternehmen

Mehr

Einleitung UMTS Grundlagen UMTS Sicherheitsarchitektur. UMTS-Sicherheit. Manuel Leupold / Christian Polt. 30. Mai 2011

Einleitung UMTS Grundlagen UMTS Sicherheitsarchitektur. UMTS-Sicherheit. Manuel Leupold / Christian Polt. 30. Mai 2011 30. Mai 2011 Kurze Entwicklungsgeschichte der Mobiltelefonie Handynetze anfangs nur auf nationaler Ebene und analog verfügbar Durch GSM (Global System for mobile communication) wurden Netze digital und

Mehr

Telekommunikation in der Telematik

Telekommunikation in der Telematik Telekommunikation in der Telematik aktuelle Möglichkeiten für die Leittechnik Prof. Dr.-Ing. Ludwig Niebel Telekommunikation in der Telematik 1. Telematik? 2. Klassisches Szenario 3. Status der Telekommunikation

Mehr

Mobilitätsmanagement in GSM, GPRS und UMTS. Ruedi Arnold

Mobilitätsmanagement in GSM, GPRS und UMTS. Ruedi Arnold Mobilitätsmanagement in GSM, GPRS und UMTS Ruedi Arnold Inhalt Ablauf 1. Einführung Generationen 2. GSM (Global System for Mobile Communication) - Architektur - Handover - Zellen - Lokalisierung 3. GPRS

Mehr

16. VDE/ITG Fachtagung Mobilkommunikation 18.-19.05.2011 Osnabrück

16. VDE/ITG Fachtagung Mobilkommunikation 18.-19.05.2011 Osnabrück Initiale Entwicklung eines SIP-/RTP-basierten Kernnetzes für das TETRA-Mobilfunksystem zur transparenten Verfügbarmachung von dessen Leistungsmerkmalen in LTE 16. VDE/ITG Fachtagung Mobilkommunikation

Mehr

Kerio Control Workshop

Kerio Control Workshop Kerio Control Workshop Stephan Kratzl Technical Engineer 1 Agenda Über brainworks & Kerio Warum Kerio Control Highlights Preise & Versionen Kerio Control Live 2 Über brainworks & Kerio 3 brainworks brainworks

Mehr