Juli 2004 / Netskill AG Virtual Roundtable: Zukunftstechnologien im Netzwerkbereich - Status Quo und Visionen? Teilnehmer: Dr. rer. nat. Harald Sack Organisation: Institut für Informatik - Universität Jena Kurzeinführung in das Thema: Schlagworte wie Mobile Business, WLAN, IP-Telefonie, offene, geschlossene und unternehmensübergreifende gar virtuelle Netzwerke, Netzwerktechnologien für die Supply Chain und eine Vielzahl anderer Trends und Trendchen werden im Zusammenhang mit Netzwerken in den wichtigen Informations- und Kommunikations-Technologiefeldern immer wieder genannt. Gleichzeitig können quasi alle Internet-Nutzer täglich erleben, wie das Netz selbst den ständig zunehmenden Attacken von Sicherheitslücken ausnutzenden, mehr oder minder kriminellen, Angreifern ausgesetzt ist. Vernetzung hat offensichtlich neben Nutzen und Erbauung der NetCommunities auch einen Preis und nicht unerhebliche Risiken. Was sind aktuell die wirklichen Mega-Trends bei IuK-Netzwerktechnologien? Welche Irrwege wurden eingeschlagen, korrigiert und wo liegen die Chancen und Risiken? Was sind die Hardware-Lösungen, die tragen, wer integriert was? Ist Open Source Segen oder Fluch für Netzwerke? Telefonieren wir bald alle über Internet und sind mit einem Mini-PC/PDA/Handy immer online durch vernetze Städte? In Zeiten knapper Budgets in den IT-Abteilungen und gleich bleibend hohem Innovationstempo in der IT-Anbieterindustrie besteht somit erhöhter Informationsbedarf und Entscheidungsdruck in den Unternehmen. Die Unternehmen stehen also vor einer doppelten Herausforderung: einerseits die Nutzung der neuen Möglichkeiten von IuK-Netzwerken für die Realisierung interner Effizienzfortschritte und andererseits die Erweiterung und Ergänzung des eigenen Leistungsportfolios um Produkte und Dienste, die auf solchen Netzwerktechnologien aufbauen, um im globalen Wettbewerb vorne zu bleiben. Die Antworten zu diesen und weiteren spannenden Fragen finden Sie in diesem Virtual Roundtable. Dabei konnten Wissenschaftler und renommierte Experten aus führenden Unternehmen für den VR gewonnen werden. 1
Sehr geehrter Herr Dr. Sack, Competence Site: Zum Einstieg Seit wann beschäftigen Sie sich persönlich mit dem Thema Netzwerke? In welchen Teilbereichen sind Sie und Ihre Organisation besonders aktiv? Den Einstieg in das Thema Computernetzwerke fand ich während meines Informatikstudiums 1987 im Zuge eines Praktikums bei der Firma Siemens in München, bei dem es um die Entwicklung eines E- Mail-Systems ging. Während meiner Tätigkeit als Netzwerk- und Systemadministrator (1993-1997) konnte ich eingehende praktische Erfahrungen in Betrieb und Planung heterogener Netzwerkumgebungen sammeln und seit 1999 zählen Computernetze, Internetworking und Web- Technologien zu den Themengebieten meiner Lehrveranstaltungen an der Universität Trier und der Universität Jena. Zu den Schwerpunkten meiner Arbeit an der Universität Jena zählen Anwendungsentwicklung im Bereich Grid-Computing, Effizienzsteigerung von Suchmaschinen, Information Retrieval in multimedialen Datenbeständen und Semantic Web-Technologien. Competence Site: Aktuelle Netzwerktrends Voice-over-IP: Hat das Festnetz ausgedient? Wer Telefonate übers Internet führt kann eine Menge Geld sparen: Da keine Leitung mehr geschaltet ist, können auch keine Gesprächseinheiten mehr berechnet werden, lediglich die Onlinekosten fallen an. Wie ausgereift und sicher ist diese Technik wirklich? Das grundlegende Problem, das bislang eine großmaßstäbliche Verbreitung der Internet-Telefonie im professionellen Bereich verhindert hat, lag meines Erachtens in der Vielzahl der unterschiedlichen technischen Lösungen und des Fehlens eines einheitlich vorgeschriebenen Standards. Dies beginnt bei den unterschiedlichen Sprach-Codecs (z.b. G.711a, G.711u, GSM, G.723, ILBC usw.) die zur Digitalisierung der analogen Sprachdaten verwendet werden können und setzt sich bei den Steuerungs- und Kontrollprotokollen (z.b. SIP, H.323, SCCP, MGCP usw.) für der Rufaufbau und - abbau fort. Ein weiteres Problem stellt das Fehlen eines festen Rufnummernplans dar, der dafür sorgt, dass Teilnehmer auch aus dem herkömmlichen Telefonnetz heraus stets unter einer eindeutig festgelegten Rufnummer erreichbar sind. Zwar bietet die Internet-Telefonie einen enormen Kostenvorteil, da die anfallenden Nutzungsgebühren sich lediglich auf das übertragene Datenvolumen beziehen und im Rahmen der übrigen Onlinekosten 2
abgerechnet werden können, aber das Internet an sich birgt bereits einen weiteren Stolperstein für die Voice-over-IP-Technologie: Das Internet kann bislang noch keine Garantie für die Qualität der geleisteten Datenübertragung bieten. IPv4 als Basisprotokoll stellt lediglich einen so genannten Best- Effort -Dienst zur Verfügung. Ob und vor allem wann die übertragenen Daten beim Empfänger ankommen kann nicht garantiert werden und so sind Übertragungsfehler, verlorene Datenpakete, Verzögerungen und Echos die Regel. Auch wenn diese den regulären Datenverkehr kaum beeinträchtigen, stellt Voice-over-IP als interaktive Realzeit-Anwendung sehr hohe Ansprüche an eine gleich bleibend gute Übertragungsqualität. Insbesondere verschärft sich diese Problematik, wenn zusätzlich zur Sprache auch noch Videobilder (Bild-Telefonie oder Videokonferenz) übertragen werden sollen und die Nutzung dieser Dienste auf breiter Basis zunimmt. Eine weitere Frage stellt sich in Bezug auf die Datensicherheit bei Voice-over-IP. Im Gegensatz zum herkömmlichen Telefonnetz können Datenpakete im lokalen Netzwerk leicht mitgelesen und mit geeigneter Software dekodiert werden, so dass eine zusätzliche Verschlüsselung der Sprachdaten ratsam erscheint. Sollte sich das Problem der einheitlichen Standards in naher Zukunft lösen, wird Voice-over-IP sicher eine kostengünstige Alternative zum herkömmlichen Telefonnetz bieten. Der Verkabelungsaufwand neuer Bürokomplexe könnte sich nahezu halbieren, da auf das Verlegen eines Telefon-Netzwerkes verzichtet und lediglich ein Datennetz konzipiert und installiert werden müsste. Competence Site: Aktuelle Netzwerktrends W-LAN: Ergänzung oder Konkurrenz zu UMTS? Mit UMTS werden Handys zu Multimediastationen, Emails und sogar Filme können problemlos übertragen werden. Bis die schöne neue Mobilfunk-Welt Realität wird, werden allerdings noch einige Jahre ins Land gehen. In der Zwischenzeit hat sich W-LAN zu einer echten Konkurrenz gemausert, bereits jetzt gibt es Handyprototypen die auch Sprachtelefonie per W-LAN ermöglichen. Wie schätzen Sie das Potential dieser beiden Zukunftstechnologien ein? Welche wird sich durchsetzen? Das Schlagwort UMTS löst in der Medienresonanz mittlerweile ähnliche Reaktionen hervor wie die Problematik der deutschen LKW-Maut. Lizenzen für Frequenzbereiche wurden für Milliardenbeträge verkauft, die technischen Versprechungen der UMTS-Anbieter konnten indessen bislang nicht eingelöst werden. In der Zwischenzeit erwuchs sich in der W-LAN Technologie ein ernst zu nehmender Konkurrent. Durchsetzen wird sich diejenige Technologie, der es gelingt, einen flächendeckenden und kosteneffizienten Service zu bieten. Dabei ähnelt sich die derzeit vorhandene Infrastruktur der beiden 3
Konkurrenten in einem Punkt sehr: seine volle Leistungsfähigkeit kann UMTS auch nur an so genannten Hot-Spots, also Ballungszentren wie Flughäfen, Bahnhöfen oder Bürokomplexen in der Großstadt ausspielen. In der Regel wird aber eben dort auch ein W-LAN-Zugang angeboten, der höhere Bandbreiten bei z.t. günstigeren Kosten bietet. Die Abdeckung der nicht zu den Ballungszentren zählenden Gebiete ist mit UMTS derzeit ebenso wenig gegeben wie mit W-LAN. Sollte UMTS nicht schon bald flächendeckend verfügbar sein, wird mit dem neuen IEEE 802.16 Standard, der so genannten Wimax-Technologie, ein drahtloser Breitbandzugang zur Verfügung stehen (Bandbreiten bis zu 70 Mbps bei Reichweiten von bis zu 50 km), durch den Backbone-Qualität auf breiter Basis z.b.auch in ländlichen Gebieten realisiert werden kann, in denen auf Grund der Konzeption des UMTS-Netzes bislang lediglich eine verminderte und gegenüber Wimax verschwindend geringe Bandbreite angeboten werden kann. W-LAN arbeitet im lizenzfreien ISM-Frequenzbereich (Industrial, Scientific, Medical), so dass hier die immensen Lizenzvergabekosten, die bei UMTS von den großen Telekommunikationsgesellschaften geleistet werden mussten, nicht ins Gewicht fallen und den Markt für eine Vielzahl von Anbietern öffnet. So fallen im W-LAN-Bereich einzig Infrastrukturkosten an, während die UMTS-Technologie zusätzlich die im Vorfeld angefallenen Lizenzkosten erwirtschaften muss. Aus technischer Sicht müssten für ein flächendeckendes W-LAN-Netzwerk insbesondere auch für die mobile Sprachkommunikation zusätzliche Probleme gelöst werden. Dazu zählt z.b. das naht- und verzugslose Handover von einer Funkzelle in die nächste, verbunden mit einem einheitlichen Abrechnungsmodell für anfallende Verbindungskosten. Der geplante Quality-of-Service Standard IEEE 802.11e soll allerdings in diesem Punkt entscheidende Verbesserungen mit sich bringen. Im Bereich der Unternehmen wird W-LAN sicherlich auch in Verbindung mit anderen Technologien, wie z.b. RFID (Radio Frequency Identification) zur Auszeichnung von Produkt- und Lagerbeständen zu neuen Anwendungen führen, die von der automatisierten Lagerverwaltung entlang der gesamten Supply-Chain von Produktion, Logistik bis hin zum Verkauf reichen werden. Competence Site: Aktuelle Netzwerktrends Vernetzte Zusammenarbeit über Unternehmensgrenzen hinweg Durch das Internet und vernetzte Intranets ist die Businesslandschaft zum globalen Dorf geworden. Wie hat sich die Zusammenarbeit zwischen Unternehmen durch solche Netzwerke verändert? Welchen Stellenwert hat dabei der Sicherheitsaspekt? Verschlüsselung sensitiver Daten sollte heute für jedes Unternehmen oberste Priorität besitzen. Mit den so genannten Virtual Private Networks (VPN) wird den Unternehmen dabei eine Technologie an die Hand gegeben, die eine sichere Vernetzung der unternehmenseigenen Intranets über das 4
öffentliche Internet hinweg gestattet und es bei korrekter Konfiguration dem außen stehenden Angreifer nahezu unmöglich macht, sicherheitsrelevante Informationen auszuspähen. Die verschlüsselte Kommunikation in VPNs läuft über das Protokoll IPsec, das im Gegensatz zu der im W- LAN verwendeten WEP-Verschlüsselung (Wired Equivalent Privacy) bislang als sicher gilt. Gerade die in der vorangegangenen Frage favorisierten W-LANs bilden derzeit eines der größten Sicherheitsrisiken im Unternehmensübergreifenden Intranet. Nicht, dass es sich von vorneherein um eine unsichere Technologie handeln würde, liegt das Problem vielmehr im mangelnden Sicherheitsbewusstsein der Betreiber. Meist werden W-LANs lediglich mit den von den Herstellern voreingestellten Parametern betrieben, ohne dass auf die Konfiguration von Zugangsbeschränkungen (exklusive Teilnehmerlisten mit Identifikation der geräteeigenen MAC-Adresse) oder Verschlüsselung des W-LAN-Datenverkehrs geachtet wird. Dabei genügt dem Angreifer oft ein mobiles Endgerät mit W-LAN-Netzadapter auf dem Firmenparkplatz, um den gesamten Firmendatenverkehr ohne große Insiderkenntnisse abzuhören und ggf. sogar aktiv anzugreifen. Aber selbst bei einer korrekten Sicherheits-Konfiguration können die versendeten Datenpakete von einem Lauscher protokolliert werden, ohne dass dieser einen physischen Zugang zum Firmennetzwerk besitzen muss. Die in W- LANs eingesetzte WEP-Verschlüsselung lässt sich heute bereits vorausgesetzt, der Datenverkehr kann lange genug abgehört und protokolliert werden mit einfachen Mitteln brechen. Im Datenstrom wiederkehrende Muster können erkannt und die verwendeten Schlüssel können daraus berechnet werden, unabhängig davon, welche Schlüssellänge gewählt wurde. Ein hinreichender Sicherheits- Standard wird mit den Richtlinien von IEEE 802.11i realisiert werden. Allerdings ist die Standardisierungsphase bislang noch nicht abgeschlossen. Daher wurde mit WPA (WiFi Protected Access) eine Zwischenlösung vorgeschlagen, die die in WEP verwendeten Schlüssel dynamisch in kurzen Abständen nach dem TKIP-Protokoll (Temporal Key Integrity Protocol) ständig verändert und ein Ausspähen des Schlüssels durch Protokollierung des Datenverkehrs deutlich erschwert. Ein einfaches Firmware-Update der WEP-Hardware sichert dabei die bereits getätigten Hardware- Investitionen der Unternehmen. Sensitive Daten sind daher im W-LAN stets über zusätzliche Sicherheitsmechanismen zu schützen, wie z.b. Verschlüsselung des E-Mail-Datenverkehrs, die Verwendung digitaler Signaturen und die Überprüfung von Zertifikaten der Kommunikationspartner gearbeitet werden. Die Unternehmen müssen für ihren sensiblen Datenverkehr daher entsprechende Krypto-Policies entwickeln und durchsetzen, die vorgeben, auf welche Weise etwa Personal- und Vorstandsdaten, Engineering- Informationen, Vertriebsdokumente, Kundendaten oder Preislisten zu verschlüsseln sind. Das mangelnde Sicherheitsbewusstsein der Endanwender stellt dabei jeweils die größte Gefahrenquelle dar. Allerdings können einfache Analogien bereits helfen, eine entsprechende Motivation zur Durchsetzung der Krypto-Policies zu vermitteln. Schließlich werden die oben genannten Dokumente in der Regel auch nicht in öffentlich zugänglichen Schränken aufbewahrt, sondern bleiben unter Verschluss und werden nur an autorisierte Mitarbeiter ausgehändigt. 5
Ein weiterer Punkt ist die Verwundbarkeit durch aktive Angriffe von außen durch Einbrüche oder Viren. Um diese Gefahren zu minimieren, ist die Einrichtung und zuverlässige Wartung eines firmeneigenen Firewall-Systems unabdingbar. Competence Site: Zukunftstechnologien Neue Trends und Hypes Die bereits dargestellten Techniken Voice-over-IP und W-LAN sind momentan in aller Munde. Welche Trends im Netzwerkbereich sehen Sie als besonders viel versprechend an und worauf setzt Ihre Organisation? Welche neuen Techniken werden sich etablieren und welche nicht? Welche Chancen aber auch Gefahren bergen diese neuen Techniken? Losgelöst von neuen Technikbasierten Ansätzen bietet die Semantic Web Technologie den Unternehmen neue Möglichkeiten innerhalb des B2B-E-Commerce. Zwischen den Unternehmen ausgetauschte Daten können heute - insofern sich die beteiligten Unternehmen nicht auf ein gemeinsames Datenmodell geeinigt haben nicht automatisch verstanden, entsprechend weiterverarbeitet und damit in mitunter weitreichende Entscheidungen umgesetzt werden. Das bislang gemeinsam eingesetzte Datenmodell wird derzeit von den Programmierern der beteiligten Firmen manuell festgelegt, die die Bedeutung des dabei verfolgten Geschäftsprozess stets berücksichtigen müssen. Das Semantic Web hat sich zum Ziel gesetzt, Daten in Dokumenten dergestalt auszuzeichnen, dass ein automatisches Verstehen dieser Daten durch autonom agierende Netzwerkprogramme (Agenten) ermöglicht wird. Zu diesem Zweck ist es notwendig, zuvor die in diesen Dokumenten verwendeten Schlüsselbegriffe mit einer entsprechenden Ontologie zu klassifizieren. Mit Hilfe des Resource Description Framework (RDF) können Ontologien formuliert werden, die Daten miteinander in eine semantische Beziehung setzen und Regeln zu ihrer Behandlung formulieren. Dabei kann die von den Kommunikationspartnern gemeinsam verwendete Ontologie quasi als gemeinsames Datenmodell verstanden werden, das klarstellt, auf welche Weise die jeweils verwendeten Begriffe zu verstehen sind. So wird es z.b. möglich, dass autonome Agenten automatisch Geschäftsabschlüsse im Sinne ihrer Auftraggeber aushandeln werden können und so den Geschäftsprozess erheblich beschleunigen. Competence Site: Zukunftstechnologien Vision 2030: Wie sieht die vernetzte Welt der Zukunft aus? 6
Werden wir in einigen Jahren tatsächlich mit dem Handy vom Büro aus den Kühlschrank zuhause ansteuern können? Wie sieht Ihre Vision einer vernetzen Welt aus? (Hier können Sie sich gerne kreativ austoben ;-)) 25 Jahre sind in der Informationstechnik ein gigantischer Zeitraum. Bedenkt man die Entwicklung der vergangenen 25 Jahre, erschienen viele der heute realisierten Technologien und insbesondere deren explosionsartige Verbreitung 1979 noch als vollkommen unmöglich. Als 1978 der erste Cray- Supercomputer zur Marktreife entwickelt wurde, bot er dem Endkunden eine für die damaligen Verhältnisse sagenhafte Rechenleistung von 130 MFlops (Millionen Gleitkomma Operationen pro Sekunde). 2004 leistet ein durchschnittlicher PC, wie er auf jedem Schreibtisch zu finden ist, knapp 200 MFlops. Projiziert man dieses Verhältnis in die Zukunft, stünde dem Anwender 2030 in seinem mit Sicherheit mobilen Endgerät die Leistung eines Earth-Simulators dem derzeit leistungsstärksten Rechensystem jederzeit und überall zur Verfügung. Mit dem Gridcomputing zeichnet sich allerdings eine Entwicklung ab, welche die vom Anwender benötigte Rechenleistung vom eigentlichen Endgerät weg in das Netz verlagert. Die Vision des Gridcomputings besteht darin, Rechenleistung als Ressource ebenso wie Strom aus der Steckdose bei Bedarf anbieten und abrufen zu können. Lokale Endgeräte müssen daher lediglich über eine begrenzte Leistungsfähigkeit verfügen, was einer weitergehenden Miniaturisierung Tür und Tor öffnet. Der Rechner als Preisaufkleber auf der Milchtüte kann Messwerte entlang der Lieferkette bis hin in den heimischen Kühlschrank liefern. Dieser wiederum entscheidet, ob die Milch noch genießbar ist und wann vom Lieferdienst neue Milch angefordert werden muss und handelt damit autonom im Sinne des Besitzers. Mit Sicherheit kann man davon ausgehen, dass die Zukunft drahtlos sein wird. Mobile Breitbandkommunikation in Verbindung mit weitgehend miniaturisierten Rechensystemen werden das Bild unserer Welt bestimmen. Sicher wird die Vernetzung als nächstes das Automobil in Beschlag nehmen. Netzgestützte Navigationssysteme, intelligente Fahrererkennung als Diebstahlsicherung und zur Erhöhung des Fahrkomforts, sowie autonome Verkehrsleit- und Managementsysteme zur dynamische Entlastung und Entzerrung des Verkehrsaufkommens in Ballungsräumen werden schon bald Realität. Eine weitere spannende Frage stellt sich mit der zunehmenden Verbreitung und Akzeptanz von Open- Source Produkten. Wird die rasante Verbreitung von Open-Source Software zu einer nachhaltigen Veränderung der IT-Landschaft führen? Open-Source versucht zunehmend den propriäteren Produkten der Software-Industrie Paroli zu bieten. Im Gegensatz dazu versuchen kommerzielle Anbieter ihr geistiges Eigentum über Software-Patente zu schützen und damit eine freie Weiterentwicklung zu verhindern. Meines Erachtens kann keine der beiden Positionen für sich alleine alle Probleme lösen. Weder vermag Open-Source alleine genügend Sicherheit und Maintenance zu bieten, wie sie im professionellen Bereich von Nöten ist, noch kann eine restriktive Patent-Politik den 7
technologischen Fortschritt beflügeln. In Zukunft werden beide Positionen lernen müssen, einen gemeinsamen, für beide Seiten akzeptablen Kompromiß und damit zu einer friedlichen Koexistenz zu finden. Vielen Dank, Herr Dr. Sack, für die Teilnahme am Virtual Roundtable! 8