Burkhard Stiller, Placi Flury, Jan Gerke, Hasan, Peter Reichl (Edt.) Internet-Economics 1

Größe: px
Ab Seite anzeigen:

Download "Burkhard Stiller, Placi Flury, Jan Gerke, Hasan, Peter Reichl (Edt.) Internet-Economics 1"


1 Eidgenössische Technische Hochschule Zürich Swiss Federal Institute of Technology Zurich Burkhard Stiller, Placi Flury, Jan Gerke, Hasan, Peter Reichl (Edt.) Internet-Economics 1 TIK-Report Nr. 105, Februayr 2001 Institut für Technische Informatik und Kommunikationsnetze Computer Engineering and Networks Laboratory

2 Burkhard Stiller, Placi Flury, Jan Gerke, Hasan, Peter Reichl (Edt.): Internet-Economics 1 February 2000 Version 1 TIK-Report Nr. 105 Computer Engineering and Networks Laboratory, Swiss Federal Institute of Technology (ETH) Zurich Institut für Technische Informatik und Kommunikationsnetze, Eidgenössische Technische Hochschule Zürich Gloriastrasse 35, ETH-Zentrum, CH-8092 Zürich, Switzerland

3 Seminar: Internet Economics 1 Introduction Internet technology is applied to communications and in the domain of electronic business. Trading commodities, offering value-added services, and selling physical as well as tangible goods, all of these tasks are dealt by within todays Internet. Internet technology as a means to implement the new economy is the driving technology. However, a critical review of challenges and weaknesses of this development is required to judge its suitability. Content The seminar "Internet Economics 1" deals with the integration of Internet technology and new ways to do business. The Internet Economy, as a description for a joint view on technology and business strategies, undergoes a revolutionary change. Starting with a pure objective to provide connectivity for distributed systems in its early days, the Internet has evolved towards a value-added, service-integrated, and packet-based network, which provides much more than pure communication functionality. Electronic Commerce or E-Commerce has become a synonym for E-Busines or E-Trading. However, a clear and unique definition is still missing today. In the beginning, the focus of this seminar has been laid on a discussion of underlying communication technology (IP over optical and mobile access networks), its features, and on networking characteristics (such as Quality-of-Service and security) and particular service technology (payment and billing systems, services for E-Commerce, and Application Servie Provider) in use. Its application onto business strategies and models comes next and has been discussed at various stages. While the Internet Service Provider (ISP) market shows a significant effect on the traditional telecommunications market, pricing models applied for their commercial service offering determine various user reactions. Having technology and services in place, a focussed presentation of electronic market places and their differences is important to understand various busines models, including their shor-term perspectives. Portals form the important interface between providers and customers, mainly Web-based, and customer care defines those activities, which are required to operate successfully on a public market. Finally, major effects and consequences of E-Commerce in the society, in legal and economic situations, and enabled by the Internet are discussed. Seminar Operation Almost all interested students have formed groups of two people and worked on an initially offered set of papers and book chapters, relating to the topic titles as presented below. These groups prepared a written essay as a focussed presentation, an evaluation, and a summary on the topics of interest. Each of these essays is included in this technical report and allows for a nicely balanced overview on up-to-date technology choices, busines models in operation, and

4 problems encountered. In addition, every group prepared a slide presentation of approximately 45 minutes to present their findings and summaries to a varying audience of seminar participating students as well as other interested students and research assistents. Finally, followed after a general question and answer session, a discussion guided by the presenters debated liveyl open issues and critical statements with the audience. Local TIK spport for preparing talks, reports, and their preparation by students had been granted by the Communication Systems Groups, namely Placi Flury, Jan Gerke, Hasan, Peter Reichl, and Burkhard Stiller. Due to the fact that some students enjoyed writing and talking in English and others preferred German, ths report is kept bi-lingual, as originally prepared by each group of students. Many pre-presentation discussions have provided valuable insights in the emergingly moving field of Internet Economics, both for assistents and students. Many thanks to all people contributing to the success of this event. Talks, Speakers, and Titels Talk 1: R. Haas, R. Marty: Everything over IP, IP over Everything Talk 2: A. van Maele: Third Generation Mobile Access Systems Talk 3: S. Schneider, B. Uk: The Internet Service Provider Market Talk 4: D. Spörndi, M. Thiemann: Electronic Payment and Billing Systems Talk 5: C. Roserens, M. Heimbeck: User Reactions on Prices Talk 6: R. Baumann, C. Stillhard: Internet Services for E-Commerce Support Talk 7: D. Preisig, D. Zogg: Network Technology for E-Commerce Talk 8: C. Rupp, P. Schoch: Electronic Market Places Talk 9: R. Pajarola, P. Näf: Portals and Customer Care Talk 10: G. Oberholzer, D. Schrag: Effects and Consequences of Internet Economics

5 Everything over IP, IP over Everything Internet Economics Seminar , ETH Zurich Prof. Dr. Burkhard Stiller November 22, 2000 Robert Haas 1 and Raffael Marty 2 1. Introduction The reason the so-called Internet Economy came about is that the Internet Protocol (IP) was designed in such a way that it could scale indefinitely with respect to applications and users it can support in an environment of unpredictable growth, allowing "networks of networks" to be constructed. IP has come to dominate the networking market for several reasons: - It is open and available to everyone, encouraging rapid innovation. - It is application-independent, requiring no proprietary application-layer gateways. - Services are placed at the edges of the network rather than integrated into the network itself; this allows services to evolve without impacting the network and keeps complexity out of the network core. - The ability of packets to carry globally meaningful addresses enables network nodes to make autonomous decisions in processing each packet. This allows the distribution of work throughout the nodes, providing redundancy as well as improving scalability. Our first aim is to show why IP is increasingly becoming the focus in the networking world. This is done in Chapter 2, which discusses some common technologies that IP does and will have to support. Chapter 3 looks at the layers that lie below the IP layer. Here we focus on access technologies as well as core technologies, with the emphasis clearly being on the latter part. To round off, we look at challenges facing IP in Chapter 4. We discuss services that IP will have to support in the near future. The final chapter summarizes our findings and briefly recalls the most important points. 1 IBM Zurich Research Laboratory, Sauemertrasse 4, 8803 Rueschlikon, 2 ETHZ-INF, 8092 Zurich, - 1 -

6 2. Services over IP Currently, there are a variety of services that run over the Internet Protocol (IP). A number of technologies such as , messaging services (e.g. ICQ, Instant Messenger, ), file transfer, and web are already widely used. But as bandwidth is becoming cheaper and broader, new services such as video on demand or audio streams are gaining popularity. IP will also have to cope with all these demands. 2.1 Application Service Providers Application Service Providers (ASPs) [4] deliver and manage applications and computer services from remote data centers to multiple users via the Internet or a private network. With data processing performed off-site by a vendor, organizations can focus on their areas of core expertise. Figure 1 shows that ASPs provide services in the entire range of Internet applications. If IP were not the underlying technique used to provide all services, it would be very difficult for ASPs to offer something that is both transparent to the customer (the user of the Internet) and easily deployable for the ASP itself. The services that we shall briefly introduce in the following three sections and many more are good examples of things an ASP could provide. For example, a customer can buy a messaging service from an ASP, which in turn will handle all communication needs. The customer itself will have nothing to do with the communication network, hardware and support, except using these things

7 2.2 Messaging over IP A variety of message sources, stores and retrieval devices exist on the market. The major telco-equipment manufacturers have realized this and now try to access that market. Ericsson, for example, is working on a network for messaging. Their idea is to use the IP layer as communication facility. As Lundquist and Svensson state in [13], Messaging-over IP is deployed in a distributed messaging network that makes use of the existing transport infrastructure. This approach provides the necessary scalability to meet current and future needs. The choice of IP as the foundation for the networking of components gives messagingover-ip the same scalability and plug-and-play characteristics as the Internet. With this approach, the existing messaging means, such as , SMS, phone or fax, can be combined and interconnected, making it possible to read over the cell phone or send a fax from a handheld organizer. There will be a single application provider that supports the entire communication range, thereby rendering everything interoperable per se. In the example of Ericsson, where the decision was made to use IP as a communication layer, it will be possible to support almost the entire range of existing communication networks and protocols. This will have the advantage that only well-known protocols and infrastructure are being used. No new mechanisms have to be invented, deployed and tested. Moreover no additional investments into new technology have to be made. The entire existing IP infrastructure can be used. The fact that a telco-equipment manufacturer wants to establish such a messaging architecture may result in decisions that will make it difficult for competitors to use the same service. Imagine a scenario in which only Ericsson cell phones can be used to access this network. Nokia, Siemens, Motorola and all other cell phone manufacturers will not be able to participate. Their only solution would be to set up another separate messaging infrastructure. 2.3 Virtual Private Networks In order for communication endpoints to communicate securely, companies have dedicated lines that they lease from the telcos. To achieve absolute confidentiality, additional special encryption devices that render data unreadable for third parties have to be installed. A concept that can achieve the same level of confidentiality is that of Virtual Private Networks (VPN) over the Internet. From an economical point of view, the advantage clearly is that no special communication medium is needed apart from the already existing Internet connection. In further comparing the two approaches, we see that both are absolutely transparent to the application layer as encryption is doneon a lower level. Flexibility-wise, a VPN usually is a layer-3 solution, where in the leased line scenario we can have layer-2 (Link Layer) or layer-3 (Network Layer) encryption. Layer-3 encryption provides more freedom in terms of encryption endpoints. In layer 2 we do not have quite the granularity that might be desirable. If we look at interoperability, current VPN solutions are built on IPsec, making them highly interoperable, whereas in the other cases where proprietary technologies are applied, interoperability suffers

8 Figure 2 shows a scenario in which a corporation interconnects its business network (left-hand side) with business partners (upper right), a branch office (lower right) and employees working remotely. The only infrastructure the company needs is an internet connection on every side of the internet cloud and some VPN equipment at the access points. There is no need for the company to install expensive links between the individual communication endpoints. 2.4 Voice, video and audio over IP Even though it means cannibalizing their own phone business, carriers are now aggressively investing into voice over IP (VoIP). The main aspect in pushing VoIP is cost. Comparing the equipment required in the telco and the internet world, the price per kb/s for an ethernet hub is three orders of magnitude lower than for a PBX (Private Branch Exchange) with an equal number of ports [17]. The other aspect is the capability to introduce sophisticated services in a much more cost-effective fashion. Whereas enhanced services in proprietary PSTN (Public Switched Telephone Network) platforms are usually mass-marketed and controlled by the provider itself, VoIP services can be customized for specific business needs and provided in an open market. A rough estimate [22] places the development of new switch functions at 5 millions $ and two years, Advanced Intelligent Network (AIN) functions at 1 million $ and one year, and VoIP services at 50 k$ and one month development time. In terms of bandwidth, a VoIP call needs roughly 16 kbps whereas a PSTN call reserves 64 kbps, the gain coming from compression and silence detection. Carriers have to provide VoIP, otherwise they risk losing customers to new competitors: it is expected that revenues will instead come from value-added services, such as unified messaging. Voice, real-time video, streaming video, and audio require careful handling by the network. IP being datagram-based, it is apparently more difficult to provide similar quality as a virtual circuit or a leased line service. Therefore, efforts have been undertaken to overcome this problem in the IP layer, as we discuss in Chapter

9 3. IP over Everything Every year, there is a tremendous increase in the number of hosts, web sites, and entire corporations that interconnect their sites. Simultaneously, the underlying mass technology for public Internet access allows always faster transmission rates. This all leads to bandwidth being the most demanded commodity at the core of the Internet. It appears that Internet traffic is multiplying by a factor of approximately four to ten annually. Clearly, the ability to scale up networks to meet the soaring demand is the most critical issue for every carrier. New fiber networks are being installed in every major city, across countries, the oceans and in addition existing equipment is upgraded to allow faster and faster transmission rates. Improvements in current technologies allow faster provisioning, provide better bandwidth efficiency, and scale in a more flexible fashion to higher demands. Cost is a complex function that only partly depends on acquisition costs. Past investments in the currently installed base were huge, therefore interoperability with any new technology is the key. Moreover, cost of operation and maintenance dictates the cost of ownership of any new technology during its entire lifespan. The necessity to protect existing investments while increase the speed of a given network often leads to heterogeneous networks, composed of various technologies that can overlap in terms of functionality and create inefficiencies as we will show below. New network providers starting with a clean sheet do not have such a heritage and can therefore invest aggressively into the latest technologies. In this section, we concentrate on some of the access network technologies, which have a direct impact on the traffic that has to be handled by the core network (see Figure 3). In our descriptions, the short-haul as well as the core network are treated together because they use similar technologies. Wireless access technologies are gaining support, both in the form of fixed wireless, such as WLL (Wireless Local Loop) that allows copper loops owned by incumbent carriers to be bypassed, and in the form of third-generation wireless phones (UMTS, Universal Mobile Telephone System). We shall not discuss wireless in this report, altough it clearly will have a profound impact on the Internet economy as well

10 3.1 Access Technologies In the home market, a few technologies are used to access the Internet. For a technology to become widespread, two factors need to be considered. Most important for the home user is that he or she can use the existing infrastructure to transport data. This means that a fiber link from the user s home to the ISP is not an option. Existing infrastructure needs to be reused. This fact applies to all of the following access technologies: POTS (Plain Old Telephone System) Integrated Services Digital Network (ISDN) Digital Subscriber Line (DSL) Cable Powerline The powerline technology is currently being developed. There are test networks that are in that area, but the end user cannot yet buy the technology. In contrast to this, DSL and cable access are becoming increasingly popular, as access providers are updating their infrastructure enormously. Technology POTS ISDN SDSL HDSL ADSL Cable modem Downstream 56 kbps 128 kbps 768 kbps 2'048 kbps 7 Mbps ~ 8 Mbps peak Upstream 56 kbps 128 kbps 768 kbps 2'048 kbps 640 kbps ~ 8 Mbps peak Permanent connection No No Yes Yes Yes Yes Modem cost (in CHF) '500 2' Cost per kbps (in CHF) ~ 2.00 ~ 2.00 ~ 0.90 ~ 0.75 ~ 0.06 Media Phone connection ISDN connection 2-wire copper 4-wire copper 2-wire copper Updgraded CATV If we look at the price comparison for the Swiss market in Table 1, we see that the cable modem approach yields the best return on investment. The problem with this technology is the existing infrastructure. The cable network operators have a network, but only the downstream is fully usable. This is because the TV network only needs data to be sent from the provider to the customer and not vice versa. To enable the network to send data in the opposite direction, considerable investments are necessary. In Europe we face another problem with DSL technologies [24]. Some years ago the telcos invested heavily into the ISDN network. Now that DSL promises more bandwidth than ISDN, the telcos need a strategy to sell their ISDN services. What they are currently doing is to slow down the DSL development. This does not apply to the US, where the telco companies did not invest a lot in ISDN technology. But as the customer demands will grow for DSL, the telcos wil not have a choice, not even in Europe. In the USA, DSL providers have access to the central offices (CO), where the last-mile copper loops terminate. The COs are owned by the incumbent local exchange carriers (ILECs), who have to let the competitive local exchange carriers (CLECs) install the DSL equipment in their COs. The business of these CLECs (such as Covad, North Point Communications, and Rythm) focusses on DSL access, therefore much effort is put into installing such equipment [9]. In Europe and Switzerland, incumbent carriers such as Swisscom, British Telecom or Deutsche Telekom are slowing down the unbundling of their networks, thereby discouraging new entrants to install DSL equipment in the COs. The European Union reacted to this behavior and forced the - 6 -

11 incumbents to unbundle their networks, whereas in Switzerland, the network legally still belongs to Swisscom. But there are efforts to challenge this situation. If we look at the technology aspects, we find good reasons why DSL could be very interesting for service providers. By using ATM with DSL, up to 16 phone lines can be multiplexed over the same copper wire. Here ATM cells are preferred owing tothe low delay jitter that can be guaranteed for voice traffic while simultenaously sharing the link with data traffic. Other technologies cannot provide this advantage at all. 3.2 Core networks The design of a core network is the key to providing competitive services. It is a well-known fact that carriers are reluctant to disclose the exact internal architecture of their core networks. But by examining information from suppliers of networking equipment, the general architecture can be deduced. Here, we briefly review the advantages of existing core-network architectures, show the problems encountered, and how newer technologies address such issues. Note that these core networks not only serve as support for IP traffic exclusively. However, the share of IP traffic, whether originating from the public Internet or corporate extranets, is clearly outgrowing IPX, SNA and other legacy protocols. The amount of data traffic has in fact already passed that of voice traffic. For public carriers, IP is critical for future revenue growth. The market researcher CIMI Corp. expects that from 2000 on, 80 percent of service provider s profits will be derive from IP-based services. The technologies deployed in core networks to meet the requirements above encompass the following: IP over SONET, DWDM (Dense Wavelength Division Multiplexing), ATM (Asynchronous Transfer Mode), and MPLS (Multi-Protocol Label Switching) SONET SONET [15] (Synchronous Optical Network) 3 is a standard method to interconnect fiber optic systems. Its bandwidth ranges from Mbps at the OC-1 level to Mbps at the OC-192 level 4. SONET uses TDM (Time-Division Multiplexing) to multiplex multiple channels. To have two distinct paths between any two systems, and therefore withstand accidental fiber cuts or electronic equipment failures, SONET systems are built around rings, with fast protection-switching schemes. Each system in the ring has an ADM device (Add- Drop Multiplexer) to pull/inject a point-to-point channel from/into the entire signal. Rings can be interconnected with cross-connects using optical-to-electronic conversion (O-E-O) to perform switching. According to certain vendors [7] of pure optical cross-connects (O-O-O), such high-speed O-E-O cross-connects are not yet widely deployed, and therefore automatic end-to-end provisioning of services (such as an point-to-point 155 Mbps connection) is not possible. Carriers offer SONET to interconnect corporate sites at very high speeds, either within one SONET ring, i.e. the MAN (Metropolitean Area Network) or across the WAN (Wide-Area Network) with linear SONET connections, such as C1-D1-A1 and B2-A4, see Figure 4. The carrier itself likely provisions the linear SONET connections as hops across its own DWDM/SONET rings. 3 The European equivalent to SONET is SDH (Synchronous Digital Hierarchy), with only minor differences. 4 The electrical signal notation corresponding to OC-3n (Optical Carrier) is STS-3n (Synchronous Transport Signal), and the SDH equivalent to both optical and electrical signals is STM-n (Synchronous Transfer Mode). The SONET hierarchy starts with OC-1, whereas the SDH hierarchy starts with STM-1 (corresponding to OC-3)

12 Drawbacks are slow provisioning times (a route through the network of interconnected rings has to be found manually, and human intervention might then be required), and coarse bandwidth granularity. Network management systems such as MISA (Management of Integrated SDH and ATM networks) [10] exist that allow automated provisioning of SONET services, but the deployment of such systems is very limited because it requires flexible ADMs and SONET crossconnects. Figure 5 shows how multiple types of traffic are multiplexed together into a single OC-48 stream. Note that in order to benefit from statistical multiplexing, IP and ATM traffic are aggregated into a sub-channel, for instance OC-12. To evaluate this technology from an economical point-of-view, the pricing of SONET services is shown in Figure 6, but only for the US market. It gives the monthly charge at various rates for a SONET ring interconnecting three nodes in a MAN. Note the enormous price difference between the linear SONET OC-12 connections and the equivalent switched ATM service offered by Sprint, which consists of 3 PVCs

13 IP packets can be carried directly in SONET using the PPP protocol encapsulation [14], as show in Figure 7. The efficiency of such an encapsulation can be calculated as follows: PPP header: 4 bytes, FCS (Frame Check Sequence) either 2 or 4 bytes (4 bytes give the same performance for error correction and detection as ATM AAL-5 encapsulation does), and 1 byte of framing, i.e. a total of 9 bytes per packet of overhead. For both PoS (Packet Over SONET) and IP/ATM/SONET, the SONET overhead is the same. PoS is clearly more efficient than ATM for transporting IP packets: ATM AAL5 and SNAP header/trailer overhead is 16 bytes per packet, plus the cell tax of 5 bytes per 48 bytes of payload. Based on usual packet-size distributions, the IP/ATM overhead is around 25%, whereas the PoS overhead is 2% [2] DWDM DWDM (Dense Wavelength Division Multiplexing) [11] is a rather new technology that allows multiplexing over different wavelengths, typically between 32 and 64 [18], the current maximum being 192, thereby virtually multiplying the available capacity per individual fiber. Cost savings on equipment are huge compared to an equivalent number of individual fibers, especially in the long haul where amplifiers are required on each fiber. For a carrier that needs to upgrade its SONET network, adding DWDM makes it possible to keep the existing SONET investment, and scale up the remainder of network based on the newly available wavelengths

14 Similarly to SONET, DWDM systems are built around rings, with Optical ADMs in each system. The major difference is that traffic is handled purely optically, and only converted electronically where necessary. Optical crossconnects are also available that switch entire wavelengths optically. Optical burst switches are in preparation, in which approximately 10 ms bursts of traffic (corresponding to 100 Mb of data at OC-192 rate) can be switched, irrespective of the wavelength. All-optical DWDM networks in combination with condominium or municipal dark-fiber networks, 10-Gigabit Ethernet and CWDM (Coarse WDM) will allow LAN architectures, concepts and, most importantly, LAN economics (low price per port, simplicity of management) to extend its reach into the WAN, starting with the MAN. The main reason is that in the MAN dark fiber is not expensive, as customers can share the costs of installing a fiber strand. The price can then drop to 100$/month [3] (compare this to an OC-3 MAN charge between $5,000 and $20,000, as shown in Figure 6), because fiber is an investment that lasts 20 years and longer, in contrary to SONET equipment that become quickly obsolete. In addition, traditional SONET networks are built to the highest degree of reliability required by the most demanding customer, whereas the costs must be shared by all customers. This no longer applies when each customer decides which technology to employ over his own dark fiber. Moreover, an all-optical network, where no intermediate optical-to-electronic conversion occurs, renders the SONET capabilities to detect bit errors and carry out automatic network restoration superfluous. Originating from the LAN world, Gigabit Ethernet now becomes a strong competitor for MANs, replacing costly SONET equipment. This requires of a fully transparent DWDM optical network ATM Similarly to SONET, ATM is circuit-based, with the main difference being that ATM circuits are virtual. Instead of performing TDM, each fixed-size cell carries the ID of the virtual connection to which it belongs in its header.this allows one to benefit from statistical multiplexing gain on the link, and therefore make better use of existing ressources. ATM is still the only transport technology capable of guaranteeing Quality of Service, and therefore offers integrated services. ATM circuits are also called software circuits, and they can be set up and removed quickly. Major drawbacks of ATM are the high overhead it incurs for IP packets and the difficulty to interface IP datagram-based technology on top of circuit-based ATM. ATM circuits can either be set up statically at each ATM switch (PVC, Permanent Virtual Circuits) or dynamically with out-of-band signaling (SVC, Switched Virtual Circuit). VCs (Virtual Circuits) belong to VPs (Virtual Paths), which can be switched as a whole. ATM can support data rates between 34 and 622 Mbps. From the OC-3 rate on (155 Mbps), ATM uses SONET framing. Therefore, ATM switches are commonly used to groom traffic from various sources before it is sent onto SONET rings, so that multiplexing gain can be achieved (see the green box in Figure 5) Future Protocol Architectures of Core Networks Today s long-haul core networks mostly rely on a 4-layer architecture, as shown in Figure 8. At the lowest layer, point-to-point DWDM allows the number of installed fibers to be virtually multiplied, thereby saving the cost of laying new fibers into the ground. At each end of these fibers, SONET equipment provides point-to-point physical transport, although with very slow provisioning capabilities. To perform traffic engineering (QoS support and provisioning), the ATM layer is used with its much faster provisioning times than the SONET layer. Finally, the IP layer on top provides the transport layer

15 Note that the dynamic QoS-routing feature of the ATM layer often is not present (PNNI) and that instead PVCs (Permanent Virtual Circuits) are set up statically throughout the network. The SONET network consists of rings, interconnected with ADMs (Add-Drop Multiplexors). Setting up circuits through multiple rings still is essentially a manual task, as cross-connects (switches) are not deployed widely. Rings have better fault-tolerant characteristics than star networks do (two alternate distinct paths are available between the same pair of nodes), but lead to a less bandwidth-efficient design as nodes in-between the pair of nodes cannot use the same circuit. Mostly, such four-layer networks suffer from slow provisioning, dictated by the underlying SONET layer, and a functional overlap. Fault-tolerant features are found at all layers: the SONET layer performs protection switching, ATM reroutes the VCs (only for soft-pvcs with an ATM-PNNI network) and IP finds alternate routes. The combined effect can lead to instabilities at all these layers, and cost inefficiency (most of the time, SONET back-up fibers remain unused). The goal is to include provisioning capabilities directly into either the optical or the IP layer, and drop the intermediate layers, as shown in Figure

16 The trend towards leaner networks with fewer layers relies on the following observations: IP router interfaces work at much higher speeds now (OC-48 and OC-192) that are equivalent to the SONET speeds on a wavelength. Wavelength switching in the optical layer can therefore provide similar features as ATM VP switching, albeit with coarser granularity. A new protocol called MPLS (Multi-Protocol Label Switching) provides traffic engineering features similar to ATM. Used at the optical layer, MPLS provides the trafficengineering capability at wavelength granularity (i.e., it replaces VP switching), while used at the IP layer, it provides packet-granularity traffic-engineering. Fault tolerance is no longer required of the SONET layer, and it is instead provided by the MPLS control, freeing up much of the back-up fibers. The trend is therefore to create networks composed of only two layers, namely, the IP and the optical layer, and that have the necessary traffic engineering at each layer, namely MPLS. Proprietary solutions based on SONET for framing of data are being developed (SONET-lite), in which the management overhead of SONET has been streamlined. To provide finer granularity switching while staying at the optical layer, optical packet switches are being developed, thereby imitating the ATM switching concept at the optical layer. The IP and the optical layer can either function in overlay or in peer mode. The overlay mode, in which IP routers ignore the underlying topology of optical switches, can create scalability problems for routing: establishing a full-mesh between all routers is costly. In the integrated mode, IP routers and optical switches act as peers in the control plane, all running the IP routing protocols. Thereby, the full mesh can be avoided, and routers peer only with their onehop-away neighbors. Of course, in the data plane, optical switches do not perform IP forwarding, but simply switch based on the MPLS label. The other advantage of the MPLS approach is that traffic is not routed over the shortest route only (leading to imbalances and poor usage of certain links): MPLS paths can be set up over various routes connecting the same end-points, and traffic can be balanced over these paths. Clearly, this requires a certain knowledge of the amount and distribution traffic to be expected, so that these paths can be set up appropriately. This is known as traffic engineering

17 4. Challenges facing IP For IP to truly become the convergence layer, it needs to offer seamlessly equivalent capabilities as its underlying technologies do, e.g. being able to exploit QoS from any underlying technology (if any) while providing its own QoS mechanisms, or providing security equivalent to a private leased-line network. Simultaneously, because of the success of IP, several issues arise owing to scaling problems. We review these issues as well, and then discuss the complexity and associated costs incurred by all these challenges. 4.1 Quality of Service Quality of Service (QoS) [20] [21] in the IP layer is an approach that will have to be dealt with in the near future. Everyone tends to have the IP layer as close to the physical layer (fiber) as possible. This implies that IP will need some QoS functionality. In fact, IP provides an end-to-end communication traversing networks with varying bandwidths and link layers, where bottlenecks can occur. One could argue that network bandwidth will grow substantially, and that servers will then be the main source of congestion. But regardless whether QoS be network-centric or server-centric, it has to be handled by the IP layer. Moreover, networks in which resources are naturally constrained (such as wireless networks) will require means to arbitrate QoS. In addition, an accounting mechanism for charging has to rely on the treatment given to packets to differentiate between tariffs, and this encompasses issues such as QoS as well as security and fault tolerancy. IPv4 currently does not enforce any QoS demands. It provides what is called a best-effort service. Unlike VC technologies such as ATM and Frame Relay, IP does not make hard allocations of resources. This provides much more efficient use of the available bandwidth, as well as more flexibility. Typical network traffic is bursty rather than continuous. Being datagram-based, IP uses the available bandwidth most efficiently by sharing what is available as needed. This also allows IP to adapt more flexibly to applications having varying needs. There are currently two approaches to obtain a certain QoS in an IP network: a quantitative approach (int-serv) [6][23], in which necessary resources are reserved in each hop of the network by signaling the required QoS of a flow, and a qualitative approach (diff-serv) [5], in which packets indicate the treatment (similar to a priority) they want to receive, but no resources are dedicated to any flow. It is clear that either approach has its drawbacks. Int-serv requires that routers keep state for a large amount of flows, in contradiction to the connectionless Internet design, and hence is not scalable. Diff-serv cannot provide hard guarantees unless proper admission control and traffic provisioning has been performed to ensure that the network does not receive more traffic than it can handle. Underlying technologies such as SONET/SDH do not provide QoS, apart from a guaranteedrate circuit (OC-n). ATM virtual circuits on the other hand support various types of services, such as CBR (Constant Bit Rate), VBR (Variable Bit Rate), ABR (Available Bit Rate) or UBR (Unspecified Bit Rate). The int-serv Guaranteed Rate and Controlled Load services easily map onto the corresponding ATM services, and a mapping for diff-serv is under way. Ethernet has certain QoS features, albeit much more limited ones than ATM. 4.2 Security IP has the property that all data it carries is in plain language, i.e. unencrypted, thus enabling a malicious user to monitor a conversation without any trouble. This approach leaves it up to higher-level protocols to add confidentiality (encryption). Furthermore, IP does not support any kind of authentication. The recipient of an IP packet could look at the source IP address of a packet to find out where the packet originated, but it is easy to forge a source IP address

18 (IP Spoofing). If a packet carried a digital signature, which signs the message and its header, the recipient could check the signature and notice any modification to the packet. IPSec, the security add-on of IP encrypts and/or signs IP packets. The sending party will generate the signature. The receiving party checks the signature and decides whether the packet is authentic. This check can only be made if the recipient knows the public key of the sender. In this scenario arises the problem how the recipient can authentically obtain the public key of the sender. This problem still needs to be resolved. There are approaches using Public Key Infrastructures (PKI), but these alone do not solve the problem. A global solution needs to be found in trust management. On a theoretical level, the problems have already been solved, but technically, economicly and politically, several open issues remain. On the technical side, the IP protocol needs a mechanism to obtain the CA s (Certificate Authority) public key in a secure manner (authentic). One could imagine that this would already happen in the manufacturing process of network devices. On the political and economic sides, there is the need for a global public key infrastructure. The exact topology can be arbitrarily complex. Currently available on the market is a construct, in which some companies (such as Verisign and Baltimore) have created an infrastructure themselves. They are all completely independent of each other. This implies that cross validation is not possible. There certainly are economic reasons for this. Political boundaries are the third aspect where solutions need to be found. There are questions such as How easy is it to deny access to certain countries? Reasons for wanting this are manifold. Another question would be Is it desirable to have the functionality to exclude anybody? What about revocation of certificates? As we see, there are plenty of solutions to be found. Security support in IP is a key element for the growth of IP-based corporate networks (extranets). A majority of such private networks still rely directly on private leased lines, Frame Relay connections, ATM VCs, or even Ethernet VLANs (Virtual LANs) in which security is physically guaranteed. However, moving towards an IP-based VPN requires that security features are added into the IP protocol itself. 4.3 IP Multicast and Broadcast Built into the heart of IP is the ability for traffic to be broadcast and even multicast. Nowadays if a user requests an audio or video stream from the web, the stream is sent as any other traffic in a point-to-point manner. Only very few organizations and products make use of the multicasting possibilities. As the web grows and more and more audio and video is made available, ISPs (Internet Service Providers) will have to think about the use of multicast. The end users on the other hand do not care whether the traffic reaches them via multicast or a plain point-to-point connection because their access lines will be used in the same way in both cases. But the ISP will probably care that its backbone is being used (and charged) as many times as there are users subscribing to the same stream. On the other hand, service providers nowadays need a huge connection to the net in order to meet customer demands in terms of bandwidth. If they could use multicast, bandwidth would shrink enormously. Note that, unlike ATM or Ethernet, SONET/SDH does not provide support for multicast

19 4.4 Addressing and routing A threat to IP s scalability is the growing size of routing tables in major exchange points as well as the shrinking of the available address space. Routing tables with more than 100 k entries are commonplace. This can be explained by the number of exceptions in the aggregation of prefixes: organizations that request a portion of the IP address space get portions of the address space that do not necessarily aggregate with the prefix of their ISP. The reason is the exhaustion of the IPv4 address space, where only smaller segments can still be given away. Although fast IP routers can cope with current table sizes and MPLS allows of short-circuit address lookup in the core networks, IP routing tables will continue to grow in size, endangering scalability of IP routing protocols and forwarding schemes. The current answer to these problems is IPv6. First, it will have a sufficiently large address space to assign IP addresses to every mobile phone and even more. Second, IPv6 avoids a significant number of exceptions in the aggregation by adequate renumbering of addresses to comply with the upper-level prefix. 4.5 Impact of these challenges The challenges mentioned above will be solved only at a price, which we try to evaluate and justify in the following: To provide int-serv QoS, all routers on the desired path have to support sophisticated queuing and scheduling mechanisms. For scalability reasons, when the number of flows expecting a certain QoS is high, per-flow int-serv QoS becomes too expensive (processing of signaling messages and hardware requirements are important). Diff-serv does not incur such costs, but requires instead intelligent provisioning over the entire the network and policing at the edges, where the number of flows is significantly lower. MPLS traffic-engineering capabilities are then used to create switched paths through the core network. Compared to ATM, diff-serv with MPLS signaling is not significantly different. These features can be integrated into existing IP equipment, thereby saving the cost of modifying the underlying ATM equipment, is a strong promoter for QoS support in IP. This does not take into account the difficulties to manage an IP and an ATM network, compared to a single network. Security support in IP requires encryption capabilities, either in hardware or software, which are available today as add-ons to router interfaces. Although it is difficult to evaluate the management cost of an IP-based VPN (but in leased-line private networks it cannot be ignored neither: the effort to create the point-to-point connections between various sites can be lengthy), IP clearly is a much more flexible infrastructure than a static private network. For instance, employees can connect to their corporate VPN simply by connecting to the Internet. This is cheaper than maintaining modem banks at the corporate site (dial-up and hardware maintenance costs). Partial relief of network as well as server congestion, can be obtained by using IP multicast together with caching. Multicast is supported in ATM and Ethernet (as broadcast), also when they run directly over DWDM rings (i.e. not via SONET as intermediary; even Packet over SONET uses PPP, which does not provide multicast support) and is also supported natively over cable-tv networks. If multicast is to be deployed on a larger scale over heterogeneous technologies, IP has to provide the necessary overall control. Some experiments have already acknowledged the substantial time gain of a multicast database synchronization between headquarters and branch offices, thereby saving server-cpu time and expensive network

20 bandwidth. Caching, on the other hand, can only be executed at the higher layers (HTTP). The flexibility of the open IP infrastructure allows the seamless integration of these caching mechanisms, another proof for the validity of the end-to-end concept. Finally, also the need for transition to IPv6 will become more pressing, when large numbers of mobile handsets receive their own IP addresses. This challenge is probably the most expensive one in terms of time and money. It impacts not only network nodes but also end nodes, as networking stacks have to be updated everywhere, and some software has to be rewritten to use the latest IPv6-compliant socket APIs. Therefore, only a gradual transition will take place. 5. Conclusion Everything over IP over Everything can be understood in two different ways, and both ways are important. First, in terms of transport protocols, IP is the clear winner over SNA and IPX (according to a survey made by the Gartner Group). The acceptance of a uniform network layer, together with the corresponding transport protocols, fuelled the creation of a vast number of services to be run on top of it. With this this in mind, the WWW is the natural extension of IP, and acted, as we know, as a booster for the public Internet. The growth of IP-based VPNs will contribute to the phasing out of the costly circuit-based private networks: IP-VPNs are ubiquitous because they extend beyond Frame Relay or ATM networks, and the deployment costs of IP-VPNs are significantly lower than for similar technologies (costs are not distance-dependent). The second and more direct interpretation of the title shows how all known transport technologies are nowadays used to carry IP packets, from switched circuits to shared wireless LANs, from optical wavelenghts to cable TV networks. But paradoxically, most of these technologies were not developed from scratch to specifically support IP packets. Instead, they were either developed to respond to consequences of the success of IP, namely the growth of data traffic, or retro-fitted to accommodate the ubiquitousness of IP. A network designed for IP has yet to come. Clearly, given the wide range of services running on top of IP, enhancements are required, such as header compression for better voice support, QoS for predictable delays and bandwidth, security to allow business transactions to take place safely, and billing mechanisms, to name just a few. This will eventually make IP a more complex protocol, and may lead to dedicated alternatives being preferred in specific cases. As technology has evolved, the common denominator has been rising through the OSI layers from IP to HTTP. Web browsing over mobile phones, without any IP layer underneath, is just one example. In business applications, it is the middleware layer, such as CORBA, that assumes the convergence role. This can be viewed as natural evolution: more complex applications are designed, and therefore rely on always higher-level building blocks. Communications can be divided into three types: human-to-human (sensitive to delay and jitter), computer-to-human (such as web, video streaming, etc), and computer-to-computer ( , ftp, database synchronization, storage network). In the latter two cases computers can provide buffering to cope with delay variations, and best-effort service is sufficient if networks are correctly dimensioned. IP supports all three types of communications, although historically it is best-effort-oriented. Applications running over an IP network are inherently flexible, and this requires that also underlying technologies be flexible (dynamic provisioning, i.e. placing bandwidth where needed when needed). The Intelligent Optical Network, in

21 which wavelengths are set up dynamically like circuits, is an answer to this need in the core networks. Given the rate at which IP traffic increases, the infrastructure has to scale accordingly. Therefore, it is necessary to streamline the underlying technologies to avoid rapid obsolescence and costly upgrades, as proposed in the IP over DWDM concept, which bypasses SONET. IP over DWDM requires traffic-engineering capabilities provided before by the ATM and SONET layers: this is replaced nowadays by adding MPLS to IP. Given the speeds at which router interfaces operate, the SONET multiplexing capability is not necessarily required in high-speed backbones: IP can then directly run over DWDM if certain restoration capabilities, originally provided by SONET, can be integrated either into the DWDM or the IP layer. By streamlining these layers, IP becomes aware of the underlying resources and can make better use of them, such as using protection fibers for best-effort traffic. Cost efficiencies are also derived from this streamlining process: fewer layers means less equipment and a more unified management, just to name a few. 6. References [1] Access Networks, Last Mile: Die Ankoppelung an den Information-Highway, 1999, [2] Jon Anderson et al., Protocols and Architectures for IP Optical Networking, Bell Labs Technical Journal, January-March 1999, [3] Bill St. Arnaud, Wide Area and Long Haul Gigabit Ethernet: The LAN is invading the WAN, CANARIE, [4] ASP Industry Consortium, November 2000, [5] S. Blake, D. Black, M. Carlson, E. Davies, Z. Wang, W. Weiss, An Architecture for Differentiated Services, IETF RFC 2475, December [6] R. Braden, L. Zhang, S. Berson, S. Herzog, S. Jamin, Resource ReSerVation Protocol (RSVP) - Version 1 Functional Specification, IETF RFC 2205, September1997. [7] Cisco, Whitepaper: Scaling Optical Data Networks with Cisco Wavelength Routing, 1999, [8] Joel Conover, No Competition Among Local Providers, Network Computing, May 15, 2000, [9] Robert X. Cringely, Through an ILEC Darkly: How DSL Works and Might Even Make Us Rich, September 14, 2000, [10] Alex Galis, Multi-Domain Communication Management System, CRC Press, [11] N. Ghani, S. Dixit, T.-S. Wang, On IP over-wdm Integration, IEEE Communications Magazine. Vol. 38, No. 3, March 2000, pp

22 [12] L. Kahn, A New Medium for IP; Telecommunications, International Edition journal, Vol. 32, No. 7, July 1999, pp [13] J. Lundquist, B. Svensson, Messaging-over-IP A Network for Messaging and information services, Ericsson Review, No. 3, 1999, pp [14] A. Malis, W. Simpson, PPP over SONET/SDH, IETF RFC 2615, June [15] J. Manchester, J. Anderson, B. Doshi, S. Dravida, IP over SONET, IEEE Communications Magazine, Vol. 36, No. 5, May 1998, pp [16] Martin W. Murhammer, Virtual Private Networks (VPN), IBM International Technical Support Organization, ITSO Workshop, Raleigh, NC, [17] Henning Schulzrinne. Scaling the Internet, IFIP WG 7.3 Performance Evaluation workshop, Keynote Address, Eastsound (Orcas Islands), WA, June 20, 1997, [18] Siemens, IP Over DWDM: New Business for City Carriers, TransXpress Waveline product information, [19] David Sovie and John Hanson (Mercer Management Consulting), Application Service Providers, November 2000, [20] Stardust.com, IP QoS FAQ, September 5, [21] Stardust.com, QoS Protocols & Architectures, August [22] Michael Tesler (Broadsoft), Next Generation Services Requirements and Opportunities, NGN 99 Conference Panel on Transforming Telephony: Value-Added Applications. [23] J. Wroclawski, The Use of RSVP with IETF Integrated Services, IETF RFC 2210, September [24] A. Zerdick et al, Die Internet-Ökonomie Strategien für die digitale Wirtschaft, European Communication Council Report, Springer, Heidelberg, 1999, Section 3.2: Herrscher der Netze: Wer besitzt die Infrastruktur? Analyse des Telekommunikations-Sektors, pp

23 Third Generation Mobile Access Systems for E-Commerce Andy Van Maele November 29, 2000 Seminar: Internet Economics, Talk No. 2 1 Introduction GSM, the Global System for Mobile Communications [1], has been first introduced in 1992, with 23 million subscribers. The first generation mobile telephones (1G), based on in that time high-tech high speed Silicium-technologie, only provided voice communications in the frequencyband around 900 MHz. With over 500 million subscribers in 2000 for 1G (1 st generation), and Figure 1: Growth of GSM subscribers [1]. The blue rectangles are the annual growth. 800 million to be expected in 2004, the growth was bigger then any company had ever expected. It was an exponential growth, with a very short time to reach a lot of new subscribers. Compared to the fixed telephone network, the market grew about 50 times as fast [2]. The spectacular growth in this sector has introduced a hype, and everybody wants to offer more services to the market. The prices that are being offered for the new UMTS-licenses prove that a lot of money can be made by this future technologies. For example, France Telecom offered about 435 million euros for a license on the Dutch market [3]. The remark should be made that the mobile sector is the biggest in Europe. In Europe, all countries support the GSM standard, making the competition big and the offers interesting. In the USA, different standards also exist, leading to a smaller mobile industry. The first question that rises is: what kind of new services should be offered? Secondly, how should these new services be charged? The challenges for the Figure 2: World subscribers division [1] technology developers and the network providers are quite big, and this document will try to give an overview on the recent situation. First, an introduction to the GSM-system is being made: what is the technology like, and what are the agreements made? Secondly, an overview of future applications in mobile communications technology is presented. We will finish with a chapter about charging and billing in mobile communications.

24 2 From 1G to 3G over 2G 1G (1 st generation) is the name for the mobile equipment that delivers voice communication at a rate of 9.6 kb/s. The latest technology also allows to transfer other data, and at higher bitrates. 2G (2 nd generation), based on 1G technology, can get bitrates up to 115 kb/s. This is possible through GPRS (General Packet Radio Service). In the future, the 3G technology should be able to have a bitrate of maximum 2 Mb/s, making use of UMTS (Universal Mobile Telecommunications System). The 1G GSM networks provide digital telephony and low bandwidth data communications. The frequency band used is MHz (mobile transmit: the frequency used by your handy to send to the base antenna) and MHz (base transmit: frequency used by the base antenna to your handy). To allow maximum number of users access, each band is subdivided into 124 carrier frequencies spaced 200 khz large, using FDMA techniques. Each of these carrier frequencies is further subdivided into time slots using TDMA (Time Division Multiple Access). TDMA has 8 time slots in 1G-full(i.e. transmitting for one eighth of the time) [4]. The 1G system is based on the old fixed telephone networks: a subscriber calls with his mobile to a GSM antenna, which functions as a Local Exchange (LEX). The Operational Network has a control Plane (CP), that Figure 3: User plane. Database is in the Control Plane. searches a path through one or more Transit Exchanges (TEX) to the LEX of the person who is being called. Then a link is established in the User Plane (UP) between the two mobile telephones, and a permanent connection between the two parties is being formed. This is called digital circuit switching. In 1995 the services were extended to FAX, Short Message Service (SMS) and full dial-in internet-connection (9.6 kb/s). Since 1999, an overlay protocol also enables one to directly access the Internet through the Wireless Application Protocol (WAP). This protocol takes a client server approach. It incorporates a relatively simple micro browser into the mobile phone, requiring only limited resources on the mobile phone and the mobile network. For the first time, a link with a packet switching technology is introduced on the mobile phone, over a circuit-switched network. In 2G and in the future 3G systems also packet switching services will be provided, such as e- mail and browsing the Internet. It will be possible to access these services at higher bitrates then in the 1G system. General Packet Radio Service (GPRS) is a packet-based transmission system using 'tunnelling' principles; it offers higher bit rates with a raw data rate up to 115 kb/s compared with the 9.6 kb/s provided by GSM circuit-switched. Multiple radio channels can be allocated to a single user and the same channel can be shared between several users: this gives better usage of the radio resources [5]. GPRS uses the same radio modulation as the GSM standard, the same frequency bands and the same TDMA frame structure. However, a new functional network entity, the Packet

25 Control Unit (PCU), is required in the BSC (Base Station Controller) to manage packet segmentation, radio channel access, transmission errors and power control. Another major aspect of GPRS deployment is the introduction of a new overlay Network SubSystem (NSS). It consists of two main new network elements: the Serving GPRS Support Node (SGSN) and the Gateway GPRS Support Node (GGSN). These are distributed around the GPRS backbone. The SGSN keeps track of the locations of individual mobile stations and performs security functions and access control. The GGSN, which is roughly analogous to an Internet access gateway, handles interworking with external IP networks. The GGSN encapsulates packets received from external Internet Protocol (IP) networks and routes them towards the SGSN. Enhanced Data rates for GSM Evolution (EDGE) uses a new modulation on the air interface to improve the efficiency of frequency usage. Based on GPRS for high-speed packet switched data, EDGE allows 'Enhanced GPRS' mode (E-GPRS) offering up to 48 kbit/s on every radio channel. Using eight channels, a transceiver will support up to 384 kbit/s. The UMTS third-generation system (3G) will consist of two separate parts linked with a standardized I/O-interface: The UMTS Terrestrial Radio Access Network (UTRAN): comprising Node B (equivalent to the GSM BTS) and the Radio Network Controller (RNC) The core network: equivalent to the GSM NSS. Within the UTRAN there are two different, but related, modes. Frequency Duplex Division (FDD) is intended for symmetric traffic and macro-cells and Time Duplex Division (TDD) is better suited to asymmetric traffic (such as Internet access), micro-cells and private and other indoor environments. These two modes provide the best efficiency with the same system whatever the conditions. WRC (World Radiocommunication Conference) 2000 identified the frequency bands MHz and MHz for future IMT-2000 (International Mobile Telecommunications-2000) systems, with the bands MHz and MHz intended for the satellite part of these future systems. UMTS has been designed for extensive data use. The evolutionary scenario for mobile data is that GPRS will be deployed to test the market and then UMTS will be introduced to offer better services. True multimedia services, in particular video, will only be possible with UMTS. However, most applications will also be available on GSM networks, but with not such a good performance. UMTS may eventually only work on an TCP/IP backbone-network only, with packet switching only, converging the Internet and mobile telephone communications. Generation Year Technology Max. Bandwidth for Data First GSM 1992 Voice N/A 1G 1995 SMS, FAX, Mobile Data 9.6 Kb/sec Internet via Modem 2G 2001 GPRS 115 Kb/sec Direct Internet connection 3G 2002 UMTS 2 Mb/sec Direct Internet connection Table 1: Comparison of bitrates in different GSM generations. [6]

26 3 A New Frontier With UMTS, wireless data-communication at high-speed connections will be possible. This opens an entirely new market. What kind of services could be offered in this new market segment (based on [7]), and what must developers still achieve to make this possible? 3.1 Possible 3G-services Internet access This is the without any doubt the most important feature of 3G. People will be able to go online while being on the train or on the bus, with a tolerable speed. One possibility is that the future Internet protocols will be adapted to WAP-protocols, and so allowing the user to access the bare information from the sites on the Internet. Another possibility is that HTML will be integrated into possibilities of the 3G-device and that also graphical designed web pages will be accessible, without an underlying protocol such as WAP. If the bandwidth is high enough, transmitting compressed graphical data cannot be a problem. Also the display capacities are to be considered. MP3 Audio With the higher bandwidth-rate of UMTS, it will be possible to directly load an mp3-file in to a portable-mp3-player over the net. This is already theoretically possible, but very slow due to low bandwidth. There are numerous business models to allow both the network providers as well as the copyright owners of the MP3 material to benefit financially. Video on demand If the display of a mobile device is extended to a small monitor, it will be able to submit compressed video data over the air. They can be made visible on the screen of the mobile device on demand of the user. People will be able to enjoy entertainment wherever they are. Also enhanced quality news on your mobile device can be a 3G-service. Mobile inventory management: Tracking of goods or services so that providers can determine delivery times. Like this, the total inventory of any truck on the road could be consulted in real-time, and the truck would be part of the inventory-space. This would reduce inventory space and cost for a company. In practice, probably inside the truck there would be an onboard-lan communicating with the wares in the truck, and then reporting to a GSM-network Figure 4: Mobile inventory managment [7]. or a satellite. Every piece inside the truck would have to have a small transmitter unit on his package telling the local onboard-lan what is in the truck. Recently, Motorola announced plans for a printed transmitter on packages. The goal is to achieve a price lower than 1 Sfr. (60 $cents) [8]. Also Just-In-Time delivery (JIT) would benefit from such an online-on the road inventory: if the components that should be delivered are delayed along the road, the truck could notify the customer of this so that he can adept his assembly-speed. These kinds of applications of course require a very reliable wireless infrastructure. Possible customers are shipping companies or assembly-plants.

27 Product location: Consumers can find an item with certain specifications in the area they are in. Some kind of on-line Yellow Pages. But this application could also offer not only addresses of stores selling the wanted item, but a database containing prices, distance from his position, and discounts offered. The stores should of course have a uniform naming pattern in the database, so that all stores can compete. Two other questions arise: how will the database price its services, and how to ensure the accuracy of the information that is delivered. Proactive service management Figure 5: Product location [7]. Applications collect information on user needs and then signal vendors to provide services. For example, components of industrial machines could report their status to the manufacturer or to the dealer. Dealers would be able to compete and offer companies their maintenanceservices. Manufacturers could analyse the data and improve future designs, or offer pro-active management as part of the warranty. Here privacy and security issues are topics to be handled. When making this technology available for trucks and cars, also this technology should be able to communicate through a mobile network. Figure 6: Mobile service management [7]. Mobile auction, other services Also, for normal subscribers a whole lot of new services could be implemented. People still want to handle their business or enjoy entertainment while they re mobile. For example, wireless networks can provide auctions or the access to the stock markets what business is concerned. Here, connectivity is very important: when you re on an on-line mobile auction, it may not happen that you re connections fails for a short period. Also other functionalities could be found. For example, the network could locate people. You can look at home whom of your friends are in the pub you would like to go to, and then decide if you ll be going or not. Internet in developing countries In Europe, we have a high population density and already a very large phone-network (or another access-network). Through these existing networks, people are enabled to have an Internet connection at home with quite a good data-rate, depending of the technology used (modem, HDL, cable). Developing countries, like in Africa, do not have such a wide spread network infrastructure. Only in capitals or big cities there is a fixed network that can deliver Internet access. This is still very expensive in developing countries. For example, in Kenya an Internet connection costs about 413 times more than in Finland or the USA, relative to the Gross Domestic Product per capita (GDP). In Armenia, it is even 485 times more expensive to become a full Internet access. And that for worse services [9]. With new UMTS technology, networks could be created in developing countries without having to dig a fixed network, which is always the most expensive step in installing a network [2]. An antenna can cover a wide area for a small amount of subscribers, and so providing an Internet access in regions where a fixed net is not available. In city-regions in

28 developing countries, a mobile network can be competitive with the existing (expensive) fixed network that is present. In regions that cannot be reached with an antenna, even a satellite connection belongs to the possibility s to connect to the Internet. Like this, developments for UMTS applications are not only important for advanced European technology, but can also help delivering telephone and Internet access in developing countries. 3.2 Wireless developments User equipment To realize the above applications, some modifications on the contemporary mobile devices will have to take place. The memory capacity will have to be enlarged; an appropriate display will have to be built. The mobile telephones will evolve to intelligent mobile devices some of them already have. As these devices will have more and more functionalities, they will also require their own operating system (OS), or an OS that is suited to work fast enough in an environment with reduced memory-size, processing power and screen size. They need an OS with reduced storage needs. Several vendors s already developed a Mobile OS, and also a stripped version of UNIX is to be expected in the future. Already, a Linux-version is available Middleware Mobile middleware is a layer of software that enables an application to communicate with other applications, regardless of network operator or OS. Middleware gives applications better reliability, and makes them independent from providers. Some of them even allow you to interrupt your connection, and start later on where you stopped before. Middleware offers an Figure 7: Middleware. easier world to develop applications. There is a minus: middleware introduces additional complexity to the system and thus a significant higher initial cost. An example of middleware is WAP: it is a common set of protocols that can be used on different operators among different wireless networks. It links between the mobile telephone and the Internet, or just to a WAP-server. A gateway acts as a proxy server for a mobile client. It translates WAP requests into HTML-data and vice versa Network infrastructure With the coming of GPRS and UMTS, we ll have the possibility to work mobile with high data rates. Another important factor is the coverage: the initial cost to change all the transceiver equipment in a mobile network is quite high, so probably not al providers will have a complete coverage by the introduction of the new technology. Other needs are the Quality of Service (QoS) that is offered, reliable and survivable networks, and roaming access. 4 Charging mobile services 2G and 3G technology opens perspectives for a whole lot of new services, which will bring a lot of new revenues to the providers. But with these new services, the old billing system that

29 is now used for telephony is no longer sufficient to charge the customers. The old system is based on a circuit switched network, while 2G and 3G technology will also have to handle packet switched services. So a lot of the new services are no longer time-based, but packet- or size-based (for example: a SMS message). Before developing entirely new services, providers of course would like to understand how to make revenue out of these services. The providers now have the opportunity to accept the challenge and try out new forms of charging and billing models with the GPRS-technology, before they develop more advanced systems with more complex charging for UMTS. 4.1 Charging and billing requirements Today, when someone is making a phone-call, he generates a billing record inside the network of his provider. Roaming users also generate billing records in other networks, and their own network operator will retrieve those costs. So, billing records need to be collected - in the management plane - so that the subscriber bill can be generated. These billing records should be pre-processed into a standard format, so that operators can exchange information with one another. Currently, the ETSI standards recommend a Charging Gateway Function (CGF) to handle the billing record generation. Having a lot of new services in the prospective, a lot of new charging variables will arise. We have an integration of the Internet and a multitude of diverse systems connected to it. There already exist Internet charging models, so the inter-charging between the mobile and the Internet network providers could become very complicated. Also, the cost of maintaining a complicated Figure 8: Creation of CDRs [10]. billing system can run up to about 50% of the total infrastructure investment [6]. Therefore the billing system needs to provide a good deal of added value to make the investment worthwhile. A simplification in the billing is justified. Fraud is normally present in commercial environments. Network operators need to be aware of the different kinds of fraud that are possible and may occur in their network. When a complex billing system is used, the detection of fraud becomes more difficult. 4.2 Different charging and billing models A lot of charging and billing models exist. A brief overview is presented. Metered The subscriber is charged for the metered usage of the service, mostly measured in seconds (or other units of time). Commonly, also a fixed monthly basis-price is charged (abonnementprice). Therefore one becomes a certain amount of time-credits that he can use. This is very well known, because most European fixed telephone companies work with this system. Fixed Price The network provider charges a fixed rental rate, and then local calls are free of charge. Other calls, like long-distance calls or pay-calls, are metered. This system is not know in Europe, but is used by some telephone providers in the USA.

30 Packet Charging In packet-switching networks, the number of packets delivered can be charged. This of course requires a packet counting system. The technical requirements for such a counting system are very expensive, and up to today only possible until 155 Mb/s. Expected Capacity The subscriber and the service provider agree on a usage profile basis. The subscriber can operate on the network within the limits of this agreement. The provider of course should have a filter to detect excess traffic. When the subscriber wants to use more traffic then he is allowed to, this should be denied. When the subscriber doesn t like this, he will have to make another contract with the provider. Edge Pricing Only the usage at the edge of the network scope for the subscriber is charged. The networks also charge each other for the usage at the network edges. For the subscriber, only the local charging information should be obtained, and what happens in each network s core is of no importance for the billing. Paris-Metro This model is based on travel classes, like in a train or a plane. Different levels of service exist, and they are provided each with a different price. The choice of class could also be made dynamic. Market Based Reservation Charging In this model, bandwidth or network resources are being auctioned. The subscribers can place a bid, and this will influence the quality of service the will receive. Obviously, the metered charging model is very accurate for normal voice communication. But for the new services that are created, the charging model can be discussed. For example, when a user leaves an Internet session open on his mobile device, his bill would be extremely large. He would experience this as unfair, because he didn t receive or send any useful data in that time. For this service, a packet charging would be a fair charging model. On the other hand this charging model could be expensive to implement in the network because of the technical expensive requirements. Another method that could be used to charge internet-services is the expected capacity model. A basic customer subscription may become a combination of different models. A fixed price tariff that includes free mobile calls up to a fixed limit, plus metered charge for extra calls or long-distance calls, combined with packet charging for Internet access. For and also other data-traffic, the Paris Metro charging could be introduced when different levels of QoS are presented by the providers. The model could also be altered by the customer, according to his own wishes. Of course, this will require more infrastructure investment. Figure 9: Combination of different models [10]. 4.3 Flexible Real-Time Payment Another problem that arises when a more complex model of billing and charging is used, is that the existing billing infrastructure will not be sufficient anymore.

31 4.3.1 History of billing and charging The billing system in modern technology is still based on the late 19 th century idea of creating bills. There, the operator manually wrote down the Call Detail Record (CDR) information onto a formatted record called toll ticket. These tickets later were used to generate the customer s bills. Later, this record creating was automated and had the name toll ticketing (TT): the CDRs are stored locally and are periodically sent to a centralized billing system. This is an offline procedure. If they are transferred immediately, then this process is known as online charging or hot billing. The information the CDR is built of is the source of call, destination of call, time and duration of call, routing points and service information. These are then processed, thereby handling the tariffs that are set with the customer. Today, the CDRs are formatted according to datastandards for call records so that different operators can exchange them. Before the liberalisation of the telecommunications market, the only exchange-partner was another country Billing in mobile networks The mobile communications exist of many independent network providers, covering different geographic areas and countries. The mobile user is free to go all over the world, and can connect to a network provider anywhere he wants. This is called roaming. When the user enters a new network, he s considered to be a roaming user for this network. This is possible as long as a bilateral roaming agreement between his network provider and the local network provider exists, and the mobile technology compatible is. The local provider can authenticate a legal user through means of a database called Home Location Register (HLR), connected to the Mobile Switching Centre (MSC). CDRs are generated into this local network, and late forwarded to the home operator for the settlement. These transfers are regulated by the Transferred Account Procedure (TAP). This is often performed over an X.25 network. Multiple CDRs can be generated in different networks. When a roaming mobile is called, the subscriber pays for the part of his location in the visiting network to his local MSC. The part from the local MSC to the caller is paid by the caller. So, two CDRs Figure 10: Creation of two CDRs when roaming [10]. are created. A first problem with this system is that the roaming partners must trust each other. There is no guarantee that any of the parties will pay, or will charge honest bills. Fraud is possible. Also, when having roaming agreements with several tens of other operators, exchanging CDRs is costly and this system can hardly be called efficient. Also privacy issues exist. How are the costs divided when a call is made between different networks? The user is charged a collection rate, which he has to pay to his network operator. In turn, the originating network operator is charged a reduced wholesale price by the terminating operator. This is (in the same country) known as the termination charge. In an international call, the operators agree on a wholesale price called accounting rate. Both operators first exchange the costs they had, and if there is a difference, the operator who is in debt, pays the difference, called the net settlement payment. This accounting rate system now has come under criticism. It was developed for fixed telephone operations, on a national basis. If the international call has to be routed into a mobile network, then this network also charges a terminating cost. The existing

32 settlement rates might not be high enough to cover this extra charge as well. One or more operators could lose money by this system. When mobile operators are working with prepaid systems, then the costs that occurred in other networks should be charged immediately. Not only for the own network there is hot billing required, but also for the partner networks. Like this, the call can be terminated when the prepaid account does not have any credits left. This is the reason why not all operators allow international calls with prepaid cards Future billing systems In future systems, we shall not only have a large number of separately administered access networks that are connected to fixed networks, but also they will be connected to an even large number of competing value-added service providers (VASPs). There will be a lot of exchange between a large number of partners, and if the old billing system is still used again even more trust relationships between parties will have to be established. This is no longer a suitable situation. One possible solution that has been presented for the future UMTS networks comes from the Advanced Security for Personal Communications Technologies (ASPECT) project. They designed a charging procedure, allowing small payments for value-added services. The call is split into two parts. The first component is the basic charge for bearer services. The second is the premium rate charge for the use of the services of the VASP. The user can generate payment tokens (unique for a user), and at the end of the day the VASP forwards these tokens to the user s UMTS service provider, who then pays the VASP and bills the user in the traditional way. Like this, only the user can generate tokens and it is very clear what he has to pay to the VASP. Still, the payment is not guaranteed and the billing is still via the network provider Real time payment Payments in real time would make it possible to prevent fraud better. Also, with a prepaid system the payment by the user is always guaranteed. Can we not combine the advantages of those two systems into a system, where the user of mobile services pays all the services that he is using in real time with the same prepaid credits? In a macropayment system the services could be paid through the use of credits, an electronic account, digital cash, or others. With this, a minimum transaction overhead is there. For very small payments, this is not a very efficient way. Furthermore, cryptographic operations are needed for this, in a large number. This means a heavy use of computational power. A system with less computational requirements for small payments is desirable. We come to a micropayment system. This should allow efficient transfer of very small amounts in a single transaction. In a macropayment system, the payment is always through a third party for authorisation of the payment. A micropayment system should be only between the user and the network parties involved. Instead of complex cryptographic algorithms, hashing operations could be used. They are not as computational heavy. Every user could generate a hash chain, using one-way hash functions. A hash token could be released for every second, or another time unit. The providers would be able to process a large number of calls at the same time, as the hash-tokens received are computational not that heavy. With digital signatures or other cryptographic technology, this would be a difficulty. Like this, the charging and billing would no longer be in the control plane of the mobile network, but it would be in the user plane, somewhere in the digital frame that contains the voice data.

33 When a user arrives in a new network, he would be able to use local and remote VASPs, and place calls routed through several networks. He pays directly to every provider for the use of the services using the hash-tokens. The providers can collect those tokens, and cash them by the home network provider (HNP) where the hash-tokens have been bought. The providers no longer have to make roaming agreements with each other, nor trust on another. The hashtokens could only have been generated by the user. A HNP cannot deny that a user, who is subscribed in his network, has made costs by another provider. Also the providers, who delivered services, cannot charge more to the HNP then the user has generated hashes. Payment is always assured, because the user had to buy the hash-chains in advance. The payment also can be made dynamically. By attaching a new money value to the token, the price can be changed within the second. This is very useful when a user is for example making a call that started in peaktime, and continues in low-tariff time. There is also the possibility to work with a broker, an instance that provides hash-chains independent from the HNP. Then the user would just have to choose a HNP to become a telephone number and/or other basic services. The payments are settled through the broker, so the network providers no longer have to exchange data with each other. Generally, the payment with tokens can be done in two different ways. The first method is a downstream method. The customer pas the total cost of the call to the local network operator. The network operator receives the total cost, subtracts the amount that he is entitled to and passes the rest of the amount downstream to the next entity involved in the connection. This continues until the last entity is paid. The further we walk down the connection, the smaller the amount of money being passed is becoming. A second method is that the mobile uses the same payment token to pay all the entities at once. The local network operator forwards a copy to all downstream entities. To each Figure 12: An amount is subtracted; the rest of the value entity, the token is worth a different is passed downstream [10]. amount. This amount is fixed at call set-up. Both schemes have their pros and contra s. For a comparison, [10] is recommended lecture. 5 Conclusions Figure 11: A centralised broker [10]. A lot of new technology is to be expected. The biggest limitation today is a bandwidthlimitation. Whit the introduction of UMTS, this will be solved. New services become possible, some of them for the industry, others for personal use. Big revenue in this new sector is to be expected, taking the revenues of voice mobile communications in regard. Therefore, the industry will find the investments to be made an overcoming obstacle. A fast development is to be expected, because this sector is to be called very hot today.

34 Along with the hardware renewing, the old payment systems for services will have to be revised, and also new payment methods and technology may have to be developed. What kind of charging and billing schemes will be used cannot be predicted. Probably, they will differ from service provider to service provider. The billing can be a very important factor to make a provider survive or not in the fast developing market. We are today at a breaking point in the new developments for mobile technology. Also for developing countries, the new technology could bring new luxury and possibilities. In general, the next two years, GPRS will deliver interesting experiences for the building of UMTS systems, which are to be expected in the beginning of References [1] GSM Association, [2] Piet De Meester, Telecom A, lecture notes, Chapter 1 [3] [4] African Cellular, [5] Philippe Laine, Marketing Manager GPRS, Alcatel, Paris, France, [6] J. Cushnie, D. Hutchison, H. Oliver : Evolution of Charging and Billing Models for GSM and Future Mobile Internet Services; First COST 263 International Workshop on Quality of Future Internet Services, September 2000, Berlin, Germany. In: Lecture Notes in computer Science No. 1922, Edt.: J. Crowcroft, J. Roberts, M. Smirnov, pp [7] U. Varshney, R.J. Vetter, R. Kalakota: Mobile Commerce: A New Frontier; IEEE Computer, Vol. 3, No. 10, October 2000, pp [8] De Standaard, 22 October 2000, [9] M. Kibati: What Is the Optimal Technological and Investment Path to Universal Wireless Local Loop Deployment in Developing Countries?; The Internet Summit (INET 99), San Jose, California, USA, June 1999 [10] M. Pierce, D. O Mahony : Flexible Real-Time Payment Methods for Mobile Communications ; IEEE Personnel Communications, Vol. 6 No. 6, December 1999, pp44-55

35 ETH Zürich, WS 2000/2001 Seminar Internet Economics Prof. Dr. Burkhard Stiller Der Internet Service Provider-Markt Sam Schneider, Bennet Uk Vortrag vom 6. Dezember 2000:

36 1. Besonderheiten des Internets Das Internet ist ein»networks of networks«, das heisst ein Netz, welches aus mehreren Teilnetzen besteht. Ein Teilnetz ermöglicht einem verbundenen Benutzer die Kommunikation mit jedem anderen Benutzer des gleichen Netzes. Benutzer des Internets aber wollen mehr als nur mit den anderen Benutzern des gleichen Teilnetzes kommunizieren - sie wollen den Zugang zu allen Beteiligten, egal von welchem Teilnetz. Um dies zu erreichen verbinden sich die Teilnetze gegenseitig, zu einem»network of networks«eben. Internet Service Provider (ISPs) verkaufen den Zugang zur Gesamtheit der Internet Enduser und Content Provider. Die treibende Kraft hinter der Verpflichtung, dass ISPs den Zugang zur Gesamtheit des Internets gewährleisten müssen, nennt man Netzwerk Externalitäten [1]. Netzwerk Externalitäten (NE) treten dann auf, wenn der Wert oder der Nutzen, welcher ein Benutzer aus einem Produkt oder Dienst zieht, ansteigt als eine Funktion der Anzahl der anderen Benuzter des gleichen oder eines vergleichbaren Dienstes. Das bedeutet soviel wie: Je mehr Benutzer an ein Netz angeschlossen sind, desto wertvoller ist das Netz für alle. Wenn sich jemand überlegt, ob er sich Zugang zu einem Netz verschaffen soll, wird er nur die Vorteile erwägen, welche der Zugang mit sich bringt. Er wird sich aber nicht bewusst sein, dass wenn er sich an das Netz anschliesst, die Vorteile oder Möglchkeiten für die anderen Netzbenutzer mehren. Das letztere nennt man eine Externalität. Es gibt direkte und indirekte NE. Ein klassisches Beispiel für ein Netz, welches direkte NE hervorruft, ist das Telefonnetz. Je mehr Leute über einen Telefonanschluss verfügen, desto nützlicher wird das Telefon. Weil die Beteiligten die Systeme brauchen, um direkt miteinander zu kommunizieren, nennt man diese NE direkt. NE sind indirekt für Systeme, welche sowohl»hardware«wie auch»software«benötigen, um Vorteile zu liefern. Je mehr Leute die Hardware kaufen, desto mehr zur Hardware kompatible Software wird entwickelt werden, was wiederum die Hardware wertvoller macht. Ein Paradebeispiel für ein System, welches indirekte NE hervorruft, ist die Einführung der Musik- CD. Je mehr Leute sich damals einen CD-Player kauften, desto grösser war der Anreiz für die Plattenfirmen das Angebot an CD-Titeln zu vergrössern. Dies wiederum machte die CD-Player erst richtig wertvoll. Die NE sind indirekt, weil die Leute die Systeme nicht kaufen, um direkt miteinander zu kommunizieren, aber sie profitieren indirekt von den anderen CD-Käufern. Eine Besonderheit des Internets ist, dass es sowohl direkte wie auch indirekte NE hervorbringt. - und Internet Telefonie-Benutzer erhalten direkte NE vom System. World Wide Web(WWW)-Benutzer erhalten indirekte NE. Je mehr Leute das WWW nutzen, desto grösser ist der Anreiz mehr Content, wie WebPages, zu erstellen, was wiederum das WWW attraktiver macht. Weil das Internet sowohl direkte wie auch indirekte NE mit sich bringt, sind die Internet Service Provider ganz besonders dazu verpflichtet ihre Netze zusammen zu schliessen und zusammen zu arbeiten.

37 2. Rollen im Internet Die zahlreichen am Internet beteiligten Partien nehmen ganz verschiedene Rollen ein. Wir beschreiben hier kurz die wichtigsten Rollen, die im Internet mitspielen. Internet Service Provider (ISPs) Als "Rohstoff-Lieferanten" des Internets fungieren die Internet Service Provider. Wir unterscheiden hier zwischen Zugangs-ISPs und Backbone-ISPs. Zugangs-ISPs verkaufen den Internet-Zugang an Endkunden mittels den gängigen Zugangs- Technologien (Dialup-Modem, Kabelmodem, xdsl etc.). Beispiele für Zugangs-ISPs sind AOL, diax (dplanet), Cablecom etc. Backbone-ISPs verkaufen Internet-Konnektivität an andere (meist kleinere) ISPs. Sie sind im Internet-Markt die "Grossverteiler" und betreiben leistungsstarke, weitreichende Netzwerke. Sehr oft treten ISPs in beiden Rollen auf, betreiben also nebst ihren Backbone-Netzen auch Endkunden-Zugangspunkte. Kunden Die Kundschaft der ISPs setzt sich zusammen aus Firmen, welche ihre internen Netzwerke ans Internet anschliessen möchten, sowie aus Privatkunden, die von zu Hause aus im Internet surfen wollen. Eine weitere Kundengruppe sind die Content-Provider, welche Informationen und Dienstleistungen verschiedenster Art über das Internet zugänglich machen wollen. Infrastruktur Diese Infrastruktur-Provider sind nicht direkt im Zusammenspiel zwischen ISPs und Kunden involviert, profitieren aber stark vom Erfolg des Internets und stellen für das Internet lebenswichtige Infrastruktur zur Verfügung. Die klassischen Telecom-Carriers betreiben die dem Internet zu Grunde liegenden physischen Netzwerke, über die der gesamte Internet-Verkehr fliesst. Heute findet man auch zahlreiche Carriers, welche auch als Backbone-Provider tätig sind, sowie Backbone Provider, welche ihre eigenen Glasfasernetzwerke verlegen und betreiben. Die Hardware-Hersteller stellen die zahlreichen Modems, Router, Server etc. her, welche das Internet am Leben erhalten. Nicht zu vernachlässigen sind die Räumlichkeiten, die für die ganze Hardware benötigt werden, mit allem drum und dran wie Strom, Klimaanlagen, Sicherheitsvorkehrungen etc. 3. Interkonnektionsstrukturen im Internet Eine zentrale Eigenschaft des Internets ist die Tatsache, dass jeder Host, egal wo er sich befindet und bei welchem ISP er angeschlossen ist, mit jedem anderen Rechner im Internet kommunizieren kann. Damit dies möglich wird, müssen die einzelnen Netzwerke via Backbones miteinander verbunden sein, um Datenverkehr austauschen können. Dies wird heute auf verschiedene Arten gelöst. Diese Konzepte haben sich über die Zeit, zusammen mit der Entwicklung und dem Wachstum des Internets entwickelt.

38 Eine hierarchische Sicht des Internets Zahlreiche ISPs verschiedenster Grösse betreiben eigene Netzwerke mit diversen geographischen Ausdehnungen. Wir werden diese ISPs in drei Gruppen unterteilen: Lokale / regionale ISPs sind in einem oder mehreren Städten innerhalb eines Landes tätig. Typischerweise bedienen sie private Endkunden, sowie Firmen, die in der Region angesiedelt sind und einen Internetanschluss benötigen. Nationale ISPs haben innerhalb eines Landes ein verteiltes, leistungsfähiges Backbone. Sie bieten oft sowohl Endkunden (z.b. Grossfirmen mit Filialen in mehreren Städten) als auch lokalen ISPs den Anschluss an das "globale" Internet an. Top-Tier ISPs haben schnelle, geographisch weitreichende Backbones und transportieren den Grossteil des globalen Internet-Verkehrs über ihre Backbones. Sie sind nicht auf noch grössere ISPs angewiesen, um Konnektivität zu Teilen des Internets zu haben, sondern tauschen unter sich den Verkehr nach dem unten beschriebenen "Peering"-Prinzip aus. Top-Tier ISPs sind: Cable & Wireless, MCI/WorldCom, Sprint, AT&T, Genuity [1]. Wäre das Internet streng hierarchisch aufgebaut (jeder lokale / regionale / nationale ISP bezieht Konnektivität von genau einem darüberliegenden ISP, dem sogenannten Upstream-Provider), wäre das Routing im Internet sehr einfach. Man hätte ein Baumstruktur und jeder Pfad zwischen beliebigen Knoten im Baum ist bekanntlich eindeutig (die Top-Tier-ISPs könnte man als Kinder des Wurzelknotens betrachten). Allerdings werden dann den Paketen auch ineffiziente, sinnlose Pfade aufgezwungen: gegebenenfalls muss ein Datenpaket zwischen zwei Rechnern im selben Gebäude, die aber an ganz verschiedenen ISPs angehängt sind, bis zur obersten Ebene des Baums und zurück nach unten geroutet werden. Das Prinzip der Lokalität führt dazu, dass ISPs bestrebt sind, den Pfad der Datenpakete kurz zu halten: Haben die Pakete nur kleine Distanzen zu überbrücken, ist dies potenziell günstiger und schneller. Dies ist der Grund, weshalb die strenge Hierarchie des Internets so nicht vorzufinden ist, und auf allen Ebenen ISPs die Hierarchie durchbrechen, um Übertragungsdistanzen möglichst klein zu halten. Vollständig vermaschte Vernetzung Eine einleuchtende Möglichkeit, Verbindungen zu errichten, ist, dass jeder ISP zu jedem anderen ISP, mit welchem er eine Interkonnektion eingehen möchte, eine Leitung zieht (bzw. mietet). Dieses Prinzip ist von der Anzahl benötigter Leitungen her ineffizient, denn wenn N ISPs miteinander peeren möchten, werden dazu (N 2 -N)/2 Leitungen benötigt. A B Abbildung 1: Hierarchisches Internet Exchange-Points Abbildung 2: Vollständig vermaschte Vernetzung (Quelle: [2]) Um dem Problem der grossen Anzahl benötigter Leitungen bei der vollständig vermaschten

39 Vernetzung auszuweichen, existieren sogenannte Exchange-Points, bei denen der gegenseitige Datenaustausch an zentralen Punkten erfolgt. Es existieren verschiedene Arten von Exchange- Points [2]. Exchange Router Das einfachste Modell eines Exchange-Points ist, genau ein gemeinsamer Router einzusetzen. Die Netzwerke der verschiedenen ISPs kommen an einem Ort zusammen, wo der gemeinsame Verkehr ausgetauscht wird. Wenn nun N ISPs miteinander Daten austauschen möchten, werden jetzt lediglich N Verbindungen benötigt. Allerdings ist ein Router Abbildung 3: Exchange Router (Quelle: [2]) als zentrales Element eingeführt worden, wodurch für den einzelnen ISP die Flexibilität (z.b. bezüglich Routing-Policies) verloren geht, und auch ein Flaschenhals entstehen kann. Exchange Switch Das Problem der Inflexibilität kann gelöst werden, in dem man den Exchange Router mit einem Switch oder LAN ersetzt. Nun muss jeder ISP nebst einer Leitung auch einen eigenen Router im Exchange betreiben, kann aber seine eigenen Routing-Policies nach Belieben einsetzen. Abbildung 4: Exchange Switch (Quelle: [2]) Verteilte Exchanges Es existieren auch Modelle von verteilten Exchanges. Hier wird das LAN des Exchange-Modells auf ein WAN erweitert, typischerweise kommen FDDI oder ATM-Technologien zum Einsatz. Derartige verteilte Exchanges sind aber im heutigen Internet eher selten. 4. Interkonnektionsvereinbarungen im Internet In den frühen Tagen des Internets existierte nur ein Backbone, das der National Science Foundation (NSFNET), welches Rechenzentren in den USA mit 56 kbps-links miteinander verband [1]. Zwei Jahre später waren es 13 Zentren, welche mit T-1 Links verbunden waren. Das NSFNET war klar nur für Forschungs- und Lehrzwecken zu verwenden, kommerziellen Netzwerkanbietern war es untersagt, mittels NSFNET-Backbone untereinander Daten auszutauschen. Damit wurden die kommerziellen Anbieter dazu gezwungen, eigene flächendeckende Backbones aufzubauen, und 1991 entstand aus der Zusammenarbeit dieser kommerziellen Backbone-Provider das CIX (Commercial Internet Exchange). CIX war ein Exchange-Point mit einem Exchange-Router, welcher in Santa Clara (Kalifornien) untergebracht war und dem einzigen Zweck diente, Verkehr zwischen den verschiedenen Backbones auszutauschen. Damit wurde es den Endkunden dieser Backbones möglich, mit Endkunden anderer Backbones zu kommunizieren begann sich das NSFNET aus dem Backbone-Geschäft zurückzuziehen und entwarf ein System von geographisch verteilten Network Access Points (NAPs), die ähnlich wie das CIX aufgebaut waren, aber statt nur eines Routers ein gemeinsamer Switch oder LAN einsetzten, um den Austausch von Verkehr zu ermöglichen. Kommerzielle Backbones konnten an einem oder mehreren dieser NAPs mit anderen Backbones interkonnektieren ersetzte dieses System von kommerziellen Backbones und den NAPs das NSFNET vollständig.

40 Zunächst wurde der grösste Teil des Datenaustausches an diesen NAPs abgewickelt, da es günstiger für die Backbone-ISPs war, jeweils eine Leitung zu einem NAP zu haben, wo man mit allen dort angeschlossenen ISPs Verkehr austauschen konnte, als eine einzelne Leitung zu jedem anderen Backbone. Doch mit dem rasanten Wachstum des Internets wurden diese ursprünglichen NAPs überbelastet, was zu Paketverzögerungen und -verlusten führte. Um diesem Umstand abzuhelfen, entstanden eine Anzahl neuer NAPs (andere Namen sind z.b. MAEs (Metropolitan Area Exchanges), IXP (Internet Exchange Points) etc.). Anders als beim öffentlichen Telefonnetz, wo verbindliche Regeln und Gesetze für die Interkonnektion unter Telefongesellschaften einen regulierten Rahmen vorschreiben, existieren im Internet diesbezüglich praktisch keine Gesetze. Somit sind die ISPs frei, nach beliebigen Prinzipien miteinander Interkonnektionsvereinbarungen einzugehen. In den frühen Tagen des kommerziellen Internets stand der Wunsch nach Interkonnektion im Vordergrund, so dass finanzielle Aspekte weniger wichtig waren. So entstand das Prinzip des Peerings. Peering Beim Peering vereinbaren zwei Backbones (die beiden Peeringpartner), Datenverkehr, welcher von Kunden des einen Backbones zu Kunden des anderen Backbones fliessen soll, frei auszutauschen. Verkehr, der entweder von ausserhalb der beiden Backbones herkommt oder zu einem Rechner ausserhalb der Backbones hingehen soll, wird von der Peering-Vereinbarung nicht berücksichtigt. Die Peering-Partner tauschen ihren Datenverkehr aus, ohne dass eine entsprechende Geldsumme ausgetauscht wird (Zero-Settlement) Der Austausch von Daten erfolgt heute üblicherweise nach dem "best-effort"-prinzip, ohne Garantien. Es liegt im Interesse beider Peering-Partner, die Peering-Verbindungen genügend grosszügig zu dimensionieren, damit kein Datenstau auftritt. Backbone A Backbone C Backbone B Peering Abbildung 5: Peering (Quelle: [1]) In der Abbildung bestehen Peering- Vereinbarungen zwischen Backbone A und C, sowie zwischen B und C. Als Folge dieser Vereinbarungen können Kunden von A mit Kunden von C frei Datenverkehr miteinander austauschen. Das Peering vereinbart aber nicht, dass ein Backbone als "Zwischenstation" zwischen zwei anderen Backbones fungieren wird. Möchte also ein Kunde von A mit einem Kunden von B kommunizieren, wird C diesen Datenverkehr nicht als Teil der Peering- Vereinbarung entgegennehmen. Transit Im Gegensatz zum Peering, wo der Austausch von Daten zwischen gleichberechtigten Partnern vereinbart wird, sind Transitvereinbarungen klare Kunden-Anbieter-Verträge. Der Transit-Anbieter (Upstream-Provider) gewährt dem Kunden Konnektivität zum gesamten Internet, also sowohl zu allen anderen an seinem Backbone als Kunden angeschlossene Netzwerke als auch zu seinen Peering-Partnern. Dafür verlangt er vom Kunden eine Geldsumme, die abhängig von Bandbreite oder Datenvolumen ausgehandelt wird. Üblicherweise wird in einem Service Level Agreement auch die Qualität der Dienstleistung (im Sinne von verfügbare Bandbreite, Uptime etc.) festgehalten.

41 Service Level Agreements Service Level Agreements (SLAs) sind Bestandteile von Dienstleistungsverträgen, in welchen bestimmte Leistungsparameter definiert sind, welche der Dienstleistungsanbieter einzuhalten hat. In einem SLA könnte beispielsweise festgehalten werden, dass die Verbindung zum Internet während mindestens 99,9% jeden Monats zur Verfügung steht, oder dass der Datendurchsatz mindestens einen gewissen Wert zu erreichen hat. Ebenfalls werden im SLA allfällige Konsequenzen für den Anbieter festgehalten, falls er einmal die vereinbarte Dienstqualität nicht erbringen kann. Üblicherweise werden in solchen Fällen Rückzahlungen an den Kunden fällig. 5. Aktuelle Themen im ISP-Markt Die Peering Debatte Durch das Fehlen von industrieweiten Regeln für Peering wird beliebig improvisiert. Dabei muss man bedenken, dass ein Grossteil der ISPs sowohl nach oben (mit Upstream-Providern) wie nach unten verhandeln müssen und auf beiden Seiten die profitabelste Lösung aushandeln möchte. Ein ISP tritt dann einmal als "kleinerer" und einmal als "grösserer" auf. Im folgenden Beispiel (aus [3]) betrachten wir zwei Backbone-ISPs (siehe Bild), welche eine Peering-Vereinbarung haben. ISP G ist grösser in Abdeckung und Anzahl Kunden. Es herrscht ein Ungleichgewicht. Es fliesst viel mehr Verkehr von ISP K (=kleiner) als umgekehrt. Ein solches Szenario tritt beispielsweise dann auf, wenn ISP K vor allem Webhosting betreibt und nicht als Zugangs-Provider tätig ist (normalerweise verursacht die Anfrage für eine Webseite wenig, die übertragung einer Webseite jedoch viel Verkehr). ISP K ISP G Abbildung 6 Plötzlich fordert G Gebühren von K, und droht sogar mit der Einstellung der Verbindungen, weil K viel Verkehr auf dem Backbone von G verursache. Als Begründung gibt G an, er müsse nun mehr Netzwerkressourcen zur Verfügung stellen, um den von K verursachten Verkehr zu bewältigen. K erwidert darauf, dass eine Gebühr nicht berechtigt sei, und dass die Kunden von G, welche den Inhalt von K abfragen, gefälligst für die dazu erforderlichen Netzwerkressourcen auf dem Backbone von G aufkommen sollen. Schliesslich wollen ja sie vom Service profitieren, dass G die Daten zu ihnen transportiert. K fügt hinzu, dass die Kunden von G ja bewiesenermassen den Inhalt von K abfragen und dass man somit, mit einer Beendigung der Interkonnektion die Kunden von G um einen beliebten Service beraube. K könnte sogar die Diskussion umkehren, und von G Gebühren verlangen, weil die Kunden von G grossen Verkehr auf dem Backbone von K verursache. Das Ungleichgewicht ist für K ein Zeichen dafür, dass G mehr von K abhängt als umgekehrt! Aus dieser Debatte kann man zumindest schliessen, dass eine Unterbrechung der Interkonnektion beiden Partnern schaden würde.

42 In den meisten Fällen besteht ein gewisses Ungleichgewicht zwischen zwei Peering Partnern. Ein häufig angewandtes Mass bei der Beurteilung des Nutzens, welchen ein ISP aus einem Peering Abkommen zieht, ist das folgende: Verkehr von ISP A nach ISP B wird als "nützlicher" für B betrachtet, weil man im Allgemeinen annimmt, dass die Kunden von B den Inhalt abgefragt haben. Es gibt aber Gegner dieser Ansicht. Sie argumentieren wie folgt: Im Gegensatz zu einem Telefongespräch ist es im Internet unmöglich zu bestimmen, wer ursprünglich eine Übertragung initiiert hatte. Ein Paket auf dem Weg von den USA nach Japan könnte Teil eines s sein, welches in den USA abgeschickt wurde, oder aber Teil einer Webseite, welche als Antwort einer Anfrage aus Japan übertragen wird. Sogar wenn klar ist, auf welcher Seite die Übertragung initiiert wurde, kann man sich im Beispiel der Webseite darüber streiten, wer mehr Nutzen daraus zieht: der Surfer, der die Anfrage gemacht hat,oder der Content Provider, welcher sie geschickt hat. Das "Hot Potato"-Phänomen Zwei ISPs, welche gegenseitig Verkehr ausstauschen, werden immer bestrebt sein, die Daten, welche aus dem eigenen Netz kommen und für dasjenige des Partner-ISPs bestimmt sind, so schnell wie möglich an das Netz des Partner-ISPs zu übergeben. Backbone A ISP X East Coast West Coast ISP Y Backbone B Im Beispiel haben wir zwei Backbones A und B, welche miteinander ein Peering-Abkommen haben. Die Abdeckungsgebiete der beiden Backbone-ISPs überlappen in einem grossen Teil. Auch bestehen zwischen den beiden Netzwerken mehrere Austauschknoten (Peering Points). Der Sender- ISP wird, mit dem Ziel, Bandbreite auf dem eigenen Backbone zu sparen, die Daten am erstmöglichen Knotenpunkt (wie eben heisse Kartoffeln) an den Empfänger-ISP übergeben. "Hot Potato" ist aber in den meisten Fällen mehr ein Phänomen, als ein Problem. Denn wenn die Netzwerke in etwa gleich gross sind, stellt sich im Normalfall ein Gleichgewicht ein. David und Goliath Abbildung 7: "Hot Potato"-Routing (Quelle: [1]) Als 1997 bekannt wurde, dass UUNET (der übermächtige Tier-1 Backbone im heutigen Internet) Peerings mit anderen ISPs auflöste und ab sofort Transitgebühren forderte, wurden Stimmen laut, die UUNET vorwarfen, ihre monopolähnliche Stellung zu missbrauchen [1,3]. Request Response

43 Wir wollen hier nicht weiter argumentieren, aber doch noch einen Grund dafür angeben, wieso ein grosser Backbone berechtigterweise verweigern könnte, ein Peering mit einem kleineren ISP einzugehen: Free-Riding Sei ISP S (=Schweiz) ein Provider, welcher die ganze Schweiz abdeckt. ISP Z (=Zürich) sei ein regionaler Provider mit Einzugsgebiet Kanton Zürich. In Zürich besteht ein Peering Point zwischen S und Z. ISP Z Kunde X Ein Kunde von Z fragt nun die Homepage von Saas-Fee (VS) ab. S wird die Anfrage vom Knotenpunkt in Zürich bis ins Oberwallis übertragen und die Antwort zurück nach Zürich. ISP S wird also kein Peering mit ISP Z eingehen, weil er sonst Gefahr läuft, Z eine nationale Infrastruktur zur Verfügung zu stellen, von der Z kostenlos profitieren kann. Der Kunde von Z könnte also im Wallis»freeriden«gehen. In einem solchen Fall bieten sich die folgenden Alternativen: Der kleinere ISP verpflichtet sich neue Peering Points einzurichten, (im obigen Beispiel z.b. Im Wallis) und den Verkehr bis dorthin selbst zu übernehmen. Abschluss einer Transitvereinbarung Die Dominanz der USA im Internet saas-fee.ch Beispiele für die Dominanz der USA (aus [4]) Abbildung 8: Free-Riding (Quelle: [1]) Disney Online hat 1998 ihre Webserver für den europäischen Markt von Amsterdam und London nach Hawaii verlegt. Als Grund für diese Verlegung wurde angegeben, dass somit bessere "Network Performance" für die europäischen Kunden erreicht wird, falls die Website in Hawaii gehostet wird und nicht in Europa selbst. In Afrika hatten 1998 nur 3 Länder direkte Internetverbindungen zueinander. Alle anderen Verbindungen zwischen 2 afrikanischen Ländern werden über ein Drittland (westliches Industrieland) geroutet. In Asien gab es 1999 keine 2 Länder, welche über eine direkte Verbindung von mehr als 155Mbps verfügten, während die jeweilige Verbindung in die USA ungefähr 2Gbps betrug. ISP S Die entsprechenden Zahlen für Europa betrugen 450 Mbps und 3,5Gbps (siehe auch Abb. 9). Request Response

44 Abbildung 9 (Quelle: [4]) ISDNet, ein französischer ISP, und France Telecom tauschen ihren gegenseitigen Verkehr über die USA aus. Mögliche Gründe für die Dominanz der USA Die USA verfügen über eine grosse Userdichte und ein grosses Angebot an Webinhalten. Amerikanische Inhalte, sprich amerikanische Websites sind nach wie vor die beliebtesten. Es bestand lange Zeit ein Mangel an direkten Verbindungen z.b. zwischen Nachbarländern in Europa. In Europa und anderen Teilen der Welt ist Bandbreite zu teuer im Vergleich mit den USA [5]. Lange wurde auch deshalb als Abhilfe Verkehr zwischen zwei europäischen Ländern über die USA geroutet, womit auch viel Geld Richtung USA floss, welches zum Aufbau in Europa benötigt würde. Die 5 grössten Internet Backbones (Top-Tier ISPs) sind amerikanisch. Eine Verbindung zu ihnen ist aber für jeden ISP der Welt überlebenswichtig. Fehlt diese Verbindung, so ist man gar nicht wirklich "vernetzt". Die heutigen Internetkapazitäten bauen zu einem Grossteil auf der schon bestehenden Infrastruktur des öffentlichen Telefonnetzes auf. Dies ist ein Grund dafür, dass z.b. einerseits die transatlantische Verbindung zwischen den USA und Grossbritanien ein grosse Bandbreite aufweist, andererseits aber z.b. europäische Nachbarländer mit verschiedenen Sprachen über keine nennenswerten Direktverbindungen untereinander verfügen. Hier ist dazuzufügen, dass man in Europa geschichtlich in einem nationalen Kontext dachte und auch plante. Auch bildeten die Sprachgrenzen natürliche Barrieren, welche die

45 Telekommunikation über Landesgrenzen hinweg zusätzlich einschränkten. In Europa waren daher 1998 internationale Circuits immer noch ca. fünfmal teurer als entsprechende nationale. Der wichtigste Grund für die Hauptrolle der USA ist sicher die frühe Offnung des Telekommunikationsmarktes, welche Konkurrenz schaffte und die Preise senkte. Wie wird die Situation in Europa verbessert? Eine naheliegende Idee ist, neue Infrastruktur zur Verfügung zu stellen. Dazu gehören die Bereitstellung grösserer Bandbreite, die Erstellung direkter Verbindungen sowohl zwischen Nachbarländern als auch europaweit, sowie der Etablierung dominanter Interkonnektionsknotenpunkte, an welchen der europäische Datenverkehr ausgetauscht werden kann. Mit der Öffnung der Telekommunikationsmärkte in Europa, und der damit verbundenen Aufhebung der stattlichen Monopole konnten sich zahlreiche Newcomer im europäischen Markt etablieren. Heute laufen einige Grossprojekte, um den Mangel an Bandbreite zu entschärfen. Mit dieser neu geschaffenen Wettbewerbssituation sinken auch die Preise für Bandbreite in Europa beträchtlich. Ein guter Nebeneffekt davon ist die Erkenntnis, dass mit der Marktöffnung längerfristig sowohl Volumen, wie auch Beschäftigungszahl in der Branche ansteigen, was wiederum zu mehr Einnahmen führen wird. Wichtig ist auch, dass in internationalen Initiativen zusammenarbeitet wird. Diese vier Punkte, mehr Bandbreite, tiefere Preise, die Schaffung von funktionierendenwettbewerbssituationen und die internationale Zusammenarbeit geben uns Anlass dazu, zu folgern, dass man Europa gute Chancen für die Zukunft einräumen kann, da die meisten europäischen Länder in allen 4 Punkten einiges in Bewegung gebracht haben. Abbildung 10: Das i-21 Glasfasernetzwerk von Interoute, welches Mitte europäische Städte mit einer Kapazität von über einem Petabit (!) miteinander verbinden wird [6]

46 Quality of Service Anwendungen Im Allgemeinen werden heute im Internet flächendeckend für alle die gleichen Dienste angeboten wie oder Webzutritt. Inden nächsten Jahren werden aber neue Dienste hinzukommen. Wir werden hier auf die Problematik bei der Einführung von Voice over IP (VoIP), Video Conferencing und Virtual Private Networks (VPNs) als Quality of Service (QoS)-Dienste im Internet eingehen. Alle drei sind Dienste, welche hohe Ansprüche an die Übertragungsqualität stellen. Die Firmen wollen diese Dienste von den "dedicated circuits", wie Mietleitungen, auf das Internet verlegen, weil sie sich damit Kosteneinsparungen versprechen. (z.b wird eine Mietleitung nicht zu jeder Zeit voll ausgelastet, was zu überflüssigen Kosten führt.) Die ISPs wiederum wollen derartige Qualitätsdienste einführen, weil sie sich höhere Margen versprechen als bei herkömmlichen Diensten. Die Einführung solcher Dienste im Internet mit Garantie für die Übertragungsqualität ist aber eine grosse Herausforderung. Reichen Peering Abkommen aus, um QoS zu garantieren? Abstrakt gesehen, kann man die Verbindungen im heutigen Internet als Paarverbindungen bezeichnen, in welchen der Sender für die erste Hälfte und der Empfänger für die zweite Hälfte aufkommt. (Siehe Abbildung 11). Wieso sollte der "ISP D" für die Qualität der Übertragung von "Sender" garantieren, wenn er nicht von "Sender" für den zusätzlich anfallenden Aufwand entschädigt wird? Das Problem liegt darin, dass mit den heutigen Peering Abkommen Abbildung 11 (Quelle: [2]) die herkömmlichen Dienste zwar funktionieren, sie aber nicht als "End-to-End" Dienste angesehen und verrechnet werden. "Sender" kommt nicht für die ganze Übertragung bis zu "Receiver" auf. Wie könnte das Problem der Bezahlung gelöst werden? Eine naheliegende Idee ist, dass der Initiator die ganzen Kosten übernimmt, man also den Service als "End-to-End" Dienst verrechnet wie im Verkaufsmodell der Post, wo der Absender das ganze Porto bezahlt. Wie kann für Qualität garantiert werden? Um die Qualität zu garantieren müssen Service Level Agreements (SLAs) zwischen verschiedenen ISPs (und auch zwischen Endkunden und ISPs) abgeschlossen werden. Nur so kann ein ISP sich absichern, dass alle an der Übertragung Beteiligten die gewünschte Qualität liefern, welche er seinen Kunden verspricht. Wieso wollen Endkunden (Firmen) SLAs? Eine Firma, deren Geschäft wesentlich vom Funktionieren des Internets abhängt, will Garantien,

47 dass keine Fehler eintreten. Man stelle sich eine Firma vor, die an der Börse handelt und wichtige Informationen zu Kursänderungen per erhält. Die Erwartungen an die QoS-Dienste sind höher als das heute übliche "Best Effort" Prinzip. Die Firma will, dass sich der ISP zu hoher Qualität verpflichtet. Der ISP soll die Einhaltung der Verpflichtungen an Hand von Messwerten belegen. Ein Abschluss eines SLAs bedeutet für den ISP sammeln von Performanz- und Verkehrsdaten Vertragseinhaltung überprüfen Kostenberechnung Daten liefern und präsentieren Hier aber stossen sie heute an technische Grenzen: Es gibt zwar Router, welche die erforderlichen Daten sammeln können, dies aber nur für Leitungen mit begrenzter Übertragungsrate (heute <1Gbps). Auch stehen Lösungen für die Aufbereitung und Auswertung der grossen Datenmengen noch aus. Falls ein SLA-Managmentsystem die Erwartungen eines Kunden an Zuverlässigkeit oder Availability nicht erfüllt, so kann dies dem Service Provider grossen Schaden zufügen. Es ist daher wichtig, dass nur ganzheitlich getestete Systeme zum Einsatz kommen. 6. Schlusswort Aus der Peering-Debatte und den neuen Anforderungen, welche mit QoS-Diensten kommen werden, wird ersichtlich, dass die heute üblichen Peering-Abkommen zwischen ISPs wohl längerfristig durch andere Abrechnungsmodelle abgelöst werden müssen. Insbesondere QoS stellt sowohl aus technologischer wie auch aus ökonomischer Sicht eine grosse Hürde dar, und es ist heute unklar, wie ein funktionierendes Internet mit einheitlichen QoS-Diensten aussehen könnte. Dem Ungleichgewicht zwischen den USA und dem Rest der Welt wird, zumindest in Europa, durch aktuelle Projekte Gegengewicht verliehen. Es bleibt allerdings noch immer die Möglichkeit, dass amerikanische Firmen durch Übernahmen europäischer ISPs schlussendlich auch in Europa dominant werden. Die Entwicklung des ISP-Markts wird auf alle Fälle in den nächsten Jahren ein brisantes und spannendes Thema bleiben.

48 Quellenverzeichnis [1] Michael Kende, September 2000: The Digital Handshake: Connecting Internet Backbones. [2] Geoff Huston, INET '99: Interconnection, Peering and Settlements. [3] Kenneth Neil Cukier, 1998: Peering and Fearing: ISP Interconnection and Regulatory Issues. [4] Kenneth Neil Cukier, INET '99: Bandwidth Colonialism? The Implications of Internet Infrastructure on International E-Commerce. [5] P. Lakelin with D. Martin & K. Sherwood: Internet Service Providers in Western Europe: The Dynamics of an Evolving Market. [6] Interoute network-faq: (Die Kapazität beträgt eigentlich nur 153,6Tbps pro Ring) [7] S. H. Desai, May 1999: Service Level Agreements (Slide copies)

49 Electronic Payment and Billing Eine aktuelle Übersicht der elektronischen Zahlungssysteme und ihrer Verwendung Daniel Spörndli und Manuel Thiemann 13. Dezember 2000 Fachseminar Internet Economics, Prof. Dr. B. Stiller

50 1. Einleitung 3 1. Einleitung Geld in seiner ursprünglichen Form als Banknoten und Münzen gibt es seit langem und ist aus unserem Alltag nicht mehr wegzudenken. Erst vor vergleichsweise kurzer Zeit kamen Kreditkarten in Mode und heute existieren diverse Möglichkeiten, via Internet zu bezahlen. Unter den Begriff electronic payment fällt im Prinzip jedes Zahlungssystem, in dem elektronische Komponenten eingesetzt werden. Selbst Bargeld wird heutzutage mehrheitlich am Bankomaten bezogen. Wir wollen in dieser Arbeit vor allem auf Zahlungssysteme eingehen, welche das Internet als Übertragungsmedium benutzen und verzichten deshalb auf die Vorstellung bewährter Systeme wie z.b. ec-direct. Unser Fokus liegt dabei hauptsächlich auf den Technologien, die hinter den Systemen stecken. Die wirtschaftlichen Auswirkungen werden vor allem im Hinblick auf die Verbreitung der Systeme und ihr Marktpotential diskutiert. Mit electronic billing bezeichnet man die elektronischen Pendants der herkömmlichen Verfahren zur Rechnungsstellung und Präsentation. Diese sind meist in technischer Hinsicht weniger interessant als digitales Geld, da mit digitalen Zertifikaten relativ einfach zu realisieren. Die möglichen Einsparungen sind aber nicht zu unterschätzen, da so eine Lücke in der digitalen Abwicklung von Geschäftsabläufen geschlossen wird. Wir gehen aus diesen Gründen mehr auf die wirtschaftliche Bedeutung dieser Systeme ein. In dieser Arbeit werden wir zunächst einige wichtige Grundlagen aus dem Bereich der Kryptographie erläutern, denn diese Details sind unerlässlich, um die Systeme des modernen Zahlungsverkehrs verstehen zu können. Anschliessend werden wir konkrete elektronische Systeme vorstellen und miteinander vergleichen. Abgeschlossen wird die Arbeit durch eine Bewertung der aktuellen Situation und einen Ausblick in die Zukunft. 2. Theoretische Grundlagen Die theoretischen Grundlagen wurden mehrheitlich aus [1] entnommen. Es sollen hier nur die wichtigsten Begriffe erläutert werden. 2.1 Begriffe und Verfahren der Kryptographie Symmetrische Kryptographie: Ein symmetrisches Kryptosystem beruht auf zwei Algorithmen (Chiffrier- und Dechiffrieralgorithmus), sowie einem Parameter (dem geheimen Schlüssel). Der eine Algorithmus berechnet, abhängig vom Schlüssel, ein Chiffrat aus einem Klartext, der andere berechnet, ebenfalls mit Hilfe des Schlüssels, aus dem Chiffrat den Klartext. Die Algorithmen sind so konstruiert, dass es schwierig 1 ist, ohne Kenntnis des Schlüssels den Klartext aus dem Chiffrat zu berechnen. Asymmetrische Kryptographie (Public Key Kryptographie): Ein Public Key Kryptosystem beruht auf drei Algorithmen, einem Schlüsselgenerierungsalgorithmus sowie je einem Chiffrier- und einem Dechiffrieralgorithmus. Der Schlüsselgenerierungsalgorithmus generiert Paare von Schlüsseln (Private Key, Public Key). Der Chiffrieralgorithmus berechnet mit Hilfe des Public Key ein Chiffrat aus einem Klartext, der Dechiffrieralgorithmus berechnet mit Hilfe des Private Key den Klartext aus einem Chiffrat. Wiederum ist das System so konstruiert, dass man nur mit sehr viel Aufwand ohne Private Key den Klartext aus dem Chiffrat berechnen kann. Ausserdem muss es schwierig sein, den Private Key aus dem Public Key zu berechnen. Hashfunktion: Eine Hashfunktion ist eine effizient berechenbare Funktion h von einer Menge A auf eine Menge B, h: A B, wobei B A gilt. Eine Hashfunktion wird als kryptographisch sicher bezeichnet, wenn es schwierig ist, zu einem Funktionswert ein passendes Argument zu finden (Preimage Resistance), wenn es schwierig ist für ein Argument ein zweites mit gleichem Funktionswert zu finden (Second Preimage Resistance) sowie wenn es schwierig ist, überhaupt zwei verschiedene Argumente mit demselben Funktionswert zu finden (Kollisionsfreiheit). Einwegfunktion: Eine Einwegfunktion ist eine effizient berechenbare Funktion f von einer Menge A auf eine Menge B, f: A B, sodass es schwierig ist, für einen Funktionswert aus B ein zugehöriges Argument aus A zu finden. 1 Es soll hier nicht genauer erläutert werden, was schwierig genau bedeutet. In dieser Arbeit sind die Ausdrücke schwierig, praktisch unmöglich und mit grossem Aufwand gleichbedeutend. Formal heisst dies: basierend auf einer Sicherheitsarchitektur und einem Angreifermodell kommt es in der verfügbaren Zeit zu keinem (bzw. mit einer sehr hohen Wahrscheinlichkeit) Bruch der Verschlüsselung.

51 4 2. Theoretische Grundlagen Digitale Signatur: Ein System für digitale Signaturen besteht, ähnlich wie ein Public Key Kryptosystem, aus drei Algorithmen: einem Schlüsselgenerierungsalgorithmus, einem Signaturengenerierungsralgorithmus und einem Signaturenverifikationsalgorithmus. Der Schlüsselgenerierungsalgorithmus generiert Paare von Schlüsseln (Signatur-, Verifikationsschlüssel). Der Signaturengenerierungsalgorithmus berechnet mit Hilfe des Signaturschlüssels eine Signatur zu einem Klartext, der Signaturenverifikationsalgorithmus berechnet mit Hilfe des Verifikationsschlüssels, ob die Signatur echt ist. Eine für digitales Bargeld wichtige Variante ist die blinde Signatur. Dabei sieht der Unterzeichnende weder, was er unterschreibt, noch wie seine Unterschrift schlussendlich aussieht. Duale Signatur Eine duale Signatur wird verwendet, um zwei Dokumente einander eindeutig zuzuordnen. Dies wird mit Hilfe von zwei Hashfunktionen erzielt, die jeweils auf die Dokumente angewendet werden und kann z.b. dazu verwendet werden, dem Empfänger zweier Nachrichten zu garantieren, dass keine der beiden Nachrichten während der Übertragung über einen unsicheren Kanal durch eine andere Nachricht ausgetauscht wurde. Für eine detaillierte Ausführung sei auf [3] verwiesen. Digitales Zertifikat, Certificate Authority (CA) Bei der Verteilung von Public Keys kann es zu Sicherheitsproblemen kommen (wie kann ich sicher sein, wirklich den Public Key meines Freundes erhalten zu haben, wenn ich ihn aus dem Internet bezogen habe?). Deswegen kann irgend eine vertrauenswürdige Instanz den Public Key, zusammen mit Angaben zum Eigentümer des Public Key und weiteren Informationen, signieren und somit seine Echtheit garantieren. Alles zusammen (Public Key, Zusatzinformationen und Signatur) nennt man Zertifikat. Zertifikate werden durch Certificate Authorities ausgestellt, das sind vertrauenswürdige Institutionen, welche sich davon überzeugt haben, dass ein Public Key wirklich einem bestimmten Benutzer gehört 2. Prinzipiell kann jedermann als CA auftreten (z.b. innerhalb seines Kollegenkreises). 2.2 Begriffe und Verfahren digitaler Zahlungssysteme In jedem Zahlungssystem sind mehrere Parteien involviert: Der Kunde, der Anbieter, die Bank des Kunden und die Bank des Anbieters sowie möglicherweise eine Clearingstelle. Im folgenden sollen nur der Kunde, der Anbieter und die Bank betrachtet werden, wobei die Bank stellvertretend für beide Banken sowie die Clearingstellen steht. Sowohl Kunde als auch Anbieter haben Konten auf der Bank, der Kunde bezahlt, indem er (auf irgend einem Weg) Geld von seinem Konto auf das Konto des Anbieters transferiert. Wie bei jedem Zahlungssystem muss dabei sichergestellt werden, dass Betrug unmöglich ist. Beispielsweise soll Kopieren bzw. Generieren von Geld unmöglich sein 3. Es gibt verschiedene Kriterien, anhand welcher sich Zahlungssysteme unterscheiden (vgl. dazu auch Kapitel 3.1 Rahmenbedingungen und Kriterien). Im folgenden soll auf die beiden Ausprägungen des Geldes (Chipkarten und digitales Bargeld) näher eingegangen werden Chipkartensysteme In gewisser Weise wird bei diesen Zahlungssystemen das Geld durch eine Zahl (den Wert des Geldes) ersetzt. Die einfachen bankinternen Operationen (Subtraktion des Betrages beim Käuferkonto, Addition beim Anbieterkonto) werden durch geeignete Technologie an bankexternen Orten ermöglicht. Der mühsame Übergang einer fälschbaren Zahl in unfälschbare Banknoten an der Schnittstelle Bank-Käufer wird abgelöst durch eine einfache Transaktion von Daten auf eine Wertkarte. Ein Kunde kann nun bei seiner Bank die Wertkarte mit einem bestimmten Betrag laden, dabei wird dieser Betrag von seinem Konto abgezogen, und auf der Karte in elektronischer Form gutgeschrieben. Bei einem Einkauf wird der Kaufpreis von der Karte abgebucht und auf dem Anbietermodul gutgeschrieben. Schlussendlich kann der Anbieter die Einnahmen, die auf seinem Modul gespeichert sind, bei der Bank auf sein Konto transferieren. Diese Wertkarte sowie die Geräte für Abheben und Bezahlen von Beträgen stellen sicher, dass kein Betrug möglich ist. Die beteiligte Hardware ist tamper resistant. Chipkartensysteme haben den Nachteil, dass man an bestimmte Hardware gebunden ist, die Schnittstellen für Transaktionen sind vorgegeben, da sie Bestandteil des Systems und dessen Sicherheit sind. Im Abschnitt über digitales Bargeld werden wir eine Lösung vorstellen, welche ohne spezielle Hardware auskommt. 2 Hier kommt bereits der Begriff Vertrauen ins Spiel. Auf weitergehende Ausführungen (hierarchische Vertrauenskette, Haftung bei Betrug usw.) soll hier verzichtet werden. 3 In diesem Zusammenhang wird oft von Double Spending, dem doppelten Ausgeben einer Münze, gesprochen.

52 2. Theoretische Grundlagen 5 Zur Funktionsweise: Wir nehmen an, für eine Bezahlung des Betrags p können die Wertkarte des Kunden und das Anbietermodul miteinander kommunizieren (vgl. auch Abbildung 1). Jede Wertkarte und jedes Anbietermodul hat einen Zähler, welcher den Betrag speichert. Es existiert ein systemweiter Masterkey s M, der in jedem Anbietermodul vorhanden ist, und in jeder Wertkarte ein Kundenschlüssel s K. Dabei wird der Kundenschlüssel aus dem Masterkey und der Kundenidentität ID K mittels einer kryptographisch sicheren Hashfunktion berechnet: s K = h(id K s M ). Der Kunde wählt nun einen zufälligen Wert (Challenge) c 1 und sendet ihn zusammen mit seiner ID K dem Anbieter. Dieser berechnet zunächst den Kundenschlüssel s K und sendet den Preis p, eine neue Challenge c 2, sowie einen Message Authentication Code 4 MAC sk (c 1 c 2 p) zum Kunden. Dieser prüft den MAC und stellt somit sicher, dass er mit einem ehrlichen Anbieter kommuniziert. Er dekrementiert seinen Zähler w K um den Preis p und sendet dem Anbieter MAC sk (c 2 p). Dieser kann so überprüfen, dass er es mit einem ehrlichen Kunden zu tun hat und inkrementiert seinerseits seinen Zähler w A um p. Solange der Masterkey geheim bleibt und die Module (Wertkarte, Anbietergerät) physisch sicher sind, ist Betrug ausgeschlossen, denn niemand kann unberechtigt die Zähler verändern oder ein gültiges Paar (s K, ID K ) generieren und so einen Anbieter betrügen. Kunde Anbieter s K s M Challenge c 1 zufällig wählen ID K, c 1 c 2, p, MAC sk (c 1 c 2 p) s K h(id K s M ) Challenge c 2 zufällig wählen Preis p bestimmen MAC prüfen, falls w K p: w K w K p r MAC sk (c 2 p) r Falls r = MAC sk (c 2 p): w A w A + p Abbildung 1: Ein mögliches Protokoll für Chipkartensysteme Digitales Bargeld Wie bereits angesprochen, ist Digitales Bargeld eine Technologie, die interessanter ist als ein Chipkartensystem, da die Sicherheit nicht mehr von Hardware abhängt. Somit ist es möglich, für die Bezahlung einen beliebigen Kommunikationskanal zu wählen (z.b. das Internet). Es wird dabei mit digitalen Münzen gearbeitet, welche Anonymität gewährleisten. Eine digitale Münze wird mit einer Seriennummer versehen und von der Ausgabestelle (z.b. einer Bank) unterschrieben. Somit ist ausgeschlossen, dass jemand selber Geld herstellt. Damit die Anonymität des Kunden gewährleistet ist, darf die Bank nicht wissen, welche Münze sie gerade unterschreibt, weswegen ein System mit blinden Signaturen benutzt wird. Nun muss ausgeschlossen werden, dass eine digitale Münze kopiert und doppelt ausgegeben werden kann. Dies kann auf zwei Arten geschehen: 4 Ein MAC ist das Chiffrat eines Klartexts (z.b. mit einem symmetrischen Verfahren). Man kann damit überprüfen, ob der Klartext verändert wurde, bzw. ob der Klartext von einem berechtigten Benutzer verfasst wurde.

53 6 2. Theoretische Grundlagen 1. Systeme mit Online Prüfung: Bei jedem Zahlungsvorgang prüft die Ausgabestelle, ob die digitale Münze bereits ausgegeben wurde. Je nachdem wird sie akzeptiert oder zurückgewiesen. Damit die Datenbank der bereits ausgegebenen Münzen nicht zu gross wird, werden Münzen am besten mit einer beschränkten Gültigkeitsdauer herausgegeben. Der Anbieter könnte den Kunden betrügen, indem er die Münze selber ausgibt bevor er sie der Bank sendet. Sendet der Anbieter anschliessend die Münze zur Bank wird sie zurückgewiesen, aber der Kunde kann nicht beweisen, dass jemand anderes seine Münze unerlaubterweise ausgegeben hat. Dies wird verhindert, indem die Münze einen Public Key enthält, den zugehörigen Private Key besitzt der Kunde. Für eine Bezahlung eines Anbieters generiert der Kunde eine Signatur für eine Challenge und die ID des Anbieters. Die Bank kann so prüfen, ob wirklich der Kunde die Münze beim Anbieter seiner Wahl ausgegeben hat. Diese Unterschrift kann nur für diese bestimmte Münze und diesen Anbieter benutzt werden. 2. Systeme mit Offline Prüfung 5 : Double Spending kann grundsätzlich nicht verhindert werden. Erst die Bank kann feststellen, dass der Kunde die Münze mehrfach ausgegeben hat. Deswegen muss eine Methode gefunden werden, wie ein Betrüger entdeckt werden kann (d.h. seine Identität festgestellt werden kann). Wie kann nun aber die Identität eines Kunden nur bei Double Spending von der Bank festgestellt werden? In allen anderen Fällen soll der Kunde ja anonym bleiben. Dies kann erreicht werden, wenn man ein Signaturverfahren einsetzt, bei welchem es möglich ist, aus zwei Signaturen Rückschlüsse auf den Signaturschlüssel (bzw. dessen Besitzer) zu ziehen. Ein solches Verfahren ist dasjenige von Lamport (vgl. Abbildung 2). Für jedes Bit i des Challenge: u i0 Zufallswert u i1 u i0 ID K r i (r i Zufallswert, ID K Kunden-ID) Sei f eine Einwegfunktion. f(u 10 ) f(u 11 ) f(u 20 ) f(u 21 ) f(u n0 ) f(u n1 ) f u 10 u 11 u 20 u 21 u n0 u n1 Signaturschlüssel: [u 10, u 11 ], [u 20, u 21 ],, [u n0, u n1 ] (untere Zeile) Verifikationsschlüssel: [f(u 10 ), f(u 11 )],, [f(u n0 ), f(u n1 )] (obere Zeile) Der Challenge wird nun Bit für Bit unterschrieben: Bit i = 0: Teilsignatur = u i0 f(u i1 ) Bit i = 1: Teilsignatur = u i1 f(u i0 ) Signaturverifikation: Kann Bit für Bit aus der Signatur den Verifikationsschlüssel erzeugen. Aufdecken von Double Spending: ID K r i = u i0 u i1 ([u i0, u i1 ] aus 2 verschiedenen Signaturen) Abbildung 2: Digitales Bargeld: System mit Offline Prüfung. Lamports System basiert auf der Verwendung einer Einwegfunktion f und bitweisem Signieren des Klartexts (hier Challenge des Anbieters). Aus einer gültigen Signatur, welche für jedes Klartextbit i aus einem Paar [u i0, f(u i1 )] bzw. [f(u i0 ), u i1 ] besteht, kann der Verifikationsschlüssel durch anwenden von f auf u i0 bzw. u i1 erzeugt werden. Fälschungen sind nur möglich, wenn man mehr als eine Unterschrift besitzt. Hat der Kunde nun zweimal mit derselben Münze bezahlt, existiert je eine Unterschrift für zwei verschiedene Challenges. D.h. es existiert ein Paar [u i0, f(u i1 )] aus der einen 5 Dieses Verfahren wird in [1] ausführlich beschrieben

54 3. Konkrete elektronische Zahlungs- und Billingsysteme 7 und [f(u i0 ), u i1 ] aus der anderen Signatur, da sich die beiden Challenges in mindestens einem Bit unterscheiden. So kann ganz einfach die Identität des Kunden aufgedeckt werden: ID K r i = u i0 u 6 i1. Die Bank muss jeweils sicherstellen, dass der Kunde auch wirklich seine Identität in die u i0 hineincodiert. Zu diesem Zweck wird ein Cut-and-choose-Verfahren beim blinden Signieren 7 verwendet. Für Details verweisen wir auf [1]. 2.3 Grundlagen elektronischer Billingsysteme Nebst den elektronischen Zahlungssystemen existieren auch elektronische Billing-Systeme. Diese sind quasi eine digitale Variante der in der Schweiz sehr verbreiteten Einzahlungsscheine (EZ) und des Lastschriftverfahrens (LSV). Man spricht dabei von Electronic Bill Presentment and Payment (EBPP) 8. Dabei werden Rechnungen auf elektronischem Weg versandt und dann meist auch elektronisch bezahlt. Man unterscheidet im wesentlichen zwischen zwei Hauptspielarten: E-Bill Rechnungs-Push, die Rechnung wird per an den Kunden geschickt. Dieser wiederum löst den Zahlungsauftrag (evtl. direkt beim Rechnungssteller) aus. Web- Bill Rechnungs-Pull, der Kunde kann sich (mit einem Webbrowser) ins EBPP-System einloggen und bekommt dort seine offenen Rechnungen präsentiert. Die Bezahlung erfolgt dann über ein elektronisches Zahlungssystem. Daneben gibt es auch Kombinationen, in welchen s als Erinnerung eingesetzt werden, damit der Kunde nicht vergisst, seine Rechnungen zu begleichen. Bei diesen Verfahren stösst man ebenfalls auf Probleme (Stichwort Authentizität), doch lassen sich diese mit den gängigen Methoden (Signaturen, SSL) der Kryptographie relativ leicht lösen. Wichtig ist allerdings, dass der Kunde seinem EBPP-Anbieter vertrauen kann. Nebst den einfachen Präsentationsverfahren gibt es auch sogenannte Internet Bill Consolidation Systeme. Sie fassen Rechnungen verschiedener Anbieter im Auftrage eines Kunden zusammen. Sinnvollerweise werden diese Systeme mit Internet Banking kombiniert. 3. Konkrete elektronische Zahlungs- und Billingsysteme Es existiert momentan eine Vielzahl von Systemen, die auf unterschiedlichsten Prinzipien beruhen und unterschiedliche Bereiche des Zahlungsverkehrs abdecken. Wir werden die Systeme in diesem Kapitel in Kategorien grundsätzlich verschiedener Ansätze einteilen und aus jeder Kategorie einige repräsentative Vertreter detaillierter vorstellen. Anschliessend werden die unterschiedlichen Ansätze und Implementationen verglichen und bewertet. 3.1 Rahmenbedingungen und Kriterien Unabhängig von der konkreten Implementation können Kriterien definiert werden, anhand derer die Zahlungs- und Billingsysteme verglichen und bewertet werden können. Zahlungs- und Billingsysteme haben zwar streng genommen unterschiedliche Aufgaben, aber andererseits Die Kriterien, anhand welcher wir die Systeme beurteilen, sind im folgenden aufgeführt: Sicherheit Das System muss Sicherheit gegenüber Missbrauch und Angriffen bieten. Dies wird meistens durch Verschlüsselung oder eindeutige Identifikationsnummern erreicht. Skalierbarkeit Jedes System, das sich im Internet durchsetzen will, muss so konzipiert sein, dass es keine technischen Probleme gibt, wenn das System beliebig viele Teilnehmer bedienen muss. Micropayments Als Micropayments werden Zahlungen kleiner Beträge 9 Kosten pro Transaktion sehr klein sind. bezeichnet. Diese sind nur ökonomisch sinnvoll, wenn die 6 In diesem Zusammenhang bedeutet bitweises XOR 7 Vgl. Digitale Signatur in Kapitel Man liest auch häufig Internet Bill Presentment and Payment (IBPP) 9 Je nach Quelle wird als obere Grenze für Micropayments ca. CHF 1.- bis CHF 5.- angegeben

55 8 3. Konkrete elektronische Zahlungs- und Billingsysteme Bedienbarkeit Ein Ssystem muss für den Benutzer übersichtlich, verständlich und komfortabel sein. Insbesondere muss offensichtlich sein, wann ein Zahlungsvorgang beginnt. Kleinhändler und Privatpersonen Idealerweise sind Zahlungen nicht nur mit einem speziellen Händlerinterface, sondern auch zwischen Privatpersonen möglich. Anonymität Kann die Identität des Zahlenden vom Zahlungsempfänger festgestellt werden? Je nach Verwendungszweck kann dies erwünscht sein oder aber einen Nachteil darstellen. Auf jeden Fall sollte der Zahlungsvorgang nicht von unbeteiligten Dritten (z.b. im Internet) wahrgenommen werden. Verbreitung Insbesondere wenn zur Nutzung des Systems Software installiert, oder ein Konto erstellt werden muss, ist die Verbreitung ein entscheidender Faktor bei der Entscheidung für oder gegen ein Zahlungssystem. Daneben existieren noch weitere Kriterien, z.b. Wo findet die Zahlung statt ( Geld verlässt für Zahlungen die Bank vs. die Bank behält die Kontrolle, es werden nur Buchungen durchgeführt ), in welcher Form existiert das Geld ( als Information auf einer Chipkarte vs. als digitaler String auf einer herkömmlichen Disk ). 3.2 Kreditkartenzahlungen Die naheliegende Lösung ist es, ein bereits bestehendes Zahlungssystem zu nutzen und die neuen Anforderungen des Internets zu berücksichtigen. Dieser Ansatz wird mit der bewährten Kreditkarte verfolgt. Insbesondere die sichere Übertragung der Kreditkartennummer und die Authentizität der beteiligten Akteure stellen hier die Schlüsselkriterien dar Secure Socket Layer (SSL) und Secure HTTP (S-HTTP) Mit Secure Socket Layer führte Netscape eine Protokollschicht unterhalb des HTTP-Protokolls ein, die eine geschützte Verbindung zwischen Webserver (Anbieter) und WWW-Browser (Kunde) realisiert. Es basiert auf dem RSA-Verfahren zur Authentifizierung und einem symmetrischen Schlüssel mit typischerweise 128 Bit. Die Spezifikation von SSL ist unter [5] zu finden. Mit einem SSL-Zertifikat wird die Authentizität des Anbieters (konkret: einer Domain) von der Zertifizierungsinstanz (Certificate Authority) garantiert. Es gibt auch Zertifikate für die Authentifizierung für WWW-Browser, deren Verbreitung ist aber (noch) gering. SSL ist das Verfahren, das momentan weitaus am häufigsten für elektronische Zahlungen eingesetzt wird. Grösster Vorteil ist wohl, dass auf Kundenseite keinerlei Software installiert werden muss. Nachteilig ist aber, dass der Kunde dem (ihm vielleicht unbekannten) Anbieter seine Kreditkartennummer preisgeben muss und dass der Anbieter den Kunden nicht identifizieren kann. Mittelfristig wird es wohl von mächtigeren Standards (z.b. SET) abgelöst. Secure HTTP wird im Gegensatz zu SSL nicht in einer eigenen Schicht, sondern durch eine Erweiterung des HTTP- Protokolls realisiert und dient zur Übertragung von einzelnen verschlüsselten Mitteilungen. Die Bedeutung von S-HTTP ist weitaus geringer als die von SSL SSL garantiert Sicherheit der übertragenen Informationen, und Skalierbarkeit stellt kein Problem dar. Bedienbarkeit und Anonymität sind abhängig von der jeweiligen Implementation. Micropayments sind zu teuer, da ja jeweils für die Kreditkartentransaktion eine ziemlich hohe Provision zu entrichten ist und Transaktionen zwischen Privatpersonen sind zwar denkbar, diese verfügen im Regelfall aber nicht über eine Zahlungsschnittstelle für die Kreditkarte Secure Electronic Transaction (SET) Anfang 1996 wurde SET als offener Standard für sichere Kreditkartenzahlungen im Internet von VISA [6] und Mastercard veröffentlicht, mit dem Ziel, eine grössere Akzeptanz für diese Zahlungsmethode zu schaffen. Zuständig für die Verwaltung des Standards ist SETCo [7]. Als Verschlüsselungsverfahren wird eine Kombination von DES (56 Bit, symmetrisch) und RSA (1024Bit, asymmetrisch) eingesetzt. Garantiert werden: die Vertraulichkeit der übermittelten Daten (Verschlüsselung), die Integrität von Zahlungen (digitale Unterschrift) sowie die Identität von Anbieter und Kartenhalter (je digitale Unterschrift mit Zertifikat).

56 3. Konkrete elektronische Zahlungs- und Billingsysteme 9 Bei einer SET-Transaktion sind vier Akteure beteiligt: der Kunde, der Anbieter, die Bank des Kunden und die Bank des Anbieters (wird als Payment Gateway bezeichnet). Im wesentlichen wird die Transaktion folgendermassen abgewickelt (vereinfacht): 1. Der Kunde erhält vom Anbieter dessen Signatur-Zertifikat und das Verschlüsselungszertifikat seines Payment Gateway. 2. Der Kunde erstellt nun eine Bestellung und eine Zahlungsanweisung und unterzeichnet sie mit einer Dual Signature. Die Zahlungsanweisung wird mit dem Schlüssel des Payment Gateway verschlüsselt und ist somit für den Anbieter nicht lesbar. Beide Nachrichten werden an den Anbieter verschickt. 3. Der Anbieter prüft die Dual Signature, entschlüsselt die Bestellung und leitet die verschlüsselte Zahlungsanweisung mit dem Zertifikat des Kunden und seinem eigenen an sein Payment Gateway weiter. Anschliessend sendet er dem Kunden eine unterschriebene Quittung zurück, die dieser abspeichert. 4. Das Payment Gateway prüft alle Zertifikate und Signaturen und ausserdem, ob die Zahlungsanweisung mit den Angaben des Anbieters zusammenpasst. Über das Bankennetzwerk wird die Bank des Kunden über die Zahlung informiert. Es wird ein Capture Token erstellt, welches nur vom Payment Gateway lesbar ist, und via Payment Gateway an den Anbieter weitergeleitet. Dieses Token braucht der Anbieter, um später die Zahlung abzurechnen. 5. Der Anbieter erhält das Token und somit eine Garantie für eine spätere Zahlung und erfüllt den Auftrag des Kunden (Erbringung der Dienstleistung, Lieferung der Ware). 6. Zu einem beliebigen späteren Zeitpunkt kann der Anbieter das Capture Token mit allen nötigen Informationen zur Transaktion an sein Payment Gateway weiterleiten und somit die Abrechnung der Transaktion starten. 7. Das Payment Gateway löst bei der Bank des Kunden einen Clearing Request aus, der Betrag wird transferiert und der Anbieter erhält eine von der Kundenbank unterschriebene Quittung (Capture Response). Durch dieses Protokoll wird gewährleistet, dass jeder nur die Informationen sieht, die er benötigt. Insbesondere sieht der Anbieter nie die Kreditkartennummer des Kunden und die Bank des Kunden erfährt nicht, wo der Kunde eingekauft hat. Die Authentizität aller Beteiligten ist gewährleistet und alle Informationen werden verschlüsselt übertragen. Vorteilhaft ist, dass sich sowohl Kunde als auch Anbieter zum Kauf verpflichten. Durch die dezentralen Payment Gateways und SSL sind Sicherheit und Skalierbarkeit garantiert. Die Bedienung der Wallet-Software, die auf dem Computer des Kunden installiert sein muss, ist einfach. Aufgrund des Aufwands pro Transaktion und der Belastung der Kreditkarte ist SET nicht für Micropayments geeignet. Da ja auf Anbieterseite ein Zahlungsinterface implementiert sein muss, ist SET nicht für Transaktionen zwischen Privatpersonen geeignet. Anonyme Zahlungen sind ebenfalls nicht möglich (aber ja auch nicht erwünscht). Die Verbreitung von SET ist momentan noch recht gering, es werden ihm jedoch, nicht zuletzt wegen der Interessen der Kreditkartenfirmen, gute Chancen eingeräumt CyberCash CyberCash ist universelles Zahlungssystem der gleichnamigen amerikanischen Firma. Es wird auf der Homepage von CyberCash [8] optimistisch als Marktführer für Internet-Bezahlsysteme bezeichnet. Das System stellt dem Kunden mehrere elektronische Zahlungsmöglichkeiten (Kreditkarten, Electronic Direct Debit (EDD), CyberCoins) alternativ innerhalb einer Wallet-Software, die als Plugin in den Browser des Kunden integriert ist, zur Wahl. Als Verschlüsselungsverfahren wird eine Kombination von DES (56 Bit, symmetrisch) und RSA (1024 Bit, asymmetrisch) eingesetzt. Weitere Informationen zu CyberCash finden sich unter [9]. Bei einer Bestellung sind der Kunde, der Händler und der CyberCash Gateway Server involviert. Eine Bestellung umfasst die folgenden Phasen: 1. Nachdem der Kunde auf einer WWW-Seite eine Bestellung ausgelöst hat, sendet der Anbieter die Daten dieser Bestellung an den Kunden. 2. Der Kunde wählt aus seinem Wallet eine Zahlungsmethode und sein Wallet sendet die bestätigte Bestellung mit dem Key des CyberCash Gateway Servers verschlüsselt zurück zum Anbieter. 3. Dieser fügt der verschlüsselten Bestellung, die er nicht lesen kann, seine Identitätsinformationen hinzu und reicht die Bestellung beim CyberCash Gateway Server ein. 4. Dieser entschlüsselt die Bestellungsdaten und löst die Transaktion zwischen der Bank des Kunden und jener des Anbieters aus. Ausserdem bestätigt er die Zahlung gegenüber dem Anbieter. 5. Der Anbieter sendet dem Kunden eine Quittung und erfüllt dessen Auftrag (Erbringung der Dienstleistung, Lieferung der Ware).

57 10 3. Konkrete elektronische Zahlungs- und Billingsysteme Durch die Integration unterschiedlicher Zahlungsmethoden in das Wallet bietet sich die CyberCash-Lösung als komfortable und überzeugende Möglichkeit an. Momentan ist SET für Kreditkarten noch nicht implementiert, der Anbieter hat also keine unmittelbare Zahlungsgarantie des Kunden. Nachteilig in Bezug auf den Datenschutz ist, dass CyberCash natürlich nachher alle Informationen über alle Transaktionen besitzt und somit detaillierte Kundenprofile erstellen kann. Sicherheit ist durch die Verschlüsselung gewährleistet. Auch die Skalierbarkeit ist kein Problem, da Banken den CyberCash Gateway Server lizensieren können. Micropayments sind via CyberCoins, eine Variante von digitalem Bargeld der gleichen Firma, möglich. Die Bedienung des Wallets ist komfortabel. Da der Anbieter ein kostenpflichtiges sog. CashRegister installieren muss, um mit dem CyberCash Gateway Server zu kommunizieren, sind Transaktionen zwischen Privatpersonen nicht sinnvoll. Eine Identifikation des Kunden ist bis zur Implementation von SET ebenfalls noch nicht möglich. CyberCash ist in den USA schon sehr weit verbreitet und auch in Europa versucht man nun ausgehend von Deutschland und England Fuss zu fassen. 3.3 Zahlungen über Kundenkonten Bei dieser Zahlungsmöglichkeit verwaltet eine dritte Partei (Systembetreiber) ein Konto des Kunden und wickelt Bestellungen bzw. Zahlungen mit dem Händler ab. Der Systembetreiber hat damit ein festes Vertragsverhältnis mit dem Kunden und dem Händlern. Durch gleichzeitige Abrechnung mehrerer Transaktionen (z.b. regelmässig) zwischen Systembetreiber und Kunde entstehen nur sehr geringe Kosten und es können somit auch Micropayments abgewickelt werden. Ausserdem können in geschlossenen elektronischen Marktplätzen einfach Transaktionen zwischen den Mitgliedern angeboten werden Online Dienste Online Dienste wie AOL oder CompuServe bieten ihren Mitglieder Transaktionen untereinander an. Die Rechnungen können mit dem Mitgliederbeitrag beglichen werden und stellen somit keinen grossen Zusatzaufwand da. Dadurch können auch Kleinanbieter ihre Dienste einem grossen Kundenkreis zu Verfügung stellen. Der Nachteil der geschlossenen Benutzergruppe nimmt allerdings mit der wachsenden Grösse des Internets zu, und somit die Bedeutung dieser Zahlungsmöglichkeit ab Elektronische Marktplätze Elektronische Marktplatze, vielfach auch Malls (engl. Einkaufszentrum) genannt, bestehen aus einem Verbund von Anbietern und implementieren mit Hilfe einer gemeinsamen Infrastruktur sowohl die Shopping-Funktionalitäten als auch die Zahlungsmöglichkeiten. Im Gegensatz zu den Online Diensten bieten sie im Regelfall auch Kunden, die sich nicht registriert haben, die Möglichkeit, unter Verwendung herkömmlicher Zahlungsverfahren (Rechnung, Nachnahme, SSL verschlüsselte Kreditkarteninformationen) einzukaufen. Ihren registrierten Kunden stellen sie teilweise zusätzlich ein internes Abrechnungssystem zur Verfügung, welches aufgrund der geringeren Abrechnungskosten z.b. Micropayments erlaubt. Vorteilhaft für den Kunden ist insbesondere, dass er nach einmaliger Authentifizierung in mehreren Läden einkaufen kann und eine gemeinsame Abrechnung erhält. Es ist jedoch sehr fraglich, wie lange sich proprietäre Zahlungssysteme halten können, die auf einen relativ kleinen Kreis von Anbietern beschränkt sind First Virtual First Virtual möchten wir als Exot auch noch erwähnen. Das System wurde noch zu Beginn des Jahres 1998 als ernsthafte Möglichkeit für ein zukünftiges Zahlungssystem angesehen. Im Juli 1998 hat FirstVirtual jedoch den mehr als teilnehmenden Händlern und mehr als Kunden empfohlen, auf CyberCash zu umzusteigen und den Betrieb eingestellt. Die Besonderheit des Systems ist, dass es gänzlich ohne Verschlüsselung auskommt. Dies funktioniert folgendermassen: Kunden registrieren sich einmalig telefonisch bei First Virtual und hinterlegen dabei ihre Kreditkartennummer. Im Gegenzug erhalten sie einen VirtualPIN. Mit diesem können sie online bei Vertragshändlern von First Virtual eine Bestellung aufgeben, die der Händler an First Virtual weiterleitet. Der Kunde wird per von First Virtual kontaktiert und kann die Transaktion bestätigen. Der Vertragshändler kann sich dann gelegentlich die angesammelten Transaktionen überweisen lassen. Mit diesem System lassen sich auch Micropayments abwickeln (zumindest für Beträge, bei denen es noch Sinn macht, sie mit einzelnen s zu bestätigen). Nachteilig sind aber die verzögerte Abwicklung und die umständliche Bedienung.

58 3. Konkrete elektronische Zahlungs- und Billingsysteme NetCheque NetCheque wurde an der University of Southern California entwickelt [10]. Es ermöglicht das elektronische Versenden und Empfangen von Schecks und baut auf einer Infrastruktur von sog. Accounting Servern auf. Die elektronischen Schecks entsprechen ziemlich genau ihren realen Vorbildern. Jeder Teilnehmer richtet bei NetCheque ein Konto ein und erhält eine Kerberos-Identifikation. Vor dem Versenden durch das elektronische Scheckbuch wird der Scheck vom Absender digital unterschrieben. Der Empfänger unterschreibt ebenfalls digital, wenn er den Scheck bei seinem Accounting Server einreicht. Die gegenseitige Authentisierung und symmetrische Verschlüsselung wird mit Kerberos realisiert. Die Verwendung eines symmetrischen Schlüssels führt zu einem relativ kleinen Rechenaufwand und macht auch Micropayments via NetCheque möglich. Sicherheit und Skalierbarkeit sind aufgrund der Kerberos-Infrastruktur ebenfalls gewährleistet. Allerdings müssen die Kerberos-Passwörter zentral verwaltet werden. Natürlich können Schecks auch an Privatpersonen adressiert sein. Anonyme Zahlungen sind mit NetCheque nicht möglich. In den USA hat NetCheque ein gewisses Entwicklungspotential, da dort Zahlungen per Scheck weit verbreitet sind Paybox Als Repräsentant einer neuen virtuellen Zahlungsmöglichkeit stellen wir das deutsche System Paybox [11] vor, eine Tochtergesellschaft der Deutschen Bank. Das System macht sich die eindeutige Benutzerkennung von Handys zunutze. Ein typischer Ablauf: 1. Der Kunde registriert sich bei Paybox und erhält einen PIN. 2. An der Kasse eines E-Shops wählt der Kunde die Zahlungsoption Paybox und gibt seine Mobilfunknummer ein. 3. Der Anbieter sendet die gewünschte Transaktion und Mobilfunknummer an Paybox. 4. Paybox ruft den Kunden sofort zurück, nennt diesem Zahlungsempfänger und Betrag. 5. Der Kunde bestätigt den Kauf. Auf Anweisung des Anbieters löst Paybox anschliessend die Transaktion aus. Das System ist einfach zu implementieren, relativ sicher und hat in Deutschland recht schnell Erfolg gehabt. Nachteilig ist, dass Paybox detaillierte Kundenprofile erstellen kann und die Transaktion ziemlich umständlich ist (dauert ca. eine Minute). Solche Systeme sind aber durchaus zukunftsträchtig, vor allem, wenn man bedenkt, dass diese Zahlungsmöglichkeit ja nicht nur im Internet, sondern auch für andere Zahlungen eingesetzt werden kann (bereits mit Taxifahrern umgesetzt). Ausserdem wird das Handy als solches natürlich in Zukunft nur eines neben vielen anderen Geräten sein, die mobil kommunizieren. 3.4 Digitales Bargeld / Telegeld / virtuelle Münzen Digitales Bargeld soll das reale Bargeld im Internet ersetzen. Aus diesem Anspruch ergeben sich die Anforderungen: Anonymität sowie niedrige oder keine Transaktionskosten. Wie bereits in Kapitel 2.2 ausgeführt wurde, muss das mehrfache Ausgeben von Geld verhindert werden. Es wird unterschieden zwischen anonymem und identitätsbezogenem Geld einerseits und Online- resp. Offline-Zahlung ecash Dieses Zahlungssystem der holländischen Firma Digicash [13] kam in den letzten Jahren in beträchtliche finanzielle Schwierigkeiten. Momentan ist die Zukunft ungewiss, Hoffnung besteht, da mit der Deutschen Bank ein starker Partner vorhanden ist. Im Interesse der Konsumenten kann man dem System nur den Erfolg wünschen, denn ecash ist das einzige System, das wirklich umfassend die Anonymität und den Datenschutz des Konsumenten berücksichtigt. Insbesondere kann die Bank den Weg des Geldes nicht verfolgen. Weitere Informationen zu ecash sind unter [14] zu finden. Der Ablauf einer ecash-transaktion ist folgendermassen: 1. Der Kunde eröffnet ein Konto bei einer Vertragsbank von DigiCash und überweist dorthin einen bestimmten Betrag. 2. Der Kunde erzeugt eine Münze mit einer zufälligen Seriennummer und sendet diese geblindet der Bank zum Signieren. 3. Die Bank signiert die Münze, weiss aber nicht, welche Seriennummer sie da gerade unterschreibt. Anschliessend wird die Münze dem Kunden zurückgeschickt. 4. Der Kunde bestellt im Internet eine Ware und sendet seine digitale Münze als Zahlungsmittel zum Anbieter. 5. Der Anbieter leitet die Münze online an die Bank weiter. Die Bank führt die Buchung durch und bestätigt diese dem Anbieter. 6. Der Anbieter erfüllt den Auftrag des Kunden (Erbringung der Dienstleistung, Lieferung der Ware). ecash ist sicher, anonym und ermöglicht aufgrund der Online-Zahlung kein Double Spending. Bei einer Transaktion entstehen keine Kosten, es fallen lediglich periodische Gebühren an.

59 12 3. Konkrete elektronische Zahlungs- und Billingsysteme CyberCoin & InstaBuy CyberCoin [15]ist eine Zahlungsalternative des Wallets von CyberCash, das in Kapitel 3.2 besprochen wurde. Es wird zunehmend durch InstaBuy [17] der gleichen Firma ersetzt. Bei einem Kauf eines digitalen Gutes (z.b. ein Musikstück) wird die Datei verschlüsselt auf dem Computer des Kunden gespeichert. Der Kunde bezahlt mit CyberCoin und erhält anschliessend vom Anbieter den Schlüssel für die Decodierung der gekauften Ware. Vorteil ist die zumindest in den USA schon recht grosse Verbreitung des Systems durch das Bundle mit dem CyberCash Wallet. Nachteilig ist, dass CyberCash den Weg des Geldes verfolgen kann und somit die Anonymität des Kunden aufhebt. Ausserdem kann der Kunde bei einer fehlerhaften Übertragung des Schlüssels geschädigt werden. Weitere Informationen zu CyberCoin finden sich unter [16] NetCash Das System kommt von den Machern von NetCheque (siehe Kapitel 3.3) und verwendet NetCheque auch zum Verrechnen von getätigten Transaktionen. Im Prinzip ist NetCash ein Offline-Zahlungssystem, anonym eingereichte Münzen sollten jedoch online beim Currency Server eingereicht werden, um Double Spending zu verhindern Millicent Das elektronische Geld von Digital Equipment (DEC) fokussiert auf den Bereich der Zahlungen im Bereich von 0.1 Cent und. 5 Dollar. Pro Transaktion entstehen aber nur ca Cents an Kosten. Der Kunde erwirbt anbieterspezifische Skripts, quasi Gutscheine, die nur bei einem bestimmten Anbieter eingelöst werden können. Dieser Anbieter kann dann periodisch seine erhaltenen Scripts beim Broker, der verwaltenden Instanz (eine Bank oder ein Provider), verbuchen. Das System ist nicht absolut sicher, DEC behauptet aber, dass die Kosten für ein Eindringen höher seien, als die Kleinstbeträge, die zu erbeuten seien. Weiter Informationen zu Millicent finden sich unter [18]. 3.5 Chipkarten / Smartcards Mit Smartcards bezeichnet man elektronisches Bargeld in Form von Plastikkarten, auf denen sich ein Chip befindet. Wer Smartcards über das Internet nutzen will, braucht einen Kartenleser (ein sog. Trusted Device), der auch die Geldeinheiten, die auf die lokale Festplatte geladen werden, von der Karte abbucht. Nachteilig ist neben den Kosten für den Kartenleser vor allem die Ungewissheit über die Sicherheit der Smartcards. Das Problem besteht darin, dass eine modifizierte, aufgebrochene Smartcard zur Erzeugung von elektronischem Geld verwendet werden kann. Die Sicherheit eines solchen Zahlungssystems beruht also letztendlich auf der Einbruchsicherheit der verwendeten Smartcard Mondex Dieses System ist die momentan international am weitesten verbreitete Smartcard Geldbörse. Das virtuelle Geld besteht aus Dateien, die sich der Kunde von der Bank herunterladen und via Internet an beliebige andere Smartcard-Benutzer transferieren kann. Transaktionen sind kostenlos, es wird lediglich eine Monatsgebühr erhoben. Mondex sieht das System nicht nur als elektronisches Geld, sondern entwickelt weitere Anwendungen (Zugangskontrollen, Bonus-Systeme, etc). Die Homepage von Mondex USA findet sich unter [19], weitere Informationen unter [20] Elektronische Billingsysteme Grösster Vorteil der elektronischen Billingsysteme ist die Vermeidung des sog. Medienbruchs. Ganze Geschäftsabläufe können komplett digital abgewickelt werden, es ist kein Ausdrucken und Versenden der Rechnungen mehr möglich. Klar, dass in diesem Bereich grosse Einsparungen für Unternehmen und Banken sowie ein grösserer Komfort für den Kunden erwartet werden. Von den vorgestellten Systemen ist PayNet sicherlich das wichtigste, die anderen beiden sollen vor allem die Möglichkeiten illustrieren, die sich durch elektronische Rechnungsstellung ergeben.

60 3. Konkrete elektronische Zahlungs- und Billingsysteme PayNet PayNet ([21],[22]) wird von der Firma Europay entwickelt und soll der Standard für EBPP werden. Es wird von Europay als das 'weltweit erste EBPP-System' bezeichnet. Vorgestellt wurde es im Herbst 00, die Markteinführung für Privatkunden kommt aber erst im 2. Quartal 01. Die Aussichten sind vielversprechend, vor allem aufgrund der mächtigen Kreditkartenfirmen, die hinter Europay stehen, bisher gab es aber noch nicht viel konkretes. Insbesondere muss sich das System zuerst in der Praxis bewähren und ausserdem von den Kunden akzeptiert werden ServiSense (TelEnergy) ServiSense ([24]) ist ein amerikanisches Unternehmen, welches den Haushalten die Kosten rund ums Haus (Telefon, Gas, Elektrizität, etc.) via Web präsentiert. Nachdem man sich eingeloggt hat, kann man unter den einzelnen Rubriken die Kosten sehr detailliert. Dieses Web-Billing System hat ServiSense selbst entwickelt. Für den Zahlungsvorgang kommen herkömmliche Bank-Debit-Verfahren oder automatische Kreditkartenzahlungen zum Einsatz PayMyBills PayMyBills [25]) ist ein Bill Consolidation Dienst, welcher ca. 10$ pro Monat kostet. Er funktioniert folgendermassen: 1. Die Papierrechnungen werden vom Anbieter an PayMyBills gesandt. Sie werden eingescannt und im persönlichen Bill Management Center gespeichert. 2. Der Kunde erhält eine Benachrichtigung per . Er kann die Rechnung im Bill Management Center via Webbrowser prüfen und aus verschiedenen Zahlungsverfahren eines auswählen. 3. PayMyBills bezahlt die Rechnung. Am Ende des Jahres erhält der Kunde eine CD-ROM mit allen Rechnungen in digitaler Form. Mit diesem Dienst sind z.b. auch Micropayments realisierbar. 3.7 Vergleich der Systeme Die vorgestellten Systeme werden anhand der festgelegten Kriterien verglichen. Für die vorliegende Tabelle wurde unter anderem auf Daten aus [4] zurückgegriffen. Zu beachten ist, dass die letzten drei Systeme für das Billing zuständig sind und die anderen Zahlungssysteme sind. Auch wenn sich die beiden Kategorien nicht direkt vergleichen lassen, so lassen sich doch die Kriterien auf beide anwenden. System Sicherheit Skalierbarkeipayments Micro- Bedienbar Privat- Anony- Verbreitung keit personen mität SSL / hoch einfach nein n.a. nein nein hoch S-HTTP SET sehr hoch einfach nein gut nein nein in Europa zunehmend CyberCash sehr hoch einfach nein gut nein nein in USA hoch Online sehr hoch aufwendig ja gut ja nein mittel, sinkend Dienste Marketplace hoch aufwendig ja gut ja nein proprietäre Systeme, selten First Virtual ziemlich hoch aufwendig teilweise unbefriedigend ja nein früher bis zu 60'000 Kunden NetCheque hoch einfach ja unbefriedigend ja nein Gering Paybox hoch einfach nein gut nein nein im Markt seit Mai 00 ecash hoch aufwendig ja gut ja ja ungewiss, bisher selten CyberCoin & InstaBuy hoch einfach nein gut nein nein in USA hoch, in Europa steigend NetCash hoch einfach ja unbefriedigend ja nein gering Millicent ziemlich einfach ja gut nein nein gering hoch Mondex ziemlich hoch einfach ja gut ja ja in den USA hoch, in Europa gering Paynet sehr hoch einfach? gut nein nein Markteinführung 00/01 ServiSense hoch aufwendig nein gut nein nein nur in USA PayMyBills hoch aufwendig nein gut nein nein nur in USA Tabelle 1: Bewertung der Systeme im Vergleich n.a.: dieses Kriterium ist in diesem Fall nicht anwendbar.

61 14 4. Situation und Ausblick 4. Situation und Ausblick Abschliessend wollen wir noch etwas detaillierter auf die Verbreitung dieser neuen Zahlungsverfahren eingehen, und einige Prognosen für die Zukunft abgeben. In den folgenden beiden Kapiteln möchten wir zuerst mit einigen Statistiken die Akzeptanz der Systeme aufzeigen. Ausschlaggebende Kriterien für die Akzeptanz sind psychologische Effekte (Gewöhnung), technische Aspekte (Interoperabilität und Standards) sowie Bedienbarkeit (Interfaces und Effizienz). Allgemein ist bekannt, dass immer mehr Personen Zugang zum Internet haben, und dass immer mehr Anbieter eine eigene Website besitzen. Der Trend Richtung elektronische Rechnungsstellung und Bezahlung ist eindeutig. Aber wie sieht es momentan aus? Welche Hürden sind noch zu nehmen, und wie lange dauert es noch, bis man im Internet so selbstverständlich einkauft wie in einem Warenhaus? 4.1. Situation Die Verbreitung der vorgestellten Systeme variiert sehr stark. Währenddem viele Kunden bereits häufig mit der Kreditkarte im Internet shoppen, ist digitales Bargeld noch nicht sehr verbreitet. Generell ist dies stets ein Problem der Standardisierung. Solange viele konkurrierende Systeme und Standards existieren, werden sich Anbieter und Banken hüten, sich auf einen solchen festzulegen, in der Angst, aufs falsche Pferd zu setzen. Bei den Kunden sind neben einer allgemeinen Vorsicht gegenüber diesen neuen Entwicklungen vor allem Sicherheitsbedenken die bremsenden Kräfte. Chipkarten gelten bei den Kunden zwar als sicher (im Gegensatz zu Expertenmeinungen), sind aber meist auf einen maximalen Betrag beschränkt und erfordern zudem einen teuren Kartenleser. Diagramm 1: Ergebnis zu einer Umfrage [28] in Deutschland Im Diagramm 1 wird ersichtlich, dass der Trend Richtung Shopping im Internet anhält und sich noch verstärkt. Zudem gaben in einer anderen Umfrage [29] fast die Hälfte der Befragten an, bereits mindestens einmal im Internet eingekauft zu haben. Andererseits hindert vor allem die Unklarheit bezüglich der Sicherheit der Zahlungsmethoden potentielle Kunden am Einkaufen im Internet [%] Haben Sie die Absicht, das WWW im nächsten halben Jahr zum Shopping zu benutzen? Ja, bestimmt Vielleicht Weiss nicht Nein Diagramm 2: Ergebnis zur Umfrage Für welchen Betrag würden sie im Internet einkaufen? in Deutschland 1999 [29] Welche Einkäufe werden im Internet getätigt? Vor allem Software, Preissensibilität bei Einkäufen im Internet Hardware und Bücher werden heutzutage übers Internet gekauft. Im 50 Diagramm 2 zeigt sich dann auch 50 deutlich, dass die Kunden vor allem für einige hundert Mark im Internet einkaufen würden. Bei Beträgen unter 30 hundert Mark wird ein [%] 20 herkömmliches Geschäft vorgezogen, bei Beträgen über tausend Mark 10 ebenfalls. Der Grund für diese 0 Verteilung liegt auf der Hand: Wenn unter 100 DM DM DM über 2000 DM der Kunde im Internet einkauft, will er, dass es sich lohnt (Stichwort Versandkosten). Allerdings tätigt er grössere Geschäfte lieber auf konventionelle Art und Weise, da er dort die Risiken besser abschätzen kann. Ausserdem kennt man den Besitzer des E-Shops oftmals nicht und vertraut ihm deswegen nicht in derselben Weise, wie einem Anbieter mit einem Ladengeschäft.

62 4. Situation und Ausblick 15 Diagramm 3: Die neuen Zahlungssysteme liegen in der Akzeptanz deutlich hinter den traditionellen Verfahren. In dieser Umfrage [30] wurden Mehrfachnennungen zugelassen. Diese Zahlungsweisen akzeptieren Internet-Nutzer beim Onlinekauf [%] Rechnung Nachnahme Lastschrift Kreditkarte online (verschlüsselt) 12 E-Cash, Cyber- Cash u.ä. 7 Kreditkarte per Telefon, Fax, Post Vorauscheque 4 2 Kreditkarte online (unverschlüsselt) Diagramm 3 zeigt die beliebtesten Zahlungsweisen beim Onlinekauf. Mit Abstand am häufigsten wird auf konventionelle Weise über eine Rechnung bezahlt. Kreditkarte online wird im Verhältnis eher selten benutzt. Noch sehr spärlich wird von den neuen Zahlungsmethoden wie ecash Gebrauch gemacht. Ein entscheidender Faktor ist sicherlich die fehlende Gewöhnung, ausserdem kann auch in technischer Hinsicht kein bestehendes System vollständig überzeugen (siehe auch Tabelle 1). Die Bedienbarkeit der Systeme ist zwar im allgemeinen gut, allerdings ist die Installation einer Software, die bei den meisten Systemen nötig ist, eine nicht zu unterschätzende Hürde. Insofern ist die Skepsis der Kunden also durchaus gerechtfertigt. Der hohe Anteil der Zahlungen per Rechnung eröffnet insbesondere für EBPP-Systeme Perspektiven Ausblick Damit in Zukunft digitales Bargeld an Bedeutung gewinnt, sind unserer Meinung nach zwei Hürden zu nehmen: Erstens muss dem Kunden die Angst genommen werden, er könnte bei einer elektronischen Bezahlung betrogen werden. Die existierenden Systeme sind im Vergleich mit herkömmlichen Zahlungsverfahren bereits sehr sicher. Da es sich in vielen Fällen aber um sehr komplexe Systeme handelt, geht allerdings die Transparenz des Zahlungsvorgangs verloren. Währenddem man bei Bargeldzahlungen immer etwas Materielles weggibt oder erhält, ist dies bei digitalen Verfahren nicht mehr der Fall. Man muss den Apparaten blind vertrauen, dies erfordert natürlich eine Gewöhnungsphase (die beispielsweise beim Bankomat bereits überwunden ist). In dieser Hinsicht haben EBPP-Systeme einen Vorteil, da die Übgewöhnung für die Kunden nicht so gross ist und durch Applikationen wie Online-Banking auch gefördert wird. Zweitens ist es unabdingbar, dass sich wenige Standards durchsetzen. Momentan existieren zu viele verschiedene Systeme für elektronische Rechnungen und Zahlungen. Bis zu verbreiteten einheitlichen Standard ist es aber noch ein weiter Weg, denn unter existierenden Systemen gibt es kein universell einsetzbares und die Interessen der jeweiligen Firmen erschweren eine Einigung. SET ist einfach zu bedienen und sehr sicher. Sein grosser Vorteil ist, dass es von den grossen Kreditkarten-Anbietern propagiert wird. Gegen SET sprechen allerdings die hohen Provisionen und die mangelnde Eignung für Micropayments. Andere Systeme wie Millicent wurden speziell für Micropayments geschaffen, sind aber für grössere Beträge ungeeignet. Ein System, welches sich durchsetzen soll, muss vielseitig verwendbar sein. Erfolgversprechend ist unserer Meinung nach CyberCash, welches verschiedene Zahlungsmethoden quasi als "Meta- Zahlungsmittel" vereinigt und in Zukunft durch weitere ergänzt werden könnte. Insbesondere nach der Integration von SET stellt es unserer Meinung nach das vielversprechendste Zahlungssystem dar. Vom technischen Aspekt am überzeugendsten war ecash. Es schützt die Privatsphäre der Benutzer am besten, benötigt keinerlei Hardware und ist sehr sicher. Allerdings ist die wirtschaftliche Zukunft von Digicash ungewiss. PayNet als EBPP-System sieht vielversprechend aus, hat durchaus das Potential zu einem Standart, muss sich aber noch durchsetzen. Zum jetzigen Zeitpunkt kann keine Voraussage gemacht werden, welches System sich durchsetzen wird. Entscheidend wird wohl neben den technischen Aspekten vor allem eine geschickte Vermarktung sein.

63 16 5. Links und Quellennachweis 5. Links und Quellennachweis [1] Theoretische Hintergrundinformationen zu Kryptographie und Zahlungsprotokollen: Prof. Ueli Maurer, Informationssicherheit und Kryptographie, Skript zur Vorlesung 1998/99 [2] Detaillierte Beschreibung von technischen Grundlagen der Digitalen Signatur und ihrem Einsatz in Deutschland: [3] Beschreibung der dualen Signatur [4] Vergleich der verschiedenen Zahlungssysteme: R. Schuster, J. Färber, M. Eberl, Digital Cash, Zahlungssysteme im Internet, Springer Verlag, 1997, Seite 74 [5] Spezifikation von SSL 3.0: [6] VISAs Informationen zu SET: [7] SETCo (managt die Spezifikation von SET): [8] Homepage von CyberCash: [9] Ausführliche Beschreibung von CyberCash: [10] Informationen zu NetCheque [11] Homepage von Paybox: [12] Beschreibung von Paybox: [13] Homepage von Digicash: [14] Beschreibung von ecash: [15] Homepage von CyberCoin in Deutschland: [16] Beschreibung von CyberCoin: [17] Homepage von Instabuy: [18] Homepage von Millicent [19] Homepage von Mondex: [20] Beschreibung von Mondex [21] Homepage von PayNet: [22] Detaillierte Informationen zu PayNet: F. Klein, K. Spremann, Telegeld, Verlag Neue Zürcher Zeitung, 1998, Seite 169ff. [23] Präsentation einer Diplomarbeit zum Thema Internet Billing and Payments [24] Homepage von ServiSense (früher TelEnergie) [25] Homepage von PayMyBills [26] European epayment Systems Observatory (Institute for Prospective Technological Studies, Sevilla, Spain) [27] European Committee for Banking Standards [28] Umfrage von Fittkau & Maaß GmbH, veröffentlicht auf: [29] Quelle (Online-Befragung von webstudie.de ): [30] Internet Shopping Report 2000 (8689 Befragte, Mehrfachnennungen), veröffentlicht auf:

64 User Reactions on Prices Fachseminar WS2000/2001 Cédric Roserens / Michael Heimbeck 9. Januar Einleitung Quality of Service (QoS) wird heutzutage immer öfter verlangt. Anwendungen wie Realtime- Video und -Audio werden mit den momentan implementierten Mechanismen nicht mehr zur Zufriedenheit funktionieren. Das Problem mit der Flatrate ist, dass ein paar wenige Benutzer (sogenannte heavy user ) von vielen anderen (light user) gestützt werden. Aus diesen Gründen ist man auf der Suche nach neuen Pricingmodellen. Es reicht aber nicht aus, neue Modelle zu entwickeln. Sie müssen unbedingt bei den Benutzern ausprobiert werden. Ein noch so gutes Modell wird versagen, wenn es von den End-Usern nicht akzeptiert wird. Es werden zwei Projekte vorgestellt, die sich mit den Reaktionen der User befasst. Das erste Projekt heisst INDEX und hat Preismechanismen mit einer ausgewählten Anzahl Benutzer getestet. Das zweite Projekt ist eine Studie zum Erstellen von solchen Pricing-Modellen unter Berücksichtigung der Benutzerwünsche. Es ist ein Teilprojekt des Projekts M3I [1]. 2 Das INDEX-Projekt 2.1 Einleitung Das Internet Demand Experiment (INDEX) ist ein Markt- und Technologieexperiment. Das Ziel dieses Experimentes ist herauszufinden, wie viel die verschiedene Internetdienstqualitäten den Benutzern wert sind. Resultate vom Versuch lassen darauf schliessen, dass das aktuelle Flatrate- Preisschema der ISPs sehr ineffizient ist. Das Flatrate-Modell verschwendet Ressourcen, zwingt light Users heavy Users zu subventionieren und es hindert die Verbreitung von Breitbandzugriff. INDEX ist gleichzeitig ein alternatives Model, das differenzierte Servicequalität auf Anfrage ermöglicht, mit einem Preismodell, das die Ressourcenkosten wiederspiegelt. In diesem 1

65 Abbildung 1: Control Center Modell zahlen die Benutzer weniger, die Gewinne der ISPs steigen und die Verbreitung von Breitbandzugriff wird vereinfacht. 2.2 Versuchsbeschreibung Das Experiment startete im April Die Versuchspersonen waren zusammengesetzt aus über 70 Studenten, Forscher und Angestellte der Universität Berkeley in Kalifornien. Beim INDEX-Experiment erhielten die Versuchspersonen einen Internetzugang mit differenzierter Servicequalität zu Hause installiert. Jede Versuchsperson nahm an einer Versuchsreihe teil, die zwischen 6 und 10 Wochen dauerte. Jede Woche wurden die Preis-/Servicepaletten der User geändert. Die Bezahlung der beanspruchten Services geschah über die Kreditkarte. Die Basisdaten, die während des Experimentes aufgenommen wurden, bestanden aus der Anzahl übertragenen Bytes in beide Richtungen (Up- und Download), die Wahl der Servicequalität, Kontoinformationen und Informationen betreffend der Internetverbindung. Die Granularität der Zeit wurde bei einer Minute angesetzt. Das Control Center (Abb. 1) ist eine graphische Benutzeroberfläche, die dem Benutzer ermöglicht, seine Einstellungen betreffend Internetverbindung zu kontrollieren. Durch das Control Center kann der User jederzeit seinen Kontostand überprüfen und die beanspruchte Servicequalität seinen Bedürfnissen anpassen Die verschiedenen Preismodellen Es wurden sechs verschiedene Preismodelle während des Versuchs getestet: 2

66 Experiment 1: Symmetrische Bandbreite Bei der symmetrischen Bandbreite ist die Geschwindigkeit für Up- und Download gleich gross. Das Ziel dieses Experimentes war, die Preissensibilität zu eruieren. Die Daten von INDEX deuten darauf hin, dass die Sensibilität hoch ist. Experiment 2: Asymmetrische Bandbreite Dieses Experiment ist durch den Internetzugang über TV-Kabel und dem DSL motiviert, wo die Geschwindigkeiten für Up- und Download unterschiedlich (asymmetrisch) sind. Die zentrale Frage in diesem Experiment ist, ob die Benutzer auf unterschiedliche Preise für Up- und Download reagieren und ob sie diese Gegebenheit ausnützen, um ihre Internetrechnung zu reduzieren. Den Resultatdaten nach, sind sich die Benutzer dieses Umstandes bewusst und nutzen ihn auch aus, um ihre Kosten zu senken. Experiment 3: Volumenabhängige Preisgestaltung Der User hat an einen Gratisanschluss zu 8kbit/s und kann für einen festgesetzen Preis 128kbps-Transfer beanspruchen. Das Experiment soll einen Vergleich zwischen zeitanbhängige und volumen- abhängige Preisgestaltung ermöglichen. Die Enddaten deuten darauf hin, dass die Verbindungszeiten drastisch in die Höhe gingen, da diese nicht angerechnet wurden. Experiment 4: Volumen- und kapazitätsabhängige Preise Der User bezahlt Transfervolumen und Verbindungszeit. Dieses Preismodell wiederspiegelt die Bandbreite und die Pufferressourcen, die für den Datenverkehr des Benutzers nötig sind. Experiment 5: Volumen oder Measured Rate Der Benutzer hat die Wahl zwischen verbindungszeit- (bei 128 kbit/s) und volumenorientierte Bezahlung. Seine Wahl gilt für die ganze Woche. Das Ziel dieser Untersuchung ist herauszufinden, wann die User welches System bevorzugen und ob sich die Wahl in Bezug auf die reelle Nutzung lohnt. Experiment 6: Flatrate + Anhand dieses Experimentes soll herausgefunden werden, wie viel das Flatrate- Modell den Benutzern wert ist. Ein Benutzer kann zu Beginn der Woche eine Transferrate für die ganze Woche buchen. Mit dieser Bitrate kann er dann unbegrenzt das Internet besuchen. Wenn er will, kann er gegen zusätzliches Entgelt auf minütlich verrechneter Basis eine höhere Transferrate mieten. 3

67 2.3 Genauere Beschreibung und Resultate zu Experiment 6 (Flatrate +) Viele Schlussfolgerungen aus dem INDEX-Projekt entstammen dem Experiment 6. Die Resultate aus diesem Experiment helfen, das später vorgestellte alternative ISP-Modell zu begründen Versuchsbeschreibung Die Benutzer haben die fünf Bandbreiten 16kbps, 32kbps, 64kbps, 96kbps und 128 kbps zur Verfügung. Die Preise pro Minute (Measured Rate) bleiben für die ganze Versuchsperiode von 10 Wochen gleich. Die Preisgestaltung ist linear steigend mit der Bandbreite, d.h. wenn 64kbps 1 cent/minute kostet, dann kosten 128kbps 2 cents/minute. Der User hat jede Woche die Möglichkeit, eine Bandbreite als Flatrate zu erwerben. Dies kostet ihm einen fixen Preis und erlaubt ihm für die ganze Woche unlimitierten Internetzugang mit der gekauften Bandbreite. Er kann auch mit einer höheren Bandbreite arbeiten, wobei er den Unterschied pro Minute bezahlen muss. Die Flatratepreise sind proportional zu der Transferrate, wechseln aber alle Wochen. Die Preise für den Erbwerb von Flatrate liegen zwischen $1 und $20. Es wurden drei Preisintervalle definiert, nämlich $1 - $6, $7 - $14 und $15 - $20. Jedes Intervall kam in drei Wochen eines 10-wöchigen Versuchs vor, ausser das mittlere, welches viermal vorkam. Bei jedem Intervall wurde zufallsmässig einen Preis aus dem Intervall gewählt. Die höchste Bandbreite (128kbps) kostete 100% vom zufällig gewählten Referenzpreis, die tiefste (16kbps) 12,5% Versuchsziel Das Experiment soll das Kaufverhalten der Benutzer bei variierenden Preisen und Bandbreiten für Flatrate ausfindig machen. Auch ist die Möglichkeit eine Flatrate-Bandbreite für eine Woche zu kaufen von Interesse für die Untersuchung. Der Vergleich des Konsumationsverhaltens eines Users bei Flatrate verglichen mit Measured Rate (Bezahlung pro Minute der genutzten Bandbreite) ist ein zentrales Thema dieses Experimentes. Die Erkenntnisse aus diesem Versuch sollen Entscheide für künftige Preismodelle bei den ISPs unterstützen. Zusätzlich soll es Aussagen über den Willen von Benutzern machen, temporär eine höhere Bandbreite zu beanspruchen, während dem sie eine Flatratelinie zur Verfügung haben. 4

68 2.3.3 Charakteristiken der Versuchspopulation Es wurden Daten von 40 Versuchspersonen, der eigentlichen 70 Teilnehmer, die den Versuch während 10 Wochen durchführten, aufgenommen und ausgewertet. Die Versuchspersonen waren Forscher, Studenten und Angestellte der Universität von Kalifornien. Es handelte sich um Personen mit Interneterfahrung und meist hoher schulischer Ausbildung. In diesen zwei Punkten unterscheidet sich die Versuchsgruppe signifikant von der US-amerikanischen Bevölkerung. Es wird erwartet, dass die hier präsentierten Resultate sich nicht signifikant ändern werden, wenn die Daten der 30 fehlenden Versuchspersonen dazu kommen werden Interpretation der Resultate Die Resultate werden in Bezug auf das Verhalten der Versuchspersonen, d.h. ihr Entscheidungsverhalten bei der Wahl zwischen Flatrate und Measured Rate, ihr Lernverhalten hinsichtlich der Optimierung ihrer Entscheide aus wirtschaftlicher Sicht und in Bezug auf die Heterogenität der Versuchsgruppe untersucht. Flatrate und Measured Rate Es stellte sich bei den Untersuchungen heraus, dass die Benutzer das Flatrate- Modell dem Measured Rate-Modell bevorzugen, auch wenn es sich nicht als die kostengünstigere Variante herausstellt. Dieses Verhalten wird dadurch erklärt, dass die User das Risiko einer zu hohen Rechnung nicht auf sich nehmen wollen. Dazu kommt die Bequemlichkeit der Flatrate, die dem User fixe Kosten und keine Anschlusseinschränkungen garantiert. Auch scheint die Tatsache, dass die Benutzer ihren tatsächlichen Internetgebrauch meistens überschätzen, eine Rolle zu spielen. Es wurde in 78.6% der Versuchswochen das Flatratemodell gewählt. Diese hohe Rate wird teilweise dadurch erklärt, dass es in bestimmten Wochen sehr tiefe Flatratepreise gab und dass die Flatrate mit der kleinsten Bandbreite (16kbps) immer relativ günstig zu haben war (maximal 0.125*20$). Heterogenität der Versuchsgruppe Die Resultate ergaben, dass 50% der Benutzer $ $5.50 im Durchschnitt pro Woche für Flatrate ausgaben. Die anderen 50% gaben gleichmässig verteilt in den Intervallen $ $2.75, $ $8.25 und $ $11.00 pro Woche aus. Ausser dem erstgenannten Intervall verteilen sich die Benutzer gleichmässig auf die Intervalle, das heisst es herrscht eine grosse Heterogenität betreffend Internetgebrauch zwischen den Usern. Lernverhalten Es stellte sich heraus, dass in der ersten Woche, 44% der Benutzer ihre Kosten nicht minimiertern. Drei Wochen später, in der vierten Woche waren es nur noch 20% der Benutzer, die ihre Kosten nicht minimierten. Daraus lässt sich schliessen, dass die User ein 5

69 Lernverhalten an den Tag legen. Sie lernen ihren Konsum besser einzuschätzen und anhand dessen die Wahl ihres Services zu optimieren. Kostenminimierung und Prämien Unter dem Begriff der Prämien verstehen wir den zusätzlichen Betrag, der ein Benutzer aus Komfortgründen zu bezahlen bereit ist. Das ist der Betrag, der über dem kostenminimierenden Betrag ist. Man kann diesen Betrag natürlich auch als Optimierungsfehler gegen oben interpretieren. Die Zahlen deuten darauf hin, dass die User im Allgemeinen mehr zahlen als nötig. Einige Fälle lassen sich eindeutig in die Kategorie der Prämienzahler einordnen. Es fiel auch auf, dass extreme Prämien-User ein signifikant tieferes Transfervolumen als die anderen Benutzer haben. Es wurde auch bemerkt, dass Benutzer, die ein hohes Transfervolumen vorwiesen, öfter als die anderen ihre Kosten optimierten. Measured after BuyOut 33 von 40 Benutzer profitierten von der Möglichkeit mehr Bandbreite nach dem Measured Rate-Modell zu kaufen, nachdem sie eine Flaterate-Bandbreite gekauft hatten. Es scheint, dass eine Nachfrage nach dieser Möglichkeit besteht. Usage in BoughtOut vs. Measured Der Versuch ergab einige interessante Resultate betreffend des Verhaltens der User unter Flaterate verglichen mit dem Verhalten unter Measured Rate. Unter Measured Rate waren die Benutzer im Schnitt Minuten/Woche online und transferierten 1.27Mbytes/Tag, verglichen zu Minuten und MBytes/Tag unter Flatrate. Ein Benutzer transferiert im Schnitt 3.28 mehr Daten beim Flatrate-Modell. Es wurde im Durchschnitt auch mehr Geld ($5.81) in Wochen, in denen Flatrate gewählt wurde, ausgegeben, als in Wochen, in denen pro Minute bezahlt wurde ($2.77). Aus der Sicht der ISPs ist es so, dass INDEX in Flatratewochen 7.75 cents/mbyte kassierte, verglichen mit cents/mbyte in Measured Rate-Wochen Schlussfolgerungen aus dem Experiment 6 Die groben Folgerungen, die man aus diesem Experiment ziehen kann sind folgende: Die Benutzer bevorzugen aus Komfortgründen und Risikokalkulationen das Flatrate-Modell und sind auch bereit, mehr dafür zu bezahlen. Es stellte sich heraus, dass die Benutzer mit der Zeit ihren Konsum kennenlernen und dementsprechend ihre Kaufentscheide optimieren. Praktisch alle User profitierten von der Möglichkeit, in einer Woche, in denen sie eine Flatrate- Bandbreite gekauft hatten, im Measured Rate-Modell eine höhere Bandbreite zu erwerben. Es wurde ein grosser Unterschied in Flatrate-Wochen betreffend Transfervolumen und Verbindszeit festgestellt. 6

70 2.4 Konsequenzen aus dem INDEX-Projekt Das INDEX-Projekt war gleichzeitig ein Versuch und die Gestaltung eines alternativen Modells für ISPs. Dieses Kapitel zeigt die Problematik des aktuell von den ISPs verwendeten Flatrate-Modells und schlägt eine alternative Methode vor, basierend auf die Resultate der INDEX- Versuchsreihen Heutige ISPs Folgendes Beispiel soll die Schwächen des Flatrate-Modells, das heute von den meisten amerikanischen ISPs gebraucht wird, illustrieren: Man nehme einen durchschnittlichen Datentransfer auf einem 28kbs Modem von 60 MBytes/Monat. Der monatliche Flatrate-Preis liege bei 35$ (inklusive Flatrate-Telefonanschluss). Wenn man nun drei verschiede Usergruppen vergleicht, kommt man zu folgenden Zahlen: Ein durschnittlicher User kommt auf 58 cents/mbyte, ein light User auf $/Mbyte und ein heavy User auf cents/mbyte. Diese Zahlen zeigen, dass ein light User die Kosten für die Transferraten eines heavy Users zu tragen hat. In diesem Beispiel sind die Kosten für einen light User ca. 30 mal höher als die für einen heavy User. Dadurch kommt man zum Schluss, dass light Users heavy Users subventionieren müssen Was mit dem Flatrate-Modell nicht in Ordnung ist Grundsätzlich lassen sich drei Schwächen am Flatrate-Modell aufzeigen: Es fördert Verschwendung und erhöht die Kosten, light Users müssen heavy Users subventionieren und differenzierte Qualität kann nur durch Unterteilung in grobe Gruppen erreicht werden. Verschwendung Als Verschwendung wird der Datentransfer angesehen, der zu einem Preis getätigt wird, der unter dem Wert liegt, der ein User für den getätigten Transfer zu zahlen bereit ist. Wenn jetzt ein Benutzer bereit ist, für eine bestimmte Transfermenge einen bestimmten Betrag zu zahlen, dann ist die Menge Daten, die seine ursprünglich gewollte Menge übersteigt, Verschwendung. Und diese Möglichkeit besteht beim Flatratesystem. Subventionierung von heavy Users Wie weiter oben gezeigt, entstehen beim Flatrate- Modell automatisch zwei Gruppen, die Subventionierten und die Subventionierenden. Dadurch entsteht eine soziale Ungerechtigkeit. 7

71 Differenzierte Qualität durch Unterteilung in grobe Gruppen Um die oben genannte Ungerechtigkeit auszugleichen, besteht die Möglichkeit die verschiedenen User in Untergruppen einzuteilen, die ihrem Internetgebrauch besser angepasst sind. Dies lindert die Ungerechtigkeit ein bisschen, doch dieselbe Situation entsteht dann wieder innerhalb der Untergruppen, wenn auch weniger stark ausgebildet Alternativer ISP Das alternative ISP-Modell, das aus dem INDEX-Experiment resultiert, braucht ein Preismodell, das die Transferraten und Ressourcekosten widerspiegelt. Dieses System hätte zur Folge, dass die Zugangskosten einiges tiefer und die Qualität höher wäre als beim Flatrate-Modell. Durch das Control Center hätten sie jederzeit Kontrolle über ihre Ausgaben. Weil die Kosten für eine bessere Qualität bei diesem Modell tiefer sind als beim Flatrate, wird die Verbreitung von Breitband begünstigt. Der Versuch INDEX zeigt, dass die Technologie für ein solches System existiert und dass ein Markt dafür vorhanden wäre. Auch ist ein solches System für die ISPs rentabel, was sie nicht mehr dazu zwingen würde ihr Einkommen über Webportale abzusichern Schlussfolgerungen Folgende Schlussfolgerungen konnten aus dem gesamten INDEX-Projekt gezogen werden: Die Nachfrage nach Internetdiensten ist sehr sensibel auf Preis und Qualität. Unter den Benutzern ist die Nachfrage sehr unterschiedlich. Die Bezahlung des Services, ob nach Transfervolumen oder Verbindungszeit hat einen grossen Einfluss auf die Nachfrage. Das Experiment zeigt, dass Flatrate soziale Ungerechtigkeiten in Form von Verschwendung, Subvention von heavy Users, und Unterteilung in Qualitätsgruppen hervorruft. Langfristig wird die Unterteilung in Qualitätsgruppen die Verbreitung von Breitbandservice limitieren. Der Wechsel von ISPs zum Flatrate machte das ISPs- Geschäft in den USA teilweise unrentabel. Dies hatte zur Folge, dass die ISPs ihre Einnahmen über Webportale holen mussten, um überleben zu können. Das INDEX-Projekt untersuchte ein alternatives Modell zur Preisgestaltung beim Internetzugang, das die Transfervolumen und Ressourcekosten wiederspiegelt. Der Versuch zeigt, dass ein solches Modell technisch realisierbar und wirtschaftlich verantwortbar ist. Es bringt auch einen Gewinn für die Anbieter und die meisten Benutzer und fördert die Verbreitung von Breitbandzugang. 3 Das M3I Projekt Das M3I Projekt [1] hat zum Ziel ein System zu entwerfen, implementieren und testen, welches Internet Resourcen Management ermöglicht. Vor allem sollen die verschiedenen Dienst- 8

72 qualitäten unterschiedlich verrechnet werden können. Dadurch würde sich der Wert des Internets für die Benutzer enorm steigern, da sie nun eine grössere Auswahl beim Preis und der Qualität hätten. Gleichzeitig würde die Netzwerkbelastung sinken. In einem Teilprojekt [2] von M3I gilt es herauszufinden, wie die Kunden auf neue Abrechnungsmodelle reagieren. Dazu wurde zuerst eine Analyse durchgeführt, um festzustellen, welche Konzepte die Benutzer zur Akzeptanz von Pricing und QoS 1 führen und wie auf neue Modelle reagiert wird. Nach dieser Vorbereitung soll ein breitangelegter Versuch die Resultate in der Realität testen. 3.1 Einleitung Wie es sich schon im INDEX-Projekt zeigte, ist das zur Zeit am meisten verwendete Preismodell, die Flatrate, eine echte Schwachstelle. Es gilt neue Preismodelle zu entwerfen. Ob diese Preismodelle von den Benutzern aber angenommen werden, ist ungewiss. Werden die Modelle nicht ihren Bedürfnissen angepasst, ist ein Scheitern schon vorprogrammiert. Da sich bisher noch niemand ernsthaft mit dieser Problematik auseinandergesetzt hat, wurde in einer Studie [2] untersucht, welche Parameter für die Benutzer von Bedeutung sind. Bisherige Untersuchungen in diesem Bereich konzentrierten sich auf technische Lösungen, um QoS und Charging zu implementieren. Die Sicht der Benutzer wurde dabei vernachlässigt. In einer ersten Phase werden mit focus groups Daten gesammelt und ausgewertet. Unterschiedliches Wissen über Netzwerke führt dazu, dass sehr unterschiedliche Parameter zur Beurteilung hinzugezogen werden. Daher wurden Benutzer zu einer Befragung hinzugezogen, deren Wissen über Netzwerke voneinander abwichen. Die beiden daraus gewonnenen Modelle zeigen, welche Konzepte die user zur Akzeptanz von QoS und Pricing führen. Nachfolgend wird erläutert, wie die Gruppendiskussionen aufgebaut waren. Dann werden die beiden daraus resultierende Modelle vorgestellt und auf die einzelnen Konzepte detailliert eingegangen. Die Modelle werden getrennt voneinander besprochen: Zuerst das Modell des Laien (novice user), anschliessend das des Experten (advanced user). Ein weiteres Gruppenziel war die Diskussion der Preismodelle und deren Akzeptanz. Beendet wird Teil 3 mit Schlussfolgerungen und zukünftigen Arbeiten für das Projekt. 3.2 Gruppeninterviews In diesem Abschnitt wird gezeigt, warum Laien und Experten in Sachen Netzwerkwissen getrennt von einander betrachtet werden müssen. Anschliessend wird beschrieben, wie die Daten, die dieser Untersuchung zugrunde liegen, gewonnen wurden. Die auszuführende Aufgabe (task) scheint der wichtigste Faktor für die wahrgenommene Qualität zu sein. Gedanken über die zugrundeliegende Technologie werden von den meisten Be- 1 Quality of Service 9

73 nutzern ausgehend von der Aufgabe gemacht. Referenz [3] zeigt deutliche Wissensunterschiede bei Internetbenutzern. Einige Benutzer mussten ihre Vorstellung von Netzwerken gründlich überdenken, um effizienter Arbeiten zu können. Daher kann davon ausgegangen werden, dass unterschiedliches Wissen und Erfahrung zu unterschiedlichen Berwertung von QoS und Pricing führen. Mit den Methoden der grounded theory 2 werden aus Daten, welche man aus Interviews und focus group 3 sessions erhält, relevante Konzepte gewonnen. Der Vorteil der focus groups besteht darin, dass oft eigene Ideen und spontane Reaktionen die Diskussion beleben und weiterbringen. Zwei Benutzergruppen - mit je 16 Teilnehmern - nahmen an focus group Sitzungen teil. Die Benutzergruppen wurden jeweilen in kleinere, besser moderierbare Gruppen unterteilt. In ca. einstündigen Sitzungen wurde über QoS und pricing mit Hilfe eines geübten Vermittlers diskutiert. Alle user hatten Erfahrung mit , WWW und videoconferencing. Die Benutzer der advanced Gruppe hatten zuätzlich im Rahmen ihrer Ausbildung einen Kurs über Computer Netzwerke absolviert. Es wurde also in Gruppen diskutiert, die unterschiedliches Wissen aufwiesen: advanced user mit syntaktischem und semantischem Wissen von Netzwerkoperationen und Erfahrung mit realtime- und data driven tasks. novice user mit beschränktem Wissen von Netzwerkoperationen und wenig Erfahrung mit Echtzeitaufgaben. data-driven tasks waren ihnen aber vertraut ( , WWW). 3.3 Konzept-Modelle Mit den aus den Interviews und Diskussionen gewonnenen Daten wurden diverse Konzepte entwickelt. Abbildung 2 (Seite 11) und Abbildung 4 (Seite 14) zeigen, wie diese Konzepte miteinander verbunden sind. Beide Modelle werden vorgestellt und auf die einzelnen Konzepte eingegangen. Es wird deren Bedeutung erklärt und mit welchen anderen Konzepten sie zusammenhängen. So lernt der Lesende Stück für Stück die Modelle als Ganzes verstehen. Die Modelle sind zum Teil sehr unterschiedlich aufgebaut, da der Wissensunterschied den Konzepten ganz andere Gewichte zukommen lässt oder gar ganz neue Gedankengänge zulässt. Es wird deshalb zuerst das des Laien (novice user) und dann das des Experten (advanced user) besprochen. An dieser Stelle sei herausgehoben, dass die Höhe des Vertrauens (level of confidence) der allesentscheidende Faktor ihres Zahlungsverhaltens (payment behavior) ist. 2 wissenschaftlich fundierte Methoden, um Verhaltensformen zu beschreiben und vorherzusagen ref [4, 5, 6] 3 Kleine Diskussionsgruppen, die von einem Moderator betreut werden 10

74 Conceptual Mapping Predictability + = Confidence Performance of QoS parameters Social Trust Voluntary action Risk Assessment Involuntary action Danger Collective Quality Externalization Expected Utility Level of Control Feedback Task Virtual Distance Network-centric User-centric Abbildung 2: Konzept zur Akzeptanz von Preisgestaltung und QoS (novice user) Novice User In diesem Abschnitt wird das Modell des Laien (Abb. 2) genauer beschrieben. Confidence Vertrauen ist für seine Akteptanz im pricing model sehr wichtig. Es bezeichnet das Vertrauen, dass die benötigte, bzw. erwartete QoS auch erhalten wird. Folgende äquivalente Definitionen von Confidence können gegeben werden: Vertrauen wird gewonnen durch die Einschätzung einer Situation als eine mit kleinem Risiko. Wobei Risiko definiert ist, als Wahrscheinlichkeit, zu viel für die QoS, die man erhält, zu bezahlen. Akzeptanz des pricing Mechanismus und des Wertes der vermittelten QoS. Das Vertrauen erlangt man durch die beiden Hauptkonzepte Conceptual Mapping und Predictability. Conceptual Mapping Der Laie hat keine Ahnung von Netzwerkkonzepten und sucht für seine Aktionen und Aufgaben, die er am Computer ausführt eine Metapher in der ihm bekannten realen Welt. Unbekannte Vorgänge, wie z.b. das Versenden einer , werden auf ihm bekannte Konzepte zurückgeführt. Im Falle der wäre das ein Vergleich mit dem Versand eines Briefes über die Post. 11

75 Virtual Distance Der Ausdruck virtual distance bezieht sich auf die physikalische Distanz zwischen dem Absender und dem Empfänger. Es ist die Distanz, die der unerfahrene Benutzer dem Ziel zuordnet (sozusagen die Luftlinie) unabhängig davon, auf welchen Wegen die Päckchen sich den Weg durch das Internet bahnen. Je grösser diese Distanz ist, desto eher wird eine schlechtere Dienstqualität (QoS) akzeptiert. Sitzt der Empfänger z.b. in den USA, so wird eine kleinere QoS angenommen und höhere Kosten erwartet, als wenn der Empfänger im selben Gebäude sitzt. Selbst bei Plätzen, welche nah sind, aber schwer erreichbar sind (Vergleichbar in der Realität mit dem Fehlen von öffentlichen Transporten oder überfüllten Strassen), wird mehr geduldet. Collective Quality / Performance of QoS Parameters Collective Quality definiert sich als: Die Erwartung des Benutzers, welche Dienstqualität die anderen Netzwerkbenutzer erhalten haben. Wenn die Benutzer erkennen, dass die erhaltene Collective Quality im Netz relativ klein ist, wird auch erwartet, dass die daraus resultierende QoS eher klein ausfallen wird (In der Mittagszeit z.b. ist das Internet oftmals sehr stark ausgelastet und die Netzperformance der meisten Teilnehmer geht deutlich zurück). Predictability Die Wahrscheinlichkeit, dass die Beurteilung der zukünftigen QoS richtig ist. Das Konzept der Risikoabschätzung (risk assessment) und das der Vorhersagbarkeit (predictability) sind eng miteinander verknüpft. Social Trust / Externalization Da keine Kenntnisse von Netzwerkkonzepten vorhanden sind, bildet sich das Vertrauen (trust) ausschliesslich durch Vorgänge (processes), die ausserhalb des Netzwerks stattfinden (z.b. der Vertrag zwischen Benutzer und ISP). Involuntary Action / Danger Laien führen aufgrund ihres Wissens die Kontrolle über erhaltene QoS auf Operationen der Applikationsschicht (also die Applikation selber) zurück. Ihr Konzept lässt die Netzwerkschicht ausser Acht. Dadurch können unvorhersehbare Aktionen (involuntary actions) entstehen. Das Netz könnte unerwartet stark belastet werden (Wenn sehr grosse Dateien per verschickt werden, so hat das eine starke Netzbelastung zur Folge, was von novice usern nicht immer wahrgenommen wird). Danger: Einschätzung einer Aktion (des Benutzers) als unfreiwillig. Confidence wird nie mit einer gefährlichen Situation in Verbindung gebracht. Eine gefährliche Situation in dieser Untersuchung wäre der drohende Verlust der Kontrolle über die erhaltene QoS. Risk Assessment Um das Risiko abzuschätzen, bedienen sich die user diverser Sub-Konzepte. Die Relevanz dieser Konzepte hängt wiederum mit dem Wissen des Benutzers zusammen. Weniger sachkundige user verlassen sich dazu auf das erhaltene Feedback und geht vom task und dessen Nutzen aus. Expected Utility 12

76 Definition: Subjektiver Wert, den der Benutzer durch die wichtigen QoS-Parameter erhält. Level of Control Wie unter involuntary action schon erwähnt: Die Möglichkeit des Verlustes der Kontrolle ist mit höherem Risiko verbunden, was wiederum das Vertrauen (confidence) senkt. Die Kontrolle über die netzwerkbezogenen (network-centric) Prozesse sind dem novice user nur soweit wichtig, wie er die Abläufe noch beurteilen kann. Aufgrund seines mangelnden Wissens über Netzwerkprozesse, konzentriert sich hier die Kontrolle eher auf Benutzerprozesse (user-centric). Feedback Die Menge und Art des Feedbacks ist ein äusserst wichtiger Faktor für die Bestimmung des Vertrauens (confidence). Das Feedback sollte der Situation angepasst sein. Je höher die erwartete Dienstqualität ist, desto mehr Feedback ist notwendig. Der novice user sucht immer eine Metapher in der ihm bekannten realen Welt. Die Art und die Menge des Feedbacks sollten ebenfalls dieser Metapher entsprechend gewählt sein. Wieder lässt sich das mit dem Beispiel der gut veranschaulichen: Verschickt der Benutzer eine mail, dann ist für ihn der Prozess nach dem Versand abgeschlossen. Ihm ist nicht bewusst, welche Aktionen seine Handlung noch auslöst (suchen eines Weges durchs Internet, etc.). Ein Übermass an Feedback würde ihn sehr verwirren; verbindet er doch das Schicken der mit sehr wenig Arbeit. Genau so erwartet man nach dem Abschicken eines Briefes keine Rückmeldungen mehr. Task Die wichtigsten QoS-Parameter werden durch den auszuführenden task festgelegt. Unterschiedliche tasks führen zu verschiedenen Parametern. In Abb. 3 (Seite 14) sieht man wie unterschiedlich die Anforderungen an die verschiedenen tasks sind - unabhängig vom Wissen und der Erfahrung der Benutzer. Allerdings interessieren den weniger fachkundigen Benutzer die Schichten unter der Applikationsschicht nicht. Er betrachtet nur die Applikation selbst Advanced User Das Modell des advanced users (Abb. 4) wird ein wenig anders hergeleitet. Der Prozess, bei dem die Akzeptanz eines Pricing Schemas hergeleitet wird, kann am besten durch eine structured storyline (Abb. 5) dargestellt werden. Mit dieser Darstellung wurde das Modell für den advances user hergeleitet Vergleich der beiden Modelle Vertrauen in die wichtigsten Faktoren für QoS scheint bei beiden entscheidend zu sein. Die Subkonzepte, welche zu diesem Vertrauen führen, variieren in Abhängigkeit der Benutzergruppe und des tasks. Während die sachkundigen Benutzer auf ihr Wissen bezüglich Netzwerke zurückgreifen, werden die Laien ihre Unwissenheit mit Metaphern aus der ihnen bekannten realen Welt kompensieren. 13

77 End-User Application Data Throughput Accessibility Manipulation Information Content Transport Speed Resolution Choppiness Physical Size Delay Audio Throughput Effectiveness Reliability Video Frozen Instability Interference Active/passive Manipulation Speed Abbildung 3: QoS Parameter im OSI Modell Risk Assessment Performance of + Network = Confidence User concepts Network Concepts Predictability Social Trust Contextual Trust Feedback Collective Quality Probability of unacceptable QoS Expected Utility Task Reliability Elastic Inelastic Capacity Abbildung 4: Konzept zur Akzeptanz von Preisgestaltung und QoS (advanced user) 14

78 The advanced user may gain Confidence leading to Payment Behavior:- By perceiving the coupling of user and network processes leading to:- A) A Risk Assessment of a transmission producing:- 1. A high-risk situation characterized by:- a) Network Procedures that are:- I. Unpredictable according to Feedack whih is:- i. Not qualitative and quantitative. ii. Slow iii. Untrustworthy. iv. Of inadequate amount. II. Degrade Trust ( Contextual ) by opposing expected Collective Quality. III. Have high Probability of unacceptable Expected Utility according to:- Traffic elasticity so that traffic is:- i. Elastic and the network has unacceptable reliability. ii. Inelastic and the network has unacceptable capacity. b) User Conceptions of internal network operations that:- I. Degrade Trust ( Social ) 2. A low-risk situation characterized by:- a) Network Procedures that are:- I. Predictable according to Feedback which is:- i. Quantitative as well as qualitative. ii. Fast. iii. Trustworthy. iv. Of adequate amount. II. Promote Trust ( Contextual ) by confirming expected Collective Quality. III. Have low Probability of unacceptable Expected Utility according to:- Traffic elasticity so that traffic is:- i. Elastic where the network has acceptable reliability. ii. Inelastic where the network has acceptable capacity. b) User conceptions that:- I. Promote Trust ( Social ). B) An assessment of the performance of network QoS drivers leading to a situation that produces:- 1. Concurrence with Expected Utility which results in:- a) A low performance and low Expectancy situation leading to:- I. An acceptable level of QoS. Acceptance of pricing mechanism. b) A high performance and high Expectancy situation leading to:- II. Acceptance of good QoS. Acceptance of pricing mechanism. 2. Inconcurrence with expectancies which results in:- a) A low performance and high Expectancy situation leading to:- I. An unacceptable level of QoS. Rejection of pricing mechanism. b) A high performance and low Expectancy situation leading to:- II. Acceptansce of good QoS. Rejection of pricing mechanism. Abbildung 5: Payment Behaviour: High-level Story-line 15

79 Beiden scheint das Feedback und die Abhängigkeit vom task sehr entscheidend zu sein. 3.4 Pricing Schemes Ein weiteres Ziel der Untersuchungen war, herauszufinden wie verschiedene Pricing Mechanismen, die zur Zeit diskutiert werden, akzeptiert würden. Folgende drei Schemata wurden in den focus groups diskutiert: Smart Market [7]: Für jedes Paket wird ein Preis geboten. Bezahlt wird, wenn der Andrang auf die Leitung zu gross wird. Es wird aber nicht der gebotene Preis berechnet, sondern der Preis des ersten Pakets, welches nicht ans Netzwerk weitergeleitet wird (Paket mit höchstem Angebot wird favorisiert) Quota Pricing [8]: Pakete werden gewichtet. Ein vorbezahlter Betrag (quota) wird proportional zur Summe der gesendeten Pakete reduziert. Elastischer Verkehr kann so z.b. mit einem Gewicht von 0 gesendet werden. Paris Metro Pricing [9]: Gleiche Leitungen sind verschieden teuer. Die Idee dabei ist, dass teurere Leitungen weniger attraktiv für Datenverkehr sind und somit eine höhere QoS bieten. Die Resultate dieser Untersuchung hat eine Anzahl komplizierter Prozesse hervorgebracht, die beschreiben, wie Benutzer die Pricing Mechanismen wahrnehmen. Teilweise entscheiden sich die User aber gegen diese Konzepte. Dem Smart Market z.b. wurde von den novice usern ein höheres Risiko zugeschrieben als den anderen diskutierten Modellen. Dies liegt in der Tatsache begründet, dass sie kein social trust zu der Metapher des Smart Market - eine Auktion - aufbauen können. Bei einer Auktion werden die Mitbieter direkt wahrgenommen und man weiss, welcher Preis geboten wird. Diese Metapher adäquat in eine multiplexed, multi-route Architektur umzusetzten wird sehr schwer sein. Die Benutzer akzeptieren eher ein Pricing-Schema, in welchem im Vorraus eine Quota gekauft werden kann. 3.5 Schlussfolgerung und zukünftige Arbeit Während die Leistungsfähigkeit von verteilten Netzen ständig verbessert wird, wurden die QoS Anforderungen der Benutzer bisher eher vernachlässigt. Die zuvor entwickelten Modelle der Dienstqualität und Pricing aus der Sicht des Benutzers sollen helfen, die Akzeptanz der QoS und der daraus folgenden Zahlungsbereitschaft vorherzusehen. Weiter wurde gezeigt, dass die Relevanz der QoS Parameter und Konzepte abhängig vom Wissen des Benutzers und seiner Erfahrung mit Netzwerken und des auszuführenden tasks sind. 16

80 Die Komplexität der Modelle lässt vermuten, dass es leider keine einfachen Mechanismen gibt, die das Problem weitgehend lösen. In zukünftigen Arbeiten sollen die allerwichtigsten Faktoren identifiziert und weiter analysiert werden. 4 Schlussfolgerungen Das Flatratemodell, welches immer beliebter wird, hat echte Schwachstellen. Zum einen bringt es die Benutzer dazu, Kapazität zu verschwenden. Zum anderen benachteiligt es die Mehrheit der User, welche die sogenannten Power-User stützen. Dadurch wird der Breitbandzugriff gebremst. Die Flatrate wurde für das ISP-Business unrentabel. Neue Pricing-Modelle müssen gefunden werden. Das gestaltet sich nicht einfach. Das Problem sollte nicht wie bisher von der technischen Seite her angegangen werden, sondern, will man die Bedürfnisse der Benutzer befriedigen, aus deren Sicht. Um akzeptable Pricingmodelle zu finden sind nicht nur die tasks zu berücksichtigen, sondern auch das Wissen des Benutzers. Literatur [1] Members of the M3I Consortium. M3I - Market Managed Multiservice Internet Information at: [2] A.Bouch, M. A. Sasse A User Perspective of Network QoS and Pricing. [3] Perry. C. (1995) Travelers on the Internet: A survey of Internet users. Online, 19, (2), pp [4] Strauss, A., & Corbin, J. (1990) Basics of qualitative research: Grounded theory procedures and techniques. Sage. [5] Adams, A. and Sasse, M.A. (in press). Users are not the enemy. Communications of the ACM. [6] Adams, A. and Sasse, M.A., and Lunt, P. (1997). Making passwords secure and usable. In Thimbleby, H., O Conaill, B., Thomas, P. (Eds.). People & Computers XII, Proceedings of HCI 97 in Bristol, August p Springer [7] Mackie-Mason, J.K., and Varian, H.R. (1994) Economic FAQs about the Internet. Journal of Economic Perspectives, 8, (3), pp

81 [8] Bohn, R., Brauch, H.W., and Wolff, S. (1994) Mitigating the coming Internet crunch: Multiple service levels via Precedence. Applied Network Research Technical Report, GA-A University of California. [9] Odlyzko, A. (1997) A modest proposal for preventing Internet congestion. Available from amo/doc/recent.html R.Edell & P.Varaiya, Providing Internet Access: What we learn from INDEX. University of California Karyen Chu, Nov.1999, User Reactions to Flat Rate Options under Time Charges with Differentiated Quality of Access: Primary Results from INDEX. University of California 18

82 Internet Services for E-Commerce Support Seminar Internet Economics WS 2000/2001, ETH Zürich Reto Baumann Christian Stillhard "e-business is not a technological change. It's a fundamental change of the way business will be done - aided, abetted, supported, and enabled by technology." Lou Gerstner, Chairman & CEO of IBM 1

83 1. Einführung Das moderne Geschäftsleben zeichnet sich durch ein stetiges Anwachsen von Angeboten, globalem Wettbewerb und Kundenerwartungen aus. Als Antwort darauf sind Unternehmen in der ganzen Welt dabei, ihre Organisationsstruktur und ihre Geschäftsabläufe zu ändern. Wie in der untenstehenden Abbildung dargestellt, werden alte hierarchische Strukturen vereinfacht und Abgrenzungen zwischen internen Abteilungen abgeschafft. Die Schranken zwischen dem Unternehmen und seinen Kunden und Anbietern werden niedriger. Geschäftsabläufe werden neu konzipiert, damit diese alten Grenzen überwunden werden können. Es gibt viele Fälle, in denen das gesamte Unternehmen und sogar Geschäftsprozesse sich in gemeinsamem Besitz des Unternehmens und seiner Kunden oder Anbieter befinden und gemeinsam betrieben werden. Abbildung 1: Neue Unternehmensstrukturen und -verfahren Electronic Commerce ist ein Instrument, mit dem diese Veränderungen auf globaler Ebene möglich werden und unterstützt werden. Es versetzt Unternehmen in die Lage, effizienter und flexibler in internen Abläufen zu sein, enger mit Anbietern zusammenzuarbeiten, und besser auf die Bedürfnisse und Erwartungen ihrer Kunden einzugehen. Unabhängig von geographischen Aspekten kann sich das Unternehmen für die besten Anbieter entscheiden und seine Waren auf einem globalen Markt vertreiben [1]. Die Rolle der Internettechnologie im E-Commerce hat zwei Seiten: Einerseits ermöglicht, schafft und fördert sie E-Commerce Applikationen und ist verantwortlich für die rasante Entwicklung. Anders gesagt, das Internet treibt die Entwicklung an. Andererseits ist sie die Plattform, die darrunterliegende Technologie und hat zur Aufgabe den Anforderungen gerecht zu werden, die von den Applikationen gefordert werden. Die Ansicht, das Internet und damit die Technologie sei die treibende Kraft gerät immer mehr in den Hintergrund. Es hat sich gezeigt, dass Misserfolge unvermeidlich sind, wenn neue, interessante Angebote geschaffen werden, diese aber nicht von einem grundlegenden Bedürfnis ausgehen. Die vielen Konkurse von Internet-Startups belegen dies. Es ist das Ziel der folgenden Ausführungen aufzuzeigen, dass die Internettechnologie ein Hilfsmittel für den E- Commerce ist und damit ganz bestimmten Anforderungen gerecht werden muss. Es wird erklärt, welche Aufgaben vom Internet schlecht gelöst werden und wie diese Lücken durch Internet Services geschlossen werden können. Dabei wird sich zeigen, dass die Internet Services sehr hilfreich sind, aber für eine nachhaltige Entwicklung des E-Commerce fundamentale Änderungen des Internet nötig sein werden. Die Veränderung von Geschäftsprozessen wird folglich als Grundlage für die Auseinandersetzung mit Internet Services genommen. Im zweiten Kapitel wird auf den Begriff E-Commerce eingegangen und gezeigt, wofür E- Commerce überhaupt steht. Ziele, Strategien und Auswirkungen werden aufgegriffen genauso wie quantitative Überlegungen zum Marktpontential des E-Commerce. 2

84 In einem nächsten Abschnitt wird aufgezeigt mit welchen Applikationen E-Commerce realisiert werden kann bzw. realisiert wird. Dabei werden die Applikationen auf ihre ökonomischen Auswirkungen, den aktuellen Stand der Entwicklung und ihr Potenzial im Markt hin untersuchen. Von Interesse ist auf der andern Seite auch die technische Sicht. Charakteristiken wie benötigte Bandbreite, Verfügbarkeit, Zuverlässigkeit oder Sicherheit werden aufgezeigt. Aufbauend auf den extrahierten technologischen Anforderungen an die Internetinfrastruktur werden verschiedene Internet Services erklärt. Dies beinhaltet nebst einer Übersicht über die Funktionsweise und die Anforderungen an die Netzwerk Technologie vor allem ökonomische Aspekte. Diese beinhalten den erzielbaren Mehrwert, Chancen und Risiken und Möglichkeiten bei der Eingliederung in Geschäftsprozesse. Das Ziel ist es, aufzuzeigen welche Internet Services das Potential haben, im Markt erfolgreich zu sein. Im letzten Kapitel wird nochmals auf die oben erwähnten Ziele eingegangen und ein Fazit gezogen. Dies geschieht in Verbindung mit einer Auflistung der dringensten Anforderungen für eine nachhaltige Entwicklung des E-Commerce. 2. E-Commerce 2.1 Was ist E-Commerce Es gibt eine fast unendliche Vielfalt von Definitionen von E-Commerce. Oft wird E-Commerce gleichgesetzt mit E- Business, manchmal wird unter E-Commerce nur das Electronic Trading verstanden also das reine Austauschen von Waren gegen Geld über elektronische Medien. Die folgende Definition deckt sich mit vielen Ansichten, vermag aber wie die meisten Definitionen das ganze Ausmass des E-Commerce nicht abz udecken. Definition E-Commerce [2]: Electronic Commerce is any use of electronic networks and technology for commerce and other economic activities. This includes the use of electronic communication as the medium, through which goods and services of economic value are designed, produced, advertised, catalogued, and inventoried, purchased and accounts settled. Global Information Infrastructure Commision Eine bedauerliche Eigenschaft von Definitionen von E-Commerce ist, dass sie generell entweder zu fest od er gar nicht einschränken. Alle ökonomischen Aktivitäten über alle elektronischen Netzwerke es ist angebracht hier einen Überblick zu geben, was damit alles gemeint ist. Wie in Abbildung 1 aufgezeigt wird, erstreckt sich E-Commerce über die ganze Wertschöpfungskette. Vom Kunden über eine Reihe von Unternehmen, bis zu den Rohstofflieferanten. Eine wichtige Position in dieser Kette hat der Staat, der durch die elektronifizierung seiner Beschaffungsmassnahmen aber auch durch seine Verwaltungsaufgaben wie Mehrwertsteuer, Zölle, etc. ebenfalls integriert werden muss. Der E-Commerce spielt dabei sowohl als Schnittstelle zwischen den Parteien als auch innerhalb der Unternehmen eine Rolle. 3

85 Abbildung 2: Kategorien im Electronic Commerce E-Commerce Anwendungen können nach ihrer Komplexität in Ebenen eingeteilt werden: Abbildung 3: Ebenen des Electronic Commerce Mit steigender Komplexität steigen auch die Auswirkungen des E-Commerce auf die Strategien im Unternehmen. Anwendungen, die gemeinsame Geschäftsprozesse implementieren, erfordern in den meisten Fällen grundsätzliche Änderungen der Abläufe, der Strukturen aber auch der Denkweise in Unternehmen. Diese Änderungen gehen oftmals einher mit einer stärkeren Kundenorientierung und damit einer stärkeren Gewichtung der Marketingstrategien. Beispiel dafür sind Tendenzen wie Direct-Marketing, Customer-Profiling, etc. Auf der Business-to-Business Seite erhalten Entwicklungen hin zu stärkerer Integration von Kunde und Lieferant einen Vorwärtsschub. Der Umfang des E-Commerce ist enorm. Die folgende Tabelle zeigt die Vielzahl verschiedenster geschäftlicher Operationen und Transaktionen auf [1]: Marketing im weitesten Sinne Erstellung des Erstkontakts, z.b. zwischen einem potentiellen Kunden und Anbieter Austausch von Informationen Kundensupport vor und nach dem Kauf (Detailangaben zu verfügbaren Produkten und Dienstleistungen, technische Anweisungen zur Produktverwendung, Reaktion auf Kundenfragen,...) Verkauf Elektronischer Zahlungsverkehr (Electronic Funds Transfer, Kreditkarten, elektronische Schecks, Electronic Cash) 4

86 Vertrieb, sowohl Vertriebsmanagement und Verwalten physisch vorhandener Produkte, als auch tatsächlicher Vertrieb von Produkten, die elektronisch geliefert werden können. Virtuelle Unternehmen - Gruppierungen unabhängiger Unternehmen, die ihre Kompetenz zusammenführen, so dass Produkte oder Dienstleistungen angeboten werden können, die von den Unternehmen allein nicht bereitgestellt werden könnten. Gemeinsame Geschäftsverfahren, die sich in gemeinsamem Besitz befinden und von einem Unternehmen und seinen Handelspartnern betrieben werden. Darüber hinaus steht E-Commerce für eine Vielzahl von Kommunikationstechnologien. 2.2 Ziele Effiziente Geschäftsprozesse Ein wesentliches Ziel des E-Commerce besteht darin Medienbrüche und Schnittstellen in Wertschöpfungsketten und Geschäftsprozessen zu eliminieren. In der Regel haben die traditionellen Prozesse an Organisationsgrenzen vielfältige Medienbrüche. Elektronisch vorhandene Informationen werden auf klassischem Weg, also telefonisch, per Fax, schriftlich nach aussen gegeben. Der vollautomatische elektronische Informationsaustausch zwischen Unternehmen und zwischen Unternehmen und Verbraucher ist nicht die Regel, sondern eher die Ausnahme. Mit Hilfe des E-Commerce wird eine elektronische Abwicklung von Geschäftsprozessen und die elektronische Informationsweitergabe über Organisations - bzw. Unternehmensgrenzen mit dem Ziel der Effizienzsteigerung und Beschleunigung von Geschäftsprozessen angestrebt [3] Geschäftsbeziehungsmanagement Ein weiterer wesentlicher Aspekt von E-Commerce ist das digitale Management der Geschäftsbeziehung. Dahinter verbirgt sich der Gedanke, alle Leistungen, die ein Kunde von einem Anbieter haben möchte und die sich in digitaler Form erbringen lassen, auch entsprechend über das Netz zu erbringen. Dies schließt explizit die Phase der Informationsbeschaffung im Pre-Sales-Bereich, die Phase der Abwicklung eines Auftrages und die Phase der Kundenbetreuung im After-Sales-Bereich mit ein. Was immer ein Kunde im Laufe einer Geschäftsbeziehung von einem Anbieter an Leistungen - über das Produktoder Dienstleistungsspektrum hinaus - bekommen möchte, sollte, sofern dies möglich ist, in elektronischer Form über das Internet erbracht werden. Auf diesem Wege entsteht für beide Seiten wegen der geringen Transaktionskosten und der effizienteren Bearbeitung ein Vorteil. Über eine optimale Erfüllung der Kundenbedürfnisse entsteht eine perfekte Bindung der Kunden an den Anbieter [3]. Abbildung 4: Was ist e-commerce gemäss Webagency [3] 5

87 2.3 Marktpotential Aufgrund der weitgreifenden Auswirkungen des E-Commerce ist es schwer, diese in Zahlen zu fassen. Insbesondere ist es eine Herausforderung für sich, die Zahlen in Relation zu setzen. Was bedeuten Einkünfte von $1.3 Billionen im Jahr 2003 im B2B Internet Commerce? Deshalb an dieser Stelle eine Sammlung von Zahlen, auf die aber nicht im Detail eingegangen wird. - [15]: E-Commerce Einkünfte 1998: $50 Milliarden - [15]: E-Commerce Einkünfte 2003: $1.3 Billionen - [15]: Davon B2C: $177.7 Milliarden - [16]: E-Commerce Einfünfte werden bis 2003 $3.95 Billionen erreichen - [16]: E-Commerce wird 7% der globalen Verkaufstransaktionen ausmachen - [17]: US B2B E-Commerce wird jährlich um 33 Prozent wachsen und 2003 $2.8 Billionen erreichen Es hat sich herausgestellt, dass viele Prognosen betreffend der E-Commerce Entwicklung zu euphorisch waren und die Probleme die der Wandel ins Informationszeitalter mit sich bringt nicht unterschätzt werden dürfen. Es ist bemerkenswert, dass der B2C E-Commerce wertmässig nur einen Bruchteil des B2B E-Commerce ausmacht. 3. E-Commerce Applikationen und Services 3.1 Übersicht Der Umfang des E-Commerce ist sehr gross. Die meisten Bereiche eines Unternehmens sind davon betroffen. In diesem Kapitel soll eine Übersicht über E-Commerce Applikationen gegeben werden. Dabei wird untersucht, welche Stellung diese im E-Commerce haben: Wie kritisch ist die Applikation für das Geschäft, welche Möglichkeiten bietet die Applikation und wieweit ist die Entwicklung derselben schon fortgeschritten. Es wird aufgezeigt, welche Anforderungen die Applikationen an die Internet Infrastruktur stellen. Lucent hat in einer Befragung [7] von Netzwerkexperten die Aktivitäten im E- Commerce eruiert. Es zeigt sich dabei, dass das Hauptgewicht auf Applikationen zur Zusammenarbeit (Collaborative Applications) liegt. Das Publishing von Informationen ist bei 49% der Antwortenden implementiert. Diese Bereiche werden auch in nächster Zeit ein starkes Wachstum erfahren. Zu bemerken gilt es auch, dass auf der Weiterentwicklung von Transaktions - applikationen viel Wert gelegt wird. Abbildung 5 Die nachfolgende Analyse von E-Commerce Applikationen teilt diese in funktionale Kategorien ein: Publishing, Collaborative Applications und Transaktionen. Die Kategorien unterscheiden sich durch die Komplexität der technischen Lösungen. Damit korreliert auch die zeitliche Entwicklung und Verbreitung mit der Kategorisierung. 6

88 3.2 Publishing Umfang electronic publishing is electronic commerce in digital goods and services that are intended for consumption by the human senses Roger Clarke Principal, Xamax Consultancy Pty Ltd, Canberra Dies sind einige Beispiele von digitalen Gütern, die durch die Definition beinhaltet: Dokumente in elektronischer Form, auch Artikel und Bücher Daten, inklusive Statistiken Schwach ändernde Referenzinformation, wie Wörterbücher oder Enzyklopädien Stark ändernde Referenzinformationen wie Nachrichten und Wettervorhersagen Tonwiedergabe wie Vorträge und Musik aus der Konserve Bildwiedergabe und Animationen wie Television, Filme, Cartoons und Video-Clips Entertainment, infotainment, edutainment und education via Multimedia. Die Definition schliesst jegliche Inhalte aus, die nicht für menschliche Sinne vorgesehen sind, also Software, Buchungen und jeglicher Handel. Ebenfalls ausgeschlossen sind interaktive Dienste wie interactive voice und video. Publishinginhalte folgen gemäss Definition einem Einweg Konzeptionierung-Produktion-Lieferung-Konsum Schema Rolle im E-Commerce Als früh etablierte Internet Applikation nimmt das Publishing im E-Commerce heute eine sehr wichtige Rolle ein. Es hat viele der Merkmale der Wirtschaft gefördert oder erst ermöglicht: Dazu gehören die Globalisierung, die starke Orientierung an Kundenbedürfnissen oder die intensive Auseinandersetzung mit Wissen als Kapital. Die ökonomischen Auswirkungen durch den Einsatz von Publishing Applikationen: - Umsatzsteigerung: Der Aufwand, einen potentiellen Kunden anzusprechen und mit Informationen zu versorgen ist dank dem Internet viel kleiner als über konventionelle Wege, da dass das Internet den historischen Tradeoff zwischen Informations-Reichtum und Erreichbarkeit eliminiert: Detaillierte, reiche Information konnten nur durch beschränkte Kanäle verbreitet werden und erreicht damit nur eine kleine Gruppe. Die breite Verteilung von Informationen bedeutete das Versenden einer verallgemeinerten Nachricht an viele Empfänger. Das Internet ermöglicht es, mit personalisierter und damit reicherer und wertvollerer - Information eine grössere Gruppe anzusprechen. - Kostensenkung: Es müssen weniger Informationskanäle beansprucht werden müssen. So kann z.b. auf das Versenden von Katalogen verzichtet werden, wenn ein Entsprechender Dienst über das Internet angeboten wird. Mit der zunehmenden Digitalisierung aller Information kann durch das Publishing über das Internet ein Medienbruch verhindert werden. - Qualität: Die Leistungen um ein Produkt, aber auch das Produkt selber können verbessert werden durch das gezielte Auswerten der Kundenprofile. Die Profile können über das Internet sehr detailliert erstellt werden. - Kundenbeziehungsmanagement: Der Kunde kann durch auf ihn abgestimmte Informationen bei Fragen und Problemen betreut werden. Dies erhöht die Kundentreue. Die Erkenntnis, dass Wissen ein wertvolles Kapital ist und es dementsprechend verwaltet werden sollte hat zu dem Entstehen von Wissensmanagement Anwendungen geführt. Diese sind Publishing Applikationen, jedoch mit 7

89 erweiterter Funktionalität zur Unterstützung von Abläufen. Sie steigern die Effizienz in einem Unternehmen wesentlich. Das Branding bzw. das Image eines Unternehmens wird immer stärker durch seine Website geprägt. Der Benutzer identifiziert eine Firma zunehmend über dessen Repräsentation auf dem Web und macht es damit zu einem wichtigen Marketinginstrument. Es entstehen neue Geschäftsmodelle. Eines davon sind die Infomediäre, die sich mit dem Profiling von Kunden beschäftigen Entwicklung Das Publishing hat sich mit der Entwicklung der elektronischen Kommunikation stark verändert. Publishing Industrie gerät unter Druck: Typisches Merkmal sind die Rollen eines Produzenten und eines Konsumenten. Dazwischen steht die Werte- Kette der Publishing Industrie. Diese beinhaltet den gesamten Prozess vom rohen Inhalt hin zur Präsentation des Inhalts also Gestalten, Drucken, Vervielfältigen, etc. Dieses Zwischenglied ist mit der Entwicklung vom konventionellen Publishing über das Desktop Publishing zum Electronic Publishing weggefallen bzw. es hat sich geändert. Dies hat zwei ökonomische Auswirkungen. Einerseits muss die Publishing Industrie sich neuorientieren und offen gegenüber Alternativen sein. Andererseits und dies ist im Zusammenhang mit dem Internet der wichtige Punkt hat der Produzent effizientere und kostengünstigere Möglichkeiten, Informationen zu veröffentlichen. Publishing wird interaktiv: Die heute verfügbaren Technologien ermöglichen es dem Konsumenten mit dem Inhalt zu interagieren indem sie ihn ändern oder neue Versionen abspalten. Dies bedeutet, dass die Rolle des Konsumenten zu einer Produzenten- Konsumenten Rolle wird. Das ganze Modell des Publishing entwickelt sich daher von einer sequentiellen Kette zu einem Cluster, man spricht von dem Honey Pot [4]. Dies ist im Grunde genommen ein Wiederspruch zu der konventionellen Definition des Publishing. Und tatsächlich lassen diese Entwicklungen Zweifel aufkommen, ob der Begriff Publishing noch weiter bestehen kann. Dank der Interaktivität des Publishing ist eine viel komplexere Auswertung des Feedbacks auf die Informationen möglich. Die Vorzüge und Bedürfnisse des Kunden können analysiert und in einem Profil festgehalten werden. Abbildung 6: Publishing wird interaktiv Technologische Anforderungen B2C: Denken wir an das Internet wie wir es heute erleben so beherrschen Ausdrücke wie World Wide Wait, http 404, Streaming with 15kbps, etc. vor. Andererseits zeichnet sich auch klar das Potential von Multimedia-Inhalten ab. Trotzdem ist vor allem im B2C Bereich eine gewisse Akzeptanz dieser Performance Probleme vorhanden, da die Dienste meist gratis sind. Es stellen sich zwei grundlegende Herausforderungen, die eng miteinander Verknüpft sind: - Bereitschaft für Informationsdienste zu zahlen - Performance der Internet Infrastruktur bei der Bereitstellung der Inhalte Auf den ersten Punkt soll hier nicht eingegangen werden. Der Zweite jedoch anhand einiger Zahlen erläutert werden: Abbildung 7:Prozentuale bailout rates 8

90 Zona Research [5] hat bailout rates (Prozentualer Anteil der Besucher, die nicht warten, bis die Webseite fertig geladen ist, sondern zu anderen Seiten weitergehen) untersucht [6]. Die Studie zeigte, dass 50% der Leute die eine Seite grösser als 70kB laden wollen nicht warten, bis der volle Inhalt verfügbar ist. Typischerweise haben 40kB Seiten eine 30% bailout rate, währen 34kB Seiten nur eine 7% bailout rate haben (siehe Abbildung 7). Die ökonomischen Auswirkungen: Art der Seiten Beispiele Auswirkungen Stark frequentierte Seiten Portale, Suchmaschinen, News, Top100 Verlieren Banner Einkünfte Handel Online Kataloge und Shops Verkaufseinbussen Streaming Media Seiten Video/Audio on demand Besucher kehrt nicht wieder zurück B2B: Die Hauptproblematik liegt hier in der Sicherheit. Das Publishing von Dokumenten, sowohl firmenintern wie auch für Partner und Kunden ist vor allem von Bedenken um die Authentizität und Geheimhaltung geprägt und hält aus diesen Gründen Fax und Brief am leben. Eine adäquate Infrastruktur ist noch nicht vorhanden. Die Probleme und Ursachen dieser Tatsache wird in Kapitel 4.3 eingegangen. Die wichtigste Herausforderung für eine uneingeschränkte Verbreitung von elektronischem Publishing von Informationen liegt weniger auf der technischen Seite: Strategien und Prozesse müssen zunächst entwickelt werden. Dies illustriert eine Umfrage von Lucent Technologies: Für die befragten Unternehmen sind diese zwei Punkte zunächst zu lösen, bevor es daran geht, eine E-Business Netzwerk Architektur anzugehen: Abbildung 8 Es lassen sich folgende technische Anforderungen zusammenfassen: - Verfügbarkeit - Ausfallsicherheit - Reduktion von Delays - Security Infrastruktur - Netzwerk Ressourcen Management 9

91 3.3 Collaborative Applications Umfang Unter Collaborative Applications, also Anwendungen zur Zusammenarbeit, versteht man Software zur Unterstützung des Informationsaustausches zwischen zwei Personen. Dies im Gegensatz zu den Publishing Applikationen wo der Informationsfluss nur in eine Richtung geht und die Empfänger eine Gruppe von Personen sind. Im Unterschied zu den Publishing- und den transaktionsbezogenen Applikationen (siehe Kapitel 3.4) agiert der Mensch als Informationssender bzw. Empfänger. Man kann zwei Konzepte zum Informationsaustausch erkennen: Bei der synchronen Kommunikation sind beide Parteien zur selben Zeit aktiv. Analog zu einem Telefongespräch ist die Verzögerung zwischen Frage und Antwort klein. Die async hrone Kommunikation folgt dem Postfachprinzip: Die Information wird vom Empfänger abgeholt und damit ist die Zeit kein kritischer Faktor für die Qualität der Kommunikation. In wird aufgezeigt, dass diese Merkmale einen Einfluss auf die Anforderungen an die Technologie haben. Messaging Dazu gehört , die neueren Formen wie Instant Messaging, Unified Messaging, aber auch Fax. Der -Dienst ist standardisiert und gut etabliert. Die wichtigen und interessanten Aspekte sind in diesem Fall weniger technischer Natur als vielmehr Fragen des optimalen Einsatzes dieses Werkzeugs. Der einfache Transport einer Nachricht an eine Adresse genügt nicht. Dies kann am Beispiel eines Call Centers illustriert werden: Eine an muss aufgrund von bestimmten Regeln geroutet werden, sie muss von einem case-management System gelinkt werden mit früheren Nachrichten desselben Falls und je nach Situation mit Vorschlägen für Antworten angereichert werden. Dienste dieser Art nennt man Customer-Facing E- Mail Packages [19]. Auf der technischen Seite muss die Vertraulichkeit von Nachrichten gewährt werden. Sie wird viel zu oft vernachlässigt bzw. zumindest nicht konsequent berücksichtigt. So gut standardisiert ist, so schlecht ist dies beim Instant Messaging gelöst. Es finden sich viele Tools (ICQ, AIM, Zephyr, etc.) wobei sich aber keines als Business Applikation durchzusetzen vermag. Das Instant Messaging ist heute eine Domäne der privaten Internet User. Es unterscheidet sich von insofern, als dass es zeitsensitive Informationen enthält. Ein weiterer Unterschied liegt in der Art, wie der Client die Information erhält (Push nicht Pull). Unified messaging is the integration of several different communications media, such that users will be able to retrieve and send voice, fax, and messages from a single interface, whether it be a wireline phone, wireless phone, PC, or Internet-enabled PC. [8] Die Idee hinter Unified messaging ist es demzufolge, die Hindernisse von unterschiedlichen - Medien - Zugangsgeräten - Technologien zu eliminieren also die Kommunikationstechnologien konvergieren zu lassen. Die wesentliche Herausforderung liegt hier im Etablieren von Standards. Dies ist insofern schwierig, als dass schon sehr viele Produkte sich etabliert haben. Für Sprachnachrichten ist der Voice Profile for Internet Mail (VPIM) Standard sich am etablieren. Das Fax Pendant ist der Fax Profile for Internet Mail (FPIM) Standard. Abbildung 9: Unified messaging CSCW/Groupware CSCW (Computer Supported Cooperative Work) bezeichnet die theoretischen Grundlagen bzw. die Methodologien für Gruppenarbeit und deren Computerunterstützung. Groupware bezeichnet Systeme, die Gruppenarbeit unterstützen; deren Realisierung integriert die theoretischen Grundlagen spezifiziert im Rahmen von CSCW. 10

92 Nach Johansen [20]: Groupware is a generic term for specialized computer aids that are designed for the use of collaborative work groups. Typically, these groups are small project-oriented teams that have important tasks and tight deadlines. Groupware can involve software, hardware, services and/or group process support." Produkte wie Lotus Domino, Novell GroupWise, Microsoft Exchange oder Netscape SuiteSpot stehen für typische Groupware Dienste. Im Prinzip fallen aber Messaging und Conferencing Applikationen ebenfalls unter diesen Begriff. Conferencing Tools [10] Video- und Audio-Conferencing sind schon lange etablierte Dienste. So hat z.b. Sprint Conferencing schon seit 1982 Video-Conferencing im Angebot. Der Zugang geschah jedoch nicht über das Public Internet, sondern über nach Bedarf aufgebaute direkte Verbindungen (siehe Abbildung 10). Die Herausforderungen für die Anbieter (AT&T, MCI, Sprint, Bell Atlantic sind die Grossen, viele neue wie Qwest, Level 3, Enron sind am entstehen) besteht mit der Verfügbarkeit von Video over IP im Web-Enabling ihrer Applikationen. On-Demand conferencing war bis anhin kaum möglich und so musste eine Konferenz im vornherein bestellt und angemeldet werden. Technische Herausforderungen liegen in der Etablierung eines Streaming-Standards und natürlich in der fehlenden Bandbreite. Videoconferencing Market (World): Percentage of ISDN vs. IP Calls, ISDN IP Year (%) (%) Abbildung 10 IP Telephonie Über packet-switched Netzwerke wie das Internet kann Sprache sehr effizient übertragen. Die benötigte Bandbreite (8Kbps) ist dank Kompression viel kleiner als bei den traditionellen, circuit-switched Telefon Netzwerken. Aufgrund von Problemen im heutigen Public Internet was die Quality of Service (QoS) und die Bandbreite anbelangt (näher erklärt in Kapitel 4), kommt IP Telefonie haupsächlich in Firmennetzwerken zum Einsatz. Vor allem bei internatioal tätigen Unternehmen kann dies wesentliche Einsparungen bei den Verbindungskosten bedeuten. Zusätzlich fällt der Unterhalt der proprietären Telefonsysteme weg Rolle im ECommerce Die Collabortive Applications finden in sehr vielen Bereichen des Geschäftslebens Anwendung. Sei das ganz allgemein in der Projektarbeit, oder in Gebieten wie dem Collaborative planning, der Product life cycle collaboration, etc. Die ökonomischen Auswirkungen: - Umsatzsteigerung: Bessere Kundenbetreuung und bindung durch interaktive Informationsdienste erhöhen den Verkauf. - Kostenreduktion: Der Unterhalt von einheitlichen Medien, Technologien und Zugangsgeräten ist wesentlich billiger. Dienste wie z.b. komplizierte, proprietäre Voice-Message Systeme müssen nicht mehr aufrecht erhalten werden. Kosten können auch eingespart werden durch Auslagern von Diensten. Dies wird dank der vereinheitlichten Kommunikation möglich. - Effizienzsteigerung: Zusammen mit der Digitalisierung der Informationen ermöglichen die Collaborative Applications einfacheren Informationsaustausch. In der Effizienz äussern sich auch kürzere Übermittlungszeiten und der Abbau von geographischen Hürden. Zudem entstehen ganz neue Wege der Zusammenarbeit (z.b. zwischen Unternehmen) Entwicklung Viele Entwicklungen sind oben schon angedeutet worden. Zusammenfassend kann man sagen, dass die Kommunikationsmöglichkeiten in der Gruppe noch enorm zunehmen werden. Konvergenz ist in diesem Bereich in wichtiges Stichwort. Medien, Abläufe und die Infrastruktur werden zusammenkommen. 11

93 Auf einer sozialen Ebene wird die Entwicklung geprägt sein durch Sammeln von Erfahrungen im Umgang mit den neuen Kommunikationsmedien. Bessere Kommunikation erreicht die Ziele nur, wenn sie strukturiert abläuft. Nachdem sich gezeigt hat, dass VoIP funktionieren kann, werden verstärkte Anstrengungen aller Infrastrukturanbieter zu dessen Unterstützung zu beobachten sein Technologische Anforderungen Die asynchronen Messaging Applikationen sind, was die Netzwerktechnologie anbelangt, bereits gut unterstützt, da zeitliche Verspätungen in Kauf genommen werden können. Dennoch wird aufgrund der reicheren Medien (Bild und Ton) die Performance ganz allgemein für diesen Bereich an Bedeutung gewinnen. IP Telephonie und Conferencing haben wesentlich höhere Anforderungen, die, wie bei der Internet Telephonie zu beobachten war, für die weitere Entwicklung entscheidend sind. Garantien für Quality of Service müssen gemacht werden können. Beim VoIP ist der Schlüsselpunkt die Verwaltung des End-to-End Network Delay. Dies kann nur erreicht werden, wenn der Level der Network Congestion kontrolliert werden kann. Vor allem für die Etablierung von Video-Conferencing ist die Verfügbarkeit von Bandbreite im öffentlichen Internet ein kritischer Faktor. Die Verbreitung von Multicast Plattformen wird für das Video-Conferencing ebenfalls entscheidend sein. 3.4 Transaktionen Transaktionen wird hier im Sinne des Lebenszyklus eines Kaufs bzw. Verkaufs verstanden. Die Integration von bestehenden Backoffice Systemen in E-Commerce Plattformen ist einer der entscheidenden Punkte für dessen Entwicklung. Eine vollständige Integration ist sehr aufwendig und benötigt viele Ressourcen. Aus diesem Grund sind viele proprietäre Transaktions-Modelle im Einsatz. In diesem Kapitel werden Transaktionsmodelle erläutert und auf die Standards hingewiesen Umfang E-Commerce wird generell in B2C und B2B eingeteilt. Um im Transaktionsbereich dem Anspruch nach einer funktionalen Einteilung gerecht zu werden, ergeben sich folgende Kategorien [12]: - Sell-Side Applications - Buy-Side Applications - The Electronic Marketplace Sell-Side Applications (Verkauf) Sell-Side Software bietet einem Unternehmen Lösungen zum Verkauf von Gütern und Diensten an Konsumenten oder andere Unternehmen über das Internet. Zu den Applikationen aus diesem Bereich gehören: - Katalogsysteme - Produktkonfiguatoren für komplexere Produkte - Shopping Carts - Offerten - Personalisierung - Bestellungsmanagement - Bezahlung Zu diesem Bereich gehört auch das Angebot des Internet Banking. Wie wir bei der Erläuterung des OBI Standards sehen werden sind sehr viele Transaktionen hinter dem Kauf eines Gutes oder Dienstes verborgen. 12

94 Buy-Side Applications (Beschaffung) Diese Kategorie beinhaltet Applikationen, die von Unternehmen benützt werden, um ihren Einkauf zu managen. Es geht dabei sowohl um indirekte Güter wie Unterhalt, Reparaturen und Betrieb, aber auch um direkte Güter wie Services, Infrastruktur und Rohstoffe bzw. Teilprodukte. Für E-Business auf Unternehmungsebene geht es darum, die Beschaffung auf den einzelnen Arbeitsplatz auszudehnen (alle haben Zugang) und die Beschaffung zu koordinieren. Dies bedeutet z.b., dass die Beschaffung von Verbrauchsmaterial auf Unternehmensebene gebündelt werden kann und so von Mengenrabatten und kleineren Umtrieben profitiert werden kann. Um die Verbindung mit den Sell-Side Applikationen herzustellen, können z.b. individuell auf die Bedürfnisse des Unternehmens konfigurierte Anbieter-Kataloge zum Einsatz kommen. Immer mehr sind diese Applikationen auch mit Backoffice Systemen integriert. Ein Beispiel dafür wäre die Kopplung an ein Budgetsystem um die Ausgaben zu überwachen. The Electronic Marketplace Dies ist das neueste Modell von E-Business. Die Infrastruktur des Internets wird benützt um sogenannte online trading communities aufzubauen und zu fördern. Diese Applikationen bilden virtuelle Communities die mehrere Anbieter und Käufer zusammenbringen. Auktionen sind oftmals Teil eines Marketplaces. Standards EDI (electronic data interchange) ist ein älterer, etablierter Standard. Er ist nicht internetbasiert (Anstrengungen dazu sind natürlich im Gange) und deshalb soll hier nicht näher darauf eingegangen werden. Zwei wesentliche Standards wurden entwickelt, um offene Internetplattformen zu fördern. OBI (Open buying on the internet) im B2B E-Commerce und OTP (Open trading protocol) im B2C E -Commerce. OBI ist ausgelegt auf die Vermittlung von high-volume, low-value Transaktionen. Der Fokus liegt bei der Version 1.1 von OBI auf folgenden Prozessen: - Access der Nachfrager greift auf einen spezialisierten Katalog beim Anbieter zu - Ordering das Format der bei der Bestellung involvierten Informationen - Transmission Methoden für die Übermittlung von Bestellungsdaten zwischen Unternehmen - Security Mechanismen für Authentifizierung, sichere Kommunikation und Unleugbarkeit OBI basiert auf SSL für die sichere Kommunikation und benutzt den X.509 Standard für Authentifizierung. Bestellungsanfragen werden über http transportiert. Die wichtigsten E-Commerce Plattformen wie Netscape s Xpert Server oder Commerce One unterstützen den OBI Standard. Das Ziel von OTP ist es, Kaufsvereinbarungen, Produktangebote, die Lieferung von Gütern und Diensten, die Ausstellung von Kaufsbestätigungen und die Problemlösung zu standardisieren. Es umfasst also den gesamten Lebenszyklus einer Transaktion Rolle im E-Commerce Die Automation von Beschaffung birgt gewaltiges Kostensparpotential. In Koppelung mit der Einführung einer unternehmensweiten Beschaffungsinfrastruktur wird dies noch verstärkt. Die folgende Grafik zeigt eine Schätzung von Andersen Consulting [13] zu den Auswirkungen von Dynamic Commerce. 13

95 Abbildung 11: Auswirkungen von Dynamic Commerce Wenn von der Reduk tion der Kosten gesprochen wird, dann bedeutet dies nicht nur, dass bestehende Prozesse optimiert werden, sondern es wird möglich auf Intermediäre zu verzichten und so Werteketten zu optimieren. Neue Mechanismen, wie z.b. zur Preisbildung oder zur Analyse des Kunden, ermöglichen interessante neue Geschäftsmodelle Entwicklung Mit der voranschreitenden Standardisierung von Schnittstellen werden Unternehmen immer mehr Verkaufsfunktionalität kaufen, anstatt sie selber zu bilden. Ein interessanter Aspekt ist dabei, wer die Lösungen anbieten wird. Application Servcie Providers (ASPs, siehe Kapitel 4.5) werden aufgrund Ihrer Business Modelle keine auf Kundenwünsche angepasste Lösungen bieten können. Die ISPs haben zwar die Infrastruktur in ihren Händen, es fehlt ihnen aber am Wissen über das Business. Ganz allgemein wird die Integration in bestehende Systeme weiter voranschreiten. Dies eröffnet viele Möglichkeiten: Durch Verbindungen zu Realtime Lagerverwaltungssystemen wird der Kunde z.b. abrufen können, ob bzw. wann ein Produkt verfügbar ist. Mit der Vergrösserung der Teilnehmer im E-Business werden Mechanismen wie Preisverhandlungen weiter verbreitet werden Technologische Anforderungen Wie folgende Umfrage zeigt (Die Software für Beschaffung über das Internet ist repräsentativ für viele Internetanwendungen im Business to Business Bereich), liegen die wesentlichen Herausforderungen in der Applikationsschicht. 14

96 Abbildung 12: Future purchasing criteria for web-procurement software [18] Die Elektronifizierung und Automatisation von Abläufen beim Kauf und Verkauf von Gütern und Diensten macht das Auslagern derselben möglich. Eine zuverlässige, skalierende ASP Infrastruktur ist dafür notwendig. Transaktionen in bestimmten Sektoren (z.b. im Finanzsektor) müssen realtime übermittelt werden. Verzögerungen können nicht akzeptiert werden. Aus diesem Grund muss es möglich sein, diesen Verkehr von weniger Prioritärem zu unterscheiden. Eine hohe Verfügbarkeit dieser Dienste ist unerlässlich. Wenn von Vertragsabschlüssen über das Internet gesprochen wird muss die Sicherheit berücksichtigt werden. Vor allem im B2C Commerce ist eine zuverlässige Security-Infrastruktur nötig, um die korrekte Abwicklung von Transaktionen zu gewährleisten und Vertrauen zu schaffen. Im B2B Commerce ist eine starke Abschirmung von potentiellen Angreifern nötig. 3.7 Analyse Aus den vorangegangenen Abschnitten ergeben sich einige grundlegende Entwicklungen der E-Commerce Applikationen. In diesem Kapitel sollen die Anforderungen an die Internet Infrastruktur zusammengefasst werden. Dabei werden nur diejenigen Anforderungen erwähnt, die eine Verbesserung erfordern. Die Bewertung bezieht sich auf die Dringlichkeit der Anforderung und ist aus den voran gegangenen Kapitel hergeleitet. Die Anforderungen sind nach Dringlichkeit sortiert. Die Delays zu verkürzen, bzw. sie kontrollierbar zu machen ist eine Anforderung, die für die meisten Applikationen eine Grundlage bildet. Anforderung Publishing Coll. Appl. Transaktionen Delays Sehr hoch Sehr hoch Sehr hoch Sichere Überm. Sehr hoch Hoch Sehr hoch Verfügbarkeit Sehr hoch Hoch Noch nicht QoS (BW/RT) Unwesentlich Bandbreiten Management Responsetime Management Asfallsicherheit Hoch Hoch Kontrollierbar Authentizität Klein Hoch Kontrollierbar Bandbreite Steigend Für einige Appl. Unwesentlich Einer der wichtigsten Aspekte ist die Sicherheit. Die Übertragung von Firmendaten die nicht in andere Hände gelangen dürfen über ein öffentliches Netzwerk ist äusserst heikel. Anwendungen wie Transaktionen, liefern von Realtimedaten, aber auch das Conferencing Lösungen um über das Internet realisiert werden zu können. benötigen QoS 15

97 Diese Liste von Anforderungen ist nicht komplett. Z.B. sind das Etablieren von Standards oder die Schaffung von klaren Rechtsgrundlagen wichtige Voraussetzungen für die schnelle Entwicklung von bestimmten E-Commerce Applikationen. Diese Anforderungen werden hier aber nicht berücksichtigt, da sie für die Diskussion der Internet Services in den nächsten Kapiteln nicht relevant sind. 4. Internet Services und value-added Internet Services 4. 1 Überblick Wo liegen im heutigen Internet die Probleme bei der Erfüllung der in Kapitel 3 herauskristallisierten Anforderungen? Was sind Lösungsansätze und wer bietet Lösungen in Form von Diensten an? Diesen Fragen wird in diesem Kapitel nachgegangen. Die drei vorgestellten Services sind drei der wichtigsten. Weitere werden angesprochen, aber nicht im Detail abgehandelt. 4.2 Wo liegen die Probleme Die meisten Services setzen bei den Problemen des Internets an. Sie versuchen dabei Lösungen und Verbesserungsansätze für verschiedene Probleme anzubieten. Dieses Kapitel befasst sich mit den allgemeinen Problemen des Internets. Im Anschluss darauf wird eine Auswahl von wichtigen Services vorgestellt und aufzeigen, wie diese versuchen, die Probleme zu lösen und mit welchen Kosten ein solcher Service verbunden ist. Performance Nicht nur für den E-Commerce, sondern für alle Bereich des Internets ist die Performance sehr wichtig. Sobald die Geschwindigkeit des Internets unter einen gewissen Punkt fällt, wird das Abenteuer Internet mehr zu einem mühsamen Pfad mit vielen Irrwegen. Beim E-Commerce jedoch hat sich gezeigt, dass die Performance meist direkt mit dem Umsatz zusammenhängt. Man ist also bestrebt, die Performance so gut als möglich zu verbessern und zu steigern. Dies geschieht auf der einen Seite durch die Verfügbarkeit von immer mehr Bandbreite, auf der anderen Seite durch immer bessere Technologien und Services. Aber wo genau liegen die Ursachen für die oft schlechte Performance: Web Server Congestion: Der firmeneigene Web Server ist aufgrund der vielen Anfragen überlastet und kann nicht mehr alle Anfragen beantworten bzw. es muss mit längeren Verarbeitungszeiten gerechnet werden. Die erste Meile: Die Daten müssen vom Firmen -Web-Server auf das Internet gelangen. Diese Verbindung ist ein wesentlicher Kostenfaktor bei einer Internet Präsenz und es muss viel in die eigene Infrastruktur investiert werden. Peering Points (Network line congestion): Punkt im Internet mit sehr viel Verkehr. Häufig Flaschenhälse des Internets. Netzwerk Backbones: Backbones, welche sehr schnell sein sollten um grosse Datenmengen schnell von A nach B zu bringen. Network equipement congestion: Spielt ins gleiche wie Netzwerk Backbones. Es sind überlastete Netzwerkkomponenten wie Router und Switches anzutreffen. Die rein geographische Entfernung. Auch Licht kann nicht unendlich schnell von Punkt A nach B kommen. Nimmt man z.b. eine Web-Page mit 17 eingebundenen Objekten (z.b. GIFs) und schaut sich die Verzögerung des HTTP Handshakes an, bemerkt man schnell, dass auch die geographische Entfernung tatsächlich eine Rolle spielen kann. Verbindungsaufbauzeiten (ohne Download der eigentlichen Objekte) Orte Netzwerk Meilen Verbindungsaufbauzeit in Sek New York Denver New York San Francisco

98 New York - Singapore New York Melbourne Die letzte Meile: Die Daten müssen vom Internet zum End-User gelangen. Diese Verbindung ist oft eines der schwächsten Glieder, da viele Heimbenutzer sehr langsam mit dem Internet verbunden sind. Dieser Faktor spielt vor allem auch bei Wireless-Zugriff auf das Internet eine grosse Rolle. Sicherheit Das Internet verfügt von Grund auf über keine sicherheitslösenden Ansätze. Daten werden unverschlüsselt übermittelt, so dass ohne all zu grossen Aufwand jemand mithören könnte. Es besteht keine Möglichkeit, die Authentizität eines Benutzers festzustellen. Gerade aber im E-Commerce Bereich ist man auf solche Lösungen angewiesen. Verfügbarkeit Es ist ausserordentlich wichtig, dass ein Aussendienstmitarbeiter auf seine Daten im Geschäft zugreifen kann. Eben so wichtig ist die Erreichbarkeit der zentralen Datenbank von jeder Zweigstelle her. Sobald ein System nicht verfügbar ist, resultiert dies zu schweren Verlusten. Heute kann man die Verfügbarkeit eines Systems wesentlich steigern, indem Redundanz bei der Hardware eingebaut wird. Dies ist jedoch eine äusserst kostspielige Angelegenheit und braucht qualifiziertes Personal. Durch die Verfügbarkeit von mehr Bandbreite öffnen sich aber gerade in diesem Bereich neue Märkt. Anforderung Sichere Übermittlung Authentische Übermittlung Verfügbarkeit Bandbreite Kostengünstige Infrastruktur Garantierte Leistung: - Realtime (Kontrollierbarer, kleiner Delay) - Zugeteilte Bandbreite Schnelle Antwort (Responsetime) Zugriff auf Firmennetzwerk von überall möglich Probleme - Keine etablierte PKI - Firmeneigener Webserver - Erste Meile (teuer, zu wenig leistungsfähig, nur ein POP) - Peering Points überlastet - Letzte Meile - Aufbau und wartung der Netzwerkinfrastruktur ist teuer und braucht viel Know-How - Keine Priorisierung von Realtimedaten möglich - Ressourcenzuteilung ist im Internet nicht vorgesehen - Firmeneigener Webserver überlastet - Geographische Entfernung (nur ein POP für weltweiten Zugriff) - Überlastetes Netzwerk Equipement - Sicherheit - Zu viele verschiedene Medien 17

99 4.3 Virtual Private Network (VPN) Ein VPN ermöglicht zwei (oder mehreren) Kommunikationspartnern eine gesicherte oder authentische Verbindung über das Internet Entstehung von VPNs Um seinen Mitarbeitern zu ermöglichen von zu Hause aus arbeiten zu können, hatten die Firmen vor wenigen Jahren nur eine sichere Möglichkeit: Sie mussten Dial-Ins einrichten, damit der Home-Arbeiter sich per Modem über eine Telefonleitung in das firmeneigene Netzwerk einwählen konnte. Nur dadurch war sichergestellt, dass die Daten, welche über die Leitung gingen, auch sicher vor Dritten waren. Abbildung 13: Einsatzgebiet VPN Ebenso mussten Firmen, welche über mehrere Niederlassungen verfügten, aber doch ein Computernetzwerk mit allen Niederlassungen haben wollten, Standleitungen mieten um so die verstreuten Zweigstellen an das Firmennetzwerk anschliessen zu können. Nur so konnte ein sicheres Netzwerk mit geographisch Verteilte Niederlassungen aufgebaut werden. Diese Möglichkeit, also der Gebrauch von Telephonverbindungen oder Standleitungen, ist sehr teuer. Mit dem Aufkommen des globalen Internets entstanden neue Möglichkeiten. Die Firmen konnten nun ihre Mitarbeiter oder Zweigstellen an das Internet anschliessen und so eine Verbindung mit ihnen aufbauen. Dies war jedoch eine öffentliche Verbindung, daher waren die Daten weder verschlüsselt noch abhörsicher. Es konnten Drittpersonen dem Datenverkehr folgen. Mit dem Aufkommen der Public Key Kryptographie wurde eine Möglichkeit gefunden, die Daten auf dem Weg über das Internet zu verschlüsseln. Erste Konzepte des Virtual Private Netzwerks waren geschaffen Wie funktioniert ein VPN? Grundsätzlich werden alle Daten, welche das Firmennetzwerk verlassen, verschlüsselt. Dies passiert für die Applikationen und den User völlig transparent. Die Basistechnologie für VPNs ist das sogenannte Tunneling, eine Methode um Datenpackete über öffentliche Netzwerke (wie das Internet) sicher übertragen zu können. Das Tunneling Protokoll kapselt das verschlüsselte Datenpaket in einen Header, welcher die Routinginformationen enthält um das Packet an sein Ziel zu bringen. Dabei gibt es mehrere Möglichkeiten wie ein solches Tunneling gemacht werden kann: Point-to-Point Tunneling Protokoll PPTP ist ein Layer 2 Protokoll welches erlaubt IP, IPX oder NetBEUI Verkehr, umgeben von einem IP Header über ein öffentliches IP Netzwerk zu übertragen. Die enthaltenen Daten können dabei verschlüsselt und / oder komprimiert werden. 18

100 Layer 2 Forwarding (L2F) Protokoll Dieses Protokoll wurde von Cisco vorgeschlagen und erlaubt es einem Server dial-up traffic über PPP zu verpacken und es über einen WAN Link an einen L2F Server zu senden, welcher dann das Packet wieder entpackt bevor es an das Netzwerk weitergegeben wird. Layer 2 Tunneling Protokoll (L2TP) Dieses Protokoll wurde von der IETF (Internet Engineer Task Force) entwickelt, mit der Idee die besten Eigenschaften des PPTP und des L2F zu enthalten. L2TP ist ein Netzwerk Protokoll welches PPP Frames kapselt und über ein IP, X.25, Frame Relay oder ATM Netzwerke versenden kann. IPSec (Internet Protocoll Security) IPSec ist ein Layer 3 Protokoll-Standard welcher es ermöglicht, IP Daten zu verschlüsseln und umgeben von einem IP Header über ein öffentliches Netz zu übertragen. Ebenfalls ermöglicht IPSec die Authentifizierung von Paketen. IPSec wurde hauptsächlich entwickelt, um verschlüsselte End-zu-End Verbindungen über das Internet zu ermöglichen. Die IP Pakete werden auf individueller Basis verschlüsselt und übertragen. Im IPSec Standard sind mehrere neue Paketformate vorgesehen: Den authentication header (AH), um die Datenintegrität zu gewährleisten, und den encapsulating security payload (ESP) um die zu übertragenden Daten zu verschlüsseln und deren Vertrautheit zu gewährleisten. Das Schlüsselmanagement sowie die Sicherheitsparameter, die IPSec Parameter welche von End-zu-End Gerät übertragen werden müssen, sind durch das Internet Key Exchange (IKE, ehemals Internet Security Association Key Management Protocol) Protokoll gelöst. Das IKE ermöglicht die Authentifizierung über digitale Zertifikate einzelner Geräte, wodurch das Skalieren auf Internetgrösse ermöglicht wird. Im Betrieb unterscheidet IPSec zwei verschiedene Modi: Im Tunnel-Mode wird das original IP-Packet verschlüsselt und ein neuer IP Header angehängt. Dieser Modus ermöglicht es z.b. Routern als IPSec Proxy zu agieren und macht die Verschlüsselung des Datenverkehrs für die Endgeräte transparent. Im Transport-Mode werden die Daten des originalen IP-Packetes verschlüsselt. E wird ein IPSec Header angehängt und der IP Header wird durch den originalen IP Header gebildet. Um diesen Modus unterstützen zu können, muss in beiden Endgeräten IPSec als Protokoll Abbildung 14: IPSec Modi implementiert sein VPN Markt Es sind bereits viele Hersteller in den Markt der VPNs eingestiegen. VPN Produkte gibt es von fast jeder Netzwerkfirma. Durch das Standard-Protokoll IPSec ist es möglich, Verbindungen zwischen VPNs verschiedener Hersteller aufbauen und betreiben können Markt Trends Ein paar interessante Fakten (Quelle NetworkCare, Lucent Tehnology): 1/3 aller Arbeiter in den USA brauchen Remote Access. Teleworking wird stark zunehmen Zugriff auf Firmendaten, auch von unterwegs, wird immer wichtiger Arbeiter brauchen immer Zugriff auf s und Netzwerk Applikationen (auch an Wochenenden von zu Hause aus). Dezentralisierung Der VPN Markt wird von $205 Millionen (1997) auf $11.9 Milliarden (2001) ansteigen. Es gibt sogar Schätzungen, da wird mit bis zu $20 Milliarden (2001) [51] gerechnet. 19

101 Die folgenden Punkte führen zur starken Verbreitung der VPNs: Verbessern des Remote Access Statt über Telefonlinien übers Internet die Verbindung zum Firmen-LAN aufzubauen High-Speed Access für Teleworker Konvergierender Zugriff Zugriff auf das Firmennetzwerk wie auch auf das Internet über die gleiche Verbindung Kostenreduktion bei der Verbindung von Zweigstellen Extranets Interner Gebrauch eines VPNs Vorteile eines VPNs Durch den Einsatz von VPN Lösungen können die Netzwerkkosten drastisch reduziert werden. Es müssen nicht mehr teure Standleitungen zwischen den einzelnen Niederlassungen gemietet werden, es braucht auch keine Dial-In Hardware, so dass die Teleworker von zu Hause aus einwählen müssen. All dies kann auch die Kosten einer Internetanbindung und der VPN Hard- uns Software reduziert werden. Ein VPN ist einfacher zu supporten, da die ganze Dial-In Hardware wegfällt. Es müssen nur noch VPN Dienste unterhalten werden. Diese können meist auch vollständig in Software gelöst werden, was auch die Ausfallwahrscheinlichkeit verringert. VPNs bieten neue Netzwerk-Möglichkeiten. Es können kurzfristig Businesspartner ins Firmennetz mitaufgenommen werden. Handlespartner können sich via VPN Netzwerk sensitive Daten beschaffen. Nicht zu vergessen ist die verbesserte Sicherheit. Durch den Gebrach eines VPNs wird der gesamte Datenverkehr zwischen zwei VPN-enabled Points verschlüsselt und Benutzer können Authentifiziert werden. Abbildung Kritische Faktoren Die Vorteile, welche VPNs bringen, scheinen naheliegend. Dennoch sind einige kritische Faktoren zu berücksichtigen: Evaluation des zu erwartenden Traffics Es ist wichtig, den zu erwartenden Verkehr zu analisieren. Damit kann eine möglichst optimale Netzwerkstruktur geplant und der Bedarf an Spezialisten abgeschätzt werden. An dieser Stelle kann es auch gut sein, eine Risikoabschätzung bezüglich der Sicherheit zu machen und sich die Konsequenzen einer möglichen Attacke zu überlegen. Obwohl ein VPN als sehr sicher gilt, gibt es keine 100% Netzwerk-Sicherheit, da auch Benutzerfehler immer wieder vorkommen können. Sicherheitsrichtlinien Es muss überlegt werden, welche Sicherheitsrichtlinien gelten sollen. Passwörter sind z.b. leichter administrierbar als SmartCards oder Zertifikate, bieten aber eine, vor allem bei schlechten Passwörtern, kleinere Sicherheit. So muss eventuell eine Passwort Policy erlassen werden, welche auch das Ändern des Passwortes in festen Zeitintervallen erzwingt. Performance Überlegungen Bei den ersten VPNs zögerten noch viele grössere Unternehmen, VPNs einzusetzen, da die damaligen VPN Lösungen schlecht skalierten. Dies ist nun aber mit den neueren VPNs Implementationen weitgehend gelöst. Es sind auch schnelle VPN Server Hardware-Lösungen verfügbar, welche sehr grossen Traffic bewältigen können. Zuverlässigkeit Wenn eine Firma (oder deren Aussendienstmitarbeiter) auf ein VPN angewiesen sind, muss dies zuverlässig funktionieren. Die Ausrüstung, welche ein VPN ermöglicht, kann in seiner Zuverlässigkeit durch 20

102 unterbrechungsfreie Stromversorgungen, redundante Netzteile und der Möglichkeit des Austausches im laufenden Betrieb in seiner Zuverlässigkeit verbessert werden. Die Zuverlässigkeit kann durch Clustering und Einsatz von weiterer Redundanz fast beliebig gesteigert werden und ist kein wirkliches Problem eines VPNs an und für sich. Skalierbarkeit Durch Clustering von VPN Geräten (load balancing) sollte die Skalierbarkeit eines VPNs weitgehend sichergestellt sein. Interoperability Einer der wichtigsten Punkte ist die Kompatibilität. Es empfiehlt sich der Einsatz von standardisierten Protokollen Erreichen wirklicher Sicherheit Ebenso wichtig wie ein gut geplantes VPN ist die firmeneigene Security Policy. Es muss ein Gleichgewicht zwischen Technik und der Firmenpolicy gefunden werden, denn es bringt nichts, die besten Sicherheitssysteme zu haben wenn diese nicht richtig anwendet werden. Dazu gehört auch, wie sich ein Benutzer an einem VPN anmeldet, wie er sich authentifiziert und wie die Daten verschlüsselt werden. Ein VPN unterstützt verschiedene Verfahren, welche hier kurz erwähnt werden. Benutzer Authentifikation Ein VPN muss die Authentifikation eines Benutzer feststellen können. Denn nur so können die Richtlinien für einen Benutzer in Kraft treten. Auf Layer 3 bietet das IPSec durch seinen AH Header die Authentifizierung. Extensible Authentification Protocol (EAP) EAP ist ein Protokoll das durch die IETF, als Erweiterung zum PPP, vorgeschlagen wurde. Es erlaubt das dynamische Hinzufügen von Authetifizierungsmechanismen von Drittanbietern sowohl im Server, wie auch beim Client. Dies ermöglicht die Unterstützung von Authentifizierungsmechanismen wie TokenCards, Kerberos und Public Key, was eine grösstmögliche Fexibilität bietet. EAP ist eine der wichtigen Technologien um ein VPN gegen brute force, dictionary attacks und password guessing Angriffe sicher zu machen. Daten-Verschlüsselung Die VPN Sicherheit kann nicht nur verwendet werden, um die Authentifizierung sicherzustellen, sondern auch um die Daten selber im IP Packet zu verschlüsseln. Um Daten verschlüsseln zu können, braucht es einen Schlüssel, welcher es nur dem gewünschten Empfänger erlaubt, die Daten wieder entschlüsseln zu können. Symmetrische Verschlüsselung Bei der symmetrischen Verschlüsselung müssen beide Parteien über einen gemeinsamen Schlüssel verfügen. Die Verschlüsselung ist sehr sicher, das Problem kann jedoch darin bestehen, beiden Parteien den gleichen Schlüssel zukommen zu lassen. Asymmetrische Verschlüsselung In der asymmetrischen Verschlüsselung gibt es zwei verschiedene Schlüssel. Einen Secret Key, welcher nur seinem Besitzer bekannt sein darf, und einen Public Key, welcher öffentlich ist und welcher der Kommunikationspartner braucht. Dadurch ist es möglich, Daten zu über den Public Key des Empfängers zu verschlüsseln. Diese Daten können anschliessen nur noch vom Besitzer des Secret Keys, also dem Empfänger, entschlüsselt werden. Im Gegensatz zur symmetrischen Verschlüsselung, brauchen bei der asymmetrischen nicht beide Kommunikationspartner über einen gemeinsamen Schlüssel zu verfügen. Sie können die public Keys über ein öffentliches Netzwerk verteilen und danach eine sichere Verbindung zum Kommunikationspartner aufbauen. Wichtig ist jedoch, dass die Authentizität des Public Keys gewährleistet sein muss. Ein Sender muss sicher sein, dass er über den richtigen, zum Empfänger gehörenden Public Key verfügt. Dies führt zum einem neuen Problem, welches durch eine CA (Certific Authority) gelöst werden kann. Diese bestätigt, durch digitales Signieren eines Public Keys, dass dieser wirklich dem Benutzer gehört, für den sich der 21

103 Public Key ausgibt. Dies jedoch verschiebt das Problem des Glaubens, da nun sichergestellt sein muss, dass die CA vertrauenswürdig ist Fazit VPNs werden sich weiter rasend schnell verbreiten. Sie unterstützen den Trend zu einem weiteren Wachstum des Telecommuting, shared enterprise applications and globally disperes business operations. VPNs ermöglichen Unternehmen seine Mitarbeiter, Niederlassungen und Büros zuverlässig, sicher und günstig zu verbinden. 4.4 Content delivery Übersicht On Monday our traffic doubled, so we added two new servers with no effect. Tuesday afternoon we called Akamai. Tuesday night we were Akamaized and instantly six to ten times faster. Craig Macubbin, Chief Technology Officer, BET.com Internet Seiten gehen von einfachen, textorientierten Seiten bis zu multimedialen Präsentationen mit interaktiven Elementen und verschiedenen Downloads. Content delivery bezieht sich nun auf die Frage, wie die angeforderten Daten zum Benutzer kommen. Normalerweise bekommt der Web Server einer Firma einen request des Benutzers und sendete daraufhin seine Daten an den Benutzer. Heutzutage aber wird das Internet immer komplexer und auch verstopfter, was zu langen Wartezeiten oder sogar der Unerreichbarkeit für den Benutzer führt. Durch content delivery network (CDN) ist es nun aber möglich, nicht nur Kosten zu reduzieren, sondern auch solche Erreichbarkeits- und Performanceprobleme zu beseitigen bzw. zu minimieren. Eine Studie von Akamai (einer der grossen Betreiber unzähliger Web-Caches auf der ganzen Welt) hat gezeigt, dass durch die Verwendung von Caching folgende Punkte verbessert werden können: Durchklicken steigerte sich[clicks through] um 20% Abbruchraten verringerten sich 15-20% Bestellungsabschlüsse könnten um 15% erhöht werden Abbildung 16: Cachingansatz AKAMAI Wenn man betrachtet, dass die 10 meistbesuchten Web Seiten heute 12.2 Millionen Webanfragen pro Tag haben und diese in den nächsten vier Jahren auf 27.9 Millionen Page-views pro Tag wachsen werden, scheint der Markt geradezu nach Caching und CDNs zu schreien. Auch wird immer häufiger erwartet, dass Inhalt schneller geliefert wird. CDNs nehmen so eine grosse Last vom Web Server der Firma und stellen die Daten in anderen Netzwerksegmenten zur Verfügung. Die typischen Probleme (und Bottlenecks) haben wir bereits in der Einleitung kannengelernt. Das Ziel eines guten CDNs ist nun, möglichst viele dieser Internet-Engpässe zu beseitigen bzw. deren Effekt möglichst zu minimieren. 22

104 Abbildung 17: Einsatz CDN Was ist für ein gutes content delivery network wichtig? Performance Die Geschwindigkeit eines CDNs ist abhängig von vielen Punkten. Wie am Anfang des Kapitels gezeigt wurde, sind im Internet verschiedene Engpässe und Performanceprobleme zu finden. Wichtig ist, dass ein CDN versucht alle Punkte zu minimieren, da die Summe aller Verbindungsverzögerungen entscheidend ist. Geschwindigkeisverbesserungen Ein gutes CDN kann die Geschwindigkeit von typischen Web Objekten, wie Grafiken oder Downloads, bis zu 10 mal beschleunigen. Die zu messende Verbesserung bezieht sich auf die End-zu-End Performance vom Kunden zum Web Server. Network Design Ein CDN muss den Server nicht nur anhand der Position des Benutzers ermitteln, sondern auch in Betracht ziehen, wie stark die Server bereits ausgelastet sind und wie die Internetverbindungen belastet sind. Zuverlässigkeit Ein CDN muss sehr zuverlässig sein. Die finanziellen Einbussen und Verlust eines gewissen Images hängen zu stark von der Erreichbarkeit des Servers ab. Da keine Komponente je 100% ausfallsicher sein kann, muss ein CDN versuchen, Ausfälle zu erkennen und auf andere Komponenten ausweichen können. Netzwerkgrösse Genug gross um erweitern zu können Genug gross und schnell um gut zu liefern Geographisch verteilte Server Content variety Ein CDN sollte nicht nur statische HTML Seiten verwalten können, sondern auch Bilder, Animationen, Downloads etc. Content Caching Um die Daten immer up-to-date zur Verfügung zu stellen muss ein CDN immer wieder mit dem Hauptserver Verbindung aufnehmen und seine Daten abgleichen Die drei grundlegenden, technischen Lösungen zur Optimierung der Web Performance Local Server Farms Man versucht über Content replication und load balancing die Server congestion zu umgehen. Dadurch wird anstelle eines Web Servers eine ganze Web Server Farm eingesetzt. Diese Farm agiert nach aussen wie ein einziger grosser Web Server und kann die Anfragen viel schneller beantworten. Vorteile: Viele Server agieren als ein grosser Web Server. Lässt sich bei zunehmendem Verkehr leicht erweitern. Die Daten und Server können weiter zentral verwaltet und gewartet werden. 23

105 Nachteile/ Limitierungen: Der Status jedes einzelnen Servers ist den anderen Servern nicht bekannt. Es kann weiterhin vorkommen, dass ein einzelner Server überlastet ist. Es kann auch sein, dass einer der Server gar nicht mehr funktioniert und es so zu noch längeren Wartezeiten kommt. Diese Lösung ist nach wie vor stark von der Netzwerkverbindung abhängig Es können nur lokale Verstopfungen gelöst werden. Manual distributed Site Mirroring Durch den Einsatz von Content repilication, geographic distribution und load balancing versucht man das Problem etwas globaler in der Griff zu bekommen. Durch diesen Ansatz können sowohl server congestions, network equippement and link congestion sowie auch distance delay verbessert werden. Es werden manuell Daten auf verschiedene, geographisch verteilte Web Server verteilt. Vorteile: Latenz Probleme in Verbindung mit Netzwerk Ausrüstung, Netzwerk Verstopfungen und Server Auslastungen kann durch Einsatz mehrerer Server gelöst werden. Auch Netzwerk Delays können durch die geographisch verteilten Server verbessert werden. Auf Grund der nicht ausgereiften Routing Anforderungen an Server kann es jedoch vorkommen, dass der Request an schon stark belastete oder nicht an den geographisch nächsten Server gelangt. Nachteile: Durch die meist schlecht implementierte Server-Auswahl-Intelligenz, kann es nach wie vor zu schlechter (auch schlechterer als ursprünglich) Performance kommen. Es fehlt eine Art Netzwerkintelligenz, welche über den Status des gazen Netzwerkes informiert ist. Der Verkehr muss unter Umständen nach wie vor congested links traversieren. Das Verwalten der Server ist viel schwieriger, da sie geographisch verteilt sind. Viel teurer, da mehrere Server gebraucht werden, welche auch noch geographisch verteilt werden müssen. Die Daten up-todate zu halten ist nicht trivial und kann eine Fehlerquelle darstellen. Network Caching Durch das Caching von Daten kann versucht werden die server congestion, nework link congestion, network equippement congestion sowie auch distance delays zu eliminieren bzw. zu verbessern. Es werden Netzwerk Caches beim ISP installiert, welche dann die Daten viel schneller an die Clients weitergeben können. Dadurch wird auch, vorausgesetzt die Daten sind im Cache vorhanden, Bandbreite gespart. Vorteile: Ein Cache nahe beim Benutzer kann Bandbreite sparen und die Verzögerungen des Internets umgehen. Es können durch die Nähe zum Klienten Netzwerk Segmente umgehen werden und auch die distance delays weitgehende eliminiert werden. Nachteile: Cache misses führen zu noch längeren Ladezeiten als dis durch eine direkte Anfrage beim Firmeneigenen Webserver möglich gewesen wäre. Nach der Internet Research Group finden cache misses mit ca. 60% statt. Wenn Daten vom Cache geholt werden können, fliessen die Daten zur Auswertung nicht direkt an den Ausgangs Server zurück. Diese Daten müssen später mühsam zusammengesucht werden. Im Gegensatz zum web caching werden beim Content delivery versucht, all diese Erkenntnisse zu einem Grossen zu kombinieren und so die optimale Verbesserung zu erreichen Content delivery Prinzipien Inhalt und Netzwerk zentral Kontrollieren und Administrieren 24

106 Der Web-Inhalt sowie das Netzwerk werden zentral von einem Ort aus kontrolliert. Dadurch können Kosten für die Fern-Administration und das Verteilen der Daten auf mehrere Server eingespart werden. Verteilen des Inhalts auf den Rand des Netzwerkes Durch Einsatz von Content delivery werden die Daten an den Rand des Netzes gebracht. Dadurch sind die Daten viel Näher beim Benutzer und können schneller geliefert. So können viele Engpässe des Internets umgangen werden. Die Server des content delivery Netzwerkes werden zentral verwaltet und gesteuert. Der Zustand des Netzwerkes ist somit jederzeit bekannt. Entscheidungen, auf welchen Server eine Anfrage umgeleitet werden soll, können so optimale getroffen werden.. Es ist auch möglich, durch pre-population, die Server auf Anfragen vorzubereiten und die Caches entsprechend zu füllen. Anfragen auf die lokalen Server verteilen Sobald eine URL von einem Browser angefordert wird, entscheidet die content delivery Lösung wohin die Anfrage geleitet wird. Folgende Kriterien werden für einen intelligenten Entscheid ausgewertet: Geographische und Netzwerk Ort Verfügbarkeit des Inhalts Aktueller Status des Servers (Verfügbarkeit und Auslastung) Aktueller Status des Netzwerkes (traffic load und netzwerk errors) Abbildung 18 Somit bestehen folgende Elemente, welche von einem Content Delivery Netzwerks unterstützt und gebraucht werden: Geographische Distribution: Content delivery nodes sind über die ganze Welt verteilt Replizierung des Inhalts: Inhalt wird automatisch auf mehrere content-delivery nodes verteilt. Caching: Inhalt ist auf den delivery nodes gespeichert und gecacht. Der Inhalt wird über eine Kombination von push Replikation und on-demand pull aufgrund definierter Regeln ausgeliefert. Umleitung: Anfragen werden von einer zentralen Stelle an die Nodes weitergeleitet. Diese Entscheidung werden aufgrund mehrerer Parameter wie Netzwerkstatus, -Auslastung, Geographische Nähe, etc. getroffen. Load balancing: Anfragen werden auf mehrere content-delivery nodes verteilt um schnelle Antworten, Skalierbarkeit und Zuverlässigkeit zu steigern. 25

107 4.4.5 Was bringt ein CDN Ich möchte an dieser Stelle kurz auf ein konkretes Produkt eingehen. Es handelt sich hier um eine CDN Lösung von Cisco, welche bereits auf dem Markt verfügbar ist. Die nachfolgende Tabelle ist ein Auszug aus einer Cisco Web Seite und wurde in seiner Originalsprache belassen: Feature High scalability 10,000 node networks Millions of users Increases Web performances Live or On-Demand content Single URL redirection Central control Single Web site DNS and/or HTTP redirection Content served from optimal server based on network location and current conditions Format agnostic Any media type or format Complete content caching control Push population Pull population Automatic replication Bandwidth efficient, spanning tree routing Virtual distribution networks Logical grouping of content Ability to set policy on groups of content of specified domain names Application-level multicast Splits live stream at each network node High reliability and fault tolerancy Dynamically adjusts to network conditions and user load Easy deployment and integration with existing Web sites Customizable URL deployment Benefit Enables Web sites to address growth while increasing performance Provides a better Web experience for both average Web content as well as peak loads associated with live events Enables lower maintenance cost associated with single centralized Web site Enables better Web experience by providing content from the best source Saves bandwidth cost by replicating content once to remote site and serving it multiple times Provides flexibility to address all Web applications Ensures that content is available when user requests it Eliminates the management cost associated with keeping servers synchronized Reduces bandwidth time and cost by using embedded network bandwidth for distribution of content Lowers content administrative costs Enables segmentation of content onto EdgeRunner nodes to enable more efficient use of bandwidth and disk space Reduces the amount of bandwidth required to serve live streams while scaling to large audiences Ensures that network resources are always available and that Web site performance is enhanced Lowers deployment cost Enables deployment without modification of origin Web server 26

108 4.4.6 Probleme des CDNs Ist ein CDN nun die optimale Lösung oder wo bestehen noch Probleme? Ein CDN ist eine bessere Lösung als das Caching oder das Unterhalten von mehreren Servern auf der ganzen Welt. Es bietet vor allem im Bereich der Verwaltung mehrerer, verteilter Nodes Vorteile. Aber wo gibt es noch Probleme? Das Umstellen eines normalen Internet Inhaltes auf CDN ist mit Umständen verbunden. Aufbau eines CDNs ist mit sehr hohen Kosten verbunden. Dynamische Seiten können auch durch den Einsatz eines CDNs nicht effektiv verteilt werden Fazit Eine Kombination aus Content Delivery Netzwerken und traditionellen Web Beschleunigungstechniken ergibt eine komplette end-zu-end Lösung, welche die Web Geschwindigkeit, Skalierbarkeit und die Zuverlässigkeit steigert. Ein gut optimiertes CDN bietet sehr viele Vorteile und kann viele Probleme (vor allem Performance und response time) des Internets beseitigen. 4.5 Application Service Providing (ASP) Was ist ein ASP? Was ist ein ASP? Grundsätzlich handelt es sich beim Application Service Provider um einen Dienst, um dem Kunden zu ermöglichen, seine Applikationen nicht mehr bei sich zu installieren, sondern auszulagern. Ein Application Outsourcing (AO) Provider unterhält und verwaltet Software Applikationen. Dabei gibt es zwei Untergruppen von AOs, den Application Service Provider (ASP) und das Application Maintenance Outsourcing. Diese zwei unterscheiden sich grundsätzlich in der Art, wem die Software gehört und wo die Applikation läuft. Abbildung 19: Aufbau ASP Dienst Sub-Sector Application Maintenenace Outsourcing Application Service Provider Ownership of Application Location of IT Assets/ Applications Location of IT Support Type of Applications Client Client or Provider On- or off-site Proprietary or Packaged Provider/ Third Party Provider Off-site Packaged Weiter gibt es die Information Utilities and Business Process Outsourcing (BPO). Diese Provider spezialisieren sich auf ökonomische und effiziente Outsourcing Lösungen für komplexe, aber tägliche Geschäftsprozessse. Bei einem Platform IT Outsourcing Provider wiederum, geht es vorwiegend um das Outsourcing von IT Platformen. Dies beinhaltet Hardware, Support Services, Sicherheitsräume für Server, Datensicherheit und Backup. Wir wollen uns hier auf den Application Service Provider (ASP) beschränken, da gerade dieser für E-Commerce besonders interessant ist und durch die Verfügbarkeit von Broadband Netzwerken erst ermöglicht wurde. Aber was ist nun ein ASP genau? An ASP manages and delivers application capabilities to multiple entities from a data center across a wide area network. 27

109 4.5.2 Wodurch wurde ASP ermöglicht Die Konvergenz von Software und IT Infrastruktur gegen ein Internet- bzw. Netzwerkumgebung hat ASP erst ermöglicht und geschaffen. Durch die Verfügbarkeit von immer grösseren Bandbreiten kann ASP so richtig Fuss fassen und befindet sich in einer Blütezeit. Durch die Entwicklung der Software, von einer auf den Benutzer programmierten Lösung über die off-the-shelf Lösung bis zu den heutigen net-centric Applikationen wird der Boom des ASPs weiter vorangetrieben. Netcentric Software erlaubt und ermöglicht Web-basierte Geschäfte, Kommunikation und Informationsmanagement. In ähnlicher Weise hat sich auch die IT-Infrastruktur entwickelt. Von einem grossen Mainframe Computer zu den heutigen, stark vernetzten Umgebungen Wer bietet ASP Der typische ASP ist ein neuer Anbieter. Einer, welcher sich zwischen dem Kunden (oder den ISP, welcher Kunden hat) und einen Softwarehersteller schaltet. Heute sind auch vermehrt grosse Softwareanbieter anzutreffen, welche den ASP umgehen und selber als ASP auftreten. Es kommt auch vor, dass eine weitere Instanz, der Network Provider, zwischen dem ASP und dem Kunden auftaucht. Es gibt sowohl von der ISP Seite her Firmen, welche in den ASP Markt einsteigen, wie auch Softwarekonzerne, welche ihre eigene ASP Abteilung aufbauen (Microsoft, mysap.com). Ebenso sind grosse und namhafte Neueinsteiger im ASP Markt anzutreffen (Intel Online). Da im ASP Bereich viele ehemalige Service Anbieter involviert sind, ist in diesem Bereich auch mit grösseren Firmenfusionen oder aufkäufen zu rechnen. ASP brings it all together telco, ISP, hosting provider, platform provider and application provider Tim Pickard, communications director for ESOFT Global. Abbildung 20: ASP Konzepte Gerade auch die hohen Gewinnerwartungen (1998 $150mils, 2003 wird bereits mit $2000mils gerechnet) für die nächsten ziehen viele Firmen an. Es ist jedoch damit zu rechnen, dass sich ein paar ganz grosse herauskristallisieren werden, da der finanzielle Aufwand und der Unterhalt eines ASP Betriebes enorm sind Was bietet ASP Der Kunde hat die Möglichkeit, Software beim ASP für seinen Gebrauch zu mieten. Der Kunde muss seine Software also nicht mehr kaufen, sondern kann sie auf Zeit oder Anzahl Benutzungen mieten. Der Kunde greift nun auf seine Anwendungen und Daten über einen Web-Browser oder eine Client-Software zu. Dabei wird die ganze Arbeit der Software auf der IT-Infrastruktur des ASPs abgewickelt, der Kunde hat auf seinem Bildschirm nur die Ausgabe der beim ASP laufenden Programme. Dadurch braucht der Kunde selber keine teure Hardware, ein einfaches Terminal reicht aus. Ebenfalls werden die Daten beim ASP gespeichert, was den Kunden weiter vor teuren Hardware Anschaffungen bewahrt. 28

110 4.5.5 Vorteile, Marktchancen Kleinerer bis gar keine Wartung der Software auf Kundenseite Kleinerer Wartungsaufwand der IT-Hardware auf Kundenseite Geringere Hardwarekosten, da weniger Hardware nötig Geringere Personalkosten, da weniger IT- Spezialisten benötigt werden Für den Kunden zum Teil enorme finanzielle Einsparungen. Fixe monatliche Kosten, welche in ein Budget eingeplant werden können Abbildung Probleme im ASP Bereich Weggeben der firmeninternen Daten Sicherheitsanforderungen an ASP Verantwortung über IT-Hardware und deren Wartung liegt beim ASP Vertrauen in ASP Kunde ist auf ASP angewiesen, da seine Geschäfte auf eine funktionierende IT-Infrastruktur und derer Software angewiesen sind Zuverlässigkeit Abbildung 22: ASP Drivers 29

111 4.5.7 Ökonomische Kernprobleme des ASP Aus der Sicht des Kunden bedeutet das Umstellen der bestehenden IT-Lösung auf eine ASP Lösung ein grosser Schritt. Die Wahl des ASP wird für ihn daher ausserordentlich wichtig sein. Dieser ASP muss den Kunden in folgenden Punkten zufrieden stellen können: Vertrauen QoS Zuverlässigkeit Erweiterbarkeit Ausstiegsmöglichkeiten Vertrauen Für einen ASP Anbieter ist es extrem wichtig, das Vertrauen seiner Kunden 100% zu gewinnen. Schliesslich werden ihm seine Kunden ihre wichtigsten Daten in die Hände geben und darauf setzen, dass sie bei ihm gut (oder sogar besser als bei ihnen selber) aufgehoben sind Dies trifft sowohl auf Datensicherheit, im Sinne von Datenverlusten, als auch auf die Sicherheit, dass der ASP keine Daten an Dritte weitergibt.. QoS Welche Art von Service Level kann der Provider anbieten? Hier reicht es unter Umstanden nicht nur, dass der Anbieter seine Verfügbarkeit angibt, sondern auch gewisse Zusicherungen über Bandbreite oder response time angibt. Viele Anbieter preisen mit Verfügbarkeiten von 99.5%. Dies könnte jedoch bedeuten, dass pro Woche immer noch 50 Minuten ungedeckt sind, daher dass die Server des Providers im schlimmsten (noch dem Service Level Agreement entsprechend Fall) 50 Minuten pro Woche unerreichbar sind. Sehr gute QoS sind sehr teuer, da extremer Hardwareaufwand auf der Seite des Providers nötig ist. Zuverlässigkeit, Reaktionsfähigkeit Wie schnell kann der Provider auf Anfragen und Änderungen des Kunden reagieren? Was ist, wenn schnellstmöglich eine neue Applikation verfügbar sein soll. Wie gut ist das der gebotene Service, die Qualität der zur Verfügung stehenden Helpline? Erweiterbarkeit Ist es möglich, mit dem Provider weiter zu wachsen? Stehen grössere Probleme im Weg, falls expandiert werden muss (weitere Filialen in der ganze Welt, grössere Datenmengen). Ausstiegsmöglichkeiten Dies ist ein sehr wichtiger Punkte, welcher gerne vergessen wird. Was passiert, wenn mit dem Provider aus irgendwelchen Gründen nicht mehr zusammengearbeitet werden kann? Wie schwer wird ein Abtrennen vom Provider? Wie kommt die Firma wieder an ihre Daten? Was ist, wenn die Konfiguration der Applikationen auf dem bestehenden Systems nicht so einfach auf einen neuen Provider übernommen werden können? Beim wechsle des ASP Providers können hohe Kosten anfallen. Dies sind Kosten, mit denen schon zu Beginn gerechnet werden sollte Technologische Anforderungen Die für einen ASP wichtige Hardware ist bereits im Markt etabliert. Das Spezielle an einem ASP ist vor allem seine Redundanz. Er wird sehr grosse Redundanz in seine Systeme haben, um möglichst alle Arten von Ausfällen abfangen zu können. Dies kann jedoch bereits mit bestehenden Technologien realisiert werden. Auf Seiten der Software sind ebenfalls Lösungen vorhanden. Immer mehr Anbieter haben auch ASP fähige Programme in ihrem Angebot. Betriebssystemhersteller bieten ebenfalls spezielle ASP Lösungen, wie etwa Microsoft mit dem Terminal Server. Der ASP Markt ist hauptsächlich auf möglichste hohe Bandbreiten angewiesen. Mit steigender Bandbreite werden in Zukunft auch immer bandbreiter-intensivere Anwendungen angeboten werden können. Auf der Seite des Kunden ist man bestrebt, seine Hardwarekosten zu reduzieren. Es wird in Zukunft eine Art ASP-PC geben. Dieser verfügt nur noch über die absolut notwenigste Hardware und gleicht etwa einem Net-PC. 30

112 4.5.9 Fazit Für den Kunden ist die Wahl seines ASPs sehr wichtig. Der ASP ist massgebend an seinen Geschäftsprozessen beteiligt. Der Kunde ist auf den ASP und dessen Zuverlässigkeit angewiesen. Gerade daher sind im ASP Markt sehr umfangreiche Service Level Agreements anzutreffen, welche genau festhalten, wie der ASP gegenüber dem Kunden aufzutreten hat und welche Leistungen geboten werden. Dies wiederum zwingt den ASP, sehr ausfallsicher zu planen und somit hohe Redundanz in seine IT-Infrastruktur einzubauen. Leider muss heute gesagt werden, dass nicht genügend qualifiziertes Personal verfügbar ist. Das Geschäftsmodell des ASP hat jedoch ganz sicher Zukunft und wird weiter wachsen. Es wird aber ein Geschäft der Grossen werden, da der finanzielle Aufwand und die Anforderungen für kleinere Anbieter fast nicht tragbar sind. It s a brilliant business model and it will be enormously successful. But to make money now as an ASP is a pretty hard task. You have to gain an awful lot of customers and very quickly Mark Roberts, ASP strategy director at Cap Gemeni 4.7 Zusammenfassung/Auswertung Internet Services Anforderung Probleme Lösungsansatz Service Sichere Übermittlung - Keine direkte - Encapsulation eines VPN Unterstützung in IPv4 verschlüsselten Payloads in ein IP Packet Authentische Übermittlung - Keine etablierte PKI CAs Verfügbarkeit Bandbreite Kostengünstige Infrastruktur Garantierte Leistung: - Realtime (Kontrollierbarer, kleiner Delay) - Zugeteilte Banbreite - Firmeneigener Webserver - Erste Meile (teuer, zu wenig leistungsfähig, nur ein POP) - Peering Points überlastet - Letzte Meile - Aufbau und Wartung der Netzwerkinfrastruktur ist teuer und braucht viel Know-How - Mangel an IT- Spezialisten - Redundante Systeme noch teurer - Keine Priorisierung von Realtimedaten möglich - Ressourcenzuteilung ist im Internet nicht vorgesehen - Outsourcing - Verteilung auf mehrere POPs - Verteilung auf mehrere Server - Einfügen von Redundanz in bestehende Hardware - Daten näher zum Kunden bringen CDN Caching CDN Caching - Outsourcing ASP - Leitung wird nicht geteilt - QoS Protokolle: - Reservation von Ressourcen - Prioritäten für Packete Leased li nes QoS Services in Teilnetzwerken Network managment Services 31

113 Schnelle Antwort (Responsetime) Zugriff auf Firmennetzwerk von überall möglich - Firmeneigener Webserver überlastet - Geographische Entfernung (nur ein POP für weltweiten Zugriff) - Überlastetes Netzwerk Equipement - Sicherheit - Zu viele verschiedene Medien - Outsourcing - Daten näher zum Kunden bringen - Aufbau mehrerer POPs - Geographisch verteilte Daten und Server - Einloggen auf Firmennetzwerk über eine VPN Lösung - Webenabling der Applikationen CDN Caching VPN ASP Die Tabelle zeigt Lösungsansätze die von den vorgestellten Services realisiert werden. Viele der Anforderungen werden dadurch abgedeckt und die Services können als gut bezeichnet werden in dem Sinne dass sie dem Internet viele für den E-Commerce notwendige Grundlagen schaffen. Vor dem Hintergrund der Entwicklung des E-Commerce wie sie in Kapitel zwei und drei beschrieben wurde (steigende Interaktivität, mehr Dynamik, Integration in die meisten Geschäftsprozesse), darf man hinter die Ansätze des CDN ein Fragezeichen setzen. Z.B. ist das Caching für dynamische Inhalte nicht geeignet. Die Verteilung von Daten über das Netzwerk bringt zusätzlichen Aufwand mit dem Ziel, grundlegende Mängel der Internet-Infrastruktur auszugleichen. Im Gegensatz dazu birgt das Geschäftsmodell des ASP eine reale Wertschöpfung. Das VPN ist insofern ein guter Dienst, als dass es transparent für den Benutzer ist. Doch auch hier muss man sich fragen, ob die Funktionalität, die der Dienst bietet, nicht schon von der Internet-Infrastruktur realisiert werden sollte. Weitere Services, die nicht näher vorgestellt worden sind, sind für die Entwicklung des E-Commerce wichtig. Zu erwähnen sind unter anderem, Dienste zur Verwaltung von Netzwerkressourcen und Multicast Plattformen. 32

114 5. Networking technology ist wichtig, aber... Die Abbildung 23 zeigt nochmals Resultate aus der Umfrage von Lucent Technologies [7]: Abbildung 23 Mit 35 Prozent der Befragten ist eine starke Nachfrage nach neuen, bzw. guten Services vorhanden. Auch die Nachfrage nach etablierten Standards ist mit 28 Prozent ein Anliegen. Doch die am höchsten gewichteten Punkte sind weniger technischer als vielmehr organisatorischer Art. Personal mit gutem Wissen hat es zuwenig Der Markt an IT-Professionals ist ausgetrocknet. Die Nachfrage liegt weit über dem Angebot. Anstrengungen wie die Green-Card Aktion in Deutschland zeigen, dass die Entwicklung des E-Commerce und damit auch die Entwicklung der Wirtschaft wesentlich davon abhängen. Integration Wie die folgende Grafik von Andersen Consulting zeigt, ist in der zweiten Welle des E-Commerce Integration ein wesentlicher Bestandteil. Die ERP Systeme 1 müssen Webfähig gemacht werden. D.h. ein Personalmanager kann 1 Als Enterprise Ressource Planning (ERP) Software bezeichnet man eine Sammlung von Applikationen, die Abteilungen mit Finanz- und Personalressourcen automatisieren und Herstellern helfen Aufgaben wie Bestellungsabwicklung und Produktionsplanung zu erfüllen. Diese Systeme sind hoch komplex, und ein Einsatz dieser Software erfordert oftmals eine Änderungen der internen Prozesse des Kunden. Die Einsatzgebiete von ERP Systemen werden immer vielfältiger und die Anbieter von ERP Software stoßen in neue Gebiete wie Supply Chain Management (SCM) oder Customer Relationship Management (CRM) vor. [14] 33

115 zum Beispiel die gesamten Informationen über einen Angestellten über das Web abrufen und verwalten. MySAP von SAP AG ist ein Produkt, dass sich dieser Herausforderung annimmt. In einer weiteren Phase müssen die Systeme von miteinander kommunizierender Unternehmen kompatibel gemacht werden. Die vielen proprietären Systeme machen dies zu einer Integrationsangelegenheit. Abbildung 24: The Internet is ushering in a new era of B2B commerce [13] Strategien, Prozesse Dieser Punkt ist in den vorhergegangenen Überlegungen immer wieder aufgetaucht. Mit seinen Möglichkeiten wird E-Commerce grundlegende Geschäftsabläufe ändern. Diese Chancen zu erkennen, den Mut zu den Veränderungen aufbringen und diese in die Geschäftsstrategien zu integrieren ist Voraussetzung für den Erfolg. Rahmenbedingungen Der Staat spielt in der Internet Ökonomie eine wichtig Rolle: - Viele rechtliche Fragen müssen noch geklärt werden - Wie sollen elektronische Güter besteuert werden - Umgang mit der Kriminalität Es ist verständlich, dass diese Fragen einerseits unsicher machen und andererseits einladen, die Grenzen zu erproben. Diese Aspekte zeigen, dass Lou Gerstner mit seiner Aussage richtig liegt: "e-business is not a technological change. It's a fundamental change of the way business will be done - aided, abetted, supported, and enabled by technology." Die Technologie damit auch das Internet ist aber in seiner Struktur nicht ausgelegt, diese Aufgaben genügend gut zu erfüllen. Es braucht die vorgestellten Services, um den Anforderungen gerecht zu werden. 34

116 Doch die Probleme müssen an der Wurzel angepackt werden, um eine nachhaltige Entwicklung zu ermöglichen. Konzepte wie QoS, Security oder Billing müssen in die Infrastruktur integriert werden. Auch die Verknappung der Adressen darf nicht unterschätzt werden. Aus diesen Gründen könnte man Lou Gerstner s Ausspruch anfügen: But a fundamental change of the technology will be necessary to guarantee a sustained success. 35

117 6. Literatur [1] Internet Business, Interest Verlag, Augsburg 1997 [2] Michael Lim, Definitions Electronic Commerce,, [3] Webagency, [4] Roger Clarke's Electronic Commerce Pages, edu.au/people/roger.clarke/ec [5] Zona Research, [6] The Economic Impacts of Unacceptable Web Site Download Speeds, [7] Lucent E-Business 2000 Survey, [8] IEC Unified Messaging Tutorial, [9] Johansen, Robert: Groupware - computer support for business teams, New York, Free Press, 1988 [10] Teleconference Mag, [11] PWC Technology Forcast 2000, PricewaterhouseCoopers Technology Centre, p. 351 [12] PWC E-Business Forcast, PricewaterhouseCoopers Technology Centre, p. 50 [13] Andersen Consulting, The Value Propositions of Business-to-Business Dynamic Commerce, [14] ERP Definition, Jochen Kapaun und Oliver Wahrstötter, [15] Dataquest, 1999 [16] Gartner Group, [17] The Boston Consulting Group, [18] PWC E-Business Forcast, PricewaterhouseCoopers Technology Centre, p. 104 [19] PWC E-Business Forcast, PricewaterhouseCoopers Technology Centre, p. 87 [20] Johansen, Robert: Groupware - computer support for business teams, New York, Free Press, Cerry Tree & Co, Application Service Providers (ASP) - Cisco White Paper, Speeding and Scaling Web Sites Using Cisco Content-Delivery Technology, Cisco White Paper, Cisco Web network Services for Content Distribution and Delivery Services,

118 - Cisco Business Case, Application Hosting Service: Opportunities for Service Providers, Summit Strategies Custom Consulting Analysis, Application Hosting: A Customer Prime, 2000, Amy Levy and Laurie McCabe - Telcoms-Mag.com, Has ASP Hype Sun Out of Control, , Michelle Petty Donegan, - ASPnews.com, Death of an ASP Pioneer, 2000, Laurie McCabe - Lucent, Web Caching Application with IPWorX, Lucent Network Care, Virtual Private Networks: An Overview, Lucent Network Care, IPWorX Web Performance,

119 Netzwerktechnologie für E-Commerce Internet Economics Seminar , ETH Zürich Prof. Dr. Burkhard Stiller Januar 17, 2001 Daniel Preisig 1 und Dario Zogg 2 1 ETHZ-INF, 8092 Zürich, 2 ETHZ-INF, 8092 Zürich,

120 Netzwerktechnologie für E-Commerce 1 Einleitung Die ständig steigende Bedeutung der rechnergestützten Telekommunikation zeigt sich heute durch die Selbstverständlichkeit von Netzdiensten wie und Web, durch verstärkte online Abwicklung von Geschäftsprozessen in Form von Online-Banking oder Internet-Präsentationen und die sehr starke Zunahme von E-Commerce und E- Business. Einhergehend mit dieser Entwicklung wachsen zwangsläufig auch die Anforderungen an die Verfügbarkeit und Zuverlässigkeit von Netzdiensten, die wesentlich durch das ihnen zu Grunde liegende Netzwerk beziehungsweise den gesamten Netzwerkverbund bestimmt sind. QoS wird in immer stärkerem Masse gewünscht und wird sich in Zukunft als Schlüsseltechnologie etablieren. Um das Vertrauen der Kunden zu gewinnen und längerfristig auch zu behalten, müssen sich die Unternehmen ernste Gedanken zum Thema Sicherheit im Internet in allen Belangen machen. Diese zwei grundlegenden Aspekte, Sicherheit und QoS werden über Erfolg oder Misserfolg im stark wachsenden neuen Mark entscheiden. Seite 3

121 Netzwerktechnologie für E-Commerce 2 QoS (Quality of Service) Das Internet, so wie es sich heute präsentiert, bietet nur Best-Effort-Service an. Der immer weiter wachsende Verkehr wird so schnell als möglich behandelt. Es können keine Garantien bezüglich Zustellung und Transport gemacht werden. Mit der rasanten Veränderung des Internets in eine kommerzielle Infrastruktur wächst das Bedürfnis nach Servicequalität [1]. QoS ist eine Eigenschaft des Netzes, um ausgewähltem Netzwerkverkehr über verschiedene darunterliegende Technologien wie Frame Relay, ATM und IP einen besseren Service zu bieten. In anderen Worten, es kann zwischen verschiedenen Verkehrsklassen differenzieren und Verkehr auf verschiedene Weise behandeln. QoS wird in unterschiedlichen Grössen gemessen: 1. Service Availability: Die Zuverlässigkeit der Benutzerverbindung zum Internetdienst. 2. Delay: Die Zeit, die ein Paket für die Durchquerung der gesamten Netzstrecke benötigt. 3. Delay Jitter: Die Abweichung im Delay, wenn gleiche Pakete die gleiche Route durchs Netz wählen. 4. Troughput 5. Packet Loss Rate: Die Rate, mit der Pakete verloren, gelöscht oder korrumpiert werden. Jedes Netzwerkdesign sollte versuchen, 1 und 4 zu maximieren, 2 zu reduzieren und 3 und 5 gar zu eliminieren [2]. 2.1 Bestehende Probleme Bei der Einführung von garantierter Dienstgüte im Internet wird man mit folgenden Problemen konfrontiert: Eine globale Einführung neuer Technologien ist mit dem Umstieg auf neue Hardund Software verbunden, doch es ist praktisch unmöglich, dies weltweit zu koordinieren. Zwei mögliche Auswege sind denkbar: 1. Einführung von QoS-Domänen, innerhalb welcher neue Technik zum Einsatz kommt. 2. QoS-Datenströme werden auf Best-Effort-Strecken, die über genügend Bandbreite verfügen, um nicht zum Bottleneck zu werden, transparent übertragen. Das Internet besteht aus heterogenen Teilnetzen. Es müssen technische Vorkehrungen bei der Übertragung in fremde Teilnetze und Abkommen bezüglich Einhaltung der Dienstgüte getroffen werden. Hierbei tritt auch das Problem der Authentifizierung auf. IP ist ein Layer 3 Protokoll, es werden keinerlei Aussagen zum physikalischen Zugriff aufs Medium gemacht. Dies hat den Vorteil, dass es auf unterschiedlichste Übertragungstechniken abgebildet werden kann. D.h. aber auch, dass eine Ressourcenreservierung bzw. Priorisierung vom jeweiligen Link-Layer Protokoll unterstützt werden muss. Jedoch sind nicht alle L2-Protokolle dafür geeignet. Eine Priorisierung ist z.b beim IEEE Standart (Ethernet) nicht vorgesehen. Seite 4

122 Netzwerktechnologie für E-Commerce 2.2 Lösungsansätze Um die Wechselwirkung zwischen unterschiedlichen Verkehrsströmen zu eliminieren, können verschiedene Wege beschritten werden. Die erste Möglichkeit besteht darin, für bestimme Servicearten Ressourcen in jedem Router und jeder Teilstrecke so zu reservieren, dass definierte QoS-Parameter eingehalten werden. Dieser Ansatz wird als Integrated Service (IntServ) bezeichnet. Der gesamte Datenverkehr kann aber auch anhand seiner Anforderungen in einige wenige Dienstgüte-Klassen unterteilt werden und den Routern unterschiedliche Verarbeitungsmuster für die jeweiligen Klassen mitgeteilt werden. Dieser Ansatz wird als Differentiated Service (DiffServ) bezeichnet. Dem Anwender müssen Mittel zur Anforderung einer Dienstgüte von einer Anwendung aus gegeben werden. Es existieren allgemein zwei Signalisierungsarten: 1. Innenband-Signalisierung: die Signalisierung wird unmittelbar mit den Daten mitgesendet. Das verwendete Protokoll muss spezielle Felder dafür vorsehen (DiffServ). 2. Aussenband -Signalisierung: es wird zusätzlich Bandbreite benötigt. So wird zum Beispiel der Verbindungsaufbau sowie die Auflösung einer Datenübertragung explizit signalisiert. Die Kanäle für die Signalisierungsdaten werden unabhängig von den Nutzdaten-Kanälen verwaltet (IntServ). Für diese Art der Signalisierung ist ein spezielles Protokoll entwickelt worden, mit dem ein Teilnehmer einen Dienst anfordern kann, das sogenannte Ressource Reservation Protokoll (RSVP) [3]. Ob überhaupt irgendwelche Mechanismen für QoS benötigt werden, ist Gegenstand einer heiss diskutierten Debatte. Die eine Seite geht davon aus, dass Glasfaser und Wavelength Division Multiplexing (WDM) billige Bandbreite im Übermass bereitstellen wird und somit QoS automatisch gegeben wäre. Die andere Seite argumentiert, dass egal wie viel Bandbreite auch bereitgestellt würde, es immer neue Applikationen gäbe, die diese voll ausschöpfen würde. Dem zufolge wird auch in Zukunft Bedarf an QoS Mechanismen bestehen, nicht zuletzt im Mobile-Bereich. Auch wenn in Zukunft unendlich viel Bandbreite vorhanden sein wird, so geht das nicht von Heute auf Morgen[1]. 2.3 Integrated Services und RSVP Eine Anpassung der IP-Protokollfamilie ermöglicht der Anwendungsschicht, über ein IP-basiertes Netz unterschiedliche (neue) Dienste zu nutzen. In erster Linie denkt man dabei an multimediale Anwendungen. Für jeden Datenstrom wird ein virtueller Kanal (VC) geschaltet. Von den Anforderungen des Datenverkehrs ausgehend wird ein QoS- Profil mit fest vorgegebenen Verkehrsparametern vereinbart. Es werden dann entlang der Route Ressourcen, entsprechend der Verfügbarkeit, in jeder Übertragungseinrichtung reserviert. Diese Reservation wird durch das Netzwerk positiv bestätigt oder aber abgelehnt. Dieser Teil des Standards wird Admission Control genannt; er entscheidet, welchen Datenströmen Schutz zugestanden wird. Ohne Admission Control würde allen Klassen alle verfügbaren Ressourcen zugestanden werden was dem Best- Effort-Paradigma entspräche. Sollte eine Applikation versuchen, Datenverkehr zu generieren, der nicht ins vereinbarte Profil passt, so wird diesem weiterhin Best-Effort- Service geboten. Seite 5

123 Netzwerktechnologie für E-Commerce Service Modelle Das Integrated Service Model schlägt zwei Serviceklassen vor: 1. Guaranteed Service [6] (GS) für Realtime intolerante Anwendungen wie zum Beispiel Videokonferenzen. Dieser Service garantiert die Bandbreite und auch eine obere Delaygrenze. 2. Controlled Load Service [7] (CL-Service) für Applikationen, die einen erweiterten und zuverlässigeren Best-Effort-Service benötigen. Er setzt sich das Ziel, dem Nutzer ein unbelastetes Netz in Zeiten der Überlast im Netz vorzutäuschen [4] RSVP Das Ressource Reservation Protocol ist ein Netzwerk Kontrollprotokoll. Es arbeitet eng mit Routing Protokollen zusammen und installiert Listen entlang der berechneten Routen der Routing Protokolle. RSVP belegt die Rolle eines Transportprotokolls im OSI Referenzmodel [3]. Ein Datenfluss in RSVP ist eine Sequenz von Nachrichten mit derselben Absender- sowie Zieladresse und denselben QoS-Para metern. Abbildung 1 - RSVP Signaling[1] Der Signalisierungsprozess ist in Abbildung 1 beschrieben. Der Sender schickt eine PATH Nachricht zum Empfänger, die die gewünschten QoS-Parameter enthält. Jeder dazwischenliegende Router entlang des Weges leitet sie zum nächsten Knoten weiter. Beim Erhalt einer PATH Nachricht antwortet der Empfänger mit einer RESV Nachricht, um die Ressourcen für den Datenstrom zu reservieren. Die RESV Nachricht folgt exakt dem zuvor bestimmten Weg. Jeder involvierte Router kann die Anfrage nun akzeptieren oder aber ablehnen. Im zweiten Fall sendet er eine Error-Nachricht zum Empfänger, womit der ganze Prozess beendet wird. Verläuft die Anfrage erfolgreich, wird Bandbreite und Pufferplatz alloziert und die entsprechenden Statusinformationen in den Routern gespeichert [1]. Sollten Änderungen entlang der Route auftreten, zum Beispiel durch Ausfall eines Routers oder eines Kabeldefekts, so muss RSVP in der Lage sein, die Statusinformationen in den Routern zu aktualisieren. Dies wird dadurch erreicht, dass PATH und RESV Nachrichten periodisch zwischen Sender und Empfänger ausgetauscht werden. Zudem wurde ein Timeout eingeführt, nach dem die Routen verfallen. Wird erneut eine PATH Message erhalten, werden die Statusinformationen neu kreiert. Am Ende der Übertragung initiiert der Sender eine PATH Tear Nachricht auf welche der Empfänger mit einer RESV Tear Meldung antwortet. Tear Nachrichten können von allen aktiven Komponenten ausgelöst werden. Seite 6

124 Netzwerktechnologie für E-Commerce Tunneling In vielen Zonen des Internets unterstützen die Netzwerkkomponenten weder RSVP noch IntServ. Damit RSVP dennoch durch eben diese Zonen funktioniert, wird Tunneling eingesetzt. Das heisst PATH und RSEV Meldungen werden in IP Pakete eingekapselt und zum nächsten RSVP fähigen Router gesendet. Das klappt aber nur dann erfolgreich, wenn diese Zonen genügend Bandbreite zur Verfügung stellen, um nicht zum Bottleneck zu werden Admission Control Eine Admission-Control-Instanz muss in jedem IntServ Endgerät sowie IntServ-fähigen Router vorhanden sein. Kommt eine Anfrage auf ein bestimmtes Interface, so prüft die Admission-Control-Einheit, ob genügend Ressourcen zur Verfügung stehen und ob der gewünschte Dienst mit dem auf dem zugehörigen Interface eingesetzten Paket- Scheduling-Verfahren gewährleistet werden kann. Es werden aber keine Berechtigungen der Teilnehmer zur Reservation überprüft Policy Control Diese optionale Einheit überprüft die Berechtigungen der Teilnehmer zu QoS- Anforderungen. Sie kümmert sich auch um die Authentisierung der Teilnehmer im Netz. Die Policy-Entscheidungen können momentan nur anhand der Senderbeziehungsweise Empfänger- IP-Adresse und/oder der jeweiligen Port-Nummer und nicht personenbezogen getroffen werden [4] Zusammenfassung, Vor- und Nachteile Die Grundidee der IS ist ähnlich der in den Telefonnetzen. Es wird versucht, eine feste Bandbreite auf den Übertragungsstrecken für einzelne Teilnehmer zu reservieren. Durch das Wissen der Grössenordung des ankommenden Verkehrs erhofft man sich eine Einsparung der Ressourcen. Man geht davon aus, dass die angemeldete Datenrate nicht dauernd genutzt wird. Das Management der Netzwerkknoten wird wesentlich erleichtert, da beim Controlled-Load Service eine Anmeldung der Sender einen Überblick über die Anforderungen ergibt. So lässt sich in Zeiten grosser Anforderungen an das Netz zum Beispiel dynamisch eine neue Verbindung erstellen. Integrated Services bieten auch einen hohen Grad an Flexibilität, denn die Ressourcenreservierung kann während der Datenübertragung geändert, angefordert oder gar aufgelöst werden [4]. Es existieren aber auch gravierende Probleme mit IS: 1. Die Menge der Statusinformationen wächst proportional mit der Anzahl der Datenströme, das führt zu einem nicht zu vernachlässigenden Management- Aufwand in den Routern und Speicherbedarf. Aus diesm Grund ist IntServ nicht beliebig skalierbar. 2. Die Ansprüche an die Router sind sehr gross; alle müssen RSVP, Admission Control usw. implementieren. 3. Uliquitous Deployment wird benötigt für GS. 2.4 Differentiated Services (DiffServ) Die Grundidee der Differentiated Services ist prinzipiell einfach die Dienste werden in wenige QoS-Klassen unterteilt. Für die entstandenen Dienstklassen wird ein Satz von Seite 7

125 Netzwerktechnologie für E-Commerce Behandlungsregeln (PHB, Per Hop Behaviour) definiert. Datenpakete werden im DS- Feld des Paketheaders entsprechend ihrer Dienstklasse markiert und unter Berücksichtigung der dafür definierten PHB weiterverarbeitet. Es können mehrere unterschiedliche Verkehrsströme mit ähnlichen QoS-Anforderungen zu grösseren Verkehrsbündeln zusammengefasst werden und durch das Netz in gleicher Weise behandelt werden. Dies ist mit einer grossen Reduzierung der Statusinformationen und deren Verwaltung im Netz verbunden. Stattdessen wird die Vorverarbeitung des Verkehrs nämlich die Markierung entsprechend der QoS-Klasse, das Policy-Control und Traffic-Shapping (Glättung der Bursts) etc. nur einmal, und zwar am Eingang in das DiffServ-Netz vorgenommen. DiffServ bringt eine neue Sicht auf die QoS- Architektur und das Zusammenspiel einzelner Bereiche mit sich. Im Mittelpunkt aller DiffServ-Betrachtungen steht eine administrative Einheit, die DiffServ-Wolke (diffserv cloud) bzw. DS-Domäne. Die administrativen Abkommen und Vereinbarungen spielen hierbei eine übergeordnete Rolle. Mit der Entwicklung dieses Modells wurde nicht versucht, eine einheitliche Behandlung des DiffServ-Verkehrs internetweit zu erzielen, vielmehr bildet man mehrere solcher DS-Domänen, innerhalb derer feste Verarbeitungsregeln definiert sind. Die Behandlung der Daten beim Eintritt bzw. beim Verlassen solcher Bereiche wird in diversen Abkommen festgehalten und entsprechend auf die Datenströme angewendet. Abbildung 2[4] Das DS-Feld In den Differentiated Services wird das TOS-Feld des IPv4 Headers[6] beziehungsweise das Traffic Class Octett des IPv6 Headers[7] als DS-Feld bezeichnet. Für die Differenzierung unterschiedlicher Fluss-Aggregate werden die ersten 6 Bits des Oktetts verwendet, DS-Codepoint genannt beziehungsweise DSCP. Mittels dieser entscheidet der DS-Knoten, welche PHB darauf angewandt wird. Jedem DSCP entspricht genau ein PHB. Dies führt zu einer Tabellenauswertung, siehe Abbildung 3. Seite 8

126 Netzwerktechnologie für E-Commerce Per Hop Behaviors Abbildung 3[4] PHB beschreiben das von aussen sichtbare Verhalten eines DS-Knotens angewandt auf ein Aggregat. Die Core Router im DiffServ Model brauchen nun Pakete nur zu den spezifizierten PHB weiterzuleiten. Verschiedene Verhaltensmuster werden nur dann beobachtet, wenn mehrere unterschiedliche Aggregate sich um Puffer und Bandbreite in einem Knoten streiten. PHBs können entweder bezüglich ihrer Ressourcen (Bandbreite und Puffer) oder bezüglich ihrer Priorität relativ zu anderen PHB s oder bezüglich Verkehrseigenschaften (z.b delay und Verlustrate) vereinbart werden. PHBs werden im Knoten durch ein bestimmtes Puffer-Management und Schedulingmechanismen implementiert. Alle DSCP müssen einen assoziierten PHB besitzen. Ist dies nicht der Fall, werden sie auf einen Standard-PHB gemappt. Die innerhalb einer DS-Domäne implementierten PHBs haben eine lokale Bedeutung. Die Interoperation zwischen mehreren DS-Domänen beruht auf den jeweils zwischen zwei Teilnehmern vereinbarten SLAs (Service Level Agrements). Im Juni 1999 haben zwei Spezifikationen einer PHB bzw. einer PHB-Group den Status eines RFC erhalten. Zweck ist es, die Interoperabilität zu erhöhen. Dies sind: 1. Expedited Forwarding 2. Assured Forwarding Expedited Forwarding PHB (EF-PHB) Die EF-PHB soll, ähnlich zum Controlled Load Service, lediglich einen besseren Best- Effort-Service anbieten. Sie wird oft auch als Premium Service bezeichnet. Den weitergeleiteten Daten wird nur die Datenrate zugesichert. Der Durchsatz muss unabhängig von der Belastung auf dem Netz gewährleistet werden. Das EF-Verhalten kann mit Hilfe des Priority Queuing oder Weighted Fair Queuing realisiert werden. Weitere Informationen unter [22]. Der Queue muss zudem ein Token Bucket vorgeschaltet sein, der die Funktion eines Policers übernimmt. Pakete, die die vereinbarten Parameter überschreiten, müssen verworfen werden. Es muss auch sichergestellt werden, dass Best- Effort-Daten nicht vollständig verdrängt werden. Der DSCP für EF-PHB ist Assured Forwarding PHB-Group (AF-PHB) Die Gruppe definiert 4 unabhängige AF-Klassen, innerhalb jeder einem Datenpaket eine (relative) Verlustwahrscheinlichkeit Drop-Precedence zugewiesen wird. Eine Überschreitung der vereinbarten Traffic Profils wird zugelassen; es kann dabei aber eine geringere Dienstgüte gewährleistet werden. Es sollte sichergestellt werden, dass die Datenpakete eines Microflows ihre Reihenfolge beibehalten. Die Pakete werden Seite 9

127 Netzwerktechnologie für E-Commerce entweder beim Kunden oder beim ISP mit der gewünschten Klasse und Drop- Precedence vormarkiert. Bei Überlastung werden die Pakete mir höherer Drop- Precedence zuerst verworfen. Die Weiterleitungswahrscheinlichkeit eines Paketes bei einem Knoten hängt von folgenden drei Faktoren ab: 1. Anzahl der reservierten Ressourcen für die AF-Klasse 2. Höhe der aktuellen Netzbelastung 3. Verlustwahrscheinlichkeit des Paketes Gegenwärtige Implementationen unterstützen vier Klassen mit jeweils drei Verlustwahrscheinlichkeiten. Der Verkehr einer PHB Klasse wird unabhängig von den Paketen anderer PHB Klassen weitergeleitet. Ein DS Knoten darf keine Klassen aggregieren. An den Grenzen der DS Domain können die Pakete neu konditioniert werden (shaped, discarded, erhöhen oder absenken der Drop-Precedence etc.) Die AF-PHB kann zur Implementierung eines Ende-zu-Ende Service beziehungsweise Service zwischen Domänengrenzen eingesetzt werden [4]. 2.5 Multiprotocol Label Switching (MPLS) MPLS kombiniert das Beste von beiden Welten - ATM s circuit switching und IP s Paket routing. Es ist eine Hybrid Technologie, die sehr schnelles Weiterleiten im Kern und konventionelles Routing an den Enden des Netzes ermöglicht. Paketen wird am Eingang zu einer MPLS Domain, der sich oft im Kern-Backbone eines Providers befindet, ein Label zugewiesen. Sie werden anhand eines simplen Labellookups geswitched. Beim Austritt werden die Labels entfernt und die Pakete können ganz normal weiterverarbeitet werden. Für detailierte Informationen siehe [1]. 2.6 Vor- und Nachteile IntServ/DiffServ Best-Effort-Zustellung besitzt keine Zustellungsgarantie. Es gibt keine fixen Grenzwerte für Parameter wie Delay Jitter, Bandbreite, Delay etc. Das heisst, Applikationen die QoS benötigen, können nicht über ein pures Best-Effort-Netzwerk laufen. IntServ wurde eingeführt, um in einem Best-Effort-Netzwerk Ressourcen im Vornherein zu reservieren, so dass der ausgewählte Datenstrom das Privileg, mit mehr Ressourcen versorgt zu werden, geniessen kann. Doch dies hat die folgenden Nachteile: IntServ Nachteile: 1. IntServ macht Router sehr kompliziert. Router benötigen Module, die RSVP Reservationen und den Fluss entsprechend diesen behandeln kann. Zusätzlich müssen sie RSVP Nachrichten unterstützen und sich mit Policy Servern absprechen. 2. Es ist nicht mit der Anzahl der Datenströme skalierbar. 3. RSVP funktionniert nur empfängerbasiert. Reservationen können nur duch willige Empfänger ausgelöst werden. 4. RSVP bürdet den dazwischengeschalteten Routern den Unterhalt der Soft States auf. Das bedeutet, dass die Router permanent die Statusinformationen jedes Datenstroms überwachen und updaten müssen. Seite 10

128 Netzwerktechnologie für E-Commerce 5. Es gibt keine Verhandlung und keine Rückverfolgung. Um das Problem der Skalierbarkeit zu lösen, wurde DiffServ vorgeschlagen. Es führt das Konzept der Aggregating Flows ein, mit denen die Anzahl der Ströme im Backbone Router eines Providers verwaltbar klein blieben. Aber auch das hat verschiedene Nachteile: DiffServ Nachteile: 1. Etappenweise Anbietung von QoS für einen Verkehrsfluss kann oft kein Ende-zu- Ende QoS garantieren. 2. DiffServ geht von einer statischen SLA Konfiguration aus. Aber in der realen Welt ändert sich die Netztopologie sehr schnell. 3. DiffServ ist senderorientiert, jedoch in vielen Flüssen müssen die Wünsche des Empfängers in Betracht gezogen werden. 4. Grosse Flüsse, wie zum Beispiel bandbreitenverbrauchende Videokonferenzen, benötigen Pro-Fluss Garantien. DiffServ bietet diese aber nur den Aggregaten. 5. Die Signalisierung und das Ressourcenmanagement ist noch nicht hinreichen gelöst. 2.7 Netzwerkarchitektur der Zukunft Im aufkommenden QoS Gerüst werden die Pakete im Kern sehr schnell weitergeleitet. Die Kern Backbone Infrastruktur besteht aus Glassfaser, auf welchen Dense Wavelenght Division Multiplexing (DWDM) eingesetzt werden kann. Kern Router verwenden MPLS, und auch ATM Switches komplettieren das Kernnetz. An den Enden findet in den Routern die Klassifizierung, Policy, Marking, Metering usw statt. Hier können Ressourcen mittels RSVP und IntServ bereitgestellt werden. Im Kern könnte DiffServ verwendet werden, um die Anzahl der Verkehrsflüsse auf einem verwaltbaren Niveau zu halten. Die Basisphilosophie dieses Models besteht darin, möglichst viele rechenintensive Funktionen aus dem Kern an die Enden zu verlagern. So blieben die Kern Router mit ihrer eigentlichen Aufgabe, schnellstmöglich die Pakete zu verarbeiten, ungestöhrt [2][23]. Abbildung 4 - Netzwerk Architekur[2] Seite 11

Routing in WSN Exercise

Routing in WSN Exercise Routing in WSN Exercise Thomas Basmer telefon: 0335 5625 334 fax: 0335 5625 671 e-mail: basmer [ at ] ihp-microelectronics.com web: Outline Routing in general Distance Vector Routing Link State Routing


There are 10 weeks this summer vacation the weeks beginning: June 23, June 30, July 7, July 14, July 21, Jul 28, Aug 4, Aug 11, Aug 18, Aug 25

There are 10 weeks this summer vacation the weeks beginning: June 23, June 30, July 7, July 14, July 21, Jul 28, Aug 4, Aug 11, Aug 18, Aug 25 Name: AP Deutsch Sommerpaket 2014 The AP German exam is designed to test your language proficiency your ability to use the German language to speak, listen, read and write. All the grammar concepts and



JONATHAN JONA WISLER WHD.global JONATHAN WISLER JONATHAN WISLER WHD.global CLOUD IS THE FUTURE By 2014, the personal cloud will replace the personal computer at the center of users' digital lives Gartner CLOUD TYPES SaaS IaaS PaaS


Corporate Digital Learning, How to Get It Right. Learning Café

Corporate Digital Learning, How to Get It Right. Learning Café 0 Corporate Digital Learning, How to Get It Right Learning Café Online Educa Berlin, 3 December 2015 Key Questions 1 1. 1. What is the unique proposition of digital learning? 2. 2. What is the right digital






p^db=`oj===pìééçêíáåñçêã~íáçå= p^db=`oj===pìééçêíáåñçêã~íáçå= Error: "Could not connect to the SQL Server Instance" or "Failed to open a connection to the database." When you attempt to launch ACT! by Sage or ACT by Sage Premium for


Mitglied der Leibniz-Gemeinschaft

Mitglied der Leibniz-Gemeinschaft Methods of research into dictionary use: online questionnaires Annette Klosa (Institut für Deutsche Sprache, Mannheim) 5. Arbeitstreffen Netzwerk Internetlexikografie, Leiden, 25./26. März 2013 Content


Lehrstuhl für Allgemeine BWL Strategisches und Internationales Management Prof. Dr. Mike Geppert Carl-Zeiß-Str. 3 07743 Jena

Lehrstuhl für Allgemeine BWL Strategisches und Internationales Management Prof. Dr. Mike Geppert Carl-Zeiß-Str. 3 07743 Jena Lehrstuhl für Allgemeine BWL Strategisches und Internationales Management Prof. Dr. Mike Geppert Carl-Zeiß-Str. 3 07743 Jena http://www.im.uni-jena.de Contents I. Learning Objectives II. III. IV. Recap


Customer-specific software for autonomous driving and driver assistance (ADAS)

Customer-specific software for autonomous driving and driver assistance (ADAS) This press release is approved for publication. Press Release Chemnitz, February 6 th, 2014 Customer-specific software for autonomous driving and driver assistance (ADAS) With the new product line Baselabs


Prediction Market, 28th July 2012 Information and Instructions. Prognosemärkte Lehrstuhl für Betriebswirtschaftslehre insbes.

Prediction Market, 28th July 2012 Information and Instructions. Prognosemärkte Lehrstuhl für Betriebswirtschaftslehre insbes. Prediction Market, 28th July 2012 Information and Instructions S. 1 Welcome, and thanks for your participation Sensational prices are waiting for you 1000 Euro in amazon vouchers: The winner has the chance


Titelbild1 ANSYS. Customer Portal LogIn

Titelbild1 ANSYS. Customer Portal LogIn Titelbild1 ANSYS Customer Portal LogIn 1 Neuanmeldung Neuanmeldung: Bitte Not yet a member anklicken Adressen-Check Adressdaten eintragen Customer No. ist hier bereits erforderlich HERE - Button Hier nochmal


Franke & Bornberg award AachenMünchener private annuity insurance schemes top grades

Franke & Bornberg award AachenMünchener private annuity insurance schemes top grades Franke & Bornberg award private annuity insurance schemes top grades Press Release, December 22, 2009 WUNSCHPOLICE STRATEGIE No. 1 gets best possible grade FFF ( Excellent ) WUNSCHPOLICE conventional annuity


Exercise (Part II) Anastasia Mochalova, Lehrstuhl für ABWL und Wirtschaftsinformatik, Kath. Universität Eichstätt-Ingolstadt 1

Exercise (Part II) Anastasia Mochalova, Lehrstuhl für ABWL und Wirtschaftsinformatik, Kath. Universität Eichstätt-Ingolstadt 1 Exercise (Part II) Notes: The exercise is based on Microsoft Dynamics CRM Online. For all screenshots: Copyright Microsoft Corporation. The sign ## is you personal number to be used in all exercises. All


eurex rundschreiben 094/10

eurex rundschreiben 094/10 eurex rundschreiben 094/10 Datum: Frankfurt, 21. Mai 2010 Empfänger: Alle Handelsteilnehmer der Eurex Deutschland und Eurex Zürich sowie Vendoren Autorisiert von: Jürg Spillmann Weitere Informationen zur






ONLINE LICENCE GENERATOR Index Introduction... 2 Change language of the User Interface... 3 Menubar... 4 Sold Software... 5 Explanations of the choices:... 5 Call of a licence:... 7 Last query step... 9 Call multiple licenses:...


HIR Method & Tools for Fit Gap analysis

HIR Method & Tools for Fit Gap analysis HIR Method & Tools for Fit Gap analysis Based on a Powermax APML example 1 Base for all: The Processes HIR-Method for Template Checks, Fit Gap-Analysis, Change-, Quality- & Risk- Management etc. Main processes


Inequality Utilitarian and Capabilities Perspectives (and what they may imply for public health)

Inequality Utilitarian and Capabilities Perspectives (and what they may imply for public health) Inequality Utilitarian and Capabilities Perspectives (and what they may imply for public health) 1 Utilitarian Perspectives on Inequality 2 Inequalities matter most in terms of their impact onthelivesthatpeopleseektoliveandthethings,


H Mcast Future Internet made in Hamburg?

H Mcast Future Internet made in Hamburg? H Mcast Future Internet made in Hamburg? Thomas Schmidt (HAW Hamburg) schmidt@informatik.haw-hamburg.de Forschungsschwerpunkt: IMS Interagierende Multimediale Systeme 1 Prof. Dr. Thomas Schmidt http://www.haw-hamburg.de/inet


Role Play I: Ms Minor Role Card. Ms Minor, accountant at BIGBOSS Inc.

Role Play I: Ms Minor Role Card. Ms Minor, accountant at BIGBOSS Inc. Role Play I: Ms Minor Role Card Conversation between Ms Boss, CEO of BIGBOSS Inc. and Ms Minor, accountant at BIGBOSS Inc. Ms Boss: Guten Morgen, Frau Minor! Guten Morgen, Herr Boss! Frau Minor, bald steht


Notice: All mentioned inventors have to sign the Report of Invention (see page 3)!!!

Notice: All mentioned inventors have to sign the Report of Invention (see page 3)!!! REPORT OF INVENTION Please send a copy to An die Abteilung Technologietransfer der Universität/Hochschule An die Technologie-Lizenz-Büro (TLB) der Baden-Württembergischen Hochschulen GmbH Ettlinger Straße


Einsatz einer Dokumentenverwaltungslösung zur Optimierung der unternehmensübergreifenden Kommunikation

Einsatz einer Dokumentenverwaltungslösung zur Optimierung der unternehmensübergreifenden Kommunikation Einsatz einer Dokumentenverwaltungslösung zur Optimierung der unternehmensübergreifenden Kommunikation Eine Betrachtung im Kontext der Ausgliederung von Chrysler Daniel Rheinbay Abstract Betriebliche Informationssysteme


Communications & Networking Accessories

Communications & Networking Accessories 3Com10 Mbit (Combo) 3Com world leading in network technologies is a strategic partner of Fujitsu Siemens Computers. Therefore it is possible for Fujitsu Siemens Computers to offer the very latest in mobile


Rough copy for the art project >hardware/software< of the imbenge-dreamhouse artist Nele Ströbel.

Rough copy for the art project >hardware/software< of the imbenge-dreamhouse artist Nele Ströbel. Rough copy for the art project >hardware/software< of the imbenge-dreamhouse artist. Title >hardware/software< This art project reflects different aspects of work and its meaning for human kind in our


Level 2 German, 2013

Level 2 German, 2013 91126 911260 2SUPERVISOR S Level 2 German, 2013 91126 Demonstrate understanding of a variety of written and / or visual German text(s) on familiar matters 9.30 am Monday 11 November 2013 Credits: Five





NEWSLETTER. FileDirector Version 2.5 Novelties. Filing system designer. Filing system in WinClient

NEWSLETTER. FileDirector Version 2.5 Novelties. Filing system designer. Filing system in WinClient Filing system designer FileDirector Version 2.5 Novelties FileDirector offers an easy way to design the filing system in WinClient. The filing system provides an Explorer-like structure in WinClient. The


Release Notes BRICKware 7.5.4. Copyright 23. March 2010 Funkwerk Enterprise Communications GmbH Version 1.0

Release Notes BRICKware 7.5.4. Copyright 23. March 2010 Funkwerk Enterprise Communications GmbH Version 1.0 Release Notes BRICKware 7.5.4 Copyright 23. March 2010 Funkwerk Enterprise Communications GmbH Version 1.0 Purpose This document describes new features, changes, and solved problems of BRICKware 7.5.4.


Outline. 5. A Chance for Entrepreneurs? Porter s focus strategy and the long tail concept. 6. Discussion. Prof. Dr. Anne König, Germany, 27. 08.

Outline. 5. A Chance for Entrepreneurs? Porter s focus strategy and the long tail concept. 6. Discussion. Prof. Dr. Anne König, Germany, 27. 08. Mass Customized Printed Products A Chance for Designers and Entrepreneurs? Burgdorf, 27. 08. Beuth Hochschule für Technik Berlin Prof. Dr. Anne König Outline 1. Definitions 2. E-Commerce: The Revolution


Possible Solutions for Development of Multilevel Pension System in the Republic of Azerbaijan

Possible Solutions for Development of Multilevel Pension System in the Republic of Azerbaijan Possible Solutions for Development of Multilevel Pension System in the Republic of Azerbaijan by Prof. Dr. Heinz-Dietrich Steinmeyer Introduction Multi-level pension systems Different approaches Different


Virtual PBX and SMS-Server

Virtual PBX and SMS-Server Virtual PBX and SMS-Server Software solutions for more mobility and comfort * The software is delivered by e-mail and does not include the boxes 1 2007 com.sat GmbH Kommunikationssysteme Schwetzinger Str.


Labour law and Consumer protection principles usage in non-state pension system

Labour law and Consumer protection principles usage in non-state pension system Labour law and Consumer protection principles usage in non-state pension system by Prof. Dr. Heinz-Dietrich Steinmeyer General Remarks In private non state pensions systems usually three actors Employer



ELBA2 ILIAS TOOLS AS SINGLE APPLICATIONS ELBA2 ILIAS TOOLS AS SINGLE APPLICATIONS An AAA/Switch cooperative project run by LET, ETH Zurich, and ilub, University of Bern Martin Studer, ilub, University of Bern Julia Kehl, LET, ETH Zurich 1 Contents


1. General information... 2 2. Login... 2 3. Home... 3 4. Current applications... 3

1. General information... 2 2. Login... 2 3. Home... 3 4. Current applications... 3 User Manual for Marketing Authorisation and Lifecycle Management of Medicines Inhalt: User Manual for Marketing Authorisation and Lifecycle Management of Medicines... 1 1. General information... 2 2. Login...


Lehrstuhl für Allgemeine BWL Strategisches und Internationales Management Prof. Dr. Mike Geppert Carl-Zeiß-Str. 3 07743 Jena

Lehrstuhl für Allgemeine BWL Strategisches und Internationales Management Prof. Dr. Mike Geppert Carl-Zeiß-Str. 3 07743 Jena Lehrstuhl für Allgemeine BWL Strategisches und Internationales Management Prof. Dr. Mike Geppert Carl-Zeiß-Str. 3 07743 Jena http://www.im.uni-jena.de Contents I. Learning Objectives II. III. IV. Recap


Organisatorisches (1)

Organisatorisches (1) Organisatorisches (1) Abteilung Echtzeitsysteme und Kommunikation http://ivs.cs.uni-magdeburg.de/euk nett@ivs.cs.uni-magdeburg.de Sekretariat Frau Duckstein, 29/405, Tel. 67-18345 Web-Adresse http://ivs.cs.uni-magdeburg.de/euk/lehre/lehrveranstaltungen/ss09/kun.shtml


WP2. Communication and Dissemination. Wirtschafts- und Wissenschaftsförderung im Freistaat Thüringen

WP2. Communication and Dissemination. Wirtschafts- und Wissenschaftsförderung im Freistaat Thüringen WP2 Communication and Dissemination Europa Programm Center Im Freistaat Thüringen In Trägerschaft des TIAW e. V. 1 GOALS for WP2: Knowledge information about CHAMPIONS and its content Direct communication



VGM. VGM information. HAMBURG SÜD VGM WEB PORTAL - USER GUIDE June 2016 Overview The Hamburg Süd VGM-Portal is an application which enables to submit VGM information directly to Hamburg Süd via our e-portal web page. You can choose to insert VGM information directly, or download


AS Path-Prepending in the Internet And Its Impact on Routing Decisions

AS Path-Prepending in the Internet And Its Impact on Routing Decisions (SEP) Its Impact on Routing Decisions Zhi Qi ytqz@mytum.de Advisor: Wolfgang Mühlbauer Lehrstuhl für Netzwerkarchitekturen Background Motivation BGP -> core routing protocol BGP relies on policy routing








Support Technologies based on Bi-Modal Network Analysis. H. Ulrich Hoppe. Virtuelles Arbeiten und Lernen in projektartigen Netzwerken

Support Technologies based on Bi-Modal Network Analysis. H. Ulrich Hoppe. Virtuelles Arbeiten und Lernen in projektartigen Netzwerken Support Technologies based on Bi-Modal Network Analysis H. Agenda 1. Network analysis short introduction 2. Supporting the development of virtual organizations 3. Supporting the development of compentences


Static Lightpath Routing in IP over WDM Networks

Static Lightpath Routing in IP over WDM Networks Static Lightpath Routing in IP over WDM Networks Universität Würzburg/ITG Fachgruppe 5.. Workshop IP Netzmanagement, IP Netzplanung, und Optimierung Würzburg, Germany - July 4, 00 Dominic Schupke Munich


Prediction Market, 12th June 3rd July 2012 Information and Instructions. Prognosemärkte Lehrstuhl für Betriebswirtschaftslehre insbes.

Prediction Market, 12th June 3rd July 2012 Information and Instructions. Prognosemärkte Lehrstuhl für Betriebswirtschaftslehre insbes. Prediction Market, 12th June 3rd July 2012 Information and Instructions S. 1 Welcome, and thanks for your participation Sensational prices are waiting for you 1000 Euro in amazon vouchers: The winner has



p^db=`oj===pìééçêíáåñçêã~íáçå= p^db=`oj===pìééçêíáåñçêã~íáçå= How to Disable User Account Control (UAC) in Windows Vista You are attempting to install or uninstall ACT! when Windows does not allow you access to needed files or folders.





1.2 QoS-Verbesserungen

1.2 QoS-Verbesserungen Read Me System Software 7.9.1 PATCH 4 Deutsch Diese Version unserer Systemsoftware ist für Geräte der Rxxx2-Serie verfügbar. Folgende Änderungen sind vorgenommen worden: 1.1 Ethernet - Zusätzliche MC-Adressen


XONTRO Newsletter. Financial Institutes. No. 70

XONTRO Newsletter. Financial Institutes. No. 70 XONTRO Newsletter Financial Institutes No. 70 Page 1 This XONTRO Newsletter for Financial Institutes contains information covering the following topics: BCIN BV processing control handling ( Bearbeitung


XML Template Transfer Transfer project templates easily between systems

XML Template Transfer Transfer project templates easily between systems Transfer project templates easily between systems A PLM Consulting Solution Public The consulting solution XML Template Transfer enables you to easily reuse existing project templates in different PPM


Exercise (Part XI) Anastasia Mochalova, Lehrstuhl für ABWL und Wirtschaftsinformatik, Kath. Universität Eichstätt-Ingolstadt 1

Exercise (Part XI) Anastasia Mochalova, Lehrstuhl für ABWL und Wirtschaftsinformatik, Kath. Universität Eichstätt-Ingolstadt 1 Exercise (Part XI) Notes: The exercise is based on Microsoft Dynamics CRM Online. For all screenshots: Copyright Microsoft Corporation. The sign ## is you personal number to be used in all exercises. All


Efficient Design Space Exploration for Embedded Systems

Efficient Design Space Exploration for Embedded Systems Diss. ETH No. 16589 Efficient Design Space Exploration for Embedded Systems A dissertation submitted to the SWISS FEDERAL INSTITUTE OF TECHNOLOGY ZURICH for the degree of Doctor of Sciences presented by


Algorithms for graph visualization

Algorithms for graph visualization Algorithms for graph visualization Project - Orthogonal Grid Layout with Small Area W INTER SEMESTER 2013/2014 Martin No llenburg KIT Universita t des Landes Baden-Wu rttemberg und nationales Forschungszentrum


Exercise (Part I) Anastasia Mochalova, Lehrstuhl für ABWL und Wirtschaftsinformatik, Kath. Universität Eichstätt-Ingolstadt 1

Exercise (Part I) Anastasia Mochalova, Lehrstuhl für ABWL und Wirtschaftsinformatik, Kath. Universität Eichstätt-Ingolstadt 1 Exercise (Part I) Notes: The exercise is based on Microsoft Dynamics CRM Online. For all screenshots: Copyright Microsoft Corporation. The sign ## is you personal number to be used in all exercises. All





Themen für Seminararbeiten WS 15/16

Themen für Seminararbeiten WS 15/16 Themen für Seminararbeiten WS 15/16 Institut für nachhaltige Unternehmensführung Themenblock A: 1) Carsharing worldwide - An international Comparison 2) The influence of Carsharing towards other mobility


Eingebettete Taktübertragung auf Speicherbussen

Eingebettete Taktübertragung auf Speicherbussen Eingebettete Taktübertragung auf Speicherbussen Johannes Reichart Workshop Hochgeschwindigkeitsschnittstellen Stuttgart, 07.11.2008 Unterstützt durch: Qimonda AG, München Institut für Prof. Elektrische


Bayerisches Landesamt für Statistik und Datenverarbeitung Rechenzentrum Süd. z/os Requirements 95. z/os Guide in Lahnstein 13.

Bayerisches Landesamt für Statistik und Datenverarbeitung Rechenzentrum Süd. z/os Requirements 95. z/os Guide in Lahnstein 13. z/os Requirements 95. z/os Guide in Lahnstein 13. März 2009 0 1) LOGROTATE in z/os USS 2) KERBEROS (KRB5) in DFS/SMB 3) GSE Requirements System 1 Requirement Details Description Benefit Time Limit Impact


SELF-STUDY DIARY (or Lerntagebuch) GER102

SELF-STUDY DIARY (or Lerntagebuch) GER102 SELF-STUDY DIARY (or Lerntagebuch) GER102 This diary has several aims: To show evidence of your independent work by using an electronic Portfolio (i.e. the Mahara e-portfolio) To motivate you to work regularly


Darstellung und Anwendung der Assessmentergebnisse

Darstellung und Anwendung der Assessmentergebnisse Process flow Remarks Role Documents, data, tool input, output Important: Involve as many PZU as possible PZO Start Use appropriate templates for the process documentation Define purpose and scope Define


CHAMPIONS Communication and Dissemination

CHAMPIONS Communication and Dissemination CHAMPIONS Communication and Dissemination Europa Programm Center Im Freistaat Thüringen In Trägerschaft des TIAW e. V. 1 CENTRAL EUROPE PROGRAMME CENTRAL EUROPE PROGRAMME -ist als größtes Aufbauprogramm


ISO 15504 Reference Model

ISO 15504 Reference Model Process flow Remarks Role Documents, data, tools input, output Start Define purpose and scope Define process overview Define process details Define roles no Define metrics Pre-review Review yes Release


Group and Session Management for Collaborative Applications

Group and Session Management for Collaborative Applications Diss. ETH No. 12075 Group and Session Management for Collaborative Applications A dissertation submitted to the SWISS FEDERAL INSTITUTE OF TECHNOLOGY ZÜRICH for the degree of Doctor of Technical Seiences


Creating OpenSocial Gadgets. Bastian Hofmann

Creating OpenSocial Gadgets. Bastian Hofmann Creating OpenSocial Gadgets Bastian Hofmann Agenda Part 1: Theory What is a Gadget? What is OpenSocial? Privacy at VZ-Netzwerke OpenSocial Services OpenSocial without Gadgets - The Rest API Part 2: Practical


Level 2 German, 2015

Level 2 German, 2015 91126 911260 2SUPERVISOR S Level 2 German, 2015 91126 Demonstrate understanding of a variety of written and / or visual German text(s) on familiar matters 2.00 p.m. Friday 4 December 2015 Credits: Five


Cameraserver mini. commissioning. Ihre Vision ist unsere Aufgabe

Cameraserver mini. commissioning. Ihre Vision ist unsere Aufgabe Cameraserver mini commissioning Page 1 Cameraserver - commissioning Contents 1. Plug IN... 3 2. Turn ON... 3 3. Network configuration... 4 4. Client-Installation... 6 4.1 Desktop Client... 6 4.2 Silverlight





European Qualification Strategies in Information and Communications Technology (ICT)

European Qualification Strategies in Information and Communications Technology (ICT) European Qualification Strategies in Information and Communications Technology (ICT) Towards a European (reference) ICT Skills and Qualification Framework Results and Recommendations from the Leornardo-da-Vinci-II


Infrastructure as a Service (IaaS) Solutions for Online Game Service Provision

Infrastructure as a Service (IaaS) Solutions for Online Game Service Provision Infrastructure as a Service (IaaS) Solutions for Online Game Service Provision Zielsetzung: System Verwendung von Cloud-Systemen für das Hosting von online Spielen (IaaS) Reservieren/Buchen von Resources


Training, Präsentation, Wettbewerb in der KNX city

Training, Präsentation, Wettbewerb in der KNX city Training, Presentation, Competition at KNX city Training, Präsentation, Wettbewerb in der KNX city SCHOOL AREA SCHOOL AREA Learn the basics of KNX and ETS from experienced KNX tutors in less than 0 minutes.


Europe Job Bank Schülerumfrage. Projektpartner. Euro-Schulen Halle

Europe Job Bank Schülerumfrage. Projektpartner. Euro-Schulen Halle Europe Job Bank Schülerumfrage Projektpartner Euro-Schulen Halle Alter: Geschlecht: M W Ausbildung als: F 1 Was war der Hauptgrund für Deine Wahl der Ausbildung / Deine Berufswahl? a. Freunde b. Familie


Hazards and measures against hazards by implementation of safe pneumatic circuits

Hazards and measures against hazards by implementation of safe pneumatic circuits Application of EN ISO 13849-1 in electro-pneumatic control systems Hazards and measures against hazards by implementation of safe pneumatic circuits These examples of switching circuits are offered free


Introducing PAThWay. Structured and methodical performance engineering. Isaías A. Comprés Ureña Ventsislav Petkov Michael Firbach Michael Gerndt

Introducing PAThWay. Structured and methodical performance engineering. Isaías A. Comprés Ureña Ventsislav Petkov Michael Firbach Michael Gerndt Introducing PAThWay Structured and methodical performance engineering Isaías A. Comprés Ureña Ventsislav Petkov Michael Firbach Michael Gerndt Technical University of Munich Overview Tuning Challenges


ISO 15504 Reference Model

ISO 15504 Reference Model Prozess Dimension von SPICE/ISO 15504 Process flow Remarks Role Documents, data, tools input, output Start Define purpose and scope Define process overview Define process details Define roles no Define


Frequently asked Questions for Kaercher Citrix (apps.kaercher.com)

Frequently asked Questions for Kaercher Citrix (apps.kaercher.com) Frequently asked Questions for Kaercher Citrix (apps.kaercher.com) Inhalt Content Citrix-Anmeldung Login to Citrix Was bedeutet PIN und Token (bei Anmeldungen aus dem Internet)? What does PIN and Token


Integration of D-Grid Sites in NGI-DE Monitoring

Integration of D-Grid Sites in NGI-DE Monitoring Integration of D-Grid Sites in NGI-DE Monitoring Steinbuch Centre for Computing Foued Jrad www.kit.edu D-Grid Site Monitoring Status! Prototype D-Grid Site monitoring based on Nagios running on sitemon.d-grid.de


Instruktionen Mozilla Thunderbird Seite 1

Instruktionen Mozilla Thunderbird Seite 1 Instruktionen Mozilla Thunderbird Seite 1 Instruktionen Mozilla Thunderbird Dieses Handbuch wird für Benutzer geschrieben, die bereits ein E-Mail-Konto zusammenbauen lassen im Mozilla Thunderbird und wird


Ingenics Project Portal

Ingenics Project Portal Version: 00; Status: E Seite: 1/6 This document is drawn to show the functions of the project portal developed by Ingenics AG. To use the portal enter the following URL in your Browser: https://projectportal.ingenics.de


GRIPS - GIS basiertes Risikoanalyse-, Informations- und Planungssystem

GRIPS - GIS basiertes Risikoanalyse-, Informations- und Planungssystem GRIPS - GIS basiertes Risikoanalyse-, Informations- und Planungssystem GIS based risk assessment and incident preparation system Gregor Lämmel TU Berlin GRIPS joined research project TraffGo HT GmbH Rupprecht


Prof. Dr. Bryan T. Adey

Prof. Dr. Bryan T. Adey Leiter der Bachelor- Prof. Dr. Bryan T. Adey Institut: Fachbereich: IBI Infrastrukturmanagement Anzahl Themen: 5 Themen direkt auf der Website der Professur/des Instituts veröffentlicht Link: http://www.im.ibi.ethz.ch/lehre/studienarbeit


How to access licensed products from providers who are already operating productively in. General Information... 2. Shibboleth login...

How to access licensed products from providers who are already operating productively in. General Information... 2. Shibboleth login... Shibboleth Tutorial How to access licensed products from providers who are already operating productively in the SWITCHaai federation. General Information... 2 Shibboleth login... 2 Separate registration


Patentrelevante Aspekte der GPLv2/LGPLv2

Patentrelevante Aspekte der GPLv2/LGPLv2 Patentrelevante Aspekte der GPLv2/LGPLv2 von RA Dr. Till Jaeger OSADL Seminar on Software Patents and Open Source Licensing, Berlin, 6./7. November 2008 Agenda 1. Regelungen der GPLv2 zu Patenten 2. Implizite


Porsche Consulting. Operational excellence successful processes from the automotive industry and their applications in medical technology

Porsche Consulting. Operational excellence successful processes from the automotive industry and their applications in medical technology Porsche Consulting Operational excellence successful processes from the automotive industry and their applications in medical technology Especially crucial in medical technology: a healthy company. Germany


English grammar BLOCK F:

English grammar BLOCK F: Grammatik der englischen Sprache UNIT 24 2. Klasse Seite 1 von 13 English grammar BLOCK F: UNIT 21 Say it more politely Kennzeichen der Modalverben May and can Adverbs of manner Irregular adverbs Synonyms





Die Renaissance von Unified Communication in der Cloud. Daniel Jonathan Valik UC, Cloud and Collaboration

Die Renaissance von Unified Communication in der Cloud. Daniel Jonathan Valik UC, Cloud and Collaboration Die Renaissance von Unified Communication in der Cloud Daniel Jonathan Valik UC, Cloud and Collaboration AGENDA Das Program der nächsten Minuten... 1 2 3 4 Was sind die derzeitigen Megatrends? Unified


Fakultät III Univ.-Prof. Dr. Jan Franke-Viebach

Fakultät III Univ.-Prof. Dr. Jan Franke-Viebach 1 Universität Siegen Fakultät III Univ.-Prof. Dr. Jan Franke-Viebach Klausur Monetäre Außenwirtschaftstheorie und politik / International Macro Wintersemester 2011-12 (1. Prüfungstermin) Bearbeitungszeit:





Mehr erreichen mit der bestehenden Infrastuktur. Mathias Widler Regional Sales Manager DACH mwidler@a10networks.com

Mehr erreichen mit der bestehenden Infrastuktur. Mathias Widler Regional Sales Manager DACH mwidler@a10networks.com Mehr erreichen mit der bestehenden Infrastuktur Mathias Widler Regional Sales Manager DACH mwidler@a10networks.com 1 Das Unternehmen A10 Networks Gegründet 2004, 240 Mitarbeiter Mission: Marktführer im


After sales product list After Sales Geräteliste

After sales product list After Sales Geräteliste GMC-I Service GmbH Thomas-Mann-Str. 20 90471 Nürnberg e-mail:service@gossenmetrawatt.com After sales product list After Sales Geräteliste Ladies and Gentlemen, (deutsche Übersetzung am Ende des Schreibens)


Dun & Bradstreet Compact Report

Dun & Bradstreet Compact Report Dun & Bradstreet Compact Report Identification & Summary (C) 20XX D&B COPYRIGHT 20XX DUN & BRADSTREET INC. - PROVIDED UNDER CONTRACT FOR THE EXCLUSIVE USE OF SUBSCRIBER 86XXXXXX1. ATTN: Example LTD Identification








SuisseID Digital passport and signature

SuisseID Digital passport and signature Bilder einfügen: Post-Menü > Bild > Fotografie einfügen. Weitere Bilder unter www.brandingnet.ch Technische Angaben Bildgrösse vollflächig B 25,4 cm x H 19,05 cm entsprechen B 1500 Pixel x H 1125 Pixel


Level 1 German, 2012

Level 1 German, 2012 90886 908860 1SUPERVISOR S Level 1 German, 2012 90886 Demonstrate understanding of a variety of German texts on areas of most immediate relevance 9.30 am Tuesday 13 November 2012 Credits: Five Achievement


How Many Transmission Selection Algorithms Do We Need?

How Many Transmission Selection Algorithms Do We Need? How Many Transmission Selection Algorithms Do We Need? Christian Boiger christian.boiger@hdu-deggendorf.de IEEE 802.1 Interim May 2013 Victoria, BC D E G G E N D O R F U N I V E R S I T Y O F A P P L I


aus Doktorarbeiten Anna Lena Birkmeyer Oktober 2016

aus Doktorarbeiten Anna Lena Birkmeyer Oktober 2016 aus Doktorarbeiten Anna Lena Birkmeyer Fachbereich Mathematik TU Kaiserslautern Oktober 2016 In der der Arbeit: The mathematical modeling and optimization of... is a wide field of research [4,15,19,35,61,62,66,76,86]


Supplier Questionnaire

Supplier Questionnaire Supplier Questionnaire Dear madam, dear sir, We would like to add your company to our list of suppliers. Our company serves the defence industry and fills orders for replacement parts, including orders


Praktikum Entwicklung von Mediensystemen mit ios

Praktikum Entwicklung von Mediensystemen mit ios Praktikum Entwicklung von Mediensystemen mit ios WS 2011 Prof. Dr. Michael Rohs michael.rohs@ifi.lmu.de MHCI Lab, LMU München Today Heuristische Evaluation vorstellen Aktuellen Stand Software Prototyp


RailMaster New Version 7.00.p26.01 / 01.08.2014

RailMaster New Version 7.00.p26.01 / 01.08.2014 RailMaster New Version 7.00.p26.01 / 01.08.2014 English Version Bahnbuchungen so einfach und effizient wie noch nie! Copyright Copyright 2014 Travelport und/oder Tochtergesellschaften. Alle Rechte vorbehalten.


Harry gefangen in der Zeit Begleitmaterialien

Harry gefangen in der Zeit Begleitmaterialien Episode 011 Grammar 1. Plural forms of nouns Most nouns can be either singular or plural. The plural indicates that you're talking about several units of the same thing. Ist das Bett zu hart? Sind die