KOSTENEFFIZIENTES CLOUD - BASIERTES COMPLEX EVENT PROCESSING

Größe: px
Ab Seite anzeigen:

Download "KOSTENEFFIZIENTES CLOUD - BASIERTES COMPLEX EVENT PROCESSING"

Transkript

1 Fakultät Informatik Institut für Systemarchitektur, Lehrstuhl Rechnernetze Diplomarbeit KOSTENEFFIZIENTES CLOUD - BASIERTES COMPLEX EVENT PROCESSING Lars Rödiger Matrikel - Nr.: Betreut durch: Dr.-Ing. Groß (TU Dresden), Prof. Dr. Schill (TU Dresden) und: Dipl.-Inf. Thomas Heinze (SAP Research Dresden) Eingereicht am 14. August 2012

2 2

3 ERKLÄRUNG Ich erkläre, dass ich die vorliegende Arbeit selbständig, unter Angabe aller Zitate und nur unter Verwendung der angegebenen Literatur und Hilfsmittel angefertigt habe. Dresden, 14. August

4 4

5 DANKSAGUNG An dieser Stelle möchte ich mich bei allen Personen bedanken, die mich bei der Erstellung dieser Arbeit unterstützt haben. Mein erster Dank geht an Prof. Dr. Schill für die Möglichkeit meine Diplomarbeit am Lehrstuhl für Rechnernetze zu schreiben. Ein besonderer Dank gilt meinen zwei Betreuern Thomas Heinze (SAP Research Dresden) sowie Dr. Groß (TU Dresden), die mit sehr viel Engagement, guten Ideen und unermüdlichem Einsatz meine Diplomarbeit betreuten. Des Weiteren danke ich meinen Kollegen bei SAP Research Dresden für das angenehme Arbeitsklima und die gute Zusammenarbeit. Nicht zuletzt danke ich meinen Freunden, meiner Familie und im Besonderen meiner Freundin,die mir in den Monaten der Entstehung meiner Diplomarbeit immer wieder Mut zugesprochen haben und eine große Stütze für mich waren. 5

6 6

7 INHALTSVERZEICHNIS

8 1 Einleitung Motivation Rahmen und Zielstellung Aufbau der Arbeit Hintergrund Complex Event Processing Cloud - basiertes Complex Event Processing Cloud Computing Cloud - basiertes Complex Event Processing Prototyp Überblick Anfrage - Optimierung Operator - Platzierung Kostenmodell Kosteneffizienz Verwandte Arbeiten 33 4 Analyse und Entwurf Entwurf der Adaption Adaption der Initialen Platzierung Adaption der Laufzeitplatzierung Identifikation und Analyse der Parameter Parameter für die Initiale Platzierung Parameter für die Laufzeitplatzierung Suchalgorithmen Genetic Algorithm Recursive Random Search Inhaltsverzeichnis

9 5 Implementierung Adaption CostAdaption InitialCostAdaption RuntimeCostAdaption Suchalgorithmen Evaluation Evaluationskonzept Einflussanalyse Parameter: plc, gran Parameter: llb, lub Skalierbarkeit Laufzeitverhalten Kostenkonvergenz mit variierender Anzahl an Anfragen Allgemeines Konvergenzverhalten Kostenkonvergenz mit variierender Größe des Suchraums Kosteneffizienz Fazit Zusammenfassung Ausblick Inhaltsverzeichnis 9

10 10 Inhaltsverzeichnis

11 1 EINLEITUNG

12 1.1 MOTIVATION Die Auswertung von Informationen hat mit der Entwicklung der Informationstechnik, in unterschiedlichen Bereichen stetig an Bedeutung gewonnen. John Naisbitt prägte bereits 1982 in [Nai82] den Satz we are drowning in information, but we are starved for knowledge. Mit dem in den letzten Jahren zu beobachtenden rapiden Anstieg der Informationsmenge in Unternehmen gewinnt diese Aussage mehr und mehr an Gewicht. Die Menge der Daten, aus denen relevante Erkenntnisse gewonnen werden können ist dabei nicht die einzige Herausforderung. Kontinuierlich eintreffende Daten machen eine effiziente Verarbeitung erforderlich [Gar]. Ein typisches Beispiel sind Marktdaten, wie Aktien- oder Rohstoffpreise, welche fortlaufend in Form von Ereignissen eintreffen. Diese müssen zeitnah ausgewertet werden, um Chancen und Risiken frühzeitig zu erkennen und ggf. automatisch folgerichtige Entscheidungen zu treffen. Complex Event Processing (CEP) bildet die technologische Grundlage um eine Vielzahl konkurrierender Anfragen über einer Menge kontinuierlich eintreffender Ereignisse in Echtzeit zu verarbeiten. Die zunehmenden Anforderungen hinsichtlich des Durchsatzes, geringer Latenzzeiten und der Menge der Anfragen erfordern eine skalierbare Lösung in Form eines verteilten CEP - Systems [Sto05]. Mit Cloud Computing findet sich ein praktikabler Ansatz, welcher in dem der Arbeit zugrundeliegenden Prototypen eingesetzt wird. Hinsichtlich der Charakteristika von CEP - Anwendungen stellen sich einer Reihe neuer Herausforderungen. Zum Einen ist eine geeignete Abbildung der Anfragen innerhalb der Cloud zu finden. Zum Anderen muss diese entsprechend variierender Anforderungen angepasst werden. Im Zusammenhang mit der für Cloud Computing typischen Pay - per - Use - Philosophie ist auch die wirtschaftliche Effizienz des Systems gefordert. Im Rahmen dieser Arbeit wird untersucht, wie sich diese durch eine geeignete Adaption des vorhandenen Prototypen steigern lässt. Dabei geht es zum Einen um die Analyse von Systemparametern, welche einen Einfluss auf die Kosteneffizienz haben, zum Anderen um den Entwurf einer Adaptionsstrategie. Diese Strategie nimmt eine Parametrisierung des Prototypen zur Laufzeit vor mit dem Ziel die monetären Kosten zu minimieren. Die Wahl eines geeigneten Parameters erfordert dabei die effiziente Suche in einem potentiell sehr großen Suchraum. Des Weiteren ist eine Integration und Wiederverwendung des bestehenden Prototypen erforderlich. Im Nachfolgenden soll mit der Aufdeckung von Kreditkartenbetrug ein motivierendes Anwendungsszenario für Complex Event Processing beschrieben werden. Anwendungsszenario Die Motivation für den Einsatz von Complex Event Processing lässt sich anhand eines typischen Anwendungsszenarios, der Aufdeckung von EC- und Kreditkartenbetrug, beschreiben. Als Betrug wird an dieser Stelle die unberechtigte Verwendung eines Zahlungsmittels (EC- oder Kreditkarte) verstanden, z. B. infolge eines nicht gemeldeten Diebstahls. Die Aufdeckung eines solchen Betrugs ist mittels automatischer Analyse von Transaktionen (Überweisungen, Abhebungen etc.) hinsichtlich verdächtiger Muster möglich. Abb. 1.1 skizziert einen potentiellen Ablauf von Transaktionsereignissen, welcher auf einen Betrug schließen lässt. Die Ereignisse sind von oben nach unten zeitlich jünger werdend geordnet. Es sind zwei Abhebungen vom Konto hervorgehoben. Das erste Ereignis beschreibt eine Abhebung in London am 2. Juni 2012 um 12:00 UTC 1, das zweite Ereignis eine Abhebung vom gleichem Konto eine halbe Stunde später in Berlin. In Anbetracht des zeitlichen und räumlichen Zusammenhangs der beiden Ereignisse erscheint die Abfolge nicht plausibel. Der Ortswechsel London - Berlin ist in einer Zeitspanne von 30 Minuten praktisch nicht durchführbar. Der Verdacht, dass zumindest eine der beiden Abhebungen einen Betrug darstellt liegt nahe. Ein solches Szenario lässt sich allgemein durch ein Muster formulieren. In Falle des angegebenen Beispiels beschreibt ein Muster den verdächtigen Ablauf, indem sämtliche Transaktionsereignisse 1 Universal Time Coordinated, koordinierte Weltzeit 12 Kapitel 1 Einleitung

13 Transaktionsereignisse Zeit Transaktion: Abhebung am Geldautomaten Zeit: :00 UTC Ort: London Kto: Betrag: $ Transaktion: Abhebung am Geldautomaten $ Bank Zeit: :30 UTC Ort: Berlin Kto: Betrag: $ Abbildung 1.1: Anwendungsszenario: Aufdeckung von EC- und Kreditkartenbetrug der gleichen Kontonummer vereint werden und anschließend zeitlich und räumlich korreliert einer Plausibilitätsprüfung unterworfen werden. Dieses Muster beschreibt einen von vielen möglichen Fällen, welche auf EC- bzw. Kreditkartenbetrug hinweisen können. Als Reaktion auf das Erkennen eines verdächtigen Musters sollten umgehend entsprechende Maßnahmen eingeleitet werden, um weiteren Schaden zu vermeiden. Z. B. könnte eine konkrete Maßnahme die sofortige Sperrung des Zahlungsmittels sowie die Benachrichtigung des betreffenden Kontoinhabers umfassen. Ein weiterer Anwendungsfall ist mit Financial Monitoring gegeben. Bei diesem ist eine Menge an Benutzern an der Auswertung von Börsenereignissen interessiert. In den kontinuierlich eintreffenden Ereignissen wird nach einer Vielzahl von Mustern gesucht, welche durch die Benutzer in Form von Anfragen beschrieben sind. Dieser Anwendungsfall erfordert eine zeitnahe, schnelle Auswertung im Sinne einer Analyse bzw. Überwachung. Die riesige Menge an Ereignissen muss in Echtzeit verarbeitet, aufbereitet und in geeigneter Form dargestellt werden. Diese Forderung nach geringen Latenzzeiten, hohen Durchsatzraten sowie der Verarbeitung einer variierenden Menge konkurrierender Anfragen, ist charakteristisch für CEP - Anwendungen im Allgemeinen und für den Anwendungsfall Financial Monitoring im Besonderen. 1.1 Motivation 13

14 1.2 RAHMEN UND ZIELSTELLUNG Die vorliegende Arbeit soll einen bestehenden Prototyp hinsichtlich der Steigerung der Kosteneffizienz untersuchen. Der Prototyp implementiert ein CEP - System auf Basis von Cloud Computing und wurde im Rahmen des europäischen Forschungsprojekts SRT-15 entwickelt. Die Arbeiten [Ji11][Mey12][Hei11] untersuchen verschiedene Fragestellungen im Zusammenhang mit dem Prototypen, insbesondere die Verteilung von Anfragen innerhalb der Cloud und die Berechnung von monetären Kosten. Im Ergebnis bilden diese die Grundlage für die vorliegende Untersuchung. Zielstellung der vorliegenden Arbeit ist die Wiederverwendung, Anpassung und Erweiterung des bestehenden Prototypen um eine kosteneffiziente Ereignisverarbeitung zu erreichen. Die Arbeit gliedert sich in folgende Aufgaben. Identifikation von Parametern Der bestehende Prototyp verwendet Heuristiken, welche durch Reihe von Parametern angepasst werden können. Ein Teil der vorliegenden Arbeit ist die Identifikation solcher Parameter und eine anschließende Analyse hinsichtlich des Einflusses auf die Kosteneffizienz. Der Prototyp soll des Weiteren erweitert werden, so dass einer Parametrisierung zur Laufzeit sowie die Berechnung der Kosten auf Basis einer Parameterkonfiguration möglich wird. Umsetzung eines geeigneten Suchverfahrens Die zu untersuchenden Parameter haben komplexe Abhängigkeiten und ergeben einen potentiell sehr großen Suchraum, für welchen eine erschöpfende bzw. vollständige Suche keine Lösung darstellt. Aus diesem Grund soll ein passendes Suchverfahren ermittelt und umgesetzt werden. Eine effektive und effiziente Suche soll erzielt werden. Entwurf und Umsetzung einer Adaptionsstrategie Schwerpunkt der Arbeit liegt in der Ausarbeitung einer geeigneten Adaptionsstrategie. Die Adaption soll zur Laufzeit mit Hilfe des gewählten Suchalgorithmus eine Parameterkonfiguration ermitteln und untersuchen ob mit dieser eine Kostenreduktion erzielt werden kann. Des Weiteren soll die Fragestellung untersucht werden, wann eine Adaption zu untersuchen und wann diese durch Rekonfiguration des Systems umzusetzen ist. Als Ergebnis soll eine prototypische Implementierung entstehen, welche Teile des bestehenden Prototypen wiederverwendet und diesen um die Adaption erweitert. Evaluation In der Evaluation sollen die Ergebnisse der Ausarbeitung anhand geeigneter Evaluationsszenarien gezeigt werden. Dies betrifft insbesondere den Einfluss der Parameter, die Skalierbarkeit sowie die Kosteneffizienz. Des Weiteren sollen Grenzen und Verbesserungen des ausgearbeiteten Ansatzes diskutiert werden. 14 Kapitel 1 Einleitung

15 1.3 AUFBAU DER ARBEIT Der Aufbau der vorliegenden Arbeit gestaltet sich wie folgt. Kapitel 2 stellt alle zum Verständnis notwendigen Begriffe, Konzepte, Methoden und Technologien vor. Das Kapitel 3 gibt einen Überblick über verwandte Arbeiten, diskutiert deren Ansätze und vergleicht diese mit der Zielstellung der vorliegenden Arbeit. Die Analyse, sowie das in dieser Arbeit entstandene Lösungskonzept werden ausführlich im Kapitel 4 behandelt. Anschließend beschreibt Kapitel 5 Details der Umsetzung des Entwurfs, sowie notwendige Anpassungen des bestehenden Prototypen. Das Kapitel 6 diskutiert die Ergebnisse unter den Aspekten: Einfluss der Parameter, Skalierbarkeit und Kosteneffizienz. Die Arbeit schließt mit dem Kapitel 7 ab, in welchem die Ergebnisse zusammengefasst werden und ein Ausblick auf weitere Fragestellungen gegeben wird. 1.3 Aufbau der Arbeit 15

16 16 Kapitel 1 Einleitung

17 2 HINTERGRUND

18 Das folgende Kapitel bildet den Hintergrund der vorliegenden Arbeit, definiert Begriffe und stellt Konzepte, Methoden sowie Technologien vor, mit dem Ziel ein einheitliches Vokabular und Verständnis zu schaffen. Abschnitt 2.1 gibt einen Überblick zur Thematik CEP und stellt diese als technologischen Ansatz zur Verarbeitung kontinuierlicher Ereignisströme dar. Im Abschnitt 2.2 wird Cloud Computing zunächst allgemein als Lösung für skalierbare elastische Anwendungen behandelt und anschließend unter dem Aspekt CEP diskutiert. Abschluss bildet der Abschnitt 2.3, indem der bestehende Prototyp hinsichtlich der Architektur, der Komponenten und deren Zusammenwirken vorgestellt wird. 2.1 COMPLEX EVENT PROCESSING Der Begriff Complex Event Processing (kurz CEP) wurde vor rund 10 Jahren durch David Luckham [Luc01] geprägt und beschreibt eine Softwaretechnologie, welche Operationen auf einer Menge von Ereignissen durchführt und diese schrittweise in komplexe Ereignisse überführt. Operationen, welche Verarbeitungsschritte auf Ereignissen definieren sind u. a. Konstruktion, Transformation und Abstraktion. Im Abschnitt 1.1 wurden mit der Aufdeckung von EC- bzw. Kreditkartenbetrug und Financial Monitoring bereits zwei konkrete Anwendungsfälle für CEP dargestellt. Weitere typische Anwendungsbereiche sind Business Activity Monitoring, Sensornetzwerke und Supply Chain Management. CEP ist dem Architekturstil Ereignis gesteuerte Architekturen zugeordnet, in dem Ereignisse das zentrale Konzept bilden. Die nachfolgende Ausführung lehnt sich vor Allem an den Arbeiten [BD10][Luc01] an. Ereignis Ein Ereignis beschreibt eine Beobachtung eines Zustandes bzw. einer Zustandsänderung eines Objektes. Ereignisse werden mit einem zeitlichen Bezug in Form eines Zeitpunktes (point in time) oder einer Zeitspanne (interval based) verknüpft. Typische Ereignisse im Zusammenhang mit CEP sind u. a. Signale von RFID Sensoren, der Eingang einer Bestellung und das Auftreten einer Börsenaktivität. Ereignisse lassen sich durch Schemata klassifizieren. Diese sind durch eine Menge von Attributen eindeutig definiert. Abb. 2.2 a) zeigt ein vereinfachtes Schema für eine Klasse von Börsenereignissen. Allgemein besteht ein CEP - System aus einem Netzwerk von Verarbeitungseinheiten, welches Ereignisquellen mit Ereignissenken verbindet. Die Verabeitungseinheiten werden im Folgenden als CEP - Komponenten 1 bezeichnet. Ereignisquellen erzeugen kontinuierlich Ereignisse, die u. a. durch Vorgänge, Aktivitäten oder Entscheidungen motiviert sein können. Diese zumeist einfachen Ereignisse werden durch CEP - Komponenten verarbeitet und führen letztendlich in Ereignissenken zu Reaktionen. Beispiele für solche Reaktionen sind u. a. Visualisierungen in Dashboards, die Steuerung von Geschäftsprozessen, Aktualisieren von Relationen in Datenbanken oder wie im Anwendungsfall im Abschnitt 1.1 beschrieben, das Sperren einer Kreditkarte. In Anlehnung an [BD10, S. 49f, 61ff] kann CEP durch drei aufeinanderfolgende Schritte beschrieben werden, welche sich in der Architektur als Schichten widerspiegeln. 1. Erkennen (Sense) Erkennen von Ereignissen aus der Umwelt und (unmittelbares) Generieren entsprechender Ereignisobjekte. Dieser Schritt entspricht der Schicht Ereignisquellen. 2. Verarbeiten (Process bzw. Analyze) Verarbeiten von Ereignissen, u. a. durch Abstraktion, Aggregation, Korrelation, Klassifikation und Filterung. Die Schicht Ereignisverarbeitung umfasst diesen Schritt. 18 Kapitel 2 Hintergrund

19 Ereignisströme (eing.) Ereignisquellen Ereignisverarbeitung Ereignisbehandlung Ereignisströme (ausg.) CEP-Komponenten Ereignisstrom eing.-eingehend ausg.-ausgehend Abbildung 2.1: Schichten in einem CEP - System 3. Reagieren (Respond) Veranlassen von definierten Reaktionen in der Schicht Ereignisbehandlung/Ereignissenken. Reaktionen können auch die Rückkopplung zur Schicht Ereignisquellen beinhalten. Abb. 2.1 stellt die Schichtenarchitektur eines CEP - Systems mit den Schichten Ereignisquellen, Ereignisverarbeitung und Ereignisbehandlung dar. Die softwaretechnische Basis für die Ausführung von CEP - Anwendungen bilden so genannte CEP - Engines. In einem CEP - System erfolgt die Kommunikation grundlegend asynchron durch Publish-Subsribe 2. Daten, welche über Kanäle zwischen CEP - Komponenten ausgetauscht werden, haben im Allgemeinen die Form von Ereignisströmen. Ereignisstrom Ein Ereignisstrom ist eine linear geordnete Sequenz von Ereignissen. Das Ordnungskriterium ist in der Regel der Zeitstempel der Ereignisse. Ereignisströme können entweder endlich, durch ein Zeitfenster oder ein anderes Kriterium begrenzt oder unendlich bzw. unbegrenzt sein. Technisch gesehen ist die Verarbeitung unbegrenzter Ereignisströme nicht möglich. Intern erfolgt aus diesem Grund eine Abbildung auf einen endlichen Strom durch ein zeitlich oder mengenmäßig beschränktes Fenster (engl. Sliding Window). Die Verarbeitung von Ereignisströmen wird als Event Stream Processing (ESP) bezeichnet. Der Unterschied zwischen ESP und CEP ist nach [BD10, S. 57] konzeptionell. In der vorliegenden Arbeit wird CEP ausschließlich unter dem Aspekt von Ereignisströmen behandelt. Unter dieser Betrachtung kann CEP, wie im Abschnitt 1.1 bereits dargestellt, als Mustersuche über den eingehenden Ereignisströmen verstanden werden. Die Muster sind dabei im Vorfeld bekannt 3 und können in Form von Ereignismustern spezifiziert werden. Ereignismuster Ereignismuster beschreiben Beziehungen zwischen Ereignissen, welche in einem festgelegten (fachlichen) Kontext relevant sind. [LSA + 08] definiert Ereignismuster formal als Menge von Schablonen (Templates), welche mit relationalen Operatoren verknüpft werden. Templates beschreiben mittels Variablen eine Menge von Ereignissen. 1 [Luc01] bezeichnet diese als Event Processing Agents und das Netzwerk als Event Processing Network 2 Eine Besonderheit diesbezüglich ist, dass die Vernetzung der Komponenten als lose gekoppelt angesehen werden kann. Der Zeitpunkt der Verarbeitung ist jedoch durch Kohäsion gekennzeichnet, da eine zeitnahe Verarbeitung der Ereignisse gefordert wird. 3 In [EB09] wird darauf verwiesen, dass CEP auch dazu verwendet wird unbekannte Muster zu erkennen, z. B. in Form von Data Mining oder maschinellem Lernen. 2.1 Complex Event Processing 19

20 Ereignismuster sind ein wesentliches Konzept von CEP und bilden in der Summe einen wichtigen Teil der Fachlogik im Gesamtsystem ab. Die Muster werden in einer speziellen Beschreibungssprache formuliert. [EB09] unterscheidet Kompositionsoperatoren, Produktionsregeln und Datenstrom - Anfragesprachen 4. Für die vorliegende Arbeit sind letztere von Interesse, speziell die deklarative Beschreibung durch die Continous Computing Language (CCL) [Syb]. Im Zusammenhang dieser, werden die zu suchenden Ereignismuster durch kontinuierliche Anfragen (engl. Continous Queries) gekapselt. Anfrage (Query) Eine Anfrage im Sinne von CEP beschreibt die Suche nach einem Ereignismuster über einem oder mehreren Ereignisströmen, welche im Vorfeld offline oder zur Laufzeit ad - hoc durch einen Anwender formuliert wird. Die Ausführung einer Anfrage kann einmalig für einen festgelegten Zeitpunkt oder kontinuierlich über einen gewissen Zeitraum stattfinden. Letzteres ist typisch für CEP. CCL orientiert sich an Konzepten von SQL und erweitert diese insbesondere um die Darstellung von Datenströmen sowie um eine temporale und sequentielle Semantik. Im Unterschied zu SQL oder anderen klassischen Datenbankanfragesprachen arbeitet CCL auf einem kontinuierlichen, flüchtigen Datenstrom. Die in CCL formulierten Anfragen sind des Weiteren überwiegend langlaufend statt einmalig. Zur Laufzeit verarbeiten CEP - Systeme häufig eine Vielzahl von Anfragen gleichzeitig, wobei die Menge der Anfragen im System dynamisch ist. D. h. Anwender können zur Laufzeit neue Anfragen hinzufügen und entfernen. Abb. 2.2 zeigt eine CCL - Anfrage zur Berechnung einer Candlestick - Darstellung für Börsenereignisse. Die Anfrage berechnet den minimalen und maximalen, sowie den ältesten und aktuellsten Preis innerhalb der letzten 60 Sekunden des Symbols DE über dem Ereignisstrom In. Die Ergebnisse sind werden wiederum in Form von Ereignissen in den Ereignisstrom Out eingefügt. a) Ereignisschema b) CCL-Anfrage String comp; double tick; long time; Insert into Out Select min(price), max(price), first(price), last(price) From In Within 60 seconds Where symbol = DE ; c) Anfragegraph Strom In Strom Out Quelle Q1 Filter F1 Aggregation A1 Selektion Sel2 Senke S1 Ereignisstrom Operator Abbildung 2.2: Anfrage zur Berechnung einer Candlestick - Darstellung 4 Eine verbreitete Datenstrom - Anfragesprache ist CQL, Continous Query Language[AB06]. 20 Kapitel 2 Hintergrund

21 Der eingehende Ereignisstrom StreamQ1 besteht aus den Attributen symbol, price und volume. Das zugehörige Schema ist unter 2.2 a) angegeben. Die Anfrage zur Berechnung der Candlestick - Darstellung in CCL zeigt Abb. 2.2 b). Wie in Abb. 2.2 c) dargestellt lassen sich Anfragen als gerichteter, zusammenhängender, azyklischer Graph verstehen. Sämtliche Kanten entsprechen Ereignisströmen und innere Knoten repräsentieren Operatoren aus denen die Anfrage zusammengesetzt ist. Wie am Beispiel dargestellt gibt es unterschiedliche Typen von Operatoren. U. a. Filter - Operatoren, mit denen Ereignisströme nach bestimmten Bedingungen gefiltert werden können und Aggregations - Operatoren, mit denen sich Informationen über einer Menge von Ereignissen zusammenfassen lassen. Sämtliche im System befindliche Anfragen können ebenfalls als gerichteter azyklischer (ggf. nicht zusammenhängender) Graph beschrieben werden. Dieser spezifiziert den Datenfluss im CEP - System und wird im Folgenden als globaler Anfragegraph bezeichnet. Hintergrund der vorliegenden Arbeit ist die Untersuchung eines elastischen CEP - Systems auf Basis von Cloud Computing. Der nachfolgende Abschnitt gibt einen kurzen Überblick zum Thema Cloud Computing. 2.2 CLOUD - BASIERTES COMPLEX EVENT PROCESSING CEP - Systeme verarbeiten eine Vielzahl nebenläufiger Anfragen auf einer Menge von Ereignisströmen. Die zunehmenden Anforderungen bezüglich geringer Latenzzeiten sowie hoher Durchsatzmengen erfordern eine parallele Ausführung in Form eines verteilten Systems [Sto05]. Der bestehende Prototyp verwendet Cloud Computing um das CEP - System auf mehrere Ressourcen zu verteilen. Bevor die Besonderheiten von Cloud basierenden CEP - Systemen diskutiert werden, wird Cloud Computing als Paradigma kurz vorgestellt Cloud Computing Für die Klärung des Begriffs Cloud Computing und die anschließende Darstellung der Eigenschaften und Konzepte soll die in Fachkreisen oft zitierte Definition [Mel11] des National Institute of Standards and Technology (NIST) als Einstieg dienen. Cloud Computing Cloud computing is a model for enabling ubiquitous, convienient, on - demand network access to a shared pool of configurable computing resources (e. g. networks, servers, storage, applications, and services) that can be rapidly provisioned and released with minimal management effort or service provider interaction. Der Definition zufolge liegt der Fokus von Cloud Computing auf der einfachen, dem Bedarf angepassten, flexiblen Bereitstellung von (Rechner-) Ressourcen. Ressourcen sind dabei u. a. Netzwerk, Speicher, Anwendungen, Dienste und Server. [Mel11] charakterisiert Cloud Computing u. a. anhand folgender Eigenschaften. Es existiert einen Pool von Rechnerressourcen, welcher durch einen Provider verwaltet und bereitgestellt wird. Ressourcen können nach Bedarf über einen standardisierten Zugriffsmechanismus angefordert werden. Die Beschaffung sowie die Freigabe der Ressourcen kann elastisch und schnell erfolgen, um den Anforderungen der Anwendung gerecht zu werden. Weiterhin scheinen die zur Verfügung stehenden Ressourcen aus Sicht des Kunden unbegrenzt. Die Ressourcennutzung ist für die Kunden und den Anbieter in dem Sinne transparent, dass diese gemessen, überwacht und letztendlich gesteuert werden kann. Cloud Computing ermöglicht dabei nicht nur neue Ressourcen im Sinne einer Aufwärtsskalierung hinzuzufügen, sondern auch nicht mehr benötigte Ressourcen freizugeben (Abwärtsskalierung). 2.2 Cloud - basiertes Complex Event Processing 21

22 Last Variierende Last Under-Provisioning Statische Ressourcenbereitstellung Elastische Ressourcenbereitstellung Over-Provisioning Zeit Abbildung 2.3: Statische und Elastische Ressourcenbereitstellung Diese Eigenschaft wird als Elastizität bezeichnet. Abb. 2.3 veranschaulicht den Begriff beispielhaft für die Anpassung der Ressourcen an eine zeitlich variierende Last. Im Vergleich ist die, für konventionelle Rechenzentren typische, statische Bereitstellung von Ressourcen dargestellt. Diese kennt folgende Probleme. Die variierenden Lastanforderungen sind im Allgemeinen nicht bekannt und lassen sich nur schwer abschätzen. Dennoch muss eine Anzahl von Ressourcen festgelegt werden, welche diesen Anforderungen gerecht wird. Eine Unterschätzen (Under - Estimate) der aufkommenden Last kann zu Verletzungen zugesicherter Systemeigenschaften führen. Z. B. kann die Latenzzeit einen maximalen Wert überschreiten. In diesem Fall, in dem die verwendeten Ressourcen den Anforderungen nicht genügen, wird von Under - Provisioning gesprochen. Darüber hinaus kann eine Überschätzen (Over - Estimate) der notwendigen Ressourcen eine geringere Auslastung der Ressourcen zur Folge haben. Die zur Verfügung stehenden Ressourcen werden nicht effizient genutzt. Dies bezeichnet man mit Over - Provisioning. Aus wirtschaftlicher Sicht sollte Over - Provisioning vermieden werden, indem ungenutzte Ressourcen freigegeben werden. Ideal ist eine dynamische Anpassung der Ressourcen entsprechend dem tatsächlichen Bedarf, so dass einerseits genügend Ressourcen zur Verfügung stehen um den Anforderungen gerecht zu werden und andererseits die Ressourcen wirtschaftlich effizient eingesetzt werden. Diese Ziele werden durch Elastic Provisioning umgesetzt. Aus der Elastizität sowie, der für Cloud Computing charakteristischen Pay - per - Use - Philosophie ergeben sich gegenüber dem Einsatz konventioneller Rechenzentren eine Reihe von Vorteilen und Chancen. Auf der anderen Seite sind neue Herausforderungen und Probleme zu bewältigen. Für die vorliegende Arbeit spielt vor Allem der wirtschaftliche Aspekt, die Einsparung finanzieller Ausgaben eine Rolle. Im Folgenden Abschnitt wird Cloud Computing unter dem Aspekt CEP behandelt Cloud - basiertes Complex Event Processing Wirtschaftlichkeit sowie Elastizität sind treibende Faktoren für den Einsatz von Cloud Computing, so auch für CEP. Abb. 2.4 zeigt eine stark vereinfachte Darstellung eines Cloud - basierten CEP - Systems und damit des bestehenden Prototypen. Das System verwendet ein Netzwerk von Ressourcen innerhalb der Cloud um Anfragen der CEP - Anwendung auszuführen. Ereignisströme 22 Kapitel 2 Hintergrund

23 Anfragen CEP in der Cloud Ereignisströme (eing.) Ereignisströme (ausg.) Ereignisstrom eing.-eingehend ausg.-ausgehend Abbildung 2.4: Cloud - basiertes CEP - System (stark vereinfacht) unterschiedlicher Quellen dienen als Eingangdaten. Als Ergebnis liefert das System wiederum Ereignisströme. Die Last im CEP - System und folglich der Bedarf an Ressourcen sind im Wesentlichen durch zwei Faktoren bestimmt. Zum Einen entsteht durch die kontinuierlich eintreffenden Ereignisse eine Last, welche sich im CEP - System unterschiedlich verteilt. Zum Anderen schwankt die Anzahl der Anfragen im System mit den Anforderung der Benutzer, die diese formulieren. Im Folgenden wird diese Charakteristik als Dynamik des Systems bezeichnet. Elastizität befasst sich mit dieser Dynamik und kann im Zusammenhang mit CEP auf unterschiedlichen Ebenen verschiedener Granularität abgebildet werden. [Hei11] unterscheidet dabei mit abnehmender Granularität die Abbildung auf Engine-, Anfrage und Operator - Ebene. Für den bestehenden Prototypen wurde die Operator - Ebene gewählt, welche im Folgenden kurz erklärt wird. Beim Hinzufügen einer Anfrage wird den logischen Operatoren jeweils eine Menge von Operatorinstanzen zugeordnet. Der eingehende Ereignisstrom wird dabei partitioniert und auf die Instanzen aufgeteilt. Anschließend werden die Ergebnisse zusammengefasst und den Instanzen des bzw. der nachfolgenden logischen Operatoren bereitgestellt. In Abschnitt ist dies in der Abb. 2.7 dargestellt. Im Rahmen der elastischen Ressourcenbereitstellung wird über eine Zuordnung von Operatorinstanzen zu den Cloud - Ressourcen entschieden. Diese Zuordnung ändert sich aufgrund der Dynamik. Für die nachfolgenden Ausführungen wird der Begriff Momentaufnahme eingeführt. Dieser bezeichnet eine Aufnahme des Zustands des Systems zu einem festgelegten Zeitpunkt. Der Zustand umfasst dabei die Menge der im System laufenden Anfragen, deren Zuordnung und den Auslastungszustand sowie die Verteilung im CEP - System. Als Synonym wird z. T. auch Konstellation des Systems oder Systemzustand verwendet. Der nachfolgende Abschnitt beschreibt den Prototypen als Cloud - basiertes CEP - System mit den für die vorliegende Arbeit relevanten Details. 2.2 Cloud - basiertes Complex Event Processing 23

Otto-von-Guericke-Universität Magdeburg. Fakultät für Informatik Institut für Technische und Betriebliche Informationssysteme.

Otto-von-Guericke-Universität Magdeburg. Fakultät für Informatik Institut für Technische und Betriebliche Informationssysteme. Otto-von-Guericke-Universität Magdeburg Fakultät für Informatik Institut für Technische und Betriebliche Informationssysteme Masterarbeit Adaptionsstrategien für kosteneffizientes Complex Event Processing

Mehr

Event Stream Processing & Complex Event Processing. Dirk Bade

Event Stream Processing & Complex Event Processing. Dirk Bade Event Stream Processing & Complex Event Processing Dirk Bade Die Folien sind angelehnt an eine Präsentation der Orientation in Objects GmbH, 2009 Motivation Business Activity Monitoring Sammlung, Analyse

Mehr

Complex Event Processing. Sebastian Schmidbauer 18.01.2011

Complex Event Processing. Sebastian Schmidbauer 18.01.2011 Complex Event Processing Sebastian Schmidbauer 18.01.2011 Cirquent im Profil Zahlen Kompetenzen 350 300 250 200 150 100 50 0 1748 1747 1722 1515 1041 1180 286 266 247 260 165 139 2003 2004 2005 2006 2007

Mehr

CEPaaS. Complex Event Processing as a Service. Bernhard Seeger Philipps-Universität Marburg RTM Realtime Monitoring GmbH

CEPaaS. Complex Event Processing as a Service. Bernhard Seeger Philipps-Universität Marburg RTM Realtime Monitoring GmbH CEPaaS Complex Event Processing as a Service Bernhard Seeger Philipps-Universität Marburg RTM Realtime Monitoring GmbH Daniar Achakeyev, Daniel Schäfer, Philip Schmiegelt CEP-Forschung in Marburg: aus

Mehr

Der Begriff Cloud. Eine Spurensuche. Patric Hafner 29.06.2012. geops

Der Begriff Cloud. Eine Spurensuche. Patric Hafner 29.06.2012. geops Der Begriff Cloud Eine Spurensuche Patric Hafner geops 29.06.2012 Motivation Der größte Hype der IT-Branche Hype heißt sowohl Rummel als auch Schwindel slashdot.org The cloud represents a foundational

Mehr

Complex Event Processing für intelligente mobile M2M- Kommunikation

Complex Event Processing für intelligente mobile M2M- Kommunikation Complex Event Processing für intelligente mobile 2- Kommunikation Hochschule Hannover arcel etzdorf, Prof. Dr. Ralf Bruns, Prof. Dr. Jürgen Dunkel, Henrik asbruch Inside 2 Ilja Hellwich, Sven Kasten 2

Mehr

Complex Event Processing im Überblick

Complex Event Processing im Überblick Complex Event Processing im Überblick 2 Complex Event Processing ist eine von David Luckham entwickelte Softwaretechnologie, um kontinuierliche Ereignisströme zu verarbeiten [17]. Dieses Kapitel stellt

Mehr

A Platform for Complex Event Processing

A Platform for Complex Event Processing A Platform for Complex Event Processing Einführung Business Process Technology Prof. Dr. Mathias Weske Matthias Kunze Nico Herzberg Business Process Technology Seit 2001 Untersuchung realer Probleme des

Mehr

Approximationsalgorithmen: Klassiker I. Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling

Approximationsalgorithmen: Klassiker I. Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling Approximationsalgorithmen: Klassiker I Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling VO Approximationsalgorithmen WiSe 2011/12 Markus Chimani

Mehr

Mining top-k frequent itemsets from data streams

Mining top-k frequent itemsets from data streams Seminar: Maschinelles Lernen Mining top-k frequent itemsets from data streams R.C.-W. Wong A.W.-C. Fu 1 Gliederung 1. Einleitung 2. Chernoff-basierter Algorithmus 3. top-k lossy counting Algorithmus 4.

Mehr

6 Architektur-Mittel (WOMIT)

6 Architektur-Mittel (WOMIT) 6 Architektur-Mittel (WOMIT) Abb. 6-1: Positionierung des Kapitels im Ordnungsrahmen. Dieses Kapitel befasst sich mit der WOMIT-Dimension des architektonischen Ordnungsrahmens, indem es grundlegende Konzepte

Mehr

Beim Kunden wahrgenommene Qualität von IT-Services Ein wichtiger Faktor in der Beschaffung von Cloud Services

Beim Kunden wahrgenommene Qualität von IT-Services Ein wichtiger Faktor in der Beschaffung von Cloud Services Beim Kunden wahrgenommene Qualität von IT-Services Ein wichtiger Faktor in der Beschaffung von Cloud Services BICCnet Arbeitskreistreffen "IT-Services" am 14. November bei fortiss Jan Wollersheim fortiss

Mehr

Prototypvortrag. Exploiting Cloud and Infrastructure as a Service (IaaS) Solutions for Online Game Service Provisioning. Projektseminar WS 2009/10

Prototypvortrag. Exploiting Cloud and Infrastructure as a Service (IaaS) Solutions for Online Game Service Provisioning. Projektseminar WS 2009/10 Prototypvortrag Exploiting Cloud and Infrastructure as a Service (IaaS) Solutions for Online Game Service Provisioning Projektseminar WS 2009/10 Eugen Fot, Sebastian Kenter, Michael Surmann AG Parallele

Mehr

Abstrakt zum Vortrag im Oberseminar. Graphdatenbanken. Gero Kraus HTWK Leipzig 14. Juli 2015

Abstrakt zum Vortrag im Oberseminar. Graphdatenbanken. Gero Kraus HTWK Leipzig 14. Juli 2015 Abstrakt zum Vortrag im Oberseminar Graphdatenbanken Gero Kraus HTWK Leipzig 14. Juli 2015 1 Motivation Zur Darstellung komplexer Beziehungen bzw. Graphen sind sowohl relationale als auch NoSQL-Datenbanken

Mehr

Anforderungen an Cloud- Rechenzentren

Anforderungen an Cloud- Rechenzentren Anforderungen an Cloud- Rechenzentren Student der Wirtscha3sinforma6k an der Universität zu Köln 1 Vorstellung Oktober 2009 bis September 2012 Bachelorstudium der Wirtscha3sinforma6k an der Wirtscha3s-

Mehr

25.09.2014. Zeit bedeutet eine Abwägung von Skalierbarkeit und Konsistenz

25.09.2014. Zeit bedeutet eine Abwägung von Skalierbarkeit und Konsistenz 1 2 Dies ist ein Vortrag über Zeit in verteilten Anwendungen Wir betrachten die diskrete "Anwendungszeit" in der nebenläufige Aktivitäten auftreten Aktivitäten in einer hochgradig skalierbaren (verteilten)

Mehr

1 Einleitung. 1.1 Caching von Webanwendungen. 1.1.1 Clientseites Caching

1 Einleitung. 1.1 Caching von Webanwendungen. 1.1.1 Clientseites Caching 1.1 Caching von Webanwendungen In den vergangenen Jahren hat sich das Webumfeld sehr verändert. Nicht nur eine zunehmend größere Zahl an Benutzern sondern auch die Anforderungen in Bezug auf dynamischere

Mehr

whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN

whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN CLOUD-ENTWICKLUNG: BESTE METHODEN 1 Cloud-basierte Lösungen sind auf dem IT-Markt immer weiter verbreitet und werden von immer mehr

Mehr

Cassandra Query Language (CQL)

Cassandra Query Language (CQL) Cassandra Query Language (CQL) Seminar: NoSQL Wintersemester 2013/2014 Cassandra Zwischenpräsentation 1 Gliederung Basic facts Datentypen DDL/DML ähnlich zu SQL Besonderheiten Basic facts CQL kurz für

Mehr

1 Einleitung. Betriebswirtschaftlich administrative Systeme

1 Einleitung. Betriebswirtschaftlich administrative Systeme 1 1 Einleitung Data Warehousing hat sich in den letzten Jahren zu einem der zentralen Themen der Informationstechnologie entwickelt. Es wird als strategisches Werkzeug zur Bereitstellung von Informationen

Mehr

Orientierte Modellierung mit der Unified Modeling Language

Orientierte Modellierung mit der Unified Modeling Language UML-Basics: Einführung in Objekt- Orientierte Modellierung mit der Unified Modeling Language Michael Hahsler Ziel dieses Seminars Verständnis von Objekt-Orientierung Was sind Klassen? Was ist Vererbung?

Mehr

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining.

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining. Personalisierung Personalisierung Thomas Mandl Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung Klassifikation Die Nutzer werden in vorab bestimmte Klassen/Nutzerprofilen

Mehr

It's all in the Cloud! Cloud Computing Grundlagen

It's all in the Cloud! Cloud Computing Grundlagen It's all in the Cloud! Cloud Computing Grundlagen Folie: 1/25 Agenda Einleitung - Cloud Computing Begriffe Überblick - Wer bietet was? Der Weg zur Private Cloud Einblick - RRZK und Cloud Computing Anmerkung

Mehr

Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim

Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim Sven Hartlieb Cloud-Computing Seminar Hochschule Mannheim WS0910 1/23 Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim Sven Hartlieb Fakultät für Informatik Hochschule

Mehr

Ausgewählte Kapitel der Systemsoftware: Cloud Computing

Ausgewählte Kapitel der Systemsoftware: Cloud Computing Ausgewählte Kapitel der Systemsoftware: Cloud Computing Zunächst heiter bis wolkig, später dauerhaft bedeckt Timo Hönig Friedrich-Alexander-Universität Erlangen-Nürnberg Lehrstuhl Informatik 4 (Verteilte

Mehr

Gliederung. Was ist Cloud Computing Charakteristiken Virtualisierung Cloud Service Modelle Sicherheit Amazon EC2 OnLive Vorteile und Kritik

Gliederung. Was ist Cloud Computing Charakteristiken Virtualisierung Cloud Service Modelle Sicherheit Amazon EC2 OnLive Vorteile und Kritik Cloud Computing Gliederung Was ist Cloud Computing Charakteristiken Virtualisierung Cloud Service Modelle Sicherheit Amazon EC2 OnLive Vorteile und Kritik 2 Bisher Programme und Daten sind lokal beim Anwender

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 378

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 378 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 378 Umsetzung ausgewählter Supply-Chain-Operations-Reference-Metriken durch das

Mehr

Mythen des Cloud Computing

Mythen des Cloud Computing Mythen des Cloud Computing Prof. Dr. Peter Buxmann Fachgebiet Wirtschaftsinformatik Software Business & Information Management Technische Universität Darmstadt 12.09.2012 IT-Business meets Science Prof.

Mehr

Approximationsalgorithmen

Approximationsalgorithmen Ausarbeitung zum Thema Approximationsalgorithmen im Rahmen des Fachseminars 24. Juli 2009 Robert Bahmann robert.bahmann@gmail.com FH Wiesbaden Erstellt von: Robert Bahmann Zuletzt berarbeitet von: Robert

Mehr

Grid Computing. Einführung. Marc Lechtenfeld. Seminar Grid Computing Sommersemester 2004 Universität Duisburg-Essen

Grid Computing. Einführung. Marc Lechtenfeld. Seminar Grid Computing Sommersemester 2004 Universität Duisburg-Essen * Grid Computing Einführung Marc Lechtenfeld Seminar Grid Computing Sommersemester 2004 Universität Duisburg-Essen Übersicht 1 Problematik 2 Systemanforderungen 3 Architektur 4 Implementation 5 Projekte

Mehr

SAP Support On Demand - IBMs kombiniertes Service-Angebot für SAP Hosting und SAP Application Management Services (AMS)

SAP Support On Demand - IBMs kombiniertes Service-Angebot für SAP Hosting und SAP Application Management Services (AMS) (IGS) SAP Support On Demand - IBMs kombiniertes Service-Angebot für SAP Hosting und SAP Application Services (AMS) Martin Kadner, Product Manager SAP Hosting, GTS Klaus F. Kriesinger, Client Services Executive,

Mehr

Vergleich von Open-Source und kommerziellen Programmen zur Durchführung eines ETL-Prozesses

Vergleich von Open-Source und kommerziellen Programmen zur Durchführung eines ETL-Prozesses Vergleich von Open-Source und kommerziellen Programmen zur Durchführung eines ETL-Prozesses Exposé zur Diplomarbeit Humboldt-Universität zu Berlin Mathematisch-Naturwissenschaftliche Fakultät II Institut

Mehr

Dipl. Inf. Ali M. Akbarian

Dipl. Inf. Ali M. Akbarian Dipl. Inf. Ali M. Akbarian 2012 Einführung Globalisierung, Innovation und Kundenzufriedenheit sind auch in Zukunft die wichtigsten Herausforderungen der Unternehmen. Diese Herausforderungen verlangen:

Mehr

Entwurf und simulative Bewertung eines Verfahrens zur Behandlung von Engpässen in Bandwidth-Broker-gesteuerten DiffServ- Netzwerken

Entwurf und simulative Bewertung eines Verfahrens zur Behandlung von Engpässen in Bandwidth-Broker-gesteuerten DiffServ- Netzwerken Einleitungsvortrag zur Diplomarbeit: Entwurf und simulative Bewertung eines Verfahrens zur Behandlung von Engpässen in Bandwidth-Broker-gesteuerten DiffServ- Netzwerken --- Bernd Wollersheim --- --- wollersh@informatik.uni-bonn.de

Mehr

Open Grid Services Architecture (OGSA)

Open Grid Services Architecture (OGSA) Open Grid Services Architecture (OGSA) IBM Red Paper; Fundamentals of Grid Computing, 2002 A d v an ced M id d lew are P ro f. D r. C h. R eich rc h @ fh-furtw angen.d e http://www.informatik.fh-furtwangen.de/~reich/advancedmiddlewareallg.ss05/index.html

Mehr

Maschinelles Lernen und Data Mining: Methoden und Anwendungen

Maschinelles Lernen und Data Mining: Methoden und Anwendungen Maschinelles Lernen und Data Mining: Methoden und Anwendungen Eyke Hüllermeier Knowledge Engineering & Bioinformatics Fachbereich Mathematik und Informatik GFFT-Jahrestagung, Wesel, 17. Januar 2008 Knowledge

Mehr

Supply Chain Controlling: Entwicklung und Diskussion

Supply Chain Controlling: Entwicklung und Diskussion Supply Chain Controlling: Entwicklung und Diskussion von Christoph Eiser Erstauflage Diplomica Verlag 2015 Verlag C.H. Beck im Internet: www.beck.de ISBN 978 3 95485 266 6 schnell und portofrei erhältlich

Mehr

Reaktive Systeme und synchrones Paradigma

Reaktive Systeme und synchrones Paradigma Sascha Kretzschmann Freie Universität Berlin Reaktive Systeme und synchrones Paradigma Einführung in das Seminar über synchrone Programmiersprachen Worum geht es? INHALT 2 Inhalt 1. Einleitung - Wo befinden

Mehr

2012 MASTERS Consulting GmbH 1

2012 MASTERS Consulting GmbH 1 2012 MASTERS Consulting GmbH 1 MASTERS Consulting ist eine Unternehmensberatung für IT Service Management. Das Beratungsumfeld umfasst die Themen IT Strategy Management, IT Governance & Compliance Management,

Mehr

Motivation. Themenblock: Data Preprocessing. Einsatzgebiete für Data Mining I. Modell von Gianotti und Pedreschi

Motivation. Themenblock: Data Preprocessing. Einsatzgebiete für Data Mining I. Modell von Gianotti und Pedreschi Motivation Themenblock: Data Preprocessing We are drowning in information, but starving for knowledge! (John Naisbett) Was genau ist Datenanalyse? Praktikum: Data Warehousing und Data Mining Was ist Data

Mehr

Entwicklung eines Scheduling-Verfahrens zur Optimierung der Reihenfolge von Prototypentests. Masterarbeit

Entwicklung eines Scheduling-Verfahrens zur Optimierung der Reihenfolge von Prototypentests. Masterarbeit Entwicklung eines Scheduling-Verfahrens zur Optimierung der Reihenfolge von Prototypentests Masterarbeit zur Erlangung des akademischen Grades Master of Science (M.Sc.) im Masterstudiengang Wirtschaftswissenschaft

Mehr

Data Streams: Gegenüberstellung existierender Systeme und Architekturen. Marius Renn Betreuer: Jürgen Göres

Data Streams: Gegenüberstellung existierender Systeme und Architekturen. Marius Renn Betreuer: Jürgen Göres Data Streams: Gegenüberstellung existierender Systeme und Architekturen Marius Renn Betreuer: Jürgen Göres Inhalt Kriterien Existierende Systeme STREAM Aurora PIPES (SPEX) (MAIDS) Vergleich Fazit Einleitung

Mehr

MICROSOFTS CLOUD STRATEGIE

MICROSOFTS CLOUD STRATEGIE MICROSOFTS CLOUD STRATEGIE Sebastian Weber Head of Technical Evangelism Developer Platform & Strategy Group Microsoft Deutschland GmbH Slide 1 WAS IST CLOUD COMPUTING? Art der Bereitstellung von IT-Leistung

Mehr

Oracle 10g und SQL Server 2005 ein Vergleich. Thomas Wächtler 39221

Oracle 10g und SQL Server 2005 ein Vergleich. Thomas Wächtler 39221 Oracle 10g und SQL Server 2005 ein Vergleich Thomas Wächtler 39221 Inhalt 1. Einführung 2. Architektur SQL Server 2005 1. SQLOS 2. Relational Engine 3. Protocol Layer 3. Services 1. Replication 2. Reporting

Mehr

Cloud Extender - Flexible Ressourcenbuchung

Cloud Extender - Flexible Ressourcenbuchung Cloud Extender - Flexible Ressourcenbuchung Die Herausforderung Immer mehr Unternehmen entscheiden sich dafür Ressourcen dynamisch aus der Cloud zu buchen. Gemeint ist damit in vielen Fällen die sogenannte

Mehr

Softwareentwicklung und Application Lifecycle Management als Geschäftsprozess

Softwareentwicklung und Application Lifecycle Management als Geschäftsprozess Softwareentwicklung und Application Lifecycle Management als Geschäftsprozess Von David Chappell Gefördert durch die Microsoft Corporation 2010 Chappell & Associates David Chappell: Softwareentwicklung

Mehr

Diplomarbeit. Entwurf eines generischen Prozessleitstandes für Change Request Systeme

Diplomarbeit. Entwurf eines generischen Prozessleitstandes für Change Request Systeme Fakultät für Mathematik, Informatik und Naturwissenschaften Forschungsgruppe Softwarekonstruktion Diplomarbeit Entwurf eines generischen Prozessleitstandes für Change Request Systeme Development of a Generic

Mehr

Neuerungen Analysis Services

Neuerungen Analysis Services Neuerungen Analysis Services Neuerungen Analysis Services Analysis Services ermöglicht Ihnen das Entwerfen, Erstellen und Visualisieren von Data Mining-Modellen. Diese Mining-Modelle können aus anderen

Mehr

Use-Cases. Bruno Blumenthal und Roger Meyer. 17. Juli 2003. Zusammenfassung

Use-Cases. Bruno Blumenthal und Roger Meyer. 17. Juli 2003. Zusammenfassung Use-Cases Bruno Blumenthal und Roger Meyer 17. Juli 2003 Zusammenfassung Dieses Dokument beschreibt Netzwerk-Szenarios für den Einsatz von NetWACS. Es soll als Grundlage bei der Definition des NetWACS

Mehr

Data Cube. Aggregation in SQL. Beispiel: Autoverkäufe. On-line Analytical Processing (OLAP) 1. Einführung. 2. Aggregation in SQL, GROUP BY

Data Cube. Aggregation in SQL. Beispiel: Autoverkäufe. On-line Analytical Processing (OLAP) 1. Einführung. 2. Aggregation in SQL, GROUP BY Data Cube On-line Analytical Processing (OLAP). Einführung Ziel: Auffinden interessanter Muster in großen Datenmengen 2. Aggregation in SQL, GROUP BY 3. Probleme mit GROUP BY 4. Der Cube-Operator! Formulierung

Mehr

SLA4D-Grid! Einführung, Konzepte und Ergebnisse

SLA4D-Grid! Einführung, Konzepte und Ergebnisse Service Level Agreements for D-Grid SLA4D-Grid! Einführung, Konzepte und Ergebnisse Philipp Wieder, Service Computing, TU Dortmund SLAs in Grid und Cloud Workshop 09. September 2010, Karlsruhe, DE http://www.sla4d-grid.de

Mehr

Untersuchung zur hardwareunterstützten Entwurfsverifikation von Stream-basierten Kommunikations- und Verarbeitungsalgorithmen

Untersuchung zur hardwareunterstützten Entwurfsverifikation von Stream-basierten Kommunikations- und Verarbeitungsalgorithmen Fakultät Informatik Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Untersuchung zur hardwareunterstützten Entwurfsverifikation von Stream-basierten Kommunikations-

Mehr

Atomic Basic Blocks Eine kontrollflussunabhängige Zwischendarstellung für Echtzeitsysteme

Atomic Basic Blocks Eine kontrollflussunabhängige Zwischendarstellung für Echtzeitsysteme Atomic Basic Blocks Eine kontrollflussunabhängige Zwischendarstellung für Echtzeitsysteme Fabian Scheler Martin Mitzlaff Wolfgang Schröder-Preikschat Informatik 4 Verteilte Systeme und Betriebssysteme

Mehr

Kontextbasiertes Information Retrieval

Kontextbasiertes Information Retrieval Kontextbasiertes Information Retrieval Modell, Konzeption und Realisierung kontextbasierter Information Retrieval Systeme Karlheinz Morgenroth Lehrstuhl für Medieninformatik Fakultät Wirtschaftsinformatik

Mehr

Data Mining-Modelle und -Algorithmen

Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining ist ein Prozess, bei dem mehrere Komponenten i n- teragieren. Sie greifen auf Datenquellen, um diese zum Training,

Mehr

Cloud Computing. Betriebssicherheit von Cloud Umgebungen C O N N E C T I N G B U S I N E S S & T E C H N O L O G Y

Cloud Computing. Betriebssicherheit von Cloud Umgebungen C O N N E C T I N G B U S I N E S S & T E C H N O L O G Y Cloud Computing Betriebssicherheit von Cloud Umgebungen Urs Zumstein Leiter Performance Care Team Urs.Zumstein@DevoTeam.ch 079 639 42 58 Agenda Definition von Cloud Services Anforderungen an die Betriebssicherheit

Mehr

lassen Sie mich zunächst den Organisatoren dieser Konferenz für ihre Einladung danken. Es freut mich sehr, zu Ihren Diskussionen beitragen zu dürfen.

lassen Sie mich zunächst den Organisatoren dieser Konferenz für ihre Einladung danken. Es freut mich sehr, zu Ihren Diskussionen beitragen zu dürfen. Mobile Personal Clouds with Silver Linings Columbia Institute for Tele Information Columbia Business School New York, 8. Juni 2012 Giovanni Buttarelli, Stellvertretender Europäischer Datenschutzbeauftragter

Mehr

Erfassung von Umgebungskontext und Kontextmanagement

Erfassung von Umgebungskontext und Kontextmanagement Erfassung von Umgebungskontext und Kontextmanagement Jörg Schneider, Christian Mannweiler, Andreas Klein, Hans D. Schotten 13.05.2009 Inhalt 1. Einleitung 2. Anforderungen 3. Kontext Erfassung und Verteilung

Mehr

Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick:

Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick: Red Hat Storage Server Die wichtigsten Funktionen von Red Hat Storage Server 2.0 im Überblick: Offene Software Lösung für Storage Ansprache über einen globalen Namensraum Betrachtet Storage als einen virtualisierten

Mehr

MapReduce und Datenbanken Thema 15: Strom bzw. Onlineverarbeitung mit MapReduce

MapReduce und Datenbanken Thema 15: Strom bzw. Onlineverarbeitung mit MapReduce MapReduce Jan Kristof Nidzwetzki MapReduce 1 / 17 Übersicht 1 Begriffe 2 Verschiedene Arbeiten 3 Ziele 4 DEDUCE: at the intersection of MapReduce and stream processing Beispiel 5 Beyond online aggregation:

Mehr

NOCTUA by init.at DAS FLEXIBLE MONITORING WEBFRONTEND

NOCTUA by init.at DAS FLEXIBLE MONITORING WEBFRONTEND NOCTUA by init.at DAS FLEXIBLE MONITORING WEBFRONTEND init.at informationstechnologie GmbH - Tannhäuserplatz 2 - A-1150 Wien - www.init.at Dieses Dokument und alle Teile von ihm bilden ein geistiges Eigentum

Mehr

Grenzen und Möglichkeiten. Senatsverwaltung für Inneres und Sport Verfassungsschutz Bereich: Wirtschaftsschutz René K.

Grenzen und Möglichkeiten. Senatsverwaltung für Inneres und Sport Verfassungsschutz Bereich: Wirtschaftsschutz René K. Grenzen und Möglichkeiten Senatsverwaltung für Inneres und Sport Verfassungsschutz Bereich: Wirtschaftsschutz René K. 1 Agenda Definition Architektur Durchgängigkeit der Technologien Risiken Pro Contra

Mehr

Big Data Performance Management

Big Data Performance Management Big Data Performance Management Überblick Big Data Im Kontext der Performance Relevanz Big Data Big Data Big data is a buzzword and a "vague term", but at the same time an "obsession" with entrepreneurs,

Mehr

Geschäftsprozessmanagement

Geschäftsprozessmanagement Geschäftsprozessmanagement Der INTARGIA-Ansatz Whitepaper Dr. Thomas Jurisch, Steffen Weber INTARGIA Managementberatung GmbH Max-Planck-Straße 20 63303 Dreieich Telefon: +49 (0)6103 / 5086-0 Telefax: +49

Mehr

Redwood Cronacle und REALTECH theguard! Integration

Redwood Cronacle und REALTECH theguard! Integration Redwood Cronacle und REALTECH theguard! Integration Einleitung Redwood Software und REALTECH haben gemeinsam eine Lösung entwickelt, die die Systemverfügbarkeit von SAP und mysap Systemen signifikant erhöht.

Mehr

Befragung und empirische Einschätzung der Praxisrelevanz

Befragung und empirische Einschätzung der Praxisrelevanz Befragung und empirische Einschätzung der Praxisrelevanz eines Vorgehensmodells zur Auswahl von CRM-Systemen D I P L O M A R B E I T zur Erlangung des Grades eines Diplom-Ökonomen der Wirtschaftswissenschaftlichen

Mehr

Telephone Integration für Microsoft CRM 4.0 (TI)

Telephone Integration für Microsoft CRM 4.0 (TI) Telephone Integration für Microsoft CRM 4.0 (TI) Benutzerhandbuch Der Inhalt des Dokuments ist Änderungen vorbehalten. Microsoft und Microsoft CRM sind registrierte Markenzeichen von Microsoft Inc. Alle

Mehr

Entwicklung von Software für drahtlose Sensor-Netzwerke

Entwicklung von Software für drahtlose Sensor-Netzwerke Entwicklung von Software für drahtlose Sensor-Netzwerke Jan Blumenthal, Dirk Timmermann Universität Rostock Informatik 2003 Frankfurt/Main, 2. Oktober 2003 Gliederung Projekt-Vorstellung Einführung zu

Mehr

Proaktive Entscheidungsunterstützung für Geschäftsprozesse durch neuronale Netze

Proaktive Entscheidungsunterstützung für Geschäftsprozesse durch neuronale Netze Proaktive Entscheidungsunterstützung für Geschäftsprozesse durch neuronale Netze INAUGURALDISSERTATION zur Erlangung des akademischen Grades eines Doktors der Wirtschaftswissenschaften an der Wirtschaftswissenschaftlichen

Mehr

Das Knowledge Grid. Eine Architektur für verteiltes Data Mining

Das Knowledge Grid. Eine Architektur für verteiltes Data Mining Das Knowledge Grid Eine Architektur für verteiltes Data Mining 1 Gliederung 1. Motivation 2. KDD und PDKD Systeme 3. Knowledge Grid Services 4. TeraGrid Projekt 5. Das Semantic Web 2 Motivation Rapide

Mehr

3. Konzepte der objektorientierten Programmierung

3. Konzepte der objektorientierten Programmierung 3. Konzepte der objektorientierten Programmierung 3.1 Basiskonzepte 3.2 Generalisierung / Spezialisierung 3.3 Aggregation 3.4 Assoziation 3.5 Nachrichten 3.6 Polymorphismus 3. Konzepte der Objektorientierung

Mehr

Ermittlung von Assoziationsregeln aus großen Datenmengen. Zielsetzung

Ermittlung von Assoziationsregeln aus großen Datenmengen. Zielsetzung Ermittlung von Assoziationsregeln aus großen Datenmengen Zielsetzung Entscheidungsträger verwenden heutzutage immer häufiger moderne Technologien zur Lösung betriebswirtschaftlicher Problemstellungen.

Mehr

Simulation von Computer- und Kommunikationssystemen

Simulation von Computer- und Kommunikationssystemen Computer und Kommunikationssysteme Nachbildung der Verarbeitung in Rechnern und Kommunikation in Netzwerken Belegung und Auslastung von Systemressourcen Analyse von Systemverhalten Systemleistung in der

Mehr

Grundlagen verteilter Systeme

Grundlagen verteilter Systeme Universität Augsburg Insitut für Informatik Prof. Dr. Bernhard Bauer Wolf Fischer Christian Saad Wintersemester 08/09 Übungsblatt 5 26.11.08 Grundlagen verteilter Systeme Lösungsvorschlag Aufgabe 1: Erläutern

Mehr

Informationsbroschüre

Informationsbroschüre Informationsbroschüre Überwachung, Lastverteilung, automatische Aufgaben für Microsoft Dynamics NAV Mit IT IS control 2011 können Sie viele Mandanten und NAV-Datenbanken praktisch gleichzeitig mit wenigen

Mehr

RAC auf Sun Cluster 3.0

RAC auf Sun Cluster 3.0 RAC auf Sun Cluster 3.0 Schlüsselworte RAC, OPS, Sun Cluster, Performance, Availability Zusammenfassung Oracle hat mit dem Real Application Cluster (RAC) aus einer Hochverfügbarkeitslösung eine Höchstverfügbarkeitslösung

Mehr

Towards Automated Analysis of Business Processes for Financial Audits

Towards Automated Analysis of Business Processes for Financial Audits Towards Automated Analysis of Business Processes for Financial Audits Michael Werner Universität Hamburg michael.werner@wiso.uni hamburg.de Max Brauer Allee 60 22765 Hamburg StB Prof. Dr. Nick Gehrke Nordakademie

Mehr

Secure Cloud - "In-the-Cloud-Sicherheit"

Secure Cloud - In-the-Cloud-Sicherheit Secure Cloud - "In-the-Cloud-Sicherheit" Christian Klein Senior Sales Engineer Trend Micro Deutschland GmbH Copyright 2009 Trend Micro Inc. Virtualisierung nimmt zu 16.000.000 14.000.000 Absatz virtualisierter

Mehr

DATEN - Das Gold des 21. Jahrhunderts? Dr. Oliver Riedel, AUDI AG

DATEN - Das Gold des 21. Jahrhunderts? Dr. Oliver Riedel, AUDI AG DATEN - Das Gold des 21. Jahrhunderts? Dr. Oliver Riedel, AUDI AG Inhalt Globale und unternehmensspezifische Herausforderungen Von Big Data zu Smart Data Herausforderungen und Mehrwert von Smart Data 2

Mehr

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH Complex Hosting Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Complex Hosting

Mehr

Die Microsoft Cloud OS-Vision

Die Microsoft Cloud OS-Vision Die Microsoft Cloud OS-Vision 29-01-2014, itnetx/marcel Zehner Seit Oktober 2013 steht Microsoft mit dem neuen Betriebssystem Microsoft Windows Server 2012 R2 am Start. Aus Sicht von vielen Unternehmen

Mehr

Anbietergruppen im Cloud Computing-Markt Work in Progress # 127

Anbietergruppen im Cloud Computing-Markt Work in Progress # 127 Torsten J. Gerpott/Sebastian May Anbietergruppen im Cloud Computing-Markt Work in Progress # 127 Juli 2013 Zusammenfassung Work in Progress # 127 Zf TM-WIP # 127 // CC-Anbietergruppen / Torsten J. Gerpott/Sebastian

Mehr

Integrating Architecture Apps for the Enterprise

Integrating Architecture Apps for the Enterprise Integrating Architecture Apps for the Enterprise Ein einheitliches Modulsystem für verteilte Unternehmensanwendungen Motivation und Grundkonzept Inhalt Problem Ursache Herausforderung Grundgedanke Architektur

Mehr

Virtualisierung im IT-Betrieb der BA

Virtualisierung im IT-Betrieb der BA Virtualisierung, essenzielles Werkzeug in der IT-Fabrik Martin Deeg, Anwendungsszenarien Cloud Computing, 31. August 2010 Virtualisierung im IT-Betrieb der BA Virtualisierung im IT-Betrieb der BA Effizienzsteigerung

Mehr

Zeichnen von Graphen. graph drawing

Zeichnen von Graphen. graph drawing Zeichnen von Graphen graph drawing WS 2006 / 2007 Gruppe: D_rot_Ala0607 Christian Becker 11042315 Eugen Plischke 11042351 Vadim Filippov 11042026 Gegeben sei ein Graph G = (V; E) Problemstellung V E =

Mehr

SERVICE SUCHE ZUR UNTERSTÜTZUNG

SERVICE SUCHE ZUR UNTERSTÜTZUNG SERVICE SUCHE ZUR UNTERSTÜTZUNG VON ANFORDERUNGSERMITTLUNG IM ERP BEREICH MARKUS NÖBAUER NORBERT SEYFF ERP SYSTEME Begriffsbestimmung: Enterprise Resource Planning / Business Management Solution Integrierte

Mehr

SOA im Zeitalter von Industrie 4.0

SOA im Zeitalter von Industrie 4.0 Neue Unterstützung von IT Prozessen Dominik Bial, Consultant OPITZ CONSULTING Deutschland GmbH Standort Essen München, 11.11.2014 OPITZ CONSULTING Deutschland GmbH 2014 Seite 1 1 Was ist IoT? OPITZ CONSULTING

Mehr

Marktliquidität von Aktien

Marktliquidität von Aktien Marktliquidität von Aktien Inauguraldissertation zur Erlangung der Würde eines Doctor rerum oeconomicarum der Wirtschafts- und Sozialwissenschaftlichen Fakultät der Universität Bern Lukas Roth Die Fakultät

Mehr

Projekt AGB-10 Fremdprojektanalyse

Projekt AGB-10 Fremdprojektanalyse Projekt AGB-10 Fremdprojektanalyse 17. Mai 2010 1 Inhaltsverzeichnis 1 Allgemeines 3 2 Produktübersicht 3 3 Grundsätzliche Struktur und Entwurfsprinzipien für das Gesamtsystem 3 3.1 Die Prefuse Library...............................

Mehr

Business Intelligence. Data Warehouse / Analyse Sven Elvers 2005-07-06

Business Intelligence. Data Warehouse / Analyse Sven Elvers 2005-07-06 Business Intelligence Data Warehouse / Analyse Sven Elvers 2005-07-06 Einleitung Dieses Dokument beschreibt einen für das Verständnis relevanten Teil der Präsentation. Business Intelligence Motivation

Mehr

Die nächste Revolution in der modelgetriebenen Entwicklung?

Die nächste Revolution in der modelgetriebenen Entwicklung? Die nächste Revolution in der modelgetriebenen Entwicklung? Me Johannes Kleiber Software Engineer bei FMC Johannes.Kleiber@fmc-ag.com Themen Überblick Window Workflow Foundation Workflows modellieren WF

Mehr

Einführung in die OPC-Technik

Einführung in die OPC-Technik Einführung in die OPC-Technik Was ist OPC? OPC, als Standartschnittstelle der Zukunft, steht für OLE for Process Control,und basiert auf dem Komponentenmodel der Firma Microsoft,dem Hersteller des Betriebssystems

Mehr

Andrea Held. Virtualisierung im Oracle-Umfeld Virtualisierungslayer Voraussetzungen Schnittstellen Workload Management Grid Control

Andrea Held. Virtualisierung im Oracle-Umfeld Virtualisierungslayer Voraussetzungen Schnittstellen Workload Management Grid Control Andrea Held Virtualisierung im Oracle-Umfeld Virtualisierungslayer Voraussetzungen Schnittstellen Workload Management Grid Control 1 Einzelne Server ausgelegt auf Lastspitzen Niedrige durchschnittliche

Mehr

Echtzeitanomalieerkennung für Internetdienste (Abschlussvortrag)

Echtzeitanomalieerkennung für Internetdienste (Abschlussvortrag) Lehrstuhl für Netzarchitekturen und Netzdienste Institut für Informatik Technische Universität München Echtzeitanomalieerkennung für Internetdienste (Abschlussvortrag) Markus Sieber Betreuer: Ali Fessi,

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 374 Eignung von Verfahren der Mustererkennung im Process Mining Sabrina Kohne

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

Whitepaper Eingangsrechnungsbearbeitung mit Workflowunterstützung

Whitepaper Eingangsrechnungsbearbeitung mit Workflowunterstützung Whitepaper Eingangsrechnungsbearbeitung mit Workflowunterstützung Inhalt 1. Workflow-Management-Systeme im Überblick 2 1.1. SAP Business Workflow 3 2. Eingangsrechnungsbearbeitung mit Workflowunterstützung

Mehr

Intrusion-Detection für Automatisierungstechnik

Intrusion-Detection für Automatisierungstechnik Intrusion-Detection für Automatisierungstechnik Franka Schuster Lehrstuhl Rechnernetze und Kommunikationssysteme Brandenburgische Technische Universität, Cottbus SPRING 7 GI SIDAR Graduierten-Workshop

Mehr

Performance Monitoring Warum macht es Sinn?

Performance Monitoring Warum macht es Sinn? Performance Monitoring Warum macht es Sinn? achermann consulting ag Nicola Lardieri Network Engineer Luzern, 25.5.2011 Inhalt Definition Monitoring Warum Performance Monitoring? Performance Monitoring

Mehr

SQL Azure Technischer Überblick. Steffen Krause Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/steffenk

SQL Azure Technischer Überblick. Steffen Krause Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/steffenk SQL Azure Technischer Überblick Steffen Krause Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/steffenk Haftungsausschluss Microsoft kann für die Richtigkeit und Vollständigkeit

Mehr