Big Data. Sonderdruck für. Kreativität aus rohen Daten. Eine technologische Revolution. Objektivierung des Bauchgefühls

Größe: px
Ab Seite anzeigen:

Download "Big Data. Sonderdruck für. www.codecentric.de. Kreativität aus rohen Daten. Eine technologische Revolution. Objektivierung des Bauchgefühls"

Transkript

1 Heft 9 Titelbild: Jer Thorp Big Data Sonderdruck für Kreativität aus rohen Daten Eine technologische Revolution Objektivierung des Bauchgefühls bt

2 Big-Data-Tools Ideen und Konzepte im Umgang mit Big Data The Big Data Developer Big Data = MapReduce + NoSQL + Sharding. Wenn das Ihr mentales Bild ist und Sie eine gesunde Portion Sarkasmus vertragen können, lesen Sie weiter. In diesem Artikel werden Ihnen grundsätzliche Ideen und Konzepte im Umgang mit großen Daten vermittelt und die damit verbundenen Problemfelder aufgezeigt. Autor: Pavlo Baron Vorab sei gesagt: In diesem Artikel werden keine Toolvergleiche angestellt, weil sie nur zu Missverständnissen und Flammenkriegen führen. Sie können nach dem Durchlesen des Artikels hoffentlich selbst entscheiden, welches Tool bzw. welchen Ansatz Sie wann wählen sollten. Und mit ein bisschen Recherche finden Sie auch die entsprechenden Tools. Die technische Seite des Big- Data-Hypes ist auf der einen Seite voller Geheimnisse und Missinterpretationen und auf der anderen Seite der konkreteste und meist diskutierte Aspekt, was Big Data betrifft. Klar, man hat bereits Unmengen von mit dem Big-Data-Etikett gelabelten Tools zur Verfügung, weiß allerdings nicht so recht, was man damit tun soll. Die existierenden Tools müssen also überhaupt erst Probleme finden, die sie lösen sollen. Aber sie sind so cool, dass man sie unbedingt ausprobieren möchte. Weitere Informationen zum vorliegenden Artikel finden Sie auch unter [1]. 2 bt

3 highscalability.com Woher kommt diese Toolbegeisterung? Natürlich von den Artikeln auf Internetseiten wie highscalability.com und dergleichen. In regelmäßigen Abständen schmeißt dort ein weiterer Facebook-Übernahmekandidat mit mehr als zweifelhaftem Geschäftsmodell eine Liste von coolen Tools aufs elektronische Papier, die das Herz eines jeden Technikers im Nu höher schlagen lässt. Und in einem Nebensatz wird auch noch erwähnt, dass alles, was man eingesetzt hat, natürlich Open Source ist und per se ganz ohne Lizenzkosten daherkommt. Diese Aussage wird keinen aufmerksamen, kostengetriebenen Entscheider kalt lassen, und da haben wir den Salat. Die Kürze des jeweiligen Blog-Posts tut ihr Übriges: Es entsteht das Gefühl, dass alles so leicht ist, dass man es auch selber hinbekommen kann. Ab hier gibt es drei Wege in Abhängigkeit von der Unternehmensart: 1. Man setzt die besagten Tools sofort ein und ersetzt damit die gesamte bisherige Toollandschaft. Dieses Verhaltensmuster trifft auf mittellose Start-ups zu, deren Geschäftsmodell einzig und alleine im ständigen Wechsel der Tools besteht. Diese Firmen lehnen Java oder.net grundsätzlich ab, weil diese sie in diesem Tempo massiv einschränken würden. 2. Man erprobt die Tools in der zwanzigsten Inkarnation des Projekts unter dem Basiscodenamen Ach, lasst uns doch bewerten, ob wir diese drakonischen Oracleund Hardwarekosten loswerden, das bei jeder erneuten Wiederholung einzig und alleine dem Zweck dient, den Beweis zu erbringen, dass alles beim Alten bleiben muss. Die für das Projekt verwendeten Datenvolumina würden sich problemlos in einer unindizierten Textdatei wohlfühlen und stellen lediglich die schmerzfreie Spitze eines gigantischen, unantastbaren Eisbergs dar. Vor allem der über Jahre gewachsene Mittelstand neigt zu einem solchen Verhalten. 3. Man schaltet auf Sarkasmus um: Woher sollen wir denn große Daten haben? Wir sind ja nur eine der größten Europäischen Banken. Bei uns passt alles nach wie vor in die Oracle-Datenbanken. Dieses Verhalten gilt ab der Unternehmensgröße, bei der Oracle oder SAP persönlich anrufen und um Termine bitten, und in denen das Dreijahresbudget die meistverwendete Skalierungsstellschraube darstellt anstelle der vertikalen, horizontalen oder diagonalen Skalierung. Es dürfte offensichtlich sein, dass in allen drei Fällen nicht wirklich etwas Verwertbares, Produktives entsteht außer Selbstbeschäftigung natürlich. Aber man hat das Gefühl, mit der Zeit zu gehen oder zumindest nicht ganz die neuesten Entwicklungen zu verschlafen, ganz gleich, ob sie einen tatsächlich betreffen oder nicht. EDV, CS und das alles Ja, noch vor einigen Jahren sah die Welt der elektronischen Datenverarbeitung (für die Jüngeren unter Ihnen: EDV) ganz einfach aus: Speichere alle Arten von Daten in einem Hot-Standby-Oracle-Koloss, greife darauf mit ein paar fetten, über Jahre gewachsenen Enterprise- Java-Anwendungen zu und drehe diese Daten in dem mit jedem auch nur erdenklichen Datentopf per ODBC bt

4 verheirateten Cognos so lange herum, bis sie um Gnade winseln. Und plötzlich kommt so ein Facebook-Rotzbub um die Ecke und verdient Geld mit nichts. Und das macht er mit Tools, deren Namen und Anzahl jeden Konzernsoftwareportfoliomanager in den Wahnsinn und den vorgezogenen Ruhestand treiben würden. Auf die IT-Öffentlichkeit wirkt sich der Erfolg von Amazon, Google und Co. vor allem in Form von technologischen Trittbrettfahrern und massiven Verunsicherungen aus. Während die besagten Unternehmen sich die besten Computerwissenschaftler ins Haus holen und riesige Forschungsabteilungen unterhalten, um aus ihrer Technik das letzte Quäntchen Leistung herauszupressen, vereinfachen die besagten Trittbrettfahrer die Wissenschaft enorm und reduzieren sie auf belanglose Toollisten, die sie voller Stolz auch gleich auf highscalability.com veröffentlichen und damit die IT-Welt total verunsichern. Da ist eh schon ständig die Rede von diesem ganzen Big-Data-Zeug, von dem man nicht so recht weiß, mit welchem Besteck man es am besten essen soll, und dann gießen sie noch weiteres Öl ins Feuer der allgemeinen Verzweiflung und legen Zahlen und Tools an den Tag, von denen man nur träumen kann und die man im Übrigen auch selbst gerne hätte. Und in diesem Spannungsfeld entstehen gut und gerne saloppe Aussagen, die einen ambitionierten Techniker mit Neigung zur fundierten Wissenschaft bis zum Herzinfarkt erschaudern lassen. Es ist meine Pflicht, diese Aussagen etwas auseinander zu sortieren und mit einer entsprechenden Portion gesundem Menschenverstand (und natürlich Sarkasmus wie denn sonst?) zu relativieren. Wie normale Daten, bloss grösser Das menschliche Wesen neigt generell dazu, in messbaren Größen zu denken und Dinge größentechnisch zu vergleichen und zu sortieren. Bereits im frühesten Alter ist es ein beliebtes Lernspiel, zwei Gegenstände hinsichtlich ihrer Größe zu bewerten und eine Schwarz- oder Weißentscheidung zu treffen. Das geht auch ganz gut mit Schubladendenken einher. Was ich mir in den letzten Monaten alles anhören durfte, war ungefähr in der Klasse von Big Data hat nicht jeder, die meisten haben nur Medium Data oder Big Data sind halt eben wie normale Daten, bloß größer. Dabei geht es um Teraund Petabytes von Daten. Petabytes das hört sich so richtig männlich an. Das klingt dann schon nach viel, viel größer als mickrige, altbackene Gigabytes, oder? Wenn Sie unbedingt nach einer Vergleichsabgrenzung der großen Daten vom Rest streben, kann ich Ihnen das Leben mit folgender Definition ganz leicht machen: Petabytes von Daten, die auf unterschiedlichen Kontinenten stündlich neu aufschlagen und komplexe Relationen aufweisen, die sofort während ihres Eintreffens hinsichtlich jedweder Anomalien untersucht und in grafische Management-Dashboards inklusive Business- Forecast-Korrektur gegossen werden müssen das ist Big Data. Alles darunter ist Mickey-Mouse-Data. Es geht bei Big Data nicht um die Größe, obgleich dieser Marketingname etwas Größentechnisches impliziert. Es geht darum, dass Sie entweder bereits riesige, unverarbeitete und kaum strukturierte Datenmengen im Unternehmen und dessen unmittelbarer Umgebung haben und diese anzapfen müssen, oder Sie können diese Daten ansammeln und anreichern bzw. erheben jede Art von Daten, die in irgendeiner Beziehung zu Ihrem Geschäftsmodell steht. Für die elektronische Verarbeitung von diesen Datenarten mit den damit verbundenen, unkontrollierbaren Mengen gelten eigene Gesetze. Auch hier werde ich nicht selten mit der Aussage konfrontiert Ach, Daten sind Daten. Egal, wie groß das sind dieselben Prinzipien. Das stimmt so natürlich ganz und gar nicht. Betrachten wir doch zunächst einmal die Speicherung. Datenspeicherung = Datenbank Jede Art von Storage kann irgendwo als Datenbank bezeichnet werden. Daten können auf eine Diskette passen (für die Jüngeren unter Ihnen: so groß wie ein ipod, kann so viel speichern wie ein Sandkorn), oder sie liegen auf vielen Festplatten in einem großen Schrank. Das Problem eines jeden physischen Datenträgers, egal wie groß oder klein er ist, ist dessen limitierte Gesamtkapazität. Man kann die Hardwareschränke schon sehr weit ausbauen, aber irgendwo ist Schluss mit deren Skalierung. Und an dieser Stelle, wenn man mit großen Datenmengen zu rechnen hat, ist weite (vorgesehene) Skalierung erforderlich. Gezwungenermaßen baut man dabei auf die Verteilung, um eine theoretisch unbegrenzte Anzahl einzelner Maschinen zu einem großen, verteilten Speicher zu kombinieren. Dieser Weg ist unausweichlich, denn es gibt noch keine Datenbank namens Schwarzes Loch, die unproportional viele Daten bezogen auf ihre eigene Größe aufnehmen kann. SQL vs. NoSQL Man könnte natürlich versuchen, in eine etwas andere, emotionalere Richtung hin zu argumentieren: Das gilt nur für SQL es skaliert nämlich hinten und vorne nicht. Und ist altes, langweiliges Zeug. NoSQL dagegen skaliert wie die Hölle und ist cool. Das ist auch eine interessante, allerdings etwas unqualifizierte Betrachtung. Zunächst einmal hat die Abfragesprache SQL wenig mit der Skalierbarkeit zu tun, außer vielleicht hinsicht- 4 bt

5 lich der Lesbarkeit und der Anzahl der Codezeilen. Und NoSQL sollte man eher als Bewegung, nicht als konkrete Implementierung auffassen. Der NoSQL-Bewegung schließen sich sowohl Nutzer als auch Produkthersteller an, um bei der Datenpersistenz nicht nur auf die RDBMS und die damit verbundenen Unzulänglichkeiten einer Allzweckwaffe zu bauen, sondern auf die Alternativen, die auf die speziellen Use Cases bzw. Datenarten zugeschnitten sind und den Anspruch der Allseitigkeit größtenteils erst gar nicht erheben. Allerdings erhält auch bei den so genannten NoSQL- Stores das Thema Verteilung eine zentrale Bedeutung, die an dem Entwickler gar nicht vorbeigehen kann. Abhängig von dem gewählten Store existieren dazu Strategien und diverse Stellschrauben, die eine optimale Anpassung an die eigenen Use Cases erlauben. An dieser Stelle kommt das berühmte CAP-Theorem ins Spiel, das die Grundlage für die betagten Stellschrauben liefert. Man nehme 2 von 3? CAP [2] ist einfach: Man nehme zwei von drei. Das ist fast schon ein Vorurteil und eine derart gefährliche Vereinfachung eines komplexen Sachverhalts, dass ihr Schatten sämtliche Vorzüge eines NoSQL-Data-Store im Nu überdecken kann, sofern ein solcher Store überhaupt in Frage kommt. Bei den verteilten Systemen jedweder Art ist das einzige, wovon man sicher ausgehen kann, die Tatsache, dass Teile dieses Systems früher oder später ausfallen werden und Sie keine Ahnung haben werden, was da vor sich geht. Das heißt, dass das P aus dem CAP-Theorem eine unverzichtbare, von vornherein vorgesehene und implementierte Konstante ist. Das gegeben, schiebt man den Regler zwischen C und A, und das nicht nur schwarz oder weiß, also entweder C oder A, sondern mit diversen Grautönen dazwischen in Abhängigkeit von den eigenen Use Cases und pro Use Case ggf. unterschiedlich. Sharding versteckt die Komplexität der Verteilung Tja. Verteilung als solche ist eines der komplexesten Gebiete der Computerwissenschaft. Sie ist niemals transparent, egal, wie glänzend die Fassade sein mag. Alles, was man bisher getan oder gesehen hat, verblasst regelrecht im Vergleich zu der Verteilung. Es sei denn, man hat die Menge mit sieben Broten gefüttert und kann auf dem Wasser laufen. Kann man so etwas nicht, kann man sich leicht die Zähne daran ausbeißen. Und überhaupt: Das mit dem Sharding stimmt so nicht ganz, weil man sich damit ein paar harte und schwer lösbare Probleme ins Haus holt. Das erste typische Problem kommt dadurch zustande, dass die Daten nun auf unterschiedlichen Maschinen liegen und das Traversal durch Relationen diverse Hops beinhaltet. Sollte unterwegs einer der Hops plötzlich nicht verfügbar sein, ist das Traversal umsonst. Und ansonsten ist es bei diversen Hops auch nicht sonderlich performant. Das Problem haben sowohl die Graphendatenbanken als auch sonstige Data Stores. Denn selbst wenn die Daten nicht direkt relational abgelegt werden Relationen kommen auf logischer Ebene zustande und müssen in der Anwendungslogik simuliert/kompensiert werden. Ein anderes Problem mit dem Sharding ist das naive Hashing. Hashes werden in Abhängigkeit von der Anzahl der Knoten im System berechnet. Kommen neue Knoten hinzu oder verschwinden welche, müssen die Daten, sofern überhaupt noch verfügbar, im System fast komplett umgeschoben werden es kommt also zum teuren Rehashing. Das naive Hashing sollte unbedingt gemieden werden, was allerdings beim besten Willen keine triviale Angelegenheit ist. Die Kompromisse müssen also zwischen der Verfügbarkeit und der Datenkonsistenz, aber auch zwischen der Lese-, Schreib- und Suchgeschwindigkeit gemacht werden. Und diese Kompromisse sind wirklich, wirklich hart. MapReduce für die schnelle Suche Ein weiterer Aspekt, der am meisten unterschätzt wird, ist die aufgeweichte, also eventuelle Konsistenz. Man sollte unbedingt wissen, dass sie nur auf eine bestimmte Gruppe von Use Cases passt. Dort, wo gezwungenermaßen Transaktionen erforderlich sind, kann man auf die eventuelle Konsistenz nur dann bauen, wenn man seinen Job unbedingt schnell loswerden möchte. Bei einem Geldtransfer von einem Konto auf ein anderes kann man sich z. B. nicht einmal für eine Millisekunde Inkonsistenz zwischen den beiden erlauben. Denn man kann davon ausgehen, dass diese Millisekunden für Betrug ausgenutzt werden. Man kann diese Betrachtung natürlich gerne auf den Security Officer abwälzen und sich voll und ganz auf die Umsetzung konzentrieren, an der Tatsache selbst wird sich dadurch aber nichts ändern. Man kann natürlich durchaus gegenargumentieren, dass man gar kein Geld zum Transferieren, dafür aber Unmengen von Daten besitzt. Diese Daten könne man doch einfach auf NoSQL werfen, das wird schon seine Arbeit erledigen. Mal abgesehen davon, dass auch hier wieder NoSQL mit einer konkreten Implementierung verwechselt wird, ist es an und für sich etwas blauäugig, Daten, die wahrscheinlich essenziell für das Überleben des Unternehmens sind, irgendwo hinzuwerfen und zu hoffen, dass das Zielding schon irgendwie seinen Job machen wird. Bei diesem Werfen kann aber in einem verteilten System so einiges schiefgehen, und die Problemlösung wird dann in bt

6 einem gewissen Maße, in Abhängigkeit von dem gewählten Ansatz und Data Store, dem Entwickler überlassen. Und auch diese Problemlösung ist verdammt hart. Nehmen Sie doch einfach mal folgendes als Beispiel: Sie wollen auf einen Knoten schreiben, der ist aber nicht mehr ansprechbar. Sie wollen ersatzweise auf einen anderen schreiben, der hat aber konkurrierende Daten und kann nicht mehr mit dem Rest des Systems sprechen. Was tun? Das Problem wird häufig zum Client geschoben, möge doch der die resultierenden Konflikte auflösen. Wie tun Sie es, wenn Sie sich nicht sicher sein können, dass nicht noch irgendwo alternative Daten liegen, die Ihrer Konfliktlösung im Wege stehen? Das ist ja auch nur eines von vielen Beispielen, was schiefgehen könnte, und deren Menge ist nicht deterministisch. Wir sollten uns jetzt aber ein bisschen über die Bereitstellung großer Daten unterhalten. Es ist eine Sache, diese Daten zu sammeln, aber eine völlig andere, sie einem entsprechend großem Nutzerkreis zur Verfügung zu stellen. Datenbank als Flaschenhals Das mag dann der Fall sein, wenn man in dem Standard- Stack einer 08/15-Java-Enterprise-Anwendung denkt. Das beliebte Gegenmittel, fast schon das Gegengift dabei ist es, den eingehenden Traffic infrastrukturell soweit herunterzuschrauben bzw. zu verengen, dass die dahinterstehenden Server noch irgendwie mithalten können. Sofern einen aber Millionen gleichzeitiger Verbindungen und Anfragen plagen, die um Daten betteln, muss man leicht umdenken. Denn in diesem Fall kommt es erst gar nicht bis zu der Datenbank: Bereits die allererste Meile, also die Strecke vom User zum ersten Server inklusive, wird zum Flaschenhals mutieren. Man kann sich hier nicht wirklich erlauben, den Verkehr zu drosseln, denn man will ja diese Zugriffszahlen haben. Der Preis dafür sind Pakete und Verbindungen, die in Warteschlangen enden oder gar komplett abgelehnt werden, um Überlast zu vermeiden. Und alles nur, weil man die Daten nicht schnell genug in beide Richtungen durch die erste Meile bringt. Glauben Sie mir, das Falscheste, was Sie auf ein solches Problem werfen können, ist eine weitere Ladung Sexy-Hardware. Egal, wie teuer sie ist und wie glänzend die dazugehörigen Werbeprospekte inklusive der Kürze der korrespondierenden Hersteller-Nasdaq-Kürzel sein mögen. Aber unter derart hoher Last wird diese schöne Hardware anfangen zu krepieren. Festplatten werden brennen, Kabel qualmen, Boards und Karten schmelzen. Und das alles wird sich in biblischem Ausmaß zu Feuerbällen hochheizen. Es geht schlicht und ergreifend nicht darum, wie sexy die Hardware ist. Es geht einzig und alleine darum, wie schnell und wie transparent man sie für den unterbrechungsfreien Betrieb einsetzen kann. C10K-Server for the win! Um die erste Meile so aufnahmefähig, stabil, unterbrechungsfrei und performant wie möglich zu halten, ist, in Abhängigkeit von der Abstraktionsdicke und dem Overhead am Server, eine beachtliche Menge Netzwerkinfrastruktur erforderlich, die schnell sehr viel Geld kosten kann. Um dem Problem zu begegnen und diese Infrastruktur größentechnisch vertretbar zu halten, ist es erforderlich, aus den Servern der ersten Meile so viel wie möglich herauszuholen. Das bedeutet, man muss sie an das Limit heran utilisieren, um weitere Last über Scale- Out abzunehmen. An dieser Stelle kommen die so genannten C10K- Problem-lösenden Server [3] in den Sinn. Oder besser gesagt, Technologien, mit deren Hilfe man solche Server bauen kann. Der Witz dabei ist der, dass die Aufnahme der vielen, also mehr als parallelen Requests, nicht über weitere Threads oder OS-Prozesse auf der Maschine erfolgt, sondern auf einem einzigen Thread, aber ohne Overhead und nachrichtenorientiert, bei voller Kernel- Unterstützung. Denn man kann sich auf der Maschine fast blind darauf verlassen, dass auf einem herkömmlichen *nix-system der Kernel allemal schlauer ist und näher an der Maschine, als jeder Entwickler, der versucht, um diesen herum zu abstrahieren. Die wahren Herrscher des Internets Allerdings ist es im Falle der ersten Meile und weiter Verteilung großer Daten auch so eine Sache. Den Server haben wir nun vielleicht performant. Was ist aber mit der Strecke vom User zum Server? Was ist, wenn die User aus der ganzen Welt kommen? Allein schon die Physik und die räumliche Entfernung spielen hier eine große Rolle; diese Aspekte lassen sich beim besten Willen nicht wegdenken. Dinge brauchen einfach Zeit, um von A nach B zu kommen. Das gilt ebenso für das Sonnenlicht wie für elektrische oder Lichtsignale bzw. Wellen jeder Form. Die Latenz der Strecke zwischen dem User und dem Server entscheidet über den Wettbewerbsvorteil. Wenn ich mir Videos von tollen Autos im Web ansehe, neige ich eher dazu, mich für eines davon zu interessieren, wenn das Video ruckelfrei kommt. Ruckelt es dabei aber, bin ich schnell von der Seite weg. Und daran kann nicht einmal diese Monsterindustrie etwas ändern; das ist das Webverhalten von Menschen. Also, was tun? Die besagte Latenz lässt sich durch die Kürzung der physikalischen Strecke zwischen dem Nutzer und dem Content verringern. Das Internet wird nicht von Google regiert, sondern von Unternehmen wie Akamei, die an guten Tagen mehr als die Hälfte der gesamten Internetinfrastruktur fahren. Allgemein lässt sich meine Empfehlung auf die so genannten Content Delivery Networks 6 bt

7 (CDN) [4] beziehen: Sie müssten Ihren dynamischen Content irgendwie als Snapshots einfrieren können; also statisch vorberechnen und zu CDN herausschieben. CDN hat seine Infrastruktur direkt vor der Haustür Ihres Nutzers, also im nahegelegenen Backbone-RZ. Und für Ihre Nutzer ist das CDN fast schon transparent, es sei denn, sie kennen sich technisch mit DNS und generell mit Internetprotokollen aus, was die meisten leider nicht tun. CDN hilft einem also, die viele Last von den Servern beliebter Webpräsenzen fernzuhalten und nur im Falle des Content-Update oder der allerletzten Livedatenabfrage die Server zu befragen. Man nutzt damit die gesamte Infrastruktur (je nach Vertrag, versteht sich), die dem heutigen Internet zugrunde liegt. Alles in die Wolken! Sie können aber in diesem Zusammenhang natürlich auch an Cloud Computing denken. Es stehen einem doch unendliche Ressourcen zur Verfügung, endlose grenzenlose Skalierbarkeit und das bei voller Kostenkontrolle und ganz ohne eigene lästige Hardware. Das Herz eines CFO schlägt nicht bei sexy Hardware schneller, sondern bei einer weiteren Möglichkeit, CapEx in OpEx zu verwandeln. Leider hat der Umgang mit den großen Daten einige Implikationen auf Ihre Cloud-Strategie. Virtualisierung von Datenbanken und I/O generell ist halt so eine Sache. Und je nachdem, für welche Cloud-Angebotsvariante bzw. -Infrastruktur Sie sich entscheiden, kann es Ihnen schnell passieren, dass die eigentlichen Daten nicht direkt nahe an den virtuellen Rechnern liegen, die sie verarbeiten. Damit wird das Prinzip der Data Locality verletzt, bei dem die Strecke vom Prozessor zu den Daten möglichst kurz sein sollte. Und wenn die virtuellen Cloud-Systeme oder Datenfragmente umgezogen werden, steht zudem Ihre ganze Welt still. Computation Grids und Data Grids sind halt unterschiedliche Dinge, waren es immer und werden es wohl für immer bleiben, und daran ändert sich auch mit dem neuen Label Cloud Computing nicht wirklich viel. Man kann natürlich auch, je nach Cloud-Anbieter und eigener Portmoneedicke, die Nähe der Daten zu den virtuellen Maschinen bzw. kürzere Stop-the-World- Phasen erzwingen, indem man höhere Rechnungen bezahlt. Ob es sich lohnt, ist eine andere Frage. Cloud- Angebote im Zusammenhang mit großen Daten rentieren sich aus meiner Sicht dann, wenn man es nicht eilig hat, aber nicht, wenn man unter Zeitdruck steht und Wert auf extrem hohen Durchsatz bei der Datenauslieferung an den Nutzer legt. Die Cloud-Anbieter werden Ihnen aber wahrscheinlich auch etwas anderes erzählen. Doch wir haben ja noch gar nicht über die eigentliche Verarbeitung von Daten gesprochen. MapReduce = Verarbeitung grosser Daten Je nachdem, wie groß Ihr Vorwissen in Bezug auf Map- Reduce ist, werden Sie vielleicht wissen, dass die beiden Basisphasen der MapReduce-basierten Datenverarbeitung eben Map und Reduce heißen. Und vielleicht werden Sie auch wissen, dass die eigentlich aufwändigste, teuerste und langsamste dieser beiden Phasen Split heißt. Jedes komplexe MapReduce-Tool wird zu verarbeitende Daten in einer speziell aufbereiteten, gesplitteten Form in einer Art Dateisystem erwarten, um überhaupt loslegen zu können. Aber Ihre Daten werden mit der allerhöchsten Wahrscheinlichkeit zunächst woanders liegen. In einem RDBMS, einer Logdatei oder irgendwo in einem verteilten Data Store. Diese Daten sind ggf. riesig, und sie müssen nun von A nach B. Sehen Sie hier Potenzial für tierisch viel Aufwand beim Transfer? Lange Transferzeiten? Ich schon. Sie können natürlich ganz schlau sein und Ihre Daten bereits zum Zeitpunkt der Entstehung in das MapReduceeigene Dateisystem schreiben. So sparen Sie sich den aufwändigen Split. Ja, das ist eine gängige Praxis. Doch an dieser Stelle kommt ein weiteres potenzielles Problem: Was, wenn Sie während der Map-Phase die zu verarbeitenden Daten suchen müssen, also nicht alles per se verarbeiten wollen? Sie werden wahrscheinlich antworten: Dann indiziere ich halt die Daten mit einer Search Engine oder Bibliothek, dann können sie schnell gefunden werden. Natürlich, das ist die Voraussetzung. Doch es ist sehr schwer, den entstehenden Index so zu splitten, dass dessen Teile bei den dazugehörigen Daten liegen und somit von den gleichen Prozessoren angezapft werden, die auch die Daten lokal holen. Denn wenn man den Index auf einem Knoten befragen muss, um von einem anderen gefundene Daten zu holen, ist es zum einen langsam und zum anderen fehleranfällig, denn einer der beiden Knoten kann ja auch mal nicht da sein. Aber was ist eigentlich mit der Datenanalyse? Das ist doch genau das, worauf Big Data marketingtechnisch nicht zuletzt von den BI-Herstellern reduziert wird, um Geschäfte aufrechtzuerhalten. MapReduce überall Die Standardantwort auf jede gestellte und ungestellte Frage im Bereich großer Daten scheint zumindest aus der Marketingperspektive MapReduce zu sein. Man hat sogar das Gefühl, MapReduce sei die Lösung aller Probleme in der IT, oder ein supermoderner Kaffeeautomat, der die Brühe völlig ohne Reststoffe in höchster Qualität auspressen kann. MapReduce wird auf alles geworfen, was nicht schnell genug abstürzen kann, aber das ist falsch. Alleine das Prinzip setzt Verteilung voraus, und wo Verteilung bt

8 ist, da sind auch Netze. Und wo Netze sind, erhöht jeder Millimeter der Kabelstrecke die Unzuverlässigkeit und die Latenz des Ganzen. Wenn Sie vor dem Problem stehen, Daten fast in Echtzeit zu analysieren, währen sie auf Sie zufliegen, haben Sie keine Zeit, diese Daten zu speichern; geschweige denn auf mehrere Systeme zu verteilen, um sie danach zu analysieren. Wenn Sie ein System Abb.1: Aspekte von Big Data zur automatischen Überwachung von Patientengesundheit in einem Krankenhaus bauen, haben Sie es mit sehr vielen Events von Sensoren zu tun. Sie haben Nanosekunden Zeit, zu entscheiden, ob ein Patient kurz vor dem Herzstillstand steht. Da ist keine Zeit zum Speichern von Daten mit nachträglicher Analyse. Denn sonst müssen Sie, wie es aktuell der Fall ist, die Schwester nachts prophylaktisch alle 15 Minuten zur Überprüfung zum Patienten schicken und ihn durch den Schlafentzug an der schnellen Genesung hindern. Wenn Sie in Echtzeit eine Schlägerei auf einem öffentlichen Platz aus dem Videostream der Überwachungskameras erkennen und verhindern wollen, haben Sie keine Zeit, diese Daten zu speichern und nachträglich zu analysieren denn dass Sie den Schuldigen kennen und nachträglich fangen könnten, hilft dem eventuell erstochenen Opfer herzlich wenig. Glauben Sie nicht alles, was Ihnen Hersteller und Berater erzählen. Ob es Old-School-BI-Experten sind oder hippe MapReduce-Spezialisten der Moderne: MapReduce ist bei Echtzeitüberwachung das falsche Mittel. Und auch die beste Hardware der Welt wird das nicht ändern. Denn Sie können bei MapReduce weder die Verarbeitungszeit zuverlässig fixieren oder vorhersagen noch die Vollständigkeit der Daten in einem verteilten System garantieren, sofern Sie weder die Konsistenz aufweichen noch die Kausalität der einzelnen Ereignisse über mehrere Maschinen hinweg garantieren. Events können verloren gehen oder die speichernden Knoten sind mal wieder nicht verfügbar, wenn Sie MapReducen wollen. Die Verteilung hat Ihre Seele. Wenn Sie bessere Fast-Echtzeit-Vorhersagen treffen wollen, wissen wollen, wie die einzelnen Events in einem Verbund ein Gesamtmuster ergeben, wie das eine Event aufgrund eines anderen entstanden ist (Kausalität) dann ist Complex Event Processing, also CEP [5], der Mechanismus Ihrer Wahl. Sie analysieren damit Datenströme, während Daten hereinfliegen. Und da gibt es wirklich keinen Weg drum herum. Mathe/Statistik fürchten Wenn Sie glauben, dass Ihr MapReduce-Tool die Mathematik bzw. die Statistik vor Ihnen verstecken wird, liegen Sie völlig falsch. Das wird es nicht. Denn bei der Analyse großer Datenmengen greift man auf statistische Berechnungen zurück. Und zur Wahrscheinlichkeitstheorie: Es geht um Prognosen, keine genauen Kalkulationen. Da reicht die normale 1+1-Arithmetik nicht mehr aus. Es ist also erforderlich, sich auch in Richtung Datenwissenschaft zu orientieren. Es ist fraglich, ob es sich als eigenständiger Beruf lohnt, aber zumindest IT-seitig muss man vieles aus dem mathematischen Sektor wissen oder verstehen. Selbst dann, wenn man zur Berechnung auf vorgefertigte Plattformen, Sprachen und Bibliotheken zurückgreift: Was sie tun, muss man trotzdem verstehen. Es gibt keinen Grund, Mathe zu fürchten. Man braucht hier Mathe, genau so, wie jeder ein ipad braucht. Aber eines haben wir noch vergessen: Visualisierung. Alles im Bilde Wenn Sie jetzt sagen, davon haben Sie keine Ahnung, dann sind wir schon mal zwei. Alles, was Sie hier beachten sollten, ist, dass es nicht mehr ausreicht, bei riesigen Datenmengen über ein Excel-Sheet Charts zu generieren. Es gibt tolle neue Methoden, Tools und Kartenarten, die riesige Datenmengen verständlich auf ein Bild herunterdampfen können. Wenn Sie wissen wollen, wie das geht, ist Andy Kirk ihr Mann, bzw. die Seite [6]. Die Moral von der G'schicht? Also, ich bin der Schlaumeier, der Ihnen hier Ihr Big-Data- Glashäuschen ruiniert, richtig? Fast. Eigentlich will ich auf Folgendes hinaus: Denken Sie nicht, dass es ausreicht, halbgare Blog- Posts zu lesen und sich dann als Experte zu bezeichnen. Menschen, die diese Posts verfassen, sind größtenteils sehr gebildet und schlau, sie fangen aber nicht bei Adam und Eva an und reduzieren das Geschriebene einfach auf ein leckeres Minimum. Holen Sie sich ein paar Basis-CS-Bücher über Netzwerke, Betriebssysteme, Maschinen, Datenbanken, Statistik etc. Die Investition lohnt sich. Sie müssen Full Stack gehen. Full Stack bedeutet, dass nicht alle Probleme im Big-Data-Umfeld mit Java oder Java-basierten Allzweckwaffen lösbar sind. Sie dürfen sie auch nicht von der Maschine abstrahieren, sondern müssen Technologien und Ansätze wählen, die so nah 8 bt

Pavlo Baron. Big Data. für IT-Entscheider. Riesige Datenmengen. und moderne Technologien. gewinnbringend nutzen HANSER

Pavlo Baron. Big Data. für IT-Entscheider. Riesige Datenmengen. und moderne Technologien. gewinnbringend nutzen HANSER Pavlo Baron Big Data für IT-Entscheider Riesige Datenmengen und moderne Technologien gewinnbringend nutzen HANSER Inhalt Vorwort XI 1 Management Summary 1 2 Was? 7 2.1 Mein klassisches Business ist konkurrenzlos,

Mehr

Nun möchte Ich Ihnen ans Herz legen. Sie müssen Träume haben, etwas was Sie verwirklichen möchten. Ohne ein Ziel sind Sie verloren.

Nun möchte Ich Ihnen ans Herz legen. Sie müssen Träume haben, etwas was Sie verwirklichen möchten. Ohne ein Ziel sind Sie verloren. Vorwort Ich möchte Ihnen gleich vorab sagen, dass kein System garantiert, dass sie Geld verdienen. Auch garantiert Ihnen kein System, dass Sie in kurzer Zeit Geld verdienen. Ebenso garantiert Ihnen kein

Mehr

1 Einleitung. 1.1 Caching von Webanwendungen. 1.1.1 Clientseites Caching

1 Einleitung. 1.1 Caching von Webanwendungen. 1.1.1 Clientseites Caching 1.1 Caching von Webanwendungen In den vergangenen Jahren hat sich das Webumfeld sehr verändert. Nicht nur eine zunehmend größere Zahl an Benutzern sondern auch die Anforderungen in Bezug auf dynamischere

Mehr

Big Data Mythen und Fakten

Big Data Mythen und Fakten Big Data Mythen und Fakten Mario Meir-Huber Research Analyst, IDC Copyright IDC. Reproduction is forbidden unless authorized. All rights reserved. About me Research Analyst @ IDC Author verschiedener IT-Fachbücher

Mehr

Skalierbarkeit von Serversystemen Was tun, damit das technische Korsett mein Business nicht einschnürt?

Skalierbarkeit von Serversystemen Was tun, damit das technische Korsett mein Business nicht einschnürt? Skalierbarkeit von Serversystemen Was tun, damit das technische Korsett mein Business nicht einschnürt? Dipl.-Inform. Thomas Witzenrath 21.01.2014 Tralios IT GmbH www.tralios.de Über mich Dipl.-Inform.

Mehr

ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE. NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik

ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE. NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik ARFA ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik Ralf Leipner Domain Architect Analytics, Risk Management & Finance 33. Berner Architekten

Mehr

SimpleVOC-Yetanother. Bausteine für eine Key/Value- Datenbank

SimpleVOC-Yetanother. Bausteine für eine Key/Value- Datenbank SimpleVOC-Yetanother Memcached? Bausteine für eine Key/Value- Datenbank SimpleVOC Yet another memcached? Bausteine für eine Key/Value Datenbank. Theorie (Martin Schönert) Praxis (Frank Celler) Eine Weisheit

Mehr

Ausfallsicherheit maßgeschneidert

Ausfallsicherheit maßgeschneidert Wir unternehmen IT. Ausfallsicherheit maßgeschneidert Bringen Sie Kosten und Nutzen in Einklang! Henning von Kielpinski Head of Business Development Henning.von.Kielpinski@consol.de Hochverfügbarkeit Risiken

Mehr

ISBN: 978-3-8428-0679-5 Herstellung: Diplomica Verlag GmbH, Hamburg, 2011

ISBN: 978-3-8428-0679-5 Herstellung: Diplomica Verlag GmbH, Hamburg, 2011 Nils Petersohn Vergleich und Evaluation zwischen modernen und traditionellen Datenbankkonzepten unter den Gesichtspunkten Skalierung, Abfragemöglichkeit und Konsistenz Diplomica Verlag Nils Petersohn Vergleich

Mehr

Datenbanken (WS 2015/2016)

Datenbanken (WS 2015/2016) Datenbanken (WS 2015/2016) Klaus Berberich (klaus.berberich@htwsaar.de) Wolfgang Braun (wolfgang.braun@htwsaar.de) 0. Organisatorisches Dozenten Klaus Berberich (klaus.berberich@htwsaar.de) Sprechstunde

Mehr

Was passiert mit meiner Cloud, wenn es regnet?

Was passiert mit meiner Cloud, wenn es regnet? Was passiert mit meiner Cloud, wenn es regnet? 5 dumme Fragen über die Cloud, die ganz schön clever sind Einfach. Anders. cloud.de Inhalt Vorwort 1. Wo ist die Cloud? 03 04 2. Gibt es nur eine Cloud, aus

Mehr

Persönlichkeiten bei bluehands

Persönlichkeiten bei bluehands Persönlichkeiten bei Technologien bei Skalierbare Anwendungen mit Windows Azure GmbH & co.mmunication KG am@.de; posts..de/am 1 2 3 4 5 6 7 8 9 Immer mehr Mehr Performance Mehr Menge Mehr Verfügbarkeit

Mehr

Storage-Trends am LRZ. Dr. Christoph Biardzki

Storage-Trends am LRZ. Dr. Christoph Biardzki Storage-Trends am LRZ Dr. Christoph Biardzki 1 Über das Leibniz-Rechenzentrum (LRZ) Seit 50 Jahren Rechenzentrum der Bayerischen Akademie der Wissenschaften IT-Dienstleister für Münchner Universitäten

Mehr

Collaborative Virtual Environments

Collaborative Virtual Environments Collaborative Virtual Environments Stefan Lücking Projektgruppe Kreativität und Technik AG Domik WS 02/03 09.01.2003 1/35 Was sind CVE? Versuch einer Definition : Ein CVE ist ein Programm, das eine virtuelle

Mehr

Hmmm.. Hmmm.. Hmmm.. Genau!! Office in der Cloud Realität oder Zukunft? Dumme Frage! ist doch schon lange Realität!. aber auch wirklich für alle sinnvoll und brauchbar? Cloud ist nicht gleich Cloud!

Mehr

Big Data Informationen neu gelebt

Big Data Informationen neu gelebt Seminarunterlage Version: 1.01 Copyright Version 1.01 vom 21. Mai 2015 Dieses Dokument wird durch die veröffentlicht. Copyright. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen

Mehr

GIS in der Cloud: Beispiele von ESRI und con terra

GIS in der Cloud: Beispiele von ESRI und con terra GIS in der Cloud: Beispiele von ESRI und con terra Dr. Matthias Bluhm ESRI Deutschland GmbH 9. März 2011, Darmstadt 2 ESRI Deutschland GmbH, 2011 GmbH 2010 ESRI Unternehmensgruppe (in Deutschland und der

Mehr

Warum Üben großer Mist ist

Warum Üben großer Mist ist Warum Üben großer Mist ist Kennst Du das? Dein Kind kommt aus der Schule. Der Ranzen fliegt in irgendeine Ecke. Das Gesicht drückt Frust aus. Schule ist doof! Und dann sitzt ihr beim Mittagessen. Und die

Mehr

Apache HBase. A BigTable Column Store on top of Hadoop

Apache HBase. A BigTable Column Store on top of Hadoop Apache HBase A BigTable Column Store on top of Hadoop Ich bin... Mitch Köhler Selbstständig seit 2010 Tätig als Softwareentwickler Softwarearchitekt Student an der OVGU seit Oktober 2011 Schwerpunkte Client/Server,

Mehr

Erfolgreiches Gastblogging

Erfolgreiches Gastblogging Erfolgreiches Gastblogging Wie man seinen Blog durch Gastblogging bekannter macht Daniel Schenker DaniSchenker.com Inhalt 1. Einleitung 2. Vorteile von Gastblogging 3. Blogs auswählen (anhand von Zielen)

Mehr

HIGHER SCHOOL CERTIFICATE EXAMINATION. German Continuers. (Section I Listening and Responding) Transcript

HIGHER SCHOOL CERTIFICATE EXAMINATION. German Continuers. (Section I Listening and Responding) Transcript 2014 HIGHER SCHOOL CERTIFICATE EXAMINATION German Continuers (Section I Listening and Responding) Transcript Familiarisation Text Heh, Stefan, wohnt deine Schwester immer noch in England? Ja, sie arbeitet

Mehr

Clouds. Erwartungen der Nutzer. Wolkig bis Heiter. (c) 2013, Peter Sturm, Universität Trier. Er ist verwöhnt! Er ist nicht dankbar!

Clouds. Erwartungen der Nutzer. Wolkig bis Heiter. (c) 2013, Peter Sturm, Universität Trier. Er ist verwöhnt! Er ist nicht dankbar! Clouds Wolkig bis Heiter Erwartungen der Nutzer Er ist verwöhnt! Verfügbarkeit Viele Anwendungen Intuitive Interfaces Hohe Leistung Er ist nicht dankbar! Mehr! Mehr! Mehr! Moore 1 Erwartungen der Entwickler

Mehr

IT Storage Cluster Lösung

IT Storage Cluster Lösung @ EDV - Solution IT Storage Cluster Lösung Leistbar, Hochverfügbar, erprobtes System, Hersteller unabhängig @ EDV - Solution Kontakt Tel.: +43 (0)7612 / 62208-0 Fax: +43 (0)7612 / 62208-15 4810 Gmunden

Mehr

Software as a Service

Software as a Service Software as a Service Andreas Von Gunten http://www.ondemandnotes.com http://www.andreasvongunten.com SaaSKon 2008 11. November 2008 Das Problem - Komplexität Software selber zu betreiben, bedeutet zunehmende

Mehr

Warum FB Werbung? Mehr als ein Viertel des gesamten Traffics auf Webseiten kommt über Facebook (!)

Warum FB Werbung? Mehr als ein Viertel des gesamten Traffics auf Webseiten kommt über Facebook (!) Facebook Marketing Warum FB Werbung? Mehr als ein Viertel des gesamten Traffics auf Webseiten kommt über Facebook (!) Zielgerichtet (geringer Streuverlust)! Einmal das Prinzip verstanden, ist das Traffic

Mehr

Albert HAYR Linux, IT and Open Source Expert and Solution Architect. Open Source professionell einsetzen

Albert HAYR Linux, IT and Open Source Expert and Solution Architect. Open Source professionell einsetzen Open Source professionell einsetzen 1 Mein Background Ich bin überzeugt von Open Source. Ich verwende fast nur Open Source privat und beruflich. Ich arbeite seit mehr als 10 Jahren mit Linux und Open Source.

Mehr

25.09.2014. Zeit bedeutet eine Abwägung von Skalierbarkeit und Konsistenz

25.09.2014. Zeit bedeutet eine Abwägung von Skalierbarkeit und Konsistenz 1 2 Dies ist ein Vortrag über Zeit in verteilten Anwendungen Wir betrachten die diskrete "Anwendungszeit" in der nebenläufige Aktivitäten auftreten Aktivitäten in einer hochgradig skalierbaren (verteilten)

Mehr

Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC. Alexander Scholz

Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC. Alexander Scholz Hochverfügbar und Skalierung mit und ohne RAC Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC Alexander Scholz Copyright its-people Alexander Scholz 1 Einleitung Hochverfügbarkeit

Mehr

Oracle Database 10g Die RAC Evolution

Oracle Database 10g Die RAC Evolution Oracle Database 10g Die RAC Evolution Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 RAC-Revolution, RAC-Evolution & Computing Oracle8i mit OPS Oracle9i Rel.

Mehr

Die Cloud, die für Ihr Unternehmen geschaffen wurde.

Die Cloud, die für Ihr Unternehmen geschaffen wurde. Die Cloud, die für Ihr Unternehmen geschaffen wurde. Das ist die Microsoft Cloud. Jedes Unternehmen ist einzigartig. Ganz gleich, ob im Gesundheitssektor oder im Einzelhandel, in der Fertigung oder im

Mehr

Linux Server in der eigenen Cloud

Linux Server in der eigenen Cloud SÜD IT AG World of IT Linux Server in der eigenen Cloud Infrastructure as a Service (IaaS) Michael Hojnacki, ProtoSoft AG Quellen: SUSE Cloud 4 Präsentation (Thore Bahr) Diverse Veröffentlichungen Stahlgruberring

Mehr

Internet-Suchmaschinen Ein kurzes Exposee zu drei wichtigen Informationsseiten im Internet. 04.03.2012 Computeria Rorschach Roland Liebing

Internet-Suchmaschinen Ein kurzes Exposee zu drei wichtigen Informationsseiten im Internet. 04.03.2012 Computeria Rorschach Roland Liebing Internet-Suchmaschinen Ein kurzes Exposee zu drei wichtigen Informationsseiten im Internet 04.03.2012 Computeria Rorschach Roland Liebing Internet-Suchmaschinen Eine Suchmaschine ist ein Programm zur Recherche

Mehr

Überblick und Vergleich von NoSQL. Datenbanksystemen

Überblick und Vergleich von NoSQL. Datenbanksystemen Fakultät Informatik Hauptseminar Technische Informationssysteme Überblick und Vergleich von NoSQL Christian Oelsner Dresden, 20. Mai 2011 1 1. Einführung 2. Historisches & Definition 3. Kategorien von

Mehr

BESCHAFFUNG UND LIZENZIERUNG MIT DEM VEREINFACHTEN ORACLE LIZENZMODELL

BESCHAFFUNG UND LIZENZIERUNG MIT DEM VEREINFACHTEN ORACLE LIZENZMODELL BESCHAFFUNG UND LIZENZIERUNG MIT DEM VEREINFACHTEN ORACLE LIZENZMODELL DIESER LEITFADEN IST FÜR FOLGENDE ORACLE SOFTWARE PROGRAMME GÜLTIG Oracle Database 11g Standard Edition One Die passende Datenbank-Lösung

Mehr

Quick Guide. The Smart Coach. Was macht einen Smart Coach eigentlich aus? Christina Emmer

Quick Guide. The Smart Coach. Was macht einen Smart Coach eigentlich aus? Christina Emmer Quick Guide The Smart Coach Was macht einen Smart Coach eigentlich aus? Christina Emmer Was macht einen Smart Coach aus? Vor einer Weile habe ich das Buch Smart Business Concepts gelesen, das ich wirklich

Mehr

T: Genau. B: Haben Sie das Gefühl, dass Ihre Entscheidungen von Eltern, Freunden beeinflusst wurde?

T: Genau. B: Haben Sie das Gefühl, dass Ihre Entscheidungen von Eltern, Freunden beeinflusst wurde? 1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 Interview mit T B: Ich befrage Sie zu vier Bereichen, und vorweg

Mehr

GIS im Spannungsfeld zwischen Consumer und Business Märkten

GIS im Spannungsfeld zwischen Consumer und Business Märkten GIS im Spannungsfeld zwischen Consumer und Business Märkten Diese Unterlagen sind nur im Zusammenhang mit dem mündlichen Vortrag vollständig. Die isolierte Nutzung einzelner Darstellungen kann zu Missverständnissen

Mehr

In-Memory Analytics. Marcel Poltermann. Fachhochschule Erfurt. Informationsmanagement

In-Memory Analytics. Marcel Poltermann. Fachhochschule Erfurt. Informationsmanagement Marcel Poltermann Fachhochschule Erfurt Informationsmanagement Inhaltsverzeichnis Glossar...III Abbildungsverzeichnis...III 1 Erläuterung:... 2 2 Technische Grundlagen... 2 2.1 Zugriff physische Datenträger:...

Mehr

Gliederung. Was ist Cloud Computing Charakteristiken Virtualisierung Cloud Service Modelle Sicherheit Amazon EC2 OnLive Vorteile und Kritik

Gliederung. Was ist Cloud Computing Charakteristiken Virtualisierung Cloud Service Modelle Sicherheit Amazon EC2 OnLive Vorteile und Kritik Cloud Computing Gliederung Was ist Cloud Computing Charakteristiken Virtualisierung Cloud Service Modelle Sicherheit Amazon EC2 OnLive Vorteile und Kritik 2 Bisher Programme und Daten sind lokal beim Anwender

Mehr

Grundlagen beim Linkaufbau

Grundlagen beim Linkaufbau Grundlagen beim Linkaufbau Link-Building welches heute eher als Link-Earning bezeichnet wird, hat sich in den letzten Jahren dramatisch verändert. Was sich nicht verändert hat, ist die Tatsache, dass Links

Mehr

Scandio SEBOL Search

Scandio SEBOL Search : : :, München Inhalt 1. Was ist SEBOL?...3 2. Index-Server...4 2.1. Warteschlange zur Indizierung...4 2.2. Plugin-Abarbeitung...4 2.3. Erweiterte Lucene-Indizierung...4 2.4. Index-Verteilung und Management...5

Mehr

Dass aus mir doch noch was wird Jaqueline M. im Gespräch mit Nadine M.

Dass aus mir doch noch was wird Jaqueline M. im Gespräch mit Nadine M. Dass aus mir doch noch was wird Jaqueline M. im Gespräch mit Nadine M. Jaqueline M. und Nadine M. besuchen das Berufskolleg im Bildungspark Essen. Beide lassen sich zur Sozialassistentin ausbilden. Die

Mehr

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH Complex Hosting Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Complex Hosting

Mehr

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

Meine Geheimnisse für ein bewusstes und sinnerfülltes Leben

Meine Geheimnisse für ein bewusstes und sinnerfülltes Leben Meine Geheimnisse für ein bewusstes und sinnerfülltes Leben Du möchtest dein Leben bewusst und sinnerfüllt gestalten? Auf den nächsten Seiten findest du 5 Geheimnisse, die mir auf meinem Weg geholfen haben.

Mehr

Magento goes into the cloud Cloud Computing für Magento. Referent: Boris Lokschin, CEO

Magento goes into the cloud Cloud Computing für Magento. Referent: Boris Lokschin, CEO Magento goes into the cloud Cloud Computing für Magento Referent: Boris Lokschin, CEO Agenda Über symmetrics Unsere Schwerpunkte Cloud Computing Hype oder Realität? Warum Cloud Computing? Warum Cloud für

Mehr

Der Cloud-Dienst Windows Azure

Der Cloud-Dienst Windows Azure Der Cloud-Dienst Windows Azure Master-Seminar Cloud Computing Wintersemester 2013/2014 Sven Friedrichs 07.02.2014 Sven Friedrichs Der Cloud-Dienst Windows Azure 2 Gliederung Einleitung Aufbau und Angebot

Mehr

Operational Big Data effektiv nutzen TIBCO LogLogic. Martin Ulmer, Tibco LogLogic Deutschland

Operational Big Data effektiv nutzen TIBCO LogLogic. Martin Ulmer, Tibco LogLogic Deutschland Operational Big Data effektiv nutzen TIBCO LogLogic Martin Ulmer, Tibco LogLogic Deutschland LOGS HINTERLASSEN SPUREN? Wer hat wann was gemacht Halten wir interne und externe IT Richtlinien ein Ist die

Mehr

Was darf das Grid kosten?

Was darf das Grid kosten? Was darf das Grid kosten? Dr. Marcel Kunze Steinbuch Centre for Computing Abteilung Integration und Virtualisierung Die Kooperation von Darf das Grid was kosten? Infrastruktur: Geschäftsmodell oder Sponsoring?

Mehr

Datenanalyse im Web. Einführung in das Thema. Prof. Dr. Ingo Claÿen. Beispiele für Daten im Web. Extraktion und Aggregation von Informationen

Datenanalyse im Web. Einführung in das Thema. Prof. Dr. Ingo Claÿen. Beispiele für Daten im Web. Extraktion und Aggregation von Informationen Datenanalyse im Web Einführung in das Thema Prof. Dr. Ingo Claÿen Hochschule für Technik und Wirtschaft Berlin Beispiele für Daten im Web Extraktion und Aggregation von Informationen Datenanalyse im Web

Mehr

Seite 1 Das trägerübergreifende Persönliche Budget So können Menschen mit Behinderung mehr selber bestimmen

Seite 1 Das trägerübergreifende Persönliche Budget So können Menschen mit Behinderung mehr selber bestimmen Seite 1 Das trägerübergreifende Persönliche Budget So können Menschen mit Behinderung mehr selber bestimmen Seite 2 Inhaltsverzeichnis Seite 4 6 Vorwort von Olaf Scholz Bundesminister für Arbeit und Soziales

Mehr

Das virtuelle Rechenzentrum

Das virtuelle Rechenzentrum Das virtuelle Rechenzentrum Erfahrungen, Meinungen, Visionen CON.ect Informunity Infrastrukturmanagement, Virtualisierung & Green IT Wien, 26.3.2009 Georg Chytil, Ing. Andreas Schoder georg.chytil@nextlayer.at,

Mehr

Was ist die Cloud? CCW interner Vortrag für Themenabend Erstellt: Mai 2012, Heiko Ehmsen Dauer: ca. 30 Minuten. Inhalt

Was ist die Cloud? CCW interner Vortrag für Themenabend Erstellt: Mai 2012, Heiko Ehmsen Dauer: ca. 30 Minuten. Inhalt Was ist die Cloud? CCW interner Vortrag für Themenabend Erstellt: Mai 2012, Heiko Ehmsen Dauer: ca. 30 Minuten Inhalt 1. Einführung Geschichte 2. Grundidee der Cloud-Technik (Virtualisierung, Skalierbarkeit,

Mehr

Nutzen Sie Ihr Optimierungspotential

Nutzen Sie Ihr Optimierungspotential Nutzen Sie Ihr Optimierungspotential Senken Sie Ihre Sicherheitsbestände, vermeiden Sie Stockoutsituationen und steigern Sie Ihre Stammdatenqualität mit dem myilocs Beschaffungszeitmodul. - 1 - myilocs

Mehr

Hand aufs Herz: Wie online ist Ihr Unternehmen?

Hand aufs Herz: Wie online ist Ihr Unternehmen? Hand aufs Herz: Wie online ist Ihr Unternehmen? Testen Sie Ihre Website in wenigen Schritten doch einfach mal selbst! Hallo! Mein Name ist Hans-Peter Heikens. Als Online Marketing Manager und Social Media

Mehr

Consulting für IT- und Cyber Security

Consulting für IT- und Cyber Security Whitepaper Fragen und Antworten zur sicheren E-Mail E-Mail Sicherheit einfach und effizient einsetzen" Consulting für IT- und Cyber Security Informations- und Kommunikationssicherheitslösungen 1 Vorwort

Mehr

Der Nutzen und die Entscheidung für die private Cloud. Martin Constam Rechenpower in der Private Cloud 12. Mai 2014

Der Nutzen und die Entscheidung für die private Cloud. Martin Constam Rechenpower in der Private Cloud 12. Mai 2014 Der Nutzen und die Entscheidung für die private Cloud Martin Constam Rechenpower in der Private Cloud 12. Mai 2014 1 Übersicht - Wer sind wir? - Was sind unsere Aufgaben? - Hosting - Anforderungen - Entscheidung

Mehr

Tutorial Speichernetze

Tutorial Speichernetze Tutorial Speichernetze Speichervirtualisierung Speichernetze Grundlagen und Einsatz von Fibre Channel SAN, NAS, iscsi und InfiniBand dpunkt.verlag 2003 Agenda Probleme in Speichernetzen Speichervirtualisierung

Mehr

Management der virtuellen Server erfolgt meist nicht nach den Anforderungen der Unternehmen, sondern nach dem Bedarf der IT

Management der virtuellen Server erfolgt meist nicht nach den Anforderungen der Unternehmen, sondern nach dem Bedarf der IT E-Interview mit Herrn Dr. Materna: Experten Interview Management der virtuellen Server erfolgt meist nicht nach den Anforderungen der Unternehmen, sondern nach dem Bedarf der IT Titel des E-Interviews:

Mehr

4 Planung von Anwendungsund

4 Planung von Anwendungsund Einführung 4 Planung von Anwendungsund Datenbereitstellung Prüfungsanforderungen von Microsoft: Planning Application and Data Provisioning o Provision applications o Provision data Lernziele: Anwendungen

Mehr

whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN

whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN CLOUD-ENTWICKLUNG: BESTE METHODEN 1 Cloud-basierte Lösungen sind auf dem IT-Markt immer weiter verbreitet und werden von immer mehr

Mehr

Big Data in der Forschung

Big Data in der Forschung Big Data in der Forschung Dominik Friedrich RWTH Aachen Rechen- und Kommunikationszentrum (RZ) Gartner Hype Cycle July 2011 Folie 2 Was ist Big Data? Was wird unter Big Data verstanden Datensätze, die

Mehr

Prototypvortrag. Exploiting Cloud and Infrastructure as a Service (IaaS) Solutions for Online Game Service Provisioning. Projektseminar WS 2009/10

Prototypvortrag. Exploiting Cloud and Infrastructure as a Service (IaaS) Solutions for Online Game Service Provisioning. Projektseminar WS 2009/10 Prototypvortrag Exploiting Cloud and Infrastructure as a Service (IaaS) Solutions for Online Game Service Provisioning Projektseminar WS 2009/10 Eugen Fot, Sebastian Kenter, Michael Surmann AG Parallele

Mehr

Ist Internat das richtige?

Ist Internat das richtige? Quelle: http://www.frauenzimmer.de/forum/index/beitrag/id/28161/baby-familie/elternsein/ist-internat-das-richtige Ist Internat das richtige? 22.02.2011, 18:48 Hallo erstmal, ich möchte mir ein paar Meinungen

Mehr

Überblick über Oracle Technologie im Bereich Hochverfügbarkeit. Tage der Datenbanken FH Köln Campus Gummersbach 20. Juni 2013 Dierk Lenz

Überblick über Oracle Technologie im Bereich Hochverfügbarkeit. Tage der Datenbanken FH Köln Campus Gummersbach 20. Juni 2013 Dierk Lenz Überblick über Oracle Technologie im Bereich Hochverfügbarkeit Tage der Datenbanken FH Köln Campus Gummersbach 20. Juni 2013 Dierk Lenz Herrmann & Lenz Services GmbH Erfolgreich seit 1996 am Markt Firmensitz:

Mehr

Echtzeiterkennung von Cyber-Angriffen auf IT-Infrastrukturen. Frank Irnich SAP Deutschland

Echtzeiterkennung von Cyber-Angriffen auf IT-Infrastrukturen. Frank Irnich SAP Deutschland Echtzeiterkennung von Cyber-Angriffen auf IT-Infrastrukturen Frank Irnich SAP Deutschland SAP ist ein globales Unternehmen... unser Fokusgebiet... IT Security für... 1 globales Netzwerk > 70 Länder, >

Mehr

Big Data Performance Management

Big Data Performance Management Big Data Performance Management Überblick Big Data Im Kontext der Performance Relevanz Big Data Big Data Big data is a buzzword and a "vague term", but at the same time an "obsession" with entrepreneurs,

Mehr

Stefan Kusiek BFW-Leipzig

Stefan Kusiek BFW-Leipzig Stefan Kusiek BFW-Leipzig Schnellere Geräte (CPU, HDD, RAM, ) Mehrere Geräte (CPU, HDD, RAM, ) Mehrere Geräte (Rechner, Server, ) Cluster Preiswerter????? Mindestgröße Installation Konfiguration Wartung

Mehr

Hybride Cloud Datacenters

Hybride Cloud Datacenters Hybride Cloud Datacenters Enterprise und KMU Kunden Daniel Jossen Geschäftsführer (CEO) dipl. Ing. Informatik FH, MAS IT Network Amanox Solutions Unsere Vision Wir planen und implementieren für unsere

Mehr

Caching. Hintergründe, Patterns &" Best Practices" für Business Anwendungen

Caching. Hintergründe, Patterns & Best Practices für Business Anwendungen Caching Hintergründe, Patterns &" Best Practices" für Business Anwendungen Michael Plöd" Senacor Technologies AG @bitboss Business-Anwendung!= Twitter / Facebook & co. " / kæʃ /" bezeichnet in der EDV

Mehr

Einführung. Kapitel 1 2 / 508

Einführung. Kapitel 1 2 / 508 Kapitel 1 Einführung 2 / 508 Einführung Was ist ein Datenbanksystem (DBS)? Ein System zum Speichern und Verwalten von Daten. Warum kein herkömmliches Dateisystem verwenden? Ausfallsicherheit und Skalierbarkeit

Mehr

Einige Tipps zur Optimierung Ihrer WordPress-Installation!

Einige Tipps zur Optimierung Ihrer WordPress-Installation! Einige Tipps zur Optimierung Ihrer WordPress-Installation! Quelle: www.rohinie.eu Die meisten Blogger glauben, dass es reicht, regelmäßig interessante Beiträge zu veröffentlichen um ein aktives Stammpublikum

Mehr

Web Analytics Kontrolle von Online Aktivitäten

Web Analytics Kontrolle von Online Aktivitäten Web Analytics Kontrolle von Online Aktivitäten Arbeitsgemeinschaft Bäder des VKU e.v., Internet & Social Media Marketing 15. September 2015, Mönchengladbach Julian Wegener Prokurist & Head of Strategy

Mehr

EMC. Data Lake Foundation

EMC. Data Lake Foundation EMC Data Lake Foundation 180 Wachstum unstrukturierter Daten 75% 78% 80% 71 EB 106 EB 133 EB Weltweit gelieferte Gesamtkapazität Unstrukturierte Daten Quelle März 2014, IDC Structured vs. Unstructured

Mehr

Copyright 2014, Oracle and/or its affiliates. All rights reserved.

Copyright 2014, Oracle and/or its affiliates. All rights reserved. 1 Red Stack Einfach gut für jedes Projekt und jeden Kunden & Partner Matthias Weiss Direktor Mittelstand Technologie ORACLE Deutschland B.V. & Co. KG 2 Agenda Oracle Red Stack - Idee und Vorteile Software

Mehr

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

Leibniz. (G.W.F. Hegel)

Leibniz. (G.W.F. Hegel) Leibniz 3. Der einzige Gedanke den die Philosophie mitbringt, ist aber der einfache Gedanke der Vernunft, dass die Vernunft die Welt beherrsche, dass es also auch in der Weltgeschichte vernünftig zugegangen

Mehr

Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008

Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008 Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008 Jörg Rödel Virtualization - Whats out there? Virtualisierung hat bereits längere Geschichte auf x86 Startete mit VMware Setzte

Mehr

>> Future Network 17.11.2011. David Steinmetz Alexander Deles. Seite 1

>> Future Network 17.11.2011. David Steinmetz Alexander Deles. Seite 1 >> Future Network 17.11.2011 David Steinmetz Alexander Deles Seite 1 >> Wer wir sind - EBCONT Unternehmensgruppe IT- ConsulDng: DWH, HOST, PM & SAP Rupert Weißenlehner So=wareindividualentwicklung & IT-

Mehr

Desktopvirtualisierung 2009 ACP Gruppe

Desktopvirtualisierung 2009 ACP Gruppe Konsolidieren Optimieren Automatisieren Desktopvirtualisierung Was beschäftigt Sie Nachts? Wie kann ich das Desktop- Management aufrechterhalten oder verbessern, wenn ich mit weniger mehr erreichen soll?

Mehr

Cloud Computing. ITA Tech Talk, Oberursel, 28.09.2010. Nicholas Dille IT-Architekt, sepago GmbH

Cloud Computing. ITA Tech Talk, Oberursel, 28.09.2010. Nicholas Dille IT-Architekt, sepago GmbH Cloud Computing ITA Tech Talk, Oberursel, 28.09.2010 Nicholas Dille IT-Architekt, sepago GmbH Wer ist Nicholas Dille? IT-Architekt bei der sepago Strategieberatung Technische Konzeption Kernkompetenzen

Mehr

FlexiScale - Web Hosting mit Cloud-Computing Hochschule Mannheim

FlexiScale - Web Hosting mit Cloud-Computing Hochschule Mannheim Jiaming Song Cloud-Computing Seminar Hochschule Mannheim WS0910 1/31... FlexiScale - Web Hosting mit Cloud-Computing Hochschule Mannheim.... Jiaming Song Fakultät für Informatik Hochschule Mannheim jiaming360@googlemail.com

Mehr

Virtualisierung im IT-Betrieb der BA

Virtualisierung im IT-Betrieb der BA Virtualisierung, essenzielles Werkzeug in der IT-Fabrik Martin Deeg, Anwendungsszenarien Cloud Computing, 31. August 2010 Virtualisierung im IT-Betrieb der BA Virtualisierung im IT-Betrieb der BA Effizienzsteigerung

Mehr

Auswirkungen der Cloud auf Ihre Organisation So managen Sie erfolgreich den Weg in die Cloud

Auswirkungen der Cloud auf Ihre Organisation So managen Sie erfolgreich den Weg in die Cloud Die Cloud Auswirkungen der Cloud auf Ihre Organisation So managen Sie erfolgreich den Weg in die Cloud Die Auswirkungen und Aspekte von Cloud-Lösungen verstehen Cloud-Lösungen bieten Unternehmen die Möglichkeit,

Mehr

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 0 Es TOP 10 DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 wird ein wichtiges Jahr für BIG (Business Intelligence Growth) 2012 war ein fantastisches Jahr für Business Intelligence! Die biedere alte

Mehr

Leipzig, 5./6. Dezember 2013

Leipzig, 5./6. Dezember 2013 WORKSHOP»NoSQL, NewSQL, In-Memory - Datenbanktrends und ihre Auswirkungen im Überblick«Leipzig, 5./6. Dezember 2013 Mit Beiträgen von Organisatorisches TERMIN BEGINN ENDE ANSPRECHPARTNER 5./6. Dezember

Mehr

Bin ich fit für myconvento?

Bin ich fit für myconvento? Bin ich fit für myconvento? Sie planen den Einsatz unserer innovativen Kommunikationslösung myconvento und fragen sich gerade, ob Ihr Rechner die Anforderungen erfüllt? Hier erfahren Sie mehr. Inhalt Was

Mehr

Unterrichtsreihe: Liebe und Partnerschaft

Unterrichtsreihe: Liebe und Partnerschaft 06 Hochzeit Der schönste Tag im Leben soll es werden das wünschen sich viele Paare von ihrer Hochzeit. Wie dieser Tag genau ablaufen soll, entscheidet jedes Paar individuell. Eine gute Planung gehört in

Mehr

Next Generation Cloud

Next Generation Cloud Next Generation Cloud Building Blocks In Zukunft wird es darum gehen, aus der Summe der Teile Anwendungen (Apps) zu generieren, die Mehrwerte zu schaffen App besteht aus Integration von > Funktionen, z.b.

Mehr

Dr. Uwe Jasnoch Intergraph SG&I Deutschland GmbH

Dr. Uwe Jasnoch Intergraph SG&I Deutschland GmbH Dr. Uwe Jasnoch Intergraph SG&I Deutschland GmbH Definition Cloud Computing Was ist cloud computing? on demand Computer Center mit pay as you go Konzepten Direkte Verfügbarkeit von Rechenkapazitäten, die

Mehr

Referent Thomas Kaiser Gründer & Geschäftsführer cyberpromote GmbH tel: 089/81 89 81 710 thomas.kaiser@cyberpromote.com. Stand C124 SEO 2014

Referent Thomas Kaiser Gründer & Geschäftsführer cyberpromote GmbH tel: 089/81 89 81 710 thomas.kaiser@cyberpromote.com. Stand C124 SEO 2014 Referent Thomas Kaiser Gründer & Geschäftsführer cyberpromote GmbH tel: 089/81 89 81 710 thomas.kaiser@cyberpromote.com SEO 2014 Stand C124 Was nicht geht, kann man nicht verkaufen Was man verkaufen kann,

Mehr

Session Storage im Zend Server Cluster Manager

Session Storage im Zend Server Cluster Manager Session Storage im Zend Server Cluster Manager Jan Burkl System Engineer, Zend Technologies Agenda Einführung in Zend Server und ZSCM Überblick über PHP Sessions Zend Session Clustering Session Hochverfügbarkeit

Mehr

Ausgewählte Kapitel der Systemsoftware: Cloud Computing

Ausgewählte Kapitel der Systemsoftware: Cloud Computing Ausgewählte Kapitel der Systemsoftware: Cloud Computing Zunächst heiter bis wolkig, später dauerhaft bedeckt Timo Hönig Friedrich-Alexander-Universität Erlangen-Nürnberg Lehrstuhl Informatik 4 (Verteilte

Mehr

SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG!

SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG! SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG! JUNI 2011 Sehr geehrter Geschäftspartner, (oder die, die es gerne werden möchten) das Thema Virtualisierung oder die Cloud ist in aller Munde wir möchten Ihnen

Mehr

Test zur Bereitschaft für die Cloud

Test zur Bereitschaft für die Cloud Bericht zum EMC Test zur Bereitschaft für die Cloud Test zur Bereitschaft für die Cloud EMC VERTRAULICH NUR ZUR INTERNEN VERWENDUNG Testen Sie, ob Sie bereit sind für die Cloud Vielen Dank, dass Sie sich

Mehr

Best Practice: On-demand Lösungen bei der Software AG. Dr. Dirk Ventur CIO and Head of Global Support

Best Practice: On-demand Lösungen bei der Software AG. Dr. Dirk Ventur CIO and Head of Global Support Best Practice: On-demand Lösungen bei der Software AG Dr. Dirk Ventur CIO and Head of Global Support Software AG ist der weltweit größte unabhängige Anbieter von Infrastruktursoftware für Geschäftsprozesse

Mehr

Windows Azure für Java Architekten. Holger Sirtl Microsoft Deutschland GmbH

Windows Azure für Java Architekten. Holger Sirtl Microsoft Deutschland GmbH Windows Azure für Java Architekten Holger Sirtl Microsoft Deutschland GmbH Agenda Schichten des Cloud Computings Überblick über die Windows Azure Platform Einsatzmöglichkeiten für Java-Architekten Ausführung

Mehr

Grid-Systeme. Betrachtung verschiedener Softwareplattformen zur Realisierung von Grids und Vorstellung des Globus Toolkit. 07.06.2002 Grid Systeme 1

Grid-Systeme. Betrachtung verschiedener Softwareplattformen zur Realisierung von Grids und Vorstellung des Globus Toolkit. 07.06.2002 Grid Systeme 1 Grid-Systeme Betrachtung verschiedener Softwareplattformen zur Realisierung von Grids und Vorstellung des Globus Toolkit 07.06.2002 Grid Systeme 1 Gliederung Vorstellung verschiedener Plattformen Globus

Mehr

Digital Marketing Mix. Sue Appleton: do_loop, Beratung und Design fürs Web

Digital Marketing Mix. Sue Appleton: do_loop, Beratung und Design fürs Web Digital Marketing Mix Sue Appleton: do_loop, Beratung und Design fürs Web GANZ ALLEINE AUF DER GROßEN WEITEN WELT MIT EINEM KOFFER VOLLER IDEEN: Stellen wir uns vor, du hast ein super Produkt entwickelt

Mehr