Big Data. Sonderdruck für. Kreativität aus rohen Daten. Eine technologische Revolution. Objektivierung des Bauchgefühls

Save this PDF as:
 WORD  PNG  TXT  JPG

Größe: px
Ab Seite anzeigen:

Download "Big Data. Sonderdruck für. www.codecentric.de. Kreativität aus rohen Daten. Eine technologische Revolution. Objektivierung des Bauchgefühls"

Transkript

1 Heft 9 Titelbild: Jer Thorp Big Data Sonderdruck für Kreativität aus rohen Daten Eine technologische Revolution Objektivierung des Bauchgefühls bt

2 Big-Data-Tools Ideen und Konzepte im Umgang mit Big Data The Big Data Developer Big Data = MapReduce + NoSQL + Sharding. Wenn das Ihr mentales Bild ist und Sie eine gesunde Portion Sarkasmus vertragen können, lesen Sie weiter. In diesem Artikel werden Ihnen grundsätzliche Ideen und Konzepte im Umgang mit großen Daten vermittelt und die damit verbundenen Problemfelder aufgezeigt. Autor: Pavlo Baron Vorab sei gesagt: In diesem Artikel werden keine Toolvergleiche angestellt, weil sie nur zu Missverständnissen und Flammenkriegen führen. Sie können nach dem Durchlesen des Artikels hoffentlich selbst entscheiden, welches Tool bzw. welchen Ansatz Sie wann wählen sollten. Und mit ein bisschen Recherche finden Sie auch die entsprechenden Tools. Die technische Seite des Big- Data-Hypes ist auf der einen Seite voller Geheimnisse und Missinterpretationen und auf der anderen Seite der konkreteste und meist diskutierte Aspekt, was Big Data betrifft. Klar, man hat bereits Unmengen von mit dem Big-Data-Etikett gelabelten Tools zur Verfügung, weiß allerdings nicht so recht, was man damit tun soll. Die existierenden Tools müssen also überhaupt erst Probleme finden, die sie lösen sollen. Aber sie sind so cool, dass man sie unbedingt ausprobieren möchte. Weitere Informationen zum vorliegenden Artikel finden Sie auch unter [1]. 2 bt

3 highscalability.com Woher kommt diese Toolbegeisterung? Natürlich von den Artikeln auf Internetseiten wie highscalability.com und dergleichen. In regelmäßigen Abständen schmeißt dort ein weiterer Facebook-Übernahmekandidat mit mehr als zweifelhaftem Geschäftsmodell eine Liste von coolen Tools aufs elektronische Papier, die das Herz eines jeden Technikers im Nu höher schlagen lässt. Und in einem Nebensatz wird auch noch erwähnt, dass alles, was man eingesetzt hat, natürlich Open Source ist und per se ganz ohne Lizenzkosten daherkommt. Diese Aussage wird keinen aufmerksamen, kostengetriebenen Entscheider kalt lassen, und da haben wir den Salat. Die Kürze des jeweiligen Blog-Posts tut ihr Übriges: Es entsteht das Gefühl, dass alles so leicht ist, dass man es auch selber hinbekommen kann. Ab hier gibt es drei Wege in Abhängigkeit von der Unternehmensart: 1. Man setzt die besagten Tools sofort ein und ersetzt damit die gesamte bisherige Toollandschaft. Dieses Verhaltensmuster trifft auf mittellose Start-ups zu, deren Geschäftsmodell einzig und alleine im ständigen Wechsel der Tools besteht. Diese Firmen lehnen Java oder.net grundsätzlich ab, weil diese sie in diesem Tempo massiv einschränken würden. 2. Man erprobt die Tools in der zwanzigsten Inkarnation des Projekts unter dem Basiscodenamen Ach, lasst uns doch bewerten, ob wir diese drakonischen Oracleund Hardwarekosten loswerden, das bei jeder erneuten Wiederholung einzig und alleine dem Zweck dient, den Beweis zu erbringen, dass alles beim Alten bleiben muss. Die für das Projekt verwendeten Datenvolumina würden sich problemlos in einer unindizierten Textdatei wohlfühlen und stellen lediglich die schmerzfreie Spitze eines gigantischen, unantastbaren Eisbergs dar. Vor allem der über Jahre gewachsene Mittelstand neigt zu einem solchen Verhalten. 3. Man schaltet auf Sarkasmus um: Woher sollen wir denn große Daten haben? Wir sind ja nur eine der größten Europäischen Banken. Bei uns passt alles nach wie vor in die Oracle-Datenbanken. Dieses Verhalten gilt ab der Unternehmensgröße, bei der Oracle oder SAP persönlich anrufen und um Termine bitten, und in denen das Dreijahresbudget die meistverwendete Skalierungsstellschraube darstellt anstelle der vertikalen, horizontalen oder diagonalen Skalierung. Es dürfte offensichtlich sein, dass in allen drei Fällen nicht wirklich etwas Verwertbares, Produktives entsteht außer Selbstbeschäftigung natürlich. Aber man hat das Gefühl, mit der Zeit zu gehen oder zumindest nicht ganz die neuesten Entwicklungen zu verschlafen, ganz gleich, ob sie einen tatsächlich betreffen oder nicht. EDV, CS und das alles Ja, noch vor einigen Jahren sah die Welt der elektronischen Datenverarbeitung (für die Jüngeren unter Ihnen: EDV) ganz einfach aus: Speichere alle Arten von Daten in einem Hot-Standby-Oracle-Koloss, greife darauf mit ein paar fetten, über Jahre gewachsenen Enterprise- Java-Anwendungen zu und drehe diese Daten in dem mit jedem auch nur erdenklichen Datentopf per ODBC bt

4 verheirateten Cognos so lange herum, bis sie um Gnade winseln. Und plötzlich kommt so ein Facebook-Rotzbub um die Ecke und verdient Geld mit nichts. Und das macht er mit Tools, deren Namen und Anzahl jeden Konzernsoftwareportfoliomanager in den Wahnsinn und den vorgezogenen Ruhestand treiben würden. Auf die IT-Öffentlichkeit wirkt sich der Erfolg von Amazon, Google und Co. vor allem in Form von technologischen Trittbrettfahrern und massiven Verunsicherungen aus. Während die besagten Unternehmen sich die besten Computerwissenschaftler ins Haus holen und riesige Forschungsabteilungen unterhalten, um aus ihrer Technik das letzte Quäntchen Leistung herauszupressen, vereinfachen die besagten Trittbrettfahrer die Wissenschaft enorm und reduzieren sie auf belanglose Toollisten, die sie voller Stolz auch gleich auf highscalability.com veröffentlichen und damit die IT-Welt total verunsichern. Da ist eh schon ständig die Rede von diesem ganzen Big-Data-Zeug, von dem man nicht so recht weiß, mit welchem Besteck man es am besten essen soll, und dann gießen sie noch weiteres Öl ins Feuer der allgemeinen Verzweiflung und legen Zahlen und Tools an den Tag, von denen man nur träumen kann und die man im Übrigen auch selbst gerne hätte. Und in diesem Spannungsfeld entstehen gut und gerne saloppe Aussagen, die einen ambitionierten Techniker mit Neigung zur fundierten Wissenschaft bis zum Herzinfarkt erschaudern lassen. Es ist meine Pflicht, diese Aussagen etwas auseinander zu sortieren und mit einer entsprechenden Portion gesundem Menschenverstand (und natürlich Sarkasmus wie denn sonst?) zu relativieren. Wie normale Daten, bloss grösser Das menschliche Wesen neigt generell dazu, in messbaren Größen zu denken und Dinge größentechnisch zu vergleichen und zu sortieren. Bereits im frühesten Alter ist es ein beliebtes Lernspiel, zwei Gegenstände hinsichtlich ihrer Größe zu bewerten und eine Schwarz- oder Weißentscheidung zu treffen. Das geht auch ganz gut mit Schubladendenken einher. Was ich mir in den letzten Monaten alles anhören durfte, war ungefähr in der Klasse von Big Data hat nicht jeder, die meisten haben nur Medium Data oder Big Data sind halt eben wie normale Daten, bloß größer. Dabei geht es um Teraund Petabytes von Daten. Petabytes das hört sich so richtig männlich an. Das klingt dann schon nach viel, viel größer als mickrige, altbackene Gigabytes, oder? Wenn Sie unbedingt nach einer Vergleichsabgrenzung der großen Daten vom Rest streben, kann ich Ihnen das Leben mit folgender Definition ganz leicht machen: Petabytes von Daten, die auf unterschiedlichen Kontinenten stündlich neu aufschlagen und komplexe Relationen aufweisen, die sofort während ihres Eintreffens hinsichtlich jedweder Anomalien untersucht und in grafische Management-Dashboards inklusive Business- Forecast-Korrektur gegossen werden müssen das ist Big Data. Alles darunter ist Mickey-Mouse-Data. Es geht bei Big Data nicht um die Größe, obgleich dieser Marketingname etwas Größentechnisches impliziert. Es geht darum, dass Sie entweder bereits riesige, unverarbeitete und kaum strukturierte Datenmengen im Unternehmen und dessen unmittelbarer Umgebung haben und diese anzapfen müssen, oder Sie können diese Daten ansammeln und anreichern bzw. erheben jede Art von Daten, die in irgendeiner Beziehung zu Ihrem Geschäftsmodell steht. Für die elektronische Verarbeitung von diesen Datenarten mit den damit verbundenen, unkontrollierbaren Mengen gelten eigene Gesetze. Auch hier werde ich nicht selten mit der Aussage konfrontiert Ach, Daten sind Daten. Egal, wie groß das sind dieselben Prinzipien. Das stimmt so natürlich ganz und gar nicht. Betrachten wir doch zunächst einmal die Speicherung. Datenspeicherung = Datenbank Jede Art von Storage kann irgendwo als Datenbank bezeichnet werden. Daten können auf eine Diskette passen (für die Jüngeren unter Ihnen: so groß wie ein ipod, kann so viel speichern wie ein Sandkorn), oder sie liegen auf vielen Festplatten in einem großen Schrank. Das Problem eines jeden physischen Datenträgers, egal wie groß oder klein er ist, ist dessen limitierte Gesamtkapazität. Man kann die Hardwareschränke schon sehr weit ausbauen, aber irgendwo ist Schluss mit deren Skalierung. Und an dieser Stelle, wenn man mit großen Datenmengen zu rechnen hat, ist weite (vorgesehene) Skalierung erforderlich. Gezwungenermaßen baut man dabei auf die Verteilung, um eine theoretisch unbegrenzte Anzahl einzelner Maschinen zu einem großen, verteilten Speicher zu kombinieren. Dieser Weg ist unausweichlich, denn es gibt noch keine Datenbank namens Schwarzes Loch, die unproportional viele Daten bezogen auf ihre eigene Größe aufnehmen kann. SQL vs. NoSQL Man könnte natürlich versuchen, in eine etwas andere, emotionalere Richtung hin zu argumentieren: Das gilt nur für SQL es skaliert nämlich hinten und vorne nicht. Und ist altes, langweiliges Zeug. NoSQL dagegen skaliert wie die Hölle und ist cool. Das ist auch eine interessante, allerdings etwas unqualifizierte Betrachtung. Zunächst einmal hat die Abfragesprache SQL wenig mit der Skalierbarkeit zu tun, außer vielleicht hinsicht- 4 bt

5 lich der Lesbarkeit und der Anzahl der Codezeilen. Und NoSQL sollte man eher als Bewegung, nicht als konkrete Implementierung auffassen. Der NoSQL-Bewegung schließen sich sowohl Nutzer als auch Produkthersteller an, um bei der Datenpersistenz nicht nur auf die RDBMS und die damit verbundenen Unzulänglichkeiten einer Allzweckwaffe zu bauen, sondern auf die Alternativen, die auf die speziellen Use Cases bzw. Datenarten zugeschnitten sind und den Anspruch der Allseitigkeit größtenteils erst gar nicht erheben. Allerdings erhält auch bei den so genannten NoSQL- Stores das Thema Verteilung eine zentrale Bedeutung, die an dem Entwickler gar nicht vorbeigehen kann. Abhängig von dem gewählten Store existieren dazu Strategien und diverse Stellschrauben, die eine optimale Anpassung an die eigenen Use Cases erlauben. An dieser Stelle kommt das berühmte CAP-Theorem ins Spiel, das die Grundlage für die betagten Stellschrauben liefert. Man nehme 2 von 3? CAP [2] ist einfach: Man nehme zwei von drei. Das ist fast schon ein Vorurteil und eine derart gefährliche Vereinfachung eines komplexen Sachverhalts, dass ihr Schatten sämtliche Vorzüge eines NoSQL-Data-Store im Nu überdecken kann, sofern ein solcher Store überhaupt in Frage kommt. Bei den verteilten Systemen jedweder Art ist das einzige, wovon man sicher ausgehen kann, die Tatsache, dass Teile dieses Systems früher oder später ausfallen werden und Sie keine Ahnung haben werden, was da vor sich geht. Das heißt, dass das P aus dem CAP-Theorem eine unverzichtbare, von vornherein vorgesehene und implementierte Konstante ist. Das gegeben, schiebt man den Regler zwischen C und A, und das nicht nur schwarz oder weiß, also entweder C oder A, sondern mit diversen Grautönen dazwischen in Abhängigkeit von den eigenen Use Cases und pro Use Case ggf. unterschiedlich. Sharding versteckt die Komplexität der Verteilung Tja. Verteilung als solche ist eines der komplexesten Gebiete der Computerwissenschaft. Sie ist niemals transparent, egal, wie glänzend die Fassade sein mag. Alles, was man bisher getan oder gesehen hat, verblasst regelrecht im Vergleich zu der Verteilung. Es sei denn, man hat die Menge mit sieben Broten gefüttert und kann auf dem Wasser laufen. Kann man so etwas nicht, kann man sich leicht die Zähne daran ausbeißen. Und überhaupt: Das mit dem Sharding stimmt so nicht ganz, weil man sich damit ein paar harte und schwer lösbare Probleme ins Haus holt. Das erste typische Problem kommt dadurch zustande, dass die Daten nun auf unterschiedlichen Maschinen liegen und das Traversal durch Relationen diverse Hops beinhaltet. Sollte unterwegs einer der Hops plötzlich nicht verfügbar sein, ist das Traversal umsonst. Und ansonsten ist es bei diversen Hops auch nicht sonderlich performant. Das Problem haben sowohl die Graphendatenbanken als auch sonstige Data Stores. Denn selbst wenn die Daten nicht direkt relational abgelegt werden Relationen kommen auf logischer Ebene zustande und müssen in der Anwendungslogik simuliert/kompensiert werden. Ein anderes Problem mit dem Sharding ist das naive Hashing. Hashes werden in Abhängigkeit von der Anzahl der Knoten im System berechnet. Kommen neue Knoten hinzu oder verschwinden welche, müssen die Daten, sofern überhaupt noch verfügbar, im System fast komplett umgeschoben werden es kommt also zum teuren Rehashing. Das naive Hashing sollte unbedingt gemieden werden, was allerdings beim besten Willen keine triviale Angelegenheit ist. Die Kompromisse müssen also zwischen der Verfügbarkeit und der Datenkonsistenz, aber auch zwischen der Lese-, Schreib- und Suchgeschwindigkeit gemacht werden. Und diese Kompromisse sind wirklich, wirklich hart. MapReduce für die schnelle Suche Ein weiterer Aspekt, der am meisten unterschätzt wird, ist die aufgeweichte, also eventuelle Konsistenz. Man sollte unbedingt wissen, dass sie nur auf eine bestimmte Gruppe von Use Cases passt. Dort, wo gezwungenermaßen Transaktionen erforderlich sind, kann man auf die eventuelle Konsistenz nur dann bauen, wenn man seinen Job unbedingt schnell loswerden möchte. Bei einem Geldtransfer von einem Konto auf ein anderes kann man sich z. B. nicht einmal für eine Millisekunde Inkonsistenz zwischen den beiden erlauben. Denn man kann davon ausgehen, dass diese Millisekunden für Betrug ausgenutzt werden. Man kann diese Betrachtung natürlich gerne auf den Security Officer abwälzen und sich voll und ganz auf die Umsetzung konzentrieren, an der Tatsache selbst wird sich dadurch aber nichts ändern. Man kann natürlich durchaus gegenargumentieren, dass man gar kein Geld zum Transferieren, dafür aber Unmengen von Daten besitzt. Diese Daten könne man doch einfach auf NoSQL werfen, das wird schon seine Arbeit erledigen. Mal abgesehen davon, dass auch hier wieder NoSQL mit einer konkreten Implementierung verwechselt wird, ist es an und für sich etwas blauäugig, Daten, die wahrscheinlich essenziell für das Überleben des Unternehmens sind, irgendwo hinzuwerfen und zu hoffen, dass das Zielding schon irgendwie seinen Job machen wird. Bei diesem Werfen kann aber in einem verteilten System so einiges schiefgehen, und die Problemlösung wird dann in bt

6 einem gewissen Maße, in Abhängigkeit von dem gewählten Ansatz und Data Store, dem Entwickler überlassen. Und auch diese Problemlösung ist verdammt hart. Nehmen Sie doch einfach mal folgendes als Beispiel: Sie wollen auf einen Knoten schreiben, der ist aber nicht mehr ansprechbar. Sie wollen ersatzweise auf einen anderen schreiben, der hat aber konkurrierende Daten und kann nicht mehr mit dem Rest des Systems sprechen. Was tun? Das Problem wird häufig zum Client geschoben, möge doch der die resultierenden Konflikte auflösen. Wie tun Sie es, wenn Sie sich nicht sicher sein können, dass nicht noch irgendwo alternative Daten liegen, die Ihrer Konfliktlösung im Wege stehen? Das ist ja auch nur eines von vielen Beispielen, was schiefgehen könnte, und deren Menge ist nicht deterministisch. Wir sollten uns jetzt aber ein bisschen über die Bereitstellung großer Daten unterhalten. Es ist eine Sache, diese Daten zu sammeln, aber eine völlig andere, sie einem entsprechend großem Nutzerkreis zur Verfügung zu stellen. Datenbank als Flaschenhals Das mag dann der Fall sein, wenn man in dem Standard- Stack einer 08/15-Java-Enterprise-Anwendung denkt. Das beliebte Gegenmittel, fast schon das Gegengift dabei ist es, den eingehenden Traffic infrastrukturell soweit herunterzuschrauben bzw. zu verengen, dass die dahinterstehenden Server noch irgendwie mithalten können. Sofern einen aber Millionen gleichzeitiger Verbindungen und Anfragen plagen, die um Daten betteln, muss man leicht umdenken. Denn in diesem Fall kommt es erst gar nicht bis zu der Datenbank: Bereits die allererste Meile, also die Strecke vom User zum ersten Server inklusive, wird zum Flaschenhals mutieren. Man kann sich hier nicht wirklich erlauben, den Verkehr zu drosseln, denn man will ja diese Zugriffszahlen haben. Der Preis dafür sind Pakete und Verbindungen, die in Warteschlangen enden oder gar komplett abgelehnt werden, um Überlast zu vermeiden. Und alles nur, weil man die Daten nicht schnell genug in beide Richtungen durch die erste Meile bringt. Glauben Sie mir, das Falscheste, was Sie auf ein solches Problem werfen können, ist eine weitere Ladung Sexy-Hardware. Egal, wie teuer sie ist und wie glänzend die dazugehörigen Werbeprospekte inklusive der Kürze der korrespondierenden Hersteller-Nasdaq-Kürzel sein mögen. Aber unter derart hoher Last wird diese schöne Hardware anfangen zu krepieren. Festplatten werden brennen, Kabel qualmen, Boards und Karten schmelzen. Und das alles wird sich in biblischem Ausmaß zu Feuerbällen hochheizen. Es geht schlicht und ergreifend nicht darum, wie sexy die Hardware ist. Es geht einzig und alleine darum, wie schnell und wie transparent man sie für den unterbrechungsfreien Betrieb einsetzen kann. C10K-Server for the win! Um die erste Meile so aufnahmefähig, stabil, unterbrechungsfrei und performant wie möglich zu halten, ist, in Abhängigkeit von der Abstraktionsdicke und dem Overhead am Server, eine beachtliche Menge Netzwerkinfrastruktur erforderlich, die schnell sehr viel Geld kosten kann. Um dem Problem zu begegnen und diese Infrastruktur größentechnisch vertretbar zu halten, ist es erforderlich, aus den Servern der ersten Meile so viel wie möglich herauszuholen. Das bedeutet, man muss sie an das Limit heran utilisieren, um weitere Last über Scale- Out abzunehmen. An dieser Stelle kommen die so genannten C10K- Problem-lösenden Server [3] in den Sinn. Oder besser gesagt, Technologien, mit deren Hilfe man solche Server bauen kann. Der Witz dabei ist der, dass die Aufnahme der vielen, also mehr als parallelen Requests, nicht über weitere Threads oder OS-Prozesse auf der Maschine erfolgt, sondern auf einem einzigen Thread, aber ohne Overhead und nachrichtenorientiert, bei voller Kernel- Unterstützung. Denn man kann sich auf der Maschine fast blind darauf verlassen, dass auf einem herkömmlichen *nix-system der Kernel allemal schlauer ist und näher an der Maschine, als jeder Entwickler, der versucht, um diesen herum zu abstrahieren. Die wahren Herrscher des Internets Allerdings ist es im Falle der ersten Meile und weiter Verteilung großer Daten auch so eine Sache. Den Server haben wir nun vielleicht performant. Was ist aber mit der Strecke vom User zum Server? Was ist, wenn die User aus der ganzen Welt kommen? Allein schon die Physik und die räumliche Entfernung spielen hier eine große Rolle; diese Aspekte lassen sich beim besten Willen nicht wegdenken. Dinge brauchen einfach Zeit, um von A nach B zu kommen. Das gilt ebenso für das Sonnenlicht wie für elektrische oder Lichtsignale bzw. Wellen jeder Form. Die Latenz der Strecke zwischen dem User und dem Server entscheidet über den Wettbewerbsvorteil. Wenn ich mir Videos von tollen Autos im Web ansehe, neige ich eher dazu, mich für eines davon zu interessieren, wenn das Video ruckelfrei kommt. Ruckelt es dabei aber, bin ich schnell von der Seite weg. Und daran kann nicht einmal diese Monsterindustrie etwas ändern; das ist das Webverhalten von Menschen. Also, was tun? Die besagte Latenz lässt sich durch die Kürzung der physikalischen Strecke zwischen dem Nutzer und dem Content verringern. Das Internet wird nicht von Google regiert, sondern von Unternehmen wie Akamei, die an guten Tagen mehr als die Hälfte der gesamten Internetinfrastruktur fahren. Allgemein lässt sich meine Empfehlung auf die so genannten Content Delivery Networks 6 bt

7 (CDN) [4] beziehen: Sie müssten Ihren dynamischen Content irgendwie als Snapshots einfrieren können; also statisch vorberechnen und zu CDN herausschieben. CDN hat seine Infrastruktur direkt vor der Haustür Ihres Nutzers, also im nahegelegenen Backbone-RZ. Und für Ihre Nutzer ist das CDN fast schon transparent, es sei denn, sie kennen sich technisch mit DNS und generell mit Internetprotokollen aus, was die meisten leider nicht tun. CDN hilft einem also, die viele Last von den Servern beliebter Webpräsenzen fernzuhalten und nur im Falle des Content-Update oder der allerletzten Livedatenabfrage die Server zu befragen. Man nutzt damit die gesamte Infrastruktur (je nach Vertrag, versteht sich), die dem heutigen Internet zugrunde liegt. Alles in die Wolken! Sie können aber in diesem Zusammenhang natürlich auch an Cloud Computing denken. Es stehen einem doch unendliche Ressourcen zur Verfügung, endlose grenzenlose Skalierbarkeit und das bei voller Kostenkontrolle und ganz ohne eigene lästige Hardware. Das Herz eines CFO schlägt nicht bei sexy Hardware schneller, sondern bei einer weiteren Möglichkeit, CapEx in OpEx zu verwandeln. Leider hat der Umgang mit den großen Daten einige Implikationen auf Ihre Cloud-Strategie. Virtualisierung von Datenbanken und I/O generell ist halt so eine Sache. Und je nachdem, für welche Cloud-Angebotsvariante bzw. -Infrastruktur Sie sich entscheiden, kann es Ihnen schnell passieren, dass die eigentlichen Daten nicht direkt nahe an den virtuellen Rechnern liegen, die sie verarbeiten. Damit wird das Prinzip der Data Locality verletzt, bei dem die Strecke vom Prozessor zu den Daten möglichst kurz sein sollte. Und wenn die virtuellen Cloud-Systeme oder Datenfragmente umgezogen werden, steht zudem Ihre ganze Welt still. Computation Grids und Data Grids sind halt unterschiedliche Dinge, waren es immer und werden es wohl für immer bleiben, und daran ändert sich auch mit dem neuen Label Cloud Computing nicht wirklich viel. Man kann natürlich auch, je nach Cloud-Anbieter und eigener Portmoneedicke, die Nähe der Daten zu den virtuellen Maschinen bzw. kürzere Stop-the-World- Phasen erzwingen, indem man höhere Rechnungen bezahlt. Ob es sich lohnt, ist eine andere Frage. Cloud- Angebote im Zusammenhang mit großen Daten rentieren sich aus meiner Sicht dann, wenn man es nicht eilig hat, aber nicht, wenn man unter Zeitdruck steht und Wert auf extrem hohen Durchsatz bei der Datenauslieferung an den Nutzer legt. Die Cloud-Anbieter werden Ihnen aber wahrscheinlich auch etwas anderes erzählen. Doch wir haben ja noch gar nicht über die eigentliche Verarbeitung von Daten gesprochen. MapReduce = Verarbeitung grosser Daten Je nachdem, wie groß Ihr Vorwissen in Bezug auf Map- Reduce ist, werden Sie vielleicht wissen, dass die beiden Basisphasen der MapReduce-basierten Datenverarbeitung eben Map und Reduce heißen. Und vielleicht werden Sie auch wissen, dass die eigentlich aufwändigste, teuerste und langsamste dieser beiden Phasen Split heißt. Jedes komplexe MapReduce-Tool wird zu verarbeitende Daten in einer speziell aufbereiteten, gesplitteten Form in einer Art Dateisystem erwarten, um überhaupt loslegen zu können. Aber Ihre Daten werden mit der allerhöchsten Wahrscheinlichkeit zunächst woanders liegen. In einem RDBMS, einer Logdatei oder irgendwo in einem verteilten Data Store. Diese Daten sind ggf. riesig, und sie müssen nun von A nach B. Sehen Sie hier Potenzial für tierisch viel Aufwand beim Transfer? Lange Transferzeiten? Ich schon. Sie können natürlich ganz schlau sein und Ihre Daten bereits zum Zeitpunkt der Entstehung in das MapReduceeigene Dateisystem schreiben. So sparen Sie sich den aufwändigen Split. Ja, das ist eine gängige Praxis. Doch an dieser Stelle kommt ein weiteres potenzielles Problem: Was, wenn Sie während der Map-Phase die zu verarbeitenden Daten suchen müssen, also nicht alles per se verarbeiten wollen? Sie werden wahrscheinlich antworten: Dann indiziere ich halt die Daten mit einer Search Engine oder Bibliothek, dann können sie schnell gefunden werden. Natürlich, das ist die Voraussetzung. Doch es ist sehr schwer, den entstehenden Index so zu splitten, dass dessen Teile bei den dazugehörigen Daten liegen und somit von den gleichen Prozessoren angezapft werden, die auch die Daten lokal holen. Denn wenn man den Index auf einem Knoten befragen muss, um von einem anderen gefundene Daten zu holen, ist es zum einen langsam und zum anderen fehleranfällig, denn einer der beiden Knoten kann ja auch mal nicht da sein. Aber was ist eigentlich mit der Datenanalyse? Das ist doch genau das, worauf Big Data marketingtechnisch nicht zuletzt von den BI-Herstellern reduziert wird, um Geschäfte aufrechtzuerhalten. MapReduce überall Die Standardantwort auf jede gestellte und ungestellte Frage im Bereich großer Daten scheint zumindest aus der Marketingperspektive MapReduce zu sein. Man hat sogar das Gefühl, MapReduce sei die Lösung aller Probleme in der IT, oder ein supermoderner Kaffeeautomat, der die Brühe völlig ohne Reststoffe in höchster Qualität auspressen kann. MapReduce wird auf alles geworfen, was nicht schnell genug abstürzen kann, aber das ist falsch. Alleine das Prinzip setzt Verteilung voraus, und wo Verteilung bt

8 ist, da sind auch Netze. Und wo Netze sind, erhöht jeder Millimeter der Kabelstrecke die Unzuverlässigkeit und die Latenz des Ganzen. Wenn Sie vor dem Problem stehen, Daten fast in Echtzeit zu analysieren, währen sie auf Sie zufliegen, haben Sie keine Zeit, diese Daten zu speichern; geschweige denn auf mehrere Systeme zu verteilen, um sie danach zu analysieren. Wenn Sie ein System Abb.1: Aspekte von Big Data zur automatischen Überwachung von Patientengesundheit in einem Krankenhaus bauen, haben Sie es mit sehr vielen Events von Sensoren zu tun. Sie haben Nanosekunden Zeit, zu entscheiden, ob ein Patient kurz vor dem Herzstillstand steht. Da ist keine Zeit zum Speichern von Daten mit nachträglicher Analyse. Denn sonst müssen Sie, wie es aktuell der Fall ist, die Schwester nachts prophylaktisch alle 15 Minuten zur Überprüfung zum Patienten schicken und ihn durch den Schlafentzug an der schnellen Genesung hindern. Wenn Sie in Echtzeit eine Schlägerei auf einem öffentlichen Platz aus dem Videostream der Überwachungskameras erkennen und verhindern wollen, haben Sie keine Zeit, diese Daten zu speichern und nachträglich zu analysieren denn dass Sie den Schuldigen kennen und nachträglich fangen könnten, hilft dem eventuell erstochenen Opfer herzlich wenig. Glauben Sie nicht alles, was Ihnen Hersteller und Berater erzählen. Ob es Old-School-BI-Experten sind oder hippe MapReduce-Spezialisten der Moderne: MapReduce ist bei Echtzeitüberwachung das falsche Mittel. Und auch die beste Hardware der Welt wird das nicht ändern. Denn Sie können bei MapReduce weder die Verarbeitungszeit zuverlässig fixieren oder vorhersagen noch die Vollständigkeit der Daten in einem verteilten System garantieren, sofern Sie weder die Konsistenz aufweichen noch die Kausalität der einzelnen Ereignisse über mehrere Maschinen hinweg garantieren. Events können verloren gehen oder die speichernden Knoten sind mal wieder nicht verfügbar, wenn Sie MapReducen wollen. Die Verteilung hat Ihre Seele. Wenn Sie bessere Fast-Echtzeit-Vorhersagen treffen wollen, wissen wollen, wie die einzelnen Events in einem Verbund ein Gesamtmuster ergeben, wie das eine Event aufgrund eines anderen entstanden ist (Kausalität) dann ist Complex Event Processing, also CEP [5], der Mechanismus Ihrer Wahl. Sie analysieren damit Datenströme, während Daten hereinfliegen. Und da gibt es wirklich keinen Weg drum herum. Mathe/Statistik fürchten Wenn Sie glauben, dass Ihr MapReduce-Tool die Mathematik bzw. die Statistik vor Ihnen verstecken wird, liegen Sie völlig falsch. Das wird es nicht. Denn bei der Analyse großer Datenmengen greift man auf statistische Berechnungen zurück. Und zur Wahrscheinlichkeitstheorie: Es geht um Prognosen, keine genauen Kalkulationen. Da reicht die normale 1+1-Arithmetik nicht mehr aus. Es ist also erforderlich, sich auch in Richtung Datenwissenschaft zu orientieren. Es ist fraglich, ob es sich als eigenständiger Beruf lohnt, aber zumindest IT-seitig muss man vieles aus dem mathematischen Sektor wissen oder verstehen. Selbst dann, wenn man zur Berechnung auf vorgefertigte Plattformen, Sprachen und Bibliotheken zurückgreift: Was sie tun, muss man trotzdem verstehen. Es gibt keinen Grund, Mathe zu fürchten. Man braucht hier Mathe, genau so, wie jeder ein ipad braucht. Aber eines haben wir noch vergessen: Visualisierung. Alles im Bilde Wenn Sie jetzt sagen, davon haben Sie keine Ahnung, dann sind wir schon mal zwei. Alles, was Sie hier beachten sollten, ist, dass es nicht mehr ausreicht, bei riesigen Datenmengen über ein Excel-Sheet Charts zu generieren. Es gibt tolle neue Methoden, Tools und Kartenarten, die riesige Datenmengen verständlich auf ein Bild herunterdampfen können. Wenn Sie wissen wollen, wie das geht, ist Andy Kirk ihr Mann, bzw. die Seite [6]. Die Moral von der G'schicht? Also, ich bin der Schlaumeier, der Ihnen hier Ihr Big-Data- Glashäuschen ruiniert, richtig? Fast. Eigentlich will ich auf Folgendes hinaus: Denken Sie nicht, dass es ausreicht, halbgare Blog- Posts zu lesen und sich dann als Experte zu bezeichnen. Menschen, die diese Posts verfassen, sind größtenteils sehr gebildet und schlau, sie fangen aber nicht bei Adam und Eva an und reduzieren das Geschriebene einfach auf ein leckeres Minimum. Holen Sie sich ein paar Basis-CS-Bücher über Netzwerke, Betriebssysteme, Maschinen, Datenbanken, Statistik etc. Die Investition lohnt sich. Sie müssen Full Stack gehen. Full Stack bedeutet, dass nicht alle Probleme im Big-Data-Umfeld mit Java oder Java-basierten Allzweckwaffen lösbar sind. Sie dürfen sie auch nicht von der Maschine abstrahieren, sondern müssen Technologien und Ansätze wählen, die so nah 8 bt

Pavlo Baron. Big Data. für IT-Entscheider. Riesige Datenmengen. und moderne Technologien. gewinnbringend nutzen HANSER

Pavlo Baron. Big Data. für IT-Entscheider. Riesige Datenmengen. und moderne Technologien. gewinnbringend nutzen HANSER Pavlo Baron Big Data für IT-Entscheider Riesige Datenmengen und moderne Technologien gewinnbringend nutzen HANSER Inhalt Vorwort XI 1 Management Summary 1 2 Was? 7 2.1 Mein klassisches Business ist konkurrenzlos,

Mehr

Nun möchte Ich Ihnen ans Herz legen. Sie müssen Träume haben, etwas was Sie verwirklichen möchten. Ohne ein Ziel sind Sie verloren.

Nun möchte Ich Ihnen ans Herz legen. Sie müssen Träume haben, etwas was Sie verwirklichen möchten. Ohne ein Ziel sind Sie verloren. Vorwort Ich möchte Ihnen gleich vorab sagen, dass kein System garantiert, dass sie Geld verdienen. Auch garantiert Ihnen kein System, dass Sie in kurzer Zeit Geld verdienen. Ebenso garantiert Ihnen kein

Mehr

Big Data Mythen und Fakten

Big Data Mythen und Fakten Big Data Mythen und Fakten Mario Meir-Huber Research Analyst, IDC Copyright IDC. Reproduction is forbidden unless authorized. All rights reserved. About me Research Analyst @ IDC Author verschiedener IT-Fachbücher

Mehr

1 Einleitung. 1.1 Caching von Webanwendungen. 1.1.1 Clientseites Caching

1 Einleitung. 1.1 Caching von Webanwendungen. 1.1.1 Clientseites Caching 1.1 Caching von Webanwendungen In den vergangenen Jahren hat sich das Webumfeld sehr verändert. Nicht nur eine zunehmend größere Zahl an Benutzern sondern auch die Anforderungen in Bezug auf dynamischere

Mehr

Erfolgreiches Gastblogging

Erfolgreiches Gastblogging Erfolgreiches Gastblogging Wie man seinen Blog durch Gastblogging bekannter macht Daniel Schenker DaniSchenker.com Inhalt 1. Einleitung 2. Vorteile von Gastblogging 3. Blogs auswählen (anhand von Zielen)

Mehr

Skalierbarkeit von Serversystemen Was tun, damit das technische Korsett mein Business nicht einschnürt?

Skalierbarkeit von Serversystemen Was tun, damit das technische Korsett mein Business nicht einschnürt? Skalierbarkeit von Serversystemen Was tun, damit das technische Korsett mein Business nicht einschnürt? Dipl.-Inform. Thomas Witzenrath 21.01.2014 Tralios IT GmbH www.tralios.de Über mich Dipl.-Inform.

Mehr

SimpleVOC-Yetanother. Bausteine für eine Key/Value- Datenbank

SimpleVOC-Yetanother. Bausteine für eine Key/Value- Datenbank SimpleVOC-Yetanother Memcached? Bausteine für eine Key/Value- Datenbank SimpleVOC Yet another memcached? Bausteine für eine Key/Value Datenbank. Theorie (Martin Schönert) Praxis (Frank Celler) Eine Weisheit

Mehr

Warum Üben großer Mist ist

Warum Üben großer Mist ist Warum Üben großer Mist ist Kennst Du das? Dein Kind kommt aus der Schule. Der Ranzen fliegt in irgendeine Ecke. Das Gesicht drückt Frust aus. Schule ist doof! Und dann sitzt ihr beim Mittagessen. Und die

Mehr

Datenbanken (WS 2015/2016)

Datenbanken (WS 2015/2016) Datenbanken (WS 2015/2016) Klaus Berberich (klaus.berberich@htwsaar.de) Wolfgang Braun (wolfgang.braun@htwsaar.de) 0. Organisatorisches Dozenten Klaus Berberich (klaus.berberich@htwsaar.de) Sprechstunde

Mehr

BESCHAFFUNG UND LIZENZIERUNG MIT DEM VEREINFACHTEN ORACLE LIZENZMODELL

BESCHAFFUNG UND LIZENZIERUNG MIT DEM VEREINFACHTEN ORACLE LIZENZMODELL BESCHAFFUNG UND LIZENZIERUNG MIT DEM VEREINFACHTEN ORACLE LIZENZMODELL DIESER LEITFADEN IST FÜR FOLGENDE ORACLE SOFTWARE PROGRAMME GÜLTIG Oracle Database 11g Standard Edition One Die passende Datenbank-Lösung

Mehr

Ausfallsicherheit maßgeschneidert

Ausfallsicherheit maßgeschneidert Wir unternehmen IT. Ausfallsicherheit maßgeschneidert Bringen Sie Kosten und Nutzen in Einklang! Henning von Kielpinski Head of Business Development Henning.von.Kielpinski@consol.de Hochverfügbarkeit Risiken

Mehr

Persönlichkeiten bei bluehands

Persönlichkeiten bei bluehands Persönlichkeiten bei Technologien bei Skalierbare Anwendungen mit Windows Azure GmbH & co.mmunication KG am@.de; posts..de/am 1 2 3 4 5 6 7 8 9 Immer mehr Mehr Performance Mehr Menge Mehr Verfügbarkeit

Mehr

Storage-Trends am LRZ. Dr. Christoph Biardzki

Storage-Trends am LRZ. Dr. Christoph Biardzki Storage-Trends am LRZ Dr. Christoph Biardzki 1 Über das Leibniz-Rechenzentrum (LRZ) Seit 50 Jahren Rechenzentrum der Bayerischen Akademie der Wissenschaften IT-Dienstleister für Münchner Universitäten

Mehr

ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE. NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik

ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE. NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik ARFA ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik Ralf Leipner Domain Architect Analytics, Risk Management & Finance 33. Berner Architekten

Mehr

IT Storage Cluster Lösung

IT Storage Cluster Lösung @ EDV - Solution IT Storage Cluster Lösung Leistbar, Hochverfügbar, erprobtes System, Hersteller unabhängig @ EDV - Solution Kontakt Tel.: +43 (0)7612 / 62208-0 Fax: +43 (0)7612 / 62208-15 4810 Gmunden

Mehr

HIGHER SCHOOL CERTIFICATE EXAMINATION. German Continuers. (Section I Listening and Responding) Transcript

HIGHER SCHOOL CERTIFICATE EXAMINATION. German Continuers. (Section I Listening and Responding) Transcript 2014 HIGHER SCHOOL CERTIFICATE EXAMINATION German Continuers (Section I Listening and Responding) Transcript Familiarisation Text Heh, Stefan, wohnt deine Schwester immer noch in England? Ja, sie arbeitet

Mehr

T: Genau. B: Haben Sie das Gefühl, dass Ihre Entscheidungen von Eltern, Freunden beeinflusst wurde?

T: Genau. B: Haben Sie das Gefühl, dass Ihre Entscheidungen von Eltern, Freunden beeinflusst wurde? 1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 Interview mit T B: Ich befrage Sie zu vier Bereichen, und vorweg

Mehr

Seite 1 Das trägerübergreifende Persönliche Budget So können Menschen mit Behinderung mehr selber bestimmen

Seite 1 Das trägerübergreifende Persönliche Budget So können Menschen mit Behinderung mehr selber bestimmen Seite 1 Das trägerübergreifende Persönliche Budget So können Menschen mit Behinderung mehr selber bestimmen Seite 2 Inhaltsverzeichnis Seite 4 6 Vorwort von Olaf Scholz Bundesminister für Arbeit und Soziales

Mehr

Das virtuelle Rechenzentrum

Das virtuelle Rechenzentrum Das virtuelle Rechenzentrum Erfahrungen, Meinungen, Visionen CON.ect Informunity Infrastrukturmanagement, Virtualisierung & Green IT Wien, 26.3.2009 Georg Chytil, Ing. Andreas Schoder georg.chytil@nextlayer.at,

Mehr

ISBN: 978-3-8428-0679-5 Herstellung: Diplomica Verlag GmbH, Hamburg, 2011

ISBN: 978-3-8428-0679-5 Herstellung: Diplomica Verlag GmbH, Hamburg, 2011 Nils Petersohn Vergleich und Evaluation zwischen modernen und traditionellen Datenbankkonzepten unter den Gesichtspunkten Skalierung, Abfragemöglichkeit und Konsistenz Diplomica Verlag Nils Petersohn Vergleich

Mehr

Was passiert mit meiner Cloud, wenn es regnet?

Was passiert mit meiner Cloud, wenn es regnet? Was passiert mit meiner Cloud, wenn es regnet? 5 dumme Fragen über die Cloud, die ganz schön clever sind Einfach. Anders. cloud.de Inhalt Vorwort 1. Wo ist die Cloud? 03 04 2. Gibt es nur eine Cloud, aus

Mehr

Big Data Informationen neu gelebt

Big Data Informationen neu gelebt Seminarunterlage Version: 1.01 Copyright Version 1.01 vom 21. Mai 2015 Dieses Dokument wird durch die veröffentlicht. Copyright. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen

Mehr

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH Complex Hosting Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Complex Hosting

Mehr

Quick Guide. The Smart Coach. Was macht einen Smart Coach eigentlich aus? Christina Emmer

Quick Guide. The Smart Coach. Was macht einen Smart Coach eigentlich aus? Christina Emmer Quick Guide The Smart Coach Was macht einen Smart Coach eigentlich aus? Christina Emmer Was macht einen Smart Coach aus? Vor einer Weile habe ich das Buch Smart Business Concepts gelesen, das ich wirklich

Mehr

Software as a Service

Software as a Service Software as a Service Andreas Von Gunten http://www.ondemandnotes.com http://www.andreasvongunten.com SaaSKon 2008 11. November 2008 Das Problem - Komplexität Software selber zu betreiben, bedeutet zunehmende

Mehr

Wie werde ich reich im Internet!

Wie werde ich reich im Internet! Das E-Book zu: Wie werde ich reich im Internet! mit E-Books INHALT: Seite 3 Seite 4-8 Seite 9-10 Seite 11-12 Einleitung Das kleine 1 mal 1 der Ebooks Ansichten der Ebook Millionäre Aber jetzt mal ehrlich!

Mehr

In-Memory Analytics. Marcel Poltermann. Fachhochschule Erfurt. Informationsmanagement

In-Memory Analytics. Marcel Poltermann. Fachhochschule Erfurt. Informationsmanagement Marcel Poltermann Fachhochschule Erfurt Informationsmanagement Inhaltsverzeichnis Glossar...III Abbildungsverzeichnis...III 1 Erläuterung:... 2 2 Technische Grundlagen... 2 2.1 Zugriff physische Datenträger:...

Mehr

DAS INTERNET IST WIE EINE WELLE: ENTWEDER, MAN LERNT AUF IHR ZU SCHWIMMEN, ODER MAN GEHT UNTER Bill Gates

DAS INTERNET IST WIE EINE WELLE: ENTWEDER, MAN LERNT AUF IHR ZU SCHWIMMEN, ODER MAN GEHT UNTER Bill Gates DAS INTERNET IST WIE EINE WELLE: ENTWEDER, MAN LERNT AUF IHR ZU SCHWIMMEN, ODER MAN GEHT UNTER Bill Gates 57 MILLIONEN USER IN DEUTSCHLAND KÖNNEN SICH NICHT IRREN... In nahezu allen Bereichen des täglichen

Mehr

Clouds. Erwartungen der Nutzer. Wolkig bis Heiter. (c) 2013, Peter Sturm, Universität Trier. Er ist verwöhnt! Er ist nicht dankbar!

Clouds. Erwartungen der Nutzer. Wolkig bis Heiter. (c) 2013, Peter Sturm, Universität Trier. Er ist verwöhnt! Er ist nicht dankbar! Clouds Wolkig bis Heiter Erwartungen der Nutzer Er ist verwöhnt! Verfügbarkeit Viele Anwendungen Intuitive Interfaces Hohe Leistung Er ist nicht dankbar! Mehr! Mehr! Mehr! Moore 1 Erwartungen der Entwickler

Mehr

Warum FB Werbung? Mehr als ein Viertel des gesamten Traffics auf Webseiten kommt über Facebook (!)

Warum FB Werbung? Mehr als ein Viertel des gesamten Traffics auf Webseiten kommt über Facebook (!) Facebook Marketing Warum FB Werbung? Mehr als ein Viertel des gesamten Traffics auf Webseiten kommt über Facebook (!) Zielgerichtet (geringer Streuverlust)! Einmal das Prinzip verstanden, ist das Traffic

Mehr

Einige Tipps zur Optimierung Ihrer WordPress-Installation!

Einige Tipps zur Optimierung Ihrer WordPress-Installation! Einige Tipps zur Optimierung Ihrer WordPress-Installation! Quelle: www.rohinie.eu Die meisten Blogger glauben, dass es reicht, regelmäßig interessante Beiträge zu veröffentlichen um ein aktives Stammpublikum

Mehr

Warum Zeitmanagement so wichtig ist

Warum Zeitmanagement so wichtig ist Warum Zeitmanagement so wichtig ist 1 In diesem Kapitel Qualität statt Quantität Testen Sie Ihre Zeitmanagement-Fähigkeiten Da aus Kostengründen immer mehr Arbeitsplätze eingespart werden, fällt für den

Mehr

Scandio SEBOL Search

Scandio SEBOL Search : : :, München Inhalt 1. Was ist SEBOL?...3 2. Index-Server...4 2.1. Warteschlange zur Indizierung...4 2.2. Plugin-Abarbeitung...4 2.3. Erweiterte Lucene-Indizierung...4 2.4. Index-Verteilung und Management...5

Mehr

Grundlagen beim Linkaufbau

Grundlagen beim Linkaufbau Grundlagen beim Linkaufbau Link-Building welches heute eher als Link-Earning bezeichnet wird, hat sich in den letzten Jahren dramatisch verändert. Was sich nicht verändert hat, ist die Tatsache, dass Links

Mehr

Hand aufs Herz: Wie online ist Ihr Unternehmen?

Hand aufs Herz: Wie online ist Ihr Unternehmen? Hand aufs Herz: Wie online ist Ihr Unternehmen? Testen Sie Ihre Website in wenigen Schritten doch einfach mal selbst! Hallo! Mein Name ist Hans-Peter Heikens. Als Online Marketing Manager und Social Media

Mehr

Wie man seine Zuhörer mit Präsentationen umhaut! Ein Leitfaden für bessere Präsentationen.

Wie man seine Zuhörer mit Präsentationen umhaut! Ein Leitfaden für bessere Präsentationen. Wie man seine Zuhörer mit Präsentationen umhaut! Ein Leitfaden für bessere Präsentationen. Jeder hat sie schon mal erlebt: die langweiligste Präsentation aller Zeiten! Egal ob Elevator Pitch, Vortrag oder

Mehr

Apache HBase. A BigTable Column Store on top of Hadoop

Apache HBase. A BigTable Column Store on top of Hadoop Apache HBase A BigTable Column Store on top of Hadoop Ich bin... Mitch Köhler Selbstständig seit 2010 Tätig als Softwareentwickler Softwarearchitekt Student an der OVGU seit Oktober 2011 Schwerpunkte Client/Server,

Mehr

DOTconsult Suchmaschinen Marketing

DOTconsult Suchmaschinen Marketing Vorwort Meinen Glückwunsch, die Zeit, welche Sie in investieren, ist die beste Investition für Ihr Unternehmen. Keine Technologie hat das Verhalten von Interessenten und Kunden nachhaltiger und schneller

Mehr

25.09.2014. Zeit bedeutet eine Abwägung von Skalierbarkeit und Konsistenz

25.09.2014. Zeit bedeutet eine Abwägung von Skalierbarkeit und Konsistenz 1 2 Dies ist ein Vortrag über Zeit in verteilten Anwendungen Wir betrachten die diskrete "Anwendungszeit" in der nebenläufige Aktivitäten auftreten Aktivitäten in einer hochgradig skalierbaren (verteilten)

Mehr

Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC. Alexander Scholz

Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC. Alexander Scholz Hochverfügbar und Skalierung mit und ohne RAC Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC Alexander Scholz Copyright its-people Alexander Scholz 1 Einleitung Hochverfügbarkeit

Mehr

GIS in der Cloud: Beispiele von ESRI und con terra

GIS in der Cloud: Beispiele von ESRI und con terra GIS in der Cloud: Beispiele von ESRI und con terra Dr. Matthias Bluhm ESRI Deutschland GmbH 9. März 2011, Darmstadt 2 ESRI Deutschland GmbH, 2011 GmbH 2010 ESRI Unternehmensgruppe (in Deutschland und der

Mehr

SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG!

SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG! SMALL MEDIUM BUSINESS UND VIRTUALISIERUNG! JUNI 2011 Sehr geehrter Geschäftspartner, (oder die, die es gerne werden möchten) das Thema Virtualisierung oder die Cloud ist in aller Munde wir möchten Ihnen

Mehr

Albert HAYR Linux, IT and Open Source Expert and Solution Architect. Open Source professionell einsetzen

Albert HAYR Linux, IT and Open Source Expert and Solution Architect. Open Source professionell einsetzen Open Source professionell einsetzen 1 Mein Background Ich bin überzeugt von Open Source. Ich verwende fast nur Open Source privat und beruflich. Ich arbeite seit mehr als 10 Jahren mit Linux und Open Source.

Mehr

Collaborative Virtual Environments

Collaborative Virtual Environments Collaborative Virtual Environments Stefan Lücking Projektgruppe Kreativität und Technik AG Domik WS 02/03 09.01.2003 1/35 Was sind CVE? Versuch einer Definition : Ein CVE ist ein Programm, das eine virtuelle

Mehr

NINA DEISSLER. Flirten. Wie wirke ich? Was kann ich sagen? Wie spiele ich meine Stärken aus?

NINA DEISSLER. Flirten. Wie wirke ich? Was kann ich sagen? Wie spiele ich meine Stärken aus? NINA DEISSLER Flirten Wie wirke ich? Was kann ich sagen? Wie spiele ich meine Stärken aus? Die Steinzeit lässt grüßen 19 es sonst zu erklären, dass Männer bei einer Möglichkeit zum One-Night-Stand mit

Mehr

Oberbürgermeister Hunsteger-Petermann. Eröffnung des Möbelhauses Finke. 16. September 2015, 10 Uhr. Sehr geehrter Herr Finke!

Oberbürgermeister Hunsteger-Petermann. Eröffnung des Möbelhauses Finke. 16. September 2015, 10 Uhr. Sehr geehrter Herr Finke! Oberbürgermeister Hunsteger-Petermann Eröffnung des Möbelhauses Finke 16. September 2015, 10 Uhr 1 Sehr geehrter Herr Finke! Sehr geehrter Dr. Christa! Sehr geehrte Damen und Herren! Der Ostwestfale gilt

Mehr

Software Defined Storage in der Praxis

Software Defined Storage in der Praxis Software Defined Storage in der Praxis Jens Gerlach Regional Manager West 1 Der Speichermarkt im Umbruch 1985 2000 Heute Herausforderungen Serverspeicher Serverspeicher Serverspeicher Hyper-konvergente

Mehr

Die Cloud, die für Ihr Unternehmen geschaffen wurde.

Die Cloud, die für Ihr Unternehmen geschaffen wurde. Die Cloud, die für Ihr Unternehmen geschaffen wurde. Das ist die Microsoft Cloud. Jedes Unternehmen ist einzigartig. Ganz gleich, ob im Gesundheitssektor oder im Einzelhandel, in der Fertigung oder im

Mehr

Was darf das Grid kosten?

Was darf das Grid kosten? Was darf das Grid kosten? Dr. Marcel Kunze Steinbuch Centre for Computing Abteilung Integration und Virtualisierung Die Kooperation von Darf das Grid was kosten? Infrastruktur: Geschäftsmodell oder Sponsoring?

Mehr

whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN

whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN CLOUD-ENTWICKLUNG: BESTE METHODEN 1 Cloud-basierte Lösungen sind auf dem IT-Markt immer weiter verbreitet und werden von immer mehr

Mehr

Bin ich fit für myconvento?

Bin ich fit für myconvento? Bin ich fit für myconvento? Sie planen den Einsatz unserer innovativen Kommunikationslösung myconvento und fragen sich gerade, ob Ihr Rechner die Anforderungen erfüllt? Hier erfahren Sie mehr. Inhalt Was

Mehr

Oracle EngineeredSystems

Oracle EngineeredSystems Oracle EngineeredSystems Überblick was es alles gibt Themenübersicht Überblick über die Engineered Systems von Oracle Was gibt es und was ist der Einsatzzweck? Wann machen diese Systeme Sinn? Limitationen

Mehr

Spotlight 5 Gründe für die Sicherung auf NAS-Geräten

Spotlight 5 Gründe für die Sicherung auf NAS-Geräten Spotlight 5 Gründe für die Sicherung auf NAS-Geräten NovaStor Inhaltsverzeichnis Skalierbar. Von klein bis komplex.... 3 Kein jonglieren mehr mit Wechselmedien... 3 Zentralisiertes Backup... 4 Datensicherheit,

Mehr

Meine Geheimnisse für ein bewusstes und sinnerfülltes Leben

Meine Geheimnisse für ein bewusstes und sinnerfülltes Leben Meine Geheimnisse für ein bewusstes und sinnerfülltes Leben Du möchtest dein Leben bewusst und sinnerfüllt gestalten? Auf den nächsten Seiten findest du 5 Geheimnisse, die mir auf meinem Weg geholfen haben.

Mehr

Next Generation Cloud

Next Generation Cloud Next Generation Cloud Building Blocks In Zukunft wird es darum gehen, aus der Summe der Teile Anwendungen (Apps) zu generieren, die Mehrwerte zu schaffen App besteht aus Integration von > Funktionen, z.b.

Mehr

DRIVE LIKE A VIRTUAL DEVELOPER Die Poleposition für Ihre Softwareentwicklung

DRIVE LIKE A VIRTUAL DEVELOPER Die Poleposition für Ihre Softwareentwicklung DRIVE LIKE A VIRTUAL DEVELOPER Die Poleposition für Ihre Softwareentwicklung Was für ein Tempo! Das Rad dreht sich rasant schnell: Die heutigen Anforderungen an Softwareentwicklung sind hoch und werden

Mehr

Magento goes into the cloud Cloud Computing für Magento. Referent: Boris Lokschin, CEO

Magento goes into the cloud Cloud Computing für Magento. Referent: Boris Lokschin, CEO Magento goes into the cloud Cloud Computing für Magento Referent: Boris Lokschin, CEO Agenda Über symmetrics Unsere Schwerpunkte Cloud Computing Hype oder Realität? Warum Cloud Computing? Warum Cloud für

Mehr

Was wäre, wenn es Legasthenie oder LRS gar nicht gibt?

Was wäre, wenn es Legasthenie oder LRS gar nicht gibt? Was wäre, wenn es Legasthenie oder LRS gar nicht gibt? Wenn Du heute ins Lexikon schaust, dann findest du etliche Definitionen zu Legasthenie. Und alle sind anders. Je nachdem, in welches Lexikon du schaust.

Mehr

Überblick und Vergleich von NoSQL. Datenbanksystemen

Überblick und Vergleich von NoSQL. Datenbanksystemen Fakultät Informatik Hauptseminar Technische Informationssysteme Überblick und Vergleich von NoSQL Christian Oelsner Dresden, 20. Mai 2011 1 1. Einführung 2. Historisches & Definition 3. Kategorien von

Mehr

Einführung. Kapitel 1 2 / 508

Einführung. Kapitel 1 2 / 508 Kapitel 1 Einführung 2 / 508 Einführung Was ist ein Datenbanksystem (DBS)? Ein System zum Speichern und Verwalten von Daten. Warum kein herkömmliches Dateisystem verwenden? Ausfallsicherheit und Skalierbarkeit

Mehr

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2 Seminar Cloud Data Management WS09/10 Tabelle1 Tabelle2 1 Einführung DBMS in der Cloud Vergleich verschiedener DBMS Beispiele Microsoft Azure Amazon RDS Amazon EC2 Relational Databases AMIs Was gibt es

Mehr

Session Storage im Zend Server Cluster Manager

Session Storage im Zend Server Cluster Manager Session Storage im Zend Server Cluster Manager Jan Burkl System Engineer, Zend Technologies Agenda Einführung in Zend Server und ZSCM Überblick über PHP Sessions Zend Session Clustering Session Hochverfügbarkeit

Mehr

Der Cloud-Dienst Windows Azure

Der Cloud-Dienst Windows Azure Der Cloud-Dienst Windows Azure Master-Seminar Cloud Computing Wintersemester 2013/2014 Sven Friedrichs 07.02.2014 Sven Friedrichs Der Cloud-Dienst Windows Azure 2 Gliederung Einleitung Aufbau und Angebot

Mehr

Einleitung 3. App Ideen generieren 4. Kopieren vorhandener Apps 4. Was brauchen Sie? 5. Outsourcing Entwicklung 6

Einleitung 3. App Ideen generieren 4. Kopieren vorhandener Apps 4. Was brauchen Sie? 5. Outsourcing Entwicklung 6 Inhaltsverzeichnis Einleitung 3 App Ideen generieren 4 Kopieren vorhandener Apps 4 Was brauchen Sie? 5 Outsourcing Entwicklung 6 Software und Dienstleistungen für Entwicklung 8 Vermarktung einer App 9

Mehr

3 Firewall-Architekturen

3 Firewall-Architekturen Eine Firewall ist nicht ein einzelnes Gerät oder eine Gruppe von Geräten, sondern ein Konzept. Für die Implementierung eines Firewall-Konzepts haben sich in den vergangenen Jahren verschiedene Architekturen

Mehr

Copyright 2015 DataCore Software Corp. All Rights Reserved. 1

Copyright 2015 DataCore Software Corp. All Rights Reserved. 1 Copyright 2015 DataCore Software Corp. All Rights Reserved. 1 Software Defined Storage - wenn Storage zum Service wird - Jens Gerlach Regional Manager West Copyright 2015 DataCore Software Corp. All Rights

Mehr

Copyright 2014, Oracle and/or its affiliates. All rights reserved.

Copyright 2014, Oracle and/or its affiliates. All rights reserved. 1 Red Stack Einfach gut für jedes Projekt und jeden Kunden & Partner Matthias Weiss Direktor Mittelstand Technologie ORACLE Deutschland B.V. & Co. KG 2 Agenda Oracle Red Stack - Idee und Vorteile Software

Mehr

Referent Thomas Kaiser Gründer & Geschäftsführer cyberpromote GmbH tel: 089/81 89 81 710 thomas.kaiser@cyberpromote.com. Stand C124 SEO 2014

Referent Thomas Kaiser Gründer & Geschäftsführer cyberpromote GmbH tel: 089/81 89 81 710 thomas.kaiser@cyberpromote.com. Stand C124 SEO 2014 Referent Thomas Kaiser Gründer & Geschäftsführer cyberpromote GmbH tel: 089/81 89 81 710 thomas.kaiser@cyberpromote.com SEO 2014 Stand C124 Was nicht geht, kann man nicht verkaufen Was man verkaufen kann,

Mehr

Datacenter und Cloud Services sicherer Zugriff auf Ihre Daten weltweit

Datacenter und Cloud Services sicherer Zugriff auf Ihre Daten weltweit Datacenter und Cloud Services sicherer Zugriff auf Ihre Daten weltweit Sie wollen unabhängig von Ort und Zeit Zugriff auf Ihre Daten ohne Kompromisse bei Geschwindigkeit und Sicherheit? Unsere IT-Spezialisten

Mehr

Echtzeiterkennung von Cyber-Angriffen auf IT-Infrastrukturen. Frank Irnich SAP Deutschland

Echtzeiterkennung von Cyber-Angriffen auf IT-Infrastrukturen. Frank Irnich SAP Deutschland Echtzeiterkennung von Cyber-Angriffen auf IT-Infrastrukturen Frank Irnich SAP Deutschland SAP ist ein globales Unternehmen... unser Fokusgebiet... IT Security für... 1 globales Netzwerk > 70 Länder, >

Mehr

Dass aus mir doch noch was wird Jaqueline M. im Gespräch mit Nadine M.

Dass aus mir doch noch was wird Jaqueline M. im Gespräch mit Nadine M. Dass aus mir doch noch was wird Jaqueline M. im Gespräch mit Nadine M. Jaqueline M. und Nadine M. besuchen das Berufskolleg im Bildungspark Essen. Beide lassen sich zur Sozialassistentin ausbilden. Die

Mehr

Datenanalyse im Web. Einführung in das Thema. Prof. Dr. Ingo Claÿen. Beispiele für Daten im Web. Extraktion und Aggregation von Informationen

Datenanalyse im Web. Einführung in das Thema. Prof. Dr. Ingo Claÿen. Beispiele für Daten im Web. Extraktion und Aggregation von Informationen Datenanalyse im Web Einführung in das Thema Prof. Dr. Ingo Claÿen Hochschule für Technik und Wirtschaft Berlin Beispiele für Daten im Web Extraktion und Aggregation von Informationen Datenanalyse im Web

Mehr

Platz für Neues schaffen!

Platz für Neues schaffen! Spezial-Report 04 Platz für Neues schaffen! Einleitung Willkommen zum Spezial-Report Platz für Neues schaffen!... Neues... jeden Tag kommt Neues auf uns zu... Veränderung ist Teil des Lebens. Um so wichtiger

Mehr

Ein Mind Map erstellen Schritt für Schritt

Ein Mind Map erstellen Schritt für Schritt Ein Mind Map erstellen Schritt für Schritt Beim Mind Mapping notieren Sie Ihre Gedanken nicht wie üblich hinter- oder untereinander. Anstelle dessen schreiben Sie das Hauptthema Ihrer Notizen auf die Mitte

Mehr

Hybride Cloud Datacenters

Hybride Cloud Datacenters Hybride Cloud Datacenters Enterprise und KMU Kunden Daniel Jossen Geschäftsführer (CEO) dipl. Ing. Informatik FH, MAS IT Network Amanox Solutions Unsere Vision Wir planen und implementieren für unsere

Mehr

Big Data Performance Management

Big Data Performance Management Big Data Performance Management Überblick Big Data Im Kontext der Performance Relevanz Big Data Big Data Big data is a buzzword and a "vague term", but at the same time an "obsession" with entrepreneurs,

Mehr

Hmmm.. Hmmm.. Hmmm.. Genau!! Office in der Cloud Realität oder Zukunft? Dumme Frage! ist doch schon lange Realität!. aber auch wirklich für alle sinnvoll und brauchbar? Cloud ist nicht gleich Cloud!

Mehr

Leibniz. (G.W.F. Hegel)

Leibniz. (G.W.F. Hegel) Leibniz 3. Der einzige Gedanke den die Philosophie mitbringt, ist aber der einfache Gedanke der Vernunft, dass die Vernunft die Welt beherrsche, dass es also auch in der Weltgeschichte vernünftig zugegangen

Mehr

Gliederung. Was ist Cloud Computing Charakteristiken Virtualisierung Cloud Service Modelle Sicherheit Amazon EC2 OnLive Vorteile und Kritik

Gliederung. Was ist Cloud Computing Charakteristiken Virtualisierung Cloud Service Modelle Sicherheit Amazon EC2 OnLive Vorteile und Kritik Cloud Computing Gliederung Was ist Cloud Computing Charakteristiken Virtualisierung Cloud Service Modelle Sicherheit Amazon EC2 OnLive Vorteile und Kritik 2 Bisher Programme und Daten sind lokal beim Anwender

Mehr

Spotlight - KABEL DEUTSCHLAND

Spotlight - KABEL DEUTSCHLAND Spotlight - KABEL DEUTSCHLAND GIEDRE ALEKNONYTE Kabel Deutschland (KD), der größte Kabelnetzbetreiber in Deutschland, stellt seinen Kunden digitale, HD- und analoge TV-, Pay- TV- und DVR-Angebote, Video-on-Demand,

Mehr

Ist Internat das richtige?

Ist Internat das richtige? Quelle: http://www.frauenzimmer.de/forum/index/beitrag/id/28161/baby-familie/elternsein/ist-internat-das-richtige Ist Internat das richtige? 22.02.2011, 18:48 Hallo erstmal, ich möchte mir ein paar Meinungen

Mehr

Self Service BI mit Office 2013 Raúl B. Heiduk

Self Service BI mit Office 2013 Raúl B. Heiduk 1 Self Service BI mit Office 2013 Raúl B. Heiduk Partner: 2 Agenda Begrüssung Vorstellung Referent Inhalt F&A Weiterführende Kurse 3 Vorstellung Referent Name: Raúl B. Heiduk Ausbildung: Dipl. Ing. (FH),

Mehr

Buildfrei skalieren für Big Data mit Z2

Buildfrei skalieren für Big Data mit Z2 Buildfrei skalieren für Big Data mit Z2 Henning Blohm ZFabrik Software KG 5.6.2013 1 Teil 1: Buildfrei entwickeln und skalieren Teil 2: Big Data, Cloud, und wie es zusammenpasst 2 1. Teil BUILDFREI ENTWICKELN

Mehr

Das erwartet Sie in jedem Vorstellungsgespräch

Das erwartet Sie in jedem Vorstellungsgespräch Das erwartet Sie in jedem Vorstellungsgespräch 1 In diesem Kapitel Das A und O ist Ihr Lebenslauf Kennen Sie die Firma, bei der Sie vorstellig werden Informiert sein gehört dazu Wenn Sie nicht zu den absolut

Mehr

>> Future Network 17.11.2011. David Steinmetz Alexander Deles. Seite 1

>> Future Network 17.11.2011. David Steinmetz Alexander Deles. Seite 1 >> Future Network 17.11.2011 David Steinmetz Alexander Deles Seite 1 >> Wer wir sind - EBCONT Unternehmensgruppe IT- ConsulDng: DWH, HOST, PM & SAP Rupert Weißenlehner So=wareindividualentwicklung & IT-

Mehr

Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008

Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008 Die Linux Kernel Virtual Machine - Wo steht der Linux Hypervisor? 2. März 2008 Jörg Rödel Virtualization - Whats out there? Virtualisierung hat bereits längere Geschichte auf x86 Startete mit VMware Setzte

Mehr

4 Planung von Anwendungsund

4 Planung von Anwendungsund Einführung 4 Planung von Anwendungsund Datenbereitstellung Prüfungsanforderungen von Microsoft: Planning Application and Data Provisioning o Provision applications o Provision data Lernziele: Anwendungen

Mehr

die taschen voll wasser

die taschen voll wasser finn-ole heinrich die taschen voll wasser erzählungen mairisch Verlag [mairisch 11] 8. Auflage, 2009 Copyright: mairisch Verlag 2005 www.mairisch.de Umschlagfotos: Roberta Schneider / www.mittelgruen.de

Mehr

Das Schritt für Schritt Handbuch zur eigenen Homepage

Das Schritt für Schritt Handbuch zur eigenen Homepage Seite 1 Inhaltsverzeichnis von Das Schritt für Schritt Handbuch zur eigenen Homepage Hier einen Einblick darüber, was Sie in diesem Handbuch alles lernen werden... (Anleitung zur eigenen Homepage in Kapitel

Mehr

Liebe Team-Mitglieder der Einstein-Constructors, liebe Interessierte,

Liebe Team-Mitglieder der Einstein-Constructors, liebe Interessierte, Neuenhagen, den 27.08.14 Liebe Team-Mitglieder der Einstein-Constructors, liebe Interessierte, eigentlich sollte sich Teil 4 mit Algorithmen, Hallo Welt -Programmen und unserem ersten fertigem NXT-Projekt

Mehr

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Was ist die Pendlerpauschale? Das komplette Material finden Sie hier:

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Was ist die Pendlerpauschale? Das komplette Material finden Sie hier: Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Was ist die Pendlerpauschale? Das komplette Material finden Sie hier: School-Scout.de SCHOOL-SCOUT Die Pendlerpauschale ganz einfach

Mehr

Die 3 größten Fehler bei der Neukundengewinnung Sind Sie auch betroffen?

Die 3 größten Fehler bei der Neukundengewinnung Sind Sie auch betroffen? Die 3 größten Fehler bei der Neukundengewinnung Sind Sie auch betroffen? In diesem kurzen Ratgeber möchte ich Ihnen die 3 wahrscheinlich größten Fehler aufzeigen, die Sie bei der Neukundengewinnung machen

Mehr

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

Affiliate Marketing Schnellstart Seite 1

Affiliate Marketing Schnellstart Seite 1 Affiliate Marketing Schnellstart Seite 1 Inhaltsangabe Einführung...3 Gewinnbringende Nischen auswählen...4 Brainstorming...4 Mögliche Profitabilität prüfen...6 Stichwortsuche...7 Traffic und Marketing...9

Mehr

Mehr Mobilität. Digitale Generation. Vielzahl an Geräten. Schnelllebigkeit. Arbeit und Freizeit verschwimmen. Daten Explosion

Mehr Mobilität. Digitale Generation. Vielzahl an Geräten. Schnelllebigkeit. Arbeit und Freizeit verschwimmen. Daten Explosion Arbeit und Freizeit verschwimmen Mehr Mobilität Digitale Generation Vielzahl an Geräten Daten Explosion Wandel in der IT Schnelllebigkeit Überblick App Services Computing Daten-Dienste Netzwerk Automatisiert

Mehr

Consulting für IT- und Cyber Security

Consulting für IT- und Cyber Security Whitepaper Fragen und Antworten zur sicheren E-Mail E-Mail Sicherheit einfach und effizient einsetzen" Consulting für IT- und Cyber Security Informations- und Kommunikationssicherheitslösungen 1 Vorwort

Mehr

Big Data in der Forschung

Big Data in der Forschung Big Data in der Forschung Dominik Friedrich RWTH Aachen Rechen- und Kommunikationszentrum (RZ) Gartner Hype Cycle July 2011 Folie 2 Was ist Big Data? Was wird unter Big Data verstanden Datensätze, die

Mehr

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

Checkliste Wie gut ist die Qualität meiner Fanpage?

Checkliste Wie gut ist die Qualität meiner Fanpage? Checkliste Wie gut ist die Qualität meiner Fanpage? Die Checkliste soll Organisationen helfen, sich die richtigen Fragen bezüglich der eigenen Fanseite auf Facebook zu stellen und so das Facebook-Marketing

Mehr