06/2013. Schwerpunkt BIG DATA

Größe: px
Ab Seite anzeigen:

Download "06/2013. Schwerpunkt BIG DATA"

Transkript

1 B /2013 NOVEMBER/DEZEMBER Nachrichten aus Technik, Naturwissenschaft und Wirtschaft Das Regionalmagazin für VDI und VDE Schwerpunkt BIG DATA Veranstaltungskalender November/Dezember 2013 Aktuelles aus VDI und VDE Gut sortiert ist halb recycelt Richtfest für einen Satelliten

2 INHALT Präzision sucht spezialisten (m/w) Sie bringen Ihr Fachwissen gern praktisch ein? Dann sind Sie bei Preh genau richtig. Als Automobilzulieferer entwickeln wir hochinnovative technische Produkte, die Sie in vielen Fahrzeugen renommierter Hersteller wiederfinden. Bei uns stimmt nicht nur die Technik, sondern auch das familiäre Klima beste Karriereaussichten inklusive. Wir unternehmen. 2 Jetzt bewerben: Wir-Unternehmen.com facebook.com/prehkarriere Technik in Bayern 01/2010

3 editorial Wer cloud meine Daten? Dipl.-Phys. Gerhard Grosch Redaktion TiB Ja, wer klaut meine Daten und wozu? Logischerweise weiß man das nicht so genau. Allerdings rücken wir ja die meisten Informationen über uns mittlerweile freiwillig raus. Freiwillig? Na ja, nicht wirklich immer. Wenn wir die modernen digitalen Dienste nutzen wollen, werden wir regelrecht gemolken und unsere Daten wandern in riesige Datenwolken. Die Clouds, die wir im Rahmen von Cloud Computing buchen, geben unsere Daten zwar wieder heraus (vielleicht nicht nur an uns); aber die Datenbanken, die bei Diensteanbietern wie Google oder Amazon und bei Behörden entstehen und die unsere Daten nach undurchsichtigen Kriterien sammeln und verwerten, geben nichts zurück. Diese Datensammlungen sprengen jeden vertrauten Rahmen. So betreibt etwa die US- Firma Acxiom, Dienstleister für kundenzentrisches Marketing, angeblich die weltgrößte Datenbank mit Verbraucherdaten: auf rund Servern liegen je rund Datensätze über 300 Millionen US-Bürger und 44 Mio. Deutsche, vermutlich legal zusammengetragen. Und während die Staatssicherheit zu Zeiten der DDR ihre Spionageergebnisse in etwa Aktenschränken unterbrachte, bräuchte der US-Geheimdienst NSA (bei ausgedruckten Daten) angeblich 42 Billionen Aktenschränke (Süddeutsche.de vom ). Very Big Data. Und gesammelt wird überall und ständig. Mittlerweile weiß auch der Bürokomiker Dilbert: It comes from everywhere. It knows all (http:// dilbert.com/strips/comic/ /). Daten sammeln ist teuer. Wäre es aber nutzlos, würde es niemand finanzieren. Viele Leute vermuten in den großen Datenbeständen Big Value. Aber Big Data gewinnt erst wirklich an Wert, wenn die Verfahren zur Verwaltung und Analyse riesiger Datenbanken, die zuerst in der Wissenschaft entwickelt wurden (Kernforschung, Meteorologie, Genetik), wirksam auf die Clouds angewendet werden können. Big Data existiert natürlich unabhängig von externen Datenspeichern (Clouds), aber erst die Verbindung von beiden entfaltet ein gewaltiges Potential. Während die Nutzung großer Datenmengen in Wissenschaft, Medizin oder Technik weit gehend wohlwollend akzeptiert wird, beschleicht viele Bürger großes Unbehagen, wenn es um persönliche und soziale Daten geht. Wir hätten uns 1983 die heutige Situation sicher nicht vorstellen können. Das Volkszählungsurteil des Bundesverfassungsgerichts schien den Sieg der informationellen Selbstbestimmung, das Recht auf die eigenen Daten, festgeschrieben zu haben. Und heute? Es droht der völlig gläserne Bürger. Erstaunlicherweise gibt es aber viele Menschen, die darüber unbesorgt sind: Ich habe ja nichts zu verbergen. Sie sind höchst naiv, sie übersehen gravierende Gefahren: unser Verhalten wird immer berechenbarer ( Wir wissen heute schon, was Sie morgen tun, teilt uns die Fair Isaac Corporation freundlich mit (faz.net vom ) und allein das Wissen, überwacht zu werden, verändert das Verhalten der Menschen. Daten können missbräuchlich verwendet werden. Es gibt Irrtümer beim Data Mining in den Datenbergen (Fehlalarme), man gerät aus Versehen in die Mühle. Regierungen müssen nicht immer nur gute Ziele verfolgen. Zunächst werden nur Terroristen gesucht, später vielleicht auch missliebige Reformer und Journalisten, Staatsfeinde. Wegen des Schutzes vor Terror wird die Gesellschaft umgekrempelt, dabei gibt es viel größere Risiken, gegen die der Staat aber weniger tut (Gesundheit, Verkehr, Klima...). Es mag nicht die eigentliche Absicht sein, aber ein willkommener Kollateralnutzen aus Sicht der Apparate nicht nur in undemokratischen Staaten: die Möglichkeit der absoluten Kontrolle von Bevölkerung und Institutionen. Die Demokratie gerät in Gefahr. Big Data in Big Clouds das bedeutet Big Impact und Big Change für die Gesellschaft, Big Value und Big Brother. Unser Leben wird sich grundlegend verändern, das Ergebnis ist völlig offen. Und die Technik wird ihre dienende Funktion im Auftrag mächtiger Interessen ausüben, wie immer. Bürgerinitiativen oder Open Source Software-Gruppen werden noch versuchen, Werkzeuge zur Bewahrung eines Kerns der Privatheit bereit zu stellen (falls sie nicht verboten werden, wie ja in den USA beim E- Mail-Anbieter Lavabit schon geschehen). Nur: wer sich der digitalen Kommunikation verweigert, ist automatisch verdächtig, es wird kein Entrinnen geben. Ihr 3

4 INHALT 10 Foto: Silvia Stettmayer Schwerpunkt Big Data Factory Technischer Vorsprung durch intelligente Datenanalyse 6 Hendrik Stange Big Data Entwicklungen und Akteure 8 Mathias Weber Wir wollen das Unerwartete und Überraschende 10 Interview mit Joseph Reger Big Data und Datenschutz ein lösbarer Konflikt? 12 Christoph Bauer Auf Schatzsuche im Web 14 Benjamin Kettner Big Data bei ProSiebenSat1.Digital 16 Jörg Ruckelshauß Big Data in Bibliotheken Es bleibt viel zu tun 19 Der historische Hintergrund von Christian Knoop Big Data Verwendungsmöglichkeiten räumlicher Daten zur Unterstützung von komplexen Analysen 20 Markus Geis Big Data als Beitrag zur Unternehmenssteuerung 24 Simon Zentgraf 6 Grafik: Inovex 19 Foto: Deutsches Museum Titelbild Datensammlung um Foto: Deutsches Museum 4

5 Inhalt SHAPE BUILD RUN TRACK TEACH Hochschule und Forschung Hochschule : Gut sortiert ist halb recycelt 23 Claudia Köpfer Friedrich-Alexander-Universität Erlangen-Nürnberg: Studieren und forschen am FAU Busan Campus 32 Doris Kühlers Fraunhofer-Projektgruppe Prozessinnovation Bayreuth: Die Geometrie macht s 34 Hans-Henrik Westermann VDI/VDE Auftakt VDI-AK Technischer Vertrieb 22 VDI Freundeskreis Italien 28 VDI-Landesverband 29 VDE SMART HOME CONTEST 31 Fa. Mahlo 50 Jahre VDI Fördermitglied 33 Frauen im Ingenieurberuf 35 Kennametal: Präzisions-Hartmetallwerkzeuge 36 VDI-BV Bayern Nordost: AK Energie und Umwelt 37 VDI Österreich 46 Aktuelles Internetnutzung, Social Media und Bring your own device Was sagt das Arbeitsrecht? 27 Christopher von Harbou Richtfest für einen Satelliten 30 Joachim Hospe Rubriken Veranstaltungskalender 39 Buchbesprechungen 48 Stellenmarkt 49 Ausstellungstipp 50 Vorschau 50 Impressum 50 VDI Landesverband Bayern VDI Bezirksverein, Ober- und Niederbayern e.v. Westendstr. 199, D Tel.: (0 89) , Fax: (0 89) Team inovex. Wir nutzen Technologien, um unsere Kunden* glücklich zu machen. Und uns selbst.** * Unsere Kunden sind u. a. 1&1, Bosch, Daimler, EnBW, FONIC, maxdome, Porsche, ProSiebenSat.1 und Wirecard. ** Und wir selbst sind ein Team von 130 technologieverrückten Menschen, die in Pforzheim und Karlsruhe, und Köln sehr gute IT-Lösungen bauen. 1-tägiger POWER WORKSHOP FÜR EINSTEIGER VOM DATA WAREHOUSE ZU BIG DATA Grundlagen und Chancen in Jetzt anmelden: inovex.de/big-data-powerworkshop VDI Bezirksverein Bayern Nordost e.v. c/o Ohm-Hochschule, Keßlerplatz 12, D Nürnberg Tel.: (09 11) , Fax: (09 11) , VDE Bayern, Bezirksverein Südbayern e.v. Landesvertretung Bayern Richard-Strauss-Str. 76, D Tel.: (0 89) , Fax: (0 89)

6 Schwerpunkt Abb. 1: Begriffsdimensionen Big Data gem. BITKOM Big-Data-Leitfaden (Vol. 1) Big Data Factory Technischer Vorsprung durch intelligente Datenanalyse Big Data ist ein Leitbegriff der 4. industriellen Revolution. Auf welche Weise Unternehmen das Geschäftspotenzial in Big Data operationalisieren, wird den Erfolg von Wirtschaftsstandorten und Industrien maßgeblich beeinflussen. Für die Industrie entstehen neue Geschäftsfelder und Innovationsimpulse. Auch im zunehmend dynamischen Marktumfeld bietet Big Data neue Chancen für eine automatisierte Erhöhung der Intelligenz in Prozessen und der weitsichtigen Wertschöpfung. Weltweit entstehen in Unternehmen durch digitalisierte Prozesse und vernetzte Wertschöpfungsketten immer größere und vielfältigere Datenmengen. Wenn Organisationen die massiven Ströme technischer Daten vorausschauend analysieren, automatisiert aktuell halten und in ihre Prozessentscheidungen integrieren, verschaffen sie sich einen wichtigen Technologievorsprung im internationalen Wettbewerb. Das Besondere am gegenwärtigen Transformationsprozess zu Big Data Factories sind die Triebfedern Digitalisierung und Vernetzung, die bereits nachhaltige Veränderungen in klassischen Internetmärkten bewirkt haben. Es mag daher wenig überraschen, dass die Definition des Begriffes Big Data aus dem IT-Umfeld stammt: Big Data bezeichnet die Analyse großer Datenmengen aus vielfältigen Quellen in hoher Geschwindigkeit mit dem Ziel, wirtschaftlichen Nutzen zu erzeugen. (BITKOM, Big Data im Praxiseinsatz Szenarien, Beispiele, Effekte, 2012) 6 Kennzeichnend für Big Data sind im Kern drei Eigenschaften, die auch als 3 V s bezeichnet werden: Volume, Variety, Velocity. Volume steht für die große Menge der zu analysierenden Daten; Variety für deren Verschiedenartigkeit in Bezug auf Datentyp und Ursprung. Velocity beschreibt die hohe Geschwindigkeit der Datengenerierung und damit auch, wie groß der Datenstrom ist, den es in Echtzeit zu analysieren und für Entscheidungen zu integrieren gilt. Wobei man sich nicht einzelne Dateninseln ansieht, sondern möglichst alle relevanten Daten ganzheitlich betrachtet und für die Gewinnung von Insights, Vorhersagemodellen und Mustern auswertet dies wird auch als Analytics-Dimension bezeichnet (vgl. Abb 1). Das große Potenzial in Big Data Treiber für Big Data im Industrieumfeld sind die zunehmende Digitalisierung von Produktionsanlagen, industriellen Erzeugnissen sowie von Haushaltsgeräten und Konsumgütern. Vernetzte Sensorik, intelligente Niedrigenergiesensoren und integrierte Speicher- und Prozessorkapazitäten (embedded systems) erfassen Ausschnitte der physischen Realität. Bringt man diese Daten zusammen und kombiniert sie mit innerbetrieblichen Geschäfts-, Kunden- und Marktdaten, liefert dies die Ausgangsbasis für: datengetriebene Innovationen ressourcenschonende Produktion individuelle Produkt-Service-Pakete effizienteres Management Mit dem Internet der Dinge und der Industrie 4.0 stehen wir an der Schwelle eines industriellen Strukturwandels, an dessen Ende die strategische Wertschöpfung auf elementarer Ebene mit den Produktionsprozessen verbunden ist und Maschinen prozessrelevante Entscheidungen treffen. Weltweit führende Unternehmen investieren mehrere Milliarden Euro in Big-Data-Lösungen. Große Unternehmen wie General Electric bauen hierfür sogar eine eigene Softwareentwicklung auf. Die Verschmelzung von Software und Hardware ist der Nukleus der industriellen Revolution, die auch die Bundesregierung mit einem

7 SCHWERPUNKT Quelle: Fraunhofer IAIS Abb. 2: Analytics-Plattform Big Data. großen Investitionsvolumen von über 200 Mio. Euro im Bereich Industrie 4.0 fördert. Über Erfolg und Misserfolg im industriellen Sektor entscheiden zunehmend die Bits und Bytes. Die Ausgangsbasis für Deutschland als Hochtechnologieland im Bereich Softwareentwicklung und Produktion ist daher besonders chancenreich. Digitalisierte Wertschöpfungsnetzwerke sind ein erster Schritt. Flankiert werden sie durch Forschungsnetzwerke wie die Fraunhofer-Initiative Big Data, die die Kompetenzen und Branchenerfahrungen von mehr als 20 Fraunhofer-Instituten bündelt. Ziel ist es, marktgerechte Big-Data-Lösungen für individuelle Fragestellungen zu entwickeln. Erfolgreiche Anwendungen zeigen das Potenzial kreativer Wertschöpfung: So können chemische Prozesse verbessert und Maschinenausfälle (Latent Fault) frühzeitig erkannt werden. Visuelle Methoden weisen auf Instabilitäten oder potenzielle Gefahren in Strom- und Kommunikationsnetzen hin. Kurzfristige Vorhersagen des Energieverbrauchs und der Energieproduktion auf Basis des eingehenden Datenstroms unterstützen ein stabileres Energienetz. Fraud- Mining-Technologien bieten aktive Sicherheit vor betrügerischen Kreditkartentransaktionen in Echtzeit. Auch bislang ungenutzte Potenziale in der Logistik und im Supply-Chain-Management können dank intelligenter Sensorik und Big-Data-Technologien erschlossen werden. Big-Data-Werkzeuge Die Realisierung der verschiedensten Big- Data-Anwendungen erfordert Technologie- Know-how und leistungsfähige Werkzeuge : Text Analytics ist ein Technologiebündel, um unstrukturierte Textdaten auszuwerten. Es extrahiert bspw. zentrale Information aus Log- und Berichtsdaten für ein aktives Qualitätsmanagement. Process Analytics liefert wichtige Einblicke in Prozesse und optimiert Infrastrukturen (Condition Monitoring, Predictive Maintenance, Operational Excellence). Big Data Analytics liefert skalierbare Analyseverfahren und ermöglicht das verteilte Monitoring komplexer Infrastrukturen sowie die direkte Analyse auf dem Datenstrom (Instream Analytics, Privacy-preserving Data Mining, Fraud Mining). Visual Analytics setzt den Experten ans Steuer (interaktive Visualisierungstechniken, Echtzeit-Dashboards, Ad-hoc-Analysen). Den Grundstein für Big Data Analytics legt eine flexible und skalierbare IT-Architektur. Beispiele wie die Analytics-Plattform Big Data des Fraunhofer IAIS (siehe Abb. 2) auf Basis der Lambda-Architektur (N. Marz) kombinieren die schnelle Analyse einkommender Daten mit komplexeren, weniger zeitkritischen Analysen im Batch-Layer. Die Architektur kann durch kommerzielle und Open-Source-Softwareprodukte instanziiert werden und ist somit für kleine, mittelständische und große Unternehmen gleichermaßen eine geeignete Basis. Allerdings stehen Unternehmen auch vor Herausforderungen. Alle Entscheidungen im Kontext von Big Data setzen ein umfassendes Verständnis der zugrunde liegenden Konzepte und Technologien voraus. Auch die eingesetzten Verfahren müssen ein Höchstmaß an Qualität sicherstellen. Von den Big-Data-Architekten, den Data Scientists, wird ein breites Kompetenzspektrum erwartet, das in praxisorientierten Schulungen vermittelt werden kann. Schutz der Daten Der vertrauensvollen Umgang und Schutz sensibler Daten sollte im ureigenen Interesse jedes Unternehmens liegen. Bei technischen Prozessen stehen zwar Ziele wie Früherkennung, Steuerung und Innovation im Fokus, jedoch können hier auch Compliance-Regeln zu beachten sein oder Betriebsgeheimnisse und Intellectual Properties sichtbar werden, die besonders schützenwert sind. Sobald personenbezogene Daten integriert werden, sind Datenschutz und Datensicherheit oberstes Gebot. Dabei sind der Schutz der Privatsphäre und das Extrahieren entscheidungsrelevanter Informationen aus komplexen Daten längst kein Widerspruch mehr. Transparenz im Umgang mit Big Data und gleichzeitig ein striktes Umsetzen des Privacy by Design - Konzeptes machen Datenschutz und Datensicherheit zum integralen Bestandteil jeder Lösung. Fazit Die Analyse komplexer Daten gehört für viele Unternehmen zum Alltag. Immer rasanter verschmelzen allerdings Informationstechnologie, Analytik und Industriesteuerung. Der Paradigmenwechsel, der damit einhergeht, zielt darauf ab, Unternehmensmanagement, Erzeugung und Wertschöpfung in neuer Form zu synchronisieren. Big-Data-Technologien ermöglichen die intelligente Analyse und Verknüpfung großer, multi-dimensionaler Datenbestände in Echtzeit, um datengetriebene Prozessentscheidungen im übergeordneten Kontext zu treffen und gleichzeitig mit Gespür für den jeweiligen Kunden überzeugende Angebote zu offerieren. Es ist diese vertikal-integrative Funktion und ganzheitliche Sicht, die den Wert von Big Data für Unternehmen, Konsumenten und Organisationen ausmacht. Hendrik Stange Fraunhofer-Institut für Analyse- und Informations systeme IAIS, St. Augustin 7

8 Schwerpunkt Big Data Entwicklung und Akteure Unternehmen sehen sich mit einem rapiden Anstieg des Datenvolumens konfrontiert. So speichern einige Internet-Unternehmen Daten im Petabyte- und verarbeiten täglich Daten im Terabyte- Bereich. Ursache für das Datenwachstum ist ein ganzes Bündel von Technologien Sensorik, RFID, Ambient Intelligence, Smartphones und die immer stärkere Nutzung von Social-Media-Anwendungen. Für die wirtschaftlich sinnvolle Gewinnung und Nutzung entscheidungsrelevanter Erkenntnisse aus qualitativ vielfältigen, unterschiedlich strukturierten Informationen, die zudem einem schnellen Wandel unterliegen und in bisher ungekanntem Umfang anfallen, wurde der Begriff Big Data geprägt. Big Data umfasst Konzepte, Methoden, Technologien, IT-Architekturen sowie Tools, mit denen sich die Informationsflut in Bahnen lenken und nutzen lässt. Daten als Produktionsfaktor Bedeutung und Nutzen von Big Data Big Data: Chancen und wirtschaftlicher Nutzen Im Zentrum steht die Analyse der Daten, die Analytics, siehe Abb. 1. Parallel mit der Explosion der Datenmengen sind auch die technischen Möglichkeiten gewachsen, Informationen in hohen Volumina und in kurzer Zeit zu verarbeiten und zu analysieren. Hieraus eröffnen sich vielfältige Chancen, Unternehmen besser auf Marktanforderungen einzustellen. Schon heute ist absehbar: Für Unternehmen, die große Datenberge Abb. 1: Facetten von Big Data. auftürmen, wird IT vom Business Enabler zum Kern des Business selbst (1). Zu den Einsatzgebieten von Big Data gehören Forschung und Entwicklung, Produktion, Distribution und Logistik, Finanz- und Risiko-Controlling sowie Marketing und Vertrieb, vgl. (2). Die vom BITKOM publizierten Einsatzbeispiele (3) zeigen die möglichen Einsatzeffekte. So können auf Algorithmen basierende Auswertungen riesiger Datenmengen in allen Unternehmensbereichen zur Verminderung von Risiken und zur Verbesserung von 8 Geschäftsprozessen beitragen. Big Data versetzt Organisationen in die Lage, detaillierte Kundensegmente zu erstellen, ihre Waren und Dienstleistungen auf deren Bedarf zuzuschneiden und so den Kundenzugang zu verbessern. Für die deutsche Wirtschaft gewinnt Industrie 4.0 die stärkere Verzahnung von Produktion und IT strategische Bedeutung. Das Internet der Dinge und die Machine-to-Machine-Kommunikation geben produzierenden Unternehmen Werkzeuge in die Hand, ihre Fertigungsprozesse zu optimieren. Dafür erfassen Sensoren an Produkten und entlang von Produktions- und Lieferketten Daten auch im späteren Betrieb. Das Industrial Internet verspricht in Kombination mit Big-Data-Verfahren einen neuen Produktivitätsschub. Mit Big Data verbundene Herausforderungen Die mit Big Data verbundenen Chancen entstehen nicht im Selbstlauf. Unternehmen müssen sich mit einigen Herausforderungen auseinandersetzen, die in erster Linie mit dem Management von Daten zusammenhängen. Auch die Informationssicherheit und der Datenschutz unterliegen ganz neuen Anforderungen. In Deutschland werden die Risiken von Big Data betont und Befürchtungen vor unkontrollierter Überwachung thematisiert. In jedem Fall ist es wichtig, die rechtliche Zulässigkeit bereits bei der Entwicklung einer Big-Data-Anwendung zu prüfen. Bei allen berechtigten und notwendigen Hinweisen auf auftretende Risiken sollte das Augenmerk darauf gerichtet werden, die großen Chancen von Big Data zielgerichtet zu erschließen. Wertschöpfungs- und Business- Modelle in der Daten-Wirtschaft Wertschöpfungskette der Daten-Wirtschaft Big Data wird tief greifende Auswirkungen auf die Wertschöpfungs- und Geschäftsmodelle in Unternehmen haben (4). In dem Maße, wie Daten zum Produkt werden, entstehen in vielen Branchen für Daten neue Nutzungs- und Kommerzialisierungsmöglichkeiten. Auf dem Weg zu einer Daten-Wirtschaft verändern sich die Wertschöpfungsketten. Die Stufen der Wertschöpfung Datenerhebung Digitalisierung, Datenintegration Daten-Qualitätsmanagement, Datenaggregation und Datenvisualisierung Dateninterpretation können an einzelnen Stellen aufgebrochen werden und neuen Unternehmen Betätigungsfelder eröffnen. Eine fundamentale Rolle in der Wertschöpfungskette spielen die Akteure, die durch die Aufzeichnung und Sammlung von Daten existierender Geschäfts- und Produktionsprozesse oder aber durch die Digitalisierung bislang analoger Daten neue Daten erheben. Zu einer eigenständigen Aufgabe entwickeln sich Datenintegration und Daten-Qualitätsmanagement.

9 SCHWERPUNKT Die möglichst effiziente Umwandlung großer Datenbestände in verwertbare Formate wird in Zukunft zunehmend an spezialisierte Dienstleister ausgelagert. Ein wesentlicher Teil der Big-Data-Wertschöpfungskette liegt in der Aggregation von Daten, die dann ggf. über Datenmarktplätze angeboten werden. Ein großes Marktpotenzial wird in der Entwicklung datenbasierter Services und Apps gesehen. Auch die Visualisierung und Interpretation von Daten kann sich als eigenes Geschäftsfeld etablieren. Beispiele für neue und optimierte Business- Modelle Neue und optimierte Business-Modelle, die durch Big-Data-Technologien möglich werden, lassen sich in mehreren Kernbranchen der deutschen Wirtschaft finden. Drei Beispiele sollen die Dimension aufzeigen: In der besonders wettbewerbsintensiven Automobilindustrie versuchen die Hersteller, die Kunden mit neuartigen Services zu überzeugen, die mit Big-Data-Technologien entwickelt werden. Die Grundlage dafür entsteht mit der Digitalisierung und Vernetzung moderner Fahrzeuge. Sie können eine Vielzahl LITERATUR (1) Schneider, Ralf: Neues Spiel mit Echtzeitanalyse, in: Ellermann, Horst (Hrsg.): CIO Jahrbuch 2013 Neue Prognosen zur Zukunft der IT. IDG Business Media GmbH,, August 2012, S (2) Big data: The next frontier for innovation, competition, and productivity. McKinsey Global Institute, June 20.o 2012 Big Data Analytics in Deutschland White Paper, IDC, Mathias Zacher, Januar (http://sas-competence-network.com/ mediacenter/abstract/client/businessanalytics/target/ content dokumente white_paper e1 831 views1832 display_ger.html) Datenexplosion in der Unternehmens-IT: Wie Big Data das Business und die IT verändert (Eine Studie der Experton Group AG im Auftrag der BT (Germany) GmbH & Co. ohg), Dr. Carlo Velten, Steve Janata, Mai 2012 Quo vadis Big Data. Herausforderungen Erfahrungen Lösungsansätze. TNS Infratest, August 2012 (3) Big Data im Praxiseinsatz Szenarien, Beispiele, Effekte, Leitfaden des BITKOM, September 2012 (https://www.bitkom. org/files/documents/bitkom_lf_big_ data_2012_online(1).pdf) (4) Management von Big-Data-Projekten, Leitfaden des BITKOM, Juni 2013 (http:// data2013_web.pdf) Geschäftsmodelle in der Daten-Wirtschaft Neues Business Vorhandenes Business Monetarisierung Optimierung Vorhandene Daten Abb. 2: Geschäftsmodelle in der Daten-Wirtschaft. von Bewegungs-, Zustands-, Verschleiß- und Umgebungsdaten melden, die für Fahrer, Reparaturwerkstätten, Hersteller, Versicherungen und zahlreiche weitere Organisationen INFO INFO von großem Interesse sind. TIPP Im Transportwesen hilft Big Data im Fahrzeugflotten-Management. Um im Umfeld von wachsendem Preisdruck, steigenden Energiekosten und Emissionsschutzauflagen wettbewerbsfähig zu bleiben, sind Transparenz über Verbräuche, Kosteneffizienz und Umweltverträglichkeit pro Fahrzeug und Fahrt sowie die sofortige Beeinflussung des Fahrverhaltens in Echtzeit notwendig. Big-Data-Lösungen basieren auf der Echtzeit-Übermittlung von Bewegungsdaten, ihrer schnellen Auswertung und auf Realtime-Vorschlägen zur Optimierung von Routen und Fahrweise. Mit der Umstellung auf erneuerbare Energien steht auch die Energiebranche mitten im Wandel. Mit der massenhaften Verfügbarkeit von Smart Metern werden sich Beziehungen zwischen den Energieversorgern und ihren Kunden stark verändern. Verbraucher werden die Möglichkeit erhalten, individuelle Tarife nutzen zu können, damit sie ihren Verbrauch auf unterschiedliche Preise anpassen können. Außerdem werden viele Verbraucher auch zu Erzeugern. Die Stromnetzbetreiber benötigen aktuelle und deutlich mehr Daten, um das Netz stabil zu halten. Big-Data-Lösungen für Energieerzeuger können die entstehenden Daten volumina speichern und verarbeiten. Durchbruch Aufwertung Neue Daten Geschäftsmodelle in der Daten-Wirtschaft Für Entscheider, die die Potenziale des eigenen Unternehmens in der Datenwirtschaft untersuchen wollen, kann ein Denkansatz hilfreich sein, der die Geschäftsmodelle und Business Cases in vier Kategorien einteilt, s. Abb.2. Optimierung: Die Auswertung bereits existie render Datenbestände kann für die Optimierung bestehender Geschäftsprozesse und modelle einen großen Mehrwert liefern. Es bietet sich daher als Einstieg in das Big-Data- Business für viele Unternehmen an, mit der Optimierungs -Strategie zu starten. Monetarisierung: Häufig gleichen Datenbestände einem noch nicht gehobenen Schatz. So lassen sich mit bereits existierenden Daten neue Geschäftsmodelle oder Produkte entwickeln. Aufwertung: Bestehende Geschäftsmodelle und Dienstleistungen lassen sich durch neue Daten aufwerten. Durchbruch: Bei der Durchbruchs -Strategie werden auf Basis der Sammlung und Digitalisierung neuer Datenbestände neue Produkte und Services entwickelt. Das Interesse deutscher Unternehmen an Big-Data-Lösungen steigt stetig. Sie benötigen die neuen Ansätze und Werkzeuge, um ihre Produktions-, Logistik- und Vertriebsketten weltweit zu optimieren. Eine hoch wettbewerbsfähige und exportorientierte Volkswirtschaft kommt künftig ohne Big Data nicht mehr aus. Dr. Mathias Weber Bereichsleiter IT Services, BITKOM e.v., Berlin Dieser Beitrag fußt auf Publikationen des BITKOM-Arbeitskreises Big Data. 9 Grafiken: BITKOM

10 Schwerpunkt Wir wollen das Unerwartete und Überraschende Die neuen Geschäftsfelder, die durch Big Data entstehen, beschäftigen auch Anbieter klassischer Firmen-IT-Infrastruktur. Wir sprachen über diese Potenziale mit Dr. Joseph Reger, dem Chief Technical Operator (CTO) der Fujitsu Technology Solutions GmbH. Technik in Bayern: Sie definieren Big Data als die Fähigkeit, durch die schnelle Analyse großer Datenbestände aus unterschiedlichen Quellen an verwertbare Informationen zu gelangen. Könnten Sie das noch näher erläutern? Dr. Joseph Reger: Big Data ist der Rohstoff der Gesellschaft der neuen Zeit. Big Data ist keine Verbesserung der bestehenden Datenanalyse! Es geht nicht nur um größere Datenmengen, sondern um Fortschritte in der Analyse. Spektakulär ist nicht die Datenmenge, sondern der Informationsgehalt. Speichern ist billig, aber haben Daten nicht ein Haltbarkeitsdatum? Historische Daten liefern einen Rückblick, interessant sind für uns aber auch die Echtzeitquellen. Hier versprechen wir uns interessante Resultate, Indikationen für die Zukunft. Wir wollen das Unerwartete und Überraschende, die Neuartigkeit der Informationen, die verborgenen Schätze. TiB: Wo stoßen bisherige Datenbanksysteme an ihre Grenzen? Reger: Eine Herausforderung für die Datenbanksysteme ist die Verarbeitungsgeschwindigkeit. Wir arbeiten heute statt der früher üblichen Supercomputer mit Rechner-Clustern, also dem Zusammenschluss von vielen preiswerten Rechnern. Wenn Sie mehrere Terabyte auf einem Rechner speichern und für ein gutes Gleichgewicht zwischen Festplattenkapazität und Rechenpower sorgen und gleichzeitig sehr viele Rechenknoten in einem ausgewogenen Cluster zusammenschalten, ist damit auch ein altes Problem der Flaschenhals in der Datenverarbeitung die mangelnde Geschwindigkeit zwischen Festplatte und Hauptspeicher, umgangen. Dafür müssen jetzt bei der Analyse von zumeist Multiquellen sehr große Informationsmengen parallel verarbeitet werden. Das ist auch eine algorithmische Herausforderung und damit eine nicht gerade triviale Aufgabe in der IT. Hier ist die Software Hadoop MapReduce ein Vorreiter. Mit ihrer Hilfe ist die Analysegeschwindigkeit von sehr großen Datensätzen mit beträchtlichen Datenbeständen stark gestiegen. Und nicht zu vergessen die SAP HANA-Technologie! 10 Auch diese beschleunigt erheblich die Analyse großer Datenmengen. Die wirklichen Grenzen sehe ich darin, dass die Daten, die heute analysiert werden, nicht mehr nur in den geordneten Systemen der Datenbanken gespeichert werden. Vielmehr entstehen die meisten Daten heute außerhalb von Datenbanken, nämlich in Texten, in Social Media, in s, et cetera Diese meist unstrukturierten Daten werden immer wertvoller. Die größten Datenbestände verbergen sich allerdings in Videodateien, die heute kaum nutzbar sind. Trotz dieser Datenexplosion per Video haben wir keine einfache Möglichkeit, Informationen in Videos automatisch auszuwerten. TiB: Welche Analysen sind durch einen Quercheck unterschiedlicher Quellen möglich? Reger: Es ist nicht nur so, dass es schneller geht. Dank der Geschwindigkeit sind vor allem andere Arten von Analysen möglich jetzt braucht man den Menschen zur exploratorischen Entdeckung. Die Mehrschichtigkeit beziehungsweise auch Mehrquelligkeit der Daten führen dazu, dass fehlende Informationen auch berechnet oder abgeleitet werden können. Dies ermöglicht es, indirekte Methoden für die Analyse zu verwenden. Ich nenne als Beispiel die indirekte Diagnose in der Medizin: So könnte man über andere Faktoren und Daten Rückschlüsse zu dem eigentlichen Problem ziehen, beispielsweise über das Auftauchen von Viruserkrankungen/Grippewellen auf Basis der Analyse von Social Media. Oder betrachten Sie die Verbrechensbekämpfung, das predictive policing. Hierbei geht es um eine Musteranalyse von Verbrechen durch die Polizei und eine Voraussage der kriminellen Aktivitäten durch die Analyse der Social Media Feeds ähnlich wie im Kinofilm Minority Report. Die Analyse von Big Data, zum Beispiel über die Analyse von Twitter-Feeds führt zu Wahrscheinlichkeitsaussagen über Verbrechen. Manche Städte wie Los Angeles oder Santa Cruz in Kalifornien konnten dank solcher Vorhersagen schon spektakuläre Erfolge in der Verbrechensbekämpfung erzielen. TiB: Wenn solch riesige Datenmengen automatisch ausgewertet werden, kann das Ergebnis dann noch überprüft werden? Reger: Schwierig. In vielen Fällen kann bei Informationen aus dem Internet die Verifizierung nicht gewährleistet werden. Häufig wissen wir, dass sie sogar faktisch falsch sind. Es ist zwar schwierig, das ganze Internet zu fälschen, aber alles ist prinzipiell manipulierbar. Sie können beispielsweise gute Bewertungen und Freunde in Sozialen Netzen in großen Mengen kaufen. Es gibt keine perfekten Methoden, aber durch die Big Data-Technologie können Widersprüche herausgefunden werden. Dadurch kommt es zu einer Purifizierung der Informationsmenge und die Irreführung funktioniert nicht mehr so einfach. TiB: Wie kann man sich gegen den Missbrauch von Daten schützen und wo liegen die Gefahren? Reger: Privatpersonen, die viel surfen, ein Smartphone mit Ortsbestimmung besitzen und mit Kreditkarten zahlen, können sich kaum schützen. Aber das ist nicht das Ende der Zivilisation, das ist ein Gewöhnungsprozess: schließlich möchte man die Annehmlichkeiten nutzen und dafür muss man Informationen über sich preisgeben. Dagegen kann man nicht sehr viel tun, die jungen Generationen sind ohnehin offener. Wohin die Reise geht, ist unklar, technisch ist Schutz kaum machbar, wenn man aktiv ist und überall teilnimmt. Unternehmen können eigene Daten (Kunden, Geschäftszahlen...) selbst lagern und pflegen. Das limitiert zwar die Möglichkeiten, die öffentliche Cloud ( Public Cloud ) zu nutzen, aber damit bleiben die Daten beim Unternehmen. Der Schutz ist nicht perfekt, da die Daten meist per Netz erreichbar sind, aber sie liegen im unternehmenseigenen Netz und sind somit prinzipiell besser schützbar. Für solche Nutzungsszenarien stellen die sogenannten Private Clouds die beste Lösung dar. Letztendlich hat jedes Unternehmen die Wahl, welche Teile des Datenbestandes zu welchem Grad schützenswert sind. Es wird in Zukunft dazu wohl ein ganzes Portfolio an

11 SCHWERPUNKT gibt es in dieser Richtung noch nicht viel. Diese Fachkräfte sind am Markt sehr rar und heiß begehrt, es sind meist die schon genannten Autodidakten. Bei großen Projekten schaut man auf externe Ressourcen, es ist in der Folge ein großes Kommen und Gehen. Foto: Silvia Stettmayer Dr. Joseph Reger (re.) im Gespräch mit TiB-Redakteur Wolfgang Berger. Technologien, Lieferanten und Liefermethoden geben, die gemanaged werden müssen. Ein Problem ist, dass Informationen im Netz nicht automatisch gelöscht werden. Hier gibt es vor allem in Deutschland die Diskussion um den Digitalen Radiergummi. Die technischen Möglichkeiten hierzu sind unzulänglich, es gibt heute keine vernünftige Methode, die sicher stellt dass Informationen sich nach einer vorgegebenen Weile tatsächlich vernichten und dazu auch noch alle Kopien. Man kann aufräumen, aber nicht zu 100 Prozent sicherstellen, dass die Daten oder deren Kopien nicht irgendwo gespeichert bleiben. Hier sollten Schutzmechanismen weiterentwikkelt werden, es muss klar sein, welchen Bedrohungen man sich aussetzt. Aufklärung ist gefordert, bleibt aber immer eine Entscheidung und in der Verantwortung des Individuums. Es ist ein Geben und Nehmen und damit ein Markt: Sie bekommen Gratis-Apps, bezahlen kein Geld für die Nutzung, das funktioniert aber nur gegen die Preisgabe von Informationen, die einem Geldwert entsprechen. Man geht eben einen Deal ein. TiB: Sie sprechen von neuen Berufsbildern wie Data Scientist und Information Broker. Was verbirgt sich dahinter? Reger: Ich halte diese neuen Berufe für unentbehrlich und es gibt hier grundlegende Schwierigkeiten! Der Data Scientist muss sowohl die Expertise bezüglich der Anforderungen der einzelnen Abteilungen haben als auch die technischen Möglichkeiten in Big Data kennen (was ist möglich und nicht möglich, mit welchem Aufwand). Er hat eine Brückenfunktion. Der Scientist ist nicht der Wissenschaftler im deutschen Sinne, er sollte auch ein Praktiker sein. Deswegen sind diese Experten heute (noch) nicht oft aufzufinden. Momentan sind es begeisterte Mitarbeiter, denen das Wissen meist auf einer Seite fehlt und die sich dieses Know-how aus eigenem Antrieb autodidaktisch aneignen das sind heute die wertvollsten Mitarbeiter eines jeden Unternehmens. Information ist die neue Ware und der Information Broker handelt mit Informationen. Berufsbilder werden nun entstehen, die auch im traditionellen Warenverkehr existieren. Brokerage ist hier gemeint im Sinne von Makler. Er ist der Anbahner, der Interessenten und Anbieter zusammenbringt, er weiß, welche Quellen von Nutzen sind und wie man an diese herankommt, welche Datenbestände bereits existieren. TiB: Wie werden diese Fachkräfte ausgebildet und gibt es schon entsprechende Studiengänge an Universitäten und Fachhochschulen? Reger: Zurzeit beschränkt sich die Ausbildung praktisch auf unternehmensinterne Weiterbildung, die aber schwierig und langwierig ist, da on-the-job. In Zukunft müssen hier Profile und Lehrpläne entwickelt werden. In den USA gibt es erste Curricula an einigen Einrichtungen, die in die Richtung gehen. Erfahrungsgemäß dauert es aber etwa zehn Jahre, bis diese Anstrengungen Früchte tragen. In Deutschland TiB: Wie wird sich Big Data weiterentwickeln, wohin wird die Reise führen? Reger: Mit der besseren Auswertung und Verwendung der Informationen aus riesigen Datenbeständen wird es dazu kommen, dass Informationen der neue Rohstoff der Menschheit werden und auch das Wertvollste, was wir haben. Dadurch scheint mir sichergestellt zu sein, dass sich das Thema weiter entwickelt. Die Namensgebung für diese Entwicklung ist zwar falsch und irreführend, Big Data wird es wohl nicht für die Ewigkeit heißen, aber die Disziplin wird wichtig bleiben. Die Auswirkungen auf die Wirtschaft sind wahrscheinlich größer als durch Cloud Computing. In der Wirkung wird Big Data einen umfassenderen und nachhaltigeren Effekt haben, daher wird bereits viel investiert. Dies führt wiederum zu einer besseren technischen Ausstattung mit mehr Möglichkeiten. In vielen Fällen kann man bereits verfügbare Infrastrukturen mitnutzen. Man kann Daten, die quasi schon da beziehungsweise zugänglich sind, daher gut und mit Leichtigkeit verwenden, dies kann zu einer Beschleunigung führen. Faszinieren werden uns die immer neuen Anwendungsgebiete und -beispiele sowie die Durchdringung der Gesellschaft und der Wirtschaft mit Informations- und Kommunikationstechnologie in der Folge. Diese Disziplin wird somit die Zukunft maßgeblich bestimmen. TiB: Wir danken Ihnen für das Gespräch. Das Interview mit Dr. Reger führten Wolfgang Berger und Silvia Stettmayer INFORMATIONEN Die Fujitsu Technology Solutions GmbH gehört zur Global Business Group der Fujitsu Gruppe und beschäftigt über Mitarbeiter. Im Rahmen seiner strategischen Ausrichtung auf Dynamic Infrastructures bietet das Unternehmen ein umfassendes Portfolio an IT- Produkten, Lösungen und Services von PCs und Notebooks über Rechenzentrumslösungen bis hin zu Managed Infrastructure und Infrastructure-as-a-Service. 11 INF INF TIP

12 Schwerpunkt Big Data und Datenschutz ein lösbarer Konflikt? Big Data ist das Schlagwort für den Trend, immer mehr und detailliertere Daten über Konsumenten und deren Verhalten zu nutzen. Dies wirft zahlreiche datenschutz rechtliche Fragen und Risiken auf. Sie können im Wesentlichen durch Anonymisier ung der Daten, datenschutzrechtliche Prüfungen und auch Datenschutz-Siegel aufgelöst werden. Big Data für neue Geschäftsmodelle Big Data ist im Marketing und insbesondere im Bereich Customer Relationship Management zu einem viel genutzten Schlagwort geworden. Das Volumen der Daten steigt enorm an durch die Vielzahl gerade auch neuer Quellen, die aufgrund der Digitalisierung vieler Daten zusätzlich genutzt werden können (z.b. Mobil, Social Media, Internet der Dinge). Die Geschwindigkeit der Datenerhebung und -verarbeitung ist durch die technische Weiterentwicklung von Servern, Software und Clouds auch stark angestiegen. Dies gilt auch für die Vielfalt von Daten: Es werden nicht mehr nur Daten aus dem eigenen Unternehmen verarbeitet sondern auch externe Daten, wie z.b. Nutzungsverhalten, Geolokalisierung, Kaufversuche, Social-Media. Neben dieser klassischen Begrifflichkeit von Volumen, Geschwindigkeit und Vielfalt der Daten kommt als entscheidender Faktor für die anwendenden Unternehmen der Wert der Daten hinzu (Value). Denn nur wenn die Unternehmen über zusätzliche Geschäfte Werte schaffen können, macht es Sinn in Big Data zu investieren. Unternehmen versuchen, über vier wesentliche, sich gegenseitig verstärkende Faktoren neue Geschäftsmodelle für existierende und neue Kunden zu schaffen: Massive Daten, Echtzeit-Daten, Mobile Daten und Hochrechnungen. Massive und Echtzeit-Daten, Mobile Daten und Hochrechnungen Es sollen alle nur erdenklich möglichen Daten gesammelt werden, auch wenn sie keine direkte Beziehung zu Kunden oder Umsatz haben. Es gibt viele Modelle, bei denen aufgrund von neuen, andersartigen Daten ganz neue Wirkungsbeziehungen entstehen, die zu neuen Kundenbeziehungen und neuem Geschäft führen (zum Beispiel Groupon (1)). Echtzeit-Datenverarbeitung sorgt dafür, dass der Kunde in einer bestimmten Situation beispielsweise einer Kaufentscheidung mit einer auf ihn und seine Situation zugeschnittenen 12 Marketingmaßnahme angesprochen wird. Das eröffnet ganz neue und schnellere Geschäftsabschlüsse, zum Beispiel passend zugeschnittene Display-Werbung auf einer ecommerce- Webseite. Weiterführend werden dann sogar Preise für Daten und für Marketingmaßnahmen in Echtzeit ausgetauscht und dem Kunden in Echtzeit Angebote unterbreitet, das sogenannte Real-Time Advertising. Wenn z.b. ein Internetnutzer gerade nach einem konkreten Produkt sucht, kann man ihm direkt alternative Werbung zusenden. Mobile Daten können durch die Nutzung von smartphones und tablets häufig mit anderen Daten verbunden werden, wenn über die Geräte gesurft oder sogar eingekauft wird. Selbst wenn nur wenige einzelne Kunden durch eine direkte Marketing-Kampagne angesprochen werden, kann durch den Einsatz massiver Daten eine Hochrechnung erfolgen. Man sucht dann sogenannte statistische Zwillinge, die ein sehr ähnliches Verhalten zeigen, auch wenn sie gegebenenfalls noch nicht Kunde sind. Damit kann die Sample-Größe für eine Marketing-Kampagne deutlich erweitert werden und das Potenzial, ein neues Geschäft zu machen, steigt erheblich. So rechnet man z.b. hoch dass Nutzer, die in einem bestimmten Zeitraum mehr als x-mal auf Auto-Seiten clicken mit einer Wahrscheinlichkeit von y% männlich sind, weil man statistisch festgestellt hat, dass Männer im Durschnitt mehr Autoseiten besuchen als Frauen. Datenschutz und Datensicherheit Aufgrund der sehr viel detaillierteren Daten und der großen Möglichkeit kleinere Gruppen von Personen oder sogar einzelne Personen anzusprechen, zum Beispiel bei einer direkten Verhaltensbeobachtung des Kunden, kommt dem Datenschutz bei Big Data eine sehr große Bedeutung zu. Die aktuell bestehenden Datenschutzgesetze sind anzuwenden und deren Einhaltung muss sehr sorgfältig geprüft werden. Insbesondere dürfen die Daten nicht zweckfrei erhoben werden ( 28 BDSG) und auch für Big Data gilt das Gebot der Datensparsamkeit ( 3a BDSG). Daten aus Vertragsverhältnissen dürfen verwendet werden, wenn es zur Begründung, Durchführung und Beendigung des Vertragsverhältnisses erforderlich ist ( 28 BDSG). Ferner ist eine Nutzung der Daten für einen anderen Zweck erlaubt, wenn sie zur Wahrung der berechtigten Interessen erforderlich ist und keine überwiegenden schutzwürdigen Interessen der Kunden bestehen ( 28 BDSG). Eine Datenverarbeitung von personenbezogenen Daten im Rahmen von Big Data ist nach diesen Vorschriften in der Regel nicht möglich, es sei denn, sie ist mit dem Betroffenen vertraglich vereinbart. Für die Nutzung von Daten zu Werbezwecken gilt grundsätzlich ein Verbot mit Erlaubnisvorbehalt, d.h. dass Betroffene in die Verwendung der Daten einwilligen müssen ( 4 (1) und 28 (3) BDSG). Die Umsetzung einer Einwilligung ist sehr genau geregelt und ist dann auch für Big Data-Anwendungen einzuhalten. Diese wichtigen grundsätzlichen Einschränkungen sind immer zu beachten. Datenschutzkonforme Umsetzung von Big Data Es gibt allerdings auch für Big Data die Möglichkeit, personenbezogene oder -be ziehbare Daten zu anonymisieren. Dann unterliegt die Anwendung nicht mehr den strengen Datenschutzgesetzen. Anonymisierung bedeutet, dass eine Person praktisch nicht mehr aus den aggregierten Daten wieder re-identifiziert werden kann, man also personenbezogene Daten, wie Name, Adresse, nicht wieder aus dem Datensatz herausbekommen kann. Dies bedeutet nicht, dass man nicht Werbung an die entsprechenden Geräte (Internetbrowser) schicken darf. Display-Werbung an Internetnutzer zu senden erfordert keine Nutzung personenbezogener Daten, sondern lediglich die Kenntnis, ob jemand schon einmal die Werbung gesehen hat, sich für bestimmte Produkte interessiert, oder ein bestimmtes Verhalten gezeigt hat.

13 SCHWERPUNKT Es ist gängige Praxis, dass bei digital genutzten Daten eine Anonymisierung stattfindet, dann sehr viele Daten verarbeitet werden und anschließend digitale Werbung an anonymisierte oder pseudonymisierte Daten z.b. über Internet oder mobile Geräte versandt werden. Entscheidend ist dabei, dass alle Daten sicher und unwiderruflich anonymisiert werden. Allerdings steigt bei Big Data das Risiko der De-Anonymisierung von Daten aufgrund der Vielzahl der Daten und der Kombination unterschiedlicher Quellen deutlich an. Dies zeigen auch wissenschaftliche Untersuchungen [1]. Insgesamt erhöht Big Data Datenschutzrisiken, ggf. sogar beträchtlich. Empfehlungen Bei Big Data muss man die Technologie, die Prozesse und die rechtliche Zulässigkeit genau prüfen, ob eine wirksame Anonymisierung erfolgt ist. Wenn mit einer Einwilligung der Nutzer für Big Data-Analysen gearbeitet wird, ist diese auch genau zu prüfen. Hinsichtlich der aktuellen Diskussion um die Überwachung durch Geheimdienste gehen Datenschutzbehörden davon aus, dass die bisher genutzten safe harbor-regelungen gegebenenfalls nicht halten. Deshalb wird zurzeit empfohlen, alle Daten innerhalb des EU-Raumes, ggf. sogar in Deutschland, zu speichern, zu verarbeiten und zu nutzen sowie mittels Verträgen über Auftragsdatenverarbeitung rechtssicher zu gestalten. In jedem Fall ist der Datenschutzbeauftragte in die Gestaltung der Big Data-Analyse und in die date nschutzrechtliche Prüfung einzubeziehen. Häufig bietet es sich an, eine genaue technische und rechtliche Prüfung mit Hilfe eines Datenschutz- Gutachtens oder Datenschutz-Siegels vorzunehmen (z.b. ULD, eprivacyseal). Für Big Data-Anwendungen empfiehlt sich ein separates detailliertes Datenschutz-Gutachten oder ein Datenschutz- Siegel, da es keine datenschutzrechtlich anerkannten oder allgemein gültigen Technologien oder Prozesse gibt, auf die zurückgegriffen werden kann. Gutachten oder Siegel halten auch behördlichen Prüfungen stand und müssen erst nach einem längeren Zeitraum bzw. bei wesentlichen Änderungen der Technologie oder der Prozesse angepasst werden. Über 800 Gebrauchtstapler aller Marken, Typen und Preisklassen Prof. Dr. Christoph Bauer Geschäftsführer eprivacyconsult GmbH und Professor an der HSBA Hamburg School of Business Administration (1) Groupon: Ein Unternehmen, das WEbsites mit Rabattangeboten betreibt (Anm. d. Red.). Einladung für Sonntag, 1. Dezember 2013 zur großen Gebrauchtstapler-Messe und GRUMA StaplerCup 2014 bei Augsburg LITERATUR Indoor Jubiläum 10. GRUMA StaplerCup überdacht & beheizt Gruma Nutzfahrzeuge GmbH Äußere Industriestraße Friedberg-Derching Tel [1] A. Narayanan, V. Shmatikov: Robust Deanonymization of Large Datasets, Nov. 2007, oak08netflix.pdf, Zugriff INF INF TIP Sichere Datenübertragung Made in Munich Wie lässt sich digitale Kommunikation zuverlässig schützen? Der aktuelle Überwachungsskandal wirft diese Frage in besonderer Schärfe auf. Das flügge gewordene start-up FTAPI Software GmbH der Hochschule hat Antworten: Mit Softwarelösungen bietet es hochsicheren Datenaustausch. Die 2010 gegründete FTAPI Software GmbH entwickelt und vertreibt Software- Systeme für die sichere Übertragung und Speicherung geschäftlicher Daten. Ihr Produkt FTAPI SecuTransfer basiert auf einer eigenen Technologie, deren Entwicklung ideell durch das Strascheg Center for Entrepreneurship und finanziell durch die Europäische Union und das Bundesministerium für Wirtschaft gefördert wurde. Dabei setzt das Unternehmen neue Maßstäbe an Sicherheit und Effizienz bei geschäftlichem Dateiaustausch und bietet im Gegensatz zu den gängigen File Transfer-Lösungen eine tatsächlich durchgängige (Ende-zu-Ende) Verschlüsselung aller Dateien. Neben Mittelständlern aus Fertigungsindustrie, Einzelhandel und IT-Branche zählen auch Tec- und MDax Unternehmen zu den FTAPI -Nutzern. Die bisherigen Lösungen sind in der Regel nur scheinbar sicher. Die meisten Anwendungen fokussieren sich auf die Sicherheit bei der Übertragung, aber nicht während der Zwischenablage am Server und dieser Zeitraum ist für gewöhnlich wesentlich länger als der Versand an sich, sagte CTO Stephan Niedermeier. Claudia Köpfer Hochschule 13

14 Schwerpunkt Auf Schatzsuche im Web Aktuelle Änderungen des Nutzerverhaltens im Internet führen dazu, dass die Kommunikation mit Kunden sowie die Reaktion auf deren Kommunikation untereinander für den Erfolg oder Misserfolg am Markt entscheidend sind. Die Auswertung und das Verstehen des Nutzerverhaltens im Netz sind deshalb heute wichtiger als je zuvor. Der Wert der Aufmerksamkeit Dabei ist es üblicherweise sehr einfach, das Interesse der Kunden und Benutzer zu erkennen. Dagegen ist es ungleich schwerer, zu messen, ob ihr Interesse einen positiven oder einen negativen Hintergrund hat. Es ist deshalb ein Gebiet aktueller Forschung, Nutzerkommentare automatisiert auswerten zu können (Stavrianou 2007). Insbesondere sarkastische und ironische Kommentare und Produktbewertungen stellen die algorithmische Auswertung vor große Probleme, für die es bislang keine einfachen Lösungen gibt. Derart komplexe Fragestellungen gepaart mit der Datenflut, die im Internet bereit steht, stellen Unternehmen heutzutage vor große Herausforderungen. Um sich diesen zu stellen, ist oftmals ein umfangreicher Ausbau der IT Infrastruktur notwendig. Für kleinere oder mittelständische Unternehmen ist dieser Ausbau oftmals nicht zu bewältigen, sie müssen deshalb alternative Strategien finden, um mit den wachsenden Datenmengen umzugehen, für die sich der Begriff Big Data eingebürgert hat. Was ist Big Data? Für unstrukturierte, sehr umfangreiche, oftmals heterogene Daten wurde in den letzten Jahren der Begriff Big Data geprägt. Um die Speicherung, Verarbeitung und Auswertung solcher Datenmengen hat sich ein eigenes Software- Universum gebildet. Die Definition, wann es sich bei einer Datenmenge oder einer Fragestellung um Big Data handelt ist dabei allerdings oftmals unscharf. Eine der gängigsten Definitionen für den Begriff Big Data besagt, dass sich Big Data dadurch auszeichnet, dass es sich um Daten handle, die mit herkömmlichen [ ] Datenbanken und Datenmanagement-Tools nicht oder nur unzureichend verarbeitet werden können (Wikipedia). Dabei ist die Tatsache, dass herkömmliche Tools an ihre Grenzen stoßen oftmals gar nicht den Daten, sondern viel eher einem unzureichenden Design geschuldet. Exakter ist die Definition von Big Data, die Gartner prägt. Das amerikanische IT- Forschungsunternehmen kennzeichnet Big Data durch das Vorhandensein von drei Vs, nämlich 14 Volume, also der Datenmenge, die vorliegt, Velocity, also der Geschwindigkeit, mit der die Daten anfallen und Variety, worunter Gartner versteht, dass es sich um Daten in verschiedenen Ausprägungen handelt (Beyer 2011). Diese Definition ist zwar schärfer als die zuvor genannte, allerdings ermöglicht auch sie es nicht, ein Problem positiv als Big Data zu identifizieren. Dass Big Data nach spezialisierter Software verlangt, ist klar. Zentral für das Behandeln von Big Data ist Hadoop. Das von der Apache Foundation als Open Source angebotene Framework ermöglicht es, verteilte Prozesse und verteilte Datenspeicherung effizient zu implementieren. Es ist dabei nicht als Komplettlösung zu sehen, sondern bietet stattdessen die Plattform auf der solche Anwendungen maßgeschneidert werden können. Die Entwicklung einer Big Data Lösung auf Hadoop-Basis ist deshalb immer mit erheblichen Entwicklungskosten und Aufwand verbunden. Von der steigenden Verfügbarkeit von Daten im Internet kann man aber auch ohne diesen Aufwand profitieren. Daten im Netz Interessant sind Daten aus dem Internet insbesondere für Unternehmen im direkten Kundenkontakt. Das Erkennen von Bewegungen im Nutzerverhalten kann hier direkt genutzt werden, um bei möglichen Kundenwünschen oder Trends im Kundenverhalten zeitnah zu handeln. Abb. 1: Architektur der vorgestellten Lösung. Wir möchten hier nun exemplarisch darstellen, wie sich Trends in einem vom Einzelhandel dominierten Markt erkennen und bewerten lassen. Dafür ist es zunächst nötig, die Aufmerksamkeit zu messen, die einzelne Produkte erfahren. Für diese Fragestellung bietet Google mit Google Trends einen Dienst an, der es ermöglicht, abzufragen, wie oft in einem Zeitraum Suchanfragen auftraten, die einen bestimmten Suchbegriff enthalten. (Mohebbi 2011) Anhand dieser Daten ist allerdings nicht ersichtlich, ob diese veränderte Aufmerksamkeit dazu führt, dass Kunden eher zu einem Produkt greifen, als zum Konkurrenzprodukt oder anders herum. Beispielsweise würden die Schlagzeilen Produkt x heilt Krankheit y und Produkt x verursacht Krankheit y beide zu einer gesteigerten Aufmerksamkeit für Produkt x führen: In beiden Fällen würden mehr Nutzer als zuvor versuchen, die Schlagzeile zu verifizieren und die Hintergründe zu erfahren, aber nur im ersten Fall wäre damit zu rechnen, dass die Nachfrage nach Produkt x steigt. Der klassische Weg, um eine Qualifizierung herbei zu führen, wäre, Beiträge in den Sozialen Netzen zu finden und zu versuchen, sie mit Text Mining inhaltlich zu bewerten. Einfacher ist es aber, die Aufmerksamkeit zu qualifizieren, indem man eine weitere Kennzahl hinzu zieht. Besonders geeignet sind dabei Kennzahlen, anhand derer sich Zustimmung von Nutzern Grafiken: ixto GmbH

15 SCHWERPUNKT messen lässt. Das soziale Netzwerk Facebook hat mittlerweile eine sehr große Verbreitung erreicht und bietet mit dem Gefällt mir (englisch like ) Button eine sehr einfache Möglichkeit für die Nutzer, ihre Zustimmung zu etwas zum Ausdruck zu bringen. Bleiben wir beim oben erwähnten Beispiel vom Produkt x, das Krankheit y alternativ heilt oder auslöst. Wir legen nun die Annahme zugrunde, dass im Fall ersterer Schlagzeile mehr Benutzer auf der Facebook-Seite von Produkt x den Gefällt mir -Button klicken werden, als im Falle letzterer Schlagzeile. Dadurch wird es möglich, zu registrieren, ob die Schlagzeile, nach der bei Google gesucht wurde, einen für Produkt x positiven oder negativen Tenor hat. Das Zusammenführen mehrerer Informationsquellen hat hier also dazu geführt, dass wir eine inhaltliche Bewertung vornehmen können. Szenario 1: Fluktuation um Mittelwert. Szenario 3: Shitstorm Szenario 2: Candystorm Szenario 4: Effektlose Kampagne Mehrwert aus Daten Um zu einem Verfahren zu gelangen, bei dem automatisiert auf algorithmische Weise Schlüsse über das erwartete Verbraucherverhalten abgeleitet werden, müssen die Daten zunächst automatisiert erhoben werden. In einem Projekt mit einem Großunternehmen wurde dies von der ixto GmbH implementiert. Um die verschiedenen Big Data Datenquellen im Netz in das vorhandene Data Warehouse zu integrieren, wurden die Integration Services (SSIS) auf dem vorhandenen SQL Server genutzt. Es wurden für die API-Schnittstellen der verschiedenen Datenquellen.NET-Skriptkomponenten implementiert. Um die Daten weiter verarbeiten zu können, wurden sie mit den Analysis Services (SSAS) in Tabular Cubes aufbereitet und zur Visualisierung mit den Reporting Services (SSRS) Berichte erstellt. Da eine Historisierung der Facebook-Likes nicht über die API abrufbar ist, wird sie im Rahmen des Projekts selber durchgeführt. Reaktionsmuster der Kunden identifizieren Im nächsten Schritt wurden mehrere Szenarien entwickelt, um Abhängigkeiten innerhalb der Daten vorher zu sagen. Diese Abhängigkeiten wurden dann mit Hilfe der vorliegenden Daten verifiziert, wobei die klassischen Verfahren der Assoziationsanalyse zum Einsatz kamen. Vier der dabei erkannten Szenarien sind in der folgenden Übersicht gezeigt. Alle Diagramme skizzieren die Anzahl der Google- Suchen (in rot) und Facebook-Likes (in blau) über der Zeit. Abb. 2: Vier exemplarische Szenarien für die Wechselwirkung zwischen Google- (rote Linie) und Facebook-Daten (blaue Linie). Das erste Szenario (links oben in Abb. 2) ist dabei das Standard-Szenario, bei dem es keine nennenswerten Veränderungen in den Daten gibt. Im zweiten Szenario (rechts oben in Abb. 2) steigen sowohl die Anzahl der Google-Suchen als auch die Anzahl der Gefällt mir -Bekundungen bei Facebook stark an. Für ein derartiges Szenario, bei dem eine Kampagne oder eine Nachricht über ein Produkt zu vermehrten Sympathiebekundungen führt, wird häufig als Candystorm bezeichnet. Typischerweise würde der Einzelhändler, wenn er ein solches Verhalten beobachtet, die Lagerhaltung für das betreffende Produkt erhöhen. Das Gegenteil ist in Szenario 3 (links unten in Abb. 2) skizziert. Hier sorgt die gesteigerte Aufmerksamkeit, erkennbar an den stark ansteigenden Google- Suchen, nicht zur vermehrten Sympathiebekundung. Dieses Szenario wird häufig als Shitstorm bezeichnet: es wird negativ über das Produkt gesprochen. Szenario 4 (rechts unten in Abb. 2) ist ein weiteres Szenario, das sich in den Daten wieder findet. Einem kurzen, rasanten Anstieg der Anzahl der Google-Suchen folgt rasch wieder die Reduzierung auf das Normal- Niveau während die Anzahl der Facebook-Likes nahezu konstant bleibt. Ein solches Verhalten lässt sich beispielsweise beobachten, wenn eine Werbekampagne einer Firma gestartet wird, die aber bei den Benutzern auf kein Interesse stößt. Alle diese Szenarien lassen sich bereits nach kurzer Datenerhebung auch in den realen Daten beobachten, eine manuelle Auswertung zeigte, dass die dabei mit den Szenarien verknüpften Vorstellungen weitestgehend der Realität entsprachen. Zusammenfassung und Ausblick Wir haben gezeigt, dass Big Data nicht unbedingt den Firmen vorbehalten bleiben muss, die selber große Datenmengen produzieren oder auch nur die technische Infrastruktur haben, solche zu verarbeiten. Stattdessen können auch kleine und mittelständische Betriebe von den bereits vorhandenen Datenmengen im Netz profitieren. Sowohl für sie als auch für Großunternehmen ist dabei oftmals die Perspektive interessant, die Daten ohne den Aufbau einer eigens dafür angeschafften IT Infrastruktur innerhalb der bereits vorhandenen oder mit kleinem Investitionsvolumen anschaffbaren Ressourcen zu sammeln und auszuwerten und so die Schätze des Webs zu bergen. Dr. Benjamin Kettner ixto GmbH, Berlin LITERATUR Beyer, Mark. Gartner gartner.com/newsroom/id/ (Zugriff am ). Mohebbi, M., Vanderkam, D., Kodysh, J., Schonberger, R., Choi, H., & Kumar, S. Google correlate whitepaper.o1. August Stavrianou, A., Andritsos, P., & Nicoloyannis, N. Overview and semantic issues of text mining. ACM Sigmod Record, 2007: Wikipedia. kein Datum. org/wiki/big_data (Zugriff am ). 15 INF INF TIP

16 Schwerpunkt Big Data bei ProSiebenSat.1 Digital Big Data ist in aller Munde ein typisches Hype-Thema, könnte man meinen. Doch hinter dem Hype verbirgt sich ein enormes technologisches Potenzial, das innovative Unternehmen bereits in großen Projekten zum Einsatz bringen. Das IT-Projekthaus inovex hat die ProSiebenSat.1 Digital GmbH dabei unterstützt, auf der Basis der Open-Source-Software Apache Hadoop eine komplexe Big-Data-Lösung für die Analyse des gesamten Web Traffic zu erstellen, der in der Unternehmensgruppe entsteht. Die ProSiebenSat.1 Group im Kurzprofil Die ProSiebenSat.1 Group zählt heute mit 28 TV-Sendern und einer Reichweite von über 62 Millionen TV-Haushalten zu den führenden Medienkonzernen Europas. Das Kerngeschäft der Gruppe ist das Fernsehen, von den bekannten TV-Sendermarken wie SAT.1, ProSieben, kabel eins und sixx über die ProSiebenSat.1 Networld bis hin zur Online-Videothek maxdome, digitalen Pay-TV-Angeboten und mobilen Services. Die ProSiebenSat.1 Digital GmbH produziert als digitale Entertainment-Tochter alle interaktiven Plattformen wie Online, Hbb- TV, Teletext oder Mobile. Skalierende Datenvolumina + heterogene Datenquellen = Big Data Die ProSiebenSat.1 Digital GmbH benötigt für die Messung, Steuerung und Optimierung ihrer zahlreichen Online-Plattformen detaillierte Datenanalysen des Web Traffic. Primär sind dabei nicht-transaktionale Online-Plattformen relevant, aber es sollen auch Transaktionsdaten der Video-Plattform MyVideo und von maxdome.de eingebunden werden. Während der IT-technischen Konzeption einer geeigneten Analyse-Plattform (Data Warehouse) stößt man sehr schnell auf zwei typische Big-Data-Problemstellungen: ein sehr stark skalierendes Datenvolumen und eine Vielzahl von heterogenen Datenquellen. Das absolute Datenvolumen im Jahr 2012 liegt bei etwa 10 Terrabyte, eine heute auch mit klassischen Data-Warehouse-Technologien beherrschbare Größe. Das erwartete Datenwachstum von jährlich 300 % führt jedoch bereits bis 2015 zu einer Datenmenge im Petabyte-Bereich Big Data also. In das Data Warehouse sollen Kennzahlen von vielen verschiedenen Diensten einfließen und miteinander in Beziehung gesetzt werden. Die Quellsysteme teilen sich dabei auf fünf Bereiche auf: Online-Trafficdaten aus verschiedenen Messsystemen Google Analytics WebTrekk Unique User Tracker Social Networks, z. B. Facebook Insights 2. Vermarktungsdaten aus der Online-Werbung von verschiedenen Adservern: AdServer (DoubleClick for Publishers) AdSense OpenX Salesforce (ProDia) 3. Markt- und Konkurrenzdaten IVW AGOF 4. Transaktionsbezogene Daten User Service MyVideo-Registrierungen Social Networks, z. B. Facebook Insights Maxdome 5. Weitere, interne Daten zur Geschäftssteuerung Controlling: Budget- und Forecast-Daten TV-Schaltpläne für Eigenwerbung TV-Reichweiten (Sender und Formate) Kampagnen-Daten (Online-Marketing, Werbemittelvermarktung) Beschreibende Daten zu Videos und anderem Content Hybride Big-Data-Plattform auf Open-Source-Basis Das vorgeschlagene Data Warehouse setzt sich als hybride, Open-Source-basierte Lösung aus einer relationalen Datenbank mit PostgreSQL sowie einem vorgelagerten Storage-and-Compute-Cluster auf Basis von Apache Hadoop zusammen (s. Schaubild rechts). Das Apache-Hadoop-Cluster übernimmt die Speicherung aller historischen Daten in feinster Granularität und stellt den Integrations-Layer bereit. Hadoop ist dafür konzipiert worden, große Datenmengen kostengünstig zu speichern und zu verarbeiten. Als horizontal skalierbares System ermöglicht Hadoop, dem heutigen Datenspeicherbedarf entsprechend mit einem kleinen Cluster aus sechs Knoten zu starten. Das prognostizierte Anwachsen der Datenmenge kann zukünftig einfach durch Hinzunahme neuer Knoten aufgefangen werden. Durch die redundante Speicherung aller Daten im Cluster und die Konzeption des Hadoop- Frameworks ist außerdem die Ausfallsicherheit des Clusters bereits per se gegeben. Um die Installation und Konfiguration des Clusters zu vereinfachen, wird die CDH4-Distribution von Cloudera eingesetzt, in der alle benötigten Software-Komponenten aus dem Hadoop-Ecosystem optimal aufeinander abgestimmt sind. Die Software wird mithilfe spezialisierter Rex- Module (inovex-toolsuite für Deployment- und Configuration-Management, voll automatisiert im Cluster verteilt, installiert und konfiguriert. Datenintegration und -aufbereitung Die Vielzahl an unterschiedlichen Datenquellen erfordert verschiedene Herangehensweisen an deren Erschließung für das Data- Warehouse-System: In den Fällen, in denen eine tagesaktuelle Verfügbarkeit der Daten ausreichend ist, werden diese als Dateien über einen Austausch per Secure FTP zur Verfügung gestellt. Videodaten, die mit geringerer Verzögerung ausgewertet werden müssen, werden dagegen über einen verteilten, ausfallsicheren Datentransportdienst (Apache Flume) eingesammelt. Daten aus sozialen Netzwerken wie Twitter und Facebook werden über deren serviceorientierte Schnittstellen abgefragt.

17 INF INF TIP SCHWERPUNKT Die Bewirtschaftung eines solchen Systems geschieht durch sogenannte ETL-Prozesse (Extract, Transfer, Load). Hadoop unterstützt dabei hochgradig parallele und damit sehr schnelle Verarbeitungsprozesse nach dem Map-Reduce- Verfahren. Zur Erstellung dieser Programme ist je nach Anwendungsfall eine der folgenden Alternativen gewählt worden: Pentaho Data Integration: bietet eine grafische Oberfläche, mit der BI-Anwender einfache Map-Reduce-Jobs erstellen können. Pig Latin: ist eine Skriptsprache, die für Datenbankentwickler leicht zu erlernen ist und im Hintergrund Map-Reduce-Jobs generiert. Java: manuelle Entwicklung der Mapper- und Reducer-Klassen in Java für besonders komplexe Transformationen oder wenn höchste Performance erforderlich ist. Datenanalyse Im Data Warehouse erfolgen die dimensionale Modellierung und die Implementierung eines Reporting- und Analyse-Layers. Damit steht dem Anwender ein geeignetes Daten modell und eine vertraute Abfragesprache (SQL) zur Verfügung, um sowohl Standardberichte als auch Ad-hoc-Auswertungen schnell und qualitätsgesichert bereitstellen zu können. Außerdem können so praktisch alle BI-Frontend-Tools per ODBC auf das DWH zugreifen. Aber auch auf die Rohdaten im Hadoop-Cluster kann für Adhoc-Analysen per SQL bzw. ODBC zugegriffen werden: Ein Hive-Server stellt diesen Zugriff zur Verfügung. Hive wandelt die deskriptiven SQL- Anfragen in Map-Reduce-Jobs um, die dann auf dem Cluster abgearbeitet werden. Zusammenfassung inovex hat fü r die ProSiebenSat.1 Digital GmbH zur Analyse des gesamten Web Traffic eine hybride Big-Data-Lösung aus einer relationalen Datenbank und einem Apache Hadoop Cluster entwickelt. Die SQL-Datenbank stellt ein vertrautes Interface bereit und erreicht Antwortzeiten im Sekundenbereich, Hadoop deckt die Big-Data-Anforderungen auch langfristig souverän ab. Zusätzlich zu den Log-Daten werden Daten aus dem Bereich Social-Media (Facebook, Twitter, Google Analytics) mit integriert. Jörg Ruckelshauß inovex GmbH, Münster INFORMATIONEN Key Facts Big-Data-System mit Apache Hadoop 5 Hadoop-relevante Datenquellen > Datensätze mit 250 GB Volumen pro Tag Technologien Apache Hadoop, PIG, Hive, Flume, Java, PostgreSQL, Pentaho Data Integration ÜBER INOVEX inovex ist ein inhabergefü hrtes IT-Projekthaus. Mehr als 120 IT-Ingenieure unterstützen seit 1999 die IT-Abteilungen in großen Unternehmen und in Internet-Companies bei der Bewältigung der wichtigsten Aufgaben, die sich derzeit im Internet-Umfeld stellen: Web und Mobile Engineering, Business Intelligence (BI) und Big Data, Cloud-Infrastrukturen und Data Center Management. Die BI-Kompetenz von inovex deckt sowohl die klassischen BI- Themen ab (Data Warehouse, ETL, Reporting, Dashboards) als auch die neuen Trends im BI- Umfeld: Big Data, Enterprise Search und Social Analytics. inovex deckt die gesamte Big-Data- Palette ab: Aufbau der Infrastruktur, Big Data Engineering, Einfü hrung von Map-Reduce und die Unterstü tzung angrenzender Technologien (Flume, HBase, Pig, Hive). INF INF TIP 17

18 EfficiEnt. technology. WorldWidE. EfficiEnt. technology. WorldWidE. more... than a job. Der Knorr-Bremse Konzern ist weltweit der führende Hersteller von Bremssystemen für Schienen- und Nutzfahrzeuge. Als technologischer Schrittmacher treibt das Unternehmen seit über 100 Jahren maßgeblich Entwicklung, Produktion, Vertrieb und Service moderner Bremssysteme voran. Im Jahr 2012 erwirtschaftete der Konzern einen Umsatz von 4,3 Mrd. Euro und beschäftigte weltweit rund Mitarbeiter an über 85 Standorten in mehr als 25 Ländern. Engagieren Sie sich in unserem global agierenden Unternehmen und bei unseren geschäftsfeldspezifischen, hoch interessanten Herausforderungen von Teilaufgaben bis zu komplexen Projekten als (m/w): Entwicklungsingenieur Versuchsingenieur informatiker Projektleiter Systemingenieur Mehr Information im Stellenmarkt unter 18

19 Hintergrund Big Data in Bibliotheken Es bleibt viel zu tun Was wir heute als Informationsflut empfinden ist für Bibliotheken kein grundsätzlich neues Phänomen. Mit riesigen Textbergen konfrontiert, standen sie schon früh vor dem Problem, diese unübersichtliche Menge sinnvoll aufzubereiten. Digitalisierung ganzer Bücher noch dringlicher geworden. Durch das Scannen von einer Million Bücher entstehen etwa eine Milliarde Dateien mit einem Speicherplatzbedarf von ca. 500 Terabyte. Eine gigantische Menge, angesichts von etwa 190 Millionen Büchern, die deutsche Bibliotheksverbünde nachweisen. Foto: Deutsches Museum Unauffindbar werden Informationen, wenn ihre Beschreibung und ihr Standort nicht verläßlich dokumentiert werden. Bis 1910 hatte sich allein in Deutschland die Buchproduktion innerhalb von 40 Jahren auf Titel pro Jahr verdreifacht. Eine enorme Herausforderung, der die handschriftliche Verzeichnung in Büchern nicht mehr gerecht wurde, und bei deren Bewältigung die Kontrolle der anfallenden Daten eine zentrale Rolle spielte. Abhilfe boten die Preußischen Instruktionen, die seit 1899 zum Standard für die Titelaufnahmen wurden. Einmal erstellt, konnten sie aus den Berliner Titeldrucken ausgeschnitten und andernorts weiterverwendet werden. Mit einem Wechsel des Datenträgers vom Buch zur Karteikarte wurden die Vorteile dieser Arbeitsteilung noch besser ausgenutzt. Schon 1901 war es in den USA möglich, Titelaufnahmen auf Karteikarten zu kaufen, die, um Weniges ergänzt, in den Zettelkatalog eingelegt werden konnten. Arbeitsteilung und Standardisierung als Lösung Doch auch die Karteikarte als Datenträger war der steigenden Buchproduktion nicht dauerhaft gewachsen. Sie blieb ein fragiles Rechercheinstrument, das zum Schutz vor Manipulation Fachpersonal vorbehalten blieb. Aufgrund der physischen Begrenztheit von Karte und Kasten waren Regeln zur Reduktion der Datenmenge notwendig und für gewöhnlich waren die Leser gezwungen, ihre Suche mit Fragen nach Verfasser und Thema zu beginnen. Eine Vernetzung der Informationen und zusätzliche Sucheinstiege erreichte man nur durch die Einführung von Verweisungssystemen und Klassifikationen. Deren weltweit bekannteste, die Dewey Decimal Classification von 1876, erlaubt dank ihrer weiten Verbreitung die Recherche über sehr große und verteilte Datenbestände. Big Data beschäftigt Bibliotheken schon lange und die Datenspeicherung auf Pappkarten stellte für das Information Retrieval (computergestützte Suche nach komplexen Inhalten) in den 1970er Jahren nur eines von mehreren Problemen dar. Auf eine einheitliche Aufbereitung der Informationen war auch die elektronische Datenverarbeitung angewiesen und führte Mitte der 1980er Jahre zur Einführung normierter Vokabularien für die Erschließung. Ein abgestimmtes und arbeitsteiliges Vorgehen ist durch die Ende der 1990er Jahre beginnende Langzeitverfügbarkeit ist eine Gemeinschaftsaufgabe Den Weg in die Zukunft weisen uns wiederum Strategien aus der Vergangenheit. Um die sprunghaft gewachsene Datenmenge für die Zukunft aufzubewahren, wird sie wie Bücher nach dem Motto Lots Of Copies Keep Stuff Safe in mehreren Exemplaren an verschiedenen Orten gesichert. Der begrenzten Haltbarkeit der elektronischen Trägermedien versucht man durch eine fortlaufende Migration der Daten in neue Speicher zu begegnen, vergleichbar der ständigen Neuauflage und Abschrift von Texten. Und damit die Daten nicht nur erhalten, sondern auch unter veränderten technischen Bedingungen benutzbar bleiben, kommen offene Dokumentenformate zum Einsatz, deren Interpretation ohne herstellergebundene Software auskommt. Denn verschlüsselte Informationen können nur mit größter Mühe gerettet werden, wenn die Sprache in Vergessenheit gerät, in der die Daten kodiert wurden. Nicht zufällig wurden Projekte für diese Herkulesaufgabe nach mythischen Figuren ( Nestor ) oder dem Schlüssel zur Entzifferung der Hieroglyphen ( Rosetta ) benannt. Die Langzeitverfügbarkeit von Big Data kann darum nur gemeinschaftlich gelingen und erfordert neben zentralen Strukturen die Mitarbeit aller. Von Beginn an müssen alle Daten mit Hilfe von Ontologien homogen formuliert und verknüpft werden, damit sie maschinell verarbeitbar sind und ihr Sinngehalt erhalten bleibt. Und darum gehen nun alle Bibliotheken erneut daran, ihre riesigen Informationsspeicher für die Zukunft fit zu machen. Christian Knoop Stellvertretender Leiter der Bibliothek des Deutschen Museums, 19

20 Schwerpunkt Big Data Verwendungsmöglichkeiten räumlicher Daten zur Unterstützung von komplexen Analysen Durch die Hardware- und Softwareentwicklung und der Speichermedien ist es möglich erheblich mehr Daten elektronisch zu verarbeiten und performant bereit zu stellen. Dabei kann es sich um selbst erzeugte Informationen aber auch um Verknüpfungen aus anderen Quellen handeln (z.b. Google-Maps, Facebook, usw.). Wobei die Daten sowohl in strukturierter (z.b. Buchungen) als auch in unstrukturierte Form (z.b. Einträge in sozialen Netzwerken) vorliegen können. Die Zusammenführung von großen Datenbeständen und die daraus resultierenden Möglichkeiten zu komplexe Analysen, werden im Allgemeinen als Big Data bezeichnet. aus 3 unter Linux-64bit Rechenknoten mit jeweils 128GB Hauptspeicher und 2 CPU s, welche eine hohe Ausfallsicherheit und eine bessere Verteilung der Rechenlast ermöglichen. Die Knoten sind ebenfalls auf zwei Serverräume verteilt. Der Zugriff auf die Plattensysteme wird über NFS (Network-File-System) realisiert. Die Größe des derzeitigen Datawarehouses (Datenbank) beträgt zurzeit ca. 1 Terabyte. Abb. 1: Beispiel einer Visualisierung von komplexen Analysen. Dargestellt werden Kernzonen und Erreichbarkeit der Notarztdienste. Ergänzend werden die Notarztdienstbereiche und das Notarztaufkommen auf Ebene der Gemeindeteile angezeigt. Viele Daten und Informationen, die in Datenbanken verarbeitet werden, weisen einen räumlichen Bezug auf. Dabei gewinnt die verständliche Visualisierung komplexer räumlicher Zusammenhänge bei vielen Entscheidungsprozessen an Bedeutung. Bei der Analyse und Darstellung von Ergebnissen und Fakten bietet der Bezug auf räumliche Daten entscheidende Vorteile. Dies gilt bereits für einfache Fragestellungen; beispielsweise: Wo liegen meine Kunden? oder Wie verteilen sich die Patientenaufnahmen über die Kliniken in Bayern? Das Institut für Notfallmedizin und Medizinmanagement (INM) beschäftigt sich als interdisziplinäre Einrichtung des Klinikums der Universität u.a. mit Fragestellungen der Qualitätssicherung im Bereich des Rettungsdienstwesens. Im Rahmen der Trendund Strukturanalyse des Rettungsdienstes in Bayern (TRUST), in Auftrag gegeben vom 20 Bayerischen Staatsministerium des Innern und den Sozialversicherungsträgern, werden seit 1998 alle bayerischen Rettungsdienstbereiche einer wissenschaftlichen Begutachtung in Form einer Struktur- und Bedarfsanalyse, sowie einer Wirtschaftlichkeits- und Trendanalyse unterzogen. Grundlage für die Untersuchung sind die Einsatzdaten der 26 bayerischen Leitstellen, die seit Beginn der Studie kontinuierlich an das INM übermittelt werden. Technische Umsetzung Sämtliche Daten Einsatzdaten, Metadaten, räumliche Daten, Auswertungen etc. werden zentral in einer ORACLE-Cluster Datenbank ( RAC Enterprise-Edition) gehalten. Als Speicherbasis dient ein Netapp-Metro Cluster (FAS-3240). Platten und Steuerungsköpfe liegen redundant vor und sind auf zwei Serverräume verteilt. Der Clusterverbund besteht weiterhin Datenbasis Sämtliche Einsatzdaten aus den Bayerischen Leitstellen werden regelmäßig ins Datawarehouse des INM eingespielt und einer komplexen Qualitätssicherung unterzogen. Dabei bildet das Prinzip ETL Extract Transform Load eine entscheidende Grundlage. Die Daten werden aus heterogenen Systemen extrahiert, durch Transformation an die Struktur des Datawarehouses angepasst und schließlich (fehlerbereinigt) geladen. Neben den reinen Einsatzdaten werden zusätzliche Metadaten Rettungsdienststandorte, Betreiber, Fahrzeuge und deren Verfügbarkeit, Landkreise, Gemeinden, Einwohner, etc. gespeichert. Die Visualisierung der Ergebnisse und Analysen erfolgt u.a. über Oracle MapViewer. Die zugrunde liegenden räumlichen Datengrenzen der administrativen Einheiten (z.b. Gemeinden), rettungsdienstliche Strukturen (z.b. Rettungsdienststandorte, Kliniken), routingfähiges Straßennetz etc.) liegen ebenfalls in unterschiedlichen Oracle-Datenbankschemen. Die Nutzung von Oracle Spatial eine Zusatzoption zur Oracle Database 11g, Enterprise Edition ermöglicht zusätzlich die Verwaltung von raumbezogenen Daten, sowohl Vektor- als auch Rasterdaten. Sämtliche Daten liegen dabei in relationaler Form dar.

Big Data Herausforderungen für Rechenzentren

Big Data Herausforderungen für Rechenzentren FINANCIAL INSTITUTIONS ENERGY INFRASTRUCTURE, MINING AND COMMODITIES TRANSPORT TECHNOLOGY AND INNOVATION PHARMACEUTICALS AND LIFE SCIENCES Big Data Herausforderungen für Rechenzentren RA Dr. Flemming Moos

Mehr

Maximieren Sie Ihr Informations-Kapital

Maximieren Sie Ihr Informations-Kapital Maximieren Sie Ihr Informations-Kapital Zürich, Mai 2014 Dr. Wolfgang Martin Analyst, Mitglied im Boulder BI Brain Trust Maximieren des Informations-Kapitals Die Digitalisierung der Welt: Wandel durch

Mehr

Was ist Big Data? Versuch einer Positionsbestimmung. Wolfgang Marquardt

Was ist Big Data? Versuch einer Positionsbestimmung. Wolfgang Marquardt Was ist Big Data? Versuch einer Positionsbestimmung Wolfgang Marquardt Vorstandsvorsitzender des Forschungszentrum Jülich 02.06.2015 Jahrestagung des deutschen Ethikrates Ganz sicher auch ein Hype hohe

Mehr

BIG DATA - BIG OPPORTUNITIES

BIG DATA - BIG OPPORTUNITIES BIG DATA - BIG OPPORTUNITIES eday: 2014 Wien, 6. März 2014 EBA Executive Business Advice GmbH 1120 Wien, Am Euro Platz 2, Gebäude G Tel.: +43 1 71728 172 Email: office@eba-business.at www.eba-business.at

Mehr

Big Data Herausforderungen und Chancen für Controller. ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data Herausforderungen und Chancen für Controller. ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data Herausforderungen und Chancen für Controller ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC BARC: Expertise für datengetriebene Organisationen Beratung Strategie

Mehr

Von Big Data zu Smart Data

Von Big Data zu Smart Data Von Big Data zu Smart Data mit Technologieförderung des BMWi Big Data Summit BITKOM-Konferenz; Bonn, 24.06.2013 Dr. Andreas Goerdeler Unterabteilungsleiter Informationsgesellschaft; Medien Bundesministerium

Mehr

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd.

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd. Warum viele Daten für ein smartes Unternehmen wichtig sind Gerald AUFMUTH IBM Client Technical Specialst Data Warehouse Professional Explosionsartige Zunahme an Informationen Volumen. 15 Petabyte Menge

Mehr

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data: Nutzen und Anwendungsszenarien CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data steht für den unaufhaltsamen Trend, dass immer mehr Daten in Unternehmen anfallen und von

Mehr

Unternehmen und IT im Wandel: Mit datengetriebenen Innovationen zum Digital Enterprise

Unternehmen und IT im Wandel: Mit datengetriebenen Innovationen zum Digital Enterprise Unternehmen und IT im Wandel: Mit datengetriebenen Innovationen zum Digital Enterprise Software AG Innovation Day 2014 Bonn, 2.7.2014 Dr. Carsten Bange, Geschäftsführer Business Application Research Center

Mehr

DATEN - Das Gold des 21. Jahrhunderts? Dr. Oliver Riedel, AUDI AG

DATEN - Das Gold des 21. Jahrhunderts? Dr. Oliver Riedel, AUDI AG DATEN - Das Gold des 21. Jahrhunderts? Dr. Oliver Riedel, AUDI AG Inhalt Globale und unternehmensspezifische Herausforderungen Von Big Data zu Smart Data Herausforderungen und Mehrwert von Smart Data 2

Mehr

SAS Analytics bringt SAP HANA in den Fachbereich

SAS Analytics bringt SAP HANA in den Fachbereich Pressemitteilung Hamburg, 08. November 2013 SAS Analytics bringt SAP HANA in den Fachbereich Ergonomie kombiniert mit Leistungsfähigkeit: die BI-Experten der accantec group geben der neuen Partnerschaft

Mehr

Datability. Prof. Dieter Kempf, Präsident BITKOM Oliver Frese, Vorstand Deutsche Messe AG. Hannover, 9. März 2014

Datability. Prof. Dieter Kempf, Präsident BITKOM Oliver Frese, Vorstand Deutsche Messe AG. Hannover, 9. März 2014 Datability Prof. Dieter Kempf, Präsident BITKOM Oliver Frese, Vorstand Deutsche Messe AG Hannover, 9. März 2014 Bürger fordern verantwortungsvollen Umgang mit Daten Inwieweit stimmen Sie den folgenden

Mehr

Big Data Wer gewinnt, wer verliert? Köln Revolvermänner AG

Big Data Wer gewinnt, wer verliert? Köln Revolvermänner AG Big Data Wer gewinnt, wer verliert? Düsseldorf 16.06.2015 Köln 10.09.2015 Bernd Fuhlert - Vorstand Revolvermänner AG Fast 10 Jahre Expertise in den Bereichen Online- Krisenkommunikation, IT-Sicherheit,

Mehr

BIG DATA Impulse für ein neues Denken!

BIG DATA Impulse für ein neues Denken! BIG DATA Impulse für ein neues Denken! Wien, Januar 2014 Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust The Age of Analytics In the Age of Analytics, as products and services become

Mehr

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

Datenschutzrechtliche Anforderungen an Big- Data Konzepte

Datenschutzrechtliche Anforderungen an Big- Data Konzepte Datenschutzrechtliche Anforderungen an Big- Data Konzepte Datenschutztag 2015, Köln 23 September 2015 Kathrin Schürmann, Rechtsanwältin 1 2015 ISiCO Datenschutz GmbH All rights reserved Big Data Ein Definitionsversuch:

Mehr

Executive Summary BIG DATA Future Chancen und Herausforderungen für die deutsche Industrie

Executive Summary BIG DATA Future Chancen und Herausforderungen für die deutsche Industrie Executive Summary BIG DATA Future Chancen und Herausforderungen für die deutsche Industrie BIG DATA Future Opportunities and Challanges in the German Industry Zusammenfassung Die Menge der verfügbaren

Mehr

BIG DATA Herausforderungen für den Handel

BIG DATA Herausforderungen für den Handel BIG DATA Herausforderungen für den Handel RA Adrian Süess, LL.M., Zürich Bühlmann Rechtsanwälte AG www.br-legal.ch 1 2 1 Überblick Worum geht s. Big Data. Was ist Big Data. Beschaffung und Bearbeitung

Mehr

TeleTrusT-interner Workshop. Nürnberg, 21./22.06.2012. Ammar Alkassar Sirrix AG/TeleTrusT

TeleTrusT-interner Workshop. Nürnberg, 21./22.06.2012. Ammar Alkassar Sirrix AG/TeleTrusT Der IT-Sicherheitsverband e.v. TeleTrusT-interner Workshop Nürnberg, 21./22.06.2012 Ammar Alkassar Sirrix AG/TeleTrusT Cyberwar, Bring Your Own Device, Big Data: Quo Vadis IT-Security? TeleTrusT Bundesverband

Mehr

Business Intelligence - Wie passt das zum Mainframe?

Business Intelligence - Wie passt das zum Mainframe? Business Intelligence - Wie passt das zum Mainframe? IBM IM Forum, 15.04.2013 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Ressourcen bei BARC für Ihr Projekt Durchführung von internationalen Umfragen,

Mehr

Industry 4.0 smarte Maschinen, smarte Industrie. Basel, 20. Oktober 2015 dieter.fischer@fhnw.ch IBE - Institut für Business Engineering der fhnw

Industry 4.0 smarte Maschinen, smarte Industrie. Basel, 20. Oktober 2015 dieter.fischer@fhnw.ch IBE - Institut für Business Engineering der fhnw Industry 4.0 smarte Maschinen, smarte Industrie Basel, 20. Oktober 2015 dieter.fischer@fhnw.ch IBE Institut für Business Engineering der fhnw Inhalt meines Beitrages Ziel: Ist Industry 4.0 nur ein «smarter»

Mehr

Health Insurance Days Künstliche Intelligenz Relevanz für die Krankenversicherung? Otto Bitterli, CEO Sanitas Interlaken, 23.

Health Insurance Days Künstliche Intelligenz Relevanz für die Krankenversicherung? Otto Bitterli, CEO Sanitas Interlaken, 23. Health Insurance Days Künstliche Intelligenz Relevanz für die Krankenversicherung? Otto Bitterli, CEO Sanitas Interlaken, 23. April 2015 Agenda Was wir unter künstlicher Intelligenz 1 verstehen - Breites

Mehr

Das Internet der Dinge

Das Internet der Dinge Das Internet der Dinge Peter Mengel 15. September 2015 Definition IoT Geprägt wurde der Begriff 1999 vom britischen Technologie-Pionier und Mitbegründer des Auto-ID-Centers des Massachusetts Institute

Mehr

BIG DATA. Herausforderungen für den Handel. RA Adrian Süess, LL.M., Zürich Bühlmann Rechtsanwälte AG www.br-legal.ch

BIG DATA. Herausforderungen für den Handel. RA Adrian Süess, LL.M., Zürich Bühlmann Rechtsanwälte AG www.br-legal.ch BIG DATA Herausforderungen für den Handel RA Adrian Süess, LL.M., Zürich Bühlmann Rechtsanwälte AG www.br-legal.ch 1 2 Überblick Worum geht s. Was ist Big Data. Beschaffung und Bearbeitung von Datensätzen.

Mehr

Digitale Transformation: BI und Big Data treiben neue Geschäftsmodelle. CeBIT, 18.3.2015 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Digitale Transformation: BI und Big Data treiben neue Geschäftsmodelle. CeBIT, 18.3.2015 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Digitale Transformation: BI und Big Data treiben neue Geschäftsmodelle CeBIT, 18.3.2015 Dr. Carsten Bange, Gründer und Geschäftsführer BARC BARC: Expertise für datengetriebene Unternehmen Beratung Strategie

Mehr

Thementisch Anwendungsgebiete und

Thementisch Anwendungsgebiete und Thementisch Anwendungsgebiete und b Erfolgsgeschichten KMUs und Big Data Wien 08. Juni 2015 Hermann b Stern, Know-Center www.know-center.at Know-Center GmbH Know-Center Research Center for Data-driven

Mehr

10 Wege, wie Sie Ihr Social Media Monitoring ausbauen können

10 Wege, wie Sie Ihr Social Media Monitoring ausbauen können 10 Wege, wie Sie Ihr Social Media Monitoring ausbauen können Folgende Fragen, die Sie sich zuerst stellen sollten: 1. Welche Social-Media-Monitoring-Plattformen (SMM) schneiden am besten ab? 2. Ist dafür

Mehr

Institut für angewandte Informationstechnologie (InIT)

Institut für angewandte Informationstechnologie (InIT) School of Engineering Institut für angewandte Informationstechnologie (InIT) We ride the information wave Zürcher Fachhochschule www.init.zhaw.ch Forschung & Entwicklung Institut für angewandte Informationstechnologie

Mehr

Foto: violetkaipa - Fotolia

Foto: violetkaipa - Fotolia Die D kön Foto: violetkaipa - Fotolia 10 IT-Trend Big Data atenflut steigt wie nen wir sie nutzen? Ständig erhöht sich die Masse der uns umgebenden Daten, Informationen werden immer schneller generiert.

Mehr

Trends und Entwicklungen in der ICT Branche Chancen und Herausforderungen. Urs Schaeppi CEO Swisscom AG

Trends und Entwicklungen in der ICT Branche Chancen und Herausforderungen. Urs Schaeppi CEO Swisscom AG Trends und Entwicklungen in der ICT Branche Chancen und Herausforderungen Urs Schaeppi CEO Swisscom AG «Ich sehe eine Schweiz, in der auch besondere Orte das beste Netz haben.» Mehr Möglichkeiten fu r

Mehr

Big Data Vom Hype zum Geschäftsnutzen

Big Data Vom Hype zum Geschäftsnutzen Big Data Vom Hype zum Geschäftsnutzen IBM IM Forum, Berlin, 16.04.2013 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Hype 15.04.2013 BARC 2013 2 1 Interesse an Big Data Nature 09-2008 Economist 03-2010

Mehr

Big Data als Ökosystem datengetriebener Unternehmen

Big Data als Ökosystem datengetriebener Unternehmen Big Data als Ökosystem datengetriebener Unternehmen Präsentation im CINIQ Center for Data and Information Intelligence, Fraunhofer Heinrich-Hertz-Institut in Berlin 10.09.2013 von Dr. Peter Lauf Zur Person

Mehr

Die Marktsituation heute und die Position von FUJITSU

Die Marktsituation heute und die Position von FUJITSU Die Marktsituation heute und die Position von FUJITSU Rupert Lehner Head of Sales Region Germany 34 Copyright 2011 Fujitsu Technology Solutions Marktentwicklung im Jahr 2011 Der weltweite IT-Markt im Jahr

Mehr

Der starke Partner für Ihre IT-Umgebung.

Der starke Partner für Ihre IT-Umgebung. Der starke Partner für Ihre IT-Umgebung. Leistungsfähig. Verlässlich. Mittelständisch. www.michael-wessel.de IT-Service für den Mittelstand Leidenschaft und Erfahrung für Ihren Erfolg. Von der Analyse

Mehr

Willkommen im Wandel. Ihr persönlicher Social ECM Guide

Willkommen im Wandel. Ihr persönlicher Social ECM Guide Willkommen im Wandel. Ihr persönlicher Social ECM Guide Was kann Social ECM? Trends wie Cloud Computing, soziale Netzwerke oder mobiles Arbeiten verändern Bedürfnisse und schaffen neue Herausforderungen

Mehr

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen 01000111101001110111001100110110011001 Volumen 10 x Steigerung des Datenvolumens alle fünf Jahre Big Data Entstehung

Mehr

Big Data in der Medizin

Big Data in der Medizin Big Data in der Medizin Gesundheitsdaten und Datenschutz Dr. Carola Drechsler Sommerakademie 2013 Inhalt Was bedeutet Big Data? Welche datenschutzrechtlichen Fragestellungen sind zu berücksichtigen? Welche

Mehr

CODE_n sucht die Big-Data-Avantgarde Internationaler Start-up-Wettbewerb macht Big Data auf der CeBIT 2014 erlebbar

CODE_n sucht die Big-Data-Avantgarde Internationaler Start-up-Wettbewerb macht Big Data auf der CeBIT 2014 erlebbar CODE_n sucht die Big-Data-Avantgarde Internationaler Start-up-Wettbewerb macht Big Data auf der CeBIT 2014 erlebbar Zürich, 2. August 2013 CODE_n wird Big! In der neuesten Ausgabe des globalen Innovationswettbewerbs

Mehr

Top 10 der Business Intelligence-Trends für 2014

Top 10 der Business Intelligence-Trends für 2014 Top 10 der Business Intelligence-Trends für 2014 Das Ende der Datenexperten. Datenwissenschaft kann künftig nicht nur von Experten, sondern von jedermann betrieben werden. Jeder normale Geschäftsanwender

Mehr

SAP HANA eine Plattform für innovative Anwendungen

SAP HANA eine Plattform für innovative Anwendungen SAP HANA eine Plattform für innovative Anwendungen Top Intelligence: Big Data & SAP HANA Zürich, Frankfurt, Hamburg, München, Mülheim/R Februar 2014 Dr. Wolfgang Martin Analyst und Mitglied im Boulder

Mehr

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

Wird BIG DATA die Welt verändern?

Wird BIG DATA die Welt verändern? Wird BIG DATA die Welt verändern? Frankfurt, Juni 2013 Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust Big Data Entmythisierung von Big Data. Was man über Big Data wissen sollte. Wie

Mehr

Business Analytics verbessert die Wertschöpfungskette

Business Analytics verbessert die Wertschöpfungskette Pressemitteilung Hamburg, 05. September 2013 Business Analytics verbessert die Wertschöpfungskette accantec zeigt auf dem SAS Forum in Mannheim vom 11.- 12.09.2013, wie Unternehmen mit SAS Visual Analytics

Mehr

Cloud Computing in Industrie 4.0 Anwendungen: Potentiale und Herausforderungen

Cloud Computing in Industrie 4.0 Anwendungen: Potentiale und Herausforderungen Cloud Computing in Industrie 4.0 Anwendungen: Potentiale und Herausforderungen Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftsingenieur der Fakultät

Mehr

CODE_n sucht die Big-Data-Avantgarde Internationaler Start-up-Wettbewerb macht Big Data auf der CeBIT 2014 erlebbar

CODE_n sucht die Big-Data-Avantgarde Internationaler Start-up-Wettbewerb macht Big Data auf der CeBIT 2014 erlebbar CODE_n sucht die Big-Data-Avantgarde Internationaler Start-up-Wettbewerb macht Big Data auf der CeBIT 2014 erlebbar Stuttgart, 31. Juli 2013 CODE_n wird Big! In der neuesten Ausgabe des globalen Innovationswettbewerbs

Mehr

Der Gartner Hype Cycle als. prognostischer Hintergrund

Der Gartner Hype Cycle als. prognostischer Hintergrund Der Gartner Hype Cycle als 2 prognostischer Hintergrund Die Digitale Revolution steht nicht bevor, sondern sie entfaltet in vielen Bereichen schon die Kraft der schöpferischen Zerstörung. Eine wichtige

Mehr

Technologieförderschwerpunkt des BMWi

Technologieförderschwerpunkt des BMWi Forschungsbereich Konvergente IKT - Technologieförderschwerpunkt des BMWi Überblick, Trends, Perspektiven Future Internet PPP 22.5.2013 Dr. Alexander Tettenborn Referatsleiter Entwicklung konvergenter

Mehr

DATENSCHUTZRECHTLICHE ANFORDERUNGEN

DATENSCHUTZRECHTLICHE ANFORDERUNGEN DATENSCHUTZRECHTLICHE ANFORDERUNGEN AN BIG DATA KONZEPTE KATHRIN SCHÜRMANN, RECHTSANWÄLTIN Big Data Ein Definitionsversuch: Big Data bezeichnet die wirtschaftliche sinnvolle Gewinnung und Nutzung entscheidungsrelevanter

Mehr

Prognosen via Datenanalyse Predictive Analytics: Darauf müssen Unternehmen achten

Prognosen via Datenanalyse Predictive Analytics: Darauf müssen Unternehmen achten Prognosen via Datenanalyse Predictive Analytics: Darauf müssen Unternehmen achten von Jürgen Mauerer Foto: Avantum Consult AG Seite 1 von 21 Inhalt Mehrwert aufzeigen nach Analyse des Geschäftsmodells...

Mehr

Der Energiesektor im Wandel. 10. Mai 2012

Der Energiesektor im Wandel. 10. Mai 2012 Der Energiesektor im Wandel 10. Mai 2012 Der Energiesektor im Wandel: Was sind die wesentlichen Herausforderungen Heute und Morgen? Riesige Datenmengen! Klimawandel Marktliberalisierung Statt einem Zählerstand

Mehr

Die Zukunft des Melderegisters in Sozialen Medien oder als Open Data?

Die Zukunft des Melderegisters in Sozialen Medien oder als Open Data? Die Zukunft des Melderegisters in Sozialen Medien oder als Open Data? Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein 12. Mai 2012 Anzusprechende Themen: Open Data vs. Meldegeheimnis Datenschutzrechtlich

Mehr

Hürde für Industrie 4.0 produzierendes Gewerbe verkennt die Chancen von Big Data

Hürde für Industrie 4.0 produzierendes Gewerbe verkennt die Chancen von Big Data Unternehmen Hürde für Industrie 4.0 produzierendes Gewerbe verkennt die Chancen von Big Data Ein Drittel aller mittelständischen Fertigungsunternehmen glaubt nicht an den Nutzen von Big Data Automotive-Branche

Mehr

Kunden im Dickicht der sozialen Netzwerke finden und binden - Content-Pushen ist out, eine perfekte Context- Strategie entscheidet über Ihren Erfolg

Kunden im Dickicht der sozialen Netzwerke finden und binden - Content-Pushen ist out, eine perfekte Context- Strategie entscheidet über Ihren Erfolg Kunden im Dickicht der sozialen Netzwerke finden und binden - Content-Pushen ist out, eine perfekte Context- Strategie entscheidet über Ihren Erfolg 1. Kunden finden Kunden verstehen Kunden binden... und

Mehr

Industrie 4.0 und der Mittelstand

Industrie 4.0 und der Mittelstand a.tent.o-zeltsysteme 16. September 2015 Classic Remise Düsseldorf Industrie 4.0 und der Mittelstand Fraunhofer Seite 1 INDUSTRIE 4.0 FÜR DEN MITTELSTAND Dipl.-Ing. H.-G. Pater Industrie 4.0 : ERP und KMU

Mehr

EMC. Data Lake Foundation

EMC. Data Lake Foundation EMC Data Lake Foundation 180 Wachstum unstrukturierter Daten 75% 78% 80% 71 EB 106 EB 133 EB Weltweit gelieferte Gesamtkapazität Unstrukturierte Daten Quelle März 2014, IDC Structured vs. Unstructured

Mehr

Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics 10.45 11.15

Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics 10.45 11.15 9.30 10.15 Kaffee & Registrierung 10.15 10.45 Begrüßung & aktuelle Entwicklungen bei QUNIS 10.45 11.15 11.15 11.45 Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics

Mehr

Business Analytics in der Big Data-Welt

Business Analytics in der Big Data-Welt Business Analytics in der Big Data-Welt Frankfurt, Juni 2014 Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust Big Data-Analytik "The way I look at big data analytics is it's not a technology,

Mehr

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zettabyte CeBIT 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zetabyte: analytische Datenbanken Die Datenflut. Analytische Datenbanken: Was ist neu? Analytische Datenbanken:

Mehr

Big Data & High-Performance Analytics: Anwendungsszenarien

Big Data & High-Performance Analytics: Anwendungsszenarien Big Data & High-Performance Analytics: Anwendungsszenarien Dr. Thomas Keil, Program Manager Business Analytics Frankfurt 26.4.2012 McKinsey-Studie zeigt Big Value Quelle: McKinsey Global Institute, May

Mehr

Data. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired

Data. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired make connections share ideas be inspired Data Guido Oswald Solution Architect @SAS Switzerland BIG Data.. Wer? BIG Data.. Wer? Wikipedia sagt: Als Big Data werden besonders große Datenmengen bezeichnet,

Mehr

Big Data Was ist erlaubt - wo liegen die Grenzen?

Big Data Was ist erlaubt - wo liegen die Grenzen? Big Data Was ist erlaubt - wo liegen die Grenzen? mag. iur. Maria Winkler Themen Kurze Einführung ins Datenschutzrecht Datenschutzrechtliche Bearbeitungsgrundsätze und Big Data Empfehlungen für Big Data

Mehr

Impulsstatement: Methoden und Ziele der massenhaften Sammlung von Daten

Impulsstatement: Methoden und Ziele der massenhaften Sammlung von Daten Impulsstatement: Methoden und Ziele der massenhaften Sammlung von Daten Prof. Dr. Michael Waidner Fraunhofer-Institut für Sichere Informationstechnologie SIT und Technische Universität Darmstadt Expertentagung»Gegen

Mehr

Wie schafft der deutsche Mittelstand den digitalen Wandel?

Wie schafft der deutsche Mittelstand den digitalen Wandel? Wie schafft der deutsche Mittelstand den digitalen Wandel? Überblick, Bestandsaufnahme und Perspektiven Prof. Dr. Christian Schalles Duale Hochschule Baden-Württemberg Person Prof. Dr. Christian Schalles

Mehr

Executive Briefing. Big Data und Business Analytics für Kunden und Unternehmen. In Zusammenarbeit mit. Executive Briefing. In Zusammenarbeit mit

Executive Briefing. Big Data und Business Analytics für Kunden und Unternehmen. In Zusammenarbeit mit. Executive Briefing. In Zusammenarbeit mit Big Data und Business Analytics für Kunden und Unternehmen Umfangreiche und ständig anwachsende Datenvolumen verändern die Art und Weise, wie in zahlreichen Branchen Geschäfte abgewickelt werden. Da immer

Mehr

DISCOVER BIG DATA & PREDICTIVE ANALYTICS DISCOVER INSIGHTS

DISCOVER BIG DATA & PREDICTIVE ANALYTICS DISCOVER INSIGHTS BIG DATA & PREDICTIVE ANALYTICS BIG DATA & PREDICTIVE ANALYTICS Turn communication into usable data. In einer zunehmend vernetzten, digitalen Service-Ökonomie müssen Sie die Wünsche Ihrer Kunden laufend

Mehr

Creating your future. IT. αacentrix

Creating your future. IT. αacentrix Creating your future. IT. αacentrix We bring IT into Business Context Creating your future. IT. Wir sind eine Strategie- und Technologieberatung mit starkem Fokus auf die IT-Megatrends Cloud, Mobility,

Mehr

April 10, 2012 CLOUD SERVICES WEGE ZU EINEM BÜRGERZENTRIERTEN GESUNDHEITSMANAGEMENT

April 10, 2012 CLOUD SERVICES WEGE ZU EINEM BÜRGERZENTRIERTEN GESUNDHEITSMANAGEMENT April 10, 2012 CLOUD SERVICES WEGE ZU EINEM BÜRGERZENTRIERTEN GESUNDHEITSMANAGEMENT Bedeutung der Cloud-Technologie 2 Als neues Schlagwort der Informationstechnik ist "Cloud Computing" in aller Munde,

Mehr

Prozess- und Datenmanagement Kein Prozess ohne Daten

Prozess- und Datenmanagement Kein Prozess ohne Daten Prozess- und Datenmanagement Kein Prozess ohne Daten Frankfurt, Juni 2013 Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust Prozess- und Datenmanagement Erfolgreiche Unternehmen sind Prozessorientiert.

Mehr

Unsere Datenschutzerklärung

Unsere Datenschutzerklärung Unsere Datenschutzerklärung Cookies Das Akzeptieren von Cookies ist keine Voraussetzung zum Besuch unserer Webseiten. Jedoch weisen wir Sie darauf hin, dass die Nutzung der Warenkorbfunktion und die Bestellung

Mehr

Big Data, Cloud und Industrie 4.0 Potenziale und Risiken. Stuttgart 26.02.2015 Alexander Hofmann

Big Data, Cloud und Industrie 4.0 Potenziale und Risiken. Stuttgart 26.02.2015 Alexander Hofmann Big Data, Cloud und Industrie 4.0 Potenziale und Risiken Stuttgart 26.02.2015 Alexander Hofmann Agenda 1. Industrie 4.0 2. Zusammenhang zwischen Industrie 4.0 und Informationstechnologie (IT) 3. Informationstechnologische

Mehr

Unternehmen wissen zu wenig über ihre Kunden! Ergebnisse der Online-Umfrage. Management Summary

Unternehmen wissen zu wenig über ihre Kunden! Ergebnisse der Online-Umfrage. Management Summary Unternehmen wissen zu wenig über ihre Kunden! Ergebnisse der Online-Umfrage Management Summary Management Summary Kunden - Erfolgsfaktor Nummer 1 Es ist mittlerweile ein offenes Geheimnis, dass Unternehmen

Mehr

Die richtige Cloud für Ihr Unternehmen.

Die richtige Cloud für Ihr Unternehmen. Die richtige Cloud für Ihr Unternehmen. Das ist die Microsoft Cloud. Jedes einzelne Unternehmen ist einzigartig. Ob Gesundheitswesen oder Einzelhandel, Produktion oder Finanzwesen keine zwei Unternehmen

Mehr

Berliner Beauftragter für Datenschutz und Informationsfreiheit Datenschutz und Big Data Potenziale und Grenzen

Berliner Beauftragter für Datenschutz und Informationsfreiheit Datenschutz und Big Data Potenziale und Grenzen Datenschutz und Big Data Potenziale und Grenzen Dr. Alexander Dix Berliner Beauftragter für Datenschutz und Informationsfreiheit Big Data im Public Sector führungskräfte forum Berlin, 20. Februar 2014

Mehr

Big Data Vom Buzzword zum Benefit

Big Data Vom Buzzword zum Benefit Fachbereich Informatik Big Data Vom Buzzword zum Benefit Handelskammer - Wirtschaft trifft Wissenschaft Prof. Dr. Tilo Böhmann tb_itmc Universität Hamburg Fachbereich Informatik ca. 10% 2015 Prof. Dr.

Mehr

Infoblatt Security Management

Infoblatt Security Management NCC Guttermann GmbH Wolbecker Windmühle 55 48167 Münster www.nccms.de 4., vollständig neu bearbeitete Auflage 2014 2013 by NCC Guttermann GmbH, Münster Umschlag unter Verwendung einer Abbildung von 123rf

Mehr

Ab in den Himmel: Was kommt jenseits der Cloud? 20 R. Altenhöner Ab in den Himmel: Was kommt jenseits der Cloud? 04.6.2014 Bibliothekartag 2014

Ab in den Himmel: Was kommt jenseits der Cloud? 20 R. Altenhöner Ab in den Himmel: Was kommt jenseits der Cloud? 04.6.2014 Bibliothekartag 2014 Ab in den Himmel: Was kommt jenseits der Cloud? 1 20 R. Altenhöner Ab in den Himmel: Was kommt jenseits der Cloud? 04.6.2014 Bibliothekartag 2014 Inhalt 1. Einleitung / Motivation 2. Cloud ein bisschen

Mehr

MIT DATEN. TDWI Konferenz SCHAFFEN REPORT 2015. Peter Heidkamp (KPMG) Franz Grimm (Bitkom Research) München, 22. Juni 2015

MIT DATEN. TDWI Konferenz SCHAFFEN REPORT 2015. Peter Heidkamp (KPMG) Franz Grimm (Bitkom Research) München, 22. Juni 2015 TDWI Konferenz Peter Heidkamp (KPMG) Franz Grimm (Bitkom Research) MIT DATEN WERTE SCHAFFEN REPORT 2015 München, 22. Juni 2015 WIE MACHE ICHAUS EINSEN UND NULLEN DAS EINS ZU NULL FÜR MICH? 01 EINSTELLUNG

Mehr

Gegenwart und Zukunft

Gegenwart und Zukunft Gegenwart und Zukunft von Big Data Dieter Kranzlmüller Munich Network Management Team Ludwig Maximilians Universität München (LMU) & Leibniz Rechenzentrum (LRZ) der Bayerischen Akademie der Wissenschaften

Mehr

Caine Delacy / Stocksy United. Big Data Summit 2016. Call for Papers

Caine Delacy / Stocksy United. Big Data Summit 2016. Call for Papers Caine Delacy / Stocksy United Big Data Summit 2016 Call for Papers Big Data Summit 2016 2 1 Vortragsangebote erbetene Informationen Vortragsangebote sollten sich an den Leitthemen des Kongresses orientieren.

Mehr

Visual Business Analytics Visueller Zugang zu Big Data

Visual Business Analytics Visueller Zugang zu Big Data Visual Business Analytics Visueller Zugang zu Big Data Dr.-Ing. Jörn Kohlhammer Fraunhofer-Institut für Graphische Datenverarbeitung (IGD) Fraunhoferstraße 5 64283 Darmstadt Tel.: +49 6151 155-646 Fax:

Mehr

Potenziale von Industrie 4.0 im Mittelstand Empfehlungen aus der aktuellen BMWi-Studie

Potenziale von Industrie 4.0 im Mittelstand Empfehlungen aus der aktuellen BMWi-Studie Potenziale von Industrie 4.0 im Mittelstand Empfehlungen aus der aktuellen BMWi-Studie Dr. Jürgen Bischoff, agiplan GmbH Synergieworkshop Industrie 4.0 im Mittelstand am 30. Juni 2015 Synergieworkshop

Mehr

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht Big-Data-Technologien - Überblick - Quelle: http://www.ingenieur.de/panorama/fussball-wm-in-brasilien/elektronischer-fussball-smartphone-app-helfen-training Big-Data-Anwendungen im Unternehmen Logistik

Mehr

SMARTE LÖSUNGEN FÜR DIE VERNETZTE WELT

SMARTE LÖSUNGEN FÜR DIE VERNETZTE WELT SMARTE LÖSUNGEN FÜR DIE VERNETZTE WELT VERBINDEN SIE IHRE GERÄTE MIT DER VERNETZTEN WELT SMARTE LÖSUNGEN FÜR NEUE GESCHÄFTSMODELLE Die digitale Revolution hat das nächste Level erreicht, Vernetzung und

Mehr

Large Scale Data Management

Large Scale Data Management Large Scale Data Management Beirat für Informationsgesellschaft / GOING LOCAL Wien, 21. November 2011 Prof. Dr. Wolrad Rommel FTW Forschungszentrum Telekommunikation Wien rommel@ftw.at Gartner's 2011 Hype

Mehr

APPS ALS MARKETINGINSTRUMENT NUTZEN

APPS ALS MARKETINGINSTRUMENT NUTZEN APPS ALS MARKETINGINSTRUMENT NUTZEN Die Tendenz, mobile Endgeräte als Marketing- Plattform zu nutzen ist steigend. Laut einer Umfrage des Bundesverbandes Digitale Wirtschaft e.v. (BVDW) erwarten Beschäftigte

Mehr

Datenschutz und Privacy in der Cloud

Datenschutz und Privacy in der Cloud Datenschutz und Privacy in der Cloud Seminar: Datenbankanwendungen im Cloud Computing Michael Markus 29. Juni 2010 LEHRSTUHL FÜR SYSTEME DER INFORMATIONSVERWALTUNG KIT Universität des Landes Baden-Württemberg

Mehr

Performance-Marketing am Wendepunkt. Björn Hahner Country Manager DE & AT, Tradedoubler

Performance-Marketing am Wendepunkt. Björn Hahner Country Manager DE & AT, Tradedoubler Performance-Marketing am Wendepunkt Björn Hahner Country Manager DE & AT, Tradedoubler Wer verstehts noch? Programmatic Bying, SSPs, Trading Desks, Ad Exchanges, Ad Networks, Data Suppliers, CPC, Deduplizierung,

Mehr

Alle Kanäle Eine Plattform

Alle Kanäle Eine Plattform E-Mail Brief Fax Web Twitter Facebook Alle Kanäle Eine Plattform Geschäftsprozesse im Enterprise Content Management (ECM) und Customer Experience Management (CEM) erfolgreich automatisieren ITyX Gruppe

Mehr

ONLINESHOPS ERFOLGREICH STEUERN WIE BEHALTE ICH DIE ÜBERSICHT? TRANSPARENZ DURCH BEST PRACTICE ECOMMERCE REPORTING

ONLINESHOPS ERFOLGREICH STEUERN WIE BEHALTE ICH DIE ÜBERSICHT? TRANSPARENZ DURCH BEST PRACTICE ECOMMERCE REPORTING ONLINESHOPS ERFOLGREICH STEUERN WIE BEHALTE ICH DIE ÜBERSICHT? TRANSPARENZ DURCH BEST PRACTICE ECOMMERCE REPORTING Onlineshops erfolgreich steuern wie behalte ich die Übersicht? Transparenz durch Best

Mehr

Kundenzentrisches Banking - mit Hilfe von Social Media

Kundenzentrisches Banking - mit Hilfe von Social Media Kundenzentrisches Banking - mit Hilfe von Was versteht man unter kundenzentrischem Banking? Problem: Banken haben heutzutage mit stagnierenden Märkten, starkem Wettbewerb und einer sinkenden Kundenloyalität

Mehr

Chancen und Herausforderungen durch Digitalisierung

Chancen und Herausforderungen durch Digitalisierung Chancen und Herausforderungen durch Digitalisierung Prof. Dr. Henning Kagermann CONNECTED LIVING CONFERENCE Berlin, 4. September 2013 0 CONNECTED LIVING CONFERENCE, 4. September 2013 Vor welcher Aufgabe

Mehr

Die Energiewende als Chance nutzen. Die Deutsche Telekom als Partner der Energiewirtschaft

Die Energiewende als Chance nutzen. Die Deutsche Telekom als Partner der Energiewirtschaft Die Energiewende als Chance nutzen. Die Deutsche Telekom als Partner der Energiewirtschaft Wissenschaftstag der Metropolregion Nürnberg, Juli 2012 Andreas Knobloch, Konzerngeschäftsfeld Energie DT Der

Mehr

Wachstumsförderung mit CRM

Wachstumsförderung mit CRM Wachstumsförderung mit CRM Computerwoche CRM Initiative Feb. 2007 Dr. Wolfgang Martin Analyst, Mitglied im CRM-Expertenrat und Research Advisor am Institut für Business Intelligence Wachstumsförderung

Mehr

Das Smart Home: Ein neues Geschäftsmodell

Das Smart Home: Ein neues Geschäftsmodell Das Smart Home: Ein neues Geschäftsmodell Oktober 2014 Was bedeutet Smart Home? Ein Smart Home ist ein Haus, das ausgestattet ist mit Beleuchtung, Heizung und elektronischen Geräten, die aus der Entfernung

Mehr

Arnd Böken Big Data Analytics rechtssicher einsetzen! BITKOM - Big Data Summit 2014, Hanau, 26. März 2014

Arnd Böken Big Data Analytics rechtssicher einsetzen! BITKOM - Big Data Summit 2014, Hanau, 26. März 2014 Arnd Böken Big Data Analytics rechtssicher einsetzen! BITKOM - Big Data Summit 2014, Hanau, 26. März 2014 Überblick Big Data und Datenschutz: Anwendungsbeispiele Rechtspflichten zum Einsatz von Big Data:

Mehr

SAP Customer Engagement Intelligence - Kundenanalysen der nächsten Generation

SAP Customer Engagement Intelligence - Kundenanalysen der nächsten Generation SAP Customer Engagement Intelligence - Kundenanalysen der nächsten Generation Alexander Schroeter, Head of Outbound PM MEE, CRM & Commerce, SAP AG Regensdorf, November 19, 2013 SAP Customer Engagement

Mehr

Software EMEA Performance Tour 2013. 17.-19 Juni, Berlin

Software EMEA Performance Tour 2013. 17.-19 Juni, Berlin Software EMEA Performance Tour 2013 17.-19 Juni, Berlin HP Autonomy Information Governance Strategie: Die Kontrolle über die Informationsflut Petra Berneaud - Account Manager Autonomy Status in vielen

Mehr

Exklusiv-Interview: CRM Spezial: Cyber Security: Game Changer: Informationstechnologie

Exklusiv-Interview: CRM Spezial: Cyber Security: Game Changer: Informationstechnologie Exklusiv-Interview: Klaus-Hardy Mühleck, CIO ThyssenKrupp IT ohne technischen Ballast schnelle Orientierung zu den wichtigsten Trends der Business IT Edgar Aschenbrenner, CIO E.ON SE und Vorsitzender der

Mehr