06/2013. Schwerpunkt BIG DATA

Größe: px
Ab Seite anzeigen:

Download "06/2013. Schwerpunkt BIG DATA"

Transkript

1 B /2013 NOVEMBER/DEZEMBER Nachrichten aus Technik, Naturwissenschaft und Wirtschaft Das Regionalmagazin für VDI und VDE Schwerpunkt BIG DATA Veranstaltungskalender November/Dezember 2013 Aktuelles aus VDI und VDE Gut sortiert ist halb recycelt Richtfest für einen Satelliten

2 INHALT Präzision sucht spezialisten (m/w) Sie bringen Ihr Fachwissen gern praktisch ein? Dann sind Sie bei Preh genau richtig. Als Automobilzulieferer entwickeln wir hochinnovative technische Produkte, die Sie in vielen Fahrzeugen renommierter Hersteller wiederfinden. Bei uns stimmt nicht nur die Technik, sondern auch das familiäre Klima beste Karriereaussichten inklusive. Wir unternehmen. 2 Jetzt bewerben: Wir-Unternehmen.com facebook.com/prehkarriere Technik in Bayern 01/2010

3 editorial Wer cloud meine Daten? Dipl.-Phys. Gerhard Grosch Redaktion TiB Ja, wer klaut meine Daten und wozu? Logischerweise weiß man das nicht so genau. Allerdings rücken wir ja die meisten Informationen über uns mittlerweile freiwillig raus. Freiwillig? Na ja, nicht wirklich immer. Wenn wir die modernen digitalen Dienste nutzen wollen, werden wir regelrecht gemolken und unsere Daten wandern in riesige Datenwolken. Die Clouds, die wir im Rahmen von Cloud Computing buchen, geben unsere Daten zwar wieder heraus (vielleicht nicht nur an uns); aber die Datenbanken, die bei Diensteanbietern wie Google oder Amazon und bei Behörden entstehen und die unsere Daten nach undurchsichtigen Kriterien sammeln und verwerten, geben nichts zurück. Diese Datensammlungen sprengen jeden vertrauten Rahmen. So betreibt etwa die US- Firma Acxiom, Dienstleister für kundenzentrisches Marketing, angeblich die weltgrößte Datenbank mit Verbraucherdaten: auf rund Servern liegen je rund Datensätze über 300 Millionen US-Bürger und 44 Mio. Deutsche, vermutlich legal zusammengetragen. Und während die Staatssicherheit zu Zeiten der DDR ihre Spionageergebnisse in etwa Aktenschränken unterbrachte, bräuchte der US-Geheimdienst NSA (bei ausgedruckten Daten) angeblich 42 Billionen Aktenschränke (Süddeutsche.de vom ). Very Big Data. Und gesammelt wird überall und ständig. Mittlerweile weiß auch der Bürokomiker Dilbert: It comes from everywhere. It knows all ( dilbert.com/strips/comic/ /). Daten sammeln ist teuer. Wäre es aber nutzlos, würde es niemand finanzieren. Viele Leute vermuten in den großen Datenbeständen Big Value. Aber Big Data gewinnt erst wirklich an Wert, wenn die Verfahren zur Verwaltung und Analyse riesiger Datenbanken, die zuerst in der Wissenschaft entwickelt wurden (Kernforschung, Meteorologie, Genetik), wirksam auf die Clouds angewendet werden können. Big Data existiert natürlich unabhängig von externen Datenspeichern (Clouds), aber erst die Verbindung von beiden entfaltet ein gewaltiges Potential. Während die Nutzung großer Datenmengen in Wissenschaft, Medizin oder Technik weit gehend wohlwollend akzeptiert wird, beschleicht viele Bürger großes Unbehagen, wenn es um persönliche und soziale Daten geht. Wir hätten uns 1983 die heutige Situation sicher nicht vorstellen können. Das Volkszählungsurteil des Bundesverfassungsgerichts schien den Sieg der informationellen Selbstbestimmung, das Recht auf die eigenen Daten, festgeschrieben zu haben. Und heute? Es droht der völlig gläserne Bürger. Erstaunlicherweise gibt es aber viele Menschen, die darüber unbesorgt sind: Ich habe ja nichts zu verbergen. Sie sind höchst naiv, sie übersehen gravierende Gefahren: unser Verhalten wird immer berechenbarer ( Wir wissen heute schon, was Sie morgen tun, teilt uns die Fair Isaac Corporation freundlich mit (faz.net vom ) und allein das Wissen, überwacht zu werden, verändert das Verhalten der Menschen. Daten können missbräuchlich verwendet werden. Es gibt Irrtümer beim Data Mining in den Datenbergen (Fehlalarme), man gerät aus Versehen in die Mühle. Regierungen müssen nicht immer nur gute Ziele verfolgen. Zunächst werden nur Terroristen gesucht, später vielleicht auch missliebige Reformer und Journalisten, Staatsfeinde. Wegen des Schutzes vor Terror wird die Gesellschaft umgekrempelt, dabei gibt es viel größere Risiken, gegen die der Staat aber weniger tut (Gesundheit, Verkehr, Klima...). Es mag nicht die eigentliche Absicht sein, aber ein willkommener Kollateralnutzen aus Sicht der Apparate nicht nur in undemokratischen Staaten: die Möglichkeit der absoluten Kontrolle von Bevölkerung und Institutionen. Die Demokratie gerät in Gefahr. Big Data in Big Clouds das bedeutet Big Impact und Big Change für die Gesellschaft, Big Value und Big Brother. Unser Leben wird sich grundlegend verändern, das Ergebnis ist völlig offen. Und die Technik wird ihre dienende Funktion im Auftrag mächtiger Interessen ausüben, wie immer. Bürgerinitiativen oder Open Source Software-Gruppen werden noch versuchen, Werkzeuge zur Bewahrung eines Kerns der Privatheit bereit zu stellen (falls sie nicht verboten werden, wie ja in den USA beim E- Mail-Anbieter Lavabit schon geschehen). Nur: wer sich der digitalen Kommunikation verweigert, ist automatisch verdächtig, es wird kein Entrinnen geben. Ihr 3

4 INHALT 10 Foto: Silvia Stettmayer Schwerpunkt Big Data Factory Technischer Vorsprung durch intelligente Datenanalyse 6 Hendrik Stange Big Data Entwicklungen und Akteure 8 Mathias Weber Wir wollen das Unerwartete und Überraschende 10 Interview mit Joseph Reger Big Data und Datenschutz ein lösbarer Konflikt? 12 Christoph Bauer Auf Schatzsuche im Web 14 Benjamin Kettner Big Data bei ProSiebenSat1.Digital 16 Jörg Ruckelshauß Big Data in Bibliotheken Es bleibt viel zu tun 19 Der historische Hintergrund von Christian Knoop Big Data Verwendungsmöglichkeiten räumlicher Daten zur Unterstützung von komplexen Analysen 20 Markus Geis Big Data als Beitrag zur Unternehmenssteuerung 24 Simon Zentgraf 6 Grafik: Inovex 19 Foto: Deutsches Museum Titelbild Datensammlung um Foto: Deutsches Museum 4

5 Inhalt SHAPE BUILD RUN TRACK TEACH Hochschule und Forschung Hochschule : Gut sortiert ist halb recycelt 23 Claudia Köpfer Friedrich-Alexander-Universität Erlangen-Nürnberg: Studieren und forschen am FAU Busan Campus 32 Doris Kühlers Fraunhofer-Projektgruppe Prozessinnovation Bayreuth: Die Geometrie macht s 34 Hans-Henrik Westermann VDI/VDE Auftakt VDI-AK Technischer Vertrieb 22 VDI Freundeskreis Italien 28 VDI-Landesverband 29 VDE SMART HOME CONTEST 31 Fa. Mahlo 50 Jahre VDI Fördermitglied 33 Frauen im Ingenieurberuf 35 Kennametal: Präzisions-Hartmetallwerkzeuge 36 VDI-BV Bayern Nordost: AK Energie und Umwelt 37 VDI Österreich 46 Aktuelles Internetnutzung, Social Media und Bring your own device Was sagt das Arbeitsrecht? 27 Christopher von Harbou Richtfest für einen Satelliten 30 Joachim Hospe Rubriken Veranstaltungskalender 39 Buchbesprechungen 48 Stellenmarkt 49 Ausstellungstipp 50 Vorschau 50 Impressum 50 VDI Landesverband Bayern VDI Bezirksverein, Ober- und Niederbayern e.v. Westendstr. 199, D Tel.: (0 89) , Fax: (0 89) bv-muenchen@vdi.de Team inovex. Wir nutzen Technologien, um unsere Kunden* glücklich zu machen. Und uns selbst.** * Unsere Kunden sind u. a. 1&1, Bosch, Daimler, EnBW, FONIC, maxdome, Porsche, ProSiebenSat.1 und Wirecard. ** Und wir selbst sind ein Team von 130 technologieverrückten Menschen, die in Pforzheim und Karlsruhe, und Köln sehr gute IT-Lösungen bauen. 1-tägiger POWER WORKSHOP FÜR EINSTEIGER VOM DATA WAREHOUSE ZU BIG DATA Grundlagen und Chancen in Jetzt anmelden: inovex.de/big-data-powerworkshop VDI Bezirksverein Bayern Nordost e.v. c/o Ohm-Hochschule, Keßlerplatz 12, D Nürnberg Tel.: (09 11) , Fax: (09 11) , vdi@ohm-hochschule.de VDE Bayern, Bezirksverein Südbayern e.v. Landesvertretung Bayern Richard-Strauss-Str. 76, D Tel.: (0 89) , Fax: (0 89) vde-sbay@t-online.de

6 Schwerpunkt Abb. 1: Begriffsdimensionen Big Data gem. BITKOM Big-Data-Leitfaden (Vol. 1) Big Data Factory Technischer Vorsprung durch intelligente Datenanalyse Big Data ist ein Leitbegriff der 4. industriellen Revolution. Auf welche Weise Unternehmen das Geschäftspotenzial in Big Data operationalisieren, wird den Erfolg von Wirtschaftsstandorten und Industrien maßgeblich beeinflussen. Für die Industrie entstehen neue Geschäftsfelder und Innovationsimpulse. Auch im zunehmend dynamischen Marktumfeld bietet Big Data neue Chancen für eine automatisierte Erhöhung der Intelligenz in Prozessen und der weitsichtigen Wertschöpfung. Weltweit entstehen in Unternehmen durch digitalisierte Prozesse und vernetzte Wertschöpfungsketten immer größere und vielfältigere Datenmengen. Wenn Organisationen die massiven Ströme technischer Daten vorausschauend analysieren, automatisiert aktuell halten und in ihre Prozessentscheidungen integrieren, verschaffen sie sich einen wichtigen Technologievorsprung im internationalen Wettbewerb. Das Besondere am gegenwärtigen Transformationsprozess zu Big Data Factories sind die Triebfedern Digitalisierung und Vernetzung, die bereits nachhaltige Veränderungen in klassischen Internetmärkten bewirkt haben. Es mag daher wenig überraschen, dass die Definition des Begriffes Big Data aus dem IT-Umfeld stammt: Big Data bezeichnet die Analyse großer Datenmengen aus vielfältigen Quellen in hoher Geschwindigkeit mit dem Ziel, wirtschaftlichen Nutzen zu erzeugen. (BITKOM, Big Data im Praxiseinsatz Szenarien, Beispiele, Effekte, 2012) 6 Kennzeichnend für Big Data sind im Kern drei Eigenschaften, die auch als 3 V s bezeichnet werden: Volume, Variety, Velocity. Volume steht für die große Menge der zu analysierenden Daten; Variety für deren Verschiedenartigkeit in Bezug auf Datentyp und Ursprung. Velocity beschreibt die hohe Geschwindigkeit der Datengenerierung und damit auch, wie groß der Datenstrom ist, den es in Echtzeit zu analysieren und für Entscheidungen zu integrieren gilt. Wobei man sich nicht einzelne Dateninseln ansieht, sondern möglichst alle relevanten Daten ganzheitlich betrachtet und für die Gewinnung von Insights, Vorhersagemodellen und Mustern auswertet dies wird auch als Analytics-Dimension bezeichnet (vgl. Abb 1). Das große Potenzial in Big Data Treiber für Big Data im Industrieumfeld sind die zunehmende Digitalisierung von Produktionsanlagen, industriellen Erzeugnissen sowie von Haushaltsgeräten und Konsumgütern. Vernetzte Sensorik, intelligente Niedrigenergiesensoren und integrierte Speicher- und Prozessorkapazitäten (embedded systems) erfassen Ausschnitte der physischen Realität. Bringt man diese Daten zusammen und kombiniert sie mit innerbetrieblichen Geschäfts-, Kunden- und Marktdaten, liefert dies die Ausgangsbasis für: datengetriebene Innovationen ressourcenschonende Produktion individuelle Produkt-Service-Pakete effizienteres Management Mit dem Internet der Dinge und der Industrie 4.0 stehen wir an der Schwelle eines industriellen Strukturwandels, an dessen Ende die strategische Wertschöpfung auf elementarer Ebene mit den Produktionsprozessen verbunden ist und Maschinen prozessrelevante Entscheidungen treffen. Weltweit führende Unternehmen investieren mehrere Milliarden Euro in Big-Data-Lösungen. Große Unternehmen wie General Electric bauen hierfür sogar eine eigene Softwareentwicklung auf. Die Verschmelzung von Software und Hardware ist der Nukleus der industriellen Revolution, die auch die Bundesregierung mit einem

7 SCHWERPUNKT Quelle: Fraunhofer IAIS Abb. 2: Analytics-Plattform Big Data. großen Investitionsvolumen von über 200 Mio. Euro im Bereich Industrie 4.0 fördert. Über Erfolg und Misserfolg im industriellen Sektor entscheiden zunehmend die Bits und Bytes. Die Ausgangsbasis für Deutschland als Hochtechnologieland im Bereich Softwareentwicklung und Produktion ist daher besonders chancenreich. Digitalisierte Wertschöpfungsnetzwerke sind ein erster Schritt. Flankiert werden sie durch Forschungsnetzwerke wie die Fraunhofer-Initiative Big Data, die die Kompetenzen und Branchenerfahrungen von mehr als 20 Fraunhofer-Instituten bündelt. Ziel ist es, marktgerechte Big-Data-Lösungen für individuelle Fragestellungen zu entwickeln. Erfolgreiche Anwendungen zeigen das Potenzial kreativer Wertschöpfung: So können chemische Prozesse verbessert und Maschinenausfälle (Latent Fault) frühzeitig erkannt werden. Visuelle Methoden weisen auf Instabilitäten oder potenzielle Gefahren in Strom- und Kommunikationsnetzen hin. Kurzfristige Vorhersagen des Energieverbrauchs und der Energieproduktion auf Basis des eingehenden Datenstroms unterstützen ein stabileres Energienetz. Fraud- Mining-Technologien bieten aktive Sicherheit vor betrügerischen Kreditkartentransaktionen in Echtzeit. Auch bislang ungenutzte Potenziale in der Logistik und im Supply-Chain-Management können dank intelligenter Sensorik und Big-Data-Technologien erschlossen werden. Big-Data-Werkzeuge Die Realisierung der verschiedensten Big- Data-Anwendungen erfordert Technologie- Know-how und leistungsfähige Werkzeuge : Text Analytics ist ein Technologiebündel, um unstrukturierte Textdaten auszuwerten. Es extrahiert bspw. zentrale Information aus Log- und Berichtsdaten für ein aktives Qualitätsmanagement. Process Analytics liefert wichtige Einblicke in Prozesse und optimiert Infrastrukturen (Condition Monitoring, Predictive Maintenance, Operational Excellence). Big Data Analytics liefert skalierbare Analyseverfahren und ermöglicht das verteilte Monitoring komplexer Infrastrukturen sowie die direkte Analyse auf dem Datenstrom (Instream Analytics, Privacy-preserving Data Mining, Fraud Mining). Visual Analytics setzt den Experten ans Steuer (interaktive Visualisierungstechniken, Echtzeit-Dashboards, Ad-hoc-Analysen). Den Grundstein für Big Data Analytics legt eine flexible und skalierbare IT-Architektur. Beispiele wie die Analytics-Plattform Big Data des Fraunhofer IAIS (siehe Abb. 2) auf Basis der Lambda-Architektur (N. Marz) kombinieren die schnelle Analyse einkommender Daten mit komplexeren, weniger zeitkritischen Analysen im Batch-Layer. Die Architektur kann durch kommerzielle und Open-Source-Softwareprodukte instanziiert werden und ist somit für kleine, mittelständische und große Unternehmen gleichermaßen eine geeignete Basis. Allerdings stehen Unternehmen auch vor Herausforderungen. Alle Entscheidungen im Kontext von Big Data setzen ein umfassendes Verständnis der zugrunde liegenden Konzepte und Technologien voraus. Auch die eingesetzten Verfahren müssen ein Höchstmaß an Qualität sicherstellen. Von den Big-Data-Architekten, den Data Scientists, wird ein breites Kompetenzspektrum erwartet, das in praxisorientierten Schulungen vermittelt werden kann. Schutz der Daten Der vertrauensvollen Umgang und Schutz sensibler Daten sollte im ureigenen Interesse jedes Unternehmens liegen. Bei technischen Prozessen stehen zwar Ziele wie Früherkennung, Steuerung und Innovation im Fokus, jedoch können hier auch Compliance-Regeln zu beachten sein oder Betriebsgeheimnisse und Intellectual Properties sichtbar werden, die besonders schützenwert sind. Sobald personenbezogene Daten integriert werden, sind Datenschutz und Datensicherheit oberstes Gebot. Dabei sind der Schutz der Privatsphäre und das Extrahieren entscheidungsrelevanter Informationen aus komplexen Daten längst kein Widerspruch mehr. Transparenz im Umgang mit Big Data und gleichzeitig ein striktes Umsetzen des Privacy by Design - Konzeptes machen Datenschutz und Datensicherheit zum integralen Bestandteil jeder Lösung. Fazit Die Analyse komplexer Daten gehört für viele Unternehmen zum Alltag. Immer rasanter verschmelzen allerdings Informationstechnologie, Analytik und Industriesteuerung. Der Paradigmenwechsel, der damit einhergeht, zielt darauf ab, Unternehmensmanagement, Erzeugung und Wertschöpfung in neuer Form zu synchronisieren. Big-Data-Technologien ermöglichen die intelligente Analyse und Verknüpfung großer, multi-dimensionaler Datenbestände in Echtzeit, um datengetriebene Prozessentscheidungen im übergeordneten Kontext zu treffen und gleichzeitig mit Gespür für den jeweiligen Kunden überzeugende Angebote zu offerieren. Es ist diese vertikal-integrative Funktion und ganzheitliche Sicht, die den Wert von Big Data für Unternehmen, Konsumenten und Organisationen ausmacht. Hendrik Stange Fraunhofer-Institut für Analyse- und Informations systeme IAIS, St. Augustin 7

8 Schwerpunkt Big Data Entwicklung und Akteure Unternehmen sehen sich mit einem rapiden Anstieg des Datenvolumens konfrontiert. So speichern einige Internet-Unternehmen Daten im Petabyte- und verarbeiten täglich Daten im Terabyte- Bereich. Ursache für das Datenwachstum ist ein ganzes Bündel von Technologien Sensorik, RFID, Ambient Intelligence, Smartphones und die immer stärkere Nutzung von Social-Media-Anwendungen. Für die wirtschaftlich sinnvolle Gewinnung und Nutzung entscheidungsrelevanter Erkenntnisse aus qualitativ vielfältigen, unterschiedlich strukturierten Informationen, die zudem einem schnellen Wandel unterliegen und in bisher ungekanntem Umfang anfallen, wurde der Begriff Big Data geprägt. Big Data umfasst Konzepte, Methoden, Technologien, IT-Architekturen sowie Tools, mit denen sich die Informationsflut in Bahnen lenken und nutzen lässt. Daten als Produktionsfaktor Bedeutung und Nutzen von Big Data Big Data: Chancen und wirtschaftlicher Nutzen Im Zentrum steht die Analyse der Daten, die Analytics, siehe Abb. 1. Parallel mit der Explosion der Datenmengen sind auch die technischen Möglichkeiten gewachsen, Informationen in hohen Volumina und in kurzer Zeit zu verarbeiten und zu analysieren. Hieraus eröffnen sich vielfältige Chancen, Unternehmen besser auf Marktanforderungen einzustellen. Schon heute ist absehbar: Für Unternehmen, die große Datenberge Abb. 1: Facetten von Big Data. auftürmen, wird IT vom Business Enabler zum Kern des Business selbst (1). Zu den Einsatzgebieten von Big Data gehören Forschung und Entwicklung, Produktion, Distribution und Logistik, Finanz- und Risiko-Controlling sowie Marketing und Vertrieb, vgl. (2). Die vom BITKOM publizierten Einsatzbeispiele (3) zeigen die möglichen Einsatzeffekte. So können auf Algorithmen basierende Auswertungen riesiger Datenmengen in allen Unternehmensbereichen zur Verminderung von Risiken und zur Verbesserung von 8 Geschäftsprozessen beitragen. Big Data versetzt Organisationen in die Lage, detaillierte Kundensegmente zu erstellen, ihre Waren und Dienstleistungen auf deren Bedarf zuzuschneiden und so den Kundenzugang zu verbessern. Für die deutsche Wirtschaft gewinnt Industrie 4.0 die stärkere Verzahnung von Produktion und IT strategische Bedeutung. Das Internet der Dinge und die Machine-to-Machine-Kommunikation geben produzierenden Unternehmen Werkzeuge in die Hand, ihre Fertigungsprozesse zu optimieren. Dafür erfassen Sensoren an Produkten und entlang von Produktions- und Lieferketten Daten auch im späteren Betrieb. Das Industrial Internet verspricht in Kombination mit Big-Data-Verfahren einen neuen Produktivitätsschub. Mit Big Data verbundene Herausforderungen Die mit Big Data verbundenen Chancen entstehen nicht im Selbstlauf. Unternehmen müssen sich mit einigen Herausforderungen auseinandersetzen, die in erster Linie mit dem Management von Daten zusammenhängen. Auch die Informationssicherheit und der Datenschutz unterliegen ganz neuen Anforderungen. In Deutschland werden die Risiken von Big Data betont und Befürchtungen vor unkontrollierter Überwachung thematisiert. In jedem Fall ist es wichtig, die rechtliche Zulässigkeit bereits bei der Entwicklung einer Big-Data-Anwendung zu prüfen. Bei allen berechtigten und notwendigen Hinweisen auf auftretende Risiken sollte das Augenmerk darauf gerichtet werden, die großen Chancen von Big Data zielgerichtet zu erschließen. Wertschöpfungs- und Business- Modelle in der Daten-Wirtschaft Wertschöpfungskette der Daten-Wirtschaft Big Data wird tief greifende Auswirkungen auf die Wertschöpfungs- und Geschäftsmodelle in Unternehmen haben (4). In dem Maße, wie Daten zum Produkt werden, entstehen in vielen Branchen für Daten neue Nutzungs- und Kommerzialisierungsmöglichkeiten. Auf dem Weg zu einer Daten-Wirtschaft verändern sich die Wertschöpfungsketten. Die Stufen der Wertschöpfung Datenerhebung Digitalisierung, Datenintegration Daten-Qualitätsmanagement, Datenaggregation und Datenvisualisierung Dateninterpretation können an einzelnen Stellen aufgebrochen werden und neuen Unternehmen Betätigungsfelder eröffnen. Eine fundamentale Rolle in der Wertschöpfungskette spielen die Akteure, die durch die Aufzeichnung und Sammlung von Daten existierender Geschäfts- und Produktionsprozesse oder aber durch die Digitalisierung bislang analoger Daten neue Daten erheben. Zu einer eigenständigen Aufgabe entwickeln sich Datenintegration und Daten-Qualitätsmanagement.

9 SCHWERPUNKT Die möglichst effiziente Umwandlung großer Datenbestände in verwertbare Formate wird in Zukunft zunehmend an spezialisierte Dienstleister ausgelagert. Ein wesentlicher Teil der Big-Data-Wertschöpfungskette liegt in der Aggregation von Daten, die dann ggf. über Datenmarktplätze angeboten werden. Ein großes Marktpotenzial wird in der Entwicklung datenbasierter Services und Apps gesehen. Auch die Visualisierung und Interpretation von Daten kann sich als eigenes Geschäftsfeld etablieren. Beispiele für neue und optimierte Business- Modelle Neue und optimierte Business-Modelle, die durch Big-Data-Technologien möglich werden, lassen sich in mehreren Kernbranchen der deutschen Wirtschaft finden. Drei Beispiele sollen die Dimension aufzeigen: In der besonders wettbewerbsintensiven Automobilindustrie versuchen die Hersteller, die Kunden mit neuartigen Services zu überzeugen, die mit Big-Data-Technologien entwickelt werden. Die Grundlage dafür entsteht mit der Digitalisierung und Vernetzung moderner Fahrzeuge. Sie können eine Vielzahl LITERATUR (1) Schneider, Ralf: Neues Spiel mit Echtzeitanalyse, in: Ellermann, Horst (Hrsg.): CIO Jahrbuch 2013 Neue Prognosen zur Zukunft der IT. IDG Business Media GmbH,, August 2012, S (2) Big data: The next frontier for innovation, competition, and productivity. McKinsey Global Institute, June 20.o 2012 Big Data Analytics in Deutschland White Paper, IDC, Mathias Zacher, Januar ( mediacenter/abstract/client/businessanalytics/target/ content dokumente white_paper e1 831 views1832 display_ger.html) Datenexplosion in der Unternehmens-IT: Wie Big Data das Business und die IT verändert (Eine Studie der Experton Group AG im Auftrag der BT (Germany) GmbH & Co. ohg), Dr. Carlo Velten, Steve Janata, Mai 2012 Quo vadis Big Data. Herausforderungen Erfahrungen Lösungsansätze. TNS Infratest, August 2012 (3) Big Data im Praxiseinsatz Szenarien, Beispiele, Effekte, Leitfaden des BITKOM, September 2012 ( org/files/documents/bitkom_lf_big_ data_2012_online(1).pdf) (4) Management von Big-Data-Projekten, Leitfaden des BITKOM, Juni 2013 ( data2013_web.pdf) Geschäftsmodelle in der Daten-Wirtschaft Neues Business Vorhandenes Business Monetarisierung Optimierung Vorhandene Daten Abb. 2: Geschäftsmodelle in der Daten-Wirtschaft. von Bewegungs-, Zustands-, Verschleiß- und Umgebungsdaten melden, die für Fahrer, Reparaturwerkstätten, Hersteller, Versicherungen und zahlreiche weitere Organisationen INFO INFO von großem Interesse sind. TIPP Im Transportwesen hilft Big Data im Fahrzeugflotten-Management. Um im Umfeld von wachsendem Preisdruck, steigenden Energiekosten und Emissionsschutzauflagen wettbewerbsfähig zu bleiben, sind Transparenz über Verbräuche, Kosteneffizienz und Umweltverträglichkeit pro Fahrzeug und Fahrt sowie die sofortige Beeinflussung des Fahrverhaltens in Echtzeit notwendig. Big-Data-Lösungen basieren auf der Echtzeit-Übermittlung von Bewegungsdaten, ihrer schnellen Auswertung und auf Realtime-Vorschlägen zur Optimierung von Routen und Fahrweise. Mit der Umstellung auf erneuerbare Energien steht auch die Energiebranche mitten im Wandel. Mit der massenhaften Verfügbarkeit von Smart Metern werden sich Beziehungen zwischen den Energieversorgern und ihren Kunden stark verändern. Verbraucher werden die Möglichkeit erhalten, individuelle Tarife nutzen zu können, damit sie ihren Verbrauch auf unterschiedliche Preise anpassen können. Außerdem werden viele Verbraucher auch zu Erzeugern. Die Stromnetzbetreiber benötigen aktuelle und deutlich mehr Daten, um das Netz stabil zu halten. Big-Data-Lösungen für Energieerzeuger können die entstehenden Daten volumina speichern und verarbeiten. Durchbruch Aufwertung Neue Daten Geschäftsmodelle in der Daten-Wirtschaft Für Entscheider, die die Potenziale des eigenen Unternehmens in der Datenwirtschaft untersuchen wollen, kann ein Denkansatz hilfreich sein, der die Geschäftsmodelle und Business Cases in vier Kategorien einteilt, s. Abb.2. Optimierung: Die Auswertung bereits existie render Datenbestände kann für die Optimierung bestehender Geschäftsprozesse und modelle einen großen Mehrwert liefern. Es bietet sich daher als Einstieg in das Big-Data- Business für viele Unternehmen an, mit der Optimierungs -Strategie zu starten. Monetarisierung: Häufig gleichen Datenbestände einem noch nicht gehobenen Schatz. So lassen sich mit bereits existierenden Daten neue Geschäftsmodelle oder Produkte entwickeln. Aufwertung: Bestehende Geschäftsmodelle und Dienstleistungen lassen sich durch neue Daten aufwerten. Durchbruch: Bei der Durchbruchs -Strategie werden auf Basis der Sammlung und Digitalisierung neuer Datenbestände neue Produkte und Services entwickelt. Das Interesse deutscher Unternehmen an Big-Data-Lösungen steigt stetig. Sie benötigen die neuen Ansätze und Werkzeuge, um ihre Produktions-, Logistik- und Vertriebsketten weltweit zu optimieren. Eine hoch wettbewerbsfähige und exportorientierte Volkswirtschaft kommt künftig ohne Big Data nicht mehr aus. Dr. Mathias Weber Bereichsleiter IT Services, BITKOM e.v., Berlin Dieser Beitrag fußt auf Publikationen des BITKOM-Arbeitskreises Big Data. 9 Grafiken: BITKOM

10 Schwerpunkt Wir wollen das Unerwartete und Überraschende Die neuen Geschäftsfelder, die durch Big Data entstehen, beschäftigen auch Anbieter klassischer Firmen-IT-Infrastruktur. Wir sprachen über diese Potenziale mit Dr. Joseph Reger, dem Chief Technical Operator (CTO) der Fujitsu Technology Solutions GmbH. Technik in Bayern: Sie definieren Big Data als die Fähigkeit, durch die schnelle Analyse großer Datenbestände aus unterschiedlichen Quellen an verwertbare Informationen zu gelangen. Könnten Sie das noch näher erläutern? Dr. Joseph Reger: Big Data ist der Rohstoff der Gesellschaft der neuen Zeit. Big Data ist keine Verbesserung der bestehenden Datenanalyse! Es geht nicht nur um größere Datenmengen, sondern um Fortschritte in der Analyse. Spektakulär ist nicht die Datenmenge, sondern der Informationsgehalt. Speichern ist billig, aber haben Daten nicht ein Haltbarkeitsdatum? Historische Daten liefern einen Rückblick, interessant sind für uns aber auch die Echtzeitquellen. Hier versprechen wir uns interessante Resultate, Indikationen für die Zukunft. Wir wollen das Unerwartete und Überraschende, die Neuartigkeit der Informationen, die verborgenen Schätze. TiB: Wo stoßen bisherige Datenbanksysteme an ihre Grenzen? Reger: Eine Herausforderung für die Datenbanksysteme ist die Verarbeitungsgeschwindigkeit. Wir arbeiten heute statt der früher üblichen Supercomputer mit Rechner-Clustern, also dem Zusammenschluss von vielen preiswerten Rechnern. Wenn Sie mehrere Terabyte auf einem Rechner speichern und für ein gutes Gleichgewicht zwischen Festplattenkapazität und Rechenpower sorgen und gleichzeitig sehr viele Rechenknoten in einem ausgewogenen Cluster zusammenschalten, ist damit auch ein altes Problem der Flaschenhals in der Datenverarbeitung die mangelnde Geschwindigkeit zwischen Festplatte und Hauptspeicher, umgangen. Dafür müssen jetzt bei der Analyse von zumeist Multiquellen sehr große Informationsmengen parallel verarbeitet werden. Das ist auch eine algorithmische Herausforderung und damit eine nicht gerade triviale Aufgabe in der IT. Hier ist die Software Hadoop MapReduce ein Vorreiter. Mit ihrer Hilfe ist die Analysegeschwindigkeit von sehr großen Datensätzen mit beträchtlichen Datenbeständen stark gestiegen. Und nicht zu vergessen die SAP HANA-Technologie! 10 Auch diese beschleunigt erheblich die Analyse großer Datenmengen. Die wirklichen Grenzen sehe ich darin, dass die Daten, die heute analysiert werden, nicht mehr nur in den geordneten Systemen der Datenbanken gespeichert werden. Vielmehr entstehen die meisten Daten heute außerhalb von Datenbanken, nämlich in Texten, in Social Media, in s, et cetera Diese meist unstrukturierten Daten werden immer wertvoller. Die größten Datenbestände verbergen sich allerdings in Videodateien, die heute kaum nutzbar sind. Trotz dieser Datenexplosion per Video haben wir keine einfache Möglichkeit, Informationen in Videos automatisch auszuwerten. TiB: Welche Analysen sind durch einen Quercheck unterschiedlicher Quellen möglich? Reger: Es ist nicht nur so, dass es schneller geht. Dank der Geschwindigkeit sind vor allem andere Arten von Analysen möglich jetzt braucht man den Menschen zur exploratorischen Entdeckung. Die Mehrschichtigkeit beziehungsweise auch Mehrquelligkeit der Daten führen dazu, dass fehlende Informationen auch berechnet oder abgeleitet werden können. Dies ermöglicht es, indirekte Methoden für die Analyse zu verwenden. Ich nenne als Beispiel die indirekte Diagnose in der Medizin: So könnte man über andere Faktoren und Daten Rückschlüsse zu dem eigentlichen Problem ziehen, beispielsweise über das Auftauchen von Viruserkrankungen/Grippewellen auf Basis der Analyse von Social Media. Oder betrachten Sie die Verbrechensbekämpfung, das predictive policing. Hierbei geht es um eine Musteranalyse von Verbrechen durch die Polizei und eine Voraussage der kriminellen Aktivitäten durch die Analyse der Social Media Feeds ähnlich wie im Kinofilm Minority Report. Die Analyse von Big Data, zum Beispiel über die Analyse von Twitter-Feeds führt zu Wahrscheinlichkeitsaussagen über Verbrechen. Manche Städte wie Los Angeles oder Santa Cruz in Kalifornien konnten dank solcher Vorhersagen schon spektakuläre Erfolge in der Verbrechensbekämpfung erzielen. TiB: Wenn solch riesige Datenmengen automatisch ausgewertet werden, kann das Ergebnis dann noch überprüft werden? Reger: Schwierig. In vielen Fällen kann bei Informationen aus dem Internet die Verifizierung nicht gewährleistet werden. Häufig wissen wir, dass sie sogar faktisch falsch sind. Es ist zwar schwierig, das ganze Internet zu fälschen, aber alles ist prinzipiell manipulierbar. Sie können beispielsweise gute Bewertungen und Freunde in Sozialen Netzen in großen Mengen kaufen. Es gibt keine perfekten Methoden, aber durch die Big Data-Technologie können Widersprüche herausgefunden werden. Dadurch kommt es zu einer Purifizierung der Informationsmenge und die Irreführung funktioniert nicht mehr so einfach. TiB: Wie kann man sich gegen den Missbrauch von Daten schützen und wo liegen die Gefahren? Reger: Privatpersonen, die viel surfen, ein Smartphone mit Ortsbestimmung besitzen und mit Kreditkarten zahlen, können sich kaum schützen. Aber das ist nicht das Ende der Zivilisation, das ist ein Gewöhnungsprozess: schließlich möchte man die Annehmlichkeiten nutzen und dafür muss man Informationen über sich preisgeben. Dagegen kann man nicht sehr viel tun, die jungen Generationen sind ohnehin offener. Wohin die Reise geht, ist unklar, technisch ist Schutz kaum machbar, wenn man aktiv ist und überall teilnimmt. Unternehmen können eigene Daten (Kunden, Geschäftszahlen...) selbst lagern und pflegen. Das limitiert zwar die Möglichkeiten, die öffentliche Cloud ( Public Cloud ) zu nutzen, aber damit bleiben die Daten beim Unternehmen. Der Schutz ist nicht perfekt, da die Daten meist per Netz erreichbar sind, aber sie liegen im unternehmenseigenen Netz und sind somit prinzipiell besser schützbar. Für solche Nutzungsszenarien stellen die sogenannten Private Clouds die beste Lösung dar. Letztendlich hat jedes Unternehmen die Wahl, welche Teile des Datenbestandes zu welchem Grad schützenswert sind. Es wird in Zukunft dazu wohl ein ganzes Portfolio an

11 SCHWERPUNKT gibt es in dieser Richtung noch nicht viel. Diese Fachkräfte sind am Markt sehr rar und heiß begehrt, es sind meist die schon genannten Autodidakten. Bei großen Projekten schaut man auf externe Ressourcen, es ist in der Folge ein großes Kommen und Gehen. Foto: Silvia Stettmayer Dr. Joseph Reger (re.) im Gespräch mit TiB-Redakteur Wolfgang Berger. Technologien, Lieferanten und Liefermethoden geben, die gemanaged werden müssen. Ein Problem ist, dass Informationen im Netz nicht automatisch gelöscht werden. Hier gibt es vor allem in Deutschland die Diskussion um den Digitalen Radiergummi. Die technischen Möglichkeiten hierzu sind unzulänglich, es gibt heute keine vernünftige Methode, die sicher stellt dass Informationen sich nach einer vorgegebenen Weile tatsächlich vernichten und dazu auch noch alle Kopien. Man kann aufräumen, aber nicht zu 100 Prozent sicherstellen, dass die Daten oder deren Kopien nicht irgendwo gespeichert bleiben. Hier sollten Schutzmechanismen weiterentwikkelt werden, es muss klar sein, welchen Bedrohungen man sich aussetzt. Aufklärung ist gefordert, bleibt aber immer eine Entscheidung und in der Verantwortung des Individuums. Es ist ein Geben und Nehmen und damit ein Markt: Sie bekommen Gratis-Apps, bezahlen kein Geld für die Nutzung, das funktioniert aber nur gegen die Preisgabe von Informationen, die einem Geldwert entsprechen. Man geht eben einen Deal ein. TiB: Sie sprechen von neuen Berufsbildern wie Data Scientist und Information Broker. Was verbirgt sich dahinter? Reger: Ich halte diese neuen Berufe für unentbehrlich und es gibt hier grundlegende Schwierigkeiten! Der Data Scientist muss sowohl die Expertise bezüglich der Anforderungen der einzelnen Abteilungen haben als auch die technischen Möglichkeiten in Big Data kennen (was ist möglich und nicht möglich, mit welchem Aufwand). Er hat eine Brückenfunktion. Der Scientist ist nicht der Wissenschaftler im deutschen Sinne, er sollte auch ein Praktiker sein. Deswegen sind diese Experten heute (noch) nicht oft aufzufinden. Momentan sind es begeisterte Mitarbeiter, denen das Wissen meist auf einer Seite fehlt und die sich dieses Know-how aus eigenem Antrieb autodidaktisch aneignen das sind heute die wertvollsten Mitarbeiter eines jeden Unternehmens. Information ist die neue Ware und der Information Broker handelt mit Informationen. Berufsbilder werden nun entstehen, die auch im traditionellen Warenverkehr existieren. Brokerage ist hier gemeint im Sinne von Makler. Er ist der Anbahner, der Interessenten und Anbieter zusammenbringt, er weiß, welche Quellen von Nutzen sind und wie man an diese herankommt, welche Datenbestände bereits existieren. TiB: Wie werden diese Fachkräfte ausgebildet und gibt es schon entsprechende Studiengänge an Universitäten und Fachhochschulen? Reger: Zurzeit beschränkt sich die Ausbildung praktisch auf unternehmensinterne Weiterbildung, die aber schwierig und langwierig ist, da on-the-job. In Zukunft müssen hier Profile und Lehrpläne entwickelt werden. In den USA gibt es erste Curricula an einigen Einrichtungen, die in die Richtung gehen. Erfahrungsgemäß dauert es aber etwa zehn Jahre, bis diese Anstrengungen Früchte tragen. In Deutschland TiB: Wie wird sich Big Data weiterentwickeln, wohin wird die Reise führen? Reger: Mit der besseren Auswertung und Verwendung der Informationen aus riesigen Datenbeständen wird es dazu kommen, dass Informationen der neue Rohstoff der Menschheit werden und auch das Wertvollste, was wir haben. Dadurch scheint mir sichergestellt zu sein, dass sich das Thema weiter entwickelt. Die Namensgebung für diese Entwicklung ist zwar falsch und irreführend, Big Data wird es wohl nicht für die Ewigkeit heißen, aber die Disziplin wird wichtig bleiben. Die Auswirkungen auf die Wirtschaft sind wahrscheinlich größer als durch Cloud Computing. In der Wirkung wird Big Data einen umfassenderen und nachhaltigeren Effekt haben, daher wird bereits viel investiert. Dies führt wiederum zu einer besseren technischen Ausstattung mit mehr Möglichkeiten. In vielen Fällen kann man bereits verfügbare Infrastrukturen mitnutzen. Man kann Daten, die quasi schon da beziehungsweise zugänglich sind, daher gut und mit Leichtigkeit verwenden, dies kann zu einer Beschleunigung führen. Faszinieren werden uns die immer neuen Anwendungsgebiete und -beispiele sowie die Durchdringung der Gesellschaft und der Wirtschaft mit Informations- und Kommunikationstechnologie in der Folge. Diese Disziplin wird somit die Zukunft maßgeblich bestimmen. TiB: Wir danken Ihnen für das Gespräch. Das Interview mit Dr. Reger führten Wolfgang Berger und Silvia Stettmayer INFORMATIONEN Die Fujitsu Technology Solutions GmbH gehört zur Global Business Group der Fujitsu Gruppe und beschäftigt über Mitarbeiter. Im Rahmen seiner strategischen Ausrichtung auf Dynamic Infrastructures bietet das Unternehmen ein umfassendes Portfolio an IT- Produkten, Lösungen und Services von PCs und Notebooks über Rechenzentrumslösungen bis hin zu Managed Infrastructure und Infrastructure-as-a-Service. 11 INF INF TIP

12 Schwerpunkt Big Data und Datenschutz ein lösbarer Konflikt? Big Data ist das Schlagwort für den Trend, immer mehr und detailliertere Daten über Konsumenten und deren Verhalten zu nutzen. Dies wirft zahlreiche datenschutz rechtliche Fragen und Risiken auf. Sie können im Wesentlichen durch Anonymisier ung der Daten, datenschutzrechtliche Prüfungen und auch Datenschutz-Siegel aufgelöst werden. Big Data für neue Geschäftsmodelle Big Data ist im Marketing und insbesondere im Bereich Customer Relationship Management zu einem viel genutzten Schlagwort geworden. Das Volumen der Daten steigt enorm an durch die Vielzahl gerade auch neuer Quellen, die aufgrund der Digitalisierung vieler Daten zusätzlich genutzt werden können (z.b. Mobil, Social Media, Internet der Dinge). Die Geschwindigkeit der Datenerhebung und -verarbeitung ist durch die technische Weiterentwicklung von Servern, Software und Clouds auch stark angestiegen. Dies gilt auch für die Vielfalt von Daten: Es werden nicht mehr nur Daten aus dem eigenen Unternehmen verarbeitet sondern auch externe Daten, wie z.b. Nutzungsverhalten, Geolokalisierung, Kaufversuche, Social-Media. Neben dieser klassischen Begrifflichkeit von Volumen, Geschwindigkeit und Vielfalt der Daten kommt als entscheidender Faktor für die anwendenden Unternehmen der Wert der Daten hinzu (Value). Denn nur wenn die Unternehmen über zusätzliche Geschäfte Werte schaffen können, macht es Sinn in Big Data zu investieren. Unternehmen versuchen, über vier wesentliche, sich gegenseitig verstärkende Faktoren neue Geschäftsmodelle für existierende und neue Kunden zu schaffen: Massive Daten, Echtzeit-Daten, Mobile Daten und Hochrechnungen. Massive und Echtzeit-Daten, Mobile Daten und Hochrechnungen Es sollen alle nur erdenklich möglichen Daten gesammelt werden, auch wenn sie keine direkte Beziehung zu Kunden oder Umsatz haben. Es gibt viele Modelle, bei denen aufgrund von neuen, andersartigen Daten ganz neue Wirkungsbeziehungen entstehen, die zu neuen Kundenbeziehungen und neuem Geschäft führen (zum Beispiel Groupon (1)). Echtzeit-Datenverarbeitung sorgt dafür, dass der Kunde in einer bestimmten Situation beispielsweise einer Kaufentscheidung mit einer auf ihn und seine Situation zugeschnittenen 12 Marketingmaßnahme angesprochen wird. Das eröffnet ganz neue und schnellere Geschäftsabschlüsse, zum Beispiel passend zugeschnittene Display-Werbung auf einer ecommerce- Webseite. Weiterführend werden dann sogar Preise für Daten und für Marketingmaßnahmen in Echtzeit ausgetauscht und dem Kunden in Echtzeit Angebote unterbreitet, das sogenannte Real-Time Advertising. Wenn z.b. ein Internetnutzer gerade nach einem konkreten Produkt sucht, kann man ihm direkt alternative Werbung zusenden. Mobile Daten können durch die Nutzung von smartphones und tablets häufig mit anderen Daten verbunden werden, wenn über die Geräte gesurft oder sogar eingekauft wird. Selbst wenn nur wenige einzelne Kunden durch eine direkte Marketing-Kampagne angesprochen werden, kann durch den Einsatz massiver Daten eine Hochrechnung erfolgen. Man sucht dann sogenannte statistische Zwillinge, die ein sehr ähnliches Verhalten zeigen, auch wenn sie gegebenenfalls noch nicht Kunde sind. Damit kann die Sample-Größe für eine Marketing-Kampagne deutlich erweitert werden und das Potenzial, ein neues Geschäft zu machen, steigt erheblich. So rechnet man z.b. hoch dass Nutzer, die in einem bestimmten Zeitraum mehr als x-mal auf Auto-Seiten clicken mit einer Wahrscheinlichkeit von y% männlich sind, weil man statistisch festgestellt hat, dass Männer im Durschnitt mehr Autoseiten besuchen als Frauen. Datenschutz und Datensicherheit Aufgrund der sehr viel detaillierteren Daten und der großen Möglichkeit kleinere Gruppen von Personen oder sogar einzelne Personen anzusprechen, zum Beispiel bei einer direkten Verhaltensbeobachtung des Kunden, kommt dem Datenschutz bei Big Data eine sehr große Bedeutung zu. Die aktuell bestehenden Datenschutzgesetze sind anzuwenden und deren Einhaltung muss sehr sorgfältig geprüft werden. Insbesondere dürfen die Daten nicht zweckfrei erhoben werden ( 28 BDSG) und auch für Big Data gilt das Gebot der Datensparsamkeit ( 3a BDSG). Daten aus Vertragsverhältnissen dürfen verwendet werden, wenn es zur Begründung, Durchführung und Beendigung des Vertragsverhältnisses erforderlich ist ( 28 BDSG). Ferner ist eine Nutzung der Daten für einen anderen Zweck erlaubt, wenn sie zur Wahrung der berechtigten Interessen erforderlich ist und keine überwiegenden schutzwürdigen Interessen der Kunden bestehen ( 28 BDSG). Eine Datenverarbeitung von personenbezogenen Daten im Rahmen von Big Data ist nach diesen Vorschriften in der Regel nicht möglich, es sei denn, sie ist mit dem Betroffenen vertraglich vereinbart. Für die Nutzung von Daten zu Werbezwecken gilt grundsätzlich ein Verbot mit Erlaubnisvorbehalt, d.h. dass Betroffene in die Verwendung der Daten einwilligen müssen ( 4 (1) und 28 (3) BDSG). Die Umsetzung einer Einwilligung ist sehr genau geregelt und ist dann auch für Big Data-Anwendungen einzuhalten. Diese wichtigen grundsätzlichen Einschränkungen sind immer zu beachten. Datenschutzkonforme Umsetzung von Big Data Es gibt allerdings auch für Big Data die Möglichkeit, personenbezogene oder -be ziehbare Daten zu anonymisieren. Dann unterliegt die Anwendung nicht mehr den strengen Datenschutzgesetzen. Anonymisierung bedeutet, dass eine Person praktisch nicht mehr aus den aggregierten Daten wieder re-identifiziert werden kann, man also personenbezogene Daten, wie Name, Adresse, nicht wieder aus dem Datensatz herausbekommen kann. Dies bedeutet nicht, dass man nicht Werbung an die entsprechenden Geräte (Internetbrowser) schicken darf. Display-Werbung an Internetnutzer zu senden erfordert keine Nutzung personenbezogener Daten, sondern lediglich die Kenntnis, ob jemand schon einmal die Werbung gesehen hat, sich für bestimmte Produkte interessiert, oder ein bestimmtes Verhalten gezeigt hat.

13 SCHWERPUNKT Es ist gängige Praxis, dass bei digital genutzten Daten eine Anonymisierung stattfindet, dann sehr viele Daten verarbeitet werden und anschließend digitale Werbung an anonymisierte oder pseudonymisierte Daten z.b. über Internet oder mobile Geräte versandt werden. Entscheidend ist dabei, dass alle Daten sicher und unwiderruflich anonymisiert werden. Allerdings steigt bei Big Data das Risiko der De-Anonymisierung von Daten aufgrund der Vielzahl der Daten und der Kombination unterschiedlicher Quellen deutlich an. Dies zeigen auch wissenschaftliche Untersuchungen [1]. Insgesamt erhöht Big Data Datenschutzrisiken, ggf. sogar beträchtlich. Empfehlungen Bei Big Data muss man die Technologie, die Prozesse und die rechtliche Zulässigkeit genau prüfen, ob eine wirksame Anonymisierung erfolgt ist. Wenn mit einer Einwilligung der Nutzer für Big Data-Analysen gearbeitet wird, ist diese auch genau zu prüfen. Hinsichtlich der aktuellen Diskussion um die Überwachung durch Geheimdienste gehen Datenschutzbehörden davon aus, dass die bisher genutzten safe harbor-regelungen gegebenenfalls nicht halten. Deshalb wird zurzeit empfohlen, alle Daten innerhalb des EU-Raumes, ggf. sogar in Deutschland, zu speichern, zu verarbeiten und zu nutzen sowie mittels Verträgen über Auftragsdatenverarbeitung rechtssicher zu gestalten. In jedem Fall ist der Datenschutzbeauftragte in die Gestaltung der Big Data-Analyse und in die date nschutzrechtliche Prüfung einzubeziehen. Häufig bietet es sich an, eine genaue technische und rechtliche Prüfung mit Hilfe eines Datenschutz- Gutachtens oder Datenschutz-Siegels vorzunehmen (z.b. ULD, eprivacyseal). Für Big Data-Anwendungen empfiehlt sich ein separates detailliertes Datenschutz-Gutachten oder ein Datenschutz- Siegel, da es keine datenschutzrechtlich anerkannten oder allgemein gültigen Technologien oder Prozesse gibt, auf die zurückgegriffen werden kann. Gutachten oder Siegel halten auch behördlichen Prüfungen stand und müssen erst nach einem längeren Zeitraum bzw. bei wesentlichen Änderungen der Technologie oder der Prozesse angepasst werden. Über 800 Gebrauchtstapler aller Marken, Typen und Preisklassen Prof. Dr. Christoph Bauer Geschäftsführer eprivacyconsult GmbH und Professor an der HSBA Hamburg School of Business Administration (1) Groupon: Ein Unternehmen, das WEbsites mit Rabattangeboten betreibt (Anm. d. Red.). Einladung für Sonntag, 1. Dezember 2013 zur großen Gebrauchtstapler-Messe und GRUMA StaplerCup 2014 bei Augsburg LITERATUR Indoor Jubiläum 10. GRUMA StaplerCup überdacht & beheizt Gruma Nutzfahrzeuge GmbH Äußere Industriestraße Friedberg-Derching Tel [1] A. Narayanan, V. Shmatikov: Robust Deanonymization of Large Datasets, Nov. 2007, oak08netflix.pdf, Zugriff INF INF TIP Sichere Datenübertragung Made in Munich Wie lässt sich digitale Kommunikation zuverlässig schützen? Der aktuelle Überwachungsskandal wirft diese Frage in besonderer Schärfe auf. Das flügge gewordene start-up FTAPI Software GmbH der Hochschule hat Antworten: Mit Softwarelösungen bietet es hochsicheren Datenaustausch. Die 2010 gegründete FTAPI Software GmbH entwickelt und vertreibt Software- Systeme für die sichere Übertragung und Speicherung geschäftlicher Daten. Ihr Produkt FTAPI SecuTransfer basiert auf einer eigenen Technologie, deren Entwicklung ideell durch das Strascheg Center for Entrepreneurship und finanziell durch die Europäische Union und das Bundesministerium für Wirtschaft gefördert wurde. Dabei setzt das Unternehmen neue Maßstäbe an Sicherheit und Effizienz bei geschäftlichem Dateiaustausch und bietet im Gegensatz zu den gängigen File Transfer-Lösungen eine tatsächlich durchgängige (Ende-zu-Ende) Verschlüsselung aller Dateien. Neben Mittelständlern aus Fertigungsindustrie, Einzelhandel und IT-Branche zählen auch Tec- und MDax Unternehmen zu den FTAPI -Nutzern. Die bisherigen Lösungen sind in der Regel nur scheinbar sicher. Die meisten Anwendungen fokussieren sich auf die Sicherheit bei der Übertragung, aber nicht während der Zwischenablage am Server und dieser Zeitraum ist für gewöhnlich wesentlich länger als der Versand an sich, sagte CTO Stephan Niedermeier. Claudia Köpfer Hochschule 13

14 Schwerpunkt Auf Schatzsuche im Web Aktuelle Änderungen des Nutzerverhaltens im Internet führen dazu, dass die Kommunikation mit Kunden sowie die Reaktion auf deren Kommunikation untereinander für den Erfolg oder Misserfolg am Markt entscheidend sind. Die Auswertung und das Verstehen des Nutzerverhaltens im Netz sind deshalb heute wichtiger als je zuvor. Der Wert der Aufmerksamkeit Dabei ist es üblicherweise sehr einfach, das Interesse der Kunden und Benutzer zu erkennen. Dagegen ist es ungleich schwerer, zu messen, ob ihr Interesse einen positiven oder einen negativen Hintergrund hat. Es ist deshalb ein Gebiet aktueller Forschung, Nutzerkommentare automatisiert auswerten zu können (Stavrianou 2007). Insbesondere sarkastische und ironische Kommentare und Produktbewertungen stellen die algorithmische Auswertung vor große Probleme, für die es bislang keine einfachen Lösungen gibt. Derart komplexe Fragestellungen gepaart mit der Datenflut, die im Internet bereit steht, stellen Unternehmen heutzutage vor große Herausforderungen. Um sich diesen zu stellen, ist oftmals ein umfangreicher Ausbau der IT Infrastruktur notwendig. Für kleinere oder mittelständische Unternehmen ist dieser Ausbau oftmals nicht zu bewältigen, sie müssen deshalb alternative Strategien finden, um mit den wachsenden Datenmengen umzugehen, für die sich der Begriff Big Data eingebürgert hat. Was ist Big Data? Für unstrukturierte, sehr umfangreiche, oftmals heterogene Daten wurde in den letzten Jahren der Begriff Big Data geprägt. Um die Speicherung, Verarbeitung und Auswertung solcher Datenmengen hat sich ein eigenes Software- Universum gebildet. Die Definition, wann es sich bei einer Datenmenge oder einer Fragestellung um Big Data handelt ist dabei allerdings oftmals unscharf. Eine der gängigsten Definitionen für den Begriff Big Data besagt, dass sich Big Data dadurch auszeichnet, dass es sich um Daten handle, die mit herkömmlichen [ ] Datenbanken und Datenmanagement-Tools nicht oder nur unzureichend verarbeitet werden können (Wikipedia). Dabei ist die Tatsache, dass herkömmliche Tools an ihre Grenzen stoßen oftmals gar nicht den Daten, sondern viel eher einem unzureichenden Design geschuldet. Exakter ist die Definition von Big Data, die Gartner prägt. Das amerikanische IT- Forschungsunternehmen kennzeichnet Big Data durch das Vorhandensein von drei Vs, nämlich 14 Volume, also der Datenmenge, die vorliegt, Velocity, also der Geschwindigkeit, mit der die Daten anfallen und Variety, worunter Gartner versteht, dass es sich um Daten in verschiedenen Ausprägungen handelt (Beyer 2011). Diese Definition ist zwar schärfer als die zuvor genannte, allerdings ermöglicht auch sie es nicht, ein Problem positiv als Big Data zu identifizieren. Dass Big Data nach spezialisierter Software verlangt, ist klar. Zentral für das Behandeln von Big Data ist Hadoop. Das von der Apache Foundation als Open Source angebotene Framework ermöglicht es, verteilte Prozesse und verteilte Datenspeicherung effizient zu implementieren. Es ist dabei nicht als Komplettlösung zu sehen, sondern bietet stattdessen die Plattform auf der solche Anwendungen maßgeschneidert werden können. Die Entwicklung einer Big Data Lösung auf Hadoop-Basis ist deshalb immer mit erheblichen Entwicklungskosten und Aufwand verbunden. Von der steigenden Verfügbarkeit von Daten im Internet kann man aber auch ohne diesen Aufwand profitieren. Daten im Netz Interessant sind Daten aus dem Internet insbesondere für Unternehmen im direkten Kundenkontakt. Das Erkennen von Bewegungen im Nutzerverhalten kann hier direkt genutzt werden, um bei möglichen Kundenwünschen oder Trends im Kundenverhalten zeitnah zu handeln. Abb. 1: Architektur der vorgestellten Lösung. Wir möchten hier nun exemplarisch darstellen, wie sich Trends in einem vom Einzelhandel dominierten Markt erkennen und bewerten lassen. Dafür ist es zunächst nötig, die Aufmerksamkeit zu messen, die einzelne Produkte erfahren. Für diese Fragestellung bietet Google mit Google Trends einen Dienst an, der es ermöglicht, abzufragen, wie oft in einem Zeitraum Suchanfragen auftraten, die einen bestimmten Suchbegriff enthalten. (Mohebbi 2011) Anhand dieser Daten ist allerdings nicht ersichtlich, ob diese veränderte Aufmerksamkeit dazu führt, dass Kunden eher zu einem Produkt greifen, als zum Konkurrenzprodukt oder anders herum. Beispielsweise würden die Schlagzeilen Produkt x heilt Krankheit y und Produkt x verursacht Krankheit y beide zu einer gesteigerten Aufmerksamkeit für Produkt x führen: In beiden Fällen würden mehr Nutzer als zuvor versuchen, die Schlagzeile zu verifizieren und die Hintergründe zu erfahren, aber nur im ersten Fall wäre damit zu rechnen, dass die Nachfrage nach Produkt x steigt. Der klassische Weg, um eine Qualifizierung herbei zu führen, wäre, Beiträge in den Sozialen Netzen zu finden und zu versuchen, sie mit Text Mining inhaltlich zu bewerten. Einfacher ist es aber, die Aufmerksamkeit zu qualifizieren, indem man eine weitere Kennzahl hinzu zieht. Besonders geeignet sind dabei Kennzahlen, anhand derer sich Zustimmung von Nutzern Grafiken: ixto GmbH

15 SCHWERPUNKT messen lässt. Das soziale Netzwerk Facebook hat mittlerweile eine sehr große Verbreitung erreicht und bietet mit dem Gefällt mir (englisch like ) Button eine sehr einfache Möglichkeit für die Nutzer, ihre Zustimmung zu etwas zum Ausdruck zu bringen. Bleiben wir beim oben erwähnten Beispiel vom Produkt x, das Krankheit y alternativ heilt oder auslöst. Wir legen nun die Annahme zugrunde, dass im Fall ersterer Schlagzeile mehr Benutzer auf der Facebook-Seite von Produkt x den Gefällt mir -Button klicken werden, als im Falle letzterer Schlagzeile. Dadurch wird es möglich, zu registrieren, ob die Schlagzeile, nach der bei Google gesucht wurde, einen für Produkt x positiven oder negativen Tenor hat. Das Zusammenführen mehrerer Informationsquellen hat hier also dazu geführt, dass wir eine inhaltliche Bewertung vornehmen können. Szenario 1: Fluktuation um Mittelwert. Szenario 3: Shitstorm Szenario 2: Candystorm Szenario 4: Effektlose Kampagne Mehrwert aus Daten Um zu einem Verfahren zu gelangen, bei dem automatisiert auf algorithmische Weise Schlüsse über das erwartete Verbraucherverhalten abgeleitet werden, müssen die Daten zunächst automatisiert erhoben werden. In einem Projekt mit einem Großunternehmen wurde dies von der ixto GmbH implementiert. Um die verschiedenen Big Data Datenquellen im Netz in das vorhandene Data Warehouse zu integrieren, wurden die Integration Services (SSIS) auf dem vorhandenen SQL Server genutzt. Es wurden für die API-Schnittstellen der verschiedenen Datenquellen.NET-Skriptkomponenten implementiert. Um die Daten weiter verarbeiten zu können, wurden sie mit den Analysis Services (SSAS) in Tabular Cubes aufbereitet und zur Visualisierung mit den Reporting Services (SSRS) Berichte erstellt. Da eine Historisierung der Facebook-Likes nicht über die API abrufbar ist, wird sie im Rahmen des Projekts selber durchgeführt. Reaktionsmuster der Kunden identifizieren Im nächsten Schritt wurden mehrere Szenarien entwickelt, um Abhängigkeiten innerhalb der Daten vorher zu sagen. Diese Abhängigkeiten wurden dann mit Hilfe der vorliegenden Daten verifiziert, wobei die klassischen Verfahren der Assoziationsanalyse zum Einsatz kamen. Vier der dabei erkannten Szenarien sind in der folgenden Übersicht gezeigt. Alle Diagramme skizzieren die Anzahl der Google- Suchen (in rot) und Facebook-Likes (in blau) über der Zeit. Abb. 2: Vier exemplarische Szenarien für die Wechselwirkung zwischen Google- (rote Linie) und Facebook-Daten (blaue Linie). Das erste Szenario (links oben in Abb. 2) ist dabei das Standard-Szenario, bei dem es keine nennenswerten Veränderungen in den Daten gibt. Im zweiten Szenario (rechts oben in Abb. 2) steigen sowohl die Anzahl der Google-Suchen als auch die Anzahl der Gefällt mir -Bekundungen bei Facebook stark an. Für ein derartiges Szenario, bei dem eine Kampagne oder eine Nachricht über ein Produkt zu vermehrten Sympathiebekundungen führt, wird häufig als Candystorm bezeichnet. Typischerweise würde der Einzelhändler, wenn er ein solches Verhalten beobachtet, die Lagerhaltung für das betreffende Produkt erhöhen. Das Gegenteil ist in Szenario 3 (links unten in Abb. 2) skizziert. Hier sorgt die gesteigerte Aufmerksamkeit, erkennbar an den stark ansteigenden Google- Suchen, nicht zur vermehrten Sympathiebekundung. Dieses Szenario wird häufig als Shitstorm bezeichnet: es wird negativ über das Produkt gesprochen. Szenario 4 (rechts unten in Abb. 2) ist ein weiteres Szenario, das sich in den Daten wieder findet. Einem kurzen, rasanten Anstieg der Anzahl der Google-Suchen folgt rasch wieder die Reduzierung auf das Normal- Niveau während die Anzahl der Facebook-Likes nahezu konstant bleibt. Ein solches Verhalten lässt sich beispielsweise beobachten, wenn eine Werbekampagne einer Firma gestartet wird, die aber bei den Benutzern auf kein Interesse stößt. Alle diese Szenarien lassen sich bereits nach kurzer Datenerhebung auch in den realen Daten beobachten, eine manuelle Auswertung zeigte, dass die dabei mit den Szenarien verknüpften Vorstellungen weitestgehend der Realität entsprachen. Zusammenfassung und Ausblick Wir haben gezeigt, dass Big Data nicht unbedingt den Firmen vorbehalten bleiben muss, die selber große Datenmengen produzieren oder auch nur die technische Infrastruktur haben, solche zu verarbeiten. Stattdessen können auch kleine und mittelständische Betriebe von den bereits vorhandenen Datenmengen im Netz profitieren. Sowohl für sie als auch für Großunternehmen ist dabei oftmals die Perspektive interessant, die Daten ohne den Aufbau einer eigens dafür angeschafften IT Infrastruktur innerhalb der bereits vorhandenen oder mit kleinem Investitionsvolumen anschaffbaren Ressourcen zu sammeln und auszuwerten und so die Schätze des Webs zu bergen. Dr. Benjamin Kettner ixto GmbH, Berlin LITERATUR Beyer, Mark. Gartner gartner.com/newsroom/id/ (Zugriff am ). Mohebbi, M., Vanderkam, D., Kodysh, J., Schonberger, R., Choi, H., & Kumar, S. Google correlate whitepaper.o1. August Stavrianou, A., Andritsos, P., & Nicoloyannis, N. Overview and semantic issues of text mining. ACM Sigmod Record, 2007: Wikipedia. kein Datum. org/wiki/big_data (Zugriff am ). 15 INF INF TIP

16 Schwerpunkt Big Data bei ProSiebenSat.1 Digital Big Data ist in aller Munde ein typisches Hype-Thema, könnte man meinen. Doch hinter dem Hype verbirgt sich ein enormes technologisches Potenzial, das innovative Unternehmen bereits in großen Projekten zum Einsatz bringen. Das IT-Projekthaus inovex hat die ProSiebenSat.1 Digital GmbH dabei unterstützt, auf der Basis der Open-Source-Software Apache Hadoop eine komplexe Big-Data-Lösung für die Analyse des gesamten Web Traffic zu erstellen, der in der Unternehmensgruppe entsteht. Die ProSiebenSat.1 Group im Kurzprofil Die ProSiebenSat.1 Group zählt heute mit 28 TV-Sendern und einer Reichweite von über 62 Millionen TV-Haushalten zu den führenden Medienkonzernen Europas. Das Kerngeschäft der Gruppe ist das Fernsehen, von den bekannten TV-Sendermarken wie SAT.1, ProSieben, kabel eins und sixx über die ProSiebenSat.1 Networld bis hin zur Online-Videothek maxdome, digitalen Pay-TV-Angeboten und mobilen Services. Die ProSiebenSat.1 Digital GmbH produziert als digitale Entertainment-Tochter alle interaktiven Plattformen wie Online, Hbb- TV, Teletext oder Mobile. Skalierende Datenvolumina + heterogene Datenquellen = Big Data Die ProSiebenSat.1 Digital GmbH benötigt für die Messung, Steuerung und Optimierung ihrer zahlreichen Online-Plattformen detaillierte Datenanalysen des Web Traffic. Primär sind dabei nicht-transaktionale Online-Plattformen relevant, aber es sollen auch Transaktionsdaten der Video-Plattform MyVideo und von maxdome.de eingebunden werden. Während der IT-technischen Konzeption einer geeigneten Analyse-Plattform (Data Warehouse) stößt man sehr schnell auf zwei typische Big-Data-Problemstellungen: ein sehr stark skalierendes Datenvolumen und eine Vielzahl von heterogenen Datenquellen. Das absolute Datenvolumen im Jahr 2012 liegt bei etwa 10 Terrabyte, eine heute auch mit klassischen Data-Warehouse-Technologien beherrschbare Größe. Das erwartete Datenwachstum von jährlich 300 % führt jedoch bereits bis 2015 zu einer Datenmenge im Petabyte-Bereich Big Data also. In das Data Warehouse sollen Kennzahlen von vielen verschiedenen Diensten einfließen und miteinander in Beziehung gesetzt werden. Die Quellsysteme teilen sich dabei auf fünf Bereiche auf: Online-Trafficdaten aus verschiedenen Messsystemen Google Analytics WebTrekk Unique User Tracker Social Networks, z. B. Facebook Insights 2. Vermarktungsdaten aus der Online-Werbung von verschiedenen Adservern: AdServer (DoubleClick for Publishers) AdSense OpenX Salesforce (ProDia) 3. Markt- und Konkurrenzdaten IVW AGOF 4. Transaktionsbezogene Daten User Service MyVideo-Registrierungen Social Networks, z. B. Facebook Insights Maxdome 5. Weitere, interne Daten zur Geschäftssteuerung Controlling: Budget- und Forecast-Daten TV-Schaltpläne für Eigenwerbung TV-Reichweiten (Sender und Formate) Kampagnen-Daten (Online-Marketing, Werbemittelvermarktung) Beschreibende Daten zu Videos und anderem Content Hybride Big-Data-Plattform auf Open-Source-Basis Das vorgeschlagene Data Warehouse setzt sich als hybride, Open-Source-basierte Lösung aus einer relationalen Datenbank mit PostgreSQL sowie einem vorgelagerten Storage-and-Compute-Cluster auf Basis von Apache Hadoop zusammen (s. Schaubild rechts). Das Apache-Hadoop-Cluster übernimmt die Speicherung aller historischen Daten in feinster Granularität und stellt den Integrations-Layer bereit. Hadoop ist dafür konzipiert worden, große Datenmengen kostengünstig zu speichern und zu verarbeiten. Als horizontal skalierbares System ermöglicht Hadoop, dem heutigen Datenspeicherbedarf entsprechend mit einem kleinen Cluster aus sechs Knoten zu starten. Das prognostizierte Anwachsen der Datenmenge kann zukünftig einfach durch Hinzunahme neuer Knoten aufgefangen werden. Durch die redundante Speicherung aller Daten im Cluster und die Konzeption des Hadoop- Frameworks ist außerdem die Ausfallsicherheit des Clusters bereits per se gegeben. Um die Installation und Konfiguration des Clusters zu vereinfachen, wird die CDH4-Distribution von Cloudera eingesetzt, in der alle benötigten Software-Komponenten aus dem Hadoop-Ecosystem optimal aufeinander abgestimmt sind. Die Software wird mithilfe spezialisierter Rex- Module (inovex-toolsuite für Deployment- und Configuration-Management, voll automatisiert im Cluster verteilt, installiert und konfiguriert. Datenintegration und -aufbereitung Die Vielzahl an unterschiedlichen Datenquellen erfordert verschiedene Herangehensweisen an deren Erschließung für das Data- Warehouse-System: In den Fällen, in denen eine tagesaktuelle Verfügbarkeit der Daten ausreichend ist, werden diese als Dateien über einen Austausch per Secure FTP zur Verfügung gestellt. Videodaten, die mit geringerer Verzögerung ausgewertet werden müssen, werden dagegen über einen verteilten, ausfallsicheren Datentransportdienst (Apache Flume) eingesammelt. Daten aus sozialen Netzwerken wie Twitter und Facebook werden über deren serviceorientierte Schnittstellen abgefragt.

17 INF INF TIP SCHWERPUNKT Die Bewirtschaftung eines solchen Systems geschieht durch sogenannte ETL-Prozesse (Extract, Transfer, Load). Hadoop unterstützt dabei hochgradig parallele und damit sehr schnelle Verarbeitungsprozesse nach dem Map-Reduce- Verfahren. Zur Erstellung dieser Programme ist je nach Anwendungsfall eine der folgenden Alternativen gewählt worden: Pentaho Data Integration: bietet eine grafische Oberfläche, mit der BI-Anwender einfache Map-Reduce-Jobs erstellen können. Pig Latin: ist eine Skriptsprache, die für Datenbankentwickler leicht zu erlernen ist und im Hintergrund Map-Reduce-Jobs generiert. Java: manuelle Entwicklung der Mapper- und Reducer-Klassen in Java für besonders komplexe Transformationen oder wenn höchste Performance erforderlich ist. Datenanalyse Im Data Warehouse erfolgen die dimensionale Modellierung und die Implementierung eines Reporting- und Analyse-Layers. Damit steht dem Anwender ein geeignetes Daten modell und eine vertraute Abfragesprache (SQL) zur Verfügung, um sowohl Standardberichte als auch Ad-hoc-Auswertungen schnell und qualitätsgesichert bereitstellen zu können. Außerdem können so praktisch alle BI-Frontend-Tools per ODBC auf das DWH zugreifen. Aber auch auf die Rohdaten im Hadoop-Cluster kann für Adhoc-Analysen per SQL bzw. ODBC zugegriffen werden: Ein Hive-Server stellt diesen Zugriff zur Verfügung. Hive wandelt die deskriptiven SQL- Anfragen in Map-Reduce-Jobs um, die dann auf dem Cluster abgearbeitet werden. Zusammenfassung inovex hat fü r die ProSiebenSat.1 Digital GmbH zur Analyse des gesamten Web Traffic eine hybride Big-Data-Lösung aus einer relationalen Datenbank und einem Apache Hadoop Cluster entwickelt. Die SQL-Datenbank stellt ein vertrautes Interface bereit und erreicht Antwortzeiten im Sekundenbereich, Hadoop deckt die Big-Data-Anforderungen auch langfristig souverän ab. Zusätzlich zu den Log-Daten werden Daten aus dem Bereich Social-Media (Facebook, Twitter, Google Analytics) mit integriert. Jörg Ruckelshauß inovex GmbH, Münster INFORMATIONEN Key Facts Big-Data-System mit Apache Hadoop 5 Hadoop-relevante Datenquellen > Datensätze mit 250 GB Volumen pro Tag Technologien Apache Hadoop, PIG, Hive, Flume, Java, PostgreSQL, Pentaho Data Integration ÜBER INOVEX inovex ist ein inhabergefü hrtes IT-Projekthaus. Mehr als 120 IT-Ingenieure unterstützen seit 1999 die IT-Abteilungen in großen Unternehmen und in Internet-Companies bei der Bewältigung der wichtigsten Aufgaben, die sich derzeit im Internet-Umfeld stellen: Web und Mobile Engineering, Business Intelligence (BI) und Big Data, Cloud-Infrastrukturen und Data Center Management. Die BI-Kompetenz von inovex deckt sowohl die klassischen BI- Themen ab (Data Warehouse, ETL, Reporting, Dashboards) als auch die neuen Trends im BI- Umfeld: Big Data, Enterprise Search und Social Analytics. inovex deckt die gesamte Big-Data- Palette ab: Aufbau der Infrastruktur, Big Data Engineering, Einfü hrung von Map-Reduce und die Unterstü tzung angrenzender Technologien (Flume, HBase, Pig, Hive). INF INF TIP 17

18 EfficiEnt. technology. WorldWidE. EfficiEnt. technology. WorldWidE. more... than a job. Der Knorr-Bremse Konzern ist weltweit der führende Hersteller von Bremssystemen für Schienen- und Nutzfahrzeuge. Als technologischer Schrittmacher treibt das Unternehmen seit über 100 Jahren maßgeblich Entwicklung, Produktion, Vertrieb und Service moderner Bremssysteme voran. Im Jahr 2012 erwirtschaftete der Konzern einen Umsatz von 4,3 Mrd. Euro und beschäftigte weltweit rund Mitarbeiter an über 85 Standorten in mehr als 25 Ländern. Engagieren Sie sich in unserem global agierenden Unternehmen und bei unseren geschäftsfeldspezifischen, hoch interessanten Herausforderungen von Teilaufgaben bis zu komplexen Projekten als (m/w): Entwicklungsingenieur Versuchsingenieur informatiker Projektleiter Systemingenieur Mehr Information im Stellenmarkt unter 18

19 Hintergrund Big Data in Bibliotheken Es bleibt viel zu tun Was wir heute als Informationsflut empfinden ist für Bibliotheken kein grundsätzlich neues Phänomen. Mit riesigen Textbergen konfrontiert, standen sie schon früh vor dem Problem, diese unübersichtliche Menge sinnvoll aufzubereiten. Digitalisierung ganzer Bücher noch dringlicher geworden. Durch das Scannen von einer Million Bücher entstehen etwa eine Milliarde Dateien mit einem Speicherplatzbedarf von ca. 500 Terabyte. Eine gigantische Menge, angesichts von etwa 190 Millionen Büchern, die deutsche Bibliotheksverbünde nachweisen. Foto: Deutsches Museum Unauffindbar werden Informationen, wenn ihre Beschreibung und ihr Standort nicht verläßlich dokumentiert werden. Bis 1910 hatte sich allein in Deutschland die Buchproduktion innerhalb von 40 Jahren auf Titel pro Jahr verdreifacht. Eine enorme Herausforderung, der die handschriftliche Verzeichnung in Büchern nicht mehr gerecht wurde, und bei deren Bewältigung die Kontrolle der anfallenden Daten eine zentrale Rolle spielte. Abhilfe boten die Preußischen Instruktionen, die seit 1899 zum Standard für die Titelaufnahmen wurden. Einmal erstellt, konnten sie aus den Berliner Titeldrucken ausgeschnitten und andernorts weiterverwendet werden. Mit einem Wechsel des Datenträgers vom Buch zur Karteikarte wurden die Vorteile dieser Arbeitsteilung noch besser ausgenutzt. Schon 1901 war es in den USA möglich, Titelaufnahmen auf Karteikarten zu kaufen, die, um Weniges ergänzt, in den Zettelkatalog eingelegt werden konnten. Arbeitsteilung und Standardisierung als Lösung Doch auch die Karteikarte als Datenträger war der steigenden Buchproduktion nicht dauerhaft gewachsen. Sie blieb ein fragiles Rechercheinstrument, das zum Schutz vor Manipulation Fachpersonal vorbehalten blieb. Aufgrund der physischen Begrenztheit von Karte und Kasten waren Regeln zur Reduktion der Datenmenge notwendig und für gewöhnlich waren die Leser gezwungen, ihre Suche mit Fragen nach Verfasser und Thema zu beginnen. Eine Vernetzung der Informationen und zusätzliche Sucheinstiege erreichte man nur durch die Einführung von Verweisungssystemen und Klassifikationen. Deren weltweit bekannteste, die Dewey Decimal Classification von 1876, erlaubt dank ihrer weiten Verbreitung die Recherche über sehr große und verteilte Datenbestände. Big Data beschäftigt Bibliotheken schon lange und die Datenspeicherung auf Pappkarten stellte für das Information Retrieval (computergestützte Suche nach komplexen Inhalten) in den 1970er Jahren nur eines von mehreren Problemen dar. Auf eine einheitliche Aufbereitung der Informationen war auch die elektronische Datenverarbeitung angewiesen und führte Mitte der 1980er Jahre zur Einführung normierter Vokabularien für die Erschließung. Ein abgestimmtes und arbeitsteiliges Vorgehen ist durch die Ende der 1990er Jahre beginnende Langzeitverfügbarkeit ist eine Gemeinschaftsaufgabe Den Weg in die Zukunft weisen uns wiederum Strategien aus der Vergangenheit. Um die sprunghaft gewachsene Datenmenge für die Zukunft aufzubewahren, wird sie wie Bücher nach dem Motto Lots Of Copies Keep Stuff Safe in mehreren Exemplaren an verschiedenen Orten gesichert. Der begrenzten Haltbarkeit der elektronischen Trägermedien versucht man durch eine fortlaufende Migration der Daten in neue Speicher zu begegnen, vergleichbar der ständigen Neuauflage und Abschrift von Texten. Und damit die Daten nicht nur erhalten, sondern auch unter veränderten technischen Bedingungen benutzbar bleiben, kommen offene Dokumentenformate zum Einsatz, deren Interpretation ohne herstellergebundene Software auskommt. Denn verschlüsselte Informationen können nur mit größter Mühe gerettet werden, wenn die Sprache in Vergessenheit gerät, in der die Daten kodiert wurden. Nicht zufällig wurden Projekte für diese Herkulesaufgabe nach mythischen Figuren ( Nestor ) oder dem Schlüssel zur Entzifferung der Hieroglyphen ( Rosetta ) benannt. Die Langzeitverfügbarkeit von Big Data kann darum nur gemeinschaftlich gelingen und erfordert neben zentralen Strukturen die Mitarbeit aller. Von Beginn an müssen alle Daten mit Hilfe von Ontologien homogen formuliert und verknüpft werden, damit sie maschinell verarbeitbar sind und ihr Sinngehalt erhalten bleibt. Und darum gehen nun alle Bibliotheken erneut daran, ihre riesigen Informationsspeicher für die Zukunft fit zu machen. Christian Knoop Stellvertretender Leiter der Bibliothek des Deutschen Museums, 19

20 Schwerpunkt Big Data Verwendungsmöglichkeiten räumlicher Daten zur Unterstützung von komplexen Analysen Durch die Hardware- und Softwareentwicklung und der Speichermedien ist es möglich erheblich mehr Daten elektronisch zu verarbeiten und performant bereit zu stellen. Dabei kann es sich um selbst erzeugte Informationen aber auch um Verknüpfungen aus anderen Quellen handeln (z.b. Google-Maps, Facebook, usw.). Wobei die Daten sowohl in strukturierter (z.b. Buchungen) als auch in unstrukturierte Form (z.b. Einträge in sozialen Netzwerken) vorliegen können. Die Zusammenführung von großen Datenbeständen und die daraus resultierenden Möglichkeiten zu komplexe Analysen, werden im Allgemeinen als Big Data bezeichnet. aus 3 unter Linux-64bit Rechenknoten mit jeweils 128GB Hauptspeicher und 2 CPU s, welche eine hohe Ausfallsicherheit und eine bessere Verteilung der Rechenlast ermöglichen. Die Knoten sind ebenfalls auf zwei Serverräume verteilt. Der Zugriff auf die Plattensysteme wird über NFS (Network-File-System) realisiert. Die Größe des derzeitigen Datawarehouses (Datenbank) beträgt zurzeit ca. 1 Terabyte. Abb. 1: Beispiel einer Visualisierung von komplexen Analysen. Dargestellt werden Kernzonen und Erreichbarkeit der Notarztdienste. Ergänzend werden die Notarztdienstbereiche und das Notarztaufkommen auf Ebene der Gemeindeteile angezeigt. Viele Daten und Informationen, die in Datenbanken verarbeitet werden, weisen einen räumlichen Bezug auf. Dabei gewinnt die verständliche Visualisierung komplexer räumlicher Zusammenhänge bei vielen Entscheidungsprozessen an Bedeutung. Bei der Analyse und Darstellung von Ergebnissen und Fakten bietet der Bezug auf räumliche Daten entscheidende Vorteile. Dies gilt bereits für einfache Fragestellungen; beispielsweise: Wo liegen meine Kunden? oder Wie verteilen sich die Patientenaufnahmen über die Kliniken in Bayern? Das Institut für Notfallmedizin und Medizinmanagement (INM) beschäftigt sich als interdisziplinäre Einrichtung des Klinikums der Universität u.a. mit Fragestellungen der Qualitätssicherung im Bereich des Rettungsdienstwesens. Im Rahmen der Trendund Strukturanalyse des Rettungsdienstes in Bayern (TRUST), in Auftrag gegeben vom 20 Bayerischen Staatsministerium des Innern und den Sozialversicherungsträgern, werden seit 1998 alle bayerischen Rettungsdienstbereiche einer wissenschaftlichen Begutachtung in Form einer Struktur- und Bedarfsanalyse, sowie einer Wirtschaftlichkeits- und Trendanalyse unterzogen. Grundlage für die Untersuchung sind die Einsatzdaten der 26 bayerischen Leitstellen, die seit Beginn der Studie kontinuierlich an das INM übermittelt werden. Technische Umsetzung Sämtliche Daten Einsatzdaten, Metadaten, räumliche Daten, Auswertungen etc. werden zentral in einer ORACLE-Cluster Datenbank ( RAC Enterprise-Edition) gehalten. Als Speicherbasis dient ein Netapp-Metro Cluster (FAS-3240). Platten und Steuerungsköpfe liegen redundant vor und sind auf zwei Serverräume verteilt. Der Clusterverbund besteht weiterhin Datenbasis Sämtliche Einsatzdaten aus den Bayerischen Leitstellen werden regelmäßig ins Datawarehouse des INM eingespielt und einer komplexen Qualitätssicherung unterzogen. Dabei bildet das Prinzip ETL Extract Transform Load eine entscheidende Grundlage. Die Daten werden aus heterogenen Systemen extrahiert, durch Transformation an die Struktur des Datawarehouses angepasst und schließlich (fehlerbereinigt) geladen. Neben den reinen Einsatzdaten werden zusätzliche Metadaten Rettungsdienststandorte, Betreiber, Fahrzeuge und deren Verfügbarkeit, Landkreise, Gemeinden, Einwohner, etc. gespeichert. Die Visualisierung der Ergebnisse und Analysen erfolgt u.a. über Oracle MapViewer. Die zugrunde liegenden räumlichen Datengrenzen der administrativen Einheiten (z.b. Gemeinden), rettungsdienstliche Strukturen (z.b. Rettungsdienststandorte, Kliniken), routingfähiges Straßennetz etc.) liegen ebenfalls in unterschiedlichen Oracle-Datenbankschemen. Die Nutzung von Oracle Spatial eine Zusatzoption zur Oracle Database 11g, Enterprise Edition ermöglicht zusätzlich die Verwaltung von raumbezogenen Daten, sowohl Vektor- als auch Rasterdaten. Sämtliche Daten liegen dabei in relationaler Form dar.

Datenschutz im Unternehmen. Was ist Datenschutz, und weshalb betrifft er unser Unternehmen?

Datenschutz im Unternehmen. Was ist Datenschutz, und weshalb betrifft er unser Unternehmen? Was ist Datenschutz, und weshalb betrifft er unser Unternehmen? 1 Herzlich willkommen! Die Themen heute: Datenschutz ein aktuelles Thema Gründe für einen guten Datenschutz Welche Grundregeln sind zu beachten?

Mehr

Lassen Sie sich entdecken!

Lassen Sie sich entdecken! Digital Marketing Agentur für B2B Unternehmen EXPERTISE ONLINE MARKETING IM B2B Lassen Sie sich entdecken! EINE GANZHEITLICHE ONLINE MARKETING STRATEGIE BRINGT SIE NACHHALTIG IN DEN FOKUS IHRER ZIELKUNDEN.

Mehr

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen 01000111101001110111001100110110011001 Volumen 10 x Steigerung des Datenvolumens alle fünf Jahre Big Data Entstehung

Mehr

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data: Nutzen und Anwendungsszenarien CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data steht für den unaufhaltsamen Trend, dass immer mehr Daten in Unternehmen anfallen und von

Mehr

Erfolgreiche Webseiten: Zur Notwendigkeit die eigene(n) Zielgruppe(n) zu kennen und zu verstehen!

Erfolgreiche Webseiten: Zur Notwendigkeit die eigene(n) Zielgruppe(n) zu kennen und zu verstehen! Erfolgreiche Webseiten: Zur Notwendigkeit die eigene(n) Zielgruppe(n) zu kennen und zu verstehen! www.wee24.de. info@wee24.de. 08382 / 6040561 1 Experten sprechen Ihre Sprache. 2 Unternehmenswebseiten

Mehr

Verpasst der Mittelstand den Zug?

Verpasst der Mittelstand den Zug? Industrie 4.0: Verpasst der Mittelstand den Zug? SCHÜTTGUT Dortmund 2015 5.11.2015 Ergebnisse einer aktuellen Studie der Technischen Hochschule Mittelhessen 1 Industrie 4.0 im Mittelstand Ergebnisse einer

Mehr

All for One Steeb. Das SAP Haus. ALL FOR ONE STEEB DAS SAP HAUS

All for One Steeb. Das SAP Haus. ALL FOR ONE STEEB DAS SAP HAUS All for One Steeb. Das SAP Haus. ALL FOR ONE STEEB DAS SAP HAUS DAS SAP HAUS FÜHREND IM MITTELSTAND All for One Steeb ist die Nummer 1 unter den SAP-Partnern im deutschsprachigen Mittelstandsmarkt. 900

Mehr

Positionspapier Big Data

Positionspapier Big Data TeleTrusT-interner Workshop Berlin, 05.06.2014 Positionspapier Big Data Oliver Dehning, antispameurope GmbH Leiter der AG Cloud Security Definition Big Data Big Data bezeichnet große Datenmengen (Volume)

Mehr

Feedback in Echtzeit. Social Media Monitoring Services von Infopaq. SOCIAL MEDIA

Feedback in Echtzeit. Social Media Monitoring Services von Infopaq. SOCIAL MEDIA MEDIENBEOBACHTUNG MEDIENANALYSE PRESSESPIEGELLÖSUNGEN Feedback in Echtzeit. Social Media Monitoring Services von Infopaq. SOCIAL MEDIA Risiken kennen, Chancen nutzen. So profitiert Ihr Unternehmen von

Mehr

Inside. IT-Informatik. Die besseren IT-Lösungen.

Inside. IT-Informatik. Die besseren IT-Lösungen. Inside IT-Informatik Die Informationstechnologie unterstützt die kompletten Geschäftsprozesse. Geht in Ihrem Unternehmen beides Hand in Hand? Nutzen Sie Ihre Chancen! Entdecken Sie Ihre Potenziale! Mit

Mehr

Virtual Roundtable: Business Intelligence - Trends

Virtual Roundtable: Business Intelligence - Trends Virtueller Roundtable Aktuelle Trends im Business Intelligence in Kooperation mit BARC und dem Institut für Business Intelligence (IBI) Teilnehmer: Prof. Dr. Rainer Bischoff Organisation: Fachbereich Wirtschaftsinformatik,

Mehr

THE KNOWLEDGE PEOPLE. CompanyFlyer.indd 1 07.03.2016 11:48:05

THE KNOWLEDGE PEOPLE. CompanyFlyer.indd 1 07.03.2016 11:48:05 THE KNOWLEDGE PEOPLE CompanyFlyer.indd 1 07.03.2016 11:48:05 BE SMART IT-CONSULTING Smartes IT-Consulting für die Zukunft: Agilität, Dynamische IT, Komplexitätsreduzierung, Cloud, Industrie 4.0, Big Data

Mehr

Internet of Things. Wirtschaftsforum 02.09.15 Olten 18:10-18:50 OVR B135

Internet of Things. Wirtschaftsforum 02.09.15 Olten 18:10-18:50 OVR B135 Internet of Things Wirtschaftsforum 02.09.15 Olten 18:10-18:50 OVR B135 Internet of Things Wirtschaftsforum 02.09.15 Olten 18:10-18:50 OVR B135 Eingebettetes Video, Dauer : 1'47'' Was ist das Internet

Mehr

Engineering Kompetenz ist ein Versprechen.

Engineering Kompetenz ist ein Versprechen. Engineering Kompetenz ist ein Versprechen. In der modernen Zerspanung geht es um mehr als Drehen, Fräsen, Bohren und Gewinden. Perfektion und Präzision sind nur noch Grundvoraussetzung für Ihren Erfolg.

Mehr

OUTSOURCING ADVISOR. Analyse von SW-Anwendungen und IT-Dienstleistungen auf ihre Global Sourcing Eignung. Bewertung von Dienstleistern und Standorten

OUTSOURCING ADVISOR. Analyse von SW-Anwendungen und IT-Dienstleistungen auf ihre Global Sourcing Eignung. Bewertung von Dienstleistern und Standorten Outsourcing Advisor Bewerten Sie Ihre Unternehmensanwendungen auf Global Sourcing Eignung, Wirtschaftlichkeit und wählen Sie den idealen Dienstleister aus. OUTSOURCING ADVISOR Der Outsourcing Advisor ist

Mehr

Content Management System mit INTREXX 2002.

Content Management System mit INTREXX 2002. Content Management System mit INTREXX 2002. Welche Vorteile hat ein CM-System mit INTREXX? Sie haben bereits INTREXX im Einsatz? Dann liegt es auf der Hand, dass Sie ein CM-System zur Pflege Ihrer Webseite,

Mehr

Geyer & Weinig: Service Level Management in neuer Qualität.

Geyer & Weinig: Service Level Management in neuer Qualität. Geyer & Weinig: Service Level Management in neuer Qualität. Verantwortung statt Versprechen: Qualität permanent neu erarbeiten. Geyer & Weinig ist der erfahrene Spezialist für Service Level Management.

Mehr

Interview zum Thema Management Reporting &Business Intelligence

Interview zum Thema Management Reporting &Business Intelligence Interview zum Thema Management Reporting &Business Intelligence Das ist ja interessant. Können Sie etwas näher beschreiben, wie ich mir das vorstellen kann? Jens Gräf: In einem Technologieunternehmen mit

Mehr

SMARTE LÖSUNGEN FÜR DIE VERNETZTE WELT

SMARTE LÖSUNGEN FÜR DIE VERNETZTE WELT SMARTE LÖSUNGEN FÜR DIE VERNETZTE WELT VERBINDEN SIE IHRE GERÄTE MIT DER VERNETZTEN WELT SMARTE LÖSUNGEN FÜR NEUE GESCHÄFTSMODELLE Die digitale Revolution hat das nächste Level erreicht, Vernetzung und

Mehr

facebook wie geht das eigentlich? Und was ist überhaupt Social media?

facebook wie geht das eigentlich? Und was ist überhaupt Social media? facebook wie geht das eigentlich? Und was ist überhaupt Social media? Fachtag Facebook& Co. für Multiplikator_innen (Aufbereitung der Präsentation für die Homepage, der ursprüngliche Vortrag wurde mit

Mehr

Datenschutzrechtliche Anforderungen an Big- Data Konzepte

Datenschutzrechtliche Anforderungen an Big- Data Konzepte Datenschutzrechtliche Anforderungen an Big- Data Konzepte Datenschutztag 2015, Köln 23 September 2015 Kathrin Schürmann, Rechtsanwältin 1 2015 ISiCO Datenschutz GmbH All rights reserved Big Data Ein Definitionsversuch:

Mehr

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem Fachbericht zum Thema: Anforderungen an ein Datenbanksystem von André Franken 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 2 Einführung 2 2.1 Gründe für den Einsatz von DB-Systemen 2 2.2 Definition: Datenbank

Mehr

Executive Summary BIG DATA Future Chancen und Herausforderungen für die deutsche Industrie

Executive Summary BIG DATA Future Chancen und Herausforderungen für die deutsche Industrie Executive Summary BIG DATA Future Chancen und Herausforderungen für die deutsche Industrie BIG DATA Future Opportunities and Challanges in the German Industry Zusammenfassung Die Menge der verfügbaren

Mehr

Staatssekretär Dr. Günther Horzetzky

Staatssekretär Dr. Günther Horzetzky #upj15 #upj15 Staatssekretär Dr. Günther Horzetzky Ministerium für Wirtschaft, Energie, Industrie, Mittelstand und Handwerk des Landes Nordrhein-Westfalen Ministerium für Wirtschaft, Energie, Industrie,

Mehr

IT-Governance und Social, Mobile und Cloud Computing: Ein Management Framework... Bachelorarbeit

IT-Governance und Social, Mobile und Cloud Computing: Ein Management Framework... Bachelorarbeit IT-Governance und Social, Mobile und Cloud Computing: Ein Management Framework... Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaft

Mehr

Mit dem richtigen Impuls kommen Sie weiter.

Mit dem richtigen Impuls kommen Sie weiter. Mit dem richtigen Impuls kommen Sie weiter. Editorial ERGO Direkt Versicherungen Guten Tag, die Bedeutung von Kooperationen als strategisches Instrument wächst zunehmend. Wir haben mit unseren Partnern

Mehr

SSI WHITE PAPER Design einer mobilen App in wenigen Stunden

SSI WHITE PAPER Design einer mobilen App in wenigen Stunden Moderne Apps für Smartphones und Tablets lassen sich ohne großen Aufwand innerhalb von wenigen Stunden designen Kunde Branche Zur Firma Produkte Übersicht LFoundry S.r.l Herrngasse 379-381 84028 Landshut

Mehr

Der Schutz von Patientendaten

Der Schutz von Patientendaten Der Schutz von Patientendaten bei (vernetzten) Software-Medizinprodukten aus Herstellersicht 18.09.2014 Gerald Spyra, LL.M. Kanzlei Spyra Vorstellung meiner Person Gerald Spyra, LL.M. Rechtsanwalt Spezialisiert

Mehr

TEUTODATA. Managed IT-Services. Beratung Lösungen Technologien Dienstleistungen. Ein IT- Systemhaus. stellt sich vor!

TEUTODATA. Managed IT-Services. Beratung Lösungen Technologien Dienstleistungen. Ein IT- Systemhaus. stellt sich vor! TEUTODATA Managed IT-Services Beratung Lösungen Technologien Dienstleistungen Ein IT- Systemhaus stellt sich vor! 2 Willkommen Mit dieser kleinen Broschüre möchten wir uns bei Ihnen vorstellen und Ihnen

Mehr

Speicher in der Cloud

Speicher in der Cloud Speicher in der Cloud Kostenbremse, Sicherheitsrisiko oder Basis für die unternehmensweite Kollaboration? von Cornelius Höchel-Winter 2013 ComConsult Research GmbH, Aachen 3 SYNCHRONISATION TEUFELSZEUG

Mehr

Spotlight 5 Gründe für die Sicherung auf NAS-Geräten

Spotlight 5 Gründe für die Sicherung auf NAS-Geräten Spotlight 5 Gründe für die Sicherung auf NAS-Geräten NovaStor Inhaltsverzeichnis Skalierbar. Von klein bis komplex.... 3 Kein jonglieren mehr mit Wechselmedien... 3 Zentralisiertes Backup... 4 Datensicherheit,

Mehr

Herzlich Willkommen beim Webinar: Was verkaufen wir eigentlich?

Herzlich Willkommen beim Webinar: Was verkaufen wir eigentlich? Herzlich Willkommen beim Webinar: Was verkaufen wir eigentlich? Was verkaufen wir eigentlich? Provokativ gefragt! Ein Hotel Marketing Konzept Was ist das? Keine Webseite, kein SEO, kein Paket,. Was verkaufen

Mehr

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren Lineargleichungssysteme: Additions-/ Subtraktionsverfahren W. Kippels 22. Februar 2014 Inhaltsverzeichnis 1 Einleitung 2 2 Lineargleichungssysteme zweiten Grades 2 3 Lineargleichungssysteme höheren als

Mehr

Guide DynDNS und Portforwarding

Guide DynDNS und Portforwarding Guide DynDNS und Portforwarding Allgemein Um Geräte im lokalen Netzwerk von überall aus über das Internet erreichen zu können, kommt man um die Themen Dynamik DNS (kurz DynDNS) und Portweiterleitung(auch

Mehr

WIE WIRKLICH IST DIE WIRKLICHKEIT WIE SCHNELL WERDEN SMART GRIDS WIRKLICH BENÖTIGT? DI Dr.techn. Thomas Karl Schuster Wien Energie Stromnetz GmbH

WIE WIRKLICH IST DIE WIRKLICHKEIT WIE SCHNELL WERDEN SMART GRIDS WIRKLICH BENÖTIGT? DI Dr.techn. Thomas Karl Schuster Wien Energie Stromnetz GmbH WIE WIRKLICH IST DIE WIRKLICHKEIT WIE SCHNELL WERDEN SMART GRIDS WIRKLICH BENÖTIGT? DI Dr.techn. Thomas Karl Schuster Wien Energie Stromnetz GmbH Agenda Einleitung Historisches zum Thema Smart Definitionen

Mehr

Unsere vier hilfreichsten Tipps für szenarienbasierte Nachfrageplanung

Unsere vier hilfreichsten Tipps für szenarienbasierte Nachfrageplanung Management Briefing Unsere vier hilfreichsten Tipps für szenarienbasierte Nachfrageplanung Erhalten Sie die Einblicke, die Sie brauchen, um schnell auf Nachfrageschwankungen reagieren zu können Sales and

Mehr

Neue Medien in der Erwachsenenbildung

Neue Medien in der Erwachsenenbildung Stang, Richard Neue Medien in der Erwachsenenbildung Statement zum DIE-Forum Weiterbildung 2000 "Zukunftsfelder der Erwachsenenbildung" Deutsches Institut für Erwachsenenbildung Online im Internet: URL:

Mehr

3 Gründe, warum sie müssen!

3 Gründe, warum sie müssen! Industrie 4.0: 3 Gründe, warum sie müssen! SCHÜTTGUT Dortmund 2015 5.11.2015 Was ist Industrie 4.0? Die 3 Gründe für Industrie 4.0 Chancen von Industrie 4.0 Prof. Dr. Gerrit Sames Seite 1 Industrie 4.0:

Mehr

Skills-Management Investieren in Kompetenz

Skills-Management Investieren in Kompetenz -Management Investieren in Kompetenz data assessment solutions Potenziale nutzen, Zukunftsfähigkeit sichern Seite 3 -Management erfolgreich einführen Seite 4 Fähigkeiten definieren und messen Seite 5 -Management

Mehr

Neue Studie zum digitalen Universum entdeckt Big Data Gap

Neue Studie zum digitalen Universum entdeckt Big Data Gap 13. Dezember 2012 Neue Studie zum digitalen Universum entdeckt Big Data Gap Big Data Gap 23 Prozent (643 Exabyte) des digitalen Universums könnten nützliche Erkenntnisse bringen. Derzeit sind nur drei

Mehr

Nutzung dieser Internetseite

Nutzung dieser Internetseite Nutzung dieser Internetseite Wenn Sie unseren Internetauftritt besuchen, dann erheben wir nur statistische Daten über unsere Besucher. In einer statistischen Zusammenfassung erfahren wir lediglich, welcher

Mehr

Stammdaten Auftragserfassung Produktionsbearbeitung Bestellwesen Cloud Computing

Stammdaten Auftragserfassung Produktionsbearbeitung Bestellwesen Cloud Computing Stammdaten Auftragserfassung Produktionsbearbeitung Bestellwesen Cloud Computing Finanzbuchhaltung Wenn Sie Fragen haben, dann rufen Sie uns an, wir helfen Ihnen gerne weiter - mit Ihrem Wartungsvertrag

Mehr

ANYWHERE Zugriff von externen Arbeitsplätzen

ANYWHERE Zugriff von externen Arbeitsplätzen ANYWHERE Zugriff von externen Arbeitsplätzen Inhaltsverzeichnis 1 Leistungsbeschreibung... 3 2 Integration Agenda ANYWHERE... 4 3 Highlights... 5 3.1 Sofort einsatzbereit ohne Installationsaufwand... 5

Mehr

Persönliche Einladung. Zur IT Managers Lounge am 4. November 2009 in Köln, Hotel im Wasserturm.

Persönliche Einladung. Zur IT Managers Lounge am 4. November 2009 in Köln, Hotel im Wasserturm. Persönliche Einladung. Zur IT Managers Lounge am 4. November 2009 in Köln, Hotel im Wasserturm. IT Managers Lounge präsentiert: Top-Trend Cloud Computing. Flexibilität, Dynamik und eine schnelle Reaktionsfähigkeit

Mehr

Microsoft (Dynamics) CRM 2020: Wie verändern sich Markt, Eco-System und Anwendungsszenarien nach Cloud & Co?

Microsoft (Dynamics) CRM 2020: Wie verändern sich Markt, Eco-System und Anwendungsszenarien nach Cloud & Co? Microsoft (Dynamics) CRM 2020: Wie verändern sich Markt, Eco-System und Anwendungsszenarien nach Cloud & Co? Name: Roland Pleli Funktion/Bereich: Geschäftsführung / Prod. Mgmt. Organisation: enovation

Mehr

Das Standortreporting von MVV Energie. Ihre Energie immer im Blick mit unserem Online-Portal für Strom und Gas

Das Standortreporting von MVV Energie. Ihre Energie immer im Blick mit unserem Online-Portal für Strom und Gas Das Standortreporting von MVV Energie Ihre Energie immer im Blick mit unserem Online-Portal für Strom und Gas Energiereporting leicht gemacht Alle Daten rund um Ihre Energie auf einen Blick Informationen

Mehr

40-Tage-Wunder- Kurs. Umarme, was Du nicht ändern kannst.

40-Tage-Wunder- Kurs. Umarme, was Du nicht ändern kannst. 40-Tage-Wunder- Kurs Umarme, was Du nicht ändern kannst. Das sagt Wikipedia: Als Wunder (griechisch thauma) gilt umgangssprachlich ein Ereignis, dessen Zustandekommen man sich nicht erklären kann, so dass

Mehr

»d!conomy«die nächste Stufe der Digitalisierung

»d!conomy«die nächste Stufe der Digitalisierung »d!conomy«die nächste Stufe der Digitalisierung Prof. Dieter Kempf, BITKOM-Präsident Oliver Frese, Vorstandsmitglied Deutsche Messe AG Hannover, 15. März 2015 Digitalisierung in Unternehmen Einsatz von

Mehr

Was macht Layer2 eigentlich? Erfahren Sie hier ein wenig mehr über uns.

Was macht Layer2 eigentlich? Erfahren Sie hier ein wenig mehr über uns. Was macht Layer2 eigentlich? Erfahren Sie hier ein wenig mehr über uns. Seit über 24 Jahren... unterstützen und beraten wir unsere Kunden und Partner erfolgreich bei ihren IT-Projekten. Unsere Kernkompetenz

Mehr

Systemen im Wandel. Autor: Dr. Gerd Frenzen Coromell GmbH Seite 1 von 5

Systemen im Wandel. Autor: Dr. Gerd Frenzen Coromell GmbH Seite 1 von 5 Das Management von Informations- Systemen im Wandel Die Informations-Technologie (IT) war lange Zeit ausschließlich ein Hilfsmittel, um Arbeitsabläufe zu vereinfachen und Personal einzusparen. Sie hat

Mehr

Weltweite Wanderschaft

Weltweite Wanderschaft Endversion nach dem capito Qualitäts-Standard für Leicht Lesen Weltweite Wanderschaft Migration bedeutet Wanderung über große Entfernungen hinweg, vor allem von einem Wohnort zum anderen. Sehr oft ist

Mehr

Die Zukunft des Melderegisters in Sozialen Medien oder als Open Data?

Die Zukunft des Melderegisters in Sozialen Medien oder als Open Data? Die Zukunft des Melderegisters in Sozialen Medien oder als Open Data? Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein 12. Mai 2012 Anzusprechende Themen: Open Data vs. Meldegeheimnis Datenschutzrechtlich

Mehr

Näher am Kunden mit Microsoft Business Intelligence

Näher am Kunden mit Microsoft Business Intelligence Nürnberg, April 2014 Näher am Kunden mit Microsoft Business Intelligence Schnellere AHA-Effekte aus Small Data. Big Data. All Data - Online wie Offline. Sehr geehrte Damen und Herren, die rasant voranschreitende

Mehr

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Vollständigkeit halber aufgeführt. Gehen wir einmal davon aus, dass die von uns angenommenen 70% im Beispiel exakt berechnet sind. Was würde

Mehr

Die wichtigsten Werkzeuge, um UNTERNEHMENSKULTUR BEWUSST zu gestalten.

Die wichtigsten Werkzeuge, um UNTERNEHMENSKULTUR BEWUSST zu gestalten. 3 Die wichtigsten Werkzeuge, um UNTERNEHMENSKULTUR BEWUSST zu gestalten. Rasante Marktverände-rungen und eine ständig wachsende Komplexität beeinflussen heute die Unternehmensentwicklung mehr denn je zuvor.

Mehr

HOW TO CREATE A FACEBOOK PAGE.

HOW TO CREATE A FACEBOOK PAGE. FAME FACT FIRST IN SOCIALTAINMENT SOCIAL MEDIA INSIGHTS KOSTENLOSE REPORTS, WHITEPAPERS UND WERTVOLLE LINKS HOW TO CREATE A FACEBOOK PAGE. famefact track by track GmbH, Schönhauser Allee 48, 10437 Berlin,

Mehr

Herausforderungen 2013 der Marketingentscheider in B2B Unternehmen

Herausforderungen 2013 der Marketingentscheider in B2B Unternehmen Herausforderungen 2013 der Marketingentscheider in B2B Unternehmen Kurzbeschreibung Stärkere Kundenorientierung und sich daraus ergebender Innovationsdruck bei der Entwicklung kundenspezifischer Lösungen,

Mehr

Web Analytics Kontrolle von Online Aktivitäten

Web Analytics Kontrolle von Online Aktivitäten Web Analytics Kontrolle von Online Aktivitäten Arbeitsgemeinschaft Bäder des VKU e.v., Internet & Social Media Marketing 15. September 2015, Mönchengladbach Julian Wegener Prokurist & Head of Strategy

Mehr

Business Page auf Facebook

Business Page auf Facebook Business Page auf Facebook No. 1 im Social Media Marketing Ihre professionelle und virale Fan Page auf Facebook Mit einer professionellen Markenseite auf Facebook schaffen Sie es Ihre Produkte, Dienstleistung

Mehr

ecommerce als Projekt im Mittelstand: Tut Beratung Not? Bereiche, Formen, Auswahl!

ecommerce als Projekt im Mittelstand: Tut Beratung Not? Bereiche, Formen, Auswahl! : Tut Beratung Not? Bereiche, Formen, Auswahl! Atrada AG was machen die eigentlich? Erfahrung - Die Atrada AG steht für über ein Jahrzehnt Erfahrung im ecommerce und besteht seit 1995. Seit der Gründung

Mehr

Big Data, Amtliche Statistik und der Datenschutz

Big Data, Amtliche Statistik und der Datenschutz Konferenz für Sozial- und Wirtschaftsdaten 20./21. Februar 2014, Berlin Gute Forschung braucht gute Daten aber bitte anonymisiert! Big Data, Amtliche Statistik und der Datenschutz Peter Schaar Europäische

Mehr

4 Ideen zur Verbesserung des E-Mail-Marketings!

4 Ideen zur Verbesserung des E-Mail-Marketings! 4 Ideen zur Verbesserung des E-Mail-Marketings! Quelle: www.rohinie.eu E-Mail-Kampagnen können zu den wirksamsten Werkzeugen im Marketing-Arsenal gehören. Allerdings können sie genauso gut die Quelle großer

Mehr

Lassen Sie sich dieses sensationelle Projekt Schritt für Schritt erklären:

Lassen Sie sich dieses sensationelle Projekt Schritt für Schritt erklären: Lassen Sie sich dieses sensationelle Projekt Schritt für Schritt erklären: Gold Line International Ltd. Seite 1 STELLEN SIE SICH VOR: Jeder Mensch auf der Erde gibt Ihnen 1,- Dollar Das wäre nicht schwer

Mehr

Chancen und Potenziale von Cloud Computing Herausforderungen für Politik und Gesellschaft. Rede Hans-Joachim Otto Parlamentarischer Staatssekretär

Chancen und Potenziale von Cloud Computing Herausforderungen für Politik und Gesellschaft. Rede Hans-Joachim Otto Parlamentarischer Staatssekretär Chancen und Potenziale von Cloud Computing Herausforderungen für Politik und Gesellschaft Rede Hans-Joachim Otto Parlamentarischer Staatssekretär Veranstaltung der Microsoft Deutschland GmbH in Berlin

Mehr

Kunden im Dickicht der sozialen Netzwerke finden und binden - Content-Pushen ist out, eine perfekte Context- Strategie entscheidet über Ihren Erfolg

Kunden im Dickicht der sozialen Netzwerke finden und binden - Content-Pushen ist out, eine perfekte Context- Strategie entscheidet über Ihren Erfolg Kunden im Dickicht der sozialen Netzwerke finden und binden - Content-Pushen ist out, eine perfekte Context- Strategie entscheidet über Ihren Erfolg 1. Kunden finden Kunden verstehen Kunden binden... und

Mehr

1. Was ihr in dieser Anleitung

1. Was ihr in dieser Anleitung Leseprobe 1. Was ihr in dieser Anleitung erfahren könnt 2 Liebe Musiker, in diesem PDF erhaltet ihr eine Anleitung, wie ihr eure Musik online kostenlos per Werbevideo bewerben könnt, ohne dabei Geld für

Mehr

Test zur Bereitschaft für die Cloud

Test zur Bereitschaft für die Cloud Bericht zum EMC Test zur Bereitschaft für die Cloud Test zur Bereitschaft für die Cloud EMC VERTRAULICH NUR ZUR INTERNEN VERWENDUNG Testen Sie, ob Sie bereit sind für die Cloud Vielen Dank, dass Sie sich

Mehr

Hilfen zum Twitter-Hashtag-Marketing!

Hilfen zum Twitter-Hashtag-Marketing! Hilfen zum Twitter-Hashtag-Marketing! Quelle: www.rohinie.eu Hilfen zum Twitter Hashtag Marketing Als Antwort auf Twitter-Tags, Schlüsselwörter und Kategorien sind Hashtags Begriffe für die Klassifizierung

Mehr

Die.tel Domain. Mehrwert für Ihr Unternehmen. www.telyou.me

Die.tel Domain. Mehrwert für Ihr Unternehmen. www.telyou.me Die.tel Domain Mehrwert für Ihr Unternehmen Der Weg ins mobile Computing Was kann ich unter der.tel-domain für mein Unternehmen speichern? Warum eine.tel-domain? Mit einer.tel Domain können Sie Ihre

Mehr

Cloud-Computing. Selina Oertli KBW 28.10.2014

Cloud-Computing. Selina Oertli KBW 28.10.2014 2014 Cloud-Computing Selina Oertli KBW 0 28.10.2014 Inhalt Cloud-Computing... 2 Was ist eine Cloud?... 2 Wozu kann eine Cloud gebraucht werden?... 2 Wie sicher sind die Daten in der Cloud?... 2 Wie sieht

Mehr

Datability. Prof. Dieter Kempf, Präsident BITKOM Oliver Frese, Vorstand Deutsche Messe AG. Hannover, 9. März 2014

Datability. Prof. Dieter Kempf, Präsident BITKOM Oliver Frese, Vorstand Deutsche Messe AG. Hannover, 9. März 2014 Datability Prof. Dieter Kempf, Präsident BITKOM Oliver Frese, Vorstand Deutsche Messe AG Hannover, 9. März 2014 Bürger fordern verantwortungsvollen Umgang mit Daten Inwieweit stimmen Sie den folgenden

Mehr

Bestandskauf und Datenschutz?

Bestandskauf und Datenschutz? Bestandskauf und Datenschutz? von Rechtsanwältin Christine Loest Fachanwältin für Familienrecht/Mediatorin Kanzlei Michaelis Rechtsanwälte Die Bestandsübertragungen aller Versicherungsverträge (oder z.b.

Mehr

Diese Ansicht erhalten Sie nach der erfolgreichen Anmeldung bei Wordpress.

Diese Ansicht erhalten Sie nach der erfolgreichen Anmeldung bei Wordpress. Anmeldung http://www.ihredomain.de/wp-admin Dashboard Diese Ansicht erhalten Sie nach der erfolgreichen Anmeldung bei Wordpress. Das Dashboard gibt Ihnen eine kurze Übersicht, z.b. Anzahl der Beiträge,

Mehr

Kundenbefragung als Vehikel zur Optimierung des Customer Service Feedback des Kunden nutzen zur Verbesserung der eigenen Prozesse

Kundenbefragung als Vehikel zur Optimierung des Customer Service Feedback des Kunden nutzen zur Verbesserung der eigenen Prozesse Kundenbefragung als Vehikel zur Optimierung des Customer Service Feedback des Kunden nutzen zur Verbesserung der eigenen Prozesse Vieles wurde bereits geschrieben, über die Definition und/oder Neugestaltung

Mehr

ZIELE erreichen WERTSTROM. IDEEN entwickeln. KULTUR leben. optimieren. KVP und Lean Management:

ZIELE erreichen WERTSTROM. IDEEN entwickeln. KULTUR leben. optimieren. KVP und Lean Management: KVP und Lean Management: Damit machen wir Ihre Prozesse robuster, schneller und kostengünstiger. ZIELE erreichen WERTSTROM optimieren IDEEN entwickeln KULTUR leben 1 Lean Management Teil 1: Das Geheimnis

Mehr

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 0 Es TOP 10 DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 wird ein wichtiges Jahr für BIG (Business Intelligence Growth) 2012 war ein fantastisches Jahr für Business Intelligence! Die biedere alte

Mehr

Big Data Was ist erlaubt - wo liegen die Grenzen?

Big Data Was ist erlaubt - wo liegen die Grenzen? Big Data Was ist erlaubt - wo liegen die Grenzen? mag. iur. Maria Winkler Themen Kurze Einführung ins Datenschutzrecht Datenschutzrechtliche Bearbeitungsgrundsätze und Big Data Empfehlungen für Big Data

Mehr

Social-CRM (SCRM) im Überblick

Social-CRM (SCRM) im Überblick Social-CRM (SCRM) im Überblick In der heutigen Zeit ist es kaum vorstellbar ohne Kommunikationsplattformen wie Facebook, Google, Twitter und LinkedIn auszukommen. Dies betrifft nicht nur Privatpersonen

Mehr

Business Model Canvas

Business Model Canvas Business Model Canvas Business Model Canvas ist ein strategisches Management Tool, mit dem sich neue und bestehende Geschäftsmodelle visualisieren lassen. Demnach setzt sich ein Geschäftsmodell aus neun

Mehr

Erfolgreiche Maßnahmen für Ihr Reputationsmanagement

Erfolgreiche Maßnahmen für Ihr Reputationsmanagement Erfolgreiche Maßnahmen für Ihr Reputationsmanagement Roland Ballacchino Es dauert zwanzig Jahre, sich eine Reputation zu erwerben und fünf Minuten, sie zu verlieren. Wenn man das im Auge behält, handelt

Mehr

Smart Home Wer ist Herr im eigenen Haus?

Smart Home Wer ist Herr im eigenen Haus? Smart Home Wer ist Herr im eigenen Haus? Von den Kosten der Annehmlichkeit Dr. Stefan Brink LfDI Rheinland-Pfalz BvD Verbandstag 2016 21. April 2016 Definition Smart Home technische Systeme und Dienste

Mehr

räber Neue Kunden gewinnen Mit Online-Marketing zum Ziel Content- und Online-Marketing für KMU

räber Neue Kunden gewinnen Mit Online-Marketing zum Ziel Content- und Online-Marketing für KMU marketing internet räber Content- und Online-Marketing für KMU Neue Kunden gewinnen Mit Online-Marketing zum Ziel Gefunden werden und überzeugen Im Jahre 2010 waren rund 227 Millionen Webseiten im Netz

Mehr

Es gibt Wichtigeres im Leben, als beständig dessen Geschwindigkeit zu erhöhen. Ghandi PROZESSBEGLEITUNG

Es gibt Wichtigeres im Leben, als beständig dessen Geschwindigkeit zu erhöhen. Ghandi PROZESSBEGLEITUNG Es gibt Wichtigeres im Leben, als beständig dessen Geschwindigkeit zu erhöhen. Ghandi PROZESSBEGLEITUNG INHALT Nachhaltige Prozessbegleitung Zielgruppe Ziele der Prozessbegleitung Ansatz Aus und Weiterbildung

Mehr

Warum Sie jetzt kein Onlinemarketing brauchen! Ab wann ist Onlinemarketing. So finden Sie heraus, wann Ihre Website bereit ist optimiert zu werden

Warum Sie jetzt kein Onlinemarketing brauchen! Ab wann ist Onlinemarketing. So finden Sie heraus, wann Ihre Website bereit ist optimiert zu werden CoachingBrief 02/2016 Warum Sie jetzt kein Onlinemarketing brauchen! Eine Frage gleich zu Anfang: Wie viele Mails haben Sie in dieser Woche erhalten, in denen behauptet wurde: Inhalt Ihre Webseite sei

Mehr

Social-Media Basis-Paket Ein einfaches und verständliches Unternehmens-Programm für den ersten Schritt

Social-Media Basis-Paket Ein einfaches und verständliches Unternehmens-Programm für den ersten Schritt Social-Media Basis-Paket Ein einfaches und verständliches Unternehmens-Programm für den ersten Schritt Ein Angebot von Vianova-Company und Reschke-PR Oktober 2012 Alle reden von Social Media. Aber alle

Mehr

Einkaufen im Internet. Lektion 5 in Themen neu 3, nach Übung 10. Benutzen Sie die Homepage von: http://www.firstsurf.de/klietm9950_f.

Einkaufen im Internet. Lektion 5 in Themen neu 3, nach Übung 10. Benutzen Sie die Homepage von: http://www.firstsurf.de/klietm9950_f. Themen neu 3 Was lernen Sie hier? Sie formulieren Ihre Vermutungen und Meinungen. Was machen Sie? Sie erklären Wörter und Ausdrücke und beurteilen Aussagen. Einkaufen im Internet Lektion 5 in Themen neu

Mehr

go strong 6,85 Mio. Unique User, 18 Mio. Visits, 95 Mio. PI.

go strong 6,85 Mio. Unique User, 18 Mio. Visits, 95 Mio. PI. 12 Gründe für first Ob Desktop oder Mobile, ob Communities oder innovative Formate wir sind First Mover in allen Bereichen: Seit über 16 Jahren begleiten wir Frauen durch ihren Alltag, sprechen Themen

Mehr

1 WEB ANALYTICS: PROFESSIONELLE WEB-ANALYSEN UND REPORTING FÜR IHR ONLINE MARKETING.

1 WEB ANALYTICS: PROFESSIONELLE WEB-ANALYSEN UND REPORTING FÜR IHR ONLINE MARKETING. 1 WEB ANALYTICS: PROFESSIONELLE WEB-ANALYSEN UND REPORTING FÜR IHR ONLINE MARKETING. Web Analytics, Reporting & Beratung Erfolgskontrolle mit professionellen Web Analysen! Web Analytics mit Google Analytics

Mehr

D i e n s t e D r i t t e r a u f We b s i t e s

D i e n s t e D r i t t e r a u f We b s i t e s M erkblatt D i e n s t e D r i t t e r a u f We b s i t e s 1 Einleitung Öffentliche Organe integrieren oftmals im Internet angebotene Dienste und Anwendungen in ihre eigenen Websites. Beispiele: Eine

Mehr

Social Networks als Kundenbindungsinstrument

Social Networks als Kundenbindungsinstrument 2 Social Networks als Kundenbindungsinstrument Univ.-Professor Dr. Hanna Schramm-Klein Düsseldorf, 02. Juli 2012 Agenda 3 Social CRM was ist das überhaupt? Sozial ist anders: Soziale Netzwerke und ihre

Mehr

ÜBERGABE DER OPERATIVEN GESCHÄFTSFÜHRUNG VON MARC BRUNNER AN DOMINIK NYFFENEGGER

ÜBERGABE DER OPERATIVEN GESCHÄFTSFÜHRUNG VON MARC BRUNNER AN DOMINIK NYFFENEGGER GOOD NEWS VON USP ÜBERGABE DER OPERATIVEN GESCHÄFTSFÜHRUNG VON MARC BRUNNER AN DOMINIK NYFFENEGGER In den vergangenen vierzehn Jahren haben wir mit USP Partner AG eine der bedeutendsten Marketingagenturen

Mehr

Pflegende Angehörige Online Ihre Plattform im Internet

Pflegende Angehörige Online Ihre Plattform im Internet Pflegende Angehörige Online Ihre Plattform im Internet Wissen Wichtiges Wissen rund um Pflege Unterstützung Professionelle Beratung Austausch und Kontakt Erfahrungen & Rat mit anderen Angehörigen austauschen

Mehr

Prozessbewertung und -verbesserung nach ITIL im Kontext des betrieblichen Informationsmanagements. von Stephanie Wilke am 14.08.08

Prozessbewertung und -verbesserung nach ITIL im Kontext des betrieblichen Informationsmanagements. von Stephanie Wilke am 14.08.08 Prozessbewertung und -verbesserung nach ITIL im Kontext des betrieblichen Informationsmanagements von Stephanie Wilke am 14.08.08 Überblick Einleitung Was ist ITIL? Gegenüberstellung der Prozesse Neuer

Mehr

Kaufkräftige Zielgruppen gewinnen

Kaufkräftige Zielgruppen gewinnen Kaufkräftige Zielgruppen gewinnen Wie Sie Besucher auf Ihre Webseite locken, die hochgradig an Ihrem Angebot interessiert sind 2014 David Unzicker, alle Rechte vorbehalten Hallo, mein Name ist David Unzicker

Mehr

N N O B O X E N C H E C K. Learn more about (your) Innovation Management and how to make it even better! M A R I A T A G W E R K E R - S T U R M

N N O B O X E N C H E C K. Learn more about (your) Innovation Management and how to make it even better! M A R I A T A G W E R K E R - S T U R M N N O B O X E N C H E C K Learn more about (your) Innovation Management and how to make it even better! Die Entwicklung verschlingt so viel Geld. Der Kunde braucht das Produkt nicht. Keiner will die Entscheidung

Mehr

Outlook. sysplus.ch outlook - mail-grundlagen Seite 1/8. Mail-Grundlagen. Posteingang

Outlook. sysplus.ch outlook - mail-grundlagen Seite 1/8. Mail-Grundlagen. Posteingang sysplus.ch outlook - mail-grundlagen Seite 1/8 Outlook Mail-Grundlagen Posteingang Es gibt verschiedene Möglichkeiten, um zum Posteingang zu gelangen. Man kann links im Outlook-Fenster auf die Schaltfläche

Mehr

----------------------------------------------------------------------------------------------------------------------------------------

---------------------------------------------------------------------------------------------------------------------------------------- 0 Seite 0 von 20 03.02.2015 1 Ergebnisse der BSO Studie: Trends und Innovationen im Business Performance Management (BPM) bessere Steuerung des Geschäfts durch BPM. Bei dieser BSO Studie wurden 175 CEOs,

Mehr