SEMT. Prof. G. Bengel. Searching as a Service (Programming Model: MapReduce)

Größe: px
Ab Seite anzeigen:

Download "SEMT. Prof. G. Bengel. Searching as a Service (Programming Model: MapReduce)"

Transkript

1 Hochschule Mannheim Fakultät für Informatik SEMT Prof. G. Bengel Sommersemester 2009 Semester 8I Searching as a Service (Programming Model: MapReduce) Michel Schmitt (520361)

2 Inhalt 1. Einführung MapReduce Key/Value Codebeispiel Map-Phase Reduce-Phase Arbeitsweise Anwendungsbeispiele Ausfallsicherheit/Problembehebung Worker Fehler Lokale Daten Backup Tasks Weitere Implementierungen Amazon OpenSource Hadoop Quellverweis Abbildungsverweis... 11

3 1. Einführung Da sich immer größere Datenmengen anhäufen, wird es fortwährend schwerer diese auch in vertretbarer Zeit zu verarbeiten und zu analysieren. Anbieter wie Google, ein großer Internetdienstleister, haben deshalb an einer Möglichkeit gearbeitet, Prozesse die über riesige Datenmengen ausgeführt werden, hinsichtlich Geschwindigkeit und Verteilung zu optimieren. Das Resultat ist das von Google entwickelte MapReduce, ein System, das die zu verarbeitenden Daten in kleine Stücke aufteilt und diese dann parallel von vielen Rechnern abarbeiten lässt. Einsatz findet dieses System bevorzugt in großen Cluster Systemen, aber auch in Mehrkernarchitekturen mit einem gemeinsamen Speicher und erzielt eine sehr gute Performanz. Auch skaliert das System sehr gut indem man einfach weitere Rechner zum Cluster hinzufügt oder aber zusätzliche Kerne verwendet. Die Implementierung von MapReduce wird in verschiedenen Programmiersprachen wie Java, Perl, Ruby, Python, PHP, R, oder C++ angeboten. 2. MapReduce MapReduce ist ein von Google inc. eingeführtes Framework um sehr große Datenmengen effektiv auf Computercluster zu verarbeiten. Die Idee dahinter basiert auf den map und reduce Funktionen von funktionalen Programmiersprachen wie in Lisp. In der Mapping-Phase werden Key/Value Paare kreiert welche dann in der Reduce-Phase zusammengeführt und kombiniert als Ergebnis zurückgeliefert werden. Hierzu wird in einem vom Benutzer geschriebenen Programm die Eingabe festgelegt und die gewünschten Werte die daraus entnommen werden sollen bestimmt. Die Eingabe kann zum Beispiel mehrere gecrawlte Webseiten, bestehend aus all den dazugehörigen Dokumenten sein und als Suchwert alle vorhandenen Begriffe.

4 2.1. Key/Value Codebeispiel Anhand des folgenden Pseudo-Codes werden die Aufgaben von Mapper und Reducer und den Key/Values veranschaulicht. Hier wird die Anzahl eines vorkommenden Wortes berechnet. map(string key, String value): // key: document name // value: document contents for each word w in value: EmitIntermediate(w, "1"); reduce(string key, Iterator values): // key: a word // values: a list of counts int result = 0; for each v in values: result += ParseInt(v); Emit(AsString(result)); Map-Phase Map bekommt jeweils einen Dokumentnamen key und ein Dokument value als Zeichenkette übergeben. Map durchläuft das Dokument Wort für Wort. Jedes Mal, wenn ein Wort w angetroffen wird, wandert eine 1 in die w- Zwischenergebnisliste (falls diese noch nicht existiert, wird sie angelegt). Ist man mit allen Wörtern durch und hat der Text insgesamt n verschiedene Wörter, so endet die Map-Phase mit n Zwischenergebnislisten, jede für ein anderes Wort sammelnd, welche so viele 1-Einträge enthält, wie das entsprechende Wort im Dokument gefunden wurde. Eventuell liefen viele Map-Instanzen gleichzeitig, falls dem Framework mehrere Worte und Dokumente übergeben wurde.[6] Reduce-Phase Reduce wird für das Wort key und die Zwischenergebnisliste values aufgerufen. Reduce durchläuft die Zwischenergebnisliste und addiert alle gefundenen Zahlen auf. Die Summe result wird an das Framework zurück gegeben, sie enthält, wie oft das Wort key im Dokument gefunden wurde. Die Zwischenergebnisse konnten parallel, durch gleichzeitige Reduce-Aufrufe, berechnet werden[6]

5 2.2. Arbeitsweise Das Analysieren der Daten wird auf mehrere Rechner im Cluster aufgeteilt. Die Mapper-Prozesse generieren die Key/Value Paare und speichern ihre Zwischenergebnisse lokal ab. Reducer-Prozesse greifen auf die gespeicherten Daten kombinieren die zugehörigen Key/Value Paare. der Maper zu und Abbildung 1 Arbeitsweise 1: Die in dem Benutzerprogramm eingebundene MapReduce Bibliothek teilt zuerst die Eingabedaten, je nach Parametrierung in MB große Blöcke. Danach werden Kopien des Programms erzeugt und an die einzelnen Rechner im Cluster verteilt (Worker). 2: Der Master-Prozess entscheidet welcher Rechner Mapper- oder Reducer- Aufgaben erledigt. 3: Ein Worker welcher als Mapper fungiert liest den Inhalt einer oder mehrerer gesplitteten Eingabedaten. Die Map-Funktion im Programm ermittelt die Key/Value Paare. Die geparsten Key/Value Paare werden zunächst im Speicher des jeweiligen Rechners behalten.

6 4:Periodisch werden die Zwischendaten der Mapper auf ihre lokale Festplatte geschrieben. Die in MapReduce integrierte Partitionierungsfunktion speichert die Daten in verschiedene Regionen. Die Speicheradressen der Zwischendaten werden an den Masterprozess weitergegeben. 5: Wenn der Master einem Reducer die Speicheradressen eines Zwischenergebnisses mitgeteilt hat, greift dieser auf die Daten zu. Nachdem der Reducer alle Informationen eingelesen hat gruppiert er alle Zwischendaten anhand der gleich vorkommenden Keys. 6: Der Reducer sammelt so für jeden einzigartigen Key alle vorkommenden Values und gibt diese an die Reduce-Funktion weiter. Das Ergebnis wird anschließend an eine Ausgabedatei angehängt. Wenn alle Mapper- und Reducer-Prozesse fertig sind wird in das Programm des Benutzers zurückgekehrt und der MapReduce aufruf endet Anwendungsbeispiele Bildung verschiedener Statistiken für Web-Seiten Invertierter Web-Link Graph (welche Seiten zeigen auf eine bestimmte Seite?) Bildung von invertierten Indizes (in welchen Dokumenten kommt ein best. Wort vor?) Verteiltes Sortieren Maschinelles Lernen Cluster-Algorithmen Verarbeitung von Satelliten-Bildern Sprachverarbeitung für automatische Übersetzung Graphentheorie

7 2.4. Ausfallsicherheit/Problembehebung Da das MapReduce Framework dazu entworfen wurde eine große Datenmenge zu verarbeiten die hunderte bis tausende Rechner in einem Cluster mit einbeziehen, muss auf Fehler entsprechend reagiert werden Worker Fehler Der Master sendet periodisch einen Ping an seine Worker. Kommt in einer gewissen Zeitspanne keine Antwort, wird dieser Worker als nicht erreichbar markiert. Alle von diesem Worker bearbeiteten Prozesse werden in den Idle Status versetzt und werden somit vom Scheduler an andere Worker verteilt. Schon fertige Mapper-Tasks werden bei einem Fehler erneut ausgeführt, da jeder Worker die Zwischenergebnisse lokal speichert. Fällt dieser Rechner aus, sind diese Daten nicht mehr abrufbar. Abgeschlossene Reduce-Task hingegen müssen nicht erneut ausgeführt werden da die Ausgabe global gespeichert wird Lokale Daten Um den Netzwerk Traffic in einem großen Computercluster gering wie möglich zu halten arbeitet MapReduce viel mit temporären lokal gespeicherten Dateien. Um Datenverlust zu vermeiden benutzt MapReduce von Google ein intern Entwickeltes Dateisystem GFS. Gespeicherte Daten werden in 64 MB große Blöcke geteilt und Kopien (Typischerweise 3) jedes Blocks werden auf verschiedene Rechner im Cluster abgelegt. Der Master Prozess kennt alle Speicheradressen der abgelegten Daten. Kann auf einen Block nicht zugegriffen werden, werden die Daten von einem Backup Block gelesen Backup Tasks Der häufigste Problem bei großen MapReduce Berechnungen sind defekte Hardware oder sehr ausgelastete Worker. Eine Fehlerhafte Festplatte eines Workers könnte den ganzen MapReduce Vorgang erheblich verlangsamen. Um so einen Flaschenhals zu umgehen gibt es für jeden Task einen Backup Task. Der Master kann so bereits laufende Prozesse an andere Worker übergeben. Ein Prozess ist erfolgreich ausgeführt wenn entweder der Backup Task oder der normale Prozess durchgelaufen ist. Um das doppelte Ausführen von Prozessen zu vermeiden merkt der Master sich die Speicheradresse für jeden erfolgreichen Prozess. Erhält er also eine neue Speicheradresse für den gleichen Prozess ignoriert er diese.

8 3. Weitere Implementierungen Amazon Amazon bietet mit seinem neuen Dienst Amazon Elastic MapReduce einen Hadoop- Cluster zum Mieten an. Damit lassen sich große Datenmengen auf verteilten Systemen verarbeiten. Die Implementierung basiert auf Amazons Storage Service S3 und aus Instanzen von Amazons EC2 (Elastic Compute Clouds). Der S3 Service dient als File-Server über den die Mapper-Prozesse mit Daten gefüttert werden und die Reducer-Prozesse die Ergebnisse speichern. Einzelne EC2 Instanzen dienen als Worker bzw. Master. EC2 Instanzen sind in folgenden Konfigurationen erhältlich: Standardinstanzen Instanz RAM EC2 Compute Units Instanzspeicher Plattform Small 1,7 GB 1 (1 virtuelle Kerne mit 1 EC2 Compute Unit) Large 7,5 GB 4 (2 virtuelle Kerne mit 2 EC2 Compute Units each) Extra Large 15 GB 8 (4 virtuelle Kerne mit 2 EC2 Compute Units each) 160 GB 32 Bit 850 GB 64 Bit 1690 GB 64 Bit Hochleistungs-CPU-Instanzen Instanz RAM EC2 Compute Units Instanzspeicher Plattform High-CPU Medium 1,7 GB 5 (2 virtuelle Kerne mit jeweils 2.5 EC2 Compute Units) 350 GB 32 Bit High-CPU Extra Large 7 GB 20 (8 virtuelle Kerne mit jeweils 2.5 EC2 Compute Units) 1690 GB 64 Bit Die Maßeinheit für Rechenleistung ist bei Amazon die EC2 Compute Unit. Eine Einheit entspricht dabei in etwa einem 1,0 bis 1,2 GHz 2007 Opteron oder 2007 Xeon-Prozessor.

9 OpenSource Hadoop Hadoop setzt die Ideen Googles nahezu eins zu eins um. Die Zielsetzungen sind ebenfalls identisch, und Hadoop ist auch für großen Rechner-Cluster ausgelegt. Yahoo, ein Konkurrent Googles, setzt Hadoop für Aufgaben ein, für die Google MapReduce entwickelt hat. Etwa die Erstellung des Reverse Index und die Darstellung der Graphenstruktur von Webseiten. Hadoop ist Open-Source-Software, und Yahoo größtenteils für die Entwicklung verantwortlich. Zu Hadoop gehört auch ein verteiltes Dateisystem, dass auf dem Google File System beruht. Zwar ist Hadoop in Java geschrieben, und wohl langsamer als Googles Implementation, allerdings ist es die einzige zur Verfügung stehende Implementation für die von den Google Entwicklern vorgesehene Größenordnung, da die von Google selbst nicht für die Außenweilt zugänglich gemacht wird. Mehr zu Hadoop ist unter [3] zu finden.

10 4. Quellverweis [1] [2] [3] [4] [6] [7]

11 5. Abbildungsverweis [1]

MapReduce in der Praxis

MapReduce in der Praxis MapReduce in der Praxis Rolf Daniel Seminar Multicore Programmierung 09.12.2010 1 / 53 Agenda Einleitung 1 Einleitung 2 3 Disco Hadoop BOOM 4 2 / 53 1 Einleitung 2 3 Disco Hadoop BOOM 4 3 / 53 Motivation

Mehr

Neue Ansätze der Softwarequalitätssicherung

Neue Ansätze der Softwarequalitätssicherung Neue Ansätze der Softwarequalitätssicherung Googles MapReduce-Framework für verteilte Berechnungen am Beispiel von Apache Hadoop Universität Paderborn Fakultät für Elektrotechnik, Informatik und Mathematik

Mehr

MapReduce. www.kit.edu. Johann Volz. IPD Snelting, Lehrstuhl Programmierparadigmen

MapReduce. www.kit.edu. Johann Volz. IPD Snelting, Lehrstuhl Programmierparadigmen MapReduce Johann Volz IPD Snelting, Lehrstuhl Programmierparadigmen KIT Universität des Landes Baden-Württemberg und nationales Großforschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Wozu MapReduce?

Mehr

MapReduce. Vereinfachte Datenverarbeitung in großen Rechnerverbünden. Igor Marijanovic 794894. Fachvortrag WAR 19.12.2012

MapReduce. Vereinfachte Datenverarbeitung in großen Rechnerverbünden. Igor Marijanovic 794894. Fachvortrag WAR 19.12.2012 MapReduce Vereinfachte Datenverarbeitung in großen Rechnerverbünden Igor Marijanovic 794894 Fachvortrag WAR 19.12.2012 Beuth Hochschule für Technik Berlin Inhalt Einleitung Hauptteil Abschluss MapReduce

Mehr

Hadoop aus IT-Operations Sicht Teil 1 Hadoop-Grundlagen

Hadoop aus IT-Operations Sicht Teil 1 Hadoop-Grundlagen Hadoop aus IT-Operations Sicht Teil 1 Hadoop-Grundlagen Brownbag am Freitag, den 26.07.2013 Daniel Bäurer inovex GmbH Systems Engineer Wir nutzen Technologien, um unsere Kunden glücklich zu machen. Und

Mehr

Universität Karlsruhe (TH)

Universität Karlsruhe (TH) Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Software Engineering für moderne, parallele Plattformen 10. MapReduce Dr. Victor Pankratius Agenda Motivation Der MapReduce-Ansatz Map- und

Mehr

Data Mining und Machine Learning

Data Mining und Machine Learning Data Mining und Machine Learning Teil 7: Verteiltes Rechnen mit Map Reduce Dr. Harald König, FHDW Hannover 30. November 2015 Inhalt 1 Verteiltes Rechnen 2 Map Reduce 3 Anwendungen 4 Map Reduce: Weiterführende

Mehr

Generalisierung von großen Datenbeständen am Beispiel der Gebäudegeneralisierung mit CHANGE

Generalisierung von großen Datenbeständen am Beispiel der Gebäudegeneralisierung mit CHANGE Institut für Kartographie und Geoinformatik Leibniz Universität Hannover Generalisierung von großen Datenbeständen am Beispiel der Gebäudegeneralisierung mit CHANGE Frank Thiemann, Thomas Globig Frank.Thiemann@ikg.uni-hannover.de

Mehr

GPU-basierte Beschleunigung von MapReduce am Beispiel von OpenCL und Hadoop

GPU-basierte Beschleunigung von MapReduce am Beispiel von OpenCL und Hadoop am Beispiel von OpenCL und Masterseminar Hochschule für Technik, Wirtschaft und Kultur Leipzig Leipzig, 02.11.2011 Gliederung 1 Grundlagen 2 3 Gliederung 1 Grundlagen 2 3 Was ist? Clustersystem zur verteilten

Mehr

MATCHING VON PRODUKTDATEN IN DER CLOUD

MATCHING VON PRODUKTDATEN IN DER CLOUD MATCHING VON PRODUKTDATEN IN DER CLOUD Dr. Andreas Thor Universität Leipzig 15.12.2011 Web Data Integration Workshop 2011 Cloud Computing 2 Cloud computing is using the internet to access someone else's

Mehr

Cloud-Plattform: Appscale Hochschule Mannheim

Cloud-Plattform: Appscale Hochschule Mannheim Florian Weispfenning Cloud-Computing Seminar Hochschule Mannheim WS0910 1/28 Cloud-Plattform: Appscale Hochschule Mannheim Florian Weispfenning Fakultät für Informatik Hochschule Mannheim florian.weispfenning@stud.hs-mannheim.de

Mehr

Perzentile mit Hadoop ermitteln

Perzentile mit Hadoop ermitteln Perzentile mit Hadoop ermitteln Ausgangspunkt Ziel dieses Projektes war, einen Hadoop Job zu entwickeln, der mit Hilfe gegebener Parameter Simulationen durchführt und aus den Ergebnissen die Perzentile

Mehr

Hadoop. Simon Prewo. Simon Prewo

Hadoop. Simon Prewo. Simon Prewo Hadoop Simon Prewo Simon Prewo 1 Warum Hadoop? SQL: DB2, Oracle Hadoop? Innerhalb der letzten zwei Jahre hat sich die Datenmenge ca. verzehnfacht Die Klassiker wie DB2, Oracle usw. sind anders konzeptioniert

Mehr

MapReduce. Jens Dörre. Universität Passau Projekt MAPREDUCEFOUNDATION. Funktionale Programmierung

MapReduce. Jens Dörre. Universität Passau Projekt MAPREDUCEFOUNDATION. Funktionale Programmierung MapReduce Jens Dörre Universität Passau Projekt MAPREDUCEFOUNDATION Funktionale Programmierung Jens Dörre (Uni Passau) MapReduce Funktionale Programmierung 1 / 25 Gliederung 1 MapReduce allgemein 2 MapReduce

Mehr

Cloud Computing mit mathematischen Anwendungen

Cloud Computing mit mathematischen Anwendungen Cloud Computing mit mathematischen Anwendungen Vorlesung SoSe 2009 Dr. Marcel Kunze Karlsruhe Institute of Technology (KIT) Steinbuch Centre for Computing (SCC) KIT the cooperation of Forschungszentrum

Mehr

FlexiScale - Web Hosting mit Cloud-Computing Hochschule Mannheim

FlexiScale - Web Hosting mit Cloud-Computing Hochschule Mannheim Jiaming Song Cloud-Computing Seminar Hochschule Mannheim WS0910 1/31... FlexiScale - Web Hosting mit Cloud-Computing Hochschule Mannheim.... Jiaming Song Fakultät für Informatik Hochschule Mannheim jiaming360@googlemail.com

Mehr

Datenbearbeitung in der Cloud anhand von Apache Hadoop Hochschule Mannheim

Datenbearbeitung in der Cloud anhand von Apache Hadoop Hochschule Mannheim Tobias Neef Cloud-Computing Seminar Hochschule Mannheim WS0910 1/23 Datenbearbeitung in der Cloud anhand von Apache Hadoop Hochschule Mannheim Tobias Neef Fakultät für Informatik Hochschule Mannheim tobnee@gmail.com

Mehr

Cloud Data Management

Cloud Data Management 1 Cloud Data Management Dr. Martin Grund 2 Die Evolution des Web Web 1.0: Entstehung des World Wide Web 1989 (CERN) Tim Berners-Lee. 1991 weltweite Verbreitung Navigation zwischen statischen Seiten Keine

Mehr

Cloud-Infrastrukturen Seminar Cloud Data Management WS09/10

Cloud-Infrastrukturen Seminar Cloud Data Management WS09/10 Cloud-Infrastrukturen Seminar Cloud Data Management WS09/10 Richard Beyer 1 Inhalt 1. Allgemeines 2. Amazon EC2 3. Yahoo Cloud 4. Vergleich 5. Fazit 6. Literatur Richard Beyer 2 Definition Cloud computing

Mehr

Thema: Das MapReduce-Framework

Thema: Das MapReduce-Framework Software as a Service Cloud Computing und aktuelle Entwicklungen Seminararbeit Thema: Das MapReduce-Framework Betreuer: Prof. Dr. Klaus Küspert Dipl.-Inf. Andreas Göbel Nicky Kuhnt Friedrich-Schiller-Universität

Mehr

Einführung in Hadoop

Einführung in Hadoop Einführung in Hadoop Inhalt / Lern-Ziele Übersicht: Basis-Architektur von Hadoop Einführung in HDFS Einführung in MapReduce Ausblick: Hadoop Ökosystem Optimierungen Versionen 10.02.2012 Prof. Dr. Christian

Mehr

Aufbau eigener Cloud-Infrastrukturen mit Eucalyptus Hochschule Mannheim

Aufbau eigener Cloud-Infrastrukturen mit Eucalyptus Hochschule Mannheim Andreas Ries Cloud-Computing Seminar Hochschule Mannheim WS0910 1/26 Aufbau eigener Cloud-Infrastrukturen mit Eucalyptus Hochschule Mannheim Andreas Ries Fakultät für Informatik Hochschule Mannheim ries.andreas@web.de

Mehr

Prozessarchitektur einer Oracle-Instanz

Prozessarchitektur einer Oracle-Instanz 6. Juni 2008 Inhaltsverzeichnis Oracle Instanz 1 Oracle Instanz 2 3 Redo Log Buffer Shared Pool Java Pool & Large Pool Oracle Instanz Eine Oracle-Instanz ist Hauptbestandteil des Oracle Datenbank Management

Mehr

Antwortzeitverhalten von Online Storage Services im Vergleich

Antwortzeitverhalten von Online Storage Services im Vergleich EPOD Encrypted Private Online Disc Antwortzeitverhalten von Online Storage Services im Vergleich Fördergeber Förderprogramm Fördernehmer Projektleitung Projekt Metadaten Internet Foundation Austria netidee

Mehr

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2 Seminar Cloud Data Management WS09/10 Tabelle1 Tabelle2 1 Einführung DBMS in der Cloud Vergleich verschiedener DBMS Beispiele Microsoft Azure Amazon RDS Amazon EC2 Relational Databases AMIs Was gibt es

Mehr

MapReduce und Datenbanken Thema 15: Strom bzw. Onlineverarbeitung mit MapReduce

MapReduce und Datenbanken Thema 15: Strom bzw. Onlineverarbeitung mit MapReduce MapReduce Jan Kristof Nidzwetzki MapReduce 1 / 17 Übersicht 1 Begriffe 2 Verschiedene Arbeiten 3 Ziele 4 DEDUCE: at the intersection of MapReduce and stream processing Beispiel 5 Beyond online aggregation:

Mehr

Googles Map-Reduce-Technik

Googles Map-Reduce-Technik Googles Map-Reduce-Technik Wolfgang Gassler wolfgang.gassler@student.uibk.ac.at Zusammenfassung Durch die ständig steigende Datenflut im Internet müssen auch die Datenverarbeitungskapazitäten stark steigen.

Mehr

Spark, Impala und Hadoop in der Kreditrisikoberechnung

Spark, Impala und Hadoop in der Kreditrisikoberechnung Spark, Impala und Hadoop in der Kreditrisikoberechnung Big Data In-Memory-Technologien für mittelgroße Datenmengen TDWI München, 22. Juni 2015 Joschka Kupilas, Data Scientist, Adastra GmbH 2 Inhalt Vorwort

Mehr

MapReduce in der Praxis

MapReduce in der Praxis Universität Passau Fakultät für Informatik und Mathematik Ausarbeitung MapReduce in der Praxis Verfasser: Rolf Daniel 09.12.2010 Zusammenfassung MapReduce ist ein von Google eingeführtes Framework, das

Mehr

Hadoop. High Performance Batches in der Cloud. Hadoop. Folie 1 25. Januar 2011

Hadoop. High Performance Batches in der Cloud. Hadoop. Folie 1 25. Januar 2011 High Performance Batches in der Cloud Folie 1 Alles geht in die Cloud Image: Chris Sharp / FreeDigitalPhotos.net Cloud und Batches passen zusammen Batches Cloud Pay-per-Use Nur zeitweise genutzt Hohe Rechenkapazitäten

Mehr

Datenbankanwendung. Prof. Dr.-Ing. Sebastian Michel TU Kaiserslautern. Wintersemester 2014/15. smichel@cs.uni-kl.de

Datenbankanwendung. Prof. Dr.-Ing. Sebastian Michel TU Kaiserslautern. Wintersemester 2014/15. smichel@cs.uni-kl.de Datenbankanwendung Wintersemester 2014/15 Prof. Dr.-Ing. Sebastian Michel TU Kaiserslautern smichel@cs.uni-kl.de , NoSQL source:dilbert.com Inhalte der nächsten Vorlesungen ˆ Methoden große Datenmengen

Mehr

shopwin Kurzanleitung Leitfaden für einen Kassennotfall / Bedienung der Notfallkasse

shopwin Kurzanleitung Leitfaden für einen Kassennotfall / Bedienung der Notfallkasse Leitfaden für einen Kassennotfall / Bedienung der Notfallkasse www.easy-systems.de Inhaltsverzeichnis: 1 Ziel der Anleitung...2 2 Was ist ein Kassennotfall?...2 3 Was ist eine Notfallkasse?...2 4 Wie erkenne

Mehr

Hadoop. Eine Open-Source-Implementierung von MapReduce und BigTable. von Philipp Kemkes

Hadoop. Eine Open-Source-Implementierung von MapReduce und BigTable. von Philipp Kemkes Hadoop Eine Open-Source-Implementierung von MapReduce und BigTable von Philipp Kemkes Hadoop Framework für skalierbare, verteilt arbeitende Software Zur Verarbeitung großer Datenmengen (Terra- bis Petabyte)

Mehr

Systemvoraussetzungen und Installation

Systemvoraussetzungen und Installation Systemvoraussetzungen und Installation Inhaltsverzeichnis Inhaltsverzeichnis... 2 1. Einleitung... 2 2. Einzelarbeitsplatzinstallation... 3 3. Referenz: Client/Server-Installation... 5 3.1. Variante A:

Mehr

Konzepte zur Datenhaltung für Webseiten in einem Web-Content- Management-System

Konzepte zur Datenhaltung für Webseiten in einem Web-Content- Management-System Konzepte zur Datenhaltung für Webseiten in einem Web-Content- Management-System Web-Content-Management-Systeme () dienen dazu, komplexe Websites zu verwalten und den Autoren einzelner Webseiten möglichst

Mehr

SPSS für Windows Installationsanweisungen (Standort-/Vertragslizenz)

SPSS für Windows Installationsanweisungen (Standort-/Vertragslizenz) SPSS für Windows Installationsanweisungen (Standort-/Vertragslizenz) Die folgenden Anweisungen gelten für die Installation von SPSS für Windows mit einer Standort-/Vertragslizenz. Dieses Dokument wendet

Mehr

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH Complex Hosting Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Complex Hosting

Mehr

Programmierunterstützung im Kontext von Cloud Computing

Programmierunterstützung im Kontext von Cloud Computing Programmierunterstützung im Kontext von Cloud Computing Alexander Singer AlexSinger@gmx.net ABSTRACT Mit dem Aufkommen des Cloud Computing wurden große Rechner-Cluster für jedermann verfügbar. Um diese

Mehr

Big Data und SQL - das passt! Philipp Loer ORDIX AG Paderborn

Big Data und SQL - das passt! Philipp Loer ORDIX AG Paderborn Schlüsselworte Hadoop, Hive, Sqoop, SQL Big Data und SQL - das passt! Philipp Loer ORDIX AG Paderborn Einleitung In diesem Vortrag werden, nach einer kurzen Einführung in Apache Hadoop, die beiden Werkzeuge

Mehr

MapReduce. Vereinfachte Datenverarbeitung in großen Rechnerverbünden. Semesterarbeit. für den Kurs Wissenschaftliches Arbeiten im WS2012/13

MapReduce. Vereinfachte Datenverarbeitung in großen Rechnerverbünden. Semesterarbeit. für den Kurs Wissenschaftliches Arbeiten im WS2012/13 Vereinfachte Datenverarbeitung in großen Rechnerverbünden Semesterarbeit für den Kurs Wissenschaftliches Arbeiten im WS2012/13 vorgelegt von: Igor Marijanovic Studienbereich: Medieninformatik Matrikelnummer:

Mehr

Verteilte Systeme. Map Reduce. Secure Identity Research Group

Verteilte Systeme. Map Reduce. Secure Identity Research Group Verteilte Systeme Map Reduce Map Reduce Problem: Ein Rechen-Job (meist Datenanalyse/Data-Mining) soll auf einer riesigen Datenmenge ausgeführt werden. Teile der Aufgabe sind parallelisierbar, aber das

Mehr

Cloud Computing mit mathematischen Anwendungen

Cloud Computing mit mathematischen Anwendungen Cloud Computing mit mathematischen Anwendungen Vorlesung SoSe 2009 Dr. Marcel Kunze Karlsruhe Institute of Technology (KIT) Steinbuch Centre for Computing (SCC) KIT the cooperation of Forschungszentrum

Mehr

Der Task-Manager von Windows 7

Der Task-Manager von Windows 7 Der von Windows 7 Der kann mehr als nur Programme abschießen: Er hilft beim Konfigurieren der Windows-Dienste und beim Lösen von Problemen. Der Windows wird oft nur dazu benutzt, um hängende Anwendungen

Mehr

BigTable. 11.12.2012 Else

BigTable. 11.12.2012 Else BigTable 11.12.2012 Else Einführung Distributed Storage System im Einsatz bei Google (2006) speichert strukturierte Daten petabyte-scale, > 1000 Nodes nicht relational, NoSQL setzt auf GFS auf 11.12.2012

Mehr

Zuschauer beim Berlin-Marathon

Zuschauer beim Berlin-Marathon Zuschauer beim Berlin-Marathon Stefan Hougardy, Stefan Kirchner und Mariano Zelke Jedes Computerprogramm, sei es ein Betriebssystem, eine Textverarbeitung oder ein Computerspiel, ist aus einer Vielzahl

Mehr

Sind Cloud Apps der nächste Hype?

Sind Cloud Apps der nächste Hype? Java Forum Stuttgart 2012 Sind Cloud Apps der nächste Hype? Tillmann Schall Stuttgart, 5. Juli 2012 : Agenda Was sind Cloud Apps? Einordnung / Vergleich mit bestehenden Cloud Konzepten Live Demo Aufbau

Mehr

AWSAC: Amazon Web Services for ATLAS Computing

AWSAC: Amazon Web Services for ATLAS Computing AWSAC: Amazon Web Services for ATLAS Computing Jan-Philip Gehrcke Universität Würzburg und MPI für Physik München 17. Oktober 2008 Übersicht Kurzbeschreibung: ATLAS Computing 1 Kurzbeschreibung: ATLAS

Mehr

MapReduce. Johann Volz. 3. Juni 2010. Zusammenfassung

MapReduce. Johann Volz. 3. Juni 2010. Zusammenfassung MapReduce Johann Volz 3. Juni 2010 Zusammenfassung Bei der Verarbeitung von Datenmengen, die hunderte oder gar tausende Computer zur Fertigstellung in der gewünschten Zeit brauchen, muss man sich nicht

Mehr

Autor: Michael Spahn Version: 1.0 1/10 Vertraulichkeit: öffentlich Status: Final Metaways Infosystems GmbH

Autor: Michael Spahn Version: 1.0 1/10 Vertraulichkeit: öffentlich Status: Final Metaways Infosystems GmbH Java Einleitung - Handout Kurzbeschreibung: Eine kleine Einführung in die Programmierung mit Java. Dokument: Autor: Michael Spahn Version 1.0 Status: Final Datum: 23.10.2012 Vertraulichkeit: öffentlich

Mehr

MapReduce. Dhyan Blum

MapReduce. Dhyan Blum MapReduce Dhyan Blum Betreuer: Dirk Haage Seminar Innovative Internettechnologien und Mobilkommunikation SS2010 Lehrstuhl Netzarchitekturen und Netzdienste Fakultät für Informatik, Technische Universität

Mehr

Online-Ansichten und Export Statistik

Online-Ansichten und Export Statistik ACS Data Systems AG Online-Ansichten und Export Statistik (Version 10.08.2009) Buchhaltung für Schulen ACS Data Systems AG Bozen / Brixen / Trient Tel +39 0472 27 27 27 obu@acs.it 2 Inhaltsverzeichnis

Mehr

Clouds. Erwartungen der Nutzer. Wolkig bis Heiter. (c) 2013, Peter Sturm, Universität Trier. Er ist verwöhnt! Er ist nicht dankbar!

Clouds. Erwartungen der Nutzer. Wolkig bis Heiter. (c) 2013, Peter Sturm, Universität Trier. Er ist verwöhnt! Er ist nicht dankbar! Clouds Wolkig bis Heiter Erwartungen der Nutzer Er ist verwöhnt! Verfügbarkeit Viele Anwendungen Intuitive Interfaces Hohe Leistung Er ist nicht dankbar! Mehr! Mehr! Mehr! Moore 1 Erwartungen der Entwickler

Mehr

Datenschutzerklärung ENIGO

Datenschutzerklärung ENIGO Datenschutzerklärung ENIGO Wir, die, nehmen den Schutz Ihrer persönlichen Daten sehr ernst und halten uns strikt an die Regeln der Datenschutzgesetze. Personenbezogene Daten werden auf dieser Website nur

Mehr

Wichtige Hinweise zu den neuen Orientierungshilfen der Architekten-/Objektplanerverträge

Wichtige Hinweise zu den neuen Orientierungshilfen der Architekten-/Objektplanerverträge Wichtige Hinweise zu den neuen Orientierungshilfen der Architekten-/Objektplanerverträge Ab der Version forma 5.5 handelt es sich bei den Orientierungshilfen der Architekten-/Objektplanerverträge nicht

Mehr

Dialekte der Klimaforschung

Dialekte der Klimaforschung Dialekte der Klimaforschung Vom Fortran-Programm zum parallelen Programm Thomas Ludwig Inhalt Welche Dialekte werden transformiert? Welche Anforderungen stellen wir? Wozu diese Transformation? Wie ist

Mehr

Überblick. Reparaturfunktionen File-History Sicherheit. Metro Hardware Versionen Dateisystem ReFS Storage Pools Storage Spaces Weitere Verbesserungen

Überblick. Reparaturfunktionen File-History Sicherheit. Metro Hardware Versionen Dateisystem ReFS Storage Pools Storage Spaces Weitere Verbesserungen Windows 8 Überblick Metro Hardware Versionen Dateisystem ReFS Storage Pools Storage Spaces Weitere Verbesserungen Reparaturfunktionen File-History Sicherheit 2 Metro Neuer Lockscreen Neuer Startbildschirm

Mehr

Der Parameter CLOSE bewirkt, dass sich das Sicherungsprogramm am Ende der Sicherung automatisch schliesst

Der Parameter CLOSE bewirkt, dass sich das Sicherungsprogramm am Ende der Sicherung automatisch schliesst 1 Sicherung 1.1 Einleitung Die Applikation WSCAR basiert auf der Datenbank-Engine Firebird 1.5.5 / 2.5.2. Beide Programme sind nur auf der Hauptstation(Server) installiert und dürfen nie deinstalliert

Mehr

APACHE PIG SEMINARARBEIT SSE - WS12/13 SEBASTIAN WALTHER

APACHE PIG SEMINARARBEIT SSE - WS12/13 SEBASTIAN WALTHER APACHE PIG SEMINARARBEIT SSE - WS12/13 SEBASTIAN WALTHER INHALT Das Hadoop Framework Hadoop s Distributed File System (HDFS) MapReduce Apache Pig Was ist Apache Pig & Pig Latin Anwendungsumgebungen Unterschied

Mehr

Dateisysteme und Datenverwaltung in der Cloud

Dateisysteme und Datenverwaltung in der Cloud Dateisysteme und Datenverwaltung in der Cloud Sebastian Fischer Master-Seminar Cloud Computing - WS 2013/14 Institut für Telematik, Universität zu Lübeck Dateisysteme und Datenverwaltung in der Cloud 1

Mehr

MapReduce-Konzept. Thomas Findling, Thomas König

MapReduce-Konzept. Thomas Findling, Thomas König MapReduce - Konzept 1 Inhalt 1. Motivation 2. Einführung MapReduce Google Rechenzentren Vergleich MapReduce und Relationale DBS 3. Hadoop Funktionsweise Input / Output Fehlerbehandlung 4. Praxis-Beispiel

Mehr

Big Data. Prof. Robert Jäschke Forschungszentrum L3S Leibniz Universität Hannover

Big Data. Prof. Robert Jäschke Forschungszentrum L3S Leibniz Universität Hannover Big Data Prof. Robert Jäschke Forschungszentrum L3S Leibniz Universität Hannover Agenda Was ist Big Data? Parallele Programmierung Map/Reduce Der Big Data Zoo 2 3Vs oder: Was ist Big Data? Deutsche Telekom:

Mehr

Sichern der persönlichen Daten auf einem Windows Computer

Sichern der persönlichen Daten auf einem Windows Computer Sichern der persönlichen Daten auf einem Windows Computer DIRECTION DES SERVICES IT SERVICE DIT-MI DIREKTION DER IT-DIENSTE DIENSTSTELLE DIT-MI 1/9 1 Inhaltsverzeichnis 2 Einleitung... 3 3 Outlook Daten...

Mehr

IBM SPSS Statistics für Mac OS - Installationsanweisungen (Standort-/Vertragslizenz)

IBM SPSS Statistics für Mac OS - Installationsanweisungen (Standort-/Vertragslizenz) IBM SPSS Statistics für Mac OS - Installationsanweisungen (Standort-/Vertragslizenz) Die folgenden Anweisungen gelten für die Installation von IBM SPSS Statistics Version 19 mit einerstandort-/vertragslizenz.

Mehr

IBM SPSS Statistics für Mac OS - Installationsanweisungen (Standort-/Vertragslizenz)

IBM SPSS Statistics für Mac OS - Installationsanweisungen (Standort-/Vertragslizenz) IBM SPSS Statistics für Mac OS - Installationsanweisungen (Standort-/Vertragslizenz) Die folgenden Anweisungen gelten für die Installation von IBM SPSS Statistics Version 21 mit einerstandort-/vertragslizenz.

Mehr

Grundlagen des Grid Computing

Grundlagen des Grid Computing Grundlagen des Grid Computing Cloud Computing ICA Joh.. Kepler Universität t Linz Cloud Computing Zugriff auf Programme und Daten Von überall her Jederzeit Singulärer Zugriffspunkt Daten: Photos, Dokumente

Mehr

IBM SPSS Statistics für Mac OS - Installationsanweisungen (Einzelplatz)

IBM SPSS Statistics für Mac OS - Installationsanweisungen (Einzelplatz) IBM SPSS Statistics für Mac OS - Installationsanweisungen (inzelplatz) Die folgenden Anweisungen gelten für die Installation von IBM SPSS Statistics Version 20 mit einerinzelplatzlizenz. Mit einer inzelplatzlizenz

Mehr

Google Caffeine. Was ist es, was ändert sich, wie bereite ich mich vor?

Google Caffeine. Was ist es, was ändert sich, wie bereite ich mich vor? Google Caffeine Was ist es, was ändert sich, wie bereite ich mich vor? Wer ist das? Johannes Beus, SISTRIX Suchmaschinenoptimierung seit 5 Monaten Betrieb eigener Webprojekte unterschiedlichster Themengebiete

Mehr

STORAGE. Martin Schmidt Berufsschule Obernburg

STORAGE. Martin Schmidt Berufsschule Obernburg STORAGE Martin Schmidt Berufsschule Obernburg Storage Begriffserklärung Storage ist die Bezeichnung für eine große Menge zusammenhängenden Speicherplatz in einem Netzwerk. Storage heißen auch die große

Mehr

C++ Grundlagen. ++ bedeutet Erweiterung zum Ansi C Standard. Hier wird eine Funktion eingeleitet

C++ Grundlagen. ++ bedeutet Erweiterung zum Ansi C Standard. Hier wird eine Funktion eingeleitet C++ Grundlagen ++ bedeutet Erweiterung zum Ansi C Standard Hier wird eine Funktion eingeleitet Aufbau: In dieser Datei stehen die Befehle, die gestartet werden, wenn das Programm gestartet wird Int main()

Mehr

PIWIN 1 Übung Blatt 5

PIWIN 1 Übung Blatt 5 Fakultät für Informatik Wintersemester 2008 André Gronemeier, LS 2, OH 14 Raum 307, andre.gronemeier@cs.uni-dortmund.de PIWIN 1 Übung Blatt 5 Ausgabedatum: 19.12.2008 Übungen: 12.1.2009-22.1.2009 Abgabe:

Mehr

Information, Kommunikation, Administration (IKA) Unterrichtsbereich Information 1. Semester 1. Band. 1. Ausgabe, Mai 2014

Information, Kommunikation, Administration (IKA) Unterrichtsbereich Information 1. Semester 1. Band. 1. Ausgabe, Mai 2014 Information, Kommunikation, Administration (IKA) 1. Ausgabe, Mai 2014 Siegmund Dehn, Sabine Spieß sowie ein HERDT-Autorenteam Unterrichtsbereich Information 1. Semester 1. Band BS-IKA-I-1-1CC-813 3 IKA

Mehr

KURZANLEITUNG CLOUD BLOCK STORAGE

KURZANLEITUNG CLOUD BLOCK STORAGE KURZANLEITUNG CLOUD BLOCK STORAGE Version 1.12 01.07.2014 SEITE _ 2 INHALTSVERZEICHNIS 1. Einleitung......Seite 03 2. Anlegen eines dauerhaften Block Storage...Seite 04 3. Hinzufügen von Block Storage

Mehr

Die allerwichtigsten Raid Systeme

Die allerwichtigsten Raid Systeme Die allerwichtigsten Raid Systeme Michael Dienert 4. Mai 2009 Vorbemerkung Dieser Artikel gibt eine knappe Übersicht über die wichtigsten RAID Systeme. Inhaltsverzeichnis 1 Die Abkürzung RAID 2 1.1 Fehlerraten

Mehr

Amazon Relational Database Service

Amazon Relational Database Service Amazon Relational Database Service Till Ganzert Hochschule Mannheim Fakultät für Informatik Paul-Wittsack-Straße 10 68163 Mannheim Zusammenfassung Dieses Dokument befasst sich mit dem Relational Database

Mehr

Cloud-Computing. 1. Definition 2. Was bietet Cloud-Computing. 3. Technische Lösungen. 4. Kritik an der Cloud. 2.1 Industrie 2.

Cloud-Computing. 1. Definition 2. Was bietet Cloud-Computing. 3. Technische Lösungen. 4. Kritik an der Cloud. 2.1 Industrie 2. Cloud Computing Frank Hallas und Alexander Butiu Universität Erlangen Nürnberg, Lehrstuhl für Hardware/Software CoDesign Multicorearchitectures and Programming Seminar, Sommersemester 2013 1. Definition

Mehr

Funktionen in PHP 1/7

Funktionen in PHP 1/7 Funktionen in PHP 1/7 Vordefinierte Funktionen in PHP oder vom Entwickler geschriebene Funktionen bringen folgende Vorteile: gleiche Vorgänge müssen nur einmal beschrieben und können beliebig oft ausgeführt

Mehr

Erfinderland Deutschland Baukasten Forschung Themenbereich: Informatik Niveau B1 CLIL-Unterrichtsmaterialien Vor dem Ausstellungsbesuch

Erfinderland Deutschland Baukasten Forschung Themenbereich: Informatik Niveau B1 CLIL-Unterrichtsmaterialien Vor dem Ausstellungsbesuch Seite 1 von 5 Erfinderland Deutschland Baukasten Forschung Themenbereich: Informatik CLIL-Unterrichtsmaterialien Vor dem Ausstellungsbesuch Aufgabe 1: Daten in der Wolke a. Seht das Bild an und tauscht

Mehr

4D v11 SQL Release 6 (11.6) ADDENDUM

4D v11 SQL Release 6 (11.6) ADDENDUM ADDENDUM Willkommen zu Release 6 von 4D v11 SQL. Dieses Dokument beschreibt die neuen Funktionalitäten und Änderungen der Version. Erweiterte Verschlüsselungsmöglichkeiten Release 6 von 4D v11 SQL erweitert

Mehr

Neue Ansätze der Softwarequalitätssicherung. Googles MapReduce-Framework für verteilte Berechnungen am Beispiel von Apache Hadoop

Neue Ansätze der Softwarequalitätssicherung. Googles MapReduce-Framework für verteilte Berechnungen am Beispiel von Apache Hadoop Neue Ansätze der Softwarequalitätssicherung Thema des Seminars Googles MapReduce-Framework für verteilte Berechnungen am Beispiel von Apache Hadoop Universität Paderborn Fakultät für Elektrotechnik, Informatik

Mehr

RAID. Name: Artur Neumann

RAID. Name: Artur Neumann Name: Inhaltsverzeichnis 1 Was ist RAID 3 1.1 RAID-Level... 3 2 Wozu RAID 3 3 Wie werden RAID Gruppen verwaltet 3 3.1 Software RAID... 3 3.2 Hardware RAID... 4 4 Die Verschiedenen RAID-Level 4 4.1 RAID

Mehr

Heimverwaltungsprogramm HVP Version 6.0

Heimverwaltungsprogramm HVP Version 6.0 Heimverwaltungsprogramm HVP Version 6.0 Dokumentenmanagement Version 1.0 des Handbuchs HeimTec GmbH Heimverwaltung HVP Internet: www.heimtec.com E-Mail: info@heimtec.com Inhalt 1. Einleitung...3 1.1. Speicherung

Mehr

Umstellung des Schlüsselpaares der EU von A003 auf A004

Umstellung des Schlüsselpaares der EU von A003 auf A004 Umstellung des Schlüsselpaares der EU von A003 auf A004 Kundenleitfaden Ausgabe März 2007 Version: 7.03.00 vom 19.03.2007 SFirm32-Version: 2.0k-SP1 BIVG Hannover, 2007, Kundenleitfaden - Umstellung A003

Mehr

Textdokument-Suche auf dem Rechner Implementierungsprojekt

Textdokument-Suche auf dem Rechner Implementierungsprojekt Textdokument-Suche auf dem Rechner Implementierungsprojekt Referent: Oliver Petra Seminar: Information Retrieval Institut für Computerlinguistik Ruprecht-Karls-Universität Heidelberg 19.01.2015 Überblick

Mehr

Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen

Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem hristian Terboven Rechen- und Kommunikationszentrum RWTH Aachen 1 Hochleistungsrechnen mit Windows enter omputing and ommunication

Mehr

If knowledge matters DOKUMENTENERSTELLUNG MIT SHAREPOINT LIBRARIES

If knowledge matters DOKUMENTENERSTELLUNG MIT SHAREPOINT LIBRARIES If knowledge matters DOKUMENTENERSTELLUNG MIT SHAREPOINT LIBRARIES Das Erstellen von Dokumenten mit Sharepoint Libraries bietet eine Reihe von Vorteilen gegenüber der traditionellen Arbeitsweise und dem

Mehr

5.4 Klassen und Objekte

5.4 Klassen und Objekte 5.4 Klassen und Objekte Zusammenfassung: Projekt Figuren und Zeichner Figuren stellt Basisklassen für geometrische Figuren zur Verfügung Zeichner bietet eine übergeordnete Klasse Zeichner, welche die Dienstleistungen

Mehr

Um ein solches Dokument zu erzeugen, muss eine Serienbriefvorlage in Word erstellt werden, das auf die von BüroWARE erstellte Datei zugreift.

Um ein solches Dokument zu erzeugen, muss eine Serienbriefvorlage in Word erstellt werden, das auf die von BüroWARE erstellte Datei zugreift. Briefe Schreiben - Arbeiten mit Word-Steuerformaten Ab der Version 5.1 stellt die BüroWARE über die Word-Steuerformate eine einfache Methode dar, Briefe sowie Serienbriefe mit Hilfe der Korrespondenzverwaltung

Mehr

Azure und die Cloud. Proseminar Objektorientiertes Programmieren mit.net und C# Simon Pigat. Institut für Informatik Software & Systems Engineering

Azure und die Cloud. Proseminar Objektorientiertes Programmieren mit.net und C# Simon Pigat. Institut für Informatik Software & Systems Engineering Azure und die Cloud Proseminar Objektorientiertes Programmieren mit.net und C# Simon Pigat Institut für Informatik Software & Systems Engineering Agenda Was heißt Cloud? IaaS? PaaS? SaaS? Woraus besteht

Mehr

Dokumentation Projekt Virtuelles Tagebuch

Dokumentation Projekt Virtuelles Tagebuch Priv.Doz. Dr. Michael Hahsler Institut für Informationswirtschaft Dokumentation Projekt (Matr. Nr. 9806106) - 1 - 1 Problembeschreibung Das Ziel dieses Projektes ist es, ein Tagebuch in elektronischer

Mehr

!"#$"%&'()*$+()',!-+.'/',

!#$%&'()*$+()',!-+.'/', Soziotechnische Informationssysteme 5. Facebook, Google+ u.ä. Inhalte Historisches Relevanz Relevante Technologien Anwendungsarchitekturen 4(5,12316,7'.'0,!.80/6,9*$:'0+$.;.,&0$'0, 3, Historisches Facebook

Mehr

Bearbeitungszeit: 120 Minuten. Kommentare kosten Zeit; kommentieren Sie ihr Programm nur da, wo der Code alleine nicht verständlich wäre.

Bearbeitungszeit: 120 Minuten. Kommentare kosten Zeit; kommentieren Sie ihr Programm nur da, wo der Code alleine nicht verständlich wäre. Fakultät IV Elektrotechnik/Informatik Klausur Einführung in die Informatik I für Elektrotechniker Name:... Matr.-Nr.... Bearbeitungszeit: 120 Minuten Bewertung (bitte offenlassen : ) Aufgabe Punkte Erreichte

Mehr

Was ist Amazon RDS? Datenbank Typen DB Instanzen Features. Live Demo Fazit. Amazon RDS - Till Ganzert 15.06.2012 2

Was ist Amazon RDS? Datenbank Typen DB Instanzen Features. Live Demo Fazit. Amazon RDS - Till Ganzert 15.06.2012 2 Was ist Amazon RDS? Datenbank Typen DB Instanzen Features Kosten Live Demo Fazit 15.06.2012 2 Web-Service von Amazon Erlaubt mieten von Datenbanken Einrichtung, Betrieb und Skalierung übernimmt Anbieter

Mehr

Lehreinheit H1 Hardware Grundlagen

Lehreinheit H1 Hardware Grundlagen Hardware Lehreinheit H1 Hardware Grundlagen Zeitrahmen 90 Minuten Zielgruppe Volksschule Inhaltliche Voraussetzung Keine Lehrziel Funktionsweise der Hardware verstehen, den Computer von Innen kennen lernen

Mehr

Pavlo Baron. Big Data. für IT-Entscheider. Riesige Datenmengen. und moderne Technologien. gewinnbringend nutzen HANSER

Pavlo Baron. Big Data. für IT-Entscheider. Riesige Datenmengen. und moderne Technologien. gewinnbringend nutzen HANSER Pavlo Baron Big Data für IT-Entscheider Riesige Datenmengen und moderne Technologien gewinnbringend nutzen HANSER Inhalt Vorwort XI 1 Management Summary 1 2 Was? 7 2.1 Mein klassisches Business ist konkurrenzlos,

Mehr

Ein kleines Computer-Lexikon

Ein kleines Computer-Lexikon Stefan Edelmann 10b NIS-Klasse Ein kleines Computer-Lexikon Mainboard Die Hauptplatine! Sie wird auch Motherboard genannt. An ihr wird das gesamte Computerzubehör angeschlossen: z.b. Grafikkarte Soundkarte

Mehr

IBM SPSS Statistics für Windows - Installationsanweisungen (Einzelplatz)

IBM SPSS Statistics für Windows - Installationsanweisungen (Einzelplatz) IBM SPSS Statistics für Windows - Installationsanweisungen (inzelplatz) Die folgenden Anweisungen gelten für die Installation von IBM SPSS Statistics Version 20 mit einerinzelplatzlizenz. Mit einer inzelplatzlizenz

Mehr

Managed Cloud Services

Managed Cloud Services Managed Cloud Services Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Cloud Services

Mehr

GoGrid Hochschule Mannheim

GoGrid Hochschule Mannheim Christoph Eikermann GoGrid Hochschule Mannheim WS0910 1/25 GoGrid Hochschule Mannheim Christoph Eikermann Fakultät für Informatik Hochschule Mannheim c.eikermann@googlemail.com 11.12.2009 Christoph Eikermann

Mehr

Zahlensysteme: Oktal- und Hexadezimalsystem

Zahlensysteme: Oktal- und Hexadezimalsystem 20 Brückenkurs Die gebräuchlichste Bitfolge umfasst 8 Bits, sie deckt also 2 8 =256 Möglichkeiten ab, und wird ein Byte genannt. Zwei Bytes, also 16 Bits, bilden ein Wort, und 4 Bytes, also 32 Bits, formen

Mehr

Workflow+ Installation und Konfiguration

Workflow+ Installation und Konfiguration Workflow+ Installation und Konfiguration Systemübersicht Workflow+ Designer Mit dem Workflow+ Designer werden Workflows und Eingabemasken erstellt. Mit der integrierten Test- und Debugging Funktion können

Mehr