Cloud basierte Intermediate Archive Neue Technologien und Workflows in der Medienprozessautomatisierung für Broadcast und Film

Größe: px
Ab Seite anzeigen:

Download "Cloud basierte Intermediate Archive Neue Technologien und Workflows in der Medienprozessautomatisierung für Broadcast und Film"

Transkript

1 Sonderdruck aus Jahrgang 15, Fachzeitschrift für Fernsehen, Film und Elektronische Medien Denoising bei der JPEG2000 De- und Encodierung Pipelined GPU Processing RUNDFUNKTECHNISCHE MITTEILUNGEN DES IRT Nutzung von GPU s in der Cloud Cloud basierte Intermediate Archive Neue Technologien und Workflows in der Medienprozessautomatisierung für Broadcast und Film

2 Cloud-basierte Intermediate-Archive Die Anforderungen an einen Content-Flow für TV-Distributionsformate sind hoch. Neben einer guten Qualität des Video-Contents sind auch leistungsstarke und automatisierbare Prozessabläufe notwendig. Ein durchgehend homogener Workflow von der Erstellung des Materials bis zum Nutzungsszenario des Endkunden ermöglicht es, neue und wirtschaftlichere Businessmodelle zu entwickeln. Der Beitrag soll einen Überblick darüber geben, welche Anforderungen in diesem Bereich bestehen sowie welche Technologien die neuen Geschäftsmodelle unterstützen können. The requirements for a content flow of TV distribution formats are very high. Besides excellent video quality, powerful and automatable processing are necessary. Homogenous workflow from content generation up to the consumer s usage scenario is necessary for the development of economic business models. This article will give an overview of technologies which can support these new business models. Ausgangssituation Das Intermediate-Archiv bildet das Bindeglied zwischen dem qualitativ hochwertigen Filmmaterial, das in der Postproduktion erzeugt wird, und allen anderen Distributionskanälen (Bild 1). Keine der erzeugten Kopien hat die gleiche hohe Bildqualität wie das Original aus der Postproduktion. Das Intermediate-Archiv bettet sich ein zwischen dem Langzeitarchiv, in dem die Inhalte für die Zukunft gesichert werden sollen, und dem Distributionsarchiv, das die aufbereiteten Filmdaten dann bis zum Endkunden transportiert. Es nimmt dabei eine besondere Rolle ein, da es die hochqualitativen Filmdaten verarbeitet und diese mit den neusten Encoder-Technologien aufbereitet. Als Intermediate-Austauschformat bietet sich IMF [1] an, da es Workflowunterstützende Funktionen bietet. Über sogenannte CPLs (Composition Playlists) können die unterschiedlichen Sprachversionen eines Films abgebildet Weiterhin werden über die OPLs (Output Profile Lists) die notwendigen Transcoding-Parameter festgelegt. Bei der Abbildung der nicht technischen Metadaten in IMF besteht jedoch noch Verbesserungsbedarf. Grundsätzlich sollte ein Austauschformat auch alle Metadaten mit aufnehmen können und eine gleichbleibende UID (Unique Identifier) verwenden, über die ein Beitrag oder ein Film bis hin zur Referenz im Internet eindeutig identifizierbar ist. Eine UID ist schon vorhanden, allerdings muss auch der End-to-End -Workflow dieses unterstützen. Nur in diesem Fall können Applikationen bei den Endverbrauchern intelligente Funktionen in der Zukunft nutzen. Als Beispiel hierfür kann eine intelligente und neuartige Navigation eines Kunden durch die riesige und wachsende Anzahl von Filmen genannt Diese sollte dem Leitmotiv folgen, dem VoD-Kunden immer in möglich kürzester Zeit eine für ihn optimale Filmauswahl zur Verfügung zu stellen, also eine solche, die seine Interessen und seinen Geschmack widerspiegelt. Könnte man hierfür unabhängige Recommendation Engines einsetzen, wäre man einen Schritt weiter auf dem Weg zu einer neuartigen Mediennavigation. Das Wort unabhängige ist dabei in den Vordergrund zu stellen. Eine von den Contentanbietern unabhängige Recommendation- Engine würde nämlich dem Kunden eine viel breitere Auswahl an für ihn zugeschnittenen Inhalten bieten. Wird das noch mit einem Multianbieter-Shop -Konzept kombiniert, so würden die Kundenzufriedenheit und der Kundenbindungsindex steigen. Zusätzlich zur integrierten Speicherung der Metadaten im Austauschformat, wäre aber auch eine allgemeingültige Verlinkung der Metadaten sinnvoll, wie sie im FKT-Beitrag Linked Production Data (FKT 11/2013) [2] vorgeschlagen wird. Technisch gesehen ist das nicht besonderes aufwendig und zum größten Teil schon über eine Migration/Erweiterung einer UID/CRID (Content Reference Identifier) zu einer URI (Uniform Resource Identifier) umsetzbar. Eingangsformate IMF ist ein Containerformat mit bestimmten Spezifikationen und beantwortet nicht von sich aus die Frage, was als Videoformat und in welcher Auflösung gespeichert werden soll. Grundsätzlich kann man bei den Quellen drei unterschiedliche Bereiche unterscheiden: Premium-Content von den Major Studios (2k/4K-Blockbuster), Hausformate der Broadcaster und Multi-Format-Varianten. Für den Premium-Content gibt es Vorschläge, das DCP-Material für die Erzeugung der Distributionsformte zu benutzen. Sicherlich ist dieser Vorschlag aus wirtschaftlicher Sicht sinnvoll, da nicht ein weiteres Format zusätzlich erzeugt werden muss. Allerdings ergeben sich aus technischer Sicht hierbei wesentliche Nachteile. Für die Erzeugung von DCI-konformen Filmen durchläuft das Bildmaterial bereits vor der DCI-Encodierung unterschiedliche Verarbeitungsschritte, die Einfluss auf die Bildqualität haben. Schon in der Kamera wird das Bildsignal optimiert, um einen hohen Dynamikbereich abdecken Bild 1. Übersicht Archive Dirk Hildebrandt ist Gründer und CTO von Wavelet Beam. Er entwickelt Echtzeit- Bildverbesserungsalgorithmen und bietet Beratungsleistungen in den Bereichen GPU-basierte Workflows sowie VoD an. 2 Sonderdruck aus 3/2014 FKT

3 zu können. Im besten Fall kann man auf einen Raw-Workflow zurückgreifen, der die Bayer-Daten in unkomprimierter Form in der Postproduktion zur Verfügung stellt. Bereits das ist nicht für alle am Markt verfügbaren Kameras der Fall. In diesem Zusammenhang wird oft von Visual Lossless gesprochen. Allerdings führen schon diese geringen Kompressionsraten zu einer Modulation von Bildsignalen mit Rauschanteilen, die nachträglich nur noch über eine Verringerung der Auflösung kompensiert werden können. Die Anzahl der Bildpunkte bleibt dann oftmals gleich, aber die theoretische mögliche Auflösung wird nicht mehr erreicht. Ein weiteres Qualitätsmerkmal ist der eingesetzte De-Bayer-Algorithmus, der weitere Artefakte hinzufügen kann. Die Kamerahersteller versuchen das durch die Verwendung von höher auflösenden Chips zu kompensieren, um für das De- Bayering bessere Voraussetzungen zu schaffen. Allerdings bleibt es bei einer notwendigen Interpolation der RGB-Farbwerte und damit bei einer weiteren Quelle für zusätzliche Rauschanteile. Das DCP ist mit seinen Rahmenbedingungen für eine Ausspielung im Kino optimiert. Dabei handelt es sich um eine verlustbehaftete Version des JPEG-2000-Formats, die sich an der von der DCI vorgegebenen Zieldatenrate orientiert. Somit hat die Höhe der Rauschanteile einen wesentlichen Einfluss auf die Qualität des encodierten Materials. Soll das DCP also als Quelle für eine UHDTV- oder HD- Distribution genutzt werden, liegt nicht mehr die bestmögliche Voraussetzung hierfür vor. Viele Broadcaster würden wahrscheinlich gerne die Encodierverfahren ihrer Hausformate für die Generierung eines Intermediate- Formats nutzen. Das hätte den Vorteil, den Videocontent vom Aufnahmemedium zu trennen und gleichzeitig die Bandbreitenreduzierung beibehalten zu können. Gibt es keine Chance, den Produktionsfirmen ein Standard-Ingest-Format vorzuschreiben, so werden alle professionellen Formate angeliefert. In diesem Fall macht es Sinn, ein Transcoding aller Assets in ein einheitliches Format vorzunehmen. Die einzelnen vorgestellten Varianten werden nicht in reiner Form eine Verwendung finden. Vielmehr werden sich Kombinationen der drei Variante durchsetzen. Kombiniert man zum Beispiel die Multi-Format-Variante mit dem Hausformat eines Broadcasters, so könnten die Multi-Format-Varianten in JPEG-2000 transcodiert und das Hausformat als eine eigene Applikation in IMF eingebettet Services in der Cloud Im B2B-Bereich besteht zurzeit die Möglichkeit, Videoinhalte unverschlüsselt vorzuhalten. Die notwendige Sicherung der Assets wird bei der Übertragung nur über ein sogenanntes VPN (Virtual Private Network) sichergestellt. Auf dem FTP-Server der Distributionsarchive liegen diese Filme dann allerdings unverschlüsselt vor. Nach dem aktuellen Wissenstand sind aber auch die zurzeit eingesetzten Verschlüsselungsverfahren bei VPN-Verbindungen nicht sicher. Die Einführung einer End-to-End -Verschlüsselung wie bei der Kinofilmdistribution ist aufwendig und teuer. Bei der Einführung von UHDTV könnten allerdings auch die Intermediate-Archive unter Druck geraten, einen höheren Sicherheitsstand einzuhalten, da die vorzuhaltende Qualität und Auflösung an die des digitalen Kinos herankommt. Technisch gesehen ist es sinnvoll, die Einführung der Verschlüsselung mit dem Upgrade auf H.265 zu verbinden. Die Anforderungen an einen Verschlüsselungs-Workflow sind aber anders als beim digitalen Kino, bei dem es keinen Wechsel der Verschlüsselungsart bis zur Distribution gibt. Im Wesentlichen müssen für diesen Fall einige Interfaces auf Distributionsseite angepasst Werden neue Videoinhalte für die Distribution angeliefert, so sollten diese einer manuellen oder automatisierten Qualitätskontrolle unterzogen Um Backframe, Dropouts oder andere Fehler im AV-Material erkennen zu können, besteht das erste Mal auf der Distributionsseite die Notwendigkeit, das Material zu entschlüsseln. Wurde ein Asset dann in das Backend-System importiert und für die Distribution freigegeben, so werden die Filme in die Video-Pumps geladen. Je nach Headend-Design werden die Videoinhalte dort verschlüsselt oder unverschlüsselt abgelegt. Ein weiterer Bereich bei dem eine Entschlüsselung notwendig ist, ist der Transcoding- Prozess. Software as a Service (SaaS) Die Anzahl der beteiligten Produkte, die eine Entschlüsselung (Decryption) unterstützen müssten sind sehr groß, da jeder Dienstanbieter seine eigene Konfiguration und Vendor- Auswahl hat. An dieser Stelle können neue Modelle wie Software as a Service helfen, die Einführung einer neuen Technologie unter vertretbaren Kosten vornehmen zu können. Im Fall einer zu verwendenden Verschlüsselung würde man zum Beispiel durch den Einsatz von AES Decoding as a Service den Integrationsaufwand erheblich verringern können. Anstatt die AES-Verschlüsselung in jedes Produkt zu integrieren, würde man diesen Prozess auslagern können, und nur die Integration einer zuständigen API wäre hierzu notwendig. Es ergeben sich hierdurch auch weitere Sicherheitsfragen, die aber im Gesamtzusammenhang mit den Kosten und den geforderten Sicherheitsstandards beurteilt werden müssen. Die DCPs stellen unter den möglichen Distributionsformaten die beste Bildqualität zur Verfügung. Bei allen anderen Distributionswegen wird die Qualität erheblich verringert. Die für einen Distributionsweg zur Verfügung stehende Bandbreite wird unter anderem durch eine Reduzierung der spatialen-, temporalen- oder Farbauflösung erreicht. Zusammen mit der richtigen Wahl der Encoder-Technologie lassen sich dann die Zieldatenraten erreichen. Das Intermediate-Archiv ist aber mehr als eine Renderfarm, die Videos in anderen Auflösungen zur Verfügung stellt. Im Intermediate-Archiv werden die Assets erst erzeugt. Durch die Anreicherung der Filmdaten mit Rechten und Metadaten ergibt sich ein für die Distribution vollständiges Paket, das in einem automatisierten Prozess seinen Weg zum Kunden, dem Fernsehzuschauer oder Käufer einer DVD findet. Aus heutiger Sicht gibt es ein Intermediate-Archiv in dieser homogenen Form vielleicht noch nicht. Vielmehr gelangen der Content, die Rechte und die Metadaten teilweise auf unterschiedlichen Wegen zum Distributionsarchiv und werden erst dort zusammengeführt. Der Nachteil bei einer solchen Vorgehensweise wird klar, wenn man den personellen Mehraufwand und die Fehleranfälligkeit betrachtet. Für VoD-Dienste bekommen die Medienaggregatoren heutzutage HD-Inhalte geliefert und diese werden um die für die Zielplattform notwendigen Metadaten, Rechte und weitere Contentanteile wie Bilder für das Box-Cover ergänzt. Die VoD-Dienste benutzen aber unterschiedliche Formate, die sich durch die genutzte Backoffice-Software des Dienstanbieters und den eigenen Anforderungen ergeben. Das Intermediate-Archiv muss also viele unterschiedliche Export-Filter integrieren und auch jeweils neue Anforderungen der Distributionsarchive über Change- Requests abbilden. Nutzung von GPUs in der Cloud Cloud-Computing umschreibt den Ansatz, abstrahierte IT-Infrastrukturen (zum Beispiel Rechenkapazität, Datenspeicher, Netzwerk- Sonderdruck aus 3/2014 FKT 3

4 kapazitäten oder auch Software) dynamisch an den Bedarf angepasst über ein Netzwerk zur Verfügung zu stellen. Dabei zeichnet sich die IT-Infrastruktur dadurch aus, dass sie überwiegend aus Standard-Hardware besteht. Eine Skalierbarkeit der Systeme kann ausschließlich durch eine Portierung von Software und automatisierte Konfiguration vorgenommen Auch in einer Private Cloud ergeben sich gravierende Einsparungen, die durch die Nutzung von Blade-Systemen und Virtualisierungslösungen den Rackspace im Rechenzentrum erheblich komprimieren. Die Nutzung einer Private Cloud für ein Intermediate-Archiv hat verschiedene Vorteile, die sich durch Anforderungen im Sicherheitsbereich und einer gewünschten Flexibilität in der Nutzung von Vendor-proprietärer Hardware ergeben. Eine Portierung von Backoffice-Software in eine Cloud-Umgebung ist mit geringen Aufwand sowie Kosten verbunden und der Einsatz von Virtualisierungslösungen meist unkompliziert. Der Video- und Film-Workflow bestand bis vor Kurzem allerdings ausschließlich aus proprietärer Hardware, die FPGA-Technologie zur Beschleunigung der Verarbeitungsschritte einsetzt. Eine einfache Skalierbarkeit wie im Fall einer abstrahierbaren IT-Infrastruktur ist hierbei nicht gegeben. Der Anteil an GPU-(Graphics Processing Unit-)basierten Workflows steigt aber massiv in diesem Bereich an. Die GPU-Leistung ermöglicht heutzutage 4K-Encoding in Echtzeit und kombiniert dieses zugleich mit einer Nutzungsmöglichkeit in einer Cloud. Auch die GPU-basierten Workflows benötigen Hardware zur Beschleunigung von Verarbeitungsschritten. Allerdings ist diese Hardware von jedem Softwareanbieter frei zu programmieren und verhältnismäßig preiswert, da ein breiter Massenmarkt hinter der Nutzung steht. GPUs werden im Bereich des High-Performance-Computing (HPC) eingesetzt und auch zum Beispiel die Amazon Web Services (AWS) bieten über die Elastic Compute Cloud (EC2) GPU-beschleunigte Instanzen für Cloud-Anwendungen mit hoher paralleler Rechenleistung. Genau diese Markttendenzen stehen hinter der Entwicklung eines Cloud-basierten Intermediate-Archivs. In diesem Umfeld nutzt die eingesetzte Hardware eine Unified Architecture, um Bildverarbeitungsaufgaben zwischen CPU, GPU und den Servern zu verteilen. Eine Migration eines solchen Systems ist unkompliziert und allein durch den Einsatz neuer Komponenten ist eine Skalierung sowie Performanzsteigerung möglich. Bild 2. Image-Processing-Workflow Hingegen ist die Integration von proprietärer Hardware-/Softwarelösungen zeitaufwendig und teuer. Dazu kommt auch noch, dass die Entwicklungszyklen der Produkte abhängig von der Verfügbarkeit der neuesten Chiptechnologie sind. GPU-basierte Produkte haben in diesem Punkt gravierende Vorteile. Die Time to Market eines Produkts verringert sich erheblich, da es sich im Wesentlichen um ein Softwareprodukt handelt. Die Hardware eines GPU-basierten Cloud- Systems besteht aus einzelnen Servern/Blades, die mit mehreren GPU-Karten bestückt sind. Systemdesigns aus dem HPC-Bereich können als Blueprint für ein solches System genutzt Eine wichtige Rolle nimmt dabei das Infrastructure Management ein, über das alle notwendigen Informationen des Data- Centers verwaltet werden können. Ein solches System unterstützt beim Planen, Ausrollen und dem Monitoring des Data-Centers sowie visualisiert Ressourcen und die Konfiguration der Komponenten. Pipelined-GPU-Processing Die Aufgabe des Intermediate-Archives, Distributionsformate zu erzeugen, kann über Pipelines beschrieben werden und benötigt eine Managementsoftware, die alle logischen Ressourcen im System verwalten und Aufträge verarbeiten kann. Alle beteiligten Systeme, sei es GPU-Software oder proprietäre Hardware, benötigt hierzu die Möglichkeit, extern vom Managementsystem gesteuert zu FIMS [3] ist eine solche Schnittstelle, die bereits erfolgreich in Produkten integriert wurde. Eine Bildverarbeitungskette zur Erzeugung eines Distributionsformats ist im Bild 2 dargestellt. Wie bereits beschrieben, werden die besten Ergebnisse bei der Transcodierung erzielt, wenn als Ausgangsformat ein Lossless-Format in höchster Auflösung genutzt wird. Soll etwa ein Distributionsformat mit geringerer Auflösung erzeugt werden, so sollten die Rauschanteile reduziert werden, um eine Anpassung an den Zielfrequenzgang vornehmen zu können. Wird dieser Schritt nicht vorgenommen, so ergibt sich eine Modulation der Rausch- sowie Signalanteile und die visuelle Qualität sinkt. Zudem steigt die benötige Bandbreite in diesem Fall an. Werden verlustbehaftete Filmdaten als Source- Material verwendet, kann ein angepasstes Clean-up-Profil geladen Als nächster Verarbeitungsschritt wird das Downscaling und gegebenenfalls eine Frame Rate Conversion vorgenommen. Erst dann folgt die Encodierung in das Zielformat. Handelt es sich beim Ein- oder Ausgangsformat um 4K-Daten, so wird vermutlich noch eine Verschlüsselung eingesetzt. Wird ein rein GPU-basierter Image-Processing-Workflow eingesetzt, so gibt es Richtlinien, um Performanz und Verarbeitungszeit zu optimieren. Ein wesentlicher Zeitfaktor bei der Verarbeitung von hochaufgelöstem Filmmaterial ist die Übertragung der Daten in den Device Memory (Device MEM) der GPU-Karte. Das Hin- und Zurückkopieren der Daten kann die eigentliche Verarbeitungszeit um ein Vielfaches überschreiten. In diesem Fall ist zu prüfen, ob eine CPU-Verarbeitung sinnvoller ist. Als einfache Regel gilt hier, dass die Bilddaten solange wie möglich und nötig im Device MEM vorzuhalten sind, damit unnötige Transferzeiten entfallen können (Bild 3). Die in der Image-Processing-Pipeline angegeben Einzelfunktionen stehen schon heute als GPU-Produkte verschiedener Hersteller zur Verfügung. Um eine Integration von GPU-Produkten optimal gestalten zu können, hat sich die GPU- Alliance [4] die Aufgabe gestellt, Richtlinien für GPU-basierte Workflows zu entwickeln. Werden die APIs der Hersteller unter Berücksichtigung dieser Richtlinien entwickelt, so kann zum Beispiel eine Daten-Interoperabilität hergestellt GPU-Funktionen lassen sich dadurch leichter serialisieren und diese Informationen könnten dann wiederum über FIMS orchestriert werden (s. Bild 3). Eine aktive und gleichzeitig dynamische Rauschunterdrückung kann dabei helfen, die Bildqualität nachhaltig zu verbessern und mit den gegebenen Datenraten gute Ergebnisse zu erreichen. Ein sehr gutes Denoising- Verfahren bietet hierbei die notwendige dynamische Anpassung der Rauschanteile. Wichtig ist, dass das bearbeitete Bild einen natürlichen Look des Films beibehält, wobei ein Großteil des Rauschens entfernt wird. 4 Sonderdruck aus 3/2014 FKT

5 Bild 3. Pipelined-GPU-Processing Das Denoising sollte also nicht einfach das Bild glätten, sondern die Bildinformationen von den Rauschanteilen trennen und damit das eigentliche Bildsignal aus dem Rauschen herausheben. JPEG-2000-Encoding und Wavelet-basiertes Denoising Eine noch höhere Vernetzung unterschiedlicher Applikationen verschiedener Hersteller ist auch möglich und soll anhand der Applikation JPEG-2000 Encoding und Waveletbasiertes Denoising [5] im Folgenden erläutert Nicht nur JPEG-2000 nutzt die Wavelet- Transformation. Unterschiedliche Verfahren verwenden diese als Grundlage für eigene Denoising-Algorithmen. Wird nun das Denoising in den En- oder Decodierprozess integriert, ergibt sich eine Vielzahl interessanter Use-Cases (Bild 4). Das Bild 5 zeigt einen Side by Side Vergleich des Wavelet-Beam- Denoisings, wobei links das Original, rechts das entrauschte Bild zu sehen ist. Mittlerweile gibt es bereits Produkte, die ein integriertes Denoising im JPEG-2000-En-/Decodierprozess unterstützen. Integriertes Denoising bei der JPEG-2000-Encodierung Wird ein Denoising in die JPEG-2000-Encodierung integriert, also sehr früh in der Verarbeitungskette, so besteht eine gute Chance, die höchste Qualität aus dem Bildmaterial zu generieren. Durch die Entfernung von Rauschanteilen beim JPEG-2000-Encodierprozess ergeben sich bei verlustbehafteter und verlustloser Encodierung geringere Bandbreiten, da die Energieanteile des Rauschens nicht mitcodiert werden müssen. Gleichzeitig wird eine höhere Bildqualität erreicht. Wird bei dieser integrierten Lösung eine Lossless- JPEG-2000-Encodierung gewählt, so kann man diese als Improved Lossless Compression bezeichnen. Das Bild wird verbessert (Improved) und anschließend Lossless komprimiert. Das vom Rauschen befreite Bildsignal kommt in der Qualität näher an das Original heran als das nicht bearbeitete Bild. Hierbei ist als Original allerdings nicht der von der Kamera gespeicherter Datensatz, sondern die authentische, mit bloßem Auge gesehene Szene zu verstehen, die bekanntlich keine Rauschanteile aufweist. Ein weiterer Use-Case ergibt sich, wenn wie beim Non-Destructive-Editing das Ausgangsmaterial unbearbeitet belassen wird. In diesem Fall kann das Denoising als Vorschaufunktion eingesetzt werden, um die zur Verfügung stehende Qualität des Bildmaterials eindeutig beurteilen zu können. Integriertes Denoising bei der JPEG-2000-Decodierung Werden die Rauschanteile bei der JPEG Encodierung nicht entfernt, so kann dieses allerdings auch beim Decodierprozess geschehen. Für die Intermediate-Archive wäre diese Variante ein geeigneter Workflow, um alle Anforderungen erfüllen zu können. Die Raw- Daten mit Rauschanteilen liegen weiterhin als Quelle vor und abhängig von der erforderlichen Zielauflösung können die Rauschanteile dynamisch angepasst Hierbei gilt: je niedriger die Auflösung und Bandbreite, desto mehr Rauschanteile sollten entfernt Andersherum sollten auch Metadaten des Quellenmaterials den Bildverarbeitungs- Applikationen zur Verfügung gestellt Die Metadaten-Tags könnten dann Auskunft darüber geben, ob ein Bildmaterial bereits denoised (entrauscht) oder skaliert wurde. Der JPEG-2000-Encoder kann nicht zwischen Bildinformationen und Rauschanteilen unterscheiden und orientiert sich nur an der vorgegebenen Zieldatenrate. Wird kein angepasstes Noise-Management verwendet, überlässt man es allein dem JPEG-2000-Encoder, die Qualität des Bildmaterials zu bestimmen. Zielformate Das Intermediate-Archiv unterstützt die Generierung aller Consumer-Formate und bietet Pakete für VoD-Services. Beim Aufbau von UHDTV-Services wird eine Verschlüsselung des Contents mehr Sicherheit bei der Übertragung und Lagerung dessen im Distributionsarchiv mit sich bringen. Die Streaming-Plattformen werden heutzutage oft erst vor Ort bei den Serviceprovidern erzeugt. Das Intermediate-Archiv bietet in der beschreibenden Form aber durchaus die Möglichkeit, auch dieses als Platform as a Service anzubieten. Diese neuen Geschäftsmodelle könnten auch die Anbindung an ein Content-Delivery-Network mit einschließen und bringen Flexibilität bei der Gestaltung von Over The Top -(OTT-)Diensten. Fazit Bild 4. JPEG-2000-Coding mit integriertem Denoising Die Nutzung neuer Technologien im Broadcast-Umfeld belebt oder ermöglicht erst die Gestaltung neuer Geschäftsmodelle. Dabei ist der Anteil an IT-Infrastruktur in den letzten Jahren erheblich gestiegen. Das Betreiben einer solchen komplexen Infrastruktur muss aber durch die zur Verfügung gestellte Technologie selber bedienbarer werden, um weiterhin eine hohe Kundenzufriedenheit der Endkunden gewährleisten zu können. Glei- Sonderdruck aus 3/2014 FKT 5

6 Bild 5. Side-by-Side-Vergleich (Image-Set: Arri Alexa-Kamera) chermaßen müssen auch die Mitarbeiter und Führungskräfte geschult werden, um zusammen mit den Kollegen aus der IT die neuen Designs gestalten zu können. Die Einführung von UHDTV mit höheren Frame-Raten und verbesserter Farbauflösung erhöht den Speicherdurchsatz und die benötigte Rechenleistung um ein Vielfaches. Cloud-Services im Data-Center könnten auch unter wirtschaftlichen Gesichtspunkten eine attraktive Lösung bieten, diese neuen Anforderungen abdecken zu können. Dabei liefert ein GPU-basierter Workflow die notwendige Flexibilität und Rechenleistung, die in diesem Bereich gefordert wird. Im Vordergrund steht hierbei die zu erreichende Bildqualität über die die Produkte verkauft werden sollen. Der qualitative Mehrwert sollte eindeutig dem Kunden zu vermitteln sein und dafür darf kein Qualitätsbruch in der Bildverarbeitungskette auftreten. Die Ausführungen im Beitrag haben aufgezeigt, welche Möglichkeiten in diesem Bereich bestehen. ı Schrifttum [1] [2] Friesike, S.; Sack, H.; Kunz, U.: D-Werft: Linked Production Data. Fachverlag Schiele & Schön GmbH, FKT, Jg. 67, 11/2013, S [3] [4] [5] 6 Sonderdruck aus 3/2014 FKT

Bildanalyse und neue Workflows für eine verbesserte Bildqualität bei der Distribution

Bildanalyse und neue Workflows für eine verbesserte Bildqualität bei der Distribution Bildanalyse und neue Workflows für eine verbesserte Bildqualität bei der Distribution dirk hildebrandt wavelet beam 21 April 2015 FKTG Regionalgruppe Rhein-Main AGENDA: > Rauschanteile und Bildqualität

Mehr

Content Management Playout Encryption Broadcast Internet. Content Management Services

Content Management Playout Encryption Broadcast Internet. Content Management Services Content Management Playout Encryption Broadcast Internet Content Management Services Wir bieten Ihnen Services rund um die Digitalisierung, Archivierung sowie Konvertierung und Auslieferung Ihrer Inhalte.

Mehr

Dell Data Protection Solutions Datensicherungslösungen von Dell

Dell Data Protection Solutions Datensicherungslösungen von Dell Dell Data Protection Solutions Datensicherungslösungen von Dell André Plagemann SME DACH Region SME Data Protection DACH Region Dell Softwarelösungen Vereinfachung der IT. Minimierung von Risiken. Schnellere

Mehr

WINDOWS AZURE IM ÜBERBLICK GANZ NEUE MÖGLICHKEITEN

WINDOWS AZURE IM ÜBERBLICK GANZ NEUE MÖGLICHKEITEN WINDOWS AZURE IM ÜBERBLICK GANZ NEUE MÖGLICHKEITEN Dr. Bernd Kiupel Azure Lead Microsoft Schweiz GmbH NEUE MÖGLICHKEITEN DURCH UNABHÄNGIGKEIT VON INFRASTRUKTUR BISHER: IT-Infrastruktur begrenzt Anwendungen

Mehr

Der Weg in das dynamische Rechenzentrum. Jürgen Bilowsky 26.9.2011 Bonn

Der Weg in das dynamische Rechenzentrum. Jürgen Bilowsky 26.9.2011 Bonn Der Weg in das dynamische Rechenzentrum Jürgen Bilowsky 26.9.2011 Bonn Computacenter 2010 Agenda Der Weg der IT in die private Cloud Aufbau einer dynamischen RZ Infrastruktur (DDIS) Aufbau der DDIS mit

Mehr

IMF Interoperable Master Format

IMF Interoperable Master Format IMF Interoperable Master Format Dr. Siegfried Fößel, Fraunhofer IIS Fraunhofer Digital Cinema Partner für Innovation Fraunhofer IIS Übersicht 1. Motivation 2. Historie 3. Lösungsidee IMF 4. Details 5.

Mehr

DURCH DEN EINSATZ VON REVAPP VEREINFACHEN SIE DEN SONST EHER KOMPLIZIERTEN UND

DURCH DEN EINSATZ VON REVAPP VEREINFACHEN SIE DEN SONST EHER KOMPLIZIERTEN UND 1 DURCH DEN EINSATZ VON REVAPP VEREINFACHEN SIE DEN SONST EHER KOMPLIZIERTEN UND ZEITAUFWENDIGEN ABNAHMEPROZESS IHRER VIDEOASSETS. DENN REVAPP ERMÖGLICHT DIE SICHTUNG UND ABNAHME (REVIEW AND APPROVAL)

Mehr

Die EBCONT Unternehmensgruppe.

Die EBCONT Unternehmensgruppe. 1200 Wien, Handelskai 94-96 Johannes Litschauer, Alex Deles IT-Infrastruktur IT-Betrieb (managed Services) Cloud / Elastizität 1200 Wien, Handelskai 94-96 Johannes Litschauer, Alex Deles Enterprise Solutions

Mehr

Open Source als de-facto Standard bei Swisscom Cloud Services

Open Source als de-facto Standard bei Swisscom Cloud Services Open Source als de-facto Standard bei Swisscom Cloud Services Dr. Marcus Brunner Head of Standardization Strategy and Innovation Swisscom marcus.brunner@swisscom.com Viele Clouds, viele Trends, viele Technologien

Mehr

Automatisierte Durchführung von Transporten in der Automic (UC4) Automation Engine - ONE Automation

Automatisierte Durchführung von Transporten in der Automic (UC4) Automation Engine - ONE Automation WF2Trans Automatisierte Durchführung von Transporten in der Automic (UC4) Automation Engine - ONE Automation Aus unserer langjährigen Erfahrung in Kundenprojekten wissen wir, dass ein klares und eindeutiges

Mehr

Überblick IBM Offerings für Cloud-Provider

Überblick IBM Offerings für Cloud-Provider - IBM Cloud Computing März, 2011 Überblick IBM Offerings für Cloud-Provider Juerg P. Stoll Channel Development Executive for Cloud IMT ALPS juerg.stoll@ch.ibm.com +41 79 414 3554 1 2010 IBM

Mehr

Windows Azure Ihre Plattform für professionelles Cloud Computing

Windows Azure Ihre Plattform für professionelles Cloud Computing Windows Azure Ihre Plattform für professionelles Cloud Computing Eine Plattform für Hochverfügbarkeit und maximale Flexibilität und ein Partner, der diese Möglichkeiten für Sie ausschöpft! Microsoft bietet

Mehr

Gliederung. Was ist Cloud Computing Charakteristiken Virtualisierung Cloud Service Modelle Sicherheit Amazon EC2 OnLive Vorteile und Kritik

Gliederung. Was ist Cloud Computing Charakteristiken Virtualisierung Cloud Service Modelle Sicherheit Amazon EC2 OnLive Vorteile und Kritik Cloud Computing Gliederung Was ist Cloud Computing Charakteristiken Virtualisierung Cloud Service Modelle Sicherheit Amazon EC2 OnLive Vorteile und Kritik 2 Bisher Programme und Daten sind lokal beim Anwender

Mehr

m2m-cockpit We cockpit your machine to machine data Cloud-Lösungen sind sicherer als inhouse-lösungen

m2m-cockpit We cockpit your machine to machine data Cloud-Lösungen sind sicherer als inhouse-lösungen m2m-cockpit We cockpit your machine to machine data Cloud-Lösungen sind sicherer als inhouse-lösungen 23. Automation Day "Cloud-Lösungen sind sicherer als inhouse-lösungen 16. Juli 2014 IHK Akademie, Nürnberg

Mehr

Sichtung und Abnahme mit Final Cut Server über das Internet

Sichtung und Abnahme mit Final Cut Server über das Internet RevApp White Paper 1 Sichtung und Abnahme mit Final Cut Server über das Internet Erweitern Sie den Leistungsumfang von Final Cut Server durch den Einsatz von RevApp Produktionshäuser, Postproduktionen

Mehr

Performance Monitoring Warum macht es Sinn?

Performance Monitoring Warum macht es Sinn? Performance Monitoring Warum macht es Sinn? achermann consulting ag Nicola Lardieri Network Engineer Luzern, 25.5.2011 Inhalt Definition Monitoring Warum Performance Monitoring? Performance Monitoring

Mehr

Fraunhofer IIS Allianz Digital Cinema Technik des Digitalen Kinos

Fraunhofer IIS Allianz Digital Cinema Technik des Digitalen Kinos Fraunhofer IIS Allianz Digital Cinema Technik des Digitalen Kinos Slide 1 Status des Digitalen Kinos Fraunhofer IIS Digital Cinema Status der Standardisierung Stand der Technik Einführung in die Technik

Mehr

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH

Complex Hosting. Whitepaper. Autor.: Monika Olschewski. Version: 1.0 Erstellt am: 14.07.2010. ADACOR Hosting GmbH Complex Hosting Autor.: Monika Olschewski Whitepaper Version: 1.0 Erstellt am: 14.07.2010 ADACOR Hosting GmbH Kaiserleistrasse 51 63067 Offenbach am Main info@adacor.com www.adacor.com Complex Hosting

Mehr

W i r p r ä s e n t i e r e n

W i r p r ä s e n t i e r e n W i r p r ä s e n t i e r e n Verbesserte Optik Internet-Schutz neu erfunden Malware kann Sie immer raffinierter ausspionieren. Können Ihre smaßnahmen da mithalten? CA konzentrierte sich auf IT-Experten

Mehr

Software as a Service

Software as a Service Software as a Service Andreas Von Gunten http://www.ondemandnotes.com http://www.andreasvongunten.com SaaSKon 2008 11. November 2008 Das Problem - Komplexität Software selber zu betreiben, bedeutet zunehmende

Mehr

Integration mit Service Repositories zur SOA Governance

Integration mit Service Repositories zur SOA Governance Integration mit Service Repositories zur SOA Governance Nürnberg, 10.11.2009 I N H A L T 1. SOA Governance 2. Service Repository 3. Modelle und Service Repository 4. Modell-Driven SOA I N H A L T 1. SOA

Mehr

Cloud-Computing - Überblick

Cloud-Computing - Überblick Cloud-Computing - Überblick alois.schuette@h-da.de Alois Schütte 24. November 2014 1 / 20 Inhaltsverzeichnis 1 Was ist Cloud-Computing Warum beschäftigt man sich mit Cloud Computing? 2 Aufbau der Veranstaltung

Mehr

Azure und die Cloud. Proseminar Objektorientiertes Programmieren mit.net und C# Simon Pigat. Institut für Informatik Software & Systems Engineering

Azure und die Cloud. Proseminar Objektorientiertes Programmieren mit.net und C# Simon Pigat. Institut für Informatik Software & Systems Engineering Azure und die Cloud Proseminar Objektorientiertes Programmieren mit.net und C# Simon Pigat Institut für Informatik Software & Systems Engineering Agenda Was heißt Cloud? IaaS? PaaS? SaaS? Woraus besteht

Mehr

Infrastruktur als Basis für die private Cloud

Infrastruktur als Basis für die private Cloud Click to edit Master title style Infrastruktur als Basis für die private Cloud Peter Dümig Field Product Manager Enterprise Solutions PLE Dell Halle GmbH Click Agenda to edit Master title style Einleitung

Mehr

Vision: ICT Services aus der Fabrik

Vision: ICT Services aus der Fabrik Vision: ICT Services aus der Fabrik Der Weg zur elastischen ICT-Infrastruktur Daniel Jossen Geschäftsführer (CEO) dipl. Ing. Informatik FH, MAS IT Network Unsere Vision Wir planen und implementieren für

Mehr

GLASFASERNETZ DATACENTER RHEIN-NECKAR RHEIN-NECKAR-CLOUD MULTIMEDIA ZENTRALE FIREWALL IN DER RHEIN-NECKAR-CLOUD PSFW_PFK_MA_20201505

GLASFASERNETZ DATACENTER RHEIN-NECKAR RHEIN-NECKAR-CLOUD MULTIMEDIA ZENTRALE FIREWALL IN DER RHEIN-NECKAR-CLOUD PSFW_PFK_MA_20201505 GLASFASERNETZ DATACENTER RHEIN-NECKAR RHEIN-NECKAR-CLOUD MULTIMEDIA ZENTRALE FIREWALL IN DER RHEIN-NECKAR-CLOUD PSFW_PFK_MA_20201505 PROAKTIVER SCHUTZ FÜR IHRE DATEN Nur eine Firewall, die kontinuierlich

Mehr

Cloud Computing - die Lösung der Zukunft

Cloud Computing - die Lösung der Zukunft Cloud Computing - die Lösung der Zukunft Agenda: 08:30 08:40 Begrüssung Herr Walter Keller 08:40 09:00 Idee / Aufbau der Cloud Herr Daniele Palazzo 09:00 09:25 Definition der Cloud Herr Daniele Palazzo

Mehr

Was ist die Cloud? CCW interner Vortrag für Themenabend Erstellt: Mai 2012, Heiko Ehmsen Dauer: ca. 30 Minuten. Inhalt

Was ist die Cloud? CCW interner Vortrag für Themenabend Erstellt: Mai 2012, Heiko Ehmsen Dauer: ca. 30 Minuten. Inhalt Was ist die Cloud? CCW interner Vortrag für Themenabend Erstellt: Mai 2012, Heiko Ehmsen Dauer: ca. 30 Minuten Inhalt 1. Einführung Geschichte 2. Grundidee der Cloud-Technik (Virtualisierung, Skalierbarkeit,

Mehr

Flexible & programmierbare Netze durch SDN & NFV

Flexible & programmierbare Netze durch SDN & NFV 8. Business Brunch 2015 Flexible & programmierbare Netze durch SDN & NFV Referent: Uwe Wagner Senior System Engineer Cyan Inc. Agenda Die Notwendigkeit flexibler Netzwerkinfrastrukturen Zentrale Orchestrierung

Mehr

Die Plattform für Ihre Datenfabrik unabhängig von Ort und Zeit

Die Plattform für Ihre Datenfabrik unabhängig von Ort und Zeit Die Plattform für Ihre Datenfabrik unabhängig von Ort und Zeit Ian Schroeder Senior Account Manager, NetApp Deutschland April 2015 noris network > Innovationstagung 2015 Weisheit? Wenn ich die Menschen

Mehr

ND.Zip & Notes/Domino 6

ND.Zip & Notes/Domino 6 ND.Zip for Notes Version 1.1 ND.Zip & Notes/Domino 6 Stand: 9.5.2003 Inhaltsverzeichnis 1 Inhaltsverzeichnis 2 ND.Zip: ein Muss auch für Notes/Domino 6! 3 LZ1 erzielt keinen Mehrwert, 4 Sofortiger und

Mehr

Metadaten bei der Digitalisierung von analogen archivalischen Quellen. Kathrin Mileta, Dr. Martina Wiech

Metadaten bei der Digitalisierung von analogen archivalischen Quellen. Kathrin Mileta, Dr. Martina Wiech Metadaten bei der Digitalisierung von analogen archivalischen Quellen Kathrin Mileta, Dr. Martina Wiech 2014 Metadaten Aufgabe des LAV NRW im DFG-Pilotprojekt zur Digitalisierung archivalischer Quellen:

Mehr

Spezifikationen und Voraussetzung

Spezifikationen und Voraussetzung Projekt IGH DataExpert Paynet Adapter Spezifikationen Voraussetzungen Datum : 21.07.08 Version : 1.0.0.2 21.07.2008 Seite 1 von 7 Inhaltsverzeichnis 1 Einleitung... 3 2 Architektur... 3 2.1 Grundsätze

Mehr

Hmmm.. Hmmm.. Hmmm.. Genau!! Office in der Cloud Realität oder Zukunft? Dumme Frage! ist doch schon lange Realität!. aber auch wirklich für alle sinnvoll und brauchbar? Cloud ist nicht gleich Cloud!

Mehr

MANAGED BUSINESS CLOUD. Individuell. Flexibel. Sicher.

MANAGED BUSINESS CLOUD. Individuell. Flexibel. Sicher. MANAGED BUSINESS CLOUD Individuell. Flexibel. Sicher. Cloud Computing gewinnt immer mehr an Bedeutung und begegnet uns heute fast täglich. Neben der Möglichkeit IT-Kosten zu senken, stellen sich viele

Mehr

Die maßgeschneiderte IT-Infrastruktur aus der Südtiroler Cloud

Die maßgeschneiderte IT-Infrastruktur aus der Südtiroler Cloud Die maßgeschneiderte IT-Infrastruktur aus der Südtiroler Cloud Sie konzentrieren sich auf Ihr Kerngeschäft und RUN AG kümmert sich um Ihre IT-Infrastruktur. Vergessen Sie das veraltetes Modell ein Server,

Mehr

Services aus der Cloud

Services aus der Cloud Services aus der Cloud Chancen und Wege für mein Unternehmen Mario Kretzschmar T-Systems Multimedia Solutions GmbH Kurzprofil der T-Systems MMS. Deutschlands Internetagentur Nummer 1*. Eigenständige, innovative

Mehr

Die Marktsituation heute und die Position von FUJITSU

Die Marktsituation heute und die Position von FUJITSU Die Marktsituation heute und die Position von FUJITSU Rupert Lehner Head of Sales Region Germany 34 Copyright 2011 Fujitsu Technology Solutions Marktentwicklung im Jahr 2011 Der weltweite IT-Markt im Jahr

Mehr

SHAREPOINT 2010. Überblick für Anwender

SHAREPOINT 2010. Überblick für Anwender SHAREPOINT 2010 Überblick für Anwender SHAREPOINT 2010 AGENDA 01 Was ist SharePoint? Basisinfrastruktur Funktionsbereiche Versionen 02 Datenmanagement Listen Bibliotheken Workflows 2 05.06.2012 Helena

Mehr

(Oracle) BPM in der Cloud

(Oracle) BPM in der Cloud ti&m seminare (Oracle) BPM in der Cloud Integration, Chancen und Risiken Alexander Knauer Architect ti&m AG Version 1.0 28. Januar 2013 ti&m AG Buckhauserstrasse 24 CH-8048 Zürich Belpstrasse 39 CH-3007

Mehr

Metadata Service Respository (MDS) - Sehen, lernen, verstehen!

Metadata Service Respository (MDS) - Sehen, lernen, verstehen! Metadata Service Respository (MDS) - Sehen, lernen, verstehen! Carsten Wiesbaum esentri AG Schlüsselworte Metadata Service Repository, MDS, Oracle Fusion Middleware Einleitung Früher oder später wird jeder

Mehr

SKILLCLUSTER Schwalbenrainweg 30a 63741 Aschaffenburg Tel.: +49 (0)700-SCLUSTER Fax: +49 (0)700-SKILLS4U Mail: ping@skillcluster.

SKILLCLUSTER Schwalbenrainweg 30a 63741 Aschaffenburg Tel.: +49 (0)700-SCLUSTER Fax: +49 (0)700-SKILLS4U Mail: ping@skillcluster. MEGATREND CLOUDCOMPUTING THE NETWORK IS THE COMPUTER Eine 25 Jahre alte Vision BANDBREITEN Grundlagen sind geschaffen DEFINITION Cloud Computing über andere gegenwärtig diskutierte Ansätze (Software as

Mehr

Cloud Computing Chancen für KMU

Cloud Computing Chancen für KMU Cloud Computing Chancen für KMU Sascha A. Peters Cluster Manager IT FOR WORK 31. Oktober 2012 Cloud Computing Worüber reden alle? Fragen zum Thema Cloud Was ist Cloud Computing und wofür wird es genutzt?

Mehr

Hybride Cloud Datacenters

Hybride Cloud Datacenters Hybride Cloud Datacenters Enterprise und KMU Kunden Daniel Jossen Geschäftsführer (CEO) dipl. Ing. Informatik FH, MAS IT Network Amanox Solutions Unsere Vision Wir planen und implementieren für unsere

Mehr

Cloud Computing Top oder Flop? 17. November 2010

Cloud Computing Top oder Flop? 17. November 2010 Cloud Computing Top oder Flop? 17. November 2010 DI Thomas Gradauer, Head of Presales-Consulting Raiffeisen Informatik ITSM-Beratung Raiffeisen BANK AVAL 16.10.2009 1 Agenda Raiffeisen Informatik Medienspiegel

Mehr

Journalismus meets Technik

Journalismus meets Technik Der Einzug der IT in den Newsroom Journalismus meets Technik part of arvato systems group S4M Gesellschafterstruktur Content Media Services Direct-to- Customer 19.9 % 80.1 % S4M Solutions for Media GmbH

Mehr

vii Inhaltsverzeichnis 1 Cloud Computing 1

vii Inhaltsverzeichnis 1 Cloud Computing 1 vii 1 Cloud Computing 1 1.1 Was ist Cloud Computing?................................. 1 1.1.1 Servicemodelle der Cloud........................... 1 1.1.2 Liefermodell der Cloud............................

Mehr

Die Spezialisten für innovative Lösungen im Bereich Document Output Management

Die Spezialisten für innovative Lösungen im Bereich Document Output Management Die Spezialisten für innovative Lösungen im Bereich Document Output Management Agenda Wer ist Rasterpunkt Einführung Software as a Service Hat SaaS Marktpotential? SaaS im Document Output Management: Konvertierung

Mehr

IRIS. Reporting-Plattform. Autor MD Software & Design 11.02.2013-0.8. Professionelles Berichtswesen in Unternehmen

IRIS. Reporting-Plattform. Autor MD Software & Design 11.02.2013-0.8. Professionelles Berichtswesen in Unternehmen IRIS Reporting-Plattform Professionelles Berichtswesen in Unternehmen Autor MD Software & Design 11.02.2013-0.8 Berichtswesen & Reporting in Unternehmen Situation Gleiche Zahlen und Werte werden in Unternehmen

Mehr

3 MILLIARDEN GIGABYTE AM TAG ODER WELCHE KAPAZITÄTEN MÜSSEN NETZE TRAGEN?

3 MILLIARDEN GIGABYTE AM TAG ODER WELCHE KAPAZITÄTEN MÜSSEN NETZE TRAGEN? 3 MILLIARDEN GIGABYTE AM TAG ODER WELCHE KAPAZITÄTEN MÜSSEN NETZE TRAGEN? Udo Schaefer Berlin, den 10. November 2011 DIE NETZE UND IHRE NUTZUNG Berechnungsgrundlage 800 Millionen Facebook Nutzer Transport

Mehr

Stefan Kusiek BFW-Leipzig

Stefan Kusiek BFW-Leipzig Stefan Kusiek BFW-Leipzig Schnellere Geräte (CPU, HDD, RAM, ) Mehrere Geräte (CPU, HDD, RAM, ) Mehrere Geräte (Rechner, Server, ) Cluster Preiswerter????? Mindestgröße Installation Konfiguration Wartung

Mehr

Modul 6 Virtuelle Private Netze (VPNs) und Tunneling

Modul 6 Virtuelle Private Netze (VPNs) und Tunneling Modul 6 Virtuelle Private Netze (VPNs) und Tunneling M. Leischner Netzmanagement Folie 1 Virtuelle Private Netze Begriffsdefinition Fortsetz. VPNC Definition "A virtual private network (VPN) is a private

Mehr

Cloud-Architekturen auf verschiedenen Ebenen Seminar: Datenbankanwendungen im Cloud Computing

Cloud-Architekturen auf verschiedenen Ebenen Seminar: Datenbankanwendungen im Cloud Computing Cloud-Architekturen auf verschiedenen Ebenen Seminar: Datenbankanwendungen im Cloud Computing Andreas Wixler INSTITUTE FOR PROGRAM STRUCTURES AND DATA ORGANIZATION, FACULTY OF INFORMATICS KIT University

Mehr

Business und Enterprise Cloud Sync, Backup- und Sharing-Lösungen

Business und Enterprise Cloud Sync, Backup- und Sharing-Lösungen Business und Enterprise Cloud Sync, Backup- und Sharing-Lösungen Private Cloud Synchronisation Online-Zusammenarbeit Backup / Versionierung Web Zugriff Mobiler Zugriff LDAP / Active Directory Federated

Mehr

Modellgetriebene Entwicklungsprozesse in der Praxis - eine Bestandsaufnahme. Tillmann Schall, anaptecs GmbH

Modellgetriebene Entwicklungsprozesse in der Praxis - eine Bestandsaufnahme. Tillmann Schall, anaptecs GmbH Modellgetriebene Entwicklungsprozesse in der Praxis - eine Bestandsaufnahme Tillmann Schall, anaptecs GmbH : Agenda Grundlagen modellgetriebener Entwicklungsprozesse Schritte zur Einführung Erfahrungen

Mehr

Hybride Cloud-Infrastrukturen Bereitstellung & Verwaltung mit System Center 2012

Hybride Cloud-Infrastrukturen Bereitstellung & Verwaltung mit System Center 2012 Hybride Cloud-Infrastrukturen Bereitstellung & Verwaltung mit System Center 2012 Roj Mircov TSP Datacenter Microsoft Virtualisierung Jörg Ostermann TSP Datacenter Microsoft Virtualisierung 1 AGENDA Virtual

Mehr

Wege in die private Cloud: Die Lösung von INNEO auf Basis von FlexPod Datacenter

Wege in die private Cloud: Die Lösung von INNEO auf Basis von FlexPod Datacenter Wege in die private Cloud: Die Lösung von INNEO auf Basis von FlexPod Datacenter Agenda Herausforderungen im Rechenzentrum FlexPod Datacenter Varianten & Komponenten Management & Orchestrierung Joint Support

Mehr

Bibliotheksmanagement im Netz - vernetzt

Bibliotheksmanagement im Netz - vernetzt OCLC Informationstag 12. Mai 2011 Bibliotheksmanagement im Netz - vernetzt Annette Dortmund Product Manager LBS / WMS EMEA OCLC Überblick Arbeiten im Web: Die Cloud Bibliotheksmanagement im Netz: OCLC

Mehr

Cloud Computing. Betriebssicherheit von Cloud Umgebungen C O N N E C T I N G B U S I N E S S & T E C H N O L O G Y

Cloud Computing. Betriebssicherheit von Cloud Umgebungen C O N N E C T I N G B U S I N E S S & T E C H N O L O G Y Cloud Computing Betriebssicherheit von Cloud Umgebungen Urs Zumstein Leiter Performance Care Team Urs.Zumstein@DevoTeam.ch 079 639 42 58 Agenda Definition von Cloud Services Anforderungen an die Betriebssicherheit

Mehr

Microsoft SharePoint 2013 Designer

Microsoft SharePoint 2013 Designer Microsoft SharePoint 2013 Designer Was ist SharePoint? SharePoint Designer 2013 Vorteile SharePoint Designer Funktionen.Net 4.0 Workflow Infrastruktur Integration von Stages Visuelle Designer Copy & Paste

Mehr

30. Okt. 2014. Codec, Wrapper und ihre Rolle in der. Langzeitarchivierung: Eine Übersicht. Peter Bubestinger

30. Okt. 2014. Codec, Wrapper und ihre Rolle in der. Langzeitarchivierung: Eine Übersicht. Peter Bubestinger 1 / 36 30. Okt. 2014 2 / 36 Choose your destiny Die Dreifaltigkeit von digitalem Video 3 / 36 Choose your destiny Die Dreifaltigkeit von digitalem Video Dateiendung = Aussagen wie Die Videos sind im Flash/AVI/Quicktime

Mehr

Magento goes into the cloud Cloud Computing für Magento. Referent: Boris Lokschin, CEO

Magento goes into the cloud Cloud Computing für Magento. Referent: Boris Lokschin, CEO Magento goes into the cloud Cloud Computing für Magento Referent: Boris Lokschin, CEO Agenda Über symmetrics Unsere Schwerpunkte Cloud Computing Hype oder Realität? Warum Cloud Computing? Warum Cloud für

Mehr

Schleupen.Cloud IT-Betrieb sicher, wirtschaftlich und hochverfügbar.

Schleupen.Cloud IT-Betrieb sicher, wirtschaftlich und hochverfügbar. Schleupen.Cloud IT-Betrieb sicher, wirtschaftlich und hochverfügbar. www.schleupen.de Schleupen AG 2 Herausforderungen des Betriebs der IT-Systeme IT-Systeme werden aufgrund technischer und gesetzlicher

Mehr

Was ist PretonSaverTM... 3 PretonSaver's... 3 PretonCoordinator... 3 PretonControl... 4 PretonSaver Client... 4 PretonSaver TM Key Funktionen...

Was ist PretonSaverTM... 3 PretonSaver's... 3 PretonCoordinator... 3 PretonControl... 4 PretonSaver Client... 4 PretonSaver TM Key Funktionen... PRETON TECHNOLOGY Was ist PretonSaverTM... 3 PretonSaver's... 3 PretonCoordinator... 3 PretonControl... 4 PretonSaver Client... 4 PretonSaver TM Key Funktionen... 4 System Architekturen:... 5 Citrix and

Mehr

Cloud und Big Data als Sprungbrett in die vernetzte Zukunft am Beispiel Viessmann

Cloud und Big Data als Sprungbrett in die vernetzte Zukunft am Beispiel Viessmann Cloud und Big Data als Sprungbrett in die vernetzte Zukunft am Beispiel Viessmann Adam Stambulski Project Manager Viessmann R&D Center Wroclaw Dr. Moritz Gomm Business Development Manager Zühlke Engineering

Mehr

Server & Cloud Enrollment (SCE)

Server & Cloud Enrollment (SCE) Server & Cloud Enrollment (SCE) In diesem Webcast stellen wir das Server & Cloud Enrollment (kurz SCE bzw. SKI im Englischen) vor. Das Server & Cloud Enrollment erlaubt die hybride Lizenzierung und ermöglicht

Mehr

Virtual Private Network. David Greber und Michael Wäger

Virtual Private Network. David Greber und Michael Wäger Virtual Private Network David Greber und Michael Wäger Inhaltsverzeichnis 1 Technische Grundlagen...3 1.1 Was ist ein Virtual Private Network?...3 1.2 Strukturarten...3 1.2.1 Client to Client...3 1.2.2

Mehr

Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich

Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich Seit Microsoft Exchange Server 2010 bieten sich für Unternehmen gleich zwei mögliche Szenarien an, um eine rechtskonforme Archivierung

Mehr

Cloud Services eine Wirtschaftlichkeitsbetrachtung Eine Hilfestellung für den wirtschaftlichen Einsatz von Cloud Services

Cloud Services eine Wirtschaftlichkeitsbetrachtung Eine Hilfestellung für den wirtschaftlichen Einsatz von Cloud Services Cloud Services eine Wirtschaftlichkeitsbetrachtung Eine Hilfestellung für den wirtschaftlichen Einsatz von Cloud Services Felix Welz-Temming Sales Executive Cloud Solutions Ein Rechenbeispiel zur Einführung

Mehr

Good Dynamics by Good Technology. V1.1 2012 by keyon (www.keyon.ch)

Good Dynamics by Good Technology. V1.1 2012 by keyon (www.keyon.ch) Good Dynamics by Good Technology eberhard@keyon.ch brunner@keyon.ch V1.1 2012 by keyon (www.keyon.ch) 1 Über Keyon Experten im Bereich IT-Sicherheit und Software Engineering Als Value added Reseller von

Mehr

Cloud Computing mit OpenStack

Cloud Computing mit OpenStack Cloud Computing mit OpenStack B1 Systems GmbH http://www.b1-systems.de Cloud Computing Fragen Was ist Cloud Computing? Was ist Infrastructure As A Service? Was ist OpenStack...... und aus welchen Komponenten

Mehr

Die Cloud, die alles anders macht. Die 6 Grundzüge der Swisscom Cloud

Die Cloud, die alles anders macht. Die 6 Grundzüge der Swisscom Cloud Die Cloud, die alles anders macht. Die 6 Grundzüge der Swisscom Cloud Viele Clouds, viele Trends, viele Technologien Kommunikation Private Apps Prozesse Austausch Speicher Big Data Business Virtual Datacenter

Mehr

Oracle EngineeredSystems

Oracle EngineeredSystems Oracle EngineeredSystems Überblick was es alles gibt Themenübersicht Überblick über die Engineered Systems von Oracle Was gibt es und was ist der Einsatzzweck? Wann machen diese Systeme Sinn? Limitationen

Mehr

DRIVE LIKE A VIRTUAL DEVELOPER Die Poleposition für Ihre Softwareentwicklung

DRIVE LIKE A VIRTUAL DEVELOPER Die Poleposition für Ihre Softwareentwicklung DRIVE LIKE A VIRTUAL DEVELOPER Die Poleposition für Ihre Softwareentwicklung Was für ein Tempo! Das Rad dreht sich rasant schnell: Die heutigen Anforderungen an Softwareentwicklung sind hoch und werden

Mehr

Effizientes Änderungsmanagement in Outsourcing- Projekten

Effizientes Änderungsmanagement in Outsourcing- Projekten Effizientes Änderungsmanagement in Outsourcing- Projekten Dr. Henning Sternkicker Rational Software IBM Deutschland GmbH Sittarder Straße 31 52078 Aachen henning.sternkicker@de.ibm.com Abstract: Es werden

Mehr

Konzept zur Fachgruppe Moderne User Interfaces und Usability von A.T.Erbrich, Geschäftsführer A.T.E Software GmbH

Konzept zur Fachgruppe Moderne User Interfaces und Usability von A.T.Erbrich, Geschäftsführer A.T.E Software GmbH Konzept zur Fachgruppe Moderne User Interfaces und Usability von A.T.Erbrich, Geschäftsführer A.T.E Software GmbH Was ist Usability? Usability bedeutet wörtlich Bedienbarkeit. In der IT-Branche ist damit

Mehr

MS SharePoint stellt Ihnen ein Intranet Portal zur Verfügung. Sie können Ihre Inhalte weltweit verfügbar machen auch für mobile Endgeräte.

MS SharePoint stellt Ihnen ein Intranet Portal zur Verfügung. Sie können Ihre Inhalte weltweit verfügbar machen auch für mobile Endgeräte. Microsoft SharePoint Microsoft SharePoint ist die Business Plattform für Zusammenarbeit im Unternehmen und im Web. Der MS SharePoint vereinfacht die Zusammenarbeit Ihrer Mitarbeiter. Durch die Verbindung

Mehr

Test zur Bereitschaft für die Cloud

Test zur Bereitschaft für die Cloud Bericht zum EMC Test zur Bereitschaft für die Cloud Test zur Bereitschaft für die Cloud EMC VERTRAULICH NUR ZUR INTERNEN VERWENDUNG Testen Sie, ob Sie bereit sind für die Cloud Vielen Dank, dass Sie sich

Mehr

Spezifikationen und Voraussetzung

Spezifikationen und Voraussetzung Projekt IGH DataExpert Yellowbill Adapter Spezifikationen Voraussetzungen Datum : 22.08.2013 Version : 1.0.0.2 22.08.2013 Seite 1 von 7 Inhaltsverzeichnis 1 Einleitung...3 2 Architektur...3 2.1 Grundsätze

Mehr

Erfinderland Deutschland Baukasten Forschung Themenbereich: Informatik Niveau B1 CLIL-Unterrichtsmaterialien Vor dem Ausstellungsbesuch

Erfinderland Deutschland Baukasten Forschung Themenbereich: Informatik Niveau B1 CLIL-Unterrichtsmaterialien Vor dem Ausstellungsbesuch Seite 1 von 5 Erfinderland Deutschland Baukasten Forschung Themenbereich: Informatik CLIL-Unterrichtsmaterialien Vor dem Ausstellungsbesuch Aufgabe 1: Daten in der Wolke a. Seht das Bild an und tauscht

Mehr

Virtualisierung im IT-Betrieb der BA

Virtualisierung im IT-Betrieb der BA Virtualisierung, essenzielles Werkzeug in der IT-Fabrik Martin Deeg, Anwendungsszenarien Cloud Computing, 31. August 2010 Virtualisierung im IT-Betrieb der BA Virtualisierung im IT-Betrieb der BA Effizienzsteigerung

Mehr

Claranet Managed Cloud. Deutschlands flexibles Leistungsplus für Unternehmen. VDC Virtual Data Centre

Claranet Managed Cloud. Deutschlands flexibles Leistungsplus für Unternehmen. VDC Virtual Data Centre Claranet Managed Cloud Deutschlands flexibles Leistungsplus für Unternehmen. VDC Virtual Data Centre Claranet Managed Cloud Einfach schneller mehr: Das Leistungsplus des Virtual Data Centre. Die Anforderungen

Mehr

Jörg Knaupp. Cryptomathic München

Jörg Knaupp. Cryptomathic München Kryptografie- Management durch Crypto as a Service Jörg Knaupp Cryptomathic München Cryptomathic Firmenüberblick Headquarter History Aarhus, Dänemark Gegründet 1986 von Kryptogafieexperten der Universitat

Mehr

Mobile ERP Business Suite

Mobile ERP Business Suite Greifen Sie mit Ihrem ipad oder iphone jederzeit und von überall auf Ihr SAP ERP System zu. Haben Sie Up-To-Date Informationen stets verfügbar. Beschleunigen Sie Abläufe und verkürzen Sie Reaktionszeiten

Mehr

Whitepaper webmethods 9.0. webmethods 9.0. Die Integrationsplattform für BPM, EAI und SOA 2013 SYRACOM AG

Whitepaper webmethods 9.0. webmethods 9.0. Die Integrationsplattform für BPM, EAI und SOA 2013 SYRACOM AG Whitepaper webmethods 9.0 webmethods 9.0 Die Integrationsplattform für BPM, EAI und SOA 1 Einleitung Die Integrationsplattform webmethods der Software AG ist die Standardlösung für viele Unternehmen, wenn

Mehr

GIS in der Cloud ArcGIS.com

GIS in der Cloud ArcGIS.com GIS in der Cloud ArcGIS.com Heiko Claußing Esri Deutschland GmbH 11. Mai 2012, Hannover ESRI Deutschland GmbH 2010 Das ganz große Bild 2 2011 Esri Deutschland GmbH 1 Das ganz große Bild Cloud 3 GIS & Cloud

Mehr

Managed Infrastructure Service (MIS) Schweiz

Managed Infrastructure Service (MIS) Schweiz Pascal Wolf Manager of MIS & BCRS Managed Infrastructure Service (MIS) Schweiz 2011 Corporation Ein lokaler Partner in einem global integrierten Netzwerk Gründung im Jahr 2002 mit dem ersten full-outtasking

Mehr

Cloud Computing: Chancen und Herausforderungen. Dr. Mathias Petri IHK Cottbus, 29. Mai 2013

Cloud Computing: Chancen und Herausforderungen. Dr. Mathias Petri IHK Cottbus, 29. Mai 2013 Cloud Computing: Chancen und Herausforderungen Dr. Mathias Petri IHK Cottbus, 29. Mai 2013 StoneOne 2013 Über StoneOne Gründung 2007 in Berlin Entwicklung von Softwarebausteinen für Software as a Service

Mehr

Virtualisierung im Rechenzentrum

Virtualisierung im Rechenzentrum in wenigen Minuten geht es los Virtualisierung im Rechenzentrum Der erste Schritt auf dem Weg in die Cloud KEIN VOIP, nur Tel: 030 / 7261 76245 Sitzungsnr.: *6385* Virtualisierung im Rechenzentrum Der

Mehr

Guten Tag! CampusSource. Die CSE Integration Platform. CampusSource Engine. Christof Pohl Softwareentwicklung Medienzentrum Universität Dortmund

Guten Tag! CampusSource. Die CSE Integration Platform. CampusSource Engine. Christof Pohl Softwareentwicklung Medienzentrum Universität Dortmund Engine Die CSE Integration Platform Guten Tag! Christof Pohl Softwareentwicklung Medienzentrum Universität Dortmund Integriertes Informationsmanagement mit der Engine - A2A vs. EBI Folie 2 Integration

Mehr

Peter Garlock Manager Cloud Computing Austria. Cloud Computing. Heiter statt wolkig. 2011 IBM Corporation

Peter Garlock Manager Cloud Computing Austria. Cloud Computing. Heiter statt wolkig. 2011 IBM Corporation Peter Garlock Manager Cloud Computing Austria Cloud Computing Heiter statt wolkig 1 Was passiert in Europa in 2011? Eine Markteinschätzung Quelle: IDC European Cloud Top 10 predictions, January 2011 2

Mehr

ivu. Software as a Service

ivu. Software as a Service ivu.cloud Software AS A Service Software und BetrieBSführung aus EIner Hand Leistungsfähige Standardprodukte, kompetenter Support und zuverlässiges Hosting. IVU.cloud SOFTWARE AS A SERVICE Skalierbar,

Mehr

GIS in der Cloud: Beispiele von ESRI und con terra

GIS in der Cloud: Beispiele von ESRI und con terra GIS in der Cloud: Beispiele von ESRI und con terra Dr. Matthias Bluhm ESRI Deutschland GmbH 9. März 2011, Darmstadt 2 ESRI Deutschland GmbH, 2011 GmbH 2010 ESRI Unternehmensgruppe (in Deutschland und der

Mehr

Müller hat seine Prozesse im Griff

Müller hat seine Prozesse im Griff Müller hat seine Prozesse im Griff Daniel Jäger 1 Mettenmeier GmbH Unser Leistungsversprechen Die Leistung eines Unternehmens, die Wertschöpfung, ist das Ergebnis seiner Prozesse! Wir befähigen unsere

Mehr

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte I N F O R M A T I O N V I R T U A L I S I E R U N G Wir schützen Ihre Unternehmenswerte Wir schützen Ihre Unternehmenswerte Ausfallsicherheit durch Virtualisierung Die heutigen Anforderungen an IT-Infrastrukturen

Mehr

DTS Systeme. IT Dienstleistungen das sind wir! Joseph Hollik. Tech. Consulting, Projektmanagement DTS Systeme GmbH

DTS Systeme. IT Dienstleistungen das sind wir! Joseph Hollik. Tech. Consulting, Projektmanagement DTS Systeme GmbH DTS Systeme IT Dienstleistungen das sind wir! Joseph Hollik Tech. Consulting, Projektmanagement DTS Systeme GmbH Warum virtualisieren? Vor- und Nachteile Agenda Was ist Virtualisierung? Warum virtualisieren?

Mehr

Linux Server in der eigenen Cloud

Linux Server in der eigenen Cloud SÜD IT AG World of IT Linux Server in der eigenen Cloud Infrastructure as a Service (IaaS) Michael Hojnacki, ProtoSoft AG Quellen: SUSE Cloud 4 Präsentation (Thore Bahr) Diverse Veröffentlichungen Stahlgruberring

Mehr

Wachsende Anzahl kommunaler Aufgaben Schwindende Finanzspielräume Demografischer Wandel Hohe IT-Ausstattung der Arbeitsplätze > Technische

Wachsende Anzahl kommunaler Aufgaben Schwindende Finanzspielräume Demografischer Wandel Hohe IT-Ausstattung der Arbeitsplätze > Technische Wachsende Anzahl kommunaler Aufgaben Schwindende Finanzspielräume Demografischer Wandel Hohe IT-Ausstattung der Arbeitsplätze > Technische Komplexität steigt > Wachsende Abhängigkeit von der IT Steigende

Mehr

Cloud-Computing die unbekannte Wolke im Internet. Produktiver arbeiten!

Cloud-Computing die unbekannte Wolke im Internet. Produktiver arbeiten! Cloud-Computing Produktiver arbeiten RagTime.de Sales GmbH - Mac at Camp / 1 Friedrich Eul Samstag, 08. Juli 2011 RagTime.de Sales GmbH - Mac at Canp / 2 * Was bedeutet Cloud Computing? * Apple bringt

Mehr

Migration einer bestehenden Umgebung in eine private Cloud mit OpenStack

Migration einer bestehenden Umgebung in eine private Cloud mit OpenStack Migration einer bestehenden Umgebung in eine private Cloud mit OpenStack CeBIT 2014 14. März 2014 André Nähring Cloud Computing Solution Architect naehring@b1-systems.de - Linux/Open Source Consulting,

Mehr