Whitepaper. IT Analytics. IT-Providersteuerung. durch End-to-End Monitoring und Realtime IT Analytics



Ähnliche Dokumente
Speicher in der Cloud

NEWSLETTER // AUGUST 2015

Thema: Microsoft Project online Welche Version benötigen Sie?

Albert HAYR Linux, IT and Open Source Expert and Solution Architect. Open Source professionell einsetzen

2 Die Terminaldienste Prüfungsanforderungen von Microsoft: Lernziele:

Windows 8 Lizenzierung in Szenarien

Prozessbewertung und -verbesserung nach ITIL im Kontext des betrieblichen Informationsmanagements. von Stephanie Wilke am

Stammdaten Auftragserfassung Produktionsbearbeitung Bestellwesen Cloud Computing

OLXTeamOutlook 1.5 für Outlook 2003, 2002/XP, 2000 und 97/98

Nexthink zu Gast beim netlution Neujahrsempfang 2014 BI-Cockpit für Ihre Clientinfrastruktur und Cloud Services?

Lizenzen auschecken. Was ist zu tun?

Info zum Zusammenhang von Auflösung und Genauigkeit

Keine Kompromisse. Optimaler Schutz für Desktops und Laptops CLIENT SECURITY

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation. 7 Key Features.

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem

Formular»Fragenkatalog BIM-Server«

Geyer & Weinig: Service Level Management in neuer Qualität.

IT-Asset-Management in der Cloud

360 - Der Weg zum gläsernen Unternehmen mit QlikView am Beispiel Einkauf

Erstellen einer PostScript-Datei unter Windows XP

Herzlich Willkommen beim Webinar: Was verkaufen wir eigentlich?

Die integrierte Zeiterfassung. Das innovative Softwarekonzept

Windows 10 > Fragen über Fragen

Workshop: Eigenes Image ohne VMware-Programme erstellen

Änderungsbeschreibung HWS32 SEPA Überweisungen

FrontDoor/Monitor mehr sehen von FrontDoor

Verwendung des Terminalservers der MUG

AGROPLUS Buchhaltung. Daten-Server und Sicherheitskopie. Version vom b

Wie wirksam wird Ihr Controlling kommuniziert?

Sie werden sehen, dass Sie für uns nur noch den direkten PDF-Export benötigen. Warum?

Novell Client. Anleitung. zur Verfügung gestellt durch: ZID Dezentrale Systeme. Februar ZID Dezentrale Systeme

In 15 einfachen Schritten zum mobilen PC mit Paragon Drive Copy 10 und Microsoft Windows Virtual PC

ANYWHERE Zugriff von externen Arbeitsplätzen

Wann ist eine Software in Medizinprodukte- Aufbereitungsabteilungen ein Medizinprodukt?

Problem-Management und Eskalationsprozess Referenzhandbuch

Professionelle Seminare im Bereich MS-Office

Marketing-Leitfaden zum. Evoko Room Manager. Touch. Schedule. Meet.

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte

HTBVIEWER INBETRIEBNAHME

Neuerungen im Service Pack 2

Die Beschreibung bezieht sich auf die Version Dreamweaver 4.0. In der Version MX ist die Sitedefinition leicht geändert worden.

Wo finde ich die Software? - Jedem ProLiant Server liegt eine Management CD bei. - Über die Internetseite

Mobile Intranet in Unternehmen

Reporting Services und SharePoint 2010 Teil 1

OUTSOURCING ADVISOR. Analyse von SW-Anwendungen und IT-Dienstleistungen auf ihre Global Sourcing Eignung. Bewertung von Dienstleistern und Standorten

Applikations-Performance in Citrix Umgebungen

Evoko. Der «Room Manager», einfacher gehts nicht.

Windows Small Business Server (SBS) 2008

Fragebogen zur Qualität unserer Teamarbeit

Best Practice für Schulträger, Schulorganisationen und Schulzentren

OP-LOG

SharePoint Demonstration

Einrichtung des Cisco VPN Clients (IPSEC) in Windows7

Echtzeitanalysen aus Perspektive der Endanwender

Nicht über uns ohne uns

Anti-Botnet-Beratungszentrum. Windows XP in fünf Schritten absichern

SANDBOXIE konfigurieren

Wichtige Hinweise zu den neuen Orientierungshilfen der Architekten-/Objektplanerverträge

Business Application Framework für SharePoint Der Kern aller PSC-Lösungen

Anleitung zum erfassen von Last Minute Angeboten und Stellenangebote

Lizenz-Server überwachen

Benutzerhandbuch MedHQ-App

Geyer & Weinig. Geyer & Weinig EDV-Unternehmensberatung GmbH

Kurzanleitung. MEYTON Aufbau einer Internetverbindung. 1 Von 11

Konzentration auf das. Wesentliche.

Was sind Soziale Netzwerke? Stelle dazu selbstständig Überlegungen an!

Tender Manager. Sparen Sie Zeit und Kosten durch eine optimierte Erstellung Ihrer individuellen IT-Ausschreibungen

GEZIELT MEHR SICHERHEIT MIT 4I ACCESS SERVER & 4I CONNECT CLIENT

Datenübernahme von HKO 5.9 zur. Advolux Kanzleisoftware

Einkaufen im Internet. Lektion 5 in Themen neu 3, nach Übung 10. Benutzen Sie die Homepage von:

In 12 Schritten zum mobilen PC mit Paragon Drive Copy 11 und Microsoft Windows Virtual PC

Avira Server Security Produktupdates. Best Practice

Unsere vier hilfreichsten Tipps für szenarienbasierte Nachfrageplanung

«PERFEKTION IST NICHT DANN ERREICHT, WENN ES NICHTS MEHR HINZUZUFÜGEN GIBT, SONDERN DANN, WENN MAN NICHTS MEHR WEGLASSEN KANN.»

Outsourcing und Offshoring. Comelio und Offshoring/Outsourcing

Updatehinweise für die Version forma 5.5.5

Upgrade auf die Standalone Editionen von Acronis Backup & Recovery 10. Technische Informationen (White Paper)

Drägerware.ZMS/FLORIX Hessen

Installationsanleitung SSL Zertifikat

Projektmanagement in der Spieleentwicklung

Was ist neu in Sage CRM 6.1

How to do? Projekte - Zeiterfassung

esearch one-single-point-of-information Federated Search Modul

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Update und Konfiguraton mit dem ANTLOG Konfigurations-Assistenten

40-Tage-Wunder- Kurs. Umarme, was Du nicht ändern kannst.

Memeo Instant Backup Kurzleitfaden. Schritt 1: Richten Sie Ihr kostenloses Memeo-Konto ein

SharePoint Workspace 2010 Installieren & Konfigurieren

ICS-Addin. Benutzerhandbuch. Version: 1.0

mysql - Clients MySQL - Abfragen eine serverbasierenden Datenbank

Online Newsletter III

Dieser Ablauf soll eine Hilfe für die tägliche Arbeit mit der SMS Bestätigung im Millennium darstellen.

Wie heißt das Zauberwort? Sofort! Mobile Zeiterfassung in Echtzeit.

Der einfache Weg zu Sicherheit

Zuverlässiger IT-Service und Support Wir haben Ihr EDV-System im Griff.

Flyer, Sharepics usw. mit LibreOffice oder OpenOffice erstellen

S/W mit PhotoLine. Inhaltsverzeichnis. PhotoLine

Transkript:

Whitepaper IT Analytics IT-Providersteuerung durch End-to-End Monitoring und Realtime IT Analytics Beck et al. Services GmbH / Whitepaper / Frühjahr 2014

Editorial 3 Einleitung Inhalt I. Wenige Provider kleine Sorgen; viele Provider große Sorgen 6 II. Providersteuerung durch 360 Grad Monitoring 9 Modell erlaubt Helikopterblick 9 Hauptrolle des Enduser-Monitoring 10 Was tut der Nutzer gerade? 11 Manchmal wird auch der Provider entlastet 11 Kein Outsourcing-Blindflug 12 III. Enduser- und Servermonitoring mit Nexthink und Nimsoft 13 Version 5 16 Integration von Nexthink und Nimsoft von CA Technologies 17 Über Beck et al. Services 18 Beck et al. Services GmbH / Whitepaper / 2

Editorial von Siegfried Lautenbacher Lernphase der Industrialisierung, Arbeitsteilung ist in Industriegesellschaften eigentlich ein alter Hut. Wir sind es seit fast 100 Jahren gewohnt, einen vergleichsweise kleinen Beitrag zu einem Produkt oder Service zu leisten. Selbst die Fabriken, aus deren Toren fertige Produkt rollen, agieren als Assemblierer, zum Beispiel die großen Automobilwerke. Diese industrieartig organisierten Fertigungsprozesse beherrschen wir in der Regel gut. Sonst würden wohl nicht einmal elektrische Zahnbürsten funktionieren, deren 37 Komponenten aus verschiedenen Produktionsstätten stammen, die über den ganzen Erdball verteilt sind. Damit die verschiedenen Glieder der Produktionskette ineinander greifen, muss der Hersteller vor Auftragsvergabe die Produzenten der Einzelteile zertifizieren, die Einzelteile spezifizieren und durch Produktionskontrollen sicherstellen, dass die Qualität stimmt und die gesetzten Normen eingehalten werden. Die in den Produktionsprozessen gelernte Arbeitsteilung über verschiedene Unternehmen hinweg wenden wir seit etwa 30 Jahren verstärkt auch in der Enterprise IT und bei den Services an. Und hier funktioniert das Auslagern von Teilen der Fertigungskette noch nicht so reibungslos wie in der Produktion. Dafür fehlen teilweise noch Standards, die Spezifikationen sind oft zu ungenau und last but not least gibt es zu wenige Prüfroutinen, die Qualität und Normeinhaltung sichern würden. Unternehmen stehen in Sachen IT Services am Anfang der Industrialisierung. In dieser Lernphase ist es wichtig, Fehlentwicklungen zu erkennen, um sie zu korrigieren. Wer schneller lernt, mit IT Services umzugehen, die nicht im eigenen Unternehmen entstanden sind, ist schwer im Vorteil: In Sachen Flexibilität, Geschwindigkeit und Kundzufriedenheit. Deshalb müssen Unternehmen wissen, in welcher Qualität IT Services bei ihren Mitarbeitern ankommen, ob sie die Mitarbeiter produktiver machen und ihnen mehr Zeit geben, sich um die Kunden des Unternehmens zu kümmern. Realtime IT Analytics, die Performance und Qualität von Services auf den Endgeräten der Mitarbeiter prüfen, helfen dabei, nicht nur die Qualität zu erkennen, sondern sagen Unternehmen auch, welcher IT-Provider, welchen Service in welcher Qualität liefert. Und darum geht es in diesem Whitepaper: Unternehmen zu helfen, ihre IT Services aus Endanwender-Perspektive zu sehen und zu bewerten. Beck et al. Services GmbH / Whitepaper / 3

Einleitung Digital vorliegende Informationen sind omnipräsent und rund um die Uhr, sieben Tage die Woche verfügbar. Das gilt sowohl für jedweden Internet-Content, als auch für Daten aus Unternehmen und Organisationen. Die Enduser setzen voraus, dass die zugrunde liegende Infrastruktur aus Hardware, Netzen und Services ebenfalls 24 x 7 verfügbar ist. Die meisten Betroffenen ob private Surfer oder Unternehmens - nutzer halten das für so selbstverständlich wie den Strom aus der Steckdose. Wie allerdings jeder Eingeweihte weiß, bedarf es vieler Arbeitsschritte, redundanter Strukturen und einer genauen Planung, damit sich nicht plötzlich Nutzbarkeitslücken auftun, Websites unansprechbar werden oder der Zugriff auf wichtige Informationen nicht mehr funktioniert. In Unternehmen sind Informationen Geld. Das trifft auf Dokumente, Produktions-, Kommunikations- oder Transaktionsdaten zu, auf die Maschinen, Prozesse und Mitarbeiter zugreifen können müssen, um die Arbeitskreisläufe in einem Unternehmen funktionsfähig zu halten. In den hoch arbeitsteilig organisierten Unternehmen wäre es deshalb enorm wichtig, die Prozesse und Services sowie die ihnen zugrundeliegenden IT-Systeme permanent auf ihre Performance und Nutzbarkeit für den Enduser hin zu überprüfen, um den Informationsfluss aufrecht zu erhalten. Sobald Services unter definierte Leistungsgrenzen fallen, müssen geeignete Gegenmaßnahmen oder Notfallaktionen ergriffen werden, um Engpässe zu verhindern oder sie zumindest weitgehend zu begrenzen. Um das zu überprüfen existieren verschiedene Werkzeuge, die auf unterschiedlichen Ebenen ansetzen. Sie lassen sich unterteilen in: Infrastrukturmonitoring, das die Arbeitsfähigkeit und Belastung der entsprechenden Systeme kontrolliert. Applikationsmonitore, die prüfen, ob die Anwendungen gemäß ihrer Spezifikationen arbeiten Transaktionsmonitore, die überprüfen, ob Transaktionen in der vorgeschriebenen Zeit richtig abgeschlossen werden. Desktop Analytics Systeme, die überprüfen können, ob und wie performant Informationssysteme aus Sicht des Endanwenders funktionieren. Gerade letzteren Monitoren kommt große Bedeutung zu, weil sich nur mit ihnen Verfügbarkeit und Leistungsfähigkeit aller Applikationen und Services aus Sicht des Endanwenders ablesen lassen. Beck et al. Services GmbH / Whitepaper / 4

Sie decken Engpässe in Hardware oder Netzen auf und spüren ihre Ursachen auf. In Verbindung mit Applikationsmonitoren können sie auch Fehlverhalten innerhalb von Appplikationen anzeigen. Auf diese Weise kann der Servicedesk Fehler und Unzulänglichkeiten schnell entdecken, sie aus der Welt schaffen und sogar proaktiv handeln, bevor sich abzeichnende Überlastungen auf die Performance der Clients auswirken. Stellt sich etwa heraus, dass der Hauptspeicher einiger Endgeräte für bestimmte Applikationen zu klein ausgelegt ist, kann der Servicedesk auch die anderen Clients, auf denen die Applikationen laufen sollen, prophylaktisch mit mehr Speicher ausstatten, um künftige Engpässe zu vermeiden. Die Monitore werden also eingesetzt, um die technische Verfügbarkeit, und Performance jederzeit zu überprüfen und im Fall der Endpunkte zu sehen, ob die Leistung tatsächlich auch vom Endnutzer genutzt werden kann, bzw. was davon auf dem Endgerät noch ankommt. Sie werden in der Regel (noch) nicht zielführend genutzt, um Leistungen externer oder interner Service- Provider zu kontrollieren und die Monitoring-Ergebnis se als Basis für ihre Steuerung zu benutzen. Dabei wäre das recht einfach: Wenn ein Servicedesk bei einer neuen (Teil-)Applikation oder einem Service wissen will, wie er sich im Unternehmensnetz, auf den Servern und den Clients der Enduser verhält, braucht er ihn nur in der Detailansicht des Monitoringtools anzuklicken und schon bekommt er angezeigt, wie viel Bandbreite der Service benötigt, ob die benötigen Server ansprechbar sind, die Antwortzeiten im Netzwerk innerhalb der Parameter liegen und ob die Applikation auf dem Endanwender Arbeitsplatz funktioniert. Diese Informationen zusammen genommen, beschreiben die Enduser-Performance. Natürlich müssen diese Daten auch gemessen und dokumentiert werden, um damit Provider steuern zu können. Geht man davon aus, dass die Enduser-Performance neben der internen Verarbeitungsgeschwindigkeit und Ergebnisqualität eines der wichtigsten Qualitätskriterien für eine Applikation darstellt, beschreibt sie die Leistungen eines Providers so gut, dass er sich auch darüber steuern lassen muss. Wenn eine SLA lautet, dass beim Zugriff auf einen Service nur X Prozent der Enduser einen Fehler angezeigt bekommen dürfen kann dieser Wert mit einem Tool überprüft und protokolliert werden. Beide Parteien, Nutzerunternehmen und Provider erhalten diese Daten. Sind sie im grünen Bereich, ist alles okay, überschreiten sie die Limits, muss der Provider geeignete Maßnahmen in die Wege leiten, die die Vefügbarkeitsengpässe aus der Welt schaffen. Dank der Monitore kann in strittigen Situationen auf Basis von Fakten sachlich diskutiert werden. Gegenseitige Schuldzuweisungen auf Basis bloßer Annahmen gehören damit der Vergangenheit an. Werden die Messwerte protokolliert, lässt sich über eine Zeitreihe hinweg ganz klar feststellen, welches die performantesten Services sind und zum Beispiel auf Basis dieser Werte festlegen, welche Provider in Zukunft welche Services/Applikationen in welcher Qualität liefern sollen. Darüber hinaus lassen sich auf Basis solcher Protokolle SLAs formulieren und überprüfen sowie sogar Bezahl- und Bonusmodelle entwickeln, die für Nutzerunternehmen und Provider transparent sind. Dieses Whitepaper schildert deshalb, wie Service Monitoring und Analytics funktioniert und wie es erweitert werden muss, um interne und externe IT- Provider ausreichend genau zu überprüfen und zu steuern. Außerdem wird es in diesem Papier darum gehen, gängige Auseinandersetzungen zwischen Endnutzer und Provider zu schildern und zu erklären, wie sie sich mit Hilfe eines transparenten Monitorings beseitigen lassen. Darüber hinaus wollen wir fragen, wie sich in ein solches Providersteuerungsmodell implementieren lässt. Beck et al. Services GmbH / Whitepaper / 5

I. Wenige Provider kleine Sorgen; viele Provider große Sorgen IT Providersteuerung kann schnell zu einer komplexen Aufgabe werden, wenn verschiedene Dienstleistungen von unterschiedlichen Providern erbracht werden oder wenn ein großer Dienstleister viele verschiedene Services liefert. Da Unternehmen heute ohne verschiedene externe IT-Services nicht mehr effektiv arbeiten können, gilt es, die Kunst der Providersteuerung zu erlernen. Tools, die richtigen Key Performance Indicators (KPI) und Ser-vice Level Agreements (SLA) helfen dabei, sie auch durchzusetzen. Aber Monitoring ist die Grundlage. Stellen Sie sich vor, Sie gehen ins Kino. Der Saal wird dunkel, aber der Film läuft nicht an. Der Projektor ist defekt. Der Vorführer versucht es mehrmals mit einem Reset, aber nichts geht. Schließlich verlassen Sie das Kino und bekommen entweder Ihr Eintrittsgeld zurück oder im Fall eines Multiplex-Kinos können sich einen anderen Film anschauen. Hier ist die Wirkungskette kurz und hat für Sie als Kunde ein eindeutiges Ergebnis: Projektor kaputt > keine Vorführung > Kompensation des Kunden. Wenn es um Dienstleistungen und Produkte für Unternehmen geht, sind Ursachen und Wirkungen oft nicht so einfach festzustellen oder auseinanderzuhalten, wie in dem kurzen Kinobeispiel. Zumal dann nicht, wenn verschiedene Dienstleister im Spiel sind, die verschiedenartige Services liefern oder noch komplizierter, wenn verschiedene Dienstleister Teilservices liefern, die erst beim Kunden zu einem End-to-End- Service zusammengesetzt werden. Und häufig liegt dabei die»beweislast«beim Kunden. Er muss eindeutig feststellen, welcher Service zu welcher Zeit, an welchen Lokationen nicht oder nur eingeschränkt funktioniert und welcher Dienstleister diesen Service zur Verfügung stellt. Außerdem sollte der Auftraggeber einen»begründeten Verdacht«entwickeln, in welchem Bereich die Ursachen für die Störung liegen handelt es sich um ein Performance-, ein Verfügbarkeitsoder ein Qualitätsproblem? Beim ersten kann sich die Störung in starken Zeitverzögerungen manifestieren, beim zweiten ist der Service nicht ansprechbar. Beim 3. Kreis der Service-Fehlfunktionen, den Qualitätsproblemen, kann es sich um ganz verschiedene Phänomene handeln. Das reicht von fehlerhaften Bildschirmdarstellungen bis hin zu falschen Resultaten. Beschäftigt ein Unternehmen nur einen Service-Provider oder einen General-Dienstleister und es nutzt nur wenige Services, ist das keine allzu schwierige Übung. Die Wirkungskette ist etwas länger als im Kino-Beispiel, aber noch relativ leicht überschaubar: Feststellung, dass ein Service nicht oder nur eingeschränkt (funktionell, örtlich) funktioniert, > Ursache wird gefunden > Ursache wird eindeutig einem Bereich zugeordnet und kann eindeutig einem Provider zugeordnet werden > Provider schafft Abhilfe. Beck et al. Services GmbH / Whitepaper / 6

Aber allein diese kurze Kette wird komplex, je mehr Services und Provider im Spiel sind. Wenn auch verschiedene Standorte eines Unternehmens berücksichtigt werden müssen, die Services sich auf sehr verschiedene Aufgaben beziehen und teilweise von einander abhängen, können wir nicht mehr von einer Wirkungskette sprechen. Es geht plötzlich um ein Wirkungsgeflecht, in dem Provider nicht nur Verträge mit dem Auftraggeber schließen, sondern teilweise auch untereinander, um bestimmte Teilservices von Dritten zu beziehen. Natürlich wird das Ganze noch komplexer wenn sich die verschiedenen Standorte auch noch über mehrere Länder erstrecken. Dann müssen nicht nur verschiedene Services von verschiedenen Providern an verschiedenen Lokationen berücksichtigt werden, sondern auch noch die unterschiedlichen rechtlichen Konsequenzen, die bestimmte eingeschränkte Services in verschiedenen Ländern haben. Noch einen Dreh undurchschaubarer gerät das Wirkungsgeflecht zwischen Anwender und Unternehmen, wenn die Delivery-Art des Service berücksichtigt wird. Wird der Service intern erbracht oder von einem Provider? Handelt es sich dabei um einen Managed Service, eine gehostete Lösung oder einen Cloud Service aus einer Private oder einer Public Cloud? Jede Art der Delivery hat ihre Eigenheiten und ist oft auch rechtlich anders geregelt. Den letzten Komplexitätsgrad fügt immer die Vertragsgestaltung mit dem Provider hinzu. Je nachdem, welche sogenannten Service Level Agreements (SLAs) zwischen Kunde und Provider vertraglich vereinbart sind, muss der Dienstleister entsprechend reagieren unter Einhaltung der vorgeschriebenen Geschwindigkeit und Qualität. Hält der Provider die SLAs nicht ein, zieht der Auftraggeber in Form von Pönalen oder Auftragsentzug die Konsequenzen. Das hat kaum noch etwas mit unserem privaten Kinobesuch vom Anfang zu tun. Unternehmen agieren in einer immer arbeitsteiligeren Welt gerade im Bereich IT-Services. Der Teil einer Fertigungskette, der von einem Unternehmen beherrscht wird, verkürzt sich ständig. Die Automobilbauer beispielsweise liegen bei nur noch etwa 25 % Fertigungstiefe. In Anwenderunternehmen ist die IT-Fertigungstiefe in größeren Unternehmen zwar in der Regel höher. Aber auch hier ist der Anteil, der ausgelagerten Dienstleistungen in den letzten zehn Jahren drastisch angestiegen. Der Zuwachs an ausgelagerten IT-Services hat mehrere Ursachen: der Siegeszug von Standardsoftware, die Ausdifferenzierung des IT-Service-Angebotes und -Marktes, Bestreben der Unternehmen IT-Kosten von Investitionskosten in Betriebsausgaben (capex vs opex) zu verwandeln, rückläufige Preise für IT-Services, Komplexität und Kosten der IT (insbesondere bei SW-Entwicklung) Notwendigkeit zu höherer Geschwindigkeit, Zunahme der Veränderungsgeschwindigkeit (insbesondere bei Geschäftsmodellen und -prozessen), Notwendigkeit Services global zur Verfügung zu stellen, neue Technologien und Delivery-Arten (z. B. Cloud), die den Servicebezug flexibler machen, zu wenig Know-how/Ressourcenengpässe in Unternehmen, um neue Technologien in kurzer Zeit für sich zu nutzen. Beck et al. Services GmbH / Whitepaper / 7

Die zunehmende Auslagerung von IT-Services legt nahe, dass Unternehmen nach wie vor dem Paradigma»konzentriere dich auf dein Kerngeschäft«folgen, das bereits in den 80er und 90er Jahren des letzten Jahrhunderts als zentrales Argument für IT-Outsourcing ins Feld geführt wurde. Doch damit würden es sich Unternehmen heute zu einfach machen. Die IT spielt in den Unternehmen ein viele größere Rolle. Seit den 90ern ist der Grad an IT-Unterstützung in den Prozessen der Unternehmen drastisch angestiegen, außerdem hat die Zahl der automatisierten Prozesse genauso zugenommen wie die Zahl der Unternehmen, die auf IT-gestützte Prozesse zurückgreifen. Gleichzeitig haben heute viele Produkte und Services einen erklecklichen IT-Anteil. Die Wertschöpfung in einem Automobil hängt zu 30 % und mehr von Software ab, auf der einen Seite von Funktionen wie Motormanagement und Fahrzeugsteuerung, auf der anderen Seite aber zunehmend auch von zusätzlichen digitalen Services wie Navigation oder Kommunikation. Darüber hinaus spielen die E-Commerce-Aktivitäten für die Umsätze vieler Unternehmen eine immer größere Rolle. Einige nutzten diesen Vertriebsweg ausschließlich. Und da Firmen seit ein, zwei Jahren mit Real Time Analytics, Big Data und Social Collaboration angefangen haben, nicht mehr nur ihre mechanischen und repetitiven Prozesse zu automatisieren, sondern auch ihre Entscheidungsprozesse digital immer stärker zu unterstützen, könnte man ohne große Übertreibung die IT (Services) neben Kapital, Arbeit und Boden zum vierten Produktionsfaktor adeln. Trotz der zunehmenden Bedeutung der IT ist die wachsende Auslagerung von IT-Services kein Widerspruch. In der Regel entwickeln professionelle IT-Serviceprovider ihre Dienstleistungen qualitativ besser, schneller, sicherer und teilweise auch billiger als das die Unternehmen selbst tun könnten. Gleichzeitig sind die Standardisierungsbemühungen und die Interface-Entwicklung im Zeitalter von Webservices und Cloud so weit fortgeschritten, dass die früher extrem mühselige Integration verschiedener Services in das eigene Unternehmen einfacher geworden ist. Mit der Auslagerung von IT-Services, die sich natürlich nicht in digitalen Services oder Software erschöpfen, sondern auch Hardware- und Communications-Services umfassen, vermeiden Unternehmen zusätzliche Komplexität. Die Effektivität, mit der Unternehmen ihre (IT-) Provider steuern, bestimmt zu einem immer größeren Teil die Effektivität des Gesamtunternehmens. Doch Steuerungsfähigkeit setzt Wissen voraus. Die Un ternehmen müssen wissen, welche Services, zu welchem Zeitpunkt und an welchem Standort und für welche Benutzer die geforderten Leistungen (Geschwindigkeit, Verfügbarkeit, Qualität) erbringen. Gleichgültig um welche Art des Service es sich handelt. Nur dann können sie die Gesamtqualität einzelner Services und das Zusammenspiel der verschiedenen Services und Dienstleister beurteilen und ihre Konsequenzen daraus ziehen. Konsequenzen können vielfältig sein. Sie reichen von Nachbesserungsforderungen, Change-Requests über Pönalen bis hin zum Provideraustausch. Dabei dürfen sich Anwenderunternehmen nicht auf die Angaben ihrer Provider verlassen. Zum einen können die Dienstleister nur die Performance der von Ihnen gelieferten Services kontrollieren und zum anderen haben sie kein Interesse daran, Leistungen zu dokumentieren und an ihren Kunden weiterzugeben, die unter den vereinbarten SLA bleiben. Dennoch unternehmen viele Organisationen zu wenig, um Transparenz über die Qualität ihrer intern und extern erbrachten Services herzustellen. Sie verlassen sich entweder auf die Berichte der Provider oder geben sich mit rudimentären eigenen Kontrollen zufrieden. Dabei muss Service-Monitoring weder sehr kompliziert noch teuer sein. Viel hängt von der Wahl der richtigen Werkzeuge ab, vom Setzen der richtigen Key Performance Indicators (KPIs) und eindeutig formulierten Service Level Agreements ab. Doch ohne Monitoring und Realtime IT Analytics funktioniert es nicht! Beck et al. Services GmbH / Whitepaper / 8

II. Providersteuerung durch 360 Grad Monitoring Providersteuerung ist dann unkompliziert, wenn die Verantwortlichen auf Anwender und auf Anbieterseite jederzeit über die richtigen Informationen verfügen. Auf diese Weise entstehen Transparenz und gegenseitiges Vertrauen. Realtime IT Analytics aus Endanwendersicht kann diese Transparenz herstellen. Bevor Unternehmen überhaupt beginnen können, Provider zu steuern und Incidents bei ausgelagerten Services zu managen, müssen sie die Perspektive festlegen, aus der sie die Qualität eines Service beurteilen. Aus Sicht des Business kann es dafür nur einen Blickwinkel geben: Der Endbenutzer ist bei der Qualitätsbeurteilung eines Services die höchste Instanz. Nur wenn Qualität des Services (Vollständigkeit, Verfügbarkeit, Geschwindigkeit und Bedienbarkeit) aus Sicht des Endanwenders beurteilt wird, kann sichergestellt werden, dass angebotene Services auch genutzt und damit die Business-Anforderungen erfüllt werden. Modell erlaubt Helikopterblick Anwendern, die sich professionelle und effiziente Providersteuerung zum Ziel setzen, können zunächst die Herausforderungen strukturieren, denen sie gegenüber stehen. Eine solche Übersicht bietet das Providersteuerungsmodell, das von EBS Business School und Horváth & Partners entwickelt wurde (siehe Grafik nächste Seite). Es ist unterteilt in 6 Abschnitte und reicht vom Anforderungsmanagement bis hin zu Performance-Management und Serviceverbesserung. Beim Anforderungsmanagement prüft der Anwender, welche Services er in welcher Qualität benötigt, um seine Businessziele zu erreichen. Will er zum Beispiel das Beschwerdemanagement verbessern, legt er fest, in welcher Zeit eine Beschwerde abgearbeitet werden muss. Dafür spielt unter anderem die Erreichbarkeit der befassten Mitarbeiter per Web und E-Mail eine Rolle. Herunter gebrochen auf Messaging Provider und Webservice-Anbieter lassen sich daraus Verfügbarkeitsanforderungen und Antwortzeiten ableiten. Vertragsmanagement bedeutet unter anderem zu überprüfen, ob und wie häufig Abweichungen von den in Service Level Agreements (SLAs) festgelegten Vertragsbedingungen auftreten. Daraus gilt es, die entsprechenden Konsequenzen zu ziehen. Seien es Nachbesserungen, Pönalen, Vertragsveränderungen oder auch Kündigungen. Beck et al. Services GmbH / Whitepaper / 9

Voraussetzung für effizientes Vertragsmanagement ist allerdings, vor der Vereinbarung von SLAs den Ist-Zustand zu überprüfen und in Abhängigkeit von Businesszielen festzulegen, in welcher Qualität ein Service geliefert werden soll. Benötigt das Unternehmen wirklich eine Verfügbarkeit der Website von 99,995 Prozent? Müssen Buchungsvorgänge tatsächlich innerhalb weniger Millisekunden im SAP- System aufschlagen? Muss jeder Service, den ein Endbenutzer aufruft, tatsächlich innerhalb einer halben Sekunde zur Verfügung stehen? Antworten auf diese Art von Fragen bilden das Gerüst für die Verträge mit den Service-Providern. Die Grundlagen für die Anworten liefert die Ist-Analyse, deren Daten ein Enduser-Monitoring System liefern kann. Beim Kommunikationsmanagement kommt es darauf an, eine Kommunikationsplattform zu schaffen, die alle Stakeholder erreicht Endnutzer, Servicemanager im Unternehmen und die Verantwortlichen beim Service-Provider. Auch hier liefert das Enduser- Monitoring-System die Grundlage, in dem es Daten zur Verfügbarkeit, Performance, Bandbreitenausnutzung, CPU-Belastung etc. aus Enduser-Sicht liefert, in individualisierbaren Dashboards aufbereitet und sowohl eine Management- als auch eine Technikersicht auf das Geschehen in den IT-Infrastrukturelementen erlaubt. Auf dieser Basis können Anwender Informations- und Kollaborationsmechanismen aufsetzen, mit denen Stakeholder informiert werden und sich austauschen. Hier haben sich zum Beispiel Tools aus dem Social Business Collaboration Umfeld bewährt, die aufgrund ihrer Eigenschaften zu einer schnellen Bearbeitung von Incidents und zu einer geringeren Belastung der Service-Desks führen können. Hauptrolle des End-to-End-Monitoring Das Risikomanagement untersucht im Fall der Providersteuerung, welche Auswirkungen die Auslagerung bestimmter Services auf einen Business-Bereich haben kann. An dieser Stelle sind ein Maturity-Check des Providers und ein Readiness-Check des Anwenders anzuraten. Auch hier liefern wieder Monitoring- Systeme die einschlägigen Werte für die richtige Beratung. Je»reifer«Provider und Anwender in Sachen Auslagerung sind, desto weniger Risiko birgt eine Serviceauslagerung. Bei den beiden letzten»kuchenstücken«des Providersteuerungsmodells, dem»performance-management«und der»service-verbesserung«spielen naturgemäß Enduser-Monitoringtools eine Hauptrolle. Sie machen die vom Provider gelieferten Leistungen transparent. Damit werden sie bewertbar und somit verbesserungsfähig. Ohne zugrunde liegende Daten kann nichts verbessert werden, weil sonst niemand weiß, in welchem Ausmaß Verbesserung nötig ist. Ebenfalls ungewiss bleibt ohne Tools natürlich der erreichte Grad der Verbesserung. Auf Basis der Monitoring-Daten lassen sich für die Services Verbesserungen einleiten, die hinter vereinbarten SLAs zurückfallen. Dabei sind diese Daten sehr viel verlässlicher, wenn es um das Aufspüren von Schwachstellen geht als das Auswerten der Incident Reports. Letztere sind zwar aufschlussreich, aber nicht vollständig, weil es in einem Unternehmen immer eine erkleckliche Anzahl von»unreported incidents«gibt. Diese Vorfälle werden von den Nutzern nicht gemeldet, weil sie sich entweder einen Workaround schaffen oder einen Kollegen um Hilfe bitten. EBS Business School und Horváth & Partners Beck et al. Services GmbH / Whitepaper / 10

Was tut der Nutzer gerade? Im Einzelnen überprüfen End-to-End-Monitoring- Tools, ob und wie performant Services beim Endnutzer ankommen, wie viel Bandbreite im Netz er benötigt und wie er sich auf den Ressourcen des Clients auswirkt bezüglich CPU, Speicher und Festplatte. Zusätzlich zeigen die Agenten im Enduser-Client an, wozu das Device gerade genutzt wird. Das kann allerdings nicht jedes Monitoring-Tool. Andere Lösungen und Desktop-Managementsysteme gehen von sogenannten klinischen Umgebungen aus, die nicht vom Endnutzer verändert werden. Das entspricht allerdings nicht den Tatsachen. User verändern ihre Systeme häufig. Sie umgehen Berechtigungen spielen unautorisierte Software oder Spiele von USB-Sticks oder aus dem Internet auf. Dieses Verhalten wird in einem Image orientierten System meistens nicht erfasst. Das kann bei der Bearbeitung von Incidents zu nicht nachvollziehbaren Ursachen führen, weil der Servicedesk zum Beispiel nichts von der Applikation weiß, die auf einem bestimmten Rechner installiert ist. Mit Enduser Monitoring Tools, die ihren Namen verdienen, lässt sich dagegen schnell feststellen, ob der Nutzer vom Unternehmen autorisierte Software einsetzt oder spielt und was unautorisierte Services in der Infrastruktur anrichten. Manchmal wird auch der Provider entlastet Spielt ein Endnutzer beispielsweise in einer virtuellen Umgebung ein Online-Spiel, kann das dazu führen, dass die Berechnungen der dynamisch erzeugten Grafiken die Kapazität des logischen Servers komplett ausschöpfen und sogar andere virtuelle Instanzen mit der Grafikerstellung belasten. Damit bricht die Versorgung der anderen Clients gegebenenfalls komplett zusammen, die an der gleichen Serverinstanz hängen. Ohne Enduser-Monitoring würde die Erforschung der Ursachen der Suche nach der sprichwörtlichen Nadel im Heuhaufen gleichen. In diesem Beispiel wäre natürlich der Provider entlastet. Schließlich liegt die Ursache im Fehlverhalten eines Nutzers. Doch ein anderes Beispiel zeigt, dass der Grund für eine schlechte Performance auch beim Provider liegen kann. Ein Kunde von Beck et al. Services klagte über sehr langsam reagierende Rechner, die teilweise sogar komplett abstürzten. Das Verhalten schien willkürlich. Erst als in der gesamten Client-Population nach Rechnern mit hoher CPU-Auslastung gesucht und analysiert worden war, welche Applikation die CPU-Auslastung verursachten, trat die Ursache zutage: Ein Agent, der auf den Clients für die Softwareverteilung zuständig war, war falsch konfiguriert und steuerte die Rechner in eine Endlosschleife, die schließlich zum Absturz führte. So konnte dem Provider ein Konfigurationsfehler nachgewiesen werden. Ohne die vom Monitoring-Tool gelieferten Daten hätte die Analyse sehr lange gedauert und die Provider hätten sich wahrscheinlich gegenseitig verantwortlich gemacht. Beck et al. Services GmbH / Whitepaper / 11

Gepaart mit Infrastruktur-Tools, die Services aus Serverperspektive visualisieren und deren Performance überprüfen, entsteht gemeinsam mit Monitoring-Tools ein 360- Grad-Blick auf die gelieferten Services vor allem dann, wenn über entsprechende zusätzliche Agenten (Probes) die Aktivitäten in den Applikationen sichtbar werden. Allerdings muss die Installation von aktiven Agenten auf Servern mit den jeweiligen Providern vereinbart werden. Um nachträgliche Irritationen zu vermeiden, sollten Unternehmen sich diese Möglichkeit schon bei Abschluss des jeweiligen Service-Vertrages einräumen lassen. Kein Outsourcing-Blindflug Natürlich können zusätzlich dedizierte Applikationsmonitore eingesetzt werden, die beispielsweise Transaktionen überprüfen. Aber um Provider den vereinbarten Service Levels gemäß zu steuern, ist ein solcher Detaillierungsgrad meist nicht notwendig. Wenn der Endbenutzer als wichtigste Qualitätsinstanz festgelegt ist, sollten Unternehmen das Realtime IT Analytics zur Basis ihres Provider Managements machen. Nur damit hat man die Möglichkeit zu überprüfen, in welcher Qualität Services beim Endbenutzer ankommen. Ohne solche Systeme würden Firmen einen»blindflug ins Outsourcing«unternehmen. Seine IT-Abteilung zumal wenn es sich um eine schmal besetztes Team zur Steuerung der Service Provider handelt wäre dann nicht einmal in der Lage festzustellen, welcher Incident welche Ursache hat. Ein Realtime IT Analytics-Tool dagegen»sieht«welcher Service, auf dem Client welches Problem verursacht, woher der Traffic stammt, der die Bandbreitenengpässe auslöst Damit kommt die interne IT-Organisation auf Augenhöhe mit dem jeweiligen Provider. Sie kann transparent machen, was das Problem verursacht, welche Endanwender davon betroffen sind und welcher Provider dafür verantwortlich ist. Beck et al. Services GmbH / Whitepaper / 12

III. End-to-End- und Servermonitoring mit Nexthink und Nimsoft Dieses letzte Kapitel des Whitepapers erläutert, welche Funktionen die Realtime IT Analytics Suite Nexthink aufweist und was sie, gepaart mit der Infrastruktur Service Monitoring Lösung Nimsoft, zu einer umfassenden, aber einfachen Providersteuerung beiträgt. Bei Nexthink handelt es sich um ein intelligentes Desktop-Monitoring, das die Performance in Windows Client Umgebungen aus Endanwendersicht analysiert. Dabei funktioniert die Analyse auch in VDI-Infrastrukturen. Nexthink besteht im Wesentlichen aus vier Komponenten: Collectoren, Engine, Finder und Portal. Bei den Collectoren, die auf den Endgeräten im Netz installiert werden, handelt es sich um einen Windows Treiber. Sie verarbeiten keine Daten, sondern sammeln Informationen über die Ressourcennutzung wie CPU- Belastung, Zeit und Dauer der Nutzung etc. und übermitteln sie an die Engine. Diese Auswertung erfolgt mit dem Finder; der Langzeittrend wir im Portal Anwender freundlich dargestellt. Es werden keine Benutzerprofile erstellt. Die Engine stellt die zentrale Datensammelstelle des Systems dar. Hier werden Geräte- und Nutzungsdaten gespeichert, gegebenenfalls bearbeitet und für Analysen bereit gehalten. Die Engine wird als Linux-Appliance geliefert und ist sehr leicht zu installieren. In der Regel ist sie in weniger als vier Stunden einsatzbereit. Bei sehr großen Netzwerken werden mehrere solcher Engines benötigt. Die von der/den Engines gesammelten und aufbereiteten Daten werden mit dem Finder analysiert. Beck et al. Services GmbH / Whitepaper / 13

Dieses Windows-Progamm analysiert die permanent von den Collectoren übertragenen Daten. Dank des ständigen Datenstroms kann der Finder auf eine lückenlose Historie des Client-Verhaltens zugreifen. Dabei können gezielte Analysen (Investigations) gefahren werden, die sich auf die Untersuchung ganz spezifischer Sachverhalte, wie z. B. abnorme Netzaktivitäten, hohe Speicherbelastung oder allzu lange Boot-Zeiten konzentrieren. Der Servicedesk selbst kann solche spezifischen Untersuchungen erstellen oder vorgefertigte importieren. Die Untersuchungen lassen sich weiter verfeinern. In diesen sogenannten Drilldowns kann analysiert werden, welche Devices, Applikationen oder Netzwerkkomponenten betroffen sind. Außerdem verfügt der Finder über Visualisierungsmöglichkeiten, die den Netztraffic passend zu einer Fragestellung zeigen und ganz wichtig auch für die Providersteuerung: es lassen sich zum Beispiel Vergleichsübersichten erstellen über ähnlich ausgestattete PCs im Netzwerk und ihr Verhalten. Aber es lässt sich mit dem Finder auch überprüfen, wie bestimmte Services bei den Clients ankommen, welchen Traffic sie erzeugen und wie sie Clients mit bestimmter Ausstattung belasten. Auf diese Weise lassen sich von externen Providern zur Verfügung gestellte Services checken. So kann der Servicedesk nicht nur die Qualität der Services beim Endanwender überprüfen, sondern auch, welchen Service, welcher Provider in welcher Qualität liefert zu jeder Zeit. Mit einer zusätzlichen Library, die mit vorgefertigten Analysen und Templates aufwartet, kann der Finder viele Themenbereiche sehr schnell abdecken. Die vierte und letzte Komponente, das Nexthink Portal, stellt sämtliche Datenanalysen und Reports in unterschiedlicher Aufbereitung bereit als interaktive Elemente auf Dashboards oder als Report via Mail. Das in wenigen Stunden installierbare Monitoring System erkennt und analysiert mittels dieser vier Komponenten Störungen schnell und erlaubt so deren zügige Behebung. Verschiedene Analysen, unter anderem von Forrester Research, bestätigen, dass Service- Desks normalerweise einen großen Teil ihrer Ressourcen mit der eindeutigen Diagnose von Störungen verbringen. Das ist bei Nexthink nicht der Fall. Der schlanke Collector liefert laufend Informationen an die Engine, die Daten sammelt, aufbereitet und dem Finder zur Analyse bereitstellt. Zusammen mit den Inventory- Daten der gesamten Infrastruktur (Clients, Netzwerkkomponenten, Peripherie und Servern), die Nexthink ebenfalls zur Verfügung stellt, kann der Service-Desk sehr schnell erfassen, ob sich Engpässe in bestimmten Netzwerksegmenten auch auf andere Bereiche auswirken können und so mit geeigneten Maßnahmen gegensteuern, bevor die Nutzer überhaupt Performance-Rückgänge bemerken. Ähnliches gilt für einzelne Clients. Verhält sich eines der Endgeräte abweichend, produziert es zum Beispiel eine deutlich stärkere Netzwerkbelastung, erkennt die Auswertung der Collectordaten die Ursache für die Abweichung. Wenn beispielsweise auf diesem Client eine Standardapplikation plötzlich den internen Speicher über Gebühr belastet oder unverhältnismäßig viele Daten von bestimmten Servern zieht, kann der Servicedesk prüfen, wieso es zu diesem abweichenden Verhalten gekommen ist und andere Clients, auf denen die gleichen Applikationen installiert sind entsprechend schützen. Beck et al. Services GmbH / Whitepaper / 14

Das ebenfalls in Nexthink enthaltene Inventory Management erlaubt dem Servicedesk eine detaillierte Realtime-Sicht aller Geräte, auf denen ein Collector installiert ist. Dabei sammelt es automatisch detaillierte Daten über die Hardware-Konfigurationen, Device-Typen, Modelle und den auf ihnen vorhandenen Ressourcen wie CPU, Haupt- und Plattenspeicher, Netzwerke und Drucker. Außerdem gibt Nexthink Auskunft über die Softwarekonfiguration, Betriebssysteme, Sicherheitssoftware, Zahl und Versionen von Applikationen und Softwarepaketen. Darüber hinaus weiß der Monitor, wo welches Device in welcher Domain angemeldet, wann es genutzt wird und wie lange ein Device benötigt, um hochgefahren zu werden. Die interaktive Analysekomponente von Nexthink erlaubt, die Qualität von Services zu überprüfen und die proaktive Identifikation sowie schnelle Behebung von Störungen. Die zur Vergügung gestellte Diagnoseund Reparaturfunktionen basieren zum einen auf den Realtime-Informationen aus dem Netzwerk, den Untersuchungsfunktionen und zum anderen auf den patentierten Navigations- und Visualisierungstechniken. Nexthink erlaubt sogar vorbeugende Maßnahmen. Dashboards zeigen zum Beispiel Netzwerk- oder Speicherengpässe an, die dann durch den Servicedesk behoben werden können, bevor der Enduser sie überhaupt bemerkt. Drohen die Leistungsindikatoren unter vorab eingestellte, kritische Wert zu fallen, warnt Nexthink. Wird der Enduser-Monitor darüber hinaus über seine definierten Schnittstellen mit Server- und Netzwerkmonitoring bzw. -management-systemen verbunden, sorgt das Monitoring-System für eine Endto-End-Sicht. So werden die echten Auswirkungen von Unterbrechungen innerhalb der gesamten IT-Infrastruktur auf den Endanwender sichtbar. Mit seiner Qualitätsüberprüfung liefert Nexthink zum Beispiel Informationen über: Performance Probleme Kapazitätsanalyse Netzwerkservice-Performance Application Performance (Verfügbarkeit, Antwortverhalten) Nexthink überprüft außerdem, ob die tatsächlich installierten Sicherheitsmaßnahmen mit den Unternehmensvorgaben übereinstimmen. Die bloße Existenz einer Security-Strategie heißt schließlich noch lange nicht, dass sie auch richtig angewendet wird. Das weiß der Helpdesk erst, wenn er folgende Fragen beantworten kann. Ist die installierte Antivirus-Software aktiv? Wurde die aktuellste Version eingespielt? Ist die eingesetzte Software ausreichend lizenziert? Wie viele der eingekauften Lizenzen werden überhaupt und wie oft genutzt? Nexthink kann testen, ob die Nutzerinfrastruktur den Sicherheitsvorgaben des Unternehmens entspricht und kann die Benutzung illegaler Software unterbinden, in dem es sicherstellt, dass nur lizenzierte Software installiert ist. Im einzelnen kann es zum Beispiel erkennen: welche Sicherheitssoftware in welcher Version installiert ist und wie sie konfiguriert ist, ob kritische Update von Betriebssystemen und Applikationen auf den Arbeitsplätzen installiert sind, ob sich Malware auf den Desktops der User breit macht, sich das Netzwerkverhalten außerhalb der Norm bewegt (zum Beispiel ungewöhnlich große Datentransporte stattfinden).»nexthink ist ein einfaches Tool, das sich einfach einsetzen lässt. Dabei verschafft es komplette Transparenz über alle Enduser-Aktivitäten an den Workstations ihre Software und Hardwarekomponenten.«Das sagt Jean-Pierre Garbani, Vice President Forrester Research. Beck et al. Services GmbH / Whitepaper / 15

Smarter IT through Analytics Aktuell ist die Version 5 eine stark verbesserte Technologie von Nexthink erschienen. Sie stellt zusätzliche Funktionen in Form von Modulen und deren verbesserte Visualisierung bereit. Mit dem neuen Web & Cloud Modul lassen sich sämtliche Intranet, sowie Extranet-Aktivitäten in Monitoring einbeziehen und ihre Auswirkungen analysieren. Das erweiterte Dashboard intergriert auch für große Umgebungen nahtlos Echtzeit- und historische Daten in einer Ansicht. Das ermöglicht ein noch schnelleres Auffinden von Störungen und deren exakte Diagnose. Das Sicherheitsmodul wurde erweitert um binäres Applikations- sowie Website Tagging und Kategorisierung, um potenzielle Sicherheitsbedrohungen leichter identifizieren zu können. Der Datenschutz wurde für die neue Version nochmals verstärkt. Analysedaten können komplett anonymisiert werden. Außerdem lässt sich der Zugang zu bestimmten Daten auf ausgewählte Rollen beschränken. Damit ist sichergestellt, dass Nexthink-Daten und Analysen nicht zur Überwachung von Mitarbeitern, sondern nur für die Überprüfung und Optimierung von Enduser-Infrastrukturen einsetzt. Innerhalb des ebenfalls neuen VDI Transformation Modules werden Frameworks und Methoden bereitgestellt, um Transformationsprojekte, die die IT-Ressourcen des Endanwenders betreffen, besser planen, umsetzen und ihre Auswirkungen genauer messen zu können. Last but not least bietet die neue Version mit der Integration des Toolkit Moduls Schnittstellen und Integrationsmechanismen an, um Nexthink mit anderen Systemen und Prozessen zu verbinden. Beck et al. Services GmbH / Whitepaper / 16

Integration von Nexthink und Nimsoft von CA Technologies Besonders in Verbindung mit der Infrastruktur Service Monitoring Lösung Nimsoft von CA Technologies entsteht mit Nexthink eine End-to-End-Service- Monitoring-suite, die der IT eines Unternehmens nicht nur den reibungslosen Betrieb von on premise und Cloud-Infrastukturen und Applikationen, sondern auch das Management von externen Providern erleichtert. Dabei liefert Nexthink, dessen Dashboards sich in Nimsoft problemlos integrieren lassen, die Endusersicht und Nimsoft ermöglicht das Monitoring der gesamten IT-Infrastruktur. Dabei ist Nimsoft auf einer einheitlichen Architektur aufgebaut, die es Organisationen ermöglicht, Server, Applikationen, Datenbanken, Netzwerk-Services, Netzwerk-Geräte sowie Private und Public Clouds zu monitoren. Die Plattform überprüft mit Hilfe von Agenten sowohl lokal installierte Devices, als auch entfernte Devices und Applikationen. Darüber hinaus kommuniziert sie mit Netzwerk-Geräten via Simple Net- work Management Protocol (SNMP), um ihre Performance zu reporten. Durch die Verarbeitung sogenannter SNMP Traps fungiert Nimsoft auch als Event Manager für lokale Rechenzentren und für Cloud basierte Systeme. Wenn Nexthink und Nimsoft ihre jeweiligen Funktionen bündeln, entsteht ein überaus potentes Monitoring- und Providersteuerungssystem, das nicht auf der Server-Ebene halt macht, sondern bis auf die Endanwender-Ebene herunterreicht und gewissenhaft prüft, welche Services in welcher Qualität beim Nutzer ankommen. Das macht es zu einer zentralen Informationsdrehscheibe für alle Performance-Belange. An ihren Ergebnissen kann sich zum einen der Service-Desk eines Unternehmens orientieren und Schwachstellen effektiv abstellen, aber auch die Verantwortlichen für die Steuerung der Service-Provider können aus den Dashboards des Systems ablesen, wie ihre Provider arbeiten. Werden Schlechtleistungen festgestellt, können sie sehr schnell und für jeden transparent reagieren, weil sie auf einer zu jeder Zeit absolut soliden Datenbasis arbeiten. Beck et al. Services GmbH / Whitepaper / 17

Beck et al. Services ist ein unternehmergeführter, internationaler IT-Dienstleister. Wir konzentrieren uns darauf, echte Ergebnisse für das Business unserer Kunden zu liefern. Unsere smarten IT-Services helfen schnell, flexibel und serviceorientiert. Dabei geht es nicht nur um das WAS, der technischen und wirtschaftlichen Effizienz, sondern auch um das WIE der Zusammenarbeit. Unsere Kunden schätzen unsere hohe Servicequalität und unsere internationale Reichweite. Sie bauen auf unseren Erfahrungshorizont, unsere pragmatische Arbeitsweise und nicht zuletzt auf unser persönliches Engagement. www.bea-services.de Ihr Ansprechpartner bei Beck et al. Services: Partner für unsere IT Providersteuerung Projekte: Joachim Poisel, Sales Telefon +49/89/53 88 63-180 joachim.poisel@bea-services.de Beck et al. Services GmbH Zielstattstraße 42, D-81379 München www.bea-services.de IT Analytics by Beck et al. Services GmbH / Whitepaper / 18