AUS GUTEM HAUSE. E-Commerce. Consulting. Die T-Systems Multimedia Solutions GmbH ist eine Tochter der T-Systems. Uns gibt es seit 1995.



Ähnliche Dokumente
T-Systems Multlitm i ed e ia i a S ol o u l tito i n o s

T1 - Fundamentaler Testprozess

T2 Fundamentaler Testprozess

Testautomatisierung. Lessons Learned. qme Software. Gustav-Meyer-Allee Berlin. Telefon 030/ Telefax 030/

MHP Test Management Qualität ist kein Zufall Ihre Lösung zur Abdeckung des ganzheitlichen Testprozesses!

Qualitätsmanagement im Projekt

Projektmanagement. Vorlesung von Thomas Patzelt 9. Vorlesung

GPP Projekte gemeinsam zum Erfolg führen

your engineering partner boost your development

Softwarequalität: Einführung. 15. April 2015

Einführung von Test-Prozessen laut TMMi. Egon Valentini 1. März 2010

Qualitätssicherung im Lebenszyklus des itcs. Anspruch und Wirklichkeit.

Testen in KMU Projekten Bern, November 2013

Prozessbewertung und -verbesserung nach ITIL im Kontext des betrieblichen Informationsmanagements. von Stephanie Wilke am

Diplomarbeit. Konzeption und Implementierung einer automatisierten Testumgebung. Thomas Wehrspann. 10. Dezember 2008

Reporting Services und SharePoint 2010 Teil 1

Informationssystemanalyse Problemstellung 2 1. Trotz aller Methoden, Techniken usw. zeigen Untersuchungen sehr negative Ergebnisse:

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte

M DIE APP MUSS LAUFEN QUALITÄTSSICHERUNG FÜR IHRE APP. streng vertraulich, vertraulich, intern,

Testphase. Das Testen

RT Request Tracker. Benutzerhandbuch V2.0. Inhalte

IT-Security Portfolio

FUTURE NETWORK REQUIREMENTS ENGINEERING

Einführung von Testautomatisierung reflektiert. Erkenntnisse eines Linienmanagers zu Herausforderungen und Fallgruben

Testmanagement in IT-Projekten

Software- Qualitätsmanagement

Informationssicherheit als Outsourcing Kandidat

Jens Borchers. Kritische Erfolgsfaktoren beim Abnahmetest in Redevelopment- Projekten Erfahrungen aus einem Großprojekt

Datenschutzfreundliches Projektmanagement Sven Thomsen Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein

Qualitätssicherung. Was ist Qualität?

Standard Inhaltsverzeichnis für Testvorschrift

Managed Testing Service

Softwaretechnik. Vertretung von Prof. Dr. Blume Fomuso Ekellem WS 2011/12


Risikoorientiertes Testen und Testmanagement

IT-Security Portfolio

Requirements Engineering für IT Systeme

Risikoorientiertes Testen und Testmanagement

Aufbau und Betrieb eines Testcenters

Unser verflixtes 7. Jahr im Testmanagement. Bernd Schindelasch 26. Juni 2013

Wanna be faster? Performance kann man managen! Application Performance Management, TIC Konferenz 2014

Agile Werkzeuge für den Produktmanagementzyklus vom Konzept bis zur Auslieferung

Modernes Vulnerability Management. Christoph Brecht Managing Director EMEA Central

itestra Software Tuning Mehr Leistung. Weniger Kosten. Software Productivity

Bei der Focus Methode handelt es sich um eine Analyse-Methode die der Erkennung und Abstellung von Fehlerzuständen dient.

Tester als Coach ein Erfolgsmodell

Albert HAYR Linux, IT and Open Source Expert and Solution Architect. Open Source professionell einsetzen

OpenProposal: Anwendervorschlägen für. 27. November 2008 WIR FORSCHEN FÜR SIE. Asarnusch Rashid Herbert Schäfler FZI Forschungszentrum

tegos Support 1 Kontakt tegos Support Ticketing System Support Knowledge Database Fehlerklassen Fehlermanagement...

«PERFEKTION IST NICHT DANN ERREICHT, WENN ES NICHTS MEHR HINZUZUFÜGEN GIBT, SONDERN DANN, WENN MAN NICHTS MEHR WEGLASSEN KANN.»

Testplan. Hochschule Luzern Technik & Architektur. Software Komponenten FS13. Gruppe 03 Horw,

Testen Prinzipien und Methoden

Agiles Testen. Gedankensammlung. 17. November Patrick Koglin

Free your work. Free your work. Wir wollen Ihnen die Freiheit geben, sich auf Ihr Geschäft zu konzentrieren.

Business Application Framework für SharePoint Der Kern aller PSC-Lösungen

Typisierung des Replikationsplan Wirries, Denis Datenbankspezialist

Virtual Roundtable: Business Intelligence - Trends

- Zweimal Wöchentlich - Windows Update ausführen - Live Update im Norton Antivirusprogramm ausführen

Prozesse visualisieren mit Informatik- Werkzeugen Ist Schaffhausen bereit? Beat Kobler, Abteilungsleitung Service Center, KSD Schaffhausen

Performance Analyse in einem komplexen Softwaresystem Gebhard Ebeling

Fragebogen ISONORM 9241/110-S

System Center Essentials 2010

Multichannel Challenge: Integration von Vertriebsorganisation und Contact Center in der Versicherung

Wir erledigen alles sofort. Warum Qualität, Risikomanagement, Gebrauchstauglichkeit und Dokumentation nach jeder Iteration fertig sind.

IT-Revision als Chance für das IT- Management

Testmanagement bei SAP-Projekten

Welchen Weg nimmt Ihr Vermögen. Unsere Leistung zu Ihrer Privaten Vermögensplanung. Wir machen aus Zahlen Werte

TRAINING & LEARNING. So werden Sie von SELECTEAM unterstützt

Integration mit. Wie AristaFlow Sie in Ihrem Unternehmen unterstützen kann, zeigen wir Ihnen am nachfolgenden Beispiel einer Support-Anfrage.

Qualitätssicherung (Testen) im Application Life Cycle

-KONVERTIERUNG LEVIGO SOLUTIONS DAY , 13:45 14:15 WAS PASSIERT MIT NICHT KONVERTIERBAREN ANHÄNGEN?

TELEMETRIE EINER ANWENDUNG

OUTSOURCING ADVISOR. Analyse von SW-Anwendungen und IT-Dienstleistungen auf ihre Global Sourcing Eignung. Bewertung von Dienstleistern und Standorten

.. für Ihre Business-Lösung

Umfrage zur Einführung des elektronischen Abfallnachweisverfahrens

Effizenzsteigerung bei Villeroy & Boch durch den Einsatz von Magento und Zend

Übungsklausur vom 7. Dez. 2007

Content Management System mit INTREXX 2002.

Zuverlässiger IT-Service und Support Wir haben Ihr EDV-System im Griff.

Managements. Änderungsprozess. Wolfgang Witerzens, Manager 31. Januar 2008 ADVISORY

Manuelles Testmanagement. Einfach testen.

Document Management. Überblick DM

Medizintechnik und Informationstechnologie im Krankenhaus. Dr. Andreas Zimolong

Anforderungsanalyse. Basis: Grundlage für Erfolg / Misserfolg. Gute Qualität, moderne Techniken... Reicht nicht!

Modul 3: Service Transition

Modul 5: Service Transition Teil 1

SSL PREMIUM SSL PREMIUM. Bern, 2. Juli 2015

robotron*e count robotron*e sales robotron*e collect Anmeldung Webkomponente Anwenderdokumentation Version: 2.0 Stand:

Was ist neu in Sage CRM 6.1

[Customer Service by KCS.net] KEEPING CUSTOMERS SUCCESSFUL

Was versteht man unter Softwaredokumentation?

HP Software für SAP Solutions

T-Systems Multimedia Solutions

Agile Software-Entwicklung im Kontext der EN50128 Wege zum Erfolg

SSI WHITE PAPER Design einer mobilen App in wenigen Stunden

StuPro-Seminar Dokumentation in der Software-Wartung. StuPro-Seminar Probleme und Schwierigkeiten in der Software-Wartung.

Nachricht der Kundenbetreuung

Basiswissen Softwaretest

BüroWARE Exchange Synchronisation Grundlagen und Voraussetzungen

Transkript:

T-Systems Multimedia Solutions Testmanagement in Theorie und Praxis. Agenda 1. T-Systems Multimedia Solutions Test and Integration Center. 2. Grundbegriffe des Testens. 3. Warum testen? 4. Application Lifecycle und damit einhergehende QS-Maßnahmen. 5. Der Testprozess und Aufgaben eines Testmanagers. 6. Auch so kann s gehen Ein Beispiel aus der Praxis. 7. Überblick ausgewählter Testarten. 8. Data Privacy and Security. 1. T-Systems Multimedia Solutions.

AUS GUTEM HAUSE. Die T-Systems Multimedia Solutions GmbH ist eine Tochter der T-Systems. Uns gibt es seit 1995. Hamburg Berlin Wir sind Deutschlands Marktführer bei internetbasierten Lösungen.* Mit über 980 Kollegen realisieren wir jährlich 1.400 komplexe IT-Projekte. Bonn Jena Dresden Und wir wachsen weiter: wir stellen permanent neue Mitarbeiter ein. Stuttgart Freiburg München * New Media Service Ranking 2010 (BVDW) Umfassende QS entlang des Application Lifecycle Matthias Schneider, T-Systems Multimedia Solutions GmbH Hamburg Berlin Dresden Bonn Jena Stuttgart München Freiburg E-Procurement Online-Marketing Certification Support Services E-Services Testing Services & Support Portale Business Processes E-Commerce Code Quality Management IT Strategy and Video-On-Demand Service Security Business Strategies Mobility Communities Project Content Management Management E-Entertainment Consulting Shopsysteme Pay Media Technology E-Workplace Consulting Application Integration Event TV Communications Web TV/IPTV Collaboration Mediathek Umfassende QS entlang des Application Lifecycle Matthias Schneider, T-Systems Multimedia Solutions GmbH

Test and Integration Center. Akkreditiertes Software- Prüflabor Das TIC der T-Systems MMS ist ein akkreditiertes Softwareprüflabor der Bundesrepublik in der Internet- und Multimediabranche. Die Akkreditierung erfolgte durch die Deutsche Akkreditierungsstelle Technik (DATech e.v.), die Mitglied im Deutschen Akkreditierungsrat (DAR) ist. Durch die Akkreditierung wird dem TIZ der T-Systems MMS bescheinigt: Das Testlabor arbeitet nach ausgereiften Methoden und Verfahren. Die Mitarbeiter verfügen über hervorragende Kompetenzen. Die Infrastruktur des Testlabors erfüllt die hohen technischen Anforderungen. Das Management und die Prozesse sind auf einem hohen Niveau. LEISTUNGSPORTFOLIO. Qualitäts- sicherungs- Beratung Datenschutz Code Quality Management Test- Management Funktionstest Testautomatisierung SOA -Test Security Usability/ Accessibility- Test Lasttest Abnahmetest Applikationsanalyse Application Monitoring Umfassende QS entlang des Application Lifecycle Matthias Schneider, T-Systems Multimedia Solutions GmbH WAS IST EIN FEHLER? 2. Grundbegriffe des Testens. Fehler: Eine Abweichung zwischen dem gemessenen Wert / Zustand und dem entsprechenden spezifizierten Wert. Nichterfüllung einer Anforderung Differenz zwischen Soll- und Ist- Verhalten Ähnliche Begriffe: Abweichung Mängel Fehlerhandlung Fehlerzustand Fehlerwirkung

TEST: WAS IST DAS EIGENTLICH? TEST: WAS IST DAS EIGENTLICH? Was Test NICHTist Testen kann nicht garantieren, dass die Software fehlerfrei ist Man kann nicht alles testen. Man kann ein schlechtes Produkt nicht "gut"-testen. Testen ist nicht Debugging / Testen identifiziert nicht die Fehlerursache Gesamter Prozess, ein Programm auf systematische Weise auszuführen, um die korrekte Umsetzung der Anforderungen nachzuweisen und Fehlerwirkungen aufzudecken. Vergleich eines Zustandes des Testobjektes mit dem gewünschten bzw. verlangten Zustand. Testen ist der Prozess, ein Programm mit der Absicht auszuführen, Fehler zu finden. ZIEL DES TESTENS Finden von Fehlern Steigerung der Softwarequalität Senkung der Fehlerrisiken Erfüllung von Normen / Vorschriften / Auflagen Warum? SW-Komplexität SW-Kritikalität (ohne Programme funktioniert kaum was noch) Fehler sind SEHR teuer WARUM GIBT ES ENTWICKLER UND TESTER? Ein bisschen Psychologie Unabhängiges Testen (Objektivität behalten) Test soll von den Personen durchgeführt werden, die nicht an der Programmierung der Software-Module beteiligt waren! Entwickler sind die Theoretiker im Projektteam. Sie entwickeln die Ideen und glauben gern, dass die ganze Welt so funktioniert, wie sie sich das vorstellen. Wenn Entwickler selbst testen, suchen sie nach einer Bestätigung der Gültigkeit ihrer theoretischen Überlegungen. Tester sind die Praktiker. Sie wollen nachweisen, dass das Programm unter bestimmten Bedingungen versagt. Tester bringen schlechte Nachrichten Konfliktpotential

Warum testen? 3. Warum testen? Warum testen? Was kosten Fehler? Geschätzte Verluste durch Softwarefehler in Mittelstands- und Großunternehmen in Deutschland:ca. 84,4 Mrd. p.a. 35,9% der IT-Budgets für Beseitigung von Programmfehlern entsprechen 14,4 Mrd. p.a. Produktivitätsverluste durch Computerausfälle aufgrund fehlerhafter Software: ca. 2,6% des Umsatzes - 70 Mrd. p.a. Quelle: Studie der LOT Consulting Karlsruhe, IT-Services 3/2001 allein in Deutschland Ausfälle von jährlich 85 Milliarden Euro durch mangelnde oder unzureichende Testing - Maßnahmen. Quelle: Forrester Research, 2003 Quelle: Standish Group, CHAOS Report 2009: Chaos History von IT-Projekten.

Was kostet die Fehlerbeseitigung? Was kostet die Fehlerbeseitigung? Giga Information Group: Softwarefehler, die erst in der Post- Production-Phase entdeckt werden, verursachen 50 Prozent höhere Kosten als wenn sie bereits in der Entwicklung behoben worden wären. Istanalyse / Grobkonzept Feinkonzept / DV- Konzept Realisierung Abnahme / Einführung Betrieb 1.000 4.000 12.000 48.000 90.000 für Überarbeitung Geschäftsprozess, Review, Diskussion für Überarbeitung Geschäftsprozess, Review, Diskussion für zusätzliche Entwicklungskosten für zusätzliche Abnahmekosten, wiederholtes Roll out Umsatzverlust, Imageschaden 4. Application Lifecycle und damit einhergehende QS-Maßnahmen. Application Lifecycle

Anforderungen Anforderungen Design Anforderungen Anforderungen Design Design Realisierung Einführung Realisierung

Anforderungen Optimierung Anforderungen Betrieb Design Betrieb Design Einführung Realisierung Einführung Realisierung Anforderung: Weichenstellung für Qualität Design: Fehler frühzeitig finden und beseitigen

Realisierung: Frühzeitiges, isoliertes Testen Einführung: Prüfen auf Herz und Nieren Betrieb Vollständige Geschäftsprozesse Betriebliche Tests Reaktion auf System-Probleme Funktionalität Oberfläche Integrationstest Komponententest Systemtest Abnahmetest Schnittstellen Performance Ausfallsicherheit Test gegen Anforderungen Entwicklertest Einführung: Prüfen auf Herz und Nieren Betrieb: Qualität nachhaltig managen

Optimierung: Verbesserungen ableiten 5. Der Testprozess und Aufgaben eines Testmanagers. Testvorgehen in der T-Systems MMS. AUFGABEN DES TESTMANAGERS. Testauswertung Testdurchführung Testkonzeption Testvorbereitung Erstellung / Koordination und Review der Teststrategie und planung inkl. Anpassung entsprechend der Testergebnisse / des Testverlaufs Teststrategie und Testziele Testumfang Teststufen Testvoraussetzungen Testumgebung Bedarfsanalyse zur Testautomatisierung Toolauswahl QS Maßnahmen Ressourcen Fehlerklassen und Fehlerworkflow Risikomanagement Testdaten Klassifizierung Testobjekte auf Basis A/B/C-Analyse Erarbeitung Testfälle -> Testspezifikation Erstellung der Testscripte Erstellung der Testdaten Bereitstellung der Testumgebung Installation Konfiguration der Testtools Annahmetest Testdurchführung nach Testspezifikation Protokollieren der Testergebnisse Erstellung der Fehlermeldungen Re-Test Erstellung der periodischen Berichte Bewertung der Testergebnisse Überprüfen der Abnahmekriterien Dokumentation / Bericht Zertifizierung Freigabe Testplanung, Auswahl der Testmethoden inkl. Zeit- / Aufwands- sowie Kostenschätzung, Ressourcenbeschaffung, Planung des Abweichungs- und Fehlermanagements Initiieren der Spezifikation / Vorbereitung / Implementierung und Ausführung der Tests Definition von Metriken für Nachweis der Effizienz des Testprozesses und für Qualitätsaussagen zur getesteten Anwendung / Produkt Terminierung, Überwachung und Steuerung der Testausführung Ergreifen von Maßnahmen bei auftretenden Problemen Erstellen von Testberichten

Ausgangssituation. 6. Auch so kann s gehen Ein Beispiel aus der Praxis. Ziel des SWE-Projektes: Bereitstellung einer Online-Plattform für die elektronische Genehmigung und Abrechnung von ärztlichen Verordnungen im Krankenkassenumfeld GU: T-Systems SW-Hersteller: deutscher Mittelständler Projektzusammensetzung Kunde: Deutsche Krankenkasse Ausgangssituation. Ausgangssituation. Keine Erkenntnis bis 2009, dass Testmanagement essentiell wichtig für den Projekterfolg ist früherer Versuch der Etablierung eines Testmanagements schlug fehl Kunde war unzufrieden aufgrund unklarer Situation hinsichtlich Anforderungsumsetzung und Fehler-Status EtablierungTaskforce Keine Aussage möglich, wann Software in den Pilotbetrieb gehen kann Alleiniger Test durch SW-Unternehmen auf Basis formloser Entwicklertests, wobei Testautomatisierung vernachlässigt wurde SW-Unternehmen hat keine Erfahrung bzgl. Umgang mit Großkunden und komplexen Projekten September: SW noch nicht im Pilotbetrieb Geplanter Livegang 2009 2010

Organisation TP Test. Kunde & Management- Team Reporting zur Testdurchführung und Fehlersituation Testteams (sowohl Kunde als auch SW-Hersteller) Planung, Steuerung & Monitoring initiale Testdurchführung Sicherstellung der Testergebnis-Dokumentation Planung, Steuerung & Monitoring Nachtests Testmanager zusammen mit Test-Koordinatoren Koordination Fehler- Bewertung Klärung bei Defects. die ein weiteres Testen unmöglich machen / stark erschweren Entwicklung SW-Hersteller Sicherstellung der kontinuierlichen Kommunikation zwischen Entwicklung und Test Analyse der Ist-Situation und identifizierte Verbesserungspotentiale. Titel der Präsentation T-Systems Multimedia Solutions GmbH 09.07.2009 46 Ableitung von Verbesserungspotentialen-TOP 6. Finding Keine Traceability zwischen Testfällen und Anforderungen Nur partielle Risikoanalyse zur Bestimmung der SW-System-kritischen Teile vorhanden Fehler werden durch Kunde grundsätzlich nur den Fehlerklassen 1 und 2 zugeordnet Verbesserungspotential Mapping der Anforderungen zu den bereits abgestimmten Testfällen Bestimmung der Testfälle, die 80% der Funktionalitäten der Applikation ausmachen (= riskante Systemteile) Testfall-Priorisierung Aufsetzen eines internen Fehlerkorridors mit Abstimmung, ob auch für Kunde im Rahmen der Übernahme anwendbar

Ableitung von Verbesserungspotentialen-TOP 6. Finding Keine mit dem Kunden gemeinsam definierten Abnahmekriterien Zuordnung der Tester zu den Testfällen erfolgt momentan nach Verfügbarkeit Testaktivitäten durch neue Anforderungen / CRs seitens Kunde stark erschwert Verbesserungspotential Einholen des Commitments beim Kunde: definierte TF-Beschreibungen = fixierten Anforderungen inkl. Abnahmekriterien Um kritische Testfälle mit entsprechender Intensität zu testen, sind in einem Teststufenplan die Testfallreihenfolge, Testaufwand und -ressourcen zuzuordnen Abstimmung Frozen Zone mit Kunde, in der keine Umsetzung neuer Anforderungen / CRs erfolgt Testkonzeption auf Basis der abgeleiteten Verbesserungspotentiale. Mapping der Testfälle zu den grobgranular spezifizierten Anforderungen schwierig, deshalb: Kunde erstellt die Testfälle, die gleichzeitig die Abnahmekriterien darstellen inkl. deren Einstufung nach Priorisierungskategorien 1. Erkenntnis: zum ersten Mal wurde auf Seiten des Kunden als auch SW-Herstellers die Wichtigkeit erkannt, formalisierte Testfälle zu erstellen Anfang Oktober 2009: Auslieferung der ersten 20 Testfall-Beschreibungen durch den Kunden Hochrechnung der benötigten Zeiten für weitere Testfall-Erstellung Grundlage für die Erstellung eines belastbaren Teststufenplans Testkonzeption auf Basis der abgeleiteten Verbesserungspotentiale. 2. Erkenntnis für Kunde und SW-Hersteller: Test aller fachlich denkbaren Ausprägungen aufgrund Kosten-Nutzenverhältnis nicht machbar, weswegen die Testfall-Priorisierung von Nöten ist sowie die Definition eines Zielkorridors Zielkorridor: Jeder definierte und mit dem Kunden abgestimmte Testfall wird mindestens einmal ausgeführt. Bei zeitlichen Engpässen: alle Testfälle mit Priorität 1 und 2 werden mindestens einmal ausgeführt. Oktober November Dezember Januar KW41 KW42 KW43 KW44 KW45 KW46 KW47 KW48 KW49 KW50 KW51 KW52 KW53 KW01 KW02 KW03 KW04 Funktionaler Performanctest Last- und Performancetest 20.10. 13.11.2009 06.11. 23.11.2009 Funktionstest skv 20.10. 06.11.2009 Last- und Performancetest skv tbd. Layout Test 20.10. 06.11.2009 Funktions- und Prozesstest Interner Test auf Basis eigener TFs 05.10. 16.10.2009 Interner Test auf Basis Kunden-TFs, 1. Teil Interner Test auf Basis Kunden-TFs, 2. Teil Kunden-Test, 1. Teil 19.10. 06.11.2009 09.11. 27.11.2009 ab 06.11.2009 Kunden-Test, 2. Teil ab 27.11.2009 3. Erkenntnis vor Allem für den Kunde: es gibt keine 0 Fehler-Qualität, deshalb Einigung auf einen Fehlerkorridor Penetrationstest 09.11. 30.11.2009

Testkoordination und -monitoring monitoring. Ergebnisse und Konflikte. SW-Hersteller interner Test: Positives Ergebnis für alle Testphasen Die zum Testzeitpunkt zur Verfügung stehenden Testfälle wurden fehlerfrei durchlaufen Alle identifizierten Fehler wurden behoben und erfolgreich nachgetestet: lediglich 1 nicht Pilotverhindernder Fehler (FK 4-5) war nicht behoben, erfolgte im gemeinsamen Regressionstest. Einhaltung des intern definierten Fehlerkorridors (0/0/9/15/-) Konflikt: zurück gestellte Testfälle aufgrund fehlender bzw. fehlerhafter Testfallbeschreibungen. Titel der Präsentation T-Systems Multimedia Solutions GmbH 09.07.2009 53 Ergebnisse und Konflikte. Oktober November Dezember Januar KW41 KW42 KW43 KW44 KW45 KW46 KW47 KW48 KW49 KW50 KW51 KW52 KW53 KW01 KW02 KW03 KW04 Hohes Fehleraufkommen beim anschließenden Kunden-Test: bisherige Testergebnisse wurden angezweifelt aber auch kundenseitige Fehler beim Testvorgehen während des Tests wird erkannt, dass TF-Korrekturen erforderlich sind Entscheidung zum gemeinsamen Test mit einem gemischten Team aus Testern von der Kunden- als SW-Hersteller-Seite Zur Erinnerung: ursprüngliche Testplanung Funktions- und Prozesstest Interner Test auf Basis eigener TFs 05.10. 16.10.2009 Interner Test auf Basis Kunden-TFs, 1. Teil 19.10. 06.11.2009 Entscheidung zu einem abgestimmten Prozess hinsichtlich TF-Anpassungen Interner Test auf Basis Kunden-TFs, 2. Teil Kunden-Test, 1. Teil Kunden-Test, 2. Teil 09.11. 27.11.2009 ab 06.11.2009 ab 27.11.2009

Oktober November Dezember Januar KW41 KW42 KW43 KW44 KW45 KW46 KW47 KW48 KW49 KW50 KW51 KW52 KW53 KW01 KW02 KW03 KW04 Funktions- und Prozesstest Interner Test auf Basis eigener TFs Interner Test auf Basis Kunden-TFs, 1. Teil Interner Test auf Basis Kunden-TFs, 2. Teil Kunden-Test, 1. Teil 05.10. 15.10.2009 19.10. 02.11.2009 09.11. 27.11.2009 ab 06.11.2009 Kunden-Test, 2. Teil Gemeinsamer Test vor Ort beim Kunden ab 27.11.2009 ab 30.11.2009 Freihandtest SW-Hersteller 08.12.2009 Praxistest Kunde ab 06.01.2010 Gemeinsamer Regressionstest ab 18.01.2010 Übernahmetest ab 15.02.2010 Redaktionsschluss Trial-System: 11.03.2010, Schwenk zum Produktivsystem Testdurchführung - Abarbeitung Testfälle 300 250 200 308 300 287 gesamt durchgeführt offen (inkl. zurück gestellte Testfälle) Aufteilung Testfall-Status nach Fehlerfreiheit 150 100 50 0 8 11 2 Testdurchführung insgesamt 3%1% 3% fehlerfrei offen (inkl. zurück gestellte Testfälle) fehlerfrei Nicht Pilot-verhindernde fehlerbehaftete Testfälle Pilotverhindernde fehlerbehaftete Testfälle Blockiert durch anderen Fehler 160 140 120 100 80 60 82 102 53 136 99 155 149 Anzahl Testdurchführung kumuliert (Plan) Anzahl Testfall- Durchführung kumuliert (Ist) 300 250 200 150 100 50 0 214 287 24 49 2 11 13 erfolgreich (nach-) getestet bereit zum Nachtest offen zum Nachtest 93% Nicht Pilot-verhindernde fehlerbehaftete Testfälle Pilotverhindernde fehlerbehaftete Testfälle Blockiert durch anderen Fehler 40 20 0 19 9 36

Fehlerstatus akzeptierte Fehler nach Fehlerschwere 70 60 56 65 offen gefixt Fehlermanagement. 50 40 30 20 10 0 1 36 37 20 28 7 8 1 1 Pilotverhindernd Nicht-Pilotverhindernd Summe bereit zum Nachtest closed Gesamt 90 80 Fehlerstatus Meldungen gesamt 88 zurück gezogen durch Kunde 70 60 50 55 65 einvernehmlich abgewiesen doppelt 40 30 20 10 0 7 6 37 33 28 8 8 5 7 1 2 Pilotverhindernd Nicht-Pilotverhindernd Summe akzeptierte Fehler Gesamt Titel der Präsentation T-Systems Multimedia Solutions GmbH 09.07.2009 62 Fehlermanagement Allgemeiner Workflow. Fehlermanagement Allgemeiner Workflow. Bislang: Fehler wurden unbewertet auf Zuruf in internes Ticket-System des SW-Herstellers eingestellt und unkoordiniert abgearbeitet Nun: Alle festgestellten Fehler, Abweichungen, Probleme, usw. werden unmittelbar im Fehlermanagementsystem (TRAC) als Fehler erfasst und dokumentiert sowohl durch den Kunden als auch SW-Hersteller Bewertung Fehler-Klassifizierung und Behebungstermin mittels eines Fehler Clearings Vorab-Bewertung durch Entwicklungsteam des SW-Herstellers Nicht erfolgreich nachgetestet KUNDE TESTER new re-opened re-test Zurück gezogen KUNDE QS new closed re-test SW-Hersteller QS Nicht akzeptiert new Fehler Clearing akzeptiert Entwicklung assigned gefixt SW-Hersteller Test closed Nicht erfolgreich nachgetestet re-opened Erfolgreich nachgetestet SW-Hersteller QS closed Tägliches Fehler-Reporting an den Kunden Erfolgreich nachgetestet closed

Fehlerprozess Klassifizierung und Priorisierung. Workflow Neue Fehler Täglich Fehlerclearing Fehlermanager, Test und Entwicklung Ergebnis = Fehler Zuordnung Fehlerklasse Priorität Entwickler zu beheben in Version x Termin der Behebung Ergebnis = CR Changeboard (GPL, PL Kunde) Analyse Risiko & Impact des Impacts (was passiert,wenn wir es nicht tun) wie oft kommt der Fall vor gibt es einen Workaround Analyse Aufwand (Entwicklung und Test) Analyse Impact bereits erreichte Testergebnisse Analyse sonstige Risiko Entscheidung Umsetzung erfolgt in Version x Dokumente Auszug aus Ticketsystem Change Requestliste Release-Versionsplan Entwicklung Fehlerbeseitigung, Test Status : behoben Nachtest durch Testteam Status: geschlossen oder wiedereröffnet Freigabe nächste Teststufe (Kundentest) GPL, Testmgmt, Entwickl.mgmt Entscheidung, wann Patch auf Testsystem Kunde Fazit. Die saubere Aufnahme und Abstimmung von Anforderungen zusammen mit dem Kunden ist das A und O für erfolgreiche Projekte. Die tägliche Kommunikation im Projektteam als auch mit dem Kunden hat die nötige Transparenz bzgl. notwendiger Maßnahmen sowie zum Status geschaffen. Das schaffte vor Allem Vertrauen auf Kundenseite. Aktives Fehler Clearing zusammen mit dem Kunden führte zur zügigen Umsetzung / Behebung der aus seiner Sicht wichtigsten Pain Points. Fazit. Der gemeinsame Test unter Beteiligung des SW-Herstellers und des Kunden, konnte frühzeitig Anwendungsfehler aufdecken, um falsche Fehler zu verhindern. Die Anwendung befindet sich heute seit fast einem halben Jahr im Wirkbetrieb. Titel der Präsentation T-Systems Multimedia Solutions GmbH 09.07.2009 67

7. Überblick ausgewählter Testarten. Testarten im Überblick. Testart = Eine Gruppe von Testaktivitäten, mit der Absicht, eine Komponente oder ein System auf einige zusammenhängende Qualitätsmerkmale zu prüfen. Eine Testart ist auf ein bestimmtes Testziel fokussiert. Funktionstest Security Usability/ Accessibility- Test Lasttest Applikationsanalyse Code Quality Management Testautomatisierung SOA-Test Qualitätsmerkmale. Systematik entspricht den DIN-ISO- Normen 9126 und 12119. Qualitätsmerkmale von Softwaresystemen: Funktionsumfang kann die Software alle Aufgaben erfüllen? Zuverlässigkeit wie reagiert das System auf die Fehleingaben? Benutzbarkeit ist das System verständlich und leicht bedienbar? Effizienz wie sind die Antwortzeiten? Änderbarkeit kann die Software erweitert werden? Übertragbarkeit läuft die Software unter verschiedenen Betriebssystemen oder Browsern? Funktionstest.

QUALITÄTSMERKMALE EINES SOFTWARESYSTEMS. Nicht-funktionale Q-Merkmale Funktionalität Zuverlässigkeit Benutzbarkeit Effizienz Änderbarkeit Übertragbarkeit Angemessenheit Richtigkeit Reife Fehlertoleranz Verständlichkeit Erlernbarkeit Zeitverhalten Verbrauchsverhalten Analysierbarkeit Modifizierbarkeit Anpassbarkeit Installierbarkeit Interoperabilität Wiederherstellbarkeit Bedienbarkeit Stabilität Konformität Ordnungsmäßigkeit Prüfbarkeit Austauschbarkeit FUNKTIONSTEST. Motivation Vorgehen Tut die Anwendung genau das, was in den funktionalen Anforderungen beschrieben wurde? Wo gibt es Abweichungen und welchen Auswirkungsgrad besitzen diese? Was muss zuerst/am intensivsten getestet werden, wo sind einfachere Test ausreichend? Wie wird die Wirtschaftlichkeit des Tests sichergestellt? Wie gut ist die Qualität der Entwicklung? Sicherheit Systematik entspricht der DIN-ISO-Norm 9126 T-Systems Multimedia Solutions GmbH 10.09.2010 74 FUNKTIONSTEST. Motivation Vorgehen Testelemente abgrenzen Priorisieren Testmethode Testspezifikation Lasttest. Komplexität Häufigkeit Schätzung durch AG Schätzung durch Entwicklung Äquivalenzklassen Grenzwertanalyse Zustandsbasiert Intuitiv Manuell Automatisiert SOA T-Systems Multimedia Solutions GmbH 10.09.2010 75

LASTTEST. LASTTEST. Motivation Vorgehen Nutzen Überwachung der Agenten Warum Lasttest? Steigende Nutzer- und Zugriffszahlen können längere Antwortzeiten, Fehler und Abstürze provozieren Wirtschaftliche Schäden durch Ausfall und Störungen entstehen Imageverlust durch schlechte Performance 8 Sekunden Regel - Kunde macht sein Geschäft woanders! Ergebnis -analyse Erzeugung der Anfragen Serverüberwachung in Realzeit Beantwortung folgender Fragen: Wie viele User verkraftet die Anwendung? Wo liegen Performance-Engpässe unter Last? Wie lange müssen die Kunden bei steigender User-Anzahl warten? Wie sind meine Server ausgelastet? Wann muss die Hardware erweitert werden? Controller Last- Agenten Virtuelle Benutzer TrueLog Überprüfung der Antworten Testsystem T-Systems Multimedia Solutions GmbH 10.09.2010 77 T-Systems Multimedia Solutions GmbH 10.09.2010 78 USABILITY/ACCESSIBILITY-TEST. Usability/Accessibility-Test. Motivation Vorgehen Nutzen Wie gut kommen die Nutzer mit der Anwendung zu recht? Spricht die Anwendung die Sprache der Nutzer? Wo sind kritische Punkte bei der Nutzung? T-Systems Multimedia Solutions GmbH 10.09.2010 80

USABILITY. USABILITY/ACCESSIBILITY-TEST. Motivation Vorgehen Nutzen Motivation Vorgehen Nutzen Usability-Experten-Evaluation Umfassende Evaluation der Nutzungsoberfläche durch mindestens 2 Experten Usability-Experten versetzen sich in Rolle repräsentativer Nutzer Überprüfen auf Basis anerkannter Heuristiken Ausführliche Erläuterung aller identifizierten Usability-Schwachstellen Konkrete und praxisnahe Verbesserungsvorschläge zu allen gefundenen Schwachstellen 30- bis 40-seitiger Testbericht Usability-Test mit Probanden Nutzertest durch 6-8 Probanden, welche typische Aufgaben am zu testenden System durchführen Eye-Tracking Analyse einer Schlüsselseite durch einen repräsentativen Probanden Ausführliche Erläuterung aller identifizierten Usability-Schwachstellen Konkrete und praxisnahe Verbesserungsvorschläge zu allen gefundenen Usability-Schwachstellen 30- bis 40-seitiger Testbericht inkl. ausgesuchter Kommentare der Probanden Highlight-Video mit ausgewählten Szenen der Probanden T-Systems Multimedia Solutions GmbH 10.09.2010 81 T-Systems Multimedia Solutions GmbH 10.09.2010 82 Und noch viel mehr Qualitäts- sicherungs- Beratung Datenschutz Code Quality Management Test- Management Funktionstest Testautomatisierung SOA -Test Security Usability/ Accessibility- Test Lasttest Abnahmetest Applikationsanalyse Application Monitoring

Data Privacy and Security Portfolio Anforderungs -management Sicherheitsanforderungen Fachkonzept Sicherheits-/Datenschutzkonzept DV-Konzept Projektberatung Code Review Implementierung 8. Data Privacy and Security. Umfeld. Regressionstest/ Projektberatung Projektberatung Penetrationstest/ Zertifizierung Betrieb Deployment Test Data Privacy and Security Wissen der Angreifer Data Privacy and Security Formen von Bedrohungen Wissen der Angreifer Weitergabe von Informationen Schnelle Verbreitung Verstärkter Einsatz von Werkzeugen Notwendiges Wissen zum Ausnutzen von Schwachstellen sinkt Anzahl der möglichen Angreifer steigt Neue Angriffsformen mit alten Hilfsmitteln Häufige Angriffsformen, die nur einen Browser benötigen: Cross Site Scripting {SQL, Command, HTML, PHP, } Injection Informationspreisgabe Anzahl der Angreifer Weitere erfolgreiche Angriffsformen: Social Engineering

Data Privacy and Security OWASP Top 10 Data Privacy and Security. Arten von Schwachstellen. Data Privacy and Security Nutzerseitige Angriffe Cross Site Scripting Cross Site Tracing Inhaltsmanipulation Authentifizierung SQL - Injection Brute Force Unzureichende Authentisierung Schwache Passwort Wiederherstellung Cross Site Authentication Autorisierung Berechtigungen vorhersagen Unzureichende Autorisierung Unzureichende Sitzungs- beendigung Sitzungs Fixierung Data Privacy and Security. Durchführung Penetrationstest. Informationsoffenlegung Auflisten Verzeichnis Informationsleck Pfadmanipulation Vorhersagbare Quellen Befehlsausführung Injection Angriffe (Einschleusung) SQL Injection Logische Angriffe Unzureichende Anti- Automation Unzureichende Prozessprüfung Cross Site Request Forgery Quelle: nach WASC04, WASC 2010

Data Privacy and Security Data Privacy and Security Penetrationstest Penetrationstest Vorgehen Praktische Beispiele Anforderungs -management Fachkonzept DV-Konzept Anforderungsmanagement, Projektberatung. Anforderungen an Betrieb, Entwicklung und Fachseite wurden definiert. Regressionstest/ Projektberatung Sicherheitsanforderungen Sicherheits-/Datenschutzkonzept Projektberatung Projektberatung Penetrationstest/ Zertifizierung Code Review Implementierung Fachkonzepte. Sicherheitskonzept wird erstellt (gilt als Testgrundlage). Datenschutzkonzept wird erstellt. Penetrationstest. Überprüfung der Wirksamkeit der Maßnahmen aus dem Sicherheitskonzept. Betrieb Deployment Test Data Privacy and Security Data Privacy and Security Penetrationstest Vorgehen Praktische Beispiele Penetrationstest Vorgehen Praktische Beispiele Vorbereitung Informationsbeschaffung Bewertung Aktive Eindringversuche Auswertung

Kontakt Danke für Ihre Aufmerksamkeit! Ute Seidel Telefon: 0351 28 20 2873 E-Mail: Ute.Seidel@t-systems.com Thomas Haase Telefon: 0351 28 20 2206 E-Mail: T.Haase@t-systems.com